Artikel sortiert nach…

Artikel sortiert nach… Redaktion Tue, 26.03.2019 - 18:15

…Autoren

…Autoren Redaktion Tue, 19.03.2019 - 10:10

Autoren A-D

Autoren A-D Redaktion Tue, 19.03.2019 - 10:14

Peter Christian Aichelburg

Peter Christian Aichelburg

Peter Christian AichelburgUniv.-Prof. i.R. Dr. Peter Christian Aichelburg wurde 1941 in Wien geboren und hat die Volksschule in Wien und Ascona (Schweiz), das Gymnasium in Caracas (Venezuela) und Barbados (British-Westindien) besucht. Nach der Matura (1959) studierte er Physik und Mathematik an der Universität Wien, verfaßte seine Doktorarbeit über „Das Anfangswertproblem eines harmonischen Oszillators im Strahlungsfeld“ (Anleitung: Walter Thirring) und promovierte 1967 zum Dr.phil. Er habilitierte sich 1974 für Theoretische Physik, war Assistent am gleichnamigen Institut der Universität Wien und wurde ebendort 1980 außerordentlicher Professor und 2000 ordentlicher Professor. Aichelburg ist langjähriger Vorsitzender des Kuratoriums des Europäischen Forums Alpbach, welches die jährlichen Alpbacher Seminare gestaltet. Gastprofessuren und Forschungsaufenthalte an Universitäten und Forschungsinstituten u. a.:

  • International Centre for Theoretical Physics (ICTP), Trieste, Italien (1968 –1969)
  • Lehrbeauftragter an der: "Scuola Internationale Superiore di Studi Avanzati" in Trieste (1981 – 1986)
  • Universidad Simon Bolivar, Caracas, Venezuela (1981)
  • Universidad de los Andes, Bogota´, Kolumbien (1981)
  • Universität von Texas in Austin (1986-87)
  • Universidad Autonoma Metropolitana, Mexico (1990)
  • Isaac Newton Institute for Mathematical Sciences, Cambridge, England (1994, 2002)
  • Albert-Einstein-Institut für Gravitationsforschung, Potsdam, Deutschland (1997, 2003)
  • Institute for Theoretical Physics, University of California at Santa Barbara, USA (1999)

Forschungsgebiete

Gravitationstheorie, klassische Feldtheorie, im engeren Sinn Allgemeine Relativitätstheorie (geometrische Aspekte, mathematische Formulierungen), Kosmologie. Zahlreiche Fachpublikationen.


Bücher

Albert Einstein. Sein Einfluß auf Physik, Philosophie und Politik (gem. m. R. U. Sexl), Vieweg, 1979 „Evolution,Entwicklungsprinzipien und menschliches Selbstverständnis in einer sich verwandelnden Welt“, Hrg. P.C. Aichelburg u. R. Kögerler, Verl. Niederösterr. Pressehaus (1979); "Zeit im Wandel der Zeit", P.C.Aichelburg Hrg., Vieweg (1988).


* Das Europäische Forum Alpbach 2012 steht unter dem Motto „Erwartungen - Die Zukunft der Jugend“ und findet vom 16. August bis 1. September 2012 statt.


Artikel von Peter Christian Aichelburg im ScienceBlog

Redaktion Tue, 23.04.2013 - 23:32

Siegfried J. Bauer

Siegfried J. Bauer

Siegfried J. BauerDr. phil., emer. o. Prof. Siegfried J. Bauer emer. o. Professor der Meteorologie und Geophysik an der Universität Graz

1930 - 2021

1930 geboren in Klagenfurt
1948- 1953 Studium der Physik, Geophysik und Meteorologie an der Universität Graz. Thesis (O.Burkard) über Ionosphärenforschung
1953 – 1960 Emigration in die USA über das militärische "Project Paperclip". Bis 1960 Wissenschaftler am US Army Signal R&D Laboratory, Fort Monmouth, New Jersey.
Forschungsgebiet: Atmosphärische Einflüsse auf Radio und Schallwellen, Sferics, Wetterradar, ionosphärische Effekte von Hurricanes und Atombombenexplosionen. Erste Bestimmung der räumlichen Ausdehnung der Erdionosphäre mit Hilfe des Diana Mondradars; Erklärung der Radiosignalschwankungen des ersten Sputnik.
1961 – 1981 NASA Goddard Space Flight Center, Greenbelt, Maryland. Wissenschaftliche und Führungspositionen (u.a. Leiter der Abteilung für Ionosphären und Radiophysik, zuletzt Vizedirektor für Weltraumwissenschaften).
Erforschung der Erdionosphäre mit Raketen und Satelliten, später auch Ionosphäre von Venus und Mars.
1981 – 1998 Ordinarius für Meteorologie und Geophysik und Institutsvorstand an der Karl-Franzens-Universität Graz
 sowie
Abteilungsleiter und Stellv. Direktor des Grazer Instituts für Weltraumforschung der ÖAW.
Forschung: Planetenatmosphären/ Ionosphären und globale Umweltprobleme.

Aktuelle Funktionen

OEAW

Vorsitzender Global Change Programm Vorsitzender International Decade for Natural Disaster Reduction (IDNDR)

Mitgliedschaften , Auszeichungen

OEAW Academia Europaea (London) International Academy of Astronautics (Paris) Fellow der American Geophysical Union. Mitglied der Kurie für Wissenschaft des Österreichischen Ehrenzeichens für Wissenschaft und Kunst. NASA Medal for Exceptional Scientific Achievement, Erwin-Schrödinger-Preis der ÖAW, David Bates Medal der European Geophysical Society;

Ausgewählte Schriften

Physics of Planetary Ionospheres“, 1973 (auch Russisch und Japanisch) mit H. Lammer „Planetary Aeronomy“, 2004. Die Planetenatmosphären, Bd. 7 (Erde und Planeten), Bergmann/ Schaefer, 1997 und 2001. Die Abhängigkeit der Nachrichtenübertragung, Ortung und Navigation von der Ionosphäre, 2002 Solar System: Planets, Atmospheres and Life, 2003 Biographie: Zwischen Venus und Mars. Erinnerungen eines Weltraumforschers auf zwei Kontinenten, der wolf verlag, St. Michael 2005


Artikel von Siegfried Bauer im ScienceBlog

  • 28.06.2012: Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred Wegener. http://scienceblog.at/entdeckungen-vor-100-jahren-kosmische-strahlung-durch-viktor-franz-hess-kontinentalverschiebung-durc#.
Redaktion Thu, 16.05.2013 - 05:03

Wolfgang Baumjohann

Wolfgang Baumjohann

Wolfgang BaumjohannUniv. Prof. Dr. Wolfgang Baumjohann ist Direktor des Instituts für Weltraumforschung der Österreichischen Akademie der Wissenschaften in Graz, und (teilweise federführend) in neun Satellitenmissionen in den erdnahen Weltraum und zu anderen Planeten involviert. Baumjohann gehört zu den "ISI Most-Cited Scientists" in Weltraumwissenschaften und ist Mitglied hochrangiger Gremien, Kommittes und Akademien. Forschunggebiete: Weltraumplasmaphysik, Planetare Magnetosphären.

Baumjohann hat eine außerplanmäßige Professur an der Ludwig Maximilians-Universität München und ist Honorarprofessor der Technischen Universität Graz. Er hat auf vielen Gebieten der Weltraumplasmaphysik gearbeitet und ist gegenwärtig, teilweise federführend, in neun Satellitenmissionen in den erdnahen Weltraum und zu anderen Planeten (Merkur, Venus, Mars, Jupiter) involviert. Er ist Autor bzw. Koautor von mehr als 500 Arbeiten in wissenschaftlichen Journalen und drei Büchern und einer der meistzitierten Weltraumwissenschaftler. Er hat als Vorsitzender, Delegierter, Herausgeber oder Mitglied in vielen internationalen wissenschaftlichen Gremien und Komitees mitgearbeitet. Er ist Mitglied der Österreichischen Akademie der Wissenschaften, der deutschen Nationalen Akademie der Wissenschaften Leopoldina und der International Academy of Astronautics, Fellow der American Geophysical Union und Träger der Österreichischen Ehrenkreuzes für Wissenschaft und Kunst I. Klasse.

Einen detaillierteren Lebenslauf finden Sie hier.


Artikel von Wolfgang Baumjohann im ScienceBlog

Redaktion Tue, 19.03.2019 - 11:28

Christina Beck

Christina Beck

Christina BeckDr. Christina Beck

Leiterin Abt.Kommunikation, Generalverwaltung der Max-Planck-Gesellschaft, München

https://www.mpg.de/de/kontakt/ansprechpartner-kommunikation#Leiterin%20Kommunikation

Christina Beck hat an der Universität Hamburg Biologie studiert und nach dem Diplom an ihrer Doktorarbeit aus Zellbiologie am Max-Planck-Institut für Biochemie/Ludwig-Maximilians-Universität, München gearbeitet, wo sie 1995 "summa cum laude" promovierte.

Nach einer Etappe im Referat Forschungspolitik der MPG kam sie Ende 1998 ins Pressereferat. Dort baute sie die Mitarbeiterkommunikation auf und schuf mit den MAX-Heften viel nachgefragte Unterrichtsmaterialien für Schüler. 2008 übernahm sie die Leitung des Referats für Presse- und Öffentlichkeitsarbeit in der Generalverwaltung. Seit 2015 ist sie Leiterin der Abteilung Kommunikation der Generalverwaltung. Zu ihrem aktuellen Aufgabereich gehören die wissenschaftliche Berichterstattung in allen Medien, das Wissenschaftsmagazin MaxPlanckForschung, multimediale Formate einschließlich der Website www.mpg.de, die MAX-Hefte und das Internetportal max-wissen.de.

In der Unternehmenskommunikation verantwortet Beck neben dem MaxPlanckJournal und dem internen Social-Media-Kanal maxNet für die interne Kommunikation den Neuaufbau des Intranets. Medizin- und Wissenschaftsjournalisten in Deutschland, Österreich und der Schweiz haben Christina Beck zur Forschungssprecherin des Jahres 2016 gewählt.


Artikel von Christina Beck auf ScienceBlog

Redaktion Tue, 19.03.2019 - 11:31

Alessandra Beifiori

Alessandra Beifiori

Alessandra BeifioriDr. Alessandra Beifiori

Dept. Optical and Interpretative Astronomy Max-Planck-Institut für extraterrestrische Physik, Garching

Ausbildung und Karriereweg

2000 – 2006 Studium der Astronomie, Universität Padua "Master Arbeit: Searching for supermassive black holes with the Hubble Space Telescope and the James Web Space Telescope."
2007 -2010 Universität Padua, Doktorarbeit: "Dynamics induced by the central supermassive black holes in galaxies."
2008 Gastwissenschafterin (1 Monat) , Astronomie & Astrophysik an der Queens University
2009 und 2010 Gastwissenschafterin (3 , resp. 5 Monate) , Astronomie & Astrophysik an der Oxford University
2010 - 2011 Wiss. Mitarbeiterin für Evolution von Galaxien, Universität Portsmouth (UK)
2011 - 2013 2013 - Postdoc am MPI für Extraterrestrische Physik, Garching Wissenschafter, ibidem
2013 - Postdoc an der LMU München (Universitäts-Sternwarte)

Forschungsschwerpunkte

Mitglied bei drei großen Kollaborationen, Arbeiten am K-Band Multi-Objekt-Spektrograph (KMOS) und am ESO VLT (Very Large Telescope)

  • Entstehung und Evolution von Galaxien,
  • Dynamik von Galaxien und supermassereichen Schwarzen Löchern
  • spektroskopische Untersuchungen

Publikationen: 41, eine Liste findet sich unter Forscher Portfolio http://pubman.mpdl.mpg.de/cone/persons/resource/persons49260


Artikel von Alessandra Beifiori auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 11:33

Rita Bernhardt

Rita Bernhardt

Univ.Prof. Dr.Rita Bernhardt

http://bernhardt.biochem.uni-sb.de/

Bernhardt wurde 1951 in Großthiemig (Südbrandenburg) geboren.

1969–1973 Studium der Biochemie an der Martin-Luther-Universität Halle,
1973–1976 Doktorandin an der Moskauer Staatlichen Lomonossow-Universität,
1976 Promotion
1977–1992 Wissenschaftliche Mitarbeiterin am Zentralinstitut für Molekularbiologie in Berlin-Buch, Abt. Biokatalyse.
1987 Habilitation
1992–1995 Arbeitsgruppenleiterin am Max-Delbrück-Centrum für Molekulare Medizin in Berlin bzw. an der Freien Universität Berlin, Fachbereich Chemie, Institut für Biochemie.
1995– Universitätsprofessorin an der Universität des Saarlandes
2002 Gründung des „Mach-mit-Labors“

Aktivitäten

Gastprofessuren an den Universitäten Illinois (Urbana, USA), Mailand, Zaragoza, Edinburgh und der Keio-Universität Tokio (Japan) Bernhardt hat 2002 das „Mach-mit-Labor“ an der Universität Saarbrücken gegründet und betreibt es seitdem. Ziel: Schülern der Klassenstufen 8 – 13 und wissenschaftlich interessierten Privatpersonen einen Einblick in die Techniken der Lebenswissenschaften zu geben Sie koordiniert ERASMUS Programme zum Studenten- und Dozentenaustausch mit Universitäten in UK, Italien und Spanien und ist Vertrauensdozentin der Studienstiftung des Deutschen Volkes.

Forschungsschwerpunkte

  • Cytochrom P450-Systeme,
  • Struktur-Funktions-Beziehungen in Proteinen,
  • Proteindesign,
  • Elektronentransfer in biologischen Systemen,
  • Steroidbiosynthese,
  • Ferredoxine,
  • Regulation der Steroidbiosynthese.

Veröffentlichungen: Mehr als 170 Arbeiten in Web of Science gelisteten Journalen und zahlreiche Buchkapitel. 8 Patente


Artikel von Rita Bernhardt auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 11:34

Norbert Bischofberger

Norbert Bischofberger

Norbert BischofbergerDr. Norbert Bischofberger Präsident und CEO Kronos Bio Inc http://www.kronosbio.com/ Norbert Bischofberger (* 1956) stammt aus Mellau, einem kleinen Dorf im Bregenzerwald.

Studium und Karriereweg

1975–1980 Chemiestudium an der Universität Innsbruck,
1980–1983 Doktorarbeit in Organischer Chemie (unter Oskar Jeger) an der ETH Zürich
1983–1984 Postdoc am Institute of Organic Chemistry at Syntex, Inc., Palo Alto, CA (Steroid-Chemie)
1984–1986 Postdoc an der Harvard Universität, Cambridge (Enzymologie, mit George Whitesides)
1986–1988 Chemistry Group of the Molecular Biology Dept. at Genentech, Inc.(San Francisco)
1988–1990 Manager of DNA Synthesis at Genentech
1990–2018 Gilead Sciences, Foster City, CA Leitender Vizepräsident (EVP) für Forschung & Entwicklung, CSO
2018– Kronos Bio inc. Präsident und CEO

Der österreichische Chemiker Bischofberger trat 1990 in das 1987 gegründete, kalifornische Startup Gilead ein, damals ein aus zwei Dutzend Mitarbeitern bestehendes Unternehmen. Als Leiter der Forschung und Entwicklung führte Bischofberger die Firma zu einem biopharmazeutischen Weltmarktführer mit rund 30 Milliarden Dollar Umsatz (2017, https://igeahub.com/2017/03/14/top-10-pharmaceutical-companies-2017) und weltweit etwa 7600 Beschäftigten an 31 Orten. Das Portfolio der Firma wurde ein sehr breites. Bischofberger entwickelte Mittel gegen virale Infektionen u.a. gegen Grippe (Tamiflu), Einzeltabletten-Therapien gegen HIV (Atripla, Truvada, Biktarvy) und vor allem neue Therapien gegen Hepatitis C (Solvadi, Harvoni, Epclusa), die erstmals zur Heilung von mehr als 90 Prozent der Patienten führen. Ausser den bahnbrechenden Erfolgen im Virusgebiet konnte Gilead im Vorjahr Yescarta, als zweites von der FDA zugelassenes CAR-T -Medikament (gegen chimäre Antigenrezeptor-T-Zellen gerichtet), auf den Markt bringen (Indikation: B-Zell Lymphom) und hat mit Selonsertib ein Präparat zur Behandlung der nicht-alkoholischen Steatohepatitis (NASH) am Ende der klinischen Entwicklung. Ebenfalls am Ende der klinischen Entwicklung und besonders erfolgversprechend ist Filgotinib gegen entzündliche Erkrankungen (rheumatoide Arthritis, entzündliche Darmerkrankungen). Nach überaus erfolgreichen, knapp 30 Jahren bei Gilead hat Bischofberger überraschend das Unternehmen verlassen und will es nun noch einmal mit einem Startup versuchen. Wie eben bekannt wird (https://bit.ly/2x5UoOz), wird er als Präsident und CEO das Startup Kronos-Bio Inc. (Cambridge Massachusetts) führen, das gerade 4 Beschäftigte zählt. Das Ziel ist es Wirksubstanzen für bisher nicht zugängliche, onkologisch relevante Zielstrukturen (insbesondere Transkriptionsfaktoren) mit neuen Technologien aufzufinden hr

Artikel von Norbert Bischofberger im ScienceBlog

Redaktion Tue, 19.03.2019 - 11:35

Günter Blöschl

Günter Blöschl

Günter BlöschlUniv.Prof. DI Dr. Günter Blöschl ist Vorstand des Instituts für Wasserbau und Ingenieurhydrologie an der Technischen Universität Wien. http://www.hydro.tuwien.ac.at/mitarbeiter/mitarbeiter/guenter-bloeschl.html; http://www.waterresources.at/DK/index.php?id=30

1979 – 1985 Studium an der TU Wien: Bauingenieurwesen mit dem Schwerpunkt Wasserbau. Diplomarbeit über „Schneehydrologie“
1989 Research Fellow University Vancouver
1990 PhD (Dissertation über schneehydrologische Prozesse)
1992 – 1994 Australian National University in Canberra (Schrödinger Stipendium)
1993, 1997 Research Fellow University Melbourne
1997 Habilitation (Hydrologie), TU Wien
1997 – 2007 Institut für Wasserbau und Ingenieurhydrologie TU Wien
2007 – o. Universitätsprofessor für Ingenieurhydrologie und Wassermengen-wirtschaft an der TU Wien
2009 – Leitung des Doktoratkollegs: Wasserwirtschaftliche Systeme, in dessen Rahmen in den nächsten 12 Jahren über 70 Dissertanten an der TU Wien ausgebildet werden (http://www.waterresources.at/DK/index.php?id=2)
2012 – 2016 Präsident der "European Geosciences Union" (EGU; http://www.egu.eu/)
2018 Berufung zum Senator der Helmholtz-Gemeinschaft (https://www.tuwien.ac.at/aktuelles/news_detail/article/125525/)

Forschungsinteressen

Bestimmung von Bemessungshochwässern, Hoch- und Niederwasservorhersagen, Feldmessungen, Regionale hydrologische Prozesse, prozessorientierte Modellierung, Einfluss der Klimaänderung auf die Wasserwirtschaft.

Publikationen

Günter Blöschl hat über 250 wissenschaftliche Publikationen verfaßt und ist der meistzitierte Hydrologe im deutschen Sprachraum. Er ist (oder war) Editor oder Associate Editor von elf wichtigen internationalen Zeitschriften (u.a.: Hydrological Processes, Hydrology and Earth Systems Sciences, Hydrology Research, International Journal of River Basin Management, Journal of Hydrology, and Water Resources Research).

Auszeichnungen

Zahlreiche Ehrungen und Mitgliedschaften in hochrangigen Gesellschaften wie der Deutschen Akademie der Technikwissenschaften – acatech (2010), Fellow American Geophysical Union, AGU (2006) und The International Water Academy (2003); Blöschl ist Mitglied im Wissenschaftlichen Beirat zahlreicher Institutionen wie dem Geoforschungszentrum in Potsdam (GFZ), der Bundesanstalt für Gewässerkunde in Koblenz. (BfG) und dem Nationalen Forschungsprogramm NFP61 (“Nachhaltige Wassernutzung“) des Schweizerischen Nationalfonds zur Förderung wissenschaftlicher Forschung. Vor kurzem wurde er durch einen Advanced Grant des European Research Council (ERC) ausgezeichnet, 2015 erhielt er die Robert E. Horton Medaille von der American Geophysical Union.


Artikel von Günter Blöschl im ScienceBlog

Redaktion Tue, 19.03.2019 - 11:38

Thomas Boehm

Thomas Boehm

Thomas BoehmProf. Dr. Thomas Boehm

Direktor und Senior Group Leader

Max-Planck Institut für Immunobiologie und Epigenetik

http://www.ie-freiburg.mpg.de/boehm

Thomas Boehm hat an der Universität Frankfurt Medizin studiert, Spezialgebiete: Pädiatrie und biologische Chemie. Einer fünfjährigen Tätigkeit am MRC Laboratory of Molecular Biology in Cambridge (1989-1991) folgten eine C3-Professur für Medizinische Molekularbiologie an der Albert-Ludwigs-Universität Freiburg (1991-1994) und eine C4-Professur für Experimentelle Therapie am Deutschen Krebsforschungszentrum Heidelberg (1994 – 1997). Seit Januar 1998 ist Boehm Direktor des Arbeitsbereichs Entwicklung des Immunsystems am Max-Planck-Institut für Immunbiologie und Epigenetik in Freiburg und Honorarprofessor an der Medizinischen Fakultät der dortigen Universität.

Thomas Boehm ist Mitglied verschiedener wissenschaftlicher Gesellschaften, unter anderem der Nationalen Akademie der Wissenschaften Leopoldina. 1997 wurde er mit dem Gottfried-Wilhelm-Leibniz-Preis ausgezeichnet. 2014 mit dem Ernst Jung Preis, einem der höchstdotierten europäischen Medizinpreise.

Thomas Boehm erhält angesehenen Ernst Jung-Preis für Medizin (2014)


Artikel von Thomas Boehm auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 11:50

Antje Boetius

Antje Boetius

Antje BoetiusProf. Dr. Antje Boetius

Leiterin der Forschungsgruppe Mikrobielle Habitate und
Leiterin der HGF-MPG Brückengruppe für Tiefseeökologie und -Technologie Alfred-Wegener-Institut für Polar- und Meeresforschung
(http://www.mpi-bremen.de/HGF_MPG_Joint_Research_Group_for_Deep-Sea_Ecology_and_Technology.html) Max-Planck-Institut für marine Mikrobiologie, Bremen (http://www.mpi-bremen.de/Max-Planck-Institut_fuer_Marine_Mikrobiologie_in_Bremen.html)

Professor für Geomikrobiologie FB 5 Geowissenschaften, Universität Bremen

Ausbildung

1986 – 1992 Biologiestudium, Universität Hamburg ( Diplomarbeit über Tiefseebakterien)
1989 – 1990 Laborassistent: Scripps Inst. of Oceanography San Diego, CA, USA
1990 – 1992 Assistent am Institut für Hydrobiologie und Fischereiwissenschaft, Universität Hamburg
1993 – 1996 Doktorarbeit "Mikrobielle Stoffumsätze in der Tiefsee der Arktis", Universität Bremen
1993 – 1996 Alfred-Wegener-Institut (AWI) für Polar-und Meeresforschung, Bremerhaven Forschungsassistent (PhD)
1996 – 1999 Postdoc am Institut für Ostseeforschung, Warnemünde,
1999 – 2001 Postdoc am Max-Planck-Institut für marine Mikrobiologie,Bremen

Berufsweg

2001 -2003 Wissenschaftliche Mitarbeiterin am Alfred-Wegener-Institut (AWI) für Polar-und Meeresforschung, Bremerhaven. Koordination von Projekten zur Mikrobiologie des Methanumsatzes im Meer.
2001 – 2003 Assistenzprofessor für Mikrobiologie, Internationale Universität Bremen
2003 – 2008 Professor für Mikrobiologie, Internationale Universität Bremen
2003 – Leitung der Forschungsgruppe „Mikrobielle Habitate“ am Max-Planck-Institut für marine Mikrobiologie, Bremen (Untersuchungen: Biogeochemie, mikrobielle Prozesse der Tiefsee, Transportprozesse)
2008 – Leiterin der HGF-MPG Brückengruppe für Tiefseeökologie und -Technologie, Alfred Wegener Institut, Bremerhaven
2009 – Professor für Geomikrobiologie, Universität Bremen
2010 – Auswärtiges wissenschaftliches Mitglied der Max-Planck Gesellschaft
2012 – Vizedirektor des MARUM Cluster of Excellence, Universität Bremen
2015 – Vorsitzende des Lenkungsausschusses von Wissenschaft im Dialog

Mitgliedschaften und Auszeichnungen

2004 Gastprofessor , Universität Pierre und Marie Curie, Paris
2004, 2006, 2007 MARMIC Lehrpreis
2006 Medaille de la Societe d’Oceanographie de France
2009 Gottfried-Wilhelm-Leibniz Preis der DFG Mitglied der Leopoldina (Sektion Geologie)
2010 – Mitglied des Deutschen Wissenschaftsrates
2011 Mitglied der Akademie für Wissenschaft und Literatur, Mainz ERC Advanced Investigator Grant "Abyss"
2012 Heinrich-Hertz-Gastprofessor KIT
2013 ECI Ökologie Preis
2014 Mitglied der EMBO Vorsitzende der Wissenschaftlichen Kommission des Wissenschaftsrates. Hector Wissenschaftspreis Gustav Steinmann Medaille

Forschungsschwerpunkte

  • Mikrobielle Ökologie der Tiefsee
  • Mariner Methankreislauf
  • Gashydrate und "cold seeps"
  • Geomikrobiologie
  • Globaler Kohlenstoff-Kreislauf

Boetius war Leiterin verschiedener internationaler meeresbiologischer Forschungsreisen und hat insgesamt rund 40 Expeditionen unternommen. Von ihren Expeditionen berichtet sie in einer Reihe faszinierender Videos (eine Auswahl davon siehe: Artikel - weiterführende Links) Die Forschungsergebnisse sind in 1522 Publikationen erschienen (Web of Knowledge, abgerufen am 12.5.2016) Laufende und abgeschlossene Projekte: http://www.mpi-bremen.de/Forschungsgebiet_39.html


Artikel von Antje Boetius auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 11:55

Reinhard Böhm

Reinhard Böhm

Reinhard BöhmNach Matura und Studium, die Reinhard Böhm beide in Wien absolviert hatte, dissertierte er über "Ein Rechenverfahren zur Bestimmung der Temperatur eines Flusses". Ab 1973 war er an der ZAMG, wo er sich verschiedenen Aspekten der Klimaforschung widmete. Sein letztes Tätigkeitsfeld umfasste neben dem HISTALP-Projekt und Gletscherbeobachtung (Sonnblick) oder Klimavariabilität auch die Geschichte der Klimaforschung und populärwissenschaftliche Veröffentlichungen.

Dr. Reinhard Böhm verstarb völlig unerwartet am 8. Oktober 2012.


Arbeitsbereich

  • Klimavariabilität, Klimaveränderung - Vergangenheit und Gegenwart
  • HISTALP (Historical Instrumental Climatological Surface Time Series of the Greater Alpine Region)
  • Gletschermonitoring in der Sonnblickregion
  • Geschichte der Klimaforschung
  • Public Science im Feld Klimatologie (Vergangenheit - Gegenwart - Zukunft)

CV

I/2009 - X/2012 ZAMG Wien, Abteilung Klimaforschung
I/2001 - XII/2008 Wien, Abt. Klimatologie,
Bereich "Klimatische Landesaufnahme und Hydroklimatologie"
1985 - XII/2000 ZAMG Wien, Abteilung Klimatologie
VIII/1973 - 1985 ZAMG Wien, Abteilung Observatorium
X/1967 - 6/1973

Universität Wien, Student am Institut für Meteorologie und Geophysik, PhD in theoretischer Meteorologie (Heinz Reuter) kombiniert mit Physik (Peter Weinzierl) und Philosophie (Erich Heintel, Johann Mader)

Dissertation über "Ein Rechenverfahren zur Bestimmung der Wassertemperatur eines Flusses"

VI/1966 Matura (Goethe Realschule, Wien 14, Astgasse)

Publikationen des Autors (Auszug)

Böhm: "Heiße Luft nach Kopenhagen"; Va BENE, 2010
(ISBN 978-3-85167-243-5; als Webbook hier, aktueller Flashplayer nötig) 

Böhm, Auer, Schöner: "Labor über den Wolken"; böhlau, 2011 (ISBN 978-3-205-78723-5)

Einen detaillierten Lebenslauf inklusive umfassendem Veröffentlichungsverzeichnis zum Download als PDF-Dokument finden Sie hier.


Artikel von Reinhard Böhm im ScienceBlog

Redaktion Tue, 19.03.2019 - 11:59

Günther Bonn

Günther Bonn

Günther Bonno. Univ. Prof. Mag. Dr. Günther Bonn studierte Chemie und Physik (Univ. Innsbruck), habilitierte sich in Analytischer Chemie und wurde nach Forschungsaufenthalten an der Yale University (USA) 1991 als Professor für Analytische Chemie an die Universität Linz berufen. Seit 1996 ist er Vorstand des Instituts für Analytische Chemie und Radiochemie der Universität Innsbruck. Er übte und übt wichtige Funktionen in wissenschafts- und forschungspolitischen Gremien im universitären und außeruniversitären Bereich aus und ist Träger zahlreicher Auszeichnungen. Forschungsgebiete Grundlagenforschung und Neuentwicklungen von chemischen Analysenverfahren

Wissenschaftliches Curriculum

1972 – 1976 Studium Chemie Studium  Lehramt Chemie (Hauptfach) und Physik (Nebenfach)
1976 Sponsion (Mag.rer.nat.)
1976 – 1978 Dissertation am Institut für Radiochemie und tätig als AHS Lehrer
1985 Habilitation - Analytische Chemie
1988 Forschungsaufenthalt an der Yale University, Connecticut, USA bei Prof. Csaba Horvath am Department of Chemical Engineering
1991 Berufung als ordentlicher Univ. Professor für Analytische Chemie an die Universität Linz
1995 Berufung als ordentlicher Univ. Professor für Analytische Chemie an die Universität Innsbruck
seit 1996 Vorstand des Institutes für Analytische Chemie und Radiochemie der Universität Innsbruck
- 2000 Vorsitzender des Fachbereichs der Chemischen Institute der Universität Innsbruck
-  1991 Mitglied der Großgerätekommission des BMWK
1993 - 1999 Mitglied des Fachhochschulrates
1996 - 2003 Mitglied und Referent des Fonds zur Förderung der wissenschaftlichen Forschung (FWF)
  Präsident – Büro für Internationale Forschungs- und Technologiekooperation - Austria
2000 - 2010 stv. Vorsitzender des Rats für Forschung und Technologieentwicklung, Wien
2004 stv. Vorsitzender - Universitätsrat der Medizinischen Universität Innsbruck

Forschungsgebiete

Grundlagenforschung und Neuentwicklungen von chemischen Analysenverfahren insbesondere auf den Gebieten der Bio-, Gen- und Phytoanalytik, der Umwelt- und Radioanalytik Fachgebiet: Trenntechnologie, Chromatographie, Festphasenextraktion, Kapillarelektrophorese Publikationen >270 wissenschaftliche Publikationen Coautor von 2 Büchern Patente: 22

Awards

Halasz Medal Award – 2003 Ehrenring der Österreichischen Akademie der Wissenschaften - 2009 Csaba Horvath Memorial Award 2011 Im Editorial von internationalen wissenschaftlichen Zeitschriften (Auszug): Journal of Separation Science Chromatographia LC-GC, Europe Current in Medicinal Chemistry


Artikel von Günther Bonn im ScienceBlog

Redaktion Tue, 19.03.2019 - 12:02

Hans-Rudolf Bork

Hans-Rudolf Bork

Hans-Rudolf BorkProf. Dr. Hans-Rudolf Bork

Institut für Ökosystemforschung
(Universität Kiel)

http://www.ecosystems.uni-kiel.de/home_hrbork.shtml

Hans-Rudolf Bork (Jg 1955) hat an der Justus-Liebig Universität in Giessen und an der technischen Universität Braunschweig Geographie studiert (Nebenfächer: Geologie, Bodenkunde und landwirtschaftlicher Wasserbau) und 1982 zum Dr.rer.nat promoviert.

Wissenschaftliche Laufbahn

1980 – 1988 Wiss. Angestellter/ Hochschulassistent am Institut für Geographie der TU Braunschweig
1988 Habilitation ebendort (Habilitationsschrift „Bodenerosion und Umwelt – Verlauf, Ursachen und Folgen der mittelalterlichen und neuzeitlichen Bodenerosion, Bodenerosionsprozesse, Modelle und Simulationen“)
1988 – 1989 Professor für Geoökologie (C2 auf Zeit) am Institut für Geographie TU Braunschweig
1989 – 1992 Professor für Regionale Bodenkunde (C3) am Institut für Ökologie der Technischen Universität Berlin
1992 – 1999 Wissenschaftlicher Direktor des Zentrums für Agrarlandschaftsforschung (ZALF) in Müncheberg
1996 – 1999 Inhaber des Lehrstuhls für Landschaftsökologie und Bodenkunde (C4) am Institut für Geoökologie der Universität Potsdam
2000 – 2009 Direktor des Ökologie-Zentrums der Christian-Albrechts-Universität zu Kiel
2000 – Inhaber des Lehrstuhls für Ökosystemforschung (C4/W3) an der Christian-Albrechts-Universität zu Kiel
2010 – Direktor des Instituts für Ökosystemforschung der Christian-Albrechts-Universität zu Kiel

Forschungsinteressen

  • Integrative Ökosystem- und Landschaftsforschung Geoarchäologie,
  • Bodenkunde, Hydrologie und Geomorphologie,
  • Analyse der Folgen des Einsatzes von Technik in der Landschaft

Veröffentlichungen

Rund 200 wissenschaftliche Publikationen in rezensierten Zeitschriften und Monographien. Das zusammen mit Verena Winiwarter verfasste und 2014 erschienene Buch ›Geschichte unserer Umwelt‹ ist nominiert zum ›Wissenschaftsbuch des Jahres 2015‹ in der Kategorie ›Naturwissenschaft / Technik.

Funktionen und Ehrungen

Präsident der Deutschen Gesellschaft für Geographie, 1.Vorsitzender des Verbandes der Geographen an Deutschen Hochschulen (VGDH) , Mitglied des Deutschen Archäologischen Instituts Mitglied der Deutschen Akademie der Naturforscher Leopoldina, Honorarprofessor an der Humboldt Universität zu Berlin


Artikel von Hans-Rudolf Bork auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 15:50

Georg Brasseur

Georg Brasseur

Univ.-Prof. Dipl.Ing. Dr.techn. Georg Brasseur

Georg Brasseur (* 1953, Wien) hat an der TU Wien Elektrotechnik studiert. Im Jahr 1979 erfolgte die Sponsion und 1985 die Promotion mit einer Arbeit zur elektronischen Dieselregelung. 1998 hat er sich auf dem Gebiet der "Industriellen Elektronik" habilitiert und parallel dazu die Arbeitsgruppe "Automobilelektronik" aufgebaut.

Seit 1999 ist Brasseur Ordinarius am Institut für Elektrische Messtechnik und Messsignalverarbeitung der TU Graz; von 2001 bis 2008 hat er auch das Christian Doppler Forschungslabor für "Kraftfahrzeugmesstechnik" geleitet.

Brasseur ist seit 2013 Präsident der mathematisch-naturwissenschaftlichen Klasse der Österreichischen Akademie der Wissenschaften.

Forschungsinteressen

Die Spezialgebiete von Brasseur sind automotive Elektronik, Sensorik und Aktuatorik, kapazitive Mess- und Schaltungstechnik sowie nachhaltige Mobilität. Er hat u.a. 1982 den ersten vollelektronischen Regler für Dieselmotoren für PKW und LKW entwickelt, der zum Standard bei Diesel PKW wurde. Er hat für Volkswagen eine treibstoffsparende Servolenkung geschaffen und sogenannte kapazitative Sensoren zur Erfassung von Materialeigenschaften, die weite Anwendung in Industrie und Wirtschaft gefunden haben.

Brasseurs Forschungsergebnisse und Anwendungen sind in mehr als 100 wissenschaftlichen Publikationen niedergelegt und er ist Inhaber von rund 50 Patenten.

Für seine Arbeiten, die neue Möglichkeiten für die industrielle Entwicklung eröffnen, wurde Brasseur mehrfach ausgezeichnet. U.a. erhielt er den Dr. Ernst Fehrer Preis (1982), den Plansee Preis (1985), die Wilhelm Exner Medaille (2001) und den Erwin Schrödinger Preis (2007). 2010 wurde Brasseur zum Fellow des IEEE (Institute of Electrical and Electronics Engineers) gewählt, des mit 423 000 Mitgliedern größten Berufsverbandes in den Sparten Elektrotechnik und Informationstechnik.


Artikel im ScienceBlog

10.12.2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

24.09.20: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität


 

inge Wed, 23.09.2020 - 21:25

Henrik Bringmann

Henrik Bringmann

Henrik BringmannDr. Henrik Bringmann

Forschungsgruppenleiter: "Schlaf und Wachsein"

Max-Planck-Institut für biophysikalische Chemie, Göttingen

http://www.mpibpc.mpg.de/english/research/ags/bringmann/

Nach seinem Studium in Heidelberg promovierte Henrik Bringmann von 2003 bis 2007 über Mechanismen der Zellteilung von Caenorhabditis elegans am MPI für Zellbiologie und Genetik in Dresden. Anschließend forschte er als Postdoc am Laboratory of Molecular Biology in Cambridge (England). Seit 2009 ist er Leiter der Max-Planck-Forschungsgruppe Schlaf und Wachsein am MPI für biophysikalische Chemie in Göttingen. Für seine herausragende wissenschaftliche Leistung während seiner Doktorarbeit erhielt Henrik Bringmann im Jahr 2008 die Otto-Hahn-Medaille der Max-Planck-Gesellschaft. 2015 erhielt Bringmann einen mit 1,5 Mio € dotierten ERC Starting Grant für seine Arbeiten über molekulare Mechanismen des Schlafs

Publikationen

http://www.mpibpc.mpg.de/100863/publications


Artikel von Henrik Bringmann auf ScienceBlog

Redaktion Tue, 19.03.2019 - 16:12

Viktor Bruckman

Viktor Bruckman

Viktor BruckmanDr. Viktor J. Bruckman, M.Sc., B.Sc.

Kommission für Interdisziplinäre Ökologische Studien (KIÖS) http://www.oeaw.ac.at/kioes

Viktor Bruckman (*1981 in Graz) ist Forstwissenschafter. Er hat an der Universität für Bodenkultur in Wien studiert.

Wissenschaftlicher Werdegang

2006 Graduierung zum M.Sc. Thesis: “Rooting of three tree species and soil mineralogy at Pasoh Forest Reserve, Malaysia”
2012 PhD in Forstwissenschaften (mit Auszeichnung) Thesis: “Carbon in Quercus forest ecosystems – Management and environmental considerations”
Seit 2006 Kommission für Interdisziplinäre Ökologische Studien (KIÖS): Wissenschaftlicher Mitarbeiter/Postdoc und Assistent des Vorsitzenden. Funktionen: Projekt- und Budgetverwaltung der Kommission, Mitarbeit in laufenden Forschungsprojekten sowie Leitung von eigenen Projekten, Informationsmanagement (Reporting, Website, Öffentlichkeitsarbeit), Herausgeberschaft einer wissenschaftlichen Publikationsreihe (Interdisciplinary Perspectives), Entwicklung von mittel- bis langfristigen Strategien, sowie allgemeine Unterstützung der Kommissionsarbeit
1.6. – 30.8. 2015 Visiting Assistant professor: Department of Natural Environmental Studies, Graduate School of Frontier Sciences, The University of Tokyo, Japan

Forschungsinteressen

Bioenergie, Biomasse, Kohlenstoff- und Elementhaushalte in Waldökosystemen, Biokraftstoffe, Biokohle, Biodiversität. Aus diesen Themenkreisen hat Bruckman bis jetzt 18 Arbeiten in wissenschaftlichen Journalen publiziert (Google Scholar) und zahlreiche Vorträge an Universitäten und bei internationalen Konferenzen gehalten. Er ist auch Editor und Mitglied im Editorial Board einiger, in diesen Gebieten wichtiger Journale und fungiert häufig als Reviewer eingereichter Artikel.

Projekte

2007 -2009 Partner in: "Investigations on the dynamics of biomass and carbon pools in coppice with reserves stands, coppice with standards stands and high forest" (Bundesministerium für Land- und Forstwirtschaft, Umwelt und Wasserwirtschaft, 300 000 €)
2012 – 2015 Principal coordinator in: "Potentials for realizing negative carbon emissions using forest biomass for energy and subsequent biochar recycling" (EU FP7 150 000 €)
2014 – Principal coordinator in: "Options for integrated forest management in Gaurishankar Conservation Area (GCA), Eastern Nepal Himalayas" (funded by several sites: 20 000 €)
2014 – Partner in: "Long term effects of fire on carbon and nitrogen pools and fluxes in the arctic permafrost and subarctic forests (ARCTICFIRE)!" (Akademie Finland 700 000 €)
2015 – Partner in: "Biochar as a tool for improving soil quality: Can Biochar be used for increasing tree stand productivity and increases carbon sequestration?" (Finnish Foundation for natural resources 148 000 €)
2015 – Principal coordinator in: "Historical forest management and its consequences on the current state of urban forests in Vienna" (Gemeinde Wien 12 000 €)

Funktionen in wissenschaftlichen Gesellschaften

International Union of Forest Research Organizatins (IUFRO) [Koordinator der Task Force “Sustainable Forest Biomass Network (SFBN)”, http://www.iufro.org/science/task-forces/forest-biomass/ National climate protection advisory board [Assistant legate of the Austrian Academy of Sciences] European Geoscience Union [EGU], Division on Energy, Resources and the Environment (ERE) [Board member and scientific officer for surface processes, since 2011] International Union of Forest Research Organizations (IUFRO) [Deputy Coordinator: WG 7.01.03 –"Impacts of air pollution and climate change on forest ecosystems – Atmospheric deposition, soils and nutrient cycles" since 2010; Member of the IUFRO scientific board, since 2015]


Artikel von Viktor Bruckman auf ScienceBlog

Redaktion Tue, 19.03.2019 - 16:25

Caspar Dohmen

Caspar Dohmen

Caspar Dohmen

 

Dipl.Vw. Caspar Dohmen

Freier Journalist

https:/www.caspar-dohmen.de/

(Bild:  Rosa Luxemburg-Stiftung from Berlin, Germany. cc-by)

 

Geboren 1967 in Köln.

Dohmen hat Medizin (bis zum Physikum), VWL und Politik in Köln studiert und 1995 als Dipl. Volkswirt sozialwissenschaftlicher Richtung abgeschlossen.

In den Jahren danach hat er als Wirtschaftsredakteur beim Wiesbadener Kurier, als Finanzredakteur beim Handelsblatt und als Wirtschaftskorrespondent bei der Süddeutschen Zeitung gearbeitet. Seit 2010 lebt er als selbständiger Autor für Print und Radio in Berlin.

Dohmen veröffentlicht in Zeitungen und im Rundfunk vor allem Reportagen, Radiofeatures, Porträts und Kritiken und arbeitet vor allem zu Themen an der Schnittstelle von sozialer und wirtschaftlicher Entwicklung. Seit 2018 an ist er Lehrbeauftragter für Wirtschaftspublizistik an der Universität Siegen im Rahmen des Studiengangs Plurale Ökonomie und an der Universität Witten Herdecke.

2015 und 2019 war Dohmen journalistischer Fellow am Max-Plank-Institut für Gesellschaftsforschung in Köln.

Dohmen hat zahlreiche Bücher verfasst: u.a. Finanzwirtschaft(2020). Schattenwirtschaft (2019), Das Prinzip Fair Trade (2017), Profitgier ohne Grenzen (2016)


 

inge Thu, 01.09.2022 - 19:10

Jens C. Brüning

Jens C. Brüning

Prof.Dr.med Jens Claus Brüning (Jg 1966) ist Professor für Genetik an der Universität Köln, Direktor des Zentrums für Endokrinologie, Diabetes und Präventivmedizin (ZEDP), wissenschaftlicher Koordinator des Exzellenzclusters CECAD („Cologne Excellence Cluster on Cellular Stress Responses in Aging-Associated Diseases“ ) und Direktor des Max-Planck-Instituts für Stoffwechselforschung. Webseite: http://www.nf.mpg.de Brüning hat von 1985 bis 1992 in Köln Humanmedizin studiert (Promotion 1993). Anschließend absolvierte er bis Januar 2001 an der Universität Köln die Weiterbildung zum Facharzt für Innere Medizin

Beruflicher Werdegang

1996 – 1997 Mary K. Iacocca Fellow
1994 – 1997 Forschungsaufenthalt im Labor von Prof. C. Ronald Kahn, Präsident des Joslin Diabetes Center, Harvard Medical School, Boston, USA. Forschungsschwerpunkt: „Molekulare Mechanismen der Insulinwirkung und Insulinresistenz“
1997 – Aufbau eines wissenschaftlichen Labors mit dem Schwerpunkt: „Transgene Tiermodelle der Insulinresistenz“ (Universitätsklinik Köln, Klinik II und Poliklinik für Innere Medizin)
2002 Habilitation (Fach Innere Medizin): „Neue Konzepte zur Pathogenese des Diabetes mellitus Typ 2 durch konditionale Mutagenese des Insulinrezeptorgens in Mäusen“
2003 – o. Professor am Institut für Genetik (Nachfolge Prof. Klaus Rajewsky), Leiter der Abt. Mausgenetik und Stoffwechsel
2006 – 2008 Geschäftsführender Direktor des Institutes für Genetik der Universität zu Köln
2007 – Koordinator des „Cologne Excellence Cluster on Cellular Stress Responses in Aging-Associated Diseases“ (CECAD)
2009 – Max Planck Fellow am MPI für die Biologie des Alterns, Köln
2011 – Direktor des Max-Planck-Instituts für neurologische Forschung, Köln (im Nebenamt) Direktor des Zentrums für Endokrinologie, Diabetes und Präventivmedizin (ZEDP) der Universitätsklinik Köln

Forschungsinteressen

Molekulare Mechanismen der Regulation des Energie- und Glukosestoffwechsels in Verbindung mit altersassozierten (z. B. Typ-2-Diabetes) und neurodegenerativen Erkrankungen (wie Morbus Alzheimer, Morbus Parkinson) und der Regulation der Lebensdauer. Brüning und seinen Mitarbeitern gelang es u. a. nachzuweisen, wie der Insulin-Rezeptor in die Kontrolle des Körpergewichts und die Entstehung einer Fettstoffwechselstörung involviert ist, wie es in Folge zu kardiovaskulären Problemen bei übergewichtigen Menschen kommt und welche Nervenzellen im Hypothalamus des Gehirns die Nahrungsaufnahme regulieren und für den Appetit zuständig sind. Die Forschungsergebnisse sind in mehr als 300 Publikationen dokumentiert (Web of Science, abgerufen am 16. 4. 2015)

Auszeichnungen

1995 Young Investigator Award der American Society for Internal Medicine
1996 Fellowship der Mary K. Iacocca Foundation
2000 1. Preis Young Master’s Turnier der Deutschen Gesellschaft für Innere Medizin (DGIM) Wiesbaden
2001 Ernst und Berta Scharrer Preis der Sektion Neuroendokrinologie der Deutschen Gesellschaft für Endokrinologie (DGE)
2005 Ferdinand-Bertram-Preis der Deutschen Diabetes Gesellschaft (DDG) Wilhelm Vaillant-Preis der Wilhelm Vailant-Stiftung
2006 Lesser-Loewe-Wissenschaftspreis der Lesser-Loewe-Stiftung, Mannheim
2007 Gottfried Wilhelm Leibniz-Preis der Deutschen Forschungsgemeinschaft
2008 Minkowski-Preis der European Association for the Study of Diabetes (EASD)
2009 Ernst-Jung-Preis der Ernst-Jung-Stiftung für Wissenschaft und Forschung, Hamburg

Artikel von Jens Brüning auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 16:31

Susana Coelho

Susana Coelho

Susana CoelhoDr. Susana Coelho

Direktorin und wissenschaftliches Mitglied am Max Planck-Institut für Entwicklungsbiologie (Tübingen)

Abteilung für Algen-Entwicklung und -Evolution; https://www.eb.tuebingen.mpg.de/de/department-of-algal-development-and-evolution/home/ 

 

Susana Coelho wurde in Portugal geboren und hat an der Universität Porto Biologie studiert. Ihre Doktorarbeit über " Cellular signalling in the Fucus zygote" schloss sie bei der Marine Biological Association im Labor von Colin Brownlee (Plymouth, Vereinigtes Königreich) ab.

Sodann arbeitete sie als Postdoc an der Marine Biological Association (UK) und der Station Biologique Roscoff (Frankreich) mit Akira Peters und Mark Cock zusammen, um die Braunalge Ectocarpus als Modellorganismus in der Evolutionsforschung zu etablieren.

Seit 2006 arbeitete sie am Centre National de la Recherche Scientifique (CNRS) in Roscoff und intensivierte ihre Forschung über den Lebenszyklus und die Vermehrung von Braunalgen.

Seit 2010 leitete sie zusammen mit Mark Cock das Algengenetik-Team an der Biologischen Station Roscoff und wurde 2015 zur Forschungsdirektorin am CNRS in Roscoff ernannt.

Seit 2020 ist Susana Coelho Direktorin und wissenschaftliches Mitglied am Max-Planck-Institut für Entwicklungsbiologie, Tübingen.

Auszeichnungen:

Sie wurde mit der Bronzemedaille des CNRS (2015), dem Trogoboff-Preis der Französischen Nationalen Akademie der Wissenschaften (2017)und dem Coups d'Elan Award der Bettencourt Schueller Foundation(2020) ausgezeichnet.

Projekte:

Coelho hat mehrere Forschungsprojekte über die Evolution und Entwicklung von Braunalgen geleitet, darunter zwei ERC-Grants (SEXSEA und TETHYS).

Eine Listeausgewählter Veröffentlichungen findet sich unter: https://www.eb.tuebingen.mpg.de/de/department-of-algal-development-and-evolution/publications/

inge Wed, 01.09.2021 - 18:20

Janek von Byern

Janek von Byern

Janek von ByernDipl.-Biol. Dr. Janek von Byern,

Wissenschaftlicher Mitarbeiter Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie, Wien und Core Facility Cell Imaging and Ultrastructure Research, Universität Wien Janek von Byern hat an der Johann Wolfgang Goethe Universität in Frankfurt Biologie studiert. Studienaufenthalte auf der Meeresforschungsstation IFMB in Giglio/Italien weckten sein Interesse an Kephalopoden; in seiner Diplomarbeit befasste er sich mit der Pharmakologie und Histologie des Blukreislaufsystems in Sepia officinalis. Das Zusammentreffen mit Prof. J. Ott von der Abteilung für Meeresbiologie an der Universität Wien veranlasste von Byern 2003 an die Core Facility Cell Imaging and Ultrastructure Research der Universität Wien zu wechseln. Seine Idee, dass Kephalopoden Klebstoff produzieren könnten, bestätigte er in seiner Doktorarbeit , in der er das Klebstoffsystem des Zwergtintenfisches Ididosepius charakterisierte. In den letzten zwölf Jahren hat von Byern unterschiedliche Klebstoff produzierende Organismen in aller Welt (Japan, Australien, Neuseeland, Indonesien, Thailand, Südafrika und Mozambique) gesammelt und die klebenden Komponenten , ihre mechanischen Eigenschaften und ihre Biokompatibiltät untersucht. Das Ergebnis sind etwa 40 Veröffentlichungen und das Buch "Biological Adhesive Systems. From Nature to Technical and Medical Application" (gemeinsam mit Ingo Grunwald, 2010. Springer, Wien) Janek von Byerns Ziel ist es, die Natur von Bioklebstoffen vom molekularen bis hin zum makroskopischen Niveau zu verstehen, um geeignete Materialien für medizinische Anwendungen - beispielsweise in Chirurgie, Wundheilung und Geweberegeneration -nutzbar zu machen. In dem neuen Europäischen Netzwerk für Bioadhäsion (ENBA) - einem Teil des COST-Netzwerks (European Cooperation in Science and Technology) zur Erforschung der biologischen Adhäsion - hat von Byern den Vorsitz (Chair of Action) inne.


Artikel von Janek von Byern auf ScienceBlog

Redaktion Tue, 19.03.2019 - 16:52

Carbon Brief

Carbon Brief

Carbon Brief LogoCarbon Brief https://www.carbonbrief.org/

UK-Webseite für Klimawissenschaft, Klimapolitik und Energiepolitik Direktor und Herausgeber: Leo Hickman (Bild: https://www.facebook.com/carbonbrief)

Die seit Feber 2011 existierende britische Website Carbon Brief deckt die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik ab. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Es finden sich dort wissenschaftlich aufklärende Darstellungen,, Interviews, Analysen und Faktenchecks sowie tägliche und wöchentliche E-Mail-Zusammenfassungen von Zeitungs- und Online-Berichten.

Das Team von Carbon Brief setzt sich aus Naturwissenschaftern, etablierten Klimaexperten und Wissenschaftsjournalisten zusammen (Details: https://www.carbonbrief.org/about-us). Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als "Best Specialist Site for Journalism" ausgezeichnet.

Die Seite wird von der European Climate Foundation unterstützt.


Artikel von Carbon Brief auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:15

Ralph J. Cicerone

Ralph J. Cicerone

Ralph CiceroneProf. Dr. Ralph J. Cicerone

ehem. Präsident der National Academy of Sciences

(1943 - 2016)

Der US-amerikanische Wissenschafter hat am Massachusetts Institute of Technology und der University of Illinois (Urbana-Champaign) Physik und Elektrowissenschaften studiert und wurde 1970 zum PhD promoviert. Nach 8 Jahren Tätigkeit am Space Physics Research Lab der University of Michigan (Ann Arbor) u.a. als Assistant Professor, war Cicerone in der Abteilung Ozeanographie der University of California, San Diego und als Forschungschemiker am Scripps Research Institute beschäftigt. Von 1980 bis 1989 war er Senior Scientist und Direktor für Atmosphärische Chemie am National Center for Atmospherical Research in Boulder. 1989nwurde er als Professor ans Department Geowissenschaften der University of California, Irvine berufen. Ebendort war er Vorstand, ab 1994 Dekan der Fakultät für Physikalische Wissenschaften der UC Irvine und von 1998 bis 2005 Kanzler dieser Universität. Seit 2005 ist er Präsident der National Academy of Sciences. Ralph Cicerone erhielt zahlreiche hohe Auszeichungen, u.a.: die James B. Macelwane Medal (1979), den Bower Award and Prize for Achievement in Science (1999), die Roger Revelle Medal der American Geophysical Union (2002) unde den Albert Einstein World Award of Science 2004). Er ist Mitglied angesehener Gesellschaften, u.a. der American Association for the Advancement of Science (AAAS), der National Academy of Sciences (NAS), der American Chemical Society (ACS), der American Meteorological Society (AMS), der American Geophysical Union (deren Präsident er von 1992 bis 1994 war) und der American Academy of Arts and Sciences. Forschungsinteressen: Chemie der Atmosphäre, Klimawandel


Artikel von Ralph Cicerone bei ScienceBlog.at

Redaktion Tue, 19.03.2019 - 16:40

Francis S. Collins

Francis S. Collins

Francis S. Collins Francis S. Collins M.D., Ph.D. Direktor der National Institutes of Health (NIH) in Bethesda (Maryland) https://www.nih.gov/

Francis S. Collins (Jg. 1950) ist ein Pionier der Genforschung. Er stammt aus Virginia, hat ein Chemiestudium an der Yale University (PhD 1974) absolviert und daran ein Medizinstudium an der University North Carolina, Chapel Hill angeschlossen (MD 1977).

Collins war Howard Hughes Medical Institute Investigator und Professor für Humangenetik an der University Michigan und entwickelte bahnbrechende Verfahren ("positional cloning") zum Aufspüren von Krankheits-verursachenden Genen. Es folgte die Identifizierung von Genen, welche Erbkrankheiten wie Cystische Fibrose, Huntington's Disease, Neurofibromatose und Hutchinson-Gilford Progeria Syndrome verursachen.

1993 trat Collins die Nachfolge von James Watson als Direktor des National Human Genome Research Institute (NIH) an, welches er bis 2008 leitete. In dieser Funktion war er Chef des Humangenomprojekts, welches im April 2003 in der Entschlüsselung des menschlichen Erbguts gipfelte. Er initiierte ambitionierteste Nachfolgeprojekte wie einen Krebsgenomatlas - d.i. ein Katalog sämtlicher Genveränderungen, die Krebs hervorrufen - und das Hapmap-Projekt, das die Muster genetischer Variation beim Menschen beschreibt .

Im Juli 2009 wurde Collins schließlich zum Direktor der NIH ernannt. Collins leitet nun die 27 Institute und Zentren aus denen die NIH bestehen und damit die weltweit größte Forschungs-Förderorganisation, deren Spektrum sich von Grundlagenforschung bis zu klinischer Forschung erstreckt.

Mit mehr als 1400 wissenschaftlichen Publikationen und einem h-Faktor 127 gehört Collins zu den weltweit renommiertesten, meistzitierten Wissenschaftern. Dementsprechend umfangreich ist seine Liste an Auszeichnungen und Mitgliedschaften in den angesehensten Organisationen. Auf eine auch nur ansatzmäßige Beschreibung wird hier aus Platzgründen verzichtet. Ein ausführlicherer Lebenslauf (in Englisch) kann in Wikipedia nachgelesen werden unter https://en.wikipedia.org/wiki/Francis_Collins.


Artikel von Francis S. Collins auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:21

Patrick Cramer

Patrick Cramer

Univ.Prof.Dr. Patrick Cramer

Direktor am Max-Planck-Institut für biophysikalische Chemie

Abteilungsleiter Molekularbiologie

http://www.mpibpc.mpg.de/de/cramer

Geboren am 3. Februar 1969 in Stuttgart. Studium der Chemie an den Universitäten Stuttgart und Heidelberg mit Forschungsaufenthalten in Bristol (Großbritannien) und Cambridge (Großbritannien). Diplom in Chemie 1995 an der Universität Heidelberg, Promotion an der Universität Heidelberg/EMBL Grenoble (Frankreich) im Jahr 1998. Doktorand in Grenoble (Frankreich) von 1995 bis 1998 sowie Postdoktorand an der Stanford University (USA) von 1999-2001.

Beruflicher Werdegang

2001 – 2003 Tenure track-Professor für Biochemie an der Ludwig-Maximilians-Universität München
2004 – 2014 Professor für Biochemie an der Ludwig-Maximilians-Universität München
2004 – 2013 Direktor des Genzentrums München der Ludwig-Maximilians-Universität München
2012 Vallee Foundation Visiting Professorship
2014 – Direktor am Max-Planck-Institut für biophysikalische Chemie, Göttingen
2015 Gastprofessor am Karolinska Institute, Stockholm

Forschung

Aufklärung der Regulationsprinzipien der Transkription molekular und mechanistisch, genomweit und quantitativ mittels Methoden der Strukturbiologie, funktionaler Genomik und Bioinformatik. Zu diesen Themen sind bereits 126 Publikationen erschienen (Web of Science, Thomson Reuters; abgerufen am 25.8.2016)

Migliedschaften

Mitglied der Deutschen Akademie der Wissenschaften Leopoldina (2009), der EMBO (2009)

Auszeichnungen

2000 MSC Future Investigator Award; EMBO Young Investigator
2002 GlaxoSmithKline Science Award
2004 10th Eppendorf Award for Young European Researchers
2006 Gottfried-Wilhelm-Leibniz Preis, Deutsche Forschungsgemeinschaft
2007 Philip-Morris Research Award; Steinhofer Lecture, University of Freiburg
2008 Bijvoet Medal, University of Utrecht
2009 Familie-Hansen-Preis, Bayer Science & Education Foundation; Ernst-Jung-Preis für Medizin
2010 Medal of Honor of the Robert Koch Institute; European Research Council (ERC) Advanced Investigator
2011 Feldberg Foundation Prize
2012 Paula und Richard von Hertwig-Preis; Bundesverdienstkreuz
2015 Arthur-Burkhardt-Preis; Class of 1942 James B. Sumner Lectureship
2016 Advanced Investigator Grant of the European Research Council ERC; Centenary Award der britischen Biochemical Society

Patrick Cramer ist Mitglied hochrangiger wissenschaftlicher Gremien, Vorsitzender des EMBL (European Molecular Biology Laboratory) Council Heidelberg, Editorial Board Member hochrangiger Journale, war Berater der Bayrischen Staatsregierung, hat zahlreiche internationale Tagungen organisiert, u.v.m. Eine Auflistung findet sich in http://www.mpibpc.mpg.de/12602362/cv_cramer


Artikel von Patrick Cramer auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 16:45

Norbert Cyran

Norbert Cyran

Norbert CyranMag. Norbert Cyran Lecturer und EDV-Beauftragter Core Facility für Cell Imaging and Ultrastructure Research Universität Wien http://cius.univie.ac.at/people2/norbert-cyran-ta/

Der Zoologe Norbert Cyran ist Experte für Ultrastrukturforschung mittels Elektronenmikroskopie. Seine Forschungsinteressen liegen auf dem Gebiet der Bioklebstoffe. Zusammen mit Janek von Byern hat er weltweit Klebstoff produzierende Organismen gesammelt und charakterisiert. Seine Untersuchung Klebstoffanalyse bei heimischen Schnecken wurde mit dem Theodor Körner Preis ausgezeichnet.


Artikel von Norbert Cyran auf ScienceBlog

Redaktion Tue, 19.03.2019 - 17:27

Helmut Denk

Helmut Denk

Helmut DenkEm. Univ. Prof. Dr. Helmut Denk 

Präsident der Österreichischen Akademie der Wissenschaften (2009 -2013).

Nach einem Medizinstudium an der Universität Wien und einer Habilitation für Allgemeine und Experimentelle Pathologie und Pathologische Anatomie war Denk langjähriger Ordinarius für diese Fächer und Vorstand des Instituts für Pathologie der Medizinischen Universität in Graz. Denk ist Träger zahlreicher hochrangiger Auszeichnungen und Mitglied berühmter Akademien. Präsident der Österreichischen Akademie der Wissenschaften (Juli 2009 – Juni 2013)

Helmut Denk, geboren am 5. März 1940 in Scheibbs (NÖ), studierte Medizin an der Universität Wien und wurde 1964 "sub auspiciis" promoviert.

1964 bis 1967 war er Universitätsassistent am Institut für Allgemeine und Experimentelle Pathologie der Universität Wien, 1967 bis 1969 Universitätsassistent an der 1. Med. Universitätsklinik Wien. Es folgte ein Forschungsaufenthalt am Pathologischen Institut der Mount Sinai School of Medicine, New York, und 1974/75 eine Gastprofessur am Pharmakologischen Institut der Yale University.

Seit 1973 ist Helmut Denk Facharzt für Pathologie, Zytodiagnostik und Humangenetik, im selben Jahr erfolgte die Habilitation für Allgemeine und Experimentelle Pathologie, 1976 die Habilitation für Pathologische Anatomie. Von 1. Jänner 1983 bis zu seiner Emeritierung 2008 war Helmut Denk o. Universitätsprofessor für Pathologische Anatomie und Vorstand des Instituts für Pathologie der Medizinischen Universität Graz. Von 1991 bis 1997 war er Vizepräsident des Wissenschaftsfonds FWF.

1989 wurde Denk zum korrespondierenden, 1991 zum wirklichen Mitglied der ÖAW gewählt. Seit 1996 ist er Fellow des Royal College of Pathologists in London und seit 1998 Mitglied der Deutschen Akademie der Naturforscher Leopoldina. Der Pathologe wurde unter anderem mit dem Sandoz Preis für Medizin (1974) und dem Kardinal-Innitzer-Würdigungspreis (1994) ausgezeichnet. Seit 1999 ist er Träger des Österreichischen Ehrenzeichens für Wissenschaft und Kunst, seit 2003 Vorsitzender der Kurie für Wissenschaft des Österreichischen Ehrenzeichens für Wissenschaft und Kunst. Mit drei Kollegen gründete Denk 2001 das Grazer Biotech-Unternehmen Oridis Biomed als einen Spin-off der Medizinischen Universität Graz.


Artikel von Helmut Denk im ScienceBlog

Redaktion Tue, 19.03.2019 - 16:47

Tobias Deschner

Tobias Deschner

Tobias DeschnerDr. Tobias Deschner, Leiter des Labors für Verhaltensendokrinologie am Max-Planck Institut für Evolutionäre Anthropologie/ Abteilung für Primatologie in Leipzig.

http://www.eva.mpg.de/primat/staff/deschner/

Studium

1989 – 1991 Rupprecht-Karls Universität Heidelberg, Grundstudium Biologie
1991 – 1996 Universität Hamburg. Diplomarbeit: „Social behavior of the olive colobus, Colobus verus (VAN BENEDEN 1838) in the Taï National Park, Ivory Coast” (Betreuer: Jakob Parzefall)
1992 – 1993 Indiana University, Bloomington, USA, Studium Verhaltensbiologie
1998 – 2004 Max-Planck Institut für Evolutionäre Anthropologie / Abteilung für Primatologie: Doktorarbeit “The Function of Sexual Swellings in wild West African Chimpanzees (Pan troglodytes verus)” (Betreuer: : Christoph Boesch)

Endokrinologie & Feldforschung

Seit 2004 ist Deschner Leiter des Labors für Verhaltensendokrinologie am Max-Planck Institut für Evolutionäre Anthropologie / Abteilung für Primatologie. Mit der Expertise, die er am Deutschen Primatenzentrum in Göttingen erwarb, extrahiert und analysiert er Hormone (Androgene, Cortisol, Progestagene, Oxytocin) in den Exkreten (Urin, Kot und Speichel) von Affen und setzt die Hormonspiegel in Beziehung zu ökologischen und sozialen Faktoren , wie beispielsweise zur Verfügbarkeit von Nahrung und dem entsprechenden sozialen Verhalten oder zum reproduktiven Status und den damit verbundenen Verhaltensweisen.

Deschner hat - im Rahmen seiner Diplomarbeit und später seiner Doktorarbeit - 24 Monate Feldforschung im Taï-Nationalpark an der Elfenbeinküste betrieben, einem riesigen zusammenhängenden Regenwaldgebiet, in welchem das Leipziger Max-Planck-Institut für evolutionäre Anthropologie ein Forschungscamp besitzt. Forschungsaufenthalte führten Deschner zu anderen Forschungsstationen: u.a. hat er Verhaltensstudien an Schimpansen in Budongo (Uganda), an Bonobos in Lui Kotal (Demokratische Republik Kongo) und an Weissstirn-Kapuzineraffen in Lomas Barbudal (Costa Rica) durchgeführt.

Seine Forschungsergebnisse hat Tobias Deschner in mehr als 50 Publikationen in Fachjournalen beschrieben. Mehr als die Hälfte dieser Arbeiten sind von der homepage frei abrufbar (http://www.eva.mpg.de/primat/staff/deschner/public.html).


Artikel von Tobias Deschner auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 16:53

Carl Djerassi

Carl Djerassi

Carl DjerassiCarl Djerassi  (1923 - 2015)

Chemiker, emeritierter Universitätsprofessor, Schriftsteller, Bühnenautor, Kunstsammler und Kunstförderer.

Djerassi wurde am 29. Oktober 1923 als Sohn eines Arztehepaares in Wien geboren. 1938 flüchtete er vor dem Naziregime und kam über Bulgarien in die USA, wo er das Kenyon College (Ohio) absolvierte, Chemie an der University of Wisconsin (Madison) studierte und 1945 mit einer Doktorarbeit in Organischer Chemie (Umwandlung von Androgenen in Östrogene) zum PhD promovierte. Nach 4 Jahren Forschungstätigkeit bei CIBA Pharmaceuticals (New Jersey), wo er das erste kommerzielle Antihistamin synthetisierte, wurde er stellvertretender Forschungsleiter bei Syntex (Mexico City). 1951 gelang dort die Synthese von Cortison aus einem in der mexikanischen Yamswurzel vorkommenden Naturstoff und kurz darauf die Synthese des Wirkstoffs der „Pille“, des ersten oralen Verhütungsmittels. 1952 nahm Djerassi eine Berufung als Professor für Chemie an die Wayne State University (Detroit) an, 1959 erfolgte schließlich eine Berufung an die Stanford University, wo er bis zu seiner Emeritierung im Jahr 2002 verblieb. Neben seiner akademischen Laufbahn war Djerassi u.a. Präsident der Syntex Forschung und Gründer und Vorstandsvorsitzender der Zoecon Corporation, wo er einen neuen Weg der Schädlingsbekämpfung - ohne Insektizide - einschlug, nämlich auf der Basis modifizierter Insektenhormone, die die Verpuppung und das Ausschlüpfen der Insekten blockieren.

Als Wissenschaftler war Djerassi einer der profiliertesten Vertreter der Organischen Chemie, seine Arbeiten sind grundlegend für Synthese (vor allem von Steroiden) und Strukturaufklärung von Stoffen (Entwicklung und Anwendung von Masssenspektrometrie, Optischer Rotationsdispersion und Circulardichroismus). Bereits 1965 hat Djerassi zusammen mit J. Lederberg und E. Feigenbaum ein Computerprogramm DENDRAL – die erste Anwendung „künstlicher Intelligenz“ - entwickelt zur Strukturaufklärung unbekannter organischer Verbindungen.

Djerassi hat mehr als 1200 Arbeiten in wissenschaftlichen Journalen publiziert, dazu Monographien über Naturstoffe, physikalisch-chemische Analysenmethoden und Computermethoden („artificial intelligence“).

Ab 1986 war Carl Djerassi in zunehmendem Maße als Schriftsteller und seit 1997 als Bühnenautor tätig. In seinem Bestreben einem breiteren Publikum Naturwissenschaften nahezubringen, hat er neue Formen der Kommunikation „Science in Fiction“ und „Science in Theater“ entwickelt, in welchen er über Naturwissenschaften und die „Stammeskulturen“ der Naturwissenschaftler schreibt.

Zu seinen literarischen Werken zählen Kurzgeschichten, Lyrik, Romane (Science in Fiction), sowie Autobiographien (Die Mutter der Pille, Der Schattensammler), Sachbücher (Non-fiction) und neun Theaterstücke (Science in Theatre). Sein erstes Bühnenwerk „Unbefleckt“ wurde seit 1998 in 12 Sprachen übersetzt und weltweit an 19 Bühnen aufgeführt, dieser Erfolg wurde vom nachfolgenden Stück „Oxygen“ noch übertroffen.

Eine Auflistung der Werke Djerassis würde den Rahmen dieses Curriculums sprengen. Es sei hier auf seine Webseite verwiesen, die u.a. auch Auszüge aus einzelnen Romanen und Stücken, sowie weitere Details enthält.

Der kunstbegeisterte Wissenschaftler Djerassi war nicht nur Kunstsammler (u.a. der Werke von Paul Klee) sondern auch Kunstförderer. Auf seinem Grundstück in Kalifornien hatte er eine Künstlerkolonie gegründet, das Djerassi Resident Artists Program, welches jährlich rund 80 Künstlern aus allen Sparten Unterstützung und Studios bietet (http://djerassi.org/; https://www.facebook.com/DjerassiProgram)

Djerassi verstarb im 92. Lebensjahr im Jänner 2015 an einem Krebsleiden.

Auszeichnungen

Für seine Forschungstätigkeit wurde Djerassi weltweit mit nahezu unzähligen wissenschaftlichen Auszeichnungen, Mitgliedschaften in den renommiertesten Akademien und insgesamt 30 Ehrendoktoraten geehrt (siehe http://www.djerassi.com/bio/bio2.html). Djerassi ist u.a. der einzige amerikanische Chemiker, dem sowohl die National Medal of Science (für die erste Synthese eines oralen Verhütungsmittels) als auch die National Medal of Technology (für den hormonellen Weg der Schädlingsbekämpfung) verliehen wurde. 1978 erhielt er den Wolf-Preis für Chemie und wurde in die National Inventors Hall of Fame aufgenommen.

In Österreich erhielt Djerassi u.a. folgende Auszeichnungen: das „Österreichische Ehrenkreuz für Wissenschaft und Kunst“ (1999), das “Grosse Goldene Ehrenzeichen für Verdienste um das Bundesland Niederösterreich”(2002), die “Ehrenmedaille der Bundeshauptstadt Wien in Gold” (2003), das “Grosse Silberne Ehrenzeichen für Verdienste um die Republik Österreich”(2008), sowie (spät aber doch) Ehrendoktorate der Universität Wien (2012), der Medizinischen Universität Wien (2012), der Universität für Angewandte Kunst (2013) und der Sigmund Freud Universität (2013). Eine österreichische Briefmarke mit Djerassis Bild ist 2005 erschienen.


Artikel von Carl Djerassi im ScienceBlog

Redaktion Tue, 19.03.2019 - 16:57

Susanne Donner

Susanne Donner

Dr. Susanne Donner

hat an der Technischen Universität Karlsruhe Chemie studiert.

Nach ihrem Chemiestudium gewann Susanne Donner Einblicke in mehrere Redaktionen von Tageszeitungen, Zeitschriften, Nachrichtendiensten und Fernsehsendern. Sie vertiefte ihre Erfahrungen in mehreren Fortbildungen und wurde mit drei Journalistenpreisen ausgezeichnet.

Donner arbeitet als Wissenschaftsjournalistin und als Gutachterin im Wissenschaftlichen Dienst des Deutschen Bundestags. Ein Schwerpunkt der journalistischen Arbeit liegt in den Bereichen Chemie, Gesundheit, Medizin, Biowissenschaften, Bioethik, Technik, Nachhaltigkeit und Umwelt. Aber die Autorin setzt sich zunehmend auch mit Gesellschaftsthemen etwa dem Leben im Alter auseinander. Sie interessiert sich für molekulare Zusammenhänge und ebenso für das große Ganze von Körper und Geist.

Ihre Artikel sind in Magazinen wie bild der wissenschaft, WirtschaftsWoche, SZ Magazin, Focus Gesundheit, Natur, MIT Technology Review, Psychologie Heute, Zeit Wissen sowie Geolino und in verschiedenen Zeitungen erschienen darunter Die Zeit, die Frankfurter Allgemeine Sonntagszeitung, Der Freitag, Die Welt, Der Tagesspiegel, Neue Züricher Zeitung, Stuttgarter Zeitung und SonntagsZeitung (Ch).

2008 erhielt sie für eine Reportage über Hirnstimulation bei schweren neurologischen Erkrankungen in „Bild der Wissenschaft“ den Medtronic Medienpreis – Medizin Mensch Technik.


Artikel von Susanne Donner auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:11

Knut Drescher

Knut Drescher

Knut DrescherProf. Dr. Knut Drescher Professor für Biophysik, Universität Marburg & Max Planck Research Group Leader

Max-Planck Institut für terrestrische Mikrobiologie, Marburg http://www.mpi-marburg.mpg.de/ http://www.drescherlab.org/index.html

Ausbildung und Karriereweg

2002 Abitur (1,0 ), Altes Gymnasium Bremen, Germany
2002 - 09/2003 Zivildienst (Deutschland)
10/2003 - 09/2007 Master of Physics (1st class), University of Oxford
09/2007 - 2010 Ph.D. in biophysics, DAMTP, University of Cambridge( with Raymond Goldstein)
2010 - 2011 Postdoc, University of Cambridge
02/2011 - 06/2014 Postdoc in molecular biology, Princeton University (with Bonnie Bassler, Howard Stone, Ned Wingreen)
07/2014 – Leiter der Max Planck Research Group "Bacterial Biofilms", Max Planck Institute for Terrestrial Microbiology
10/2015 – Professor für Biophysik, Philipps-Universität Marburg

Auszeichnungen

2002 Karl-Nix-Preis (für Abitur in Bremen, D)
2004 St. Anne's College Scholarship, University of Oxford
2007 Cambridge European Trust Honorary Scholarship, University of Cambridge EPSRC Doctoral Training Award (full scholarship for Ph.D. at Cambridge) Rolls-Royce Prize, University of Oxford (for MPhys project) Gibbs Prize, University of Oxford (for 2nd best physics degree in my class/year at Oxford)
2008 Fitzwilliam College Senior Scholarship, University of Cambridge
2011 St. John's College Research Fellowship, University of Cambridg Human Frontier Science Program (HFSP) long-term postdoctoral fellowship
2014 Blavatnik Postdoctoral Award Finalist of the New York Academy of Sciences Offer from Cornell University for tenure track Assistant Professor position Offer from MIT for tenure track Assistant Professor position
2015 Career Development Award from the Human Frontier Science Program (HFSP)

Forschungsinteressen:

Biofilme in Ökologie und Evolution Dynamik der Biofilme Biophysik des kollektiven Verhaltens Veröffentlichungen: siehe: http://www.mpi-marburg.mpg.de/drescher/publications


Artikel von Knut Drescher auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:04

Irina Dudanova

Irina Dudanova

Irina DudanovaDr. Irina Dudanova

Forschungsgruppenleiterin "Molekulare Neurodegeneration"

Max-Planck-Institut für Neurobiologie, Martinsried https://www.neuro.mpg.de/dudanova/de

* Petrozavodsk (Karelien, Russland)

Beruflicher Werdegang

1998 - 2002 Medizinstudium an der Staatlichen Universität Petrozavodsk
2002 - 2007 Internationales MSc/PhD Programm in Neurowissenschaften, Göttingen
2003 - 2004 Masterarbeit am Institut für Physiologie, Georg-August Universität Göttingen
2004 - 2007 Doktorarbeit am Institut für Physiologie, Georg-August Universität Göttingen
2007 - 2013 Postdoc in der Abteilung "Moleküle - Signale - Entwicklung" (Prof. Rüdiger Klein), Max-Planck-Institut für Neurobiologie, Martinsried
2013 - 2018 Leiterin einer Projektgruppe am Max-Planck-Institut für Neurobiologie im Rahmen des EU-geförderten Projekts „Toxic Protein Aggregation in Neurodegeneration“
Seit 2019 Leiterin der Forschungsgruppe "Molekulare Neurodegeneration" am Max-Planck-Institut für Neurobiologie, Martinsried

Forschungsinteressen

  • Wie wirken Proteinablagerungen auf Nervenzellen?
  • Mechanismen ihrer Toxizität und zelluläre Abwehrmechanismen zur Beseitigung der Aggregate
  • Chorea Huntington - molekulare Signalwege sowie neuronale Schaltkreisveränderungen beim Fortschreiten der Krankheit.

Eine Liste der Publikationen ist unter https://www.neuro.mpg.de/3668098/publications zu finden.

Auszeichnungen, Stipendien

2001 - 2002 Stipendium des Präsidenten von Russland
2004 - 2007 Georg-Christoph-Lichtenberg Promotionsstipendium
2007 Otto-Creutzfeld PhD Preis für herausragende Promotionsarbeit
2016

"For Women in Science" Förderung der Deutschen UNESCO-Kommission, L'Oreal (D) und der Christiane Nüsslein-Volhard-Stiftung


 Artikel in ScienceBlog.at:

23.09.2021: Wie Eiweißablagerungen das Gehirn verändern


 

inge Wed, 22.09.2021 - 19:07

Autoren E-I

Autoren E-I Redaktion Tue, 19.03.2019 - 10:14

Josef Eberhardsteiner

Josef Eberhardsteiner

Josef EberhardsteinerO.Univ.-Prof. Dipl.-Ing. Dr. techn. DDr. h.c. Josef Eberhardsteiner gehört zu den international angesehensten Wissenschaftlern auf dem Gebiet des Bauingenieurwesens.

Eberhardsteiner wurde 1957 in Ansfelden (nahe Linz) geboren. Er studierte an der Technischen Universität Wien Bauingenieurwesen.

Beruflicher Werdegang

1983 Dipl.-Ing. der Studienrichtung Bauingenieurwesen, TU Wien
1983-1984 Universitätsassistent am Institut für Baustatik und Festigkeitslehre (TU Wien)
1989 Promotion zum Dr. techn. (TU Wien)
1992 - Leiter des Laboratoriums des Instituts für Festigkeitslehre
2001 Habilitation für das Fachgebiet „Festigkeitslehre": „Mechanisches Verhalten von Fichtenholz - Experimentelle Bestimmung der biaxialen Festigkeitseigenschaften";
2001 -  2003 ao.Univ.-Prof. am Institut für Festigkeitslehre; TU Wien
2003 - o.Univ.-Prof. für „Werkstoff- und Struktursimulation im Bauwesen“; TU Wien
2004 - 2009 Ko-Leiter des Laboratoriums für Mikro- und Nanomechanik von biologischen und biomimetischen Materialien (gem. mit Prof. Zysset)
2004 - 2007 Stv. Studiendekan der Fakultät für Bauingenieurwesen
2010 - 2011 Vorstand des Institutes für Mechanik der Werkstoffe und Strukturen der TU Wien.
2007 - Vorsitzender des Aufsichtsrates von KMM-VIN (Virtual Institute on Knowledge-Based Multifunctional Materials)
2008 - Dekan der Fakultät für Bauingenieurwesen
2009 - 2010 Präsident der Danubia-Adria-Society for Experimental Mechanics
2008 - 2010 2012 - Stv. Vorstand des Institutes für Mechanik der Werkstoffe und Strukturen der TU Wien.

Wissenschaftliche Aktivitäten

Forschungs- und Arbeitsgebiete: Experimentelle und numerische Mechanik, makro- und mikromechanische Werkstoffmodellierung: er untersucht die mechanischen Eigenschaften biologischer Materialien (Holz, Sehnen) genauso wie Beton- und Spritzbetonstrukturen. Details zu seinen Forschungsinteressen und Publikationen sind auf der Institutswebseite nachzulesen.

Josef Eberhardsteiner ist Autor von mehr als 250 Arbeiten in wissenschaftlichen Journalen und von Büchern und Buchbeiträgen.

Er ist Mitglied im Editorial Board mehrerer renommierter internationaler Fachzeitschriften.

Großes Engagement zeichnet Eberhardsteiner als Organisator und Co-Organisator von Kongressen aus: bis jetzt hat er rund 20 internationale Tagungen organisiert, davon mehrere in Wien - zuletzt: den „Sixth European Congress on Computational Methods in Applied Sciences and Engineering (ECCOMAS 2012), 10.-14.9.2012, in Wien mit rund 2000 Teilnehmern. Für seine Verdienste wurde er mit dem Austrian Congress-Award ausgezeichnet.

Auszeichnungen

  • Goldenes Ehrenzeichen für Verdienste um die Republik Österreich (2005)
  • Robert Hooke Award European Society for Experimental Mechanics (2010)
  • Leonardo da Vinci Medaille, Czech Association of Mechanical Engineers (2011)
  • IACM Fellow Award, International Association for Computational Mechanics (2012)
  • Ehrendoktorate (TU Minsk, Univ. Sofia)
  • Korresp.Mitglied der Österreichischen Akademie der Wissenschaften

Artikel von Josef Eberhardsteiner im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:32

Hubert Christian Ehalt

Hubert Christian Ehalt

Christian EhaltUniv.Prof.Dr. Hubert Christian Ehalt

(Jg. 1949) stammt aus Wien und hat am BRG VIII Albertgasse maturiert. Nach einigen Semestern Studium der Malerei an der Kunstschule (Gerda Matejka-Felden) und der Akademie der bildenden Künste (Rudolf Hausner) hat er neben dem Lehramt (Philosophie, Psychologie, Pädagogik und Geschichte) Wirtschafts- und Sozialgeschichte (Kunstgeschichte im Nebenfach) studiert, sodann als Zweitstudium Soziologie. 1978 erfogte die Promotion zum Dr.phil.

In der Folge hat sich Ehalt für Wirtschafts- und Sozialgeschichte der Neuzeit habilitiert.

Ehalt ist Gastprofessor an österreichischen Universitäten (u.a. an den Universitäten Wien und Innsbruck, der Universität für angewandte Kunst in Wien, für künstlerische und industrielle Gestaltung in Linz)

Seit 1984 ist Ehalt Referent der Stadt Wien (MA7) und für die Förderung von Wissenschaft und Forschung und den Wissenstransfer zwischen den Universitäten, Fachhochschulen und Forschungsgesellschaften und der Stadt Wien verantwortlich. Seit 1996 leitet er das Institut für historische Anthropologie in Wien

Des Weiteren ist Ehalt Generalsekretär, Kuratoriums- und Vorstandsmitglied mehrerer städtischer Wissenschaftsförderungsfonds und –stiftungen und Präsident der Gesellschaft der Freunde der Österreichischen Akademie der Wissenschaften.

Eine sehr wichtige Rolle spielt Ehalt in der Wissenschaftsvermittlung, in der er bereits seit 1969 tätig ist (Erwachsenenbildung durch Vorträge, Workshops, Seminare,Führungen und Exkursionen). Insbesondere plant und koordiniert er die von ihm 1987 ins Leben gerufenen „Wiener Vorlesungen“ der Stadt Wien. In den bis jetzt über 1000 Veranstaltungen haben über 3000 Vortragende aus aller Welt über aktuelle Themen aus allen Bereichen der Wissenschaft, Politik und Kultur referiert. Daneben hat er ein Wissenschaftsprogrammheft Wiens – den „Wissenschaftskompass“ – begründet und die „Stadtwerkstatt“, einer Verwaltungsakademie der Stadt Wien (Veranstaltungen zur Vernetzung von Wissenschaft und Verwaltung). Eine ausführliche Beschreibung der Aktivitäten in der Wissensvermittlung ist in http://www.iha.ncc.at/leiter/vita.shtml gegeben.

Forschungsinteressen

Sozial-, Mentalitäts- und Alltagsgeschichte Wiens , Wissens- und Wissenschaftsgeschichte Wiens , Gesellschaftsgeschichte der bildenden Künste (17. – 20.Jh, Fokus auf Wien), Geschichte der Schule (19. – 20.Jh, Fokus auf Österreich), Geschichte des Lebenszyklus, Studien zum Verhältnis von „Natur“ und „Kultur“. Ehalt hat zahlreiche Bücher geschrieben, Buchkapitel verfasst, Buchreihen herausgegeben (von den Wiener Vorlesungen sind bereits mehr als 200 Bücher erschienen) und Artikel in wissenschaftlichen Zeitschriften veröffentlicht. Eine Auflistung (bis 2002) findet sich unter: http://www.iha.ncc.at/leiter/publ.shtml

Auszeichnungen

Zahlreiche Auszeichnungen u.a: Theodor-Körner-Preis, Leopold-Kunschak-Preis, Österreichischer Staatspreis für Erwachsenenbildung Goldenes Ehrenzeichen der Wirtschaftsuniversität Wien, Ehrensenator der Technischen Universität Wien und der Universität für Bodenkultur Wien, Ehrenmitglied der Gesamtakademie der Österreichischen Akademie der Wissenschaften.


Artikel von Christian Ehalt auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:36

Knut Ehlers

Knut Ehlers

Knut EhlersDI Dr Knut Ehlers Wissenschaftlicher Mitarbeiter am Umweltbundesamt (UBA) Dessau-Roßlau.

http://www.umweltbundesamt.de/

Knut Ehlers (Jg. 1976) studierte bis 2004 Agrarwissenschaften an der Justus- Liebig-Universität in Gießen (Dipl.-Ing. agr.). Danach arbeitete er freiberuflich als bodenkundlicher Gutachter und als Projektmitarbeiter an der Professur für landwirtschaftliches Beratungs- und Kommunikationswesen.

Von 2006 bis 2010 war er wissenschaftlicher Mitarbeiter an der ETH Zürich. Nach Forschungsaufenthalten in Schweden, Norwegen, Kenia und Burkina Faso promovierte Knut Ehlers über die Phosphordynamik auf stark verwitterten tropischen Böden (Dr. sc. ETH Zürich).

Knut Ehlers arbeitet seit 2010 als wissenschaftlicher Mitarbeiter am Umweltbundesamt. Sein Arbeitsschwerpunkt dort ist die Umweltpolitikberatung zu Landwirtschaftsthemen und zum Bodenschutz.


Artikel von Knut Ehlers auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:47

Pascale Ehrenfreund

Pascale Ehrenfreund

Pascale EhrenfreundProf. Dr. Pascale Ehrenfreund ist seit September 2013 die neue Präsidentin des österreichischen Wissenschaftsfonds FWF.

Ausbildung

Die in Wien geborene Astrophysikerin (Jg 1960) studierte Astronomie und Biologie/Genetik an der Universität Wien. Ihr Masterstudium der Molekularbiologie absolvierte sie in Salzburg an der Österreichischen Akademie der Wissenschaften; ihren PhD (1990) in Astrophysik absolvierte Pascale Ehrenfreund in Paris und Wien.

Mehrere Postdoc-Stipendien (ESA-Fellow am Leiden Observatorium, NL; CNES-Fellow am Service d'Aeronomie, Verrières-le-Buisson, France; Fellow der Marie Curie European Commission) folgten.

1999 habilitierte sich Patrice Ehrenfreund (über „Cosmic Dust“) an der Universität Wien im Fach Astrochemie, finanziert aus Mitteln eines APART-Stipendiums der Österreichischen Akademie der Wissenschaften.

2008 absolvierte Ehrenfreund zusätzlich ein Masterstudium in Management und Internationale Beziehungen.

Beruflicher Werdegang

Ab 2001 war Pascale Ehrenfreund Professor für Astrobiologie in Amsterdam sowie Leiden, wo sie seit 2006 als Visiting Professor arbeitet.

2005 zog es Ehrenfreund in die Vereinigten Staaten. Dort wurde sie Distinguished Visiting Scientist bei JPL/Caltech in Pasadena.

Seit 2008 ist Pascale Ehrenfreund Research Professor of Space Policy and International Affairs am Center for International Science and Technology Policy an der George Washington University (USA). Dort arbeitet sie an wissenschaftspolitischen Themen mit einem Schwerpunkt auf internationalen Beziehungen.

Seit 2008 ist sie zudem Lead Investigator am NASA Astrobiology Institute und sucht nach Lebensspuren im Sonnensystem.

Seit 2010 ist Ehrenfreund Vorsitzende des Committee on Space Research COSPAR Panel on Exploration PEX.

Seit 2011 ist sie Mitglied der European Commission FP7 Space Advisory Group SAG.

Neben zahlreichen anderen Mitgliedschaften ist Ehrenfreund seit 2012 Mitglied des NRC Committee on Human Space Flight.

Seit dem Jahr 1999 ist sie auch im All zu finden, der Asteroid "9826 Ehrenfreund 2114 T-3" trägt ihren Namen.

Seit September 2013 ist sie die Präsidentin des österreichischen Wissenschaftsfonds FWF.

Forschungsinteressen

Astrophysik, Astrochemie, Astrobiologie. Interstellare Chemie, technische Entwicklungen für interstellare/planetare Forschung und Anwendungen, Identifizierung organischer Verbindungen auf den Oberflächen von Planeten, Kometen, Asteroiden, Meteoriten, Suche nach organischen Verbindungen und Lebensformen auf dem Mars, Präbiotische Chemie, Untersuchungen über Lebensformen unter extremen Bedingungen (Atacama Wüste, Utah).

Publikationstätigkeit

(Stand Juli 2014) 313 Veröffentlichungen (Hirsch Faktor: 54), davon 178 in peer-reviewed Journalen, 125 Eingeladene Übersichtsartikel, Buchkapitel, Konferenzartikel 12 Bücher (Editor)

Ausführliche Details zu Werdegang, Publikationen, Auszeichnungen und Mitgliedschaften finden sich auf der


Artikel von Pascale Ehrenfreund auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:50

Günter Engel

Günter Engel

Günter EngelDr. Günter Engel

*1941 (Saarbrücken)

Günter Engel hat Chemie an der Universität Saarbrücken studiert und mit dem Diplom abgeschlossen. Seine biochemische Doktorarbeit (über Wechselwirkungen der Seryl-tRNA Synthetase mit Liganden) fertigte er am Max-Planck Institut für Experimentelle Medizin in Göttingen an.

Sodann trat Engel in den Pharmakonzern Sandoz (später Novartis) in Basel ein, wo er über 33 Jahre lang in Forschungs- und Führungspositionen tätig war. So erforschte er Neurotransmitterrezeptoren , stellte zu deren Charakterisierung radioaktiv markierte Liganden her und war an der Auffindung neuer Therapien beteiligt - vor allem an der Entdeckung des Tropisetrons (NavobanR), eines Mittels gegen Erbrechen und Übelkeit. Engel hatte mehrere Führungspositionen in den Bereichen Endokrinologie und Knochenstoffwechsel inne und war Projektleiter in der Business Unit Transplantation und Immunologie, wo er hauptsächlich an der klinischen Prüfung einer oralen Therapie der Multiplen Sklerose beteiligt war.

Günter Engel ist Autor von mehr als 50 wissenschaftlichen Arbeiten. Neben seinem biochemischen Arbeitsgebiet interessiert er sich für mittelalterliche Kunst, vor allem für die damalige Darstellung und Deutung von Krankheiten.


Artikel von Günter Engel auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:55

Heinz Engl

Heinz Engl

Heinz EnglUniv. Prof. Dr. Heinz Engl

ist Mathematiker, Träger zahlreicher hoher Auszeichnungen und derzeitiger Rektor der Universität Wien. Engl ist seit 1988 Ordinarius für Industriemathematik an der Universität Linz, seit 2002 Wissenschaftlicher Leiter des Kompetenzzentrum Industriemathematik (IMCC, Linz) und seit 2003 Leiter des Johann Radon Instituts (Computational and Applied Mathematics) der Österreichischen Akademie der Wissenschaften. Forschungsgebiete: Inverse und inkorrekt-gestellte Probleme, Industriemathematik

Engl wurde am 28. März 1953 in Linz geboren.

Ausbildung

1971 Reifeprüfung am Bundesgymnasium, Linz
1975 Sponsion, Technische Mathematik, Universität Linz
1977 Promotion, Universität Linz (sub auspiciis praesidentis)

Wissenschaftliche Laufbahn

1979 Habilitation für das Fach Mathematik, Universität Linz
1981 Ernennung zum außerordentlichen Universitätsprofessor, Universität Linz
1988 Berufung zum ordentlichen Universitätsprofessor für Industriemathematik, Universität Linz
1994-2003 Mitglied des Kuratoriums und Referent des FWF
seit 2003 wirkliches Mitglied der Österreichischen Akademie der Wissenschaften (ÖAW) (2000-2003 korrespondierendes Mitglied)
seit 2003 Direktor des Johann Radon Institute for Computational and Applied Mathematics (RICAM)/ÖAW
1992-1996 Leiter des Christian Doppler Labors für Mathematical Modelling and Numerical Simulation
1995-2000 Dekan der Technisch-Naturwissenschaftlichen Fakultät, Universität Linz
seit 1996 Aufbau der Firma MathConsult GmbH
seit 2002 Wissenschaftlicher Leiter des Kompetenzzentrum Industriemathematik (Industrial Mathematics Competence Center, IMCC), Linz
2003-2007 Mitglied und stellvertretender Vorsitzender des Universitätsrats der Technischen Universität Graz
seit 2005 FWF-Doktoratskolleg Molecular Bioanalytics
2007 Pioneer Prize des International Consortium for Industrial and Applied Mathematics
2007-2011 Vizerektor für Forschung und Nachwuchsförderung, Universität Wien
Mai 2009 Ernennung zum SIAM Fellow für herausragende Beiträge in der angewandten Mathematik und den Computerwissenschaften
2009 Johannes-Kepler-Preis des Landes Oberösterreich
2010 Honorar-Professor an der Fudan University, Shanghai
seit 01. Oktober 2011 Rektor der Universität Wien
(Funktionsperiode: 01.10.2011-30.09.2015)

Gastprofessuren und Auslandsaufenthalte (Auszug)

1976/77 Georgia Institute of Technology, USA
1978/79 University of Delaware, USA
1986 und 1989 Centre for Mathematical Analysis, Australian National University
1988/89 Universität Wien
1994 Ruf an die Universität Kaiserslautern (Deutschland), als Professor für Angewandte Mathematik
2001 University of Oxford, UK
2001 Ruf an das Rensselaer Polytechnic Institute, Troy, N.Y. (USA), als Dean of Science und Full Professor of Mathematics
2003/04 Institute for Pure and Applied Mathematics, University of California at Los Angeles

Artikel von Heinz Engl im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:57

Bill and Melinda Gates Foundation

Bill and Melinda Gates Foundation

Bill and Melinda Gates FoundationIn der festen Überzeugung, dass jedes Leben gleichwertig ist, setzt sich die Bill & Melinda Gates Foundation mit ihrer Arbeit dafür ein, allen Menschen ein gesundes und produktives Leben zu ermöglichen. In Entwicklungsländern konzentriert sich die Stiftung auf die Verbesserung der Gesundheit der Menschen, und sie gibt ihnen die Möglichkeit, sich selbst aus Hunger und extremer Armut zu befreien. In den Vereinigten Staaten trachtet die Stiftung danach, allen Menschen, besonders denjenigen mit den geringsten Ressourcen, eine Chance zu verschaffen, in Schule und Leben erfolgreich zu sein. Die Stiftung mit Hauptsitz in Seattle im US-Staat Washington wird von Dr. Susan Desmond-Hellmann, CEO, und ihrem stellvertretenden Vorsitzenden William H. Gates Sr. geleitet und untersteht dem Vorsitz von Bill und Melinda Gates und Warren Buffett.

Die Arbeit der Stiftung besteht darin, weltweit die Chancenungleichheit zu reduzieren. In den Industrieländern liegt der Fokus auf der Verbesserung der Gesundheit und der Linderung extremer Armut. In den Vereingten Staaten fördert die Stiftung Programme im Bildungsbereich. In jener Region, in der das Hauptquartier der Stiftung liegt, unterstützt sie Strategien und Programme für Familien mit geringem Einkommen. Die Stiftung hat Ihren Sitz in Seattle im US-Bundesstaat Washington und verfügt über regionale Niederlassungen in Washington D.C., Neu-Delhi, Peking und London. Die Treuhänder sind Bill und Melinda Gates und Warren Buffett.


Statistik Aktuelle Anzahl der Stiftungsmitarbeiter: 1,489

Stiftungsvermögen: $46,8 Milliarden*

Vergebene Fördergelder seit Gründung: $50,1Milliarden

Gesamte Fördergelder 2018: $5,0 Milliarden

Gesamte Fördergelder 2012: $4,7 Milliarden

*Stand: 31. Dezember 2018. In den Jahren 1994 bis 2018 spendeten Bill und Melinda Gates der Stiftung mehr als 36 Milliarden US-Dollar. Beginnend mit 2006 kommen jährlich Spenden von Warren Buffett dazu (bis jetzt insgesamt 24,6 Milliarden US-Dollar).

*Website der Bill & Melinda Gates Foundation

Zur Geschichte der Bill & Melinda Gates Foundation

Blog: Impatientoptimists


William „Bill“ Henry Gates

Bill Gates, 1955 in Seattle geboren, ist ein US-amerikanischer Unternehmer, Programmierer und Mäzen. Er hat 1975 gemeinsam mit Paul Allen die Microsoft Corporation gegründet und ist mit einem geschätzten Vermögen von 72,7 Mrd. US-Dollar der reichste Mensch der Welt. Seit 1994 ist er mit der Programmiererin und Projektmanagerin Melinda French verheiratet mit der er gemeinsam die „Bill und Melinda Gates Stiftung“unterhält. (Ein ausführliches Curriculum Vitae finden Sie hier)


Artikel der Bill and Melinda Gates Foundation auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 18:00

Anton Falkeis & Cornelia Falkeis-Senn

Anton Falkeis & Cornelia Falkeis-Senn

Anton Falkeis

Univ. Prof. Mag.arch Anton Falkeis

Institut für Architektur; Dept. Spezialthemen in Architekturdesign; Universität für angewandte Kunst in Wien

Architekturbüro: falkeis2architects. http://www.falkeis.com/

Anton Falkeis hat an der Universität für Angewandte Kunst Wien Architektur studiert und ist lizenzierter Architekt in Österreich und Liechtenstein. Seine akademische Laufbahn begann er 1992 als Gastforscher an der Universität Tokio in Japan und hat dann an verschiedenen Universitäten unterrichtet wie am Royal College of Art in London, an der Designschule ELISAVA in Barcelona, ​​der ESAG in Paris, der Königlich Dänischen Akademie der bildenden Künste (KADK) in Kopenhagen, der TU Wien, der TU Berlin, der Fachhochschule Luzern und zuletzt am MIT Medienlabor Boston. Falkeis ist Gastkritiker an der Universität Liechtenstein und der ETH Zürich und hält regelmäßig Vorträge auf internationalen Konferenzen. Falkeis ist JSPS-Stipendiat der Japanischen Gesellschaft zur Förderung der Wissenschaft.

Falkeis ist ordentlicher Professor an der Universität für angewandte Kunst in Wien, wo er von 1999 bis 2003 Prodekan der Fakultät für Architektur war. Seit 2000 leitet er die Abteilung für Spezialthemen im Bereich Architekturdesign. 2012 war er Gastprofessor an der Nanjing University of Art in China und leitete das experimentelle Studio. Von 2012 bis 2015 war er Gründungsleiter des Fachbereichs Social Design _Arts as Urban Innovation. Von 2013 bis 2017 war er Dekan des Instituts für Kunst und Gesellschaft an der Universität für angewandte Kunst in Wien.

Zusammen mit Cornelia Falkeis-Senn gründete er die Architekturbüros falkeis architects in Wien (1988) und Vaduz (2011).

 

Cornelia Falkeis-Senn

Mag.arch Cornelia Falkeis-Senn

Architekturbüro: falkeis2architects. http://www.falkeis.com/

 

Cornelia Falkeis-Senn studierte Architektur und Design an der Universität für angewandte Kunst in Wien. Sie begann ihre akademische Laufbahn mit einer Forschungskooperation zum Projekt "Architektur des 20. Jahrhunderts in Österreich" bei Prof. Friedrich Achleitner (1986-1988) und war 1992 Gastwissenschaftlerin an der Universität Tokio in Japan. 1997 war sie Assistenzprofessorin für Architektur an der Technischen Universität Wien. Cornelia Falkeis-Senn ist JSPS-Stipendiatin der Japanischen Gesellschaft zur Förderung der Wissenschaft.

Falkeis2architects

Anton Falkeis & Cornelia Falkeis-Senn haben die Architekturbüros falkeis2architects in Wien (1988) und Vaduz (2011) und das falkeis²architects.building innovation lab gegründet.

Das architektonische Werk von falkeis2architects wurde weithin veröffentlicht und auf der Biennale in Venedig, in Kuala Lumpur, im ACFNY New York, dem A + D Museum in Los Angeles, dem MAK-Museum in Wien und dem Aedes Architecture Forum in Berlin ausgestellt. Darunter sind Realisierungen wie das Active Energy Building in Vaduz, das Curhaus am Wiener Stephansplatz, "Österreich im Ausland" im Parlament in Wien, das Museum und Dokumentationszentrum des österreichischen Widerstandes in Wien, der Dachbodenausbau an der Universität für angewandte Kunst in Wien und die Gedenkstätte Mauthausen.

Zu den Schriften von Anton Falkeis und Cornelia Falkeis-Senn gehören: „Featureless City“, „Western Style and Eastern Mind“, „Urbanisierung der Welt“, „Denken aus der Urban Design Toolbox“, „Urban Change“ und „Active Buildings“.

Das Aktive Energiegebäude in Vaduz, Liechtenstein, wurde für den Nachhaltigkeitspreis der Internationalen Bodensee Konferenz 2017 nominiert. Die Arbeiten von falkeis2architects sind Teil der ständigen Sammlung des Museums für Angewandte Kunst (MAK) in Wien.

Redaktion Thu, 30.01.2020 - 16:18

Walter Jakob Gehring

Walter Jakob Gehring

Walter Jakob GehringEmer. Univ Prof. Dr. Walter Jakob Gehring (Jg. 1939) hat an der Universität Zürich Zoologie studiert, war Post-Doc und Associate Professor an der Yale University (USA) und arbeitet seit 1972 am Biozentrum der Universität Basel, wo er bis zu seiner Emeritierung Full Professor für Entwicklungsbiologie und Genetik war. Auf Gehring gehen vor allem zwei bahnbrechende Entdeckungen zurück, für die er zahlreiche hohe Auszeichnungen erhielt. Er und sein Team entdeckten Anfang der Achtziger Jahre die sogenannten Homeobox Gene, welche den Prozeß des Entwicklungsplans eines werdenden Organismus steuern. Ein Jahrzehnt später fand er mit Pax6 einen Hauptschalter in der Entwicklung des Auges in allen Tieren und damit einen Beweis für den Ursprung aller unterschiedlichen Augentypen vom selben Prototyp. Walter Gehring verstarb am 29. Mai 2014 in Basel.

Curriculum

1939 In Zürich geboren
1958 Matura (RG, Zürich)
1958 – 1965 Universität Zürich: Zoologie Studium
PhD (summa cum laude) Prof. E.Hadorn
1963 – 1967 Univ. Assistent (Prof. E.Hadorn)
1967 – 1969 Postdoctoral Fellow:  Yale University (Prof. Alan Garen);
Visiting Assistant Professor Dept. of Molecular Biophysics
1969 – 1972 Associate Professor, Dept. of Molecular Biophysics, Yale University
1972 – 2009 Full Professor, Dept. of Cell Biology, Biozentrum, University of Basel
2009 – 2014 Professor emeritus

Publikationen

Hochzitierter Autor (h-factor 93) mit mehr als 650 Arbeiten und Büchern

Auszeichnungen

1982 Otto Naegeli-Prize
1986 Warren Triennial Prize (Harvard Medical School)
Dr. Albert Wander Preis (Wander AG. Bern)
Prix Charles-Leopold Mayer (Institut de France, Paris)
1987 Prix Louis Jeantet de Medecine (Fondation Jeantet Geneve)
Gairdner Foundation International Award (Canada)
1993 Prix d'Honneur Science pour l'Art, Moet Hennessy-Louis Vuitton, Paris
1994 Orden pour le Merite für Wissenschaften und Künste,
Bundesministerium des Inneren, Deutschland
1995 Runnstrom Medal, Stockholm
1996 1994-95 AAAS Newcomb Cleveland Prize for outstanding research article in Science
Otto Warburg-Medaille 1996, Gesellschaft fur biologische Chemie
(GBCh) Munich
1997 Prix Paul Wintrebert, Universite Pierre & Marie Curie, Laboratoire Arago, Banyuls-sur-Mer, France
Mendel-Medal, Deutsche Akademie der Naturforscher Leopoldina
2000 March of Dimes Prize in Developmental Biology, awarded by March of Dimes Birth Defects Foundation, White Plains, NY
Karl Ritter Von Frisch-Medaille 2000, Deutsche Zoologische Gesellschaft, Bonn
2002 Kyoto Prize, The Inamori Foundation, Japan
Preis der Alfred Vogt Stiftung zur Forderung der Augenheilkunde, Zurich
2004 Premio Balzan, Fondazione Internazionale Premio E. Balzan for
Developmental Biology
Alexander Kowalevsky Medal, St. Petersburg Society of Naturalists, St. Petersburg, Russia
2010 Grosses Bundesverdienstkreuz mit Stern der Bundesrepublik Deutschland

Mitgliedschaften in Akademien, u.a.

  • National Academy of Sciences USA (Foreign Associate)
  • Royal Society London (Foreign Member)
  • Academie des Sciences (Foreign Member)
  • Royal Swedish Academy of Sciences
  • Deutsche Akademie der Naturforscher Leopoldina
  • Academia Europaea

Ehrendoktorate der Universitäten von Turin, Nuevo Leon (Mexico), Sorbonne, Salento, Barcelona. Associate Editor: The Journal of Experimental Zoology, Mechanisms of Development, Trends in Genetics, Development, Growth & Differentiation, The International Journal of Developmental Biology


Artikel von Walter Jakob Gehring im ScienceBlog

Redaktion Tue, 19.03.2019 - 18:04

Gerd Gleixner

Gerd Gleixner

Gerd GleixnerUniv. Prof. Dr. Gerd Gleixner

Professor für Organische Geochemie (Friedrich Schiller Universität Jena)

Forschungsgruppenleiter für Molekulare Biogeochemie am Max-Planck-Institut für Biogeochemie/Abteilung Biogeochemische Prozesse(Jena) https://www.bgc-jena.mpg.de/bgp/index.php/MolecularBiogeochemistry/MolecularBiogeochemistry

Wissenschaftlicher Werdegang

1984 - 1986 Landwirtschaft/Biochemie-Studium an der TU München
1989 - 1994 Dr. agr. in Biochemie, TU München (Thesis: Isotopeneffekte auf der Fructose-1,6-bisphosphat-Aldolase- und auf der Serin-Hydroxymethyltransferase-Reaktion als Ursachen nicht statistischer Isotopenverteilungen in pflanzlichen Primär und Sekundärstoffen.)
1989 - 1996 Biotechnologie- und Umweltwissenschaften-Studium an der TU München:
1994 - 1997 Postdoktorand am Institut für Allgemeine Chemie und Biochemie, TU München und am Scottish Crop Research Institute, Dundee, GB
1998 - 2002 Wissenschafter am Max-Planck-Institut für Biogeochemie (Jena)
2003 - 2005 Habilitation in Organischer Geochemie (Universität Jena) und Senior Scientist am Max-Planck-Institut für Biogeochemie
2006 – Assoc. Professor am Max-Planck-Institut für Biogeochemie
2010 –  Prof. für Organische Geochemie an der Universität Jena

Forschungsschwerpunkte

  • Schlüsselprozesse in globalen biogeochemischen Kreisläufen auf dem molekularen Niveau,
  • Ursprung, Umsatz und Stabilität der organischen Substanz in Böden,
  • Transport des Kohlenstoffes im Pflanzenmetabolismus,
  • Bedeutung der Biodiversität in biogeochemischen Kreisläufen,
  • Rekonstruktion der Klima- und Vegetationsgeschichte.

Die Forschungergebnisse sind in mehr als 340 Veröffentlichungen niedergelegt. (https://www.bgc-jena.mpg.de/bgp/index.php/Site/Publications?group=SCHU&year=2007&discussionarxiv=false


Artikel von Gerd Gleixner im ScienceBlog

05.08.2021: Erdoberfläche - die bedrohte Haut auf der wir leben


 

inge Thu, 05.08.2021 - 01:33

Gerhard Glatzel

Gerhard Glatzel

Gerhard GlatzelEm. Univ. Prof. Dr. Gerhard Glatzel war Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Forschungsschwerpunkte: Waldernährung, Waldökosystemdynamik und Sanierung von Waldökosystemen, historische Landnutzungssysteme.

Bis zu seiner Emeritierung im Jahr 2008 war Glatzel Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Er lehrte und lehrt weiterhin die Fächer Waldbodenkunde, Waldernährung und Waldökologie für Studenten der Forstwirtschaft. Seine Forschungsinteressen sind Waldernährung und Waldökosystemdynamik, mit speziellem Fokus auf historischen Landnutzungssystemen und Sanierung von Waldökosystemen. Seine Forschungsergebnisse hat er in mehr als zweihundert wissenschaftlichen Arbeiten publiziert. Außerhalb Österreichs engagiert er sich in der Entwicklungszusammenarbeit im Himalayagebiet, Äthiopien, Zentral-und Südostasien. Er ist außerdem für seine Beiträge zur Biologie der Mistel bekannt.

Gerhard Glatzel war und ist in zahlreichen Funktionen in wissenschaftlichen Gesellschaften tätig und ist Mitglied renommierter Gesellschaften. U.a. war er Kuratoriums-Mitglied des Österreichischen Fonds zur Förderung der wissenschaftlichen Forschung (FWF) und des Life and Environmental Sciences Standing Committee (LESC) der European Science Foundation. Er ist wirkliches Mitglied der Österreichischen Akademie der Wissenschaften (ÖAW) und der Deutschen Akademie für Technikwissenschaften (acatech). An der ÖAW leitete er von 2003 – 2009 die Kommission für Entwicklungsfragen, ist nun Obmann der Kommission für Interdisziplinäre Ökologische Studien, inne und seit 2010 Vorsitzender der IIASA(International Institute for Applied Systems Analysis)-Kommission. In diesem Jahr (2011) wurde er zum Mitglied der „Biodiversity Targets“ des Science Advisory Council of the European Academies (easac) ernannt.


Artikel von Gerhard Glatzel im ScienceBlog

Redaktion Sat, 13.04.2013 - 21:09

Hartmut Glossmann

Hartmut Glossmann

Hartmut Glossmannem. Univ.Prof. Dr. med.univ. Hartmut Glossmann,
Gründer des Institutes für Biochemische Pharmakologie an der Medizinischen Universität (vormals Medizinische Fakultät der Leopold Franzens Universität) Innsbruck und dessen Institutsvorstand von 1984 bis 2009.

Das Institut (nun Department), das bei seinem Amtsantritt lediglich „aus einem Dienstzimmer, ausgestattet mit dem Mobiliar eines theologischen Lehrstuhls bestanden hatte“*, hat Glossmann zu einer international renommierten Einrichtung gemacht. Dies wird u.a. durch eine sehr hohe Zitationszahl der Publikationen des Hauses dokumentiert. Das Department zeichnet sich durch die enge Verbindung von Grundlagen-Forschung und klinischer Forschung aus und hat auch zu einer Reihe von Firmengründungen geführt. Es beherbergt heute u.a. die zukunftsweisenden Forschungsgebiete Pharmakogenetik / Pharmakogenomik und Genetische Epidemiologie, die in Österreich an keiner anderen Stelle existieren.


Hartmut Glossmann (*1940 in Kassel) hat an der Universität Gießen Medizin studiert und das Studium mit einer Doktorarbeit in dem damals noch sehr neuen Fach Biochemische Pharmakologie 1966 abgeschlossen (1968 Preis der Universität Gießen für die beste Doktorarbeit). Nach klinischer Ausbildung in Köln, Herborn und in der größten Landpraxis in Hohen Vogelsberg übte Glossmann das Ius Practicandi als Allgemeinmediziner aus. Berufsweg

1968 – 1970 DFG-Stipendiat amMax-Planck-Institut für Biochemie in München-Martinsried (Adolf Butenandt, Jürgen Engel, Robert Huber)
Themen Methoden der Proteinchemie und zur Strukturaufklärung von Proteinen
1970 – 1973 Postdoc am NIH (Bethesda/MD, USA) bei D.M. Neville jr. und K.J. Catt.
Themen Charakterisierung von (Glyko)Proteinen der Plasmamembranen (Na/K-Cotransporter)
1975 Habilitation im Gesamtfach Pharmakologie
1976 C3-Professor am Rudolf-Buchheim-Institut für Pharmakologie in Gießen (Ernst Habermann) Facharzt für Pharmakologie und Toxikologie
Themen Signaltransfer: Erforschung der Elementarprozesse von der Bindung eines Signals (Hormon, Neurotransmitter) an spezifische Rezeptoren bis zu den nachfolgenden zellulären Targets
1984 Facharzt für klinische Pharmakologie
1984 – 2009 o.Prof an der Medizinischen Fakultät der Universität Innsbruck. Gründung des Instituts für Biochemische Pharmakologie
Themen Ionenkanäle (L-Typ Calciumkanal) , Cholesterin (Postsqualen)-Biosynthese, Sigma-Rezeptoren, Entdeckung der molekularen Ursachen für das Smith-Lemli-Opitz-Syndrom, Vitamin D
1989 Gastprofessor für Pharmakologie und Zellphysiologie an der Universität Cincinnati, USA
1999 – 2002 Gastprofessor an der Medizinischen Fakultät der Universität Padua (Italien)
Thema Entwicklung eines Internationalen Doktoratsstudiums für Molekulare und Zelluläre Pharmakologie
2008 - Beteiligung am Aufbau des Medizinstudiums der Medizinischen Fakultät der Privaten Universität im Fürstentum Liechtenstein

Forschungsinteressen und Veröffentlichungen

Glossmann hat mit seinen Arbeiten, Buchkapiteln und (Lehr)Büchern u.a. zu Membranrezeptoren, Ionen-Kanälen, Biosynthese von Cholesterin und darin auftretenden Defekten Geschichte geschrieben. Seine Publikationsliste im „Web of Science“ enthält 371 Arbeiten, die im Schnitt jeweils rund 40 Mal in anderen Arbeiten zitiert wurden. Damit gehört Glossmann zu den meistzitierten österreichischen Wissenschaftern.

Auszeichnungen

1979 Ludwig-Schunk-Preis der Medizinischen Fakultät der Justus-Liebig-Universität Gießen
2003 Österreichisches Ehrenkreuz für Wissenschaft und Kunst 1. Klasse
2007 Anerkennungsschreiben des Bundesministers für Wissenschaft und Forschung, Johannes Hahn, für weltweit am meisten zitierte österreichische Wissenschaftler – gemeinsam mit Fred Lembeck

* https://www.i-med.ac.at/ibp/docs/Philippu_Geschichte-und-Wirken_360-370.pdf


Artikel von Hartmut Glossmann auf Scienceblog

Redaktion Wed, 20.03.2019 - 00:27

Kerstin Göpfrich

Kerstin Göpfrich

Kerstin GöpfrichDr. Kerstin Göpfrich

Gruppenleiterin: Biophysical Engineering of Life; http://goepfrichgroup.de/

Max-Planck-Institut für Medizinische Forschung , Heidelberg

Ausbildung und Karriereweg

Kerstin Göpfrich hat Physik und Molekulare Medizin an der Universität Erlangen studiert (B.Sc 2009 - 2012).

Von 2012 an hat sie ihr Studium im Cavendish Laboratory an der Universität Cambridge (Großbritannien) fortgesetzt (M.Sc in Physik) und hat in ihrer Doktorarbeit unter Prof. Ulrich Keyser über DNA-Origami Nanoporen gearbeitet (PhD in Physik 2017).

Von April 2017 - 2019 war Goepfrich als Marie-Skłodowska-Curie-Fellow am Max-Planck-Institut für Intelligente Systeme in Stuttgart in der Abteilung von Prof. Dr. Joachim Spatz tätig. In ihrer Forschungsarbeit hat sie sich mit dem Bau von synthetischen Zellen und funktionalen zellulären Komponenten mit Hilfe von DNA-Nanotechnologie beschäftigt.

Dr. Kerstin Goepfrich ist seit November 2019 Gruppenleiterin am Max-Planck-Institut für medizinische Forschung in Heidelberg und an der Fakultät für Physik und Astronomie der Universität Heidelberg tätig.

Forschungsinteressen am MPG:

Kombinieren von DNA-Origami, Mikrofluidik und 3D-Druck, um synthetische Zellen zusammenzusetzen – voller Neugier zu verstehen, was Leben eigentlich ist und ob es möglich sein wird, eine Zelle von Grund auf neu aufzubauen.

Zahlreiche Publikationen unter https://goepfrichgroup.de/?page_id=19

inge Wed, 29.07.2020 - 21:02

Michael Grätzel

Michael Grätzel

Michael GrätzelUniv Prof. Dr. Michael Graetzel (Jg 1944) hat an der Freien Universität Berlin Chemie studiert und ist seit 1981 Full Professor für Physikalische Chemie an der Ecole Polytechnique de Lausanne (Schweiz). Der Inhaber von mehr als 50 Patenten und Autor von mehr als 900 Publikationen, gehört weltweit zu den 10 meistzitierten Chemikern. Er ist Träger zahlreicher höchster Auszeichnungen für seine Pionierleistungen vor allem in der Umwandlung von (Sonnen)Licht-Energie in elektrische Energie durch farbstoffsensibilisierte Solarzellen, in der Wasserstofferzeugung durch Wasserspaltung mittels Sonnenlicht und in der Erzeugung von Methan aus Kohlendioxyd und Wasserstoff. Curriculum:

1944 in Dorfchemnitz (Sachsen) geboren
1968 Diplomchemiker (FU Berlin)
1971 Promotion PhD in Physikalischer Chemie, TU Berlin
1969 –1972 Wissenschaftlicher Assistent, Hahn-Meitner-Institut Berlin
1972 - 1974 Post Doctoral Fellow, Univ.Notre Dame, Indiana, USA
1974 - 1976 Wissenschaftlicher Mitarbeiter, Hahn-Meitner-Institut Berlin
1975 – 1976 Dozent, Photochemie und Physikalische Chemie, FU Berlin
1977 - 1981 Ao Professor für Physikalische Chemie, EPF Lausanne
1981 - Full Professor, Direktor des Labors für Photonik und Grenzflächen, EPF Lausanne

Forschung

Pionier der Forschung im Bereich Energie und Elektronentransfer-Reaktionen in mesoskopischen Materialien und deren Anwendung in Solarenergie-Umwandlungssystemen in optoelektronischen Bauelementen

Chronologie der Farbstoff-sensibilisierten Solarzelle

1970 erste Versuche zur Realisierung
1988 das Graetzel-Team testet den ersten Prototyp
1991 Die Farbstoff-sensibilisierte Solarzelle wird in der „Nature“ publiziert
2009 Beginn der kommerziellen Produktion

Auszeichnungen (seit 2000)

2000 European Grand Prix of Innovation
2001 Faraday Medal of the British Royal Society
Dutch Havinga Award
2002 McKinsey Venture award
IBC International Award in Supramolecular Science and Technology
2004 ENI Italgas Prize in Science and Environment
2005 Gerischer Prize of the Electrochemical Society
2006 World Technology Award in Materials (San Francisco USA)
2007 Preis der Japanese Society of Coordination Chemistry
2008 Harvey Prize for Science and Technology.(Technion Haifa)
2009 Balzan Price for the Science of New Materials
Galvani Medal (Italian Chem.Soc.)
2010 Millenium Technology Prize
2011 Gutenberg Research Award
Paul Karrer Gold Medal
Wilhelm Exner Medaille (Wien)
2012 Albert Einstein World Award of Science 2012
Swisselectric Research Award (22.9.2012)

Ehrendoktorate von 8 Universitäten (Hasselt, Lund, Uppsala, Turin, Delft, Nova Gorica, Singapore, Chinese Academy of Science (Changchun), Huazhong Univ.of Science and Technology.) Zahlreiche Honorarprofessuren. Mitglied mehrerer hochrangiger Gesellschaften Mitglied von Editorial/Advisory Boards wisssenschaftlicher Journale: (Chem.Phys Chem, Int.Adv.Boards der Angew. Chemie, ChemSusChem, Chemistry of Materials, Langmuir, Progr.Photovoltaic Science and Engineering, Chem.Phys. Letters, NanoToday, Nanostruct. Materials, Renewable & Sustainable Energy Rev. Adv. Photochem Photophys, Adv. Funct. Materials, J. Materials Chem, Int. J. Nanotechnol., Solar Energy Mat.& Solar Cells, and J. Mol.Catalysis).

Weitere Informationen

Website Ausführliche Darstellung (PDF-Download) von Michael Graetzel, verfasst anlässlich der Verleihung des Millennium Technology Prize


Artikel von Michael Grätzel im ScienceBlog

Redaktion Wed, 20.03.2019 - 00:24

Boris Greber

Boris Greber

Boris Greber

Dr. Boris Greber

Forschungsgruppenleiter: Human Stem Cell Pluripotency Laboratory http://www.mpi-muenster.mpg.de/22058/greber Max-Planck-Institut für molekulare Biomedizin, Münster

Ausbildung und Karriereweg

1996 - 2000 Biochemie Studium an der Potsdam Universität und dem John Innes Centre, Norwich, UK Universität Göttingen (Abt. Pflanzenchemie)
2000 - 2001
2001 - 2005 Doktorarbeit unter Heinz Himmelbauer, Max-Planck Institut für Molekulare Genetik, Berlin, Dept. Vertebrate Genomics (Hans Lehrach)
2005 - 2008 Postdoc bei James Adjaye, Max-Planck Institut für Molekulare Genetik, Berlin, Dept. Vertebrate Genomics (Hans Lehrach)
2008 - 2010 Postdoc bei Hans Schöler, Max-Planck Institut für Molekulare Biomedizin, Münster, Dept. Cell and Developmental Biology
2010 - 2012 Projektgruppenleiter am Max-Planck Institut für Molekulare Biomedizin, Münster, Dept. Cell and Developmental Biology
2012 - Forschungsgruppenleiter am Max-Planck Institut für Molekulare Biomedizin, Münster, Dept. Cell and Developmental Biology und dem Chemical Genomics Centre der Max-Planck Gesellschaft, Dortmund

Forschungsinteresen

Signalwege humaner pluripotenter Stammzellen, Differenzierung von PS-Zellen in Cardiomyocyten, Modellaufbau: patientenspezifische Zellen an den Wirkstoffe getestet werden. Publikationen: 49 (Thomson Reuters Web of Science, abgerufen am 22.3. 2017); eine Auswahl davon: http://www.mpi-muenster.mpg.de/22216/publications


Artikel von Boris Greber auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:26

Ewald Große-Wilde

Ewald Große-Wilde

Ewald Grosse-Wilde

Dr. Ewald Große-Wilde

Leiter der Gruppe „Olfaktorische Gene“ http://www.ice.mpg.de/ext/624.html
Department für Evolutionäre Neuroethologie (Bill S. Hansson, Direktor)
Max Planck Institut für Chemische Ökologie (Jena)

Der Molekularbiologe Ewald Große-Wilde hat an den Universitäten Münster und Hohenheim studiert.

Werdegang

2001 - 2002 Universität Münster; Diplomarbeit: “Struktur-Funktionsanalyse des schizo-Proteins von Drosophila melanogaster“
2003 - 2006 Universität Hohenheim (Stuttgart), Institut für Physiologie. Doktorarbeit: „Rezeptoren und Bindeproteine für Pheromone von Bombyx mori: funktionelle Charakterisierung“,
2007 - 2009 Postdoc am neugegründeten Department für Evolutionäre Neuroethologie (Bill S. Hansson, Direktor), Max Planck Institutefür Chemische Ökologie (Jena)
2010 - Leiter der Gruppe „Olfaktorische Gene“ ebendort.

Forschungsinteressen

  • Genfamilien, die in den Riechprozess von Arthropoden involviert sind und
  • Deren Adaptation an sich ändernde Lebensbedingungen
  • Modellorganismen für evolutionäre Ökologie und Biologie
  • Chemische Ökologie

Die Ergebnisse sind in zahlreichen Publikationen dokumentiert und weltweit an vielen Orten vorgetragen. Eine Liste dieser Aktivitäten ist ersichtlich unter: http://www.ice.mpg.de/ext/hopa.html?pers=ewgr3836&d=han-gro


Artikel von Ewald Große-Wilde auf ScienceBlog

mat Tue, 15.02.2022 - 15:01

Ilona Grunwald Kadow

Ilona Grunwald Kadow

Ilona Grunwald KadowProf. Dr. Ilona Grunwald Kadow
Nervensystem und Metabolismus
Technische Universität München

homepage: http://www.neuro.wzw.tum.de/index.php?id=1&L=1

Ausbildung und Karriereweg

- 1999 Studium der Biologie und an der Universität Göttingen, D, und an der University of California, San Diego, USA. Diplom
1999 - 2002 Doktorarbeit am EMBL und am Max-Planck-Institut für Neurobiologie im Labor von Prof. R. Klein. Promotion an der Universität Heidelberg
2003 - 2005 Postdoc im Labor von Prof. Larry Zipursky an der University of California, Los Angeles, USA
2006 - 2008 Postdoc am Max-Planck-Institut für Neurobiologie (München)
2008 - 2016 Emmy-Noether- und später Max-Planck-Forschungsgruppenleiterin für "Chemosensorische Kodierung" am MPI für Neurobiologie
2016 - Professur für ‘Neuronale Kontrolle des Metabolismus’ an der Technischen Universität München

Preise und Auszeichnungen

2002 Otto-Hahn-Medaille der Max-Planck-Gesellschaft
2008 Aufnahme in das Emmy-Noether-Programm der Deutschen Forschungsgesellschaft
2008 Human Frontiers Science Organization Career Development Award
2012 EMBO Young Investigator
2014 ERC Starting Grant

Forschungsinteressen

Welche Signale und Nervennetzwerke ermöglichen die Kommunikation zwischen Körper und Gehirn?

Und wie verändern diese das Verhalten?

Untersuchungen auf drei Ebenen: (1) Verhalten, (2) neuronale Schaltkreise und (3) Gene. Modellorganismen : z.B. die genetische Modellfliege Drosophila melanogaster in Kombination mit modernen Methoden der Verhaltensanalyse, der (Opto)-genetik und in vivo Mikroskopie.


Artikel von Ilona Grunwald Kadow auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:57

Philipp Gunz

Philipp Gunz

Philipp GunzDr. Philipp Gunz
Max Planck Institute for Evolutionary Anthropology (Leipzig)
Department of Human Evolution

http://www.mpg.de/eva-de

Philipp Gunz (* 1975 in Linz) hat an der Universität Wien Human-Biologie/Anthropologie studiert und promovierte 2001 zum Mag. rer.nat und 2005 mit einer Doktorarbeit: „Statistical and geometric reconstruction of hominid crania: reconstructing australopithecine ontogeny“ (Anleitung: G.W. Weber, F.L. Bookstein and H. Seidler) zum PhD.

Beruflicher Werdegang

2001 Vorlesungen an der Universität Wien
2005 PostDoc am Max Planck Institute für Evolutionäre Anthropologie, Department of Human Evolution; Leipzig — Deutschland
2005 – 2007 Marie Curie Fellow am Max Planck Institute für Evolutionäre Anthropologie, Department of Human Evolution; Leipzig
2005 – Vorlesungen am Max Planck Institute für Evolutionäre Anthropologie
2007 – Research Fellow Max Planck Institute für Evolutionäre Anthropologie, Department of Human Evolution; Leipzig
2011 – Associate Professor (Status-Only Appointment), Department of Anthropology; University of Toronto — Canada
2013 Habilitation am Dept. für Anthropologie, Universität Wien (Thesis: Evolution & Development of the hominin skull)

Forschungsinteressen

Paläoanthropologie – was macht uns Menschen aus? Rekonstruktion von Fossilien. Vergleich unserer Spezies mit den nahesten lebenden und ausgestorbenen Verwandten hinsichtlich der Evolution des Gehirns.

Publikationen

Mehr als 80 Arbeiten in peer-reviewed Journalen. Details : http://www.eva.mpg.de/evolution/staff/gunz/pdf/CV_2015_Web.pdf


Artikel von Philipp Gunz auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:23

Christian Hallmann

Christian Hallmann

Christian HallmannDr. Christian Olivier Eduard Hallmann
Max-Planck Forschungsgruppenleiter Organische Paläobiogeochemie
Max-Planck Institut für Biogeochemie (Jena)
http://www.bgc-jena.mpg.de/ und MARUM, Universität Bremen http://www.marum.de/Christian_Hallmann.html

*1981 in Aachen

Ausbildung und Laufbahn

1999 – 2004 Diplomstudium: Geologie und Paläontologie, Universität Köln
2005 – 2009 Doktorarbeit in Angewandter Chemie, Curtin University, Australien
2005 – 2006 Geochemiker (Teilzeit), Woodside Energy, Australien
2008 – 2009 Postdoctoral Fellow, Agouron Institute, MIT, USA
2009 – 2011 Postdoctoral associate, MIT, USA
2012 University Associate, Curtin University, Australien
2012 – Forschungsgruppenleiter, MPI für Biogeochemie (Jena) und Wissenschaftlicher Mitarbeiter an der Universität Bremen

Forschung, Schwerpunkte

  • Leben vor dem ‘Großen Oxidationsevent’ (erster Anstieg von O2 in der Atmosphäre)
  • Aufkommen und Verbreitung der ersten Metazoen im Neoproterozoikum
  • Mariner Stickstoffkreislauf im Präkambrium

Feldstudien (2000 – 2013): Kaschmir, südlicher Ural, Pilbara Craton (Australien), Belcher islands (Canada), Cordoba-Tegion (Spanien), China, Neufundland, Dharwar Craton (Indien), Allgäuer Alpen, Menorca (Spanien), Dolomiten.

19 Veröffentlichungen in Fachzeitschriften (u.a. in PNAS und Nature Geosciences; Web of Science 12. Nov. 2015).

Zahlreiche eingeladene Vorträge an Universitäten und anderen Forschungseinrichtungen.


Artikel von Christian Hallmann auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:21

Bill S. Hansson

Bill S. Hansson

Bill S. HanssonProf. Dr. Bill S. Hansson
Vizepräsident der Max-Planck Gesellschaft
Direktor: Abteilung für Evolutionäre Neuroethologie Max Planck Institut für Chemische Ökologie

Bill S. Hansson - 1959 in Jornstorp (Schweden) geboren - hat an der Universität Lund Biologie und Ökologie studiert und wurde 1988 zum PhD promoviert.

Wissenschaftliche Laufbahn

1989 – 1990 Postdoc Aufenthalt: Arizona Research Laboratories, Division of Neurobiology, University of Arizona
1990 – 1995 Ass.Professor, Universität Lund
1992 Habilitation, Universität Lund
1995 – 2001 Dozent (Tenure) Neurobiologie, Universität Lund
2001 – 2006 Professor und Leiter der Chemischen Ökologie, Swedish University for Agricultural Sciences, Alnarp
2003 – 2006 Vizedekan der Fakultät für Landschaftsplanung, Gartenbau und landwirtschaftl. Wissenschaften
2006 - Direktor, Dept. für Evolutionäre Neuroethologie, Max Planck Institut für Chemische Ökologie
2010 - Honorarprofessor an der Friedrich Schiller Universität, Jena
2011 - 2014 Geschäftsführender Direktor am Max Planck Institut für Chemische Ökologie
2014 - Vizepräsident der Max Planck Gesellschaft

Forschungsinteressen

  • Wechselwirkungen zwischen Insekten und ihren Wirtspflanzen
  • Funktionen des olfaktorischen Systems: Transduktionsmechanismen, Kodierung und Konnektivität auf verschiedenen neuronalen Ebenen; Modellorganismen: Drosophila melanogaster , Tabakschwärmer Manduca sexta
  • Untersuchung der neuroethologischen Ereigniskette: von einzelnen Molekülen und Genen über Neuronen zu Reaktionen im gesamten Organismus
  • Verständnis der Evolution olfaktorischer Funktionen

Veröffentlichungen

Mehr als 280 wissenschaftliche Publikationen in rezensierten Zeitschriften und Monographien.

Mitgliedschaften, Ehrungen

Mitgliedschaften: Sächsische Akademie der Wissenschaften (seit 2010), Königlich Schwedische Akademie für Land- und Forstwirtschaft (seit 2007) und Königlich Schwedische Akademie der Wissenschaften (seit 2011), Royal Entomological Society (seit 2011), Finnische Akademie der Wissenschaften (seit 2013), Academia Europaea (seit 2012). Preise: Takasago International Research Award in Olfactory Science 1998, International Award of the Jean-Marie Delwart Foundation 2000, Letterstedt-Preis der Königlich Schwedischen Akademie der Wissenschaften 2009, BingZhi Professor der Chinese Academy of Sciences 2013, Silverstein-Simeone Lecture Award 2014


Artikel von Bill S. Hansson auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:20

Henrik Hartmann

Henrik Hartmann

Henrik HartmannDr. Henrik Hartmann

Arbeitsgruppenleiter Plant Allocation Department of Biogeochemical Processes Max-Planck-Institut für Biogeochemie, Jena: https://www.bgc-jena.mpg.de/index.php/

Henrik Hartmann stammt aus Hessen (*1968). Er ist 1992 nach Canada ausgewandert und hat einige Jahre fernab der Zivilisation in der kanadischen Wildnis verbracht. Er lebte danach in einer ländlichen Gemeinde, die von der Waldbewirtschaftung abhängig war und begann sich für Forstwissenschaften zu interessieren. Er arbeitete als Forstwart und Forstingenieur und wandte sich dann dem Studium der Waldökologie zu: Erst absolvierte er 2003 ein Bachelor -Studium (Forest Science) an der Université de Moncton, schloss an dieses ein Masterstudium in Biologie an der Université du Québec à Montréal an, verfasste ebendort seine Doktorarbeit "Über die Mortalität des Zuckerahorns nach Bestandsstörungen" und promovierte 2008 (PhD). Hartmann kehrte 2009 nach Deutschland zurück, wo er vorerst als Postdoc am Max-Planck -Institut für Biogeochemie arbeitete und seit 2014 nun die Arbeitsgruppe Plant Allocation leitet.

Forschungsinteressen

Wechselwirkungen von Pflanzen und Symbionten und wie Ressourcenverfügbarkeit diese beeinflusst. Mechanismen trockenheits-bedingten Baumsterbens mit Schwerpunkt auf dem Wechselspiel zwischen dem Wasser- und dem Kohlenstoffkreislauf des Baumes. Ökophysiologische Reaktionen von Bäumen auf Trockenheit, Kohlenstoff- und Stickstoff-Management von Bäumen. Organisation des International Meeting on Tree Mortality (Juni 2017, Hannover) http://stem.thuenen.de/

Publikationen

Eine Auswahl findet sich unter: https://bgc-jena.mpg.de/bgp/index.php/HenrikHartmann/HenrikHartmann


Artikel von Henrik Hartmann auf ScienceBlog

Redaktion Wed, 20.03.2019 - 00:18

Michaela Hau

Michaela Hau

Michaela HauProf. Dr. Michaela Hau

http://www.orn.mpg.de/2617/Forschungsgruppe_Hau

Michaela Hau, Leiterin der Forschungsgruppe Evolutionäre Physiologie am Max Planck Institut für Ornithologie, Seewiesen und Professorin im Fachbereich Biologie, Universität Konstanz, hat an der Universität Frankfurt und der Universität München Biologie studiert und 1995 mit einem PhD in Zoologie abgeschlossen.

Beruflicher Werdegang

1995 – 1998 PostDoc an der Universität Washington (Prof. JC. Wingfield) und am Smithsonian Tropical Research Institute, Panama (A.S. Rand und N.G. Smith)
1998 – 1999 Research Specialist am Dept. Ecology, Ethology and Evolution, University of Illinois Urbana-Champaign, USA.
1999 – 2000 Adjunct Assistant Professor, Dept. Ecology, Ethology and Evolution, University of Illinois at Urbana-Champaign, USA.
2000 – 2008 Assistant Professor, Dept. Ecology, Ethology and Evolution, University of Illinois at Urbana-Champaign, USA.
2008 – Gruppenleiterin am Max Planck Institut für Ornithologie, Radolfzell. Visiting Research Scholar, Department of Ecological and Evolutionary Biology, Princeton University.
2011 – Professor, Fachbereich Biologie, Universität Konstanz

Forschungsinteressen

Das Hauptinteresse der Forschungsgruppe Hau „Evolutionäre Physiologie“ ist es zu verstehen, in welcher Weise die Physiologie der Tiere an die jeweilige Umwelt angepasst ist, in der sie leben. Diese Frage untersucht Hau anhand von drei physiologischen Systemen: 1) Reproduktion, 2) hormonelle Steuerung und 3) zirkadiane Uhr. Diese Forschungsrichtung stellt eine Kombination aus Physiologie, Ökologie und Evolution dar und zielt auf ein umfassendes Verständnis der Kurz- und Langzeit-Interaktionen eines Tieres mit seiner Umwelt ab. (http://www.orn.mpg.de/3169/Projekte ) Die bisherigen Forschungsergebnisse hat Michaela Hau in mehr als 70 Publikationen in Fachjournalen beschrieben. (http://www.eva.mpg.de/primat/staff/deschner/public.html).


Artikel von Michaela Hau auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:17

Angelika Heil

Angelika Heil

Angelika HeilDr. Angelika Heil
Max-Planck Institut für Chemie (Otto-Hahn-Institut), Mainz,
Abteilung Atmosphärenchemie

http://www.mpic.de/forschung/atmosphaerenchemie/gruppe-kaiser.html

Angelika Heil hat mehr als 15 Jahre Erfahrung mit der Erforschung von Vegetationsfeuern. Sie hat sich mit numerischer Modellierung der atmosphärischen Rauchverteilung und der Analyse von Feuerverteilungen, Gefahrenabwehr und Klimainteraktionen beschäftigt. In 1997/98 hat sie für das Indonesische Forstwirtschaftsministerium an Maßnahmen zur Reduzierung der Gesundheitsschädigung der allgemeinen Bevölkerung in einer Notfallsituation mitgearbeitet.

Sie hat sich in Ihre Doktorarbeit am Max-Planck-Institut für Meteorologie in Hamburg mit Wald- und Torffeuern und grenzüberschreitenden Transport von Rauchwolken beschäftigt. Seitdem hat sie in der Gruppe von Dr. Martin Schultz zu globaler Atmosphärenmodellierung am Forschungszentrum Jülich gearbeitet. Dort hat sie den historischen Emissionsdatensatz ACCMIP zusammengestellt, der in die CMIP5 Simulationen, und damit den fünften IPCC Assessment Report (AR5), eingegangen ist. In der ersten Phase des ESA Feuer CCI Projektes hat sie in der Climate Model User Group (CMUG) maßgeblich zur Validation und Verbreitung der neu erzeugten Klimadatensätze beigetragen. Während der Serie der MACC Projekte war sie auch an der Entwicklung von GFAS für den CAMS beteiligt.

Seit 2014 arbeitet sie in der von Dr. Kaiser geleiteten Feueremissionsgruppe am MPIC. Angelika Heil ist Autorin zahlreicher Publikationen in peer-reviewed Journalen.

Ausbildung

2000 Technische Universität Berlin, Diplom in Umwelttechnik ; Bodenkunde, Bodensanierung, Wasserwirtschaft, Umweltchemie, Mikrobiologie
2007 Universität Berlin; Dept. Für Geowissenschaften. Promotion zum PhD. Thesis: “Indonesian Forest and Peat Fires: Emissions, Air Quality and Human Health”

Beruflicher Werdegang

Nov 97 – Aug 98 Konsulentin in GTZ (Gesellschaft für Deutsche technische Zusammenarbeit)-Projekten (GTZ): “Integrated Forest Fire Management” in Kalimantan, Indonesia, und “Strengthening the Management Capacities of the Ministry of Forestry” of the Ministry of Forestry, Indonesia: Development of a crisis management system for large-scale air pollution episodes
Jul 99 – Sep 00 Assistentin am Institut für Umwelttechnologie/Technische Universität Berlin, Überwachen hydrologischer Prozesse.
Oct 00 – Jul 01 Forschungsassistent am Institut für Umwelttechnologie/Technische Universität Berlin, mikrobielle Korrosion von Kupferrohren im Trinkwasserleitungsystem
Sep 01 – May 02 Forschungsassistent an der Schweizer staatlichen Forschungsstation für Agroökologie und Ackerbau.
Jul 02 – Dec 02 Forschungsassistent am Global Fire Monitoring Center (GFMC), Freiburg
Jan 03 – Jun 07 PhD-fellow: Max-Planck-Institut für Meteorologie, Hamburg, Modelle für die Auswirkungen von Feueremissionen auf Luftqualität und Gesundheit; PhD-fellow: International Max Planck Research School on Earth System Modelling
Jul 04 – Jun 06 Vortragende an der Universität Hamburg, Fakultät für Erdwissenschaften
Jul 07 – Jul 14 Postdoc am Forschungszentrum Jülich, Institut für Energie- und Klimaforschung, u.a. Bestandaufnahme globaler Emissionen: anthropogen und Verbrennung von Biomasse, Modell-Studien zur Luftqualität in Megacities und Klimawandel
Aug14 – Postdoc am Max-Planck Institut für Chemie, Mainz, Abteilung Atmosphärenchemie Projekt: Global Fire Assimilation System (GFAS)

Artikel von Angelika Heil auf Scienceblog.at

Redaktion Wed, 20.03.2019 - 00:15

Stefan W. Hell

Stefan W. Hell

Stefan W. HellProf. Dr. Stefan W. Hell

Direktor und Leiter der Abteilung "NanoBiophotonik" Max-Planck-Institut für biophysikalische Chemie, Göttingen; http://www.mpibpc.mpg.de/de/hell

Leiter der Abteilung "Hochauflösende Optische Mikroskopie" Deutsches Krebsforschungszentrum, Heidelberg; http://www.dkfz.de/de/nanoscopy/

Stefan Hell wurde 1962 in Arad (Banat/Rumänien) geboren und hat dort ein deutschsprachiges Gymnasium besucht. Er siedelte 1978 mit seinen Eltern in den Westen nach Ludwigshafen um.

Ausbildung und Karriereweg

1981 - 1990 Studium: Physik an der Universität Heidelberg
1987 Diplom (Thesis über Mikrolithographie; Prof. Dr. S. Hunklinger)
1990 PhD (Thesis: Abbildung transparenter Mikrostrukturen im konfokalen Mikroskop; Prof. Dr. S. Hunklinger)
1990 Freie Erfindertätigkeit
1991 - 1993 Postdoktorand am European Molecular Biology Laboratory (EMBL), Heidelberg
1993 - 1996 Leiter Projektgruppe Mikroskopie, Abt. Med. Physik, Universität Turku, Finnland
1994 Gastwissenschafter an der Universität von Oxford, England
1996 Habilitation in Physik an der Ruprecht-Karls-Universität Heidelberg
1997 - 2002 Leiter einer selbständigen Max-Planck-Nachwuchsgruppe am Max-Planck-Institut für Biophysikalische Chemie, Göttingen
seit 2002 Direktor am Max-Planck-Institut für Biophysikalische Chemie in Göttingen, Leiter der Abteilung für NanoBiophotonik
seit 2003 Leiter der Abteilung "Hochauflösende Optische Mikroskopie" am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg
Seit 2003 Apl. Professor für Physik an der Ruprecht-Karls-Universität, Heidelberg
seit 2004 Honorarprofessor für Experimentalphysik der Universität Göttingen

Auszeichnungen

Zahlreiche wissenschaftliche Auszeichnungen, darunter :

2016 Wilhelm-Exner- Medaille, Mitglied der Deutschen Akademie der Technikwissenschaften (acatech) Mitglied der US National Academy of Sciences
2015 Glenn T. Seaborg Medal der University of California, Los Angeles (UCLA), USA, Ehrenmitglied der Deutschen Bunsen-Gesellschaft für Physikalische Chemie, Mitglied der Berlin-Brandenburgischen Akademie der Wissenschaften, Großkreuz des Sterns von Rumänien
2014 Nobelpreis für Chemie Kavli Preis für Nanowissenschaften
2013 Carus‐Medaille der Nationalen Akademie der Wissenschaften Leopoldina, Dr. h.c., Polytechnische Universität Bukarest, Rumänien
2012 Wissenschaftspreis der Fritz Behrens‐Stiftung, Dr. h.c., Universität Vasile Goldis, Arad, Rumänien
2011 Körber-Preis für die Europäische Wissenschaft Göteborger Lise-Meitner-Preis
2010 Ernst Hellmut Vits Preis
2009 Otto-Hahn-Preis, Dr. h.c., Universität Turku, Finnland
2008 Gottfried-Wilhelm-Leibniz-Preis, Niedersächsischer Staatspreis
2007 Julius Springer‐Preis für Angewandte Physik, Mitglied der Akademie der Wissenschaften zu Göttingen
2006 10. Deutscher Zukunftspreis des Bundespräsidenten
2001 Helmholtz-Preis
2000 Preis der International Commission for Optics

Forschungsschwerpunkte

Optische Mikroskopie jenseits der Abbeschen Beugungsgrenze: Stefan Hell hat das erste mikroskopische Verfahren - STED Mikroskopie - entwickelt, mit dem man mit fokussiertem Licht Auflösungen weit unterhalb der Lichtwellenlänge - jenseits der Abbeschen Beugungsgrenze - erzielen kann. „For the development of super-resolved fluorescence microscopy“ erhielt Stefan Hell zusammen mit Eric Betzig und William B.Woerner 2014 den Nobelpreis für Chemie.

Redaktion Wed, 20.03.2019 - 00:14

Thomas Henning

Thomas Henning

Thomas HenningProf. Dr. Thomas Henning
Direktor und Wissenschaftliches Mitglied am Max-Planck-Institut für Astronomie (Heidelberg)
http://www.mpia.de/henning Geboren am 9. April 1956 in Jena.

Karriereweg

1984 Studium der Physik und Mathematik mit Spezialisierung Plasmaphysik, Universität Greifswald Studium der Astronomie und Astrophysik, Universität Jena Promotion Universität Jena
1984 - 1985 Karls-Universität Prag
1989 Habilitation, Universität Jena
1989 - 1990 Gastwissenschaftler am MPI für Radioastronomie
1991 Gastdozent an der Universität Köln (1991)
1991 - 1996 Leiter der Max-Planck-Arbeitsgruppe "Staub in Sternentstehungsgebieten"
1992 Professor für Astrophysik an der Universität Jena
1999 Gastprofessor an der Universität Amsterdam
Mitglied der Leopoldina
2000 - 2007 Co-Sprecher der DFG-Forschergruppe "Laboratory Astrophysics" Chemnitz/Jena (2000-2007)
2001 - Direktor und Wissenschaftliches Mitglied am Max-Planck-Institut für Astronomie
2003 - Honorarprofessor an der Universität Heidelberg

Forschungsinteressen

  • Entstehung von Sternen, Planeten
  • Suche nach Exoplaneten

Gründer der "Heidelberg Origins of Life Initiative" (HIFOL) T. Henning erklärt sein Forschungsgebiet: How Do Planetary Systems Develop out of a Disk of Young Stars? Video: 12:20 min. https://lt.org/publication/how-do-planetary-systems-develop-out-disk-young-stars (LT Video Publication DOI: https://doi.org/10.21036/LTPUB10363)


Artikel von Thomas Henning auf ScienceBlog

inge Tue, 19.03.2019 - 22:38

Gerhard Herndl

Gerhard Herndl

Gerhard HerndlUniv.-Prof. Dr. Gerhard J. Herndl,
Leiter des Departments für Meeresbiologie, http://www.marine.univie.ac.at wurde 1956 in St. Pölten geboren und hat an der Universität Wien Zoologie und Biologie studiert.

Berufliche Laufbahn

1982 Promotion zum Dr. Fach: Zoologie Postdoc an der University of Californiaa, San Diego, Scripps Institution of Oceanography (SIO), USA
1983 – 1994 Universitätsassistent, Universität Wien
1993 Habilitation; Fakultät für Naturwissenschaften, Universität Wien
1994 – 1997 Universitätsassistent¸ Abteilung Meeresbiologie, Institut für Zoologie der Universität Wien
1997 – 2008 Leiter der Abteilung Biologische Ozeanographie am Royal Netherlands Institute for Sea Research (NIOZ), Niederlande
X/2008 – Universitätsprofessur für Meeresbiologie / Aquatische Biologie, Department für Meeresbiologie, Universität Wien Adjunct Senior Researcher, Royal Netherlands Institute for Sea Research (NIOZ), Niederlande
2014 - Dekan der Fakultät für Lebenswissenschaften, Universität Wien

Auszeichnungen, Aktivitäten, Mitgliedschaften

2006 Roland Wollast EurOceans Award for Excellence in Ocean Research Koorganisator: “Annual Meeting of the International Census of Marine Microorganisms, Noordwijkerhout, NL”
2008 Organisator des Europäischen Workshops: ‘Meso- and bathypelagic waters and global change: current knowledge and future perspectives on the link between deep-water circulation, biogeochemistry and plankton’. Koorganisator (mit D. Hansell): “First IMBER-IMBIZO workshop on the Bathypelagic realm in Miami, FL, USA”
2008 – 2014 Mitglied des Scientific Advisory Board: Institut für Chemie und Biologie des Meeres, Universität Oldenburg (D)
2009 – 2013 Leiter des Doktorandenkollegs, Fakultät für Lebenswissenschaften, Universität Wien
2010 – 2012 Mitglied des Nomination Committee of the American Society of Limnology & Oceanography
2011 Korrespondierendes Mitglied der Österreichischen Akademie der Wissenschaften Wittgensteinpreis des österr. Wissenschaftsfonds (FWF) ERC Grant: "Mikrobielle Ökologie der Tiefsee"
2013 Wirkl. Mitglied der Österreichischen Akademie der Wissenschaft
2014 G. Evelyn Hutchinson Award from the Association for the Sciences of Limnology and Oceanography (ASLO)

Forschungsschwerpunkte

  • Mikrobielle Ozeanographie
  • Mikrobielle Gemeinschaften der Tiefsee
  • Stoffumsatzraten von Mikroorganismen im Meer
  • Diversität und Funktion mikrobieller Nahrungsnetze
  • Biogeochemische Zyklen der Ozeane

Publikationen

Mehr als 200 in peer-reviewed Journalen (h-Faktor: 50)

Journal Editor/Editorial Board

  • Marine Ecology
  • Aquatic Microbial Ecology
  • J. Limnology & Oceanography:Methods
  • Biogeosciences
  • The ISME Journal
  • Frontiers in Microbiology

Artikel von Gerhard Herndl im ScienceBlog

Redaktion Wed, 20.03.2019 - 00:11

Martin E. Heß

Martin E. Heß

Dr. Martin E. Heß (Jg 1983) Wiss. Mitarbeiter am Max Planck Institut für Stoffwechselforschung, Köln http://www.nf.mpg.de/

2003 – 2004 Studium der Japanologie, Universität Köln
2004 – 2005 Studium der Regionalwissenschaft Japan, Rheinische Friedrich-Wilhelms-Universität Bonn
2005 – 2008 Studium der Biologie, Universität Köln Bachelorarbeit: The role of octopamine and DUM neurons in the modulation of motor activity in the stick insect Carausius morosus
2008 – 2014 Fast Track Masters/Doctoral Programme des Fachbereichs Biologie Master-Arbeit (2010; Betreuer JC Brüning): Generation of new genetic tools for the investigation of the fat mass and obesity associated protein (Fto) Dissertation (2014; Betreuer JC Brüning): The fat mass and obesity-associated protein (Fto) regulates activity of the dopaminergic circuitry.

Publikationen

Über die Ergebnisse der Master-und Doktorarbeit sind mehrere Artikel (u.a in Nature) erschienen.


Artikel von Martin Heß auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:11

Severin Hohensinner

Severin Hohensinner

Severin HohensinnerDipl.-Ing. Dr.nat.techn. Severin Hohensinner
Universität für Bodenkultur, Wien
Institut für Hydrobiologie und Gewässermanagement

Email: severin.hohensinner(at)boku.ac.at
Tel: (+43) 1 / 47654-5209
BOKUonline-Visitenkarte

1988 – 1996 Studium Landschaftsplanung und -pflege an der Universität für Bodenkultur Wien
1996 Promotion zum Dipl. Ing. (Diplomarbeit: Bilanzierung historischer Flussstrukturen im oberen Donautal als Grundlage für die Revitalisierung des ehemaligen Altarmes bei Oberranna)
1998 – 2008 Dissertation BOKU Wien
2008 Promotion zum Dr.nat.techn (Doktorarbeit: Rekonstruktion ursprünglicher Lebensraumverhältnisse der Fluss-Auen-Biozönose der Donau im Machland auf Basis der morphologischen Entwicklung von 1715 – 1991)
2001 – 2004 Forschungsassistent im Rahmen eines FWF-Projektes
2004 – Projektassistent am Institut für Hydrobiologie und Gewässermanagement

Forschungsgebiete

Historische Flussmorphologie; Donau-Auensysteme; Flusslandschaften; Gewässerrevitalisierung; GIS-/CAD-Rekonstruktionen; Habitatentwicklung von Flusslandschaften. Darüber liegen > 50 Publikationen in Fachzeitschriften, Sammelwerken und Kongressbänden vor. Severin Hohensinner wurde 2006 mit dem Anerkennungspreis des Landes Niederösterreich für Wissenschaft ausgezeichnet.


Artikel von Severin Hohensinner auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:09

Reinhard F. Hüttl

Reinhard F. Hüttl

Reinhard HüttlProf. Dr. Dr. h.c. Reinhard F. Hüttl (Jahrgang 1957) deutscher Forst- und Bodenwissenschaftler – Geoökologe.

Wissenschaftlicher Vorstand und Sprecher des Vorstands des Helmholtz-Zentrums Potsdam – Deutsches GeoForschungsZentrum GFZ

Vizepräsident der Helmholtz-Gemeinschaft

Präsident der acatech (Deutsche Akademie für Technische Wissenschaften)

Präsident des Euro-CASE (European Council of Academies of Applied Sciences, Technologies and Engineering)

http://www.gfz-potsdam.de/zentrum/struktur/vorstand/mitarbeiter-wv/profil/reinhard-huettl/

http://www.acatech.de/de/ueber-uns/organisation/person.html?acaUid=1714

Beruflicher Werdegang*

1978 – 1983 Studium der Forst-/ Bodenwissenschaften, Albert-Ludwigs-Universität (ALU) Freiburg i. Br. und Oregon State University, Corvallis, USA
1984 – 1985 Wissenschaftlicher Mitarbeiter, Institut für Bodenkunde, ALU Freiburg (Promotion: Dr. rer. nat., April 1968)
01/1986 – 12/1992 Leiter des internationalen Forschungsreferats des Bergbauunternehmens Kali und Salze AG (BASF-Gruppe), Kassel sowie Habilitand am Institut für Bodenkunde, ALU Freiburg
01/1987 – 12/1990 Wissenschaftlicher Berater am World Resources Institute, Washington D.C., USA
08/1990 – 07/1991 Vertretungsprofessur, University of Hawaii, Chair of Geobotany
07/1991 Habilitation/Privatdozent an der ALU Freiburg
01/1992 – 08/1995 Leiter des Instituts für Wald- und Forstökologie (Blaue Liste/WGL) im Zentrum für Agrarlandschafts- und Landnutzungsforschung e.V.(ZALF) Eberswalde
Seit 01/1993 Inhaber des Lehrstuhls für Bodenschutz und Rekultivierung an der Brandenburgisch Technischen Universität (BTU) Cottbus
10/1993 – 04/2000 Prorektor/Vizepräsident für Forschung und wissenschaftlichen Nachwuchs der BTU Cottbus
Seit 06/1995 Ordentliches Mitglied der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW)
03/1996 – 02/2003 Mitglied des Rates von Sachverständigen für Umweltfragen der Bundesregierung
04/1996 – 03/2003 Präsident des Bundesverbands Boden
02/2000 – 01/2006 Mitglied des Wissenschaftsrates, ab Januar 2003 Vorsitzender der Wissenschaftlichen Kommission des Wissenschaftsrates
Seit 01/2006 Ordentliches auswärtiges Mitglied der Königlich-Schwedischen Akademie für Agrar- und Forstwissenschaften
Seit 10/2006 Ordentliches auswärtiges Mitglied der Österreichischen Akademie der Wissenschaften
Seit 03/2007 Wissenschaftlicher Berater der Hightechstrategie Klimaschutz des Bundesministeriums für Bildung und Forschung
Seit 06/2007 Wissenschaftlicher Vorstand und Sprecher des Vorstands des Helmholtz-Zentrums Potsdam – Deutsches GeoForschungsZentrum GFZ
Seit 07/2007 Sprecher des Sonderforschungsbereichs/Transregio (SFB/TRR) 38/ Strukturen und Prozesse der initialen Ökosystementwicklung in einem künstlichen Wassereinzugsgebiet der BTU Cottbus mit TU München und ETH Zürich (Förderung durch die DFG)
Seit 01/2011 Vizepräsident der Helmholtz-Gemeinschaft
Seit 01/2011 Sprecher des Innovationsclusters Energietechnik Berlin-Brandenburg
Seit 03/2011 Mitglied der Ethikkommission Sichere Energieversorgung der Bundesregierung
Seit 05/2013 Präsident European Council of Academies of Applied Sciences, Technologies and Engineering (Euro-CASE)
Engagement bei acatech Seit 06/1998 Mitglied des Vorstands des Konvents für Technikwissenschaften in der Union der Deutschen Akademie der Wissenschaften (ab 2008: acatech – Deutsche Akademie der Technikwissenschaften)
Seit 2005 Vizepräsident acatech
Seit 09/2008 Präsident acatech

* http://www.acatech.de/fileadmin/user_upload/Baumstruktur_nach_Website/Acatech/root/de/Aktuelles___Presse/Pressemappe/Lebenslaeufe/Reinhard_F._Huettl_2014-01.pdf

Publikationen

Artikel in Zeitschriften…………………..322 Buchkapitel…………………………………… 65 Bücher………………………………………….. 21 Detaillierte Liste


Artikel von Reinhard F. Hüttl auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:08

Internationales Institut für angewandte Systemanalyse (IIASA)

Internationales Institut für angewandte Systemanalyse (IIASA)

IIASA LogoInternationales Institut für Angewandte Systemanalyse (IIASA)

Internationales Forschungsinstitut (gegründet 1972)

Webseite: http://www.iiasa.ac.at

Sitz: Laxenburg

 

Generaldirektor: Albert van Jaarsveld (2018 - 12.2023), Hans Joachim Schellnhuber (ab 12.2023)

Die Aufgabe des IIASA besteht darin

mit Hilfe der angewandten Systemanalyse Lösungen für globale und universelle Probleme zum Wohl der Menschen, der Gesellschaft und der Umwelt zu finden, und die daraus resultierenden Erkenntnisse und Richtlinien den politischen Entscheidungsträgern weltweit zur Verfügung zu stellen.

Forschungsaktivitäten

Systemanalytische Ansätze werden dazu verwendet, komplexe Systeme — wie z.B. Klimawandel, Energieversorgung, Landwirtschaft, Atmosphäre, Risiko- und Bevölkerungsdynamik — unter besonderer Beachtung ihrer Wechselwirkungen zu erforschen. Der strategische Schwerpunkt der Forschung des IIASA liegt im Wesentlichen auf drei Gebieten: i) Energie und Klimawandel, ii) Ernährung und Wasserversorgung und iii) Armut und Verteilungsgerechtigkeit. Die Forschungsergebnisse wurden im Jahr 2020 in 439 peer-reviewed Artikeln, zahlreiche davon in  in hochrangigen Journalen (u.a. Nature, PNAS, Science) publiziert. Einen Überblick darüber gibt: http://www.iiasa.ac.at/web/home/resources/publications/annual-report/ar.html

Mitarbeiterstand

Im Jahr 2020: 323 Forscher aus 52 Ländern, unterstützt durch 681 Forscher in IIASA Mitgliedländern  weltweit 3,475 Alumni, von denen 25 % aktiv in die IIASA Forschung involviert waren.

Mitgliedsorganisationen

23 Mitglieder, welche die Kontinente Afrika, Asien, Australien, Europa, und die beiden Amerikas repräsentieren und durch die folgenden nationalen Organisationen vertreten sind: AUSTRALIA: The Commonwealth Scientific and Industrial Research Organisation (CSIRO) AUSTRIA: The Austrian Academy of Sciences (OAW) BRAZIL: Center for Strategic Studies and Management (CGEE) CHINA: National Natural Science Foundation of China (NSFC) EGYPT: Academy of Scientific Research and Technology (ASRT) FINLAND: The Finnish Committee for IIASA GERMANY: Association for the Advancement of IIASA INDIA: Technology Information, Forecasting and Assessment Council (TIFAC) INDONESIA: Indonesian National Committee for IIASA JAPAN: The Japan Committee for IIASA KOREA, REPUBLIC OF: National Research Foundation of Korea (NRF) MALAYSIA: Academy of Sciences Malaysia (ASM) MEXICO: Mexican National Committee for IIASA NETHERLANDS: Netherlands Organization for Scientific Research (NWO) NORWAY: The Research Council of Norway (RCN) PAKISTAN: Pakistan Academy of Sciences RUSSIA: Russian Academy of Sciences (RAS) SOUTH AFRICA: National Research Foundation (NRF) SWEDEN: The Swedish Research Council for Environment, Agricultural Sciences and Spatial Planning (FORMAS) UK: Research Council of the UK UKRAINE: Ukrainian Academy of Sciences UNITED STATES OF AMERICA: The National Academy of Sciences (NAS) VIETNAM: Vietnam Academy of Science and Technology (VAST)


Artikel des IIASA auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:10

Autoren J-L

Autoren J-L Redaktion Tue, 19.03.2019 - 10:15

Reinhard Jahn

Reinhard Jahn

Reinhard JahnProf. Dr. Reinhard Jahn Direktor am Max-Planck Institut für Biophysikalische Chemie (Göttingen) Abteilung Neurobiologie http://www.mpibpc.mpg.de/de/jahn

Reinhard Jahn (Jg. 1950) hat Biologie und Chemie studiert.

1981 Promotion an der Universität Göttingen
1983-1985 Postdoc an der Yale University und der Rockefeller University, USA
1985 Assistant Professor, Rockefeller University
ab 1986 Nachwuchsgruppenleiter am Max-Planck-Institut für Psychiatrie, München
ab 1991 Associate Investigator am Howard Hughes Medical Institute und außerordentlicher Professor für Pharmakologie und Zellbiologie an der Yale University
ab 1995 Professor für Pharmakologie und Zellbiologie an der Yale University
ab 1997 Direktor und Wissenschaftliches Mitglied am Max-Planck-Institut für biophysikalische Chemie, Göttingen

Forschungsschwerpunkte

Membranfusion, Fusionsproteine, Rolle von Proteinkomplexen bei der Exozytose; Schwerpunkt: Exocytose synaptischer Vesikel in Nervenzellen. Struktur synaptischer Vesikel, mehrere Komponenten dieser Organelle erstmals beschrieben. Eine Liste der Publikationen in Fachzeitschriften (324) und von Buchkapiteln (11) ist unter http://www.mpibpc.mpg.de/71612/publications?seite=1 nachzulesen.

Auszeichnungen und Mitgliedschaften

1990 Max-Planck-Forschungspreis
2000 Leibniz-Preis
2004 Mitglied der Leopoldina
2006 Ernst Jung-Preis für Medizin
2008 Sir-Bernard-Katz-Preis
2010 Wissenschaftspreis Niedersachsen in der Kategorie Wissenschaftler an Hochschulen
2014 Heinrich-Wieland-Preis
2015 Ausländisches Mitglied der US National Academy of Sciences
2015 Mitglied der Academia Europaea
2015 Ordentliches Mitglied der Akademie der Wissenschaften zu Göttingen
2016 Communitas-Preis der Max-Planck-Gesellschaft
2016 Balzan-Preis

Artikel von Reinhard Jahn auf ScienceBlog.at

Redaktion Wed, 20.03.2019 - 00:05

Sigrid Jalkotzy-Deger

Sigrid Jalkotzy-Deger

Sigrid Jalkotzy-DegerEm. Univ. Prof. Dr. Sigrid Jalkotzy-Deger war von 2009 - 2013 Klassenpräsidentin der philosophisch-historischen Klasse der Österreichischen Akademie der Wissenschaften (ÖAW).

Sigrid Jalkotzy-Deger ist in Linz geboren und aufgewachsen und hat am Realgymnasium Linz-Körnerstraße maturiert. Ein Stipendium der Stadt Linz ermöglichte ihr das Studium an der Universität Wien in den Fächern Alte Geschichte, Klassische Philologie und Klassische Archäologie. Daneben studierte sie auch an der Akademie für Musik und Darstellende Kunst in Wien.

1968 Promotion (Thesis: Herrschaftsformen bei Homer)
1970 – 1972 Postdoc Aufenthalt an der Cambridge University (UK), Spezialisierung für das Gebiet Mykenologie
1975 – 1986 Mitarbeit an den Ausgrabungen des Österreichischen Archäologischen Instituts (Aigeira/Peloponnes)
1976 Mitglied der Mykenischen Kommission der ÖAW
1978 Universitätsassistentin am Institut für Alte Geschichte und Klassische Archäologie der Universität Wien
1979 Habilitation: „Alte Geschichte unter besonderer Berücksichtigung der Mykenologie und der Geschichte der frühen Kulturen des östlichen Mittelmeerraumes“
1986 – 2008 o. Univ. Prof. Lehrstuhl für Alte Geschichte und Altertumskunde (Universität Salzburg)
1988 – 2011 Obfrau der Mykenischen Kommission der ÖAW
1995 – 1999 Prodekanin der Geisteswissenschaftlichen Fakultät (Universität Salzburg)
2009 – Wahl zur Vizepräsidentin der ÖAW, seit 2011 – mit Inkrafttreten der neuen Geschäftsordnung – ist sie Präsidentin der philosophisch-historischen Klasse der ÖAW.

1987 wurde Jalkotzy-Deger zum korrespondierenden, 1995 zum wirklichen Mitglied der ÖAW gewählt. Seit 2004 ist sie Korrespondierendes Mitglied der Hellenischen Akademie der Wissenschaften in Athen, seit 2005 Korrespondierendes Mitglied der Akademie der Wissenschaften zu Göttingen. 2003 wurde Sigrid Jalkotzy-Deger mit dem Kardinal-Innitzer-Würdigungspreis für Geisteswissenschaften ausgezeichnet. Sie hat als Gastprofessorin an den Universitäten von Saarbrücken, Heidelberg, Köln und Rostock gewirkt. Jakoltzy-Degers besonderes Interesse gilt der Schlussphase der mykenischen Kultur – nach dem Fall der Paläste, am Ende des zweiten vorchristlichen Jahrtausends -, welche sehr lange als „Dark Age“ gegolten hat. Diese Zeit fällt mit einer technologischen Revolution im Mittelmeerraum zusammen: mit dem Übergang der Bronzezeit in die Eisenzeit.


Artikel von Sigrid Jalkotzy-Deger im ScienceBlog

Redaktion Wed, 20.03.2019 - 00:03

Manfred Jeitler

Manfred Jeitler

Manfred JeitlerDr. Manfred Jeitler ist Dozent an der TU Wien und ist vom "HEPHY" (Institut für Hochenergiephysik der ÖAW) ans CERN entsendet.

Geboren 1959

Matura 1976

Studium

  • Dolmetschstudium in Wien und Moskau: 1976-1982
  • Physikstudium in Wien: 1981-1988
  • Dissertation in Physik: 1988-1992
  • Habilitation in Physik: 2007

Berufliche Tätigkeit

  • Baustellendolmetsch in Jerewan: 1981
  • Firmenvertreter in Moskau: 1983-1984
  • Freiberufliche Tätigkeit als Konferenzdolmetscher und Übersetzer
  • Mitarbeiter am Institut für Mittelenergiephysik (Wien): 1988-1993
  • Mitarbeiter am Projekt Austron: 1993-1994
  • Mitarbeiter am Institut für Hochenergiephysik (Wien, entsendet ans CERN): seit 1994
  • Dozent an der TU Wien: seit 2007

Artikel von Manfred Jeitler im ScienceBlog

Redaktion Wed, 20.03.2019 - 00:01

Mathias Jungwirth

Mathias Jungwirth

Mathias JungwirthO.Univ.Prof. Dr.phil. Mathias Jungwirth
Universität für Bodenkultur, Wien

Institut für Hydrobiologie und Gewässermanagement

http://www.boku.ac.at/hfa

Mathias Jungwirth (* 1947 in Wien) hat an der Universität Wien studiert und 1973 als Dr. phil abgeschlossen. Nach der Habilitation im Jahre 1982 wurde er 1985 zum a.o.Professor an der Universität für Bodenkultur ernannt. Seit 1990 ist er dort o. Professor am Institut für Hydrobiologie und Gewässermanagement.

Forschungsgebiete

Gewässerökologie; Gewässerschutz; Fischökologie; Fließgewässerrestauration; Ökologische Funktionsfähigkeit; Fischaufstiegshilfen; Fischereiwirtschaft; Fischzucht; Hydrobiologie; Limnologie. Aus diesen Gebieten liegen mehr als 170 Publikationen in Fachzeitschriften, Sammelwerken und Kongressbänden und auch mehrere Monographien vor.

Funktionen in wissenschaftlichen Gesellschaften, Auszeichnungen

Jungwirth ist Rat der Sachverständigen für Umweltfragen. Er war langjähriger wissenschaftlicher Beirat im Nationalpark Donauauen, im Österreichischen Kuratorium für Fischerei und Gewässerschutz und in der Flood Risk II Steuerungsgruppe. Er fungierte als Experte im Flussbaulichen Gesamtprojekt Donau, als Konsulent der Internationalen Kommission zum Schutz der Donau und war Geschäftsführer des Wasserkluster Lunz - Biologische Station Ges.m.b.H. Seit 2007 ist Jungwirth Mitglied der Jury zur Vergabe des niederösterreichischen Kultur- und Wissenschaftspreises. Jungwirth ist Ehrenmitglied der Österreichischen Fischereigesellschaft und Träger des Goldenen Ehrenzeichens des Niederösterreichischen Landesfischereiverbandes.


Artikel von Mathias Jungwirth auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:59

Johannes Kaiser

Johannes Kaiser

Johannes KaiserDr. Johannes W. Kaiser
Forschungsgruppenleiter Max-Planck Institut für Chemie (Otto-Hahn-Institut), Mainz,
Abteilung Atmosphärenchemie

http://www.mpic.de/forschung/atmosphaerenchemie/gruppe-kaiser.html

Der Physiker Johannes Kaiser hat am Institut für Umweltphysik der Universität Bremen mit einer Doktorarbeit „Atmospheric Parameter Retrieval from UV-vis-NIR Limb Scattering Measurements“ sein Studium abgeschlossen.

Beruflicher Werdegang

1997 - 2002 Universität Bremen, Institut für Umweltphysik; Research Scientist: Entwicklungen für das SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmospheric ChartographYy) Instrument an Bord des ESA's Envisat Umweltsatelliten.
2002 – 2005 Universität Zürich, Dept. Geografie, Remote Sensing Laboratories ; Research Scientist im APEX -Projekt(Airborne Prism Experiment): Kalibrierung und Level-1 Prozessor für das flugzeugunterstützte abbildende Spektrometer
2005 – 2014 European Centre for Medium-Range Weather Forecasts (ECMWF), Forschungsabteilung, Reading UK; (Teilzeit) Leitung des Feueremissions-Service und des Aerosol-Service und Koordination von wissenschaftlichen technischen Agenda der GMES- Dienste(Global Monitoring for Environment and Security). Projekte: GFAS, MACC, MACC-II, GEMS, HALO.
2012 – 2014 Kings College, Dept. Geography, London; Research Associate (Teilzeit)
2012 – Max-Planck Institut für Chemie, Mainz, Abteilung Atmosphärenchemie; Forschungsgruppenleiter Projekte: MACC-III (Quantifizierung der Emissionen von industriellen Gasfackeln mittels Sentinel-3 Beobachtungen), Co-chair: IBBI (Interdisciplinary Biomass Burning Initiative)

Forschungsinteressen

Aerosole und Spurengase in der Atmosphäre (Erfassen und Vorhersagen) , Emissionen von Wildfeuer, Verbrennung von Biomasse, Beobachtungen vom Satelliten aus, Datenassimilation.

Publikationen

60 Veröffentlichungen in peer-reviewed Journalen (Web of Science, abgerufen am 30.7.2015), aktualierte Liste in ah href="https://scholar.google.com/citations?user=w43lRJUAAAAJ&cstart=180&pagesize=20" target="_blank">google Scholar (182 Titel)


Artikel von Johannes Kaiser auf Scienceblog.at

Redaktion Tue, 19.03.2019 - 23:55

Endale Kebede

Endale Kebede

Endale KebedeEndale Kebede, M.A.

Research Assistant

IIASA World Population Program

Endale Kebede hat einen Masterabschluss in Wirtschaftswissenschaften (Universität Warwick) und einen Erasmus Mundus Mastergrad in Wirtschaftswachstum und Entwicklung (Universität Lund). Für seine Teilnahme in der European Doctoral School of Demography (EDSD) erhielt er von der European Association for Population Studies das European research certificate

Kebede ist Forschungsassistent im IIASA's World Population (POP) Program und Assistent von Prof. Lutz in Forschung und Lehre an der Wirtschaftsuniversität Wien.

Die Forschungsinteressen von Kebede liegen vor allem in Bildung, Umwelt und Bevölkerungsdynamik, wobei speziell die Subsahara im Vordergrund steht. Mehrere Arbeiten sind u.a. in PNAS veröffentlicht.

Zur Zeit arbeitet er am neuen JRC-IIASA Projekt über internationale Migration.  

Artikel von Endale Kebede im ScienceBlog

Redaktion Thu, 25.07.2019 - 13:57

Marcel Keller

Marcel Keller

Marcel KellerMarcel Keller, M.Sc. Doktorand am Max-Planck-Institut für Menschheitsgeschichte, Jena
Abteilung Archäogenetik

http://www.shh.mpg.de/

Ausbildung

10.2008 - 9.2011 B.Sc. in Biologie, Ludwig-Maximilians-Universität München
10.2011 - 9.2013 M.Sc. in Biologie, Ludwig-Maximilians-Universität München
12.2014 - Doktorand, Max-Planck-Institut für Menschheitsgeschichte, Department Archäogenetik

Forschungsinteressen

Als Doktorand im Department Archäogenetik konzentriert sich Marcel Keller auf die ersten beiden historisch dokumentierten Pandemien des Erregers Yersinia pestis: die 'Justinianische Pest' am Übergang der Spätantike zum Frühmittelalter (541-750) und dem 'Schwarzen Tod' im Spätmittelalter mit seinen nachfolgenden Epidemien bis ins 18. Jahrhundert. Mit der Anwendung genomischer und phylogenetischer Methoden an 'alter DNA' aus Skelettmaterial untersucht er die Biologie als auch die Ausbreitung in Raum und Zeit dieses beispielhaften Humanpathogens.

Veröffentlichungen: 3 (http://www.shh.mpg.de/employees/40901/25500)


Artikel von Marcel Keller auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:54

Bernhard Keppler

Bernhard Keppler

Bernhard Kepplero. Univ.-Prof. DDr. Bernhard Keppler, Jg. 1956, ist Vorstand des Instituts für Anorganische Chemie und Dekan der Fakultät für Chemie and der Universität Wien, wo er auch die Forschungsplattform Translational Cancer Therapy Research leitet.

1979 Diplom in Chemie
1981 Promotion in Chemie zum Dr.rer.nat. an der Universität Heidelberg
1984 Medizinisches Staatsexamen und Approbation als Arzt
1986 Promotion zum Dr.med.univ. am Deutschen Krebsforschungszentrum Heidelberg
1990 Habilitation für Anorganische Chemie an der Universität Heidelberg, Hochschuldozent C2
1995 Berufung zum Ordentlichen Universitätsprofessor für Anorganische Chemie an der Universität Wien
seit 1996 Vorstand des Instituts für Anorganische Chemie und Leiter der Forschungsplattform Translational Cancer Therapy Research
2001 Ruf auf ein Ordinariat der Universität Jena abgelehnt
2004 – 2008 Vizedekan der Fakultät für Chemie Universität Wien
seit 2008 Dekan der Fakultät für Chemie Universität Wien
seit 2004 Vorsitzender des Universitätsprofessorenverbands der Universität Wien
seit 2007 Vorsitzender des Verbands österreichischer Universitätsprofessoren

Forschung

Schwerpunkte: Entwicklung neuer Krebstherapeutika; Biologisch aktive Koordinationsverbindungen; Bioanorganische Chemie, Umweltchemie und -technologie. Mehr als 420 Veröffentlichungen (als Autor, Koautor), tätig im Edidtoral Board zahlreicher wissenschaftlicher Zeitschriften Zahlreiche Auszeichnungen (Viktor Meyer Preis, Dr. Sophie Bernthsen Preis, von Recklinghausen Preis der Deutschen Endokrinologischen Gesellschaft, Heinz Maier-Leibnitz Preis des Deutschen Bundesministeriums für Bildung und Forschung)


Artikel von Bernhard Keppler im ScienceBlog

Redaktion Tue, 19.03.2019 - 23:53

Franz Kerschbaum

Franz Kerschbaum

Franz KerschbaumA. Univ. Prof. Dr. Franz Kerschbaum, Jg. 1963, lehrt seit Anfang 2001 beobachtende Astrophysik am Institut für Astronomie der Universität Wien. Die zentralen Forschungsgebiete umfassen die Spätstadien der Sternentwicklung, astronomische Instrumentenentwicklung mit Schwerpunkt Weltraumexperimente sowie wissenschaftshistorische Fragestellungen. Längere Forschungsaufenthalte führten ihn unter anderem nach Frankreich, Schweden, Spanien und Chile. Beratende Tätigkeiten führt Franz Kerschbaum für eine Vielzahl von renommierten internationalen Einrichtungen, Universitäten und Fachzeitschriften durch. Eine wichtige Ergänzung seiner Arbeit stellen Ausstellungen, populäre Artikel und Vorträge, Medienarbeit sowie interdisziplinäre Projekte dar. Franz Kerschbaum wurde am 5. Dezember 1963 im niederösterreichischen Waldviertel geboren und wuchs in Krems-Stein auf. Nach Absolvierung der Schulausbildung studierte er ab 1982 Astronomie und Physik an der Universität Wien. Seine 1988 abgeschlossene Diplomarbeit „The use of Fourier Techniques on the Example of the Delta Scuti Variable 4CVn“ wies zum ersten Mal langfristige Amplitudenvariationen bei Delta Scuti Sternen nach. Das anschließende Doktoratstudium zum Thema „Infrared Properties of Stars on the Asymptotic Giant Branch“ führte Franz Kerschbaum für längere Zeit (Astronome Adjoint am Dép. de Recherche Spatiale) nach Paris-Meudon. Weiters waren dafür umfangreiche Beobachtungskampagnen in Spanien und Chile nötig. Die direkt aus der 1993 abgeschlossenen Dissertation hervorgegangenen Arbeiten gelten insbesondere für Halbregelmäßig Veränderliche Sterne als Referenzarbeiten mit immer noch hohen Zitierraten. Schon während seines Studiums in Wien war Franz Kerschbaum auch als Vertrags- und Forschungsassistent bzw. Tutor tätig und erhielt mehrere kompetitive Forschungsstipendien. Danach wurde er von 1993 bis 1997 FWF-Post Doc an der Universität Wien und konnte sich zusätzlich zur erdgebundenen Infrarotphotometrie auch in den Einsatz von Infrarotdaten aus Weltraummissionen sowie von Molekülspektroskopie im mm-Radiobereich einarbeiten. Der Schwerpunkt der Forschung verschob sich dadurch mehr zu Massenverlustprozessen von Riesensternen. Seine internationalen Kooperationen wurden damals um eine noch heute bestehende intensive Zusammenarbeit mit der Gruppe um Hans Olofsson, Stockholm bzw. Göteborg erweitert, die auch das wichtigste Forschungsumfeld des 1997 verliehenen und bis 2000 durchgeführten APART-Habilitationsstipendiums der ÖAW darstellte. Dieses konzentrierte sich ganz auf die für den Kosmischen Materiekreislauf so wichtigen Massenverlustprozesse. Dabei kam ihm der bevorzugte Zugang zu schwedischen Beobachtungseinrichtungen für mm-Radiomessungen zugute. Die im Zuge dieser mehrjährigen Zusammenarbeit gewonnenen umfangreichen Datensätze und die daraus abgeleiteten Objekteigenschaften bilden auch mehr als ein Jahrzehnt nachher eine wertvolle Grundlage zur Erforschung dieser Sterntypen. Im Jahr 2000 erfolgte die Habilitation für Beobachtende Astrophysik. Seit 2001 ist Franz Kerschbaum an der Universität Wien tätig. In den Jahren 2009-2011 leitete er dort das Institut für Astronomie. Drei Forschungsbereiche dominieren seine heutigen Arbeiten: Spätstadien der Sternentwicklung, Astronomische Instrumentation und Wissenschaftsgeschichte. Die erste Fragestellung blickt in die Zukunft unserer Sonne und stellt insbesondere über Nukleosynthese und Massenverlustprozesse die individuelle Sternentwicklung in den größeren Rahmen der chemischen Entwicklung des Universums. Die hohen beobachtungstechnischen Anforderungen dieses Forschungsbereichs haben Franz Kerschbaum zur Instrumentenentwicklung insbesondere im Bereich der Infrarotstrahlung geführt. Ein Höhepunkt dieser Tätigkeit ist die für Österreich leitende Mitwirkung an der leistungsfähigsten Kamera des im Jahr 2009 gestarteten ESA-Weltraumteleskops Herschel. Dieses bisher größte raumgestützte Observatorium erlaubt einen einzigartigen, neuen Blick ins kalte Universum. Die Erforschung der Ursprünge, der Veränderungen und des gesellschaftlichen Umfelds seiner Disziplin - der Astronomie - bestimmen den dritten Forschungsschwerpunkt. Arbeiten zur Entwicklung astronomischer Messverfahren, zur Astronomie im Dritten Reich oder auch zu bibliographischen Entwicklungen wären hier zu erwähnen. Franz Kerschbaums wissenschaftshistorische Aktivitäten stehen auch oft im Zusammenhang mit interdisziplinären Projekten, die die Astronomie gemeinsam mit Philosophie, Kunst aber auch Theologie in einen weiteren Kontext stellen. Beratende Tätigkeiten führt Franz Kerschbaum für eine Vielzahl von internationalen Einrichtungen wie die Europäische Weltraumagentur ESA, die Europäische Kommission, verschiedene Förderorganisationen, Universitäten und Fachzeitschriften durch. Für ESA war er als Vice-Chair längere Zeit im höchsten Fachberatungsgremium, der Astronomy Working Group tätig. In den EU-Rahmenprogrammen FP6 und FP7 agiert er als Panel Vice Chair und Rapporteur. Franz Kerschbaum ist Mitglied der Österreichischen Gesellschaft für Astronomie und Astrophysik, der International Astronomical Union, der European Astronomical Society, der Astronomischen Gesellschaft aber auch auf breiterer Ebene tätig für das Studienförderungswerk Pro Scientia, dem Forum Sankt Stephan, so wie dem Forum Zeit und Glaube. Österreichischen Radiohörer ist Franz Kerschbaum durch eine Vielzahl von Sendungen insbesondere auf Ö1 bekannt. Der Bogen spannt sich dabei von kurzen Wissen-aktuell Beiträgen über längere Features wie Radio Kollegs, Dimensionen oder Gedanken bis zu Kinderformaten wie Rudi Radiohund. Neben weiteren medialen Aktivitäten bzw. solchen im Ausstellungsbereich ist auch seine langjährige populäre Vortragstätigkeit zu erwähnen – auch hier werden alle Alters- und Vorbildungsgruppen abgedeckt. Zentrales Anliegen ist für Franz Kerschbaum dabei immer seine eigene Faszination und Begeisterung für die „Himmlischen Wissenschaften“ auf breite Kreise der Bevölkerung überspringen zu lassen und damit Fernes, oft Abstraktes und Unvorstellbares, persönlich erfahrbar zu machen. Zur Webseite Aktuelles populäres Buch: Sonne, Mond und Sterne: 52 kosmische Antworten, Kerschbaum, Franz / Simbürger, Franz, 2010, Seifert Verlag, Wien, ISBN 978-3-902406-81-1


Artikel von Franz Kerschbaum im ScienceBlog

Redaktion Tue, 19.03.2019 - 23:49

Mike Klymkowsky

Mike Klymkowsky

Mike KlymkowskyMichael W. Klymkowsky, PhD

Professor of Molecular, Cellular & Developmental Biology
Co-Director CU-Teach University Colorado Boulder

http://klymkowskylab.colorado.edu/
https://mcdb.colorado.edu/directory/Mike_Klymkowsky

*1953 in Philadelphia, PA, USA

Ausbildung, Karriereweg, Aktivitäten

1971 – 1974 Pennsylvania State University (Biophysik) BS (Membran-Bindung von Bakteriophagen)
1974 – 1980 California Institute of Technology (Biophysik; Elektronenmikroskopie, Strukturbiologie) PhD (Acetylcholin-Rezeptor)
1979 – 1980 University of California, San Francisco (Biochemie/Biophysik; unter Robert Stroud)
1981 – 1982 Postdoc am University College London (unter Martin Raff; Medical Research Council Neuroimmonologie Projekt; experimentelle Zellbiologie, Filamentsysteme Muskeldystrophie)
1982 – 1983 Postdoc an der The Rockefeller University (unter Lee Rubin; Neurobiologie; Acetycholinrezeptor und Esterase)
1983 – 1990 1996 – Assistant Professor, University Colorado, Boulder Professor für Molecular, Cellular and Developmental Biology, University Colorado, Boulder,
2010 – PLoS One Editorial Board
2011 – Faculty of 1000
2013, 2015, 2016 Gastprofessor an der ETH Zürich (Institute of Molecular System Biology)
2016 – Team lader: PLoS Sci-Education blog, http://blogs.plos.org/scied/

Forschung

Klymkowsky arbeitet in zwei Forschungsgebieten:

  • an molekularen Mechanismen der Entwicklung von Oocyten zum Embryo (Mesoderm, Neuralleiste) am Modell des Frosches Xenopus laevis, an der Organisation des Cytoskeletts und der Funktion der Zilien. Seit kurzem arbeitet er auch mit induzierten pluripotenten Stammzelle und der Organoid Bildung (zerebrale Organoide)
  • an verbesserter Ausbildung von Studenten in biologischen Wissenschaften. Dazu hat er u.a. zusammen mit Melanie Cooper (Prof. Chemistry/Science Education; Michigan State Univ.) hervorragendes Lehrmaterial geschaffen:
    • biofundamentals Lizenz:cc-by-nc-sa 4.0. http://virtuallaboratory.colorado.edu/Biofundamentals/Biofundamentals.pdf
    • CLUE- Chemistry, Life, the Universe & Everything. LibreTexts Lizenz: cc-by-nc-sa 3.0. https://chem.libretexts.org/Textbook_Maps/General_Chemistry_Textbook_Maps/Map%3A_CLUE_(Cooper_and_Klymkowsky)

Eine Liste der mehr als 110 Veröffentlichungen ist zu finden unter: https://experts.colorado.edu//vitas/101226.pdf

Auszeichungen

zahlreiche Auszeichnungen für seine wissenschaftlichen Arbeiten und die Entwicklung von Bildungskonzepten, u.a.:

2014 Award for Excellence in Teaching (Boulder Faculty Assembly)
2013 Outstanding Undergraduate Science Teacher Award (Society for College Science Teachers)
2009 Gold Best Should Teach Award (Graduate School)
2008 AAAS Fellow (American Association for the Advancement of Science)
1985 Pew Scholar in the Biomedical Sciences (Pew Charitable Trusts)

Artikel von Mike Klymkowsky auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:47

Wolfgang Knoll

Wolfgang Knoll

Wolfgang KnollProf. Dr. Wolfgang Knoll hat Physik und Biophysik an der Technischen Universität Karlsruhe und der Universität Konstanz studiert, war u.a. Laborleiter für "Exotische Nanomaterialien" am RIken Institut (Japan), Professor an mehreren hochrangigen Universitäten, langjähriger Direktor am Max Planck Institut für Polymerforschung (Mainz) und ist seit 2008 wissenschaftlicher Geschäftsführer des Austrian Institutes of Technology (AIT). Forschungsgebiete: Eigenschaften polymerer und bioorganischer Systeme in dünnen Filmen und funktionalisierten Oberflächen, Biomimetik.

Knoll, wurde 1949 in Schwäbisch Hall, Deutschland, geboren.

Professional Career

1973 Diploma - Physics, Technical University of Karlsruhe
1976 Ph.D. - Biophysics, University of Konstanz
1976-1977 Postdoctoral Fellow, University of Konstanz
1977-1980 Postdoctoral Fellow, University of Ulm
1980-1981 Postdoctoral Fellow, IBM Research Laboratory, San José, CA
1981 Visiting Scientist, Institut Laue-Langevin, Grenoble, France
1981-1986 Assistant Professor, Technical University of Munich
1985 Visiting Scientist, IBM Research Laboratory, San José, CA
1986 Postdoctoral Degree: "Habilitation" - Physics, Technical University of Munich
986-1991 Young Investigator/Associate Professor, Max-Planck-Institut für Polymerforschung, Mainz
1988 Visiting Scientist, Optical Sciences Center, Tucson, AZ
1990 Visiting Scientist, Dept. of Chem. & Nuc. Engineering, University of California, Santa Barbara, CA
1990-1991 Visiting Professor, University of Erlangen
1991-1999 Head of Laboratory for Exotic Nano-Materials, Frontier Research Program, RIKEN-Institute, Japan
since 1992 Consulting Professor, Department of Chemical Engineering, Stanford University, Stanford, CA
1993-2008 Director, Max-Planck-Institut für Polymerforschung, Mainz
since 1998 Professor (by Courtesy) Chemistry Department, University of Florida, Gainesville, FL
since 1999 Adjunct Professor, Hanyang University, Korea
1999-2003 Temasek Professor, National University of Singapore
since 2004 Visiting Principal Scientist, Institute of Materials Research and Engineering, Singapore
since 2008 Scientific Managing Director, AIT Austrian Institute of Technology GmbH, Wien
since 2009 Honorary Professor, University of Natural Resources and Applied Life Sciences, Wien
since 2009 Visiting Professor, Nanyang Technological University, Singapore

Honours

  • Heisenberg Fellow of the Deutsche Forschungsgemeinschaft, 1986
  • Merck Centennial Lecturer, University of Iowa, Ames, 1988
  • Heinrich-Welker-Award, Siemens/Universität Erlangen, 1990
  • Eugen-und-Ilse-Seibold Award of the Deutschen Forschungsgemeinschaft, 2003
  • Exner Medal, Österreichischer Gewerbeverein, 2008
  • Regular Member of the Austrian Academy of Sciences, 2010

Artikel von Wolfgang Knoll im ScienceBlog

Redaktion Tue, 19.03.2019 - 23:46

Christian Körner

Christian Körner

Christian Körneremer. Prof. DDr.h.c. Christian Körner

Botanisches Institut,
Universität Basel

https://botanik.unibas.ch/personen/profil/person/koerner/

Ausbildung und Karriereweg

1968 – 1973 M.Sc. (Diplom Biologie), Universität Innsbruck, Österreich
1973 – 1977 Ph.D. Thesis, Universität Innsbruck (W. Larcher; Wasserhaushalt alpiner Pflanzen)
1977 – 1980 Postdoc: Österr. MAB alpines Programm und Feldforschung im Kaukasus (Georgien)
1980 – 1981 Postdoc, Research School of Biol. Sci., Australian Natl. Univ. (RSBS-ANU) Canberra
1982 – 1989 Habilitation für Botanik, Universität Innsbruck. Projekte zur alpinen Ökologie
1989 Visiting Research Fellow: Research School of Biology Australian National University (RSBS-ANU), Canberra (stabileKohlenstoffisotope)
1989 – Professor für Botanik, Universität Basel
1994 – 1999 Gemeinsames Projekt mit dem Smithsonian Tropical Research Institute, Panama (Mellon Foundation)
1995 – 2007 Untersuchungen zur Höhe der Baumgrenze (global)
1998 – 2015 Vorsitz: Global Mountain Biodiversity assessment (GMBA) of DIVERSITAS
1998 – 2004 Task leader: Global Change and Terrestrial Ecosystems (GCTE) project of IGBP Science steering committee of the International Geosphere Biosphere Program (IGBP)
2000 – 2015 "Swiss canopy crane" Projekt
2000 – 2006 Präsident von ProClim(Forum for Climate and Global Change)
2003 Alpine Plant Life (2nd ed.): Gesamtdarstellung der alpinen Ökologie
2006 – Swiss national representative of SCOPE
2009 – 2014 ERC Advanced Grant (2 Mio. CHF) TREELIM, exploring thermal tree species limits in Europe

Forschungsschwerpunkte

  • Fragen der Wirkung von erhöhtem CO2 auf komplexe Pflanzenbestände unter möglichst naturnahen Verhältnissen (Simulationsexperiment; feuchttropisches Modellökosystem, Alpenrasen, Fichtenjungwuchs, Kalkmagerrasen, Winterrasen des Negev; Unterwuchspflanzen in den Tropen, z. B. Panama, und im Buchenwald); Aufbau der Forschungsstation »Swiss Canopy Crane zur Simulation der CO2-Wirkung auf erwachsene Naturwälder;
  • Vergleichende Ökologie arktischer und alpiner Pflanzen;
  • Erklärung der alpinen Waldgrenze; Synthese zur Hochgebirgsökologie

Veröffentlichungen

Mehr als 320 im ISI (Web of Knowledge) aufgeführte wissenschaftliche Publikationen; Details: https://plantecology.unibas.ch/koerner/publications.shtml . Von den Büchern sind besonders zu erwähnen: Das Lehrbuch der Pflanzenwissenschaften ("Strasburger"), 37. Auflage (2014, neu bearbeitet von: Joachim W. Kadereit, Christian Körner, Benedikt Kost, Uwe Sonnewald), Alpine Plant Life (2003) Alpine Treelines (2012)

Christian Körner ist/war Editor/Mitglied im editorial Board von: Oecologia, Springer (editorial board since 1988, Editor-in Chief 1998-2013); SCIENCE (2000 – 2004); TREE (Trends in Ecology and Evolution); Global Change Biology, Blackwell (1995 – 2011, 2013-); Biologie in unserer Zeit (VCH Wiley); GAIA (1996 – 2014); Editor-in-Chief of Frontiers in Functional Plant Ecology (2011-2015); Alpine Botany, Springer (editorial board 2010 –)

Mitgliedschaften und Auszeichnungen

Mitglied der : Österreichischen Akademie der Wissenschaften, Deutschen Akademie der Wissenschaften, Leopoldina (Halle), National Academy of India Marsh Award, British Ecological Society (2007); Dr. h.c. (Universität Innsbruck 2013), Ehrenmitglied der Ecological Society of America (ESA 2013); Dr. h.c. (Ilia University, Tbilisi 2014);


Artikel von Christian Körner auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:44

Christoph Kratky

Christoph Kratky

Christoph Kratkyo. Univ Prof. Christoph Kratky

hat an der ETH Zürich Chemie studiert, war Postdoc an der Harvard University (USA), hat am Institut für Physikalische Chemie der Universität Graz die Arbeitsgruppe für Strukturbiologie aufgebaut und ist seit 1995 Lehrstuhlinhaber dieses Instituts. Er ist Träger zahlreicher Auszeichnungen und übt(e) wichtige Funktionen in wissenschafts- und forschungspolitischen Gremien aus: seit 2005 ist er Präsident des Wissenschaftsfonds (FWF). Forschungsinteressen: kristallographische Bestimmung der 3D-Strukturen biologisch relevanter Moleküle, Entwicklung neuartiger proteinkristallographischer Techniken. http://strubi.uni-graz.at/ * 1946 in Graz

Ausbildung

–1965 Volksschule und Gymnasium in Graz
1966–1970 Diplomstudium Chemie an der ETH in Zürich
1971–1976 PhD Dissertation an der ETH Zürich (Anleitung: Prof. J.D. Dunitz)
1976–1977 Post-Doc, Max Kade Fellowship, Department of Chemistry, Harvard University, Cambridge, USA (Prof. Martin Karplus)

Berufliche Laufbahn

1977–1995 Assistent am Institut für Physikalische Chemie, Universität Graz, Aufbau und Leitung einer Arbeitsgruppe für Strukturbiologie
1985 Habilitation für Physikalische Chemie, Universität Graz
1987 Forschungsaufenthalt: Max Planck Gesellschaft in Hamburg (strukturelle Molekularbiologie; Prof. Ada Yonath)
1994 Gastprofessor am Institut für Organische Chemie, Universität Innsbruck
1995– o. Univ. Prof und Lehrstuhlinhaber für Physikalische Chemie an der Karl Franzens Universität Graz
2003–2005 Kuratoriums-Mitglied des Fonds zur Förderung der wissenschaftlichen Forschung (FWF)
2005– Präsident des Fonds zur Förderung der wissenschaftlichen Forschung (FWF)

Auszeichnungen, Mitgliedschaften

1977 Silbermedaille der ETH Zürich
1986 Felix-Kuschenitz-Preis der Österreichischen Akademie der Wissenschaften
1987 Sandoz-Preis
2001 Wirkliches Mitglied der ÖAW

Ausgewählte Funktionen

  • Österreichischer Vertreter im Scientific Council des Institut Laue-Langevin (ILL) in Grenoble, Frankreich
  • Vorsitzender des biology-subcommittees des ILL;
  • Mitglied des Governing Boards von Science Europe
  • Mitglied des life-science subcommittees der European Synchrotron Radiation Facility (ESRF) in Grenoble

Forschungstätigkeit

Kristallographische Bestimmung der 3D-Struktur biologisch relevanter Moleküle (B-12-bindende Proteine, Enzyme des Lipidstoffwechsels, Enzyme mit potentieller Bedeutung für die industrielle Biokatalyse) Entwicklung neuartiger proteinkristallographischer Techniken Insgesamt 187 Publikationen (Originalarbeiten und Review-Artikel) in begutachteten internationalen Zeitschriften


Artikel von Christoph Kratky im ScienceBlog

Redaktion Tue, 19.03.2019 - 23:43

Johannes Krause

Johannes Krause

Johannes KrauseProf. Dr. Johannes Krause

Direktor am Max-Planck-Institut für Menschheitsgeschichte, Jena
Abteilung Archäogenetik

http://www.shh.mpg.de/3006/johanneskrause

* 1980, Leinefelde Thüringen

Ausbildung und Karriere

2000 - 2005 Biochemie, Universität Leipzig, Deutschland
2002 - 2003 Biochemie, University College Cork, Ireland
2005 - 2008 Dr. rer. nat. From Genes to Genomes: Applications for Multiplex PCR in Ancient DNA Research, Note: 1.0 “Summa cum laude”, Universität Leipzig & Max-Planck-Institut für Evolutionäre Anthropologie, Leipzig
2008- 2010 Wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Evolutionäre Anthropologie, Abteilung für Evolutionäre Genetik , Leipzig, Deutschland. Forschungsgebiet: Genomik
2010 - 2013 Juniorprofessor für Paläogenetik, Institut für Naturwissenschaftliche Archäologie, Eberhard Karls Universität Tübingen
2013 - 2015 Professor (W3) für Archäo- und Paläogenetik, Institut für Naturwissenschaftliche Archäologie, Eberhard Karls Universität Tübingen
2014 - Berufung als Gründungsdirektor an das Max-Planck-Institut für Menschheitsgeschichte, Jena, Abteilung Archäogenetik
2015 - Honorarprofessor für Archäo- und Paläogenetik, Institut für Naturwissenschaftliche Archäologie, Eberhard Karls Universität Tübingen
2016 - Direktor Max-Planck – Harvard Forschungszentrum für die archäologisch-naturwissenschaftliche Erforschung des antiken Mittelmeerraums (MHAAM)

Forschungsschwerpunkte

  • Alte und sehr alte DNA
  • Evolution des Menschen
  • Historische Krankheitserreger
  • Vergleichende und evolutionäre Genomik

Krause wirkte unter anderem an der Entschlüsselung des Erbguts des Neandertalers mit, wobei ihm der Nachweis gelang, dass Neandertaler und der moderne Mensch dasselbe Sprachgen (FOXP2) teilen. Im Jahr 2010 gelang ihm erstmalig der Nachweis einer neuen Menschenform, dem Denisova Menschen anhand von genetischen Daten aus einem sibirischen Fossil. In seiner Arbeit zur Evolution historischer Infektionskrankheiten konnte er nachweisen, dass die meisten heutigen Pesterreger auf den mittelalterlichen Schwarzen Tod zurückzuführen sind.

Publikationen

82 (peer reviewed), 1 Buchkapitel. Liste:http://www.shh.mpg.de/Johannes-Krause-Publications Zahlreiche TV-Beiträge, Rundfunkbeiträge und Beiträge in Printmedien (u.a. The New York Times,National Geographic, Discovery News, GEO Magazine, Times (London), The Guardian, .....); Details http://www.shh.mpg.de/598149/johannes_krause_lebenslauf_august_2017.pdf

Auszeichnungen

Johannes Krause ist Kollegiat der Heidelberger Akademie der Wissenschaften und wurde mit dem AAAS Newcomb Cleveland Prize ausgezeichnet. Er ist korrespondierendes Mitglied des Center for Academic Research & Training in Anthropogeny (CARTA) und des Deutschen Archäologischen Instituts.


Artikel von Johannes Krause auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:39

Günther Kreil

Günther Kreil

Günther KreilGünther Kreil (1934 - 2015)

Chemie Studium an der Universität Wien. Anschließend Postdoktorand bei Paul Boyer (Universität en von Minnesota und Kalifornien)

1961 Promotion PhD (Biochemische Doktorarbeit über die Aminosäuresequenz von Cytochrom c.; Anleitung Hans Tuppy )
1966 – 2003 (Abteilungs)Leiter des Instituts für Molekularbiologie der Österr. Akademie der Wissenschaften (Wien, Salzburg)
2003 – Schließung des Instituts und Pensionierung
1974 Habilitation an der medizinischen Fakultät der Universität Wien
1979 EMBO Mitglied
1985 "Scholar in Residence", Universitat von Kalifornien, Los Angeles

Lehrtätigkeit (Auswahl)

  • Graduate Courses an der Univ. Kalifornien Riverside  (1975,1977,1979)
  • Advanced Courses an die Universität Neapel (1984 und 1987)
  • Zahlreiche Fortbildungskurse für AHS-Lehrer über Gentechnik und Molekulare Evolution
  • Fritz Lipmann Lecture (1989)

Andere Aktivitäten (Auswahl)

  • Österr. Vertreter beim EMBO Council (1980), Vorsitzender 1984
  • EMBO Fellowship Committee (1982-1986)
  • FEBS Advanced Courses Committee (1986-1990)

Mitgliedschaften, Beirat (Auswahl)

  • Beirat Max Planck Institut für Biochemie (Martinsried)
  • Beirat Max Planck Institut für Experimentelle Medizin (Göttingen)
  • Beirat Gesellschaft der Naturforscher und Ärzte
  • Beirat Zentrum für Molekulare Biologie (Univ. Heidelberg)
  • Referent beim FWF (1994-2003)
  • Mitglied der Österreischischen Akademie der Wissenschaften
  • Mitglied der Academia Europaea

Arbeitsgebiete

  • Biosynthese sezernierter Peptide
  • Posttranslationale  Reaktionen
  • Biosynthese von D-Aminosäuren in Peptiden
  • Opiat Peptide
  • Biosynthese und Abbau von Hyaluronan

Günther Kreil ist Autor von 175 Veröffentlichungen in wissenschaftlichen Journalen (Thomson-Reuters Web of Knowledge) und von diversen Buchbeiträgen.


Artikel von Günther Kreil im ScienceBlog

Redaktion Tue, 19.03.2019 - 23:39

Ilse Kryspin-Exner

Ilse Kryspin-Exner

Ilse Kryspin-ExnerO. Univ.-Prof. Dr. Ilse Kryspin-Exner

Klinische und Gesundheitspsychologin
Psychotherapeutin (Schwerpunkt Verhaltenstherapie)

Webseite: http://ppcms.univie.ac.at/index.php?id=377

Institut für Angewandte Psychologie: Gesundheit, Entwicklung und Förderung
1010 Wien, Liebiggasse 5

Videoclip: o.Univ.Prof.Dr.Ilse Kryspin-Exner – Psychology Careers Unveiled (16:12 min)


Curriculum Vitae

Studium der Psychologie und Anthropologie in Wien

 1971–1975 Mitarbeiterin an der Universitätsklinik für Psychiatrie in Wien und am Ludwig- Boltzmann-Institut für Suchtforschung
 1974–1988 Universitätsassistentin an der Medizinischen Fakultät in Innsbruck, Aufbau der psychologischen Abteilung an der Universitätsklinik für Psychiatrie in Innsbruck
 1988 Habilitation
 1988–1998 Assistenzprofessorin am Institut für Psychologie der Universität Wien
 Seit 1991 von der Österreichischen Rektorenkonferenz in den Psychologenbeirat und den Psychotherapiebeirat des Bundesministeriums für Gesundheit entsandt
 1996 Verleihung des Berufstitels "Außerordentliche Universitätsprofessorin" an der Medizinischen Fakultät der Universität Innsbruck
 1998 Berufung auf das Ordinariat Klinische Psychologie am Institut für Psychologie der Universität Wien; Mit der Berufung Gründung der Lehr- und Forschungspraxis für Klinische Psychologie
 1992–1999 Im Leitungsteam der postgradualen Universitätslehrgänge zum Klinischen und Gesundheitspsychologen sowie Psychotherapeutisches Propädeutikum der Universität Wien
 2006 Gründerin der Ethikkommission an der Fakultät für Psychologie an der Universität Wien (mit Ende 2010 zugunsten einer Ethikkommission der Universität Wien stillgelegt)
 Seit 2007 Mitglied der Kommission des Obersten Sanitätsrats zur Qualitätssicherung in der Suchterkrankung
   Mitglied des Beirats für psychische Gesundheit und Beirats für Altersmedizin im Bundesministerium für Gesundheit, Familie und Jugend
  Steering committe member des European Neuroscience and Society Network (ENSN) der European Science Foundation
 Seit 2009 Mitglied im Advisory Board AAL (Ambient Assisted Living) der EU
 Seit 2010 Stellvertretende Vorstandsvorsitzende der ÖPIA, Österr. Plattform für interdisziplinäre Altersfragen
 Seit 2011 Vorsitzende der neu gegründeten Ethikkommission der Universität Wien

Forschungsschwerpunkte

  • Klinische Neuropsychologie,
  • Gesundheit und Internet,
  • Gerontopsychologie,
  • Somatische Erkrankungen,
  • Innovative Technologien

Publikationen (Zeitschriftenartikel, Bücher, Kongreßbeiträge)

http://ppcms.univie.ac.at/index.php?id=389

Preise und Auszeichnungen

U.a. :Goldenes Ehrenzeichen für die Verdienste um die Republik Österreich (2011) Wiener Preis für humanistische Altersforschung, Österreichische Gesellschaft für Geriatrie und Gerontologie, Österreich (2004). Leopold-Kunschak-Preis für Volksmedizin (1999). Studienaufenthalte in London, an verschiedenen Institutionen in den USA sowie Vortragstätigkeit an der Universität Sao Paulo, Brasilien. Mitherausgeberin, im Redaktionsteam bzw. wissenschaftlichen Beirat folgender Fachzeitschriften: Gerontology/ Verhaltenstherapie und Verhaltensmedizin/ Neuropsychiatrie/ Psychiatrie & Psychotherapie


Artikel von Kryspin-Exner im ScienceBlog:

Redaktion Tue, 19.03.2019 - 23:37

Martin Kaltenpoth

Martin Kaltenpoth

Martin KaltenpothUniv. Prof. Dr.Martin Kaltenpoth

Direktor und Wissenschaftliches Mitglied am Max-Planck-Institut für Chemische Ökologie (Jena), Leiter der Abteilung Insektensymbiose:https://www.ice.mpg.de/ext/index.php?id=insect-symbiosis&L=1

Professor für Evolutionäre Ökologie an der Johannes Gutenberg-Universität Mainz

* 1977 in Hagen

Wissenschaftlicher Werdegang

2003 Diplom in Biologie (mit Auszeichnung), Universität Würzburg
2006 Doktorarbeit in Biologie (summa cum laude) "Protective bacteria and attractive pheromones - symbiosis and chemical communication in beewolves"; bei Prof. Dr. Erhard Strohm, Lehrstuhl für Tierökologie und Tropenbiologie, Universität Würzburg
2006 - 2009 Postdoktorand bei Prof. Dr. Erhard Strohm, Zoologisches Institut, Universität Regensburg
2007 - 2009 Postdoktorand bei Prof. Dr. Colin Dale, Prof. Dr. Robert Weiss und Prof. Dr. Jon Seger, University of Utah, Salt Lake City, UT, USA
2009 - 2015 Max-Planck-Forschungsgruppenleiter am Max-Planck-Institut für Chemische Ökologie, Jena (Forschungsgruppe Insektensymbiosen)
2015 - Professor für Evolutionäre Ökologie an der Johannes Gutenberg-Universität Mainz, Institut für Zoologie (jetzt iomE)
2020 – Direktor und Wissenschaftliches Mitglied am Max-Planck-Institut für chemische Ökologie und Leiter der Abteilung Insektensymbiose

Forschung

Kaltenpoth untersucht Symbiosen zwischen Insekten und Mikroorganismen. Bakterien sind wichtige Partner ihrer Wirte, da sie die Erschließung neuer Lebensräume und die Verwertung von Nahrung ermöglichen. Außerdem unterstützen sie Insekten bei der Verteidigung gegen Feinde. Das Ziel von Kaltenpoths Forschung ist es, die Vielfalt bakterieller Symbionten in Insekten und ihre Bedeutung für die Ökologie der Wirte zu charakterisieren und dabei ihren evolutionären Ursprung nachzuvollziehen.

Über diese Arbeiten sind bereits mehr als 100 Arbeiten erschienen (ein Großteil ist open access). Ein Verzeichnis findet sich auf: https://www.ice.mpg.de/ext/index.php?id=hopa&pers=maka4564&d=kal&li=ice&pg=publ 

Ehrungen und Auszeichnungen

  • Student Research Grant Award, Animal Behavior Society, USA, 2001
  • Theodore Roosevelt Memorial Grant, American Museum of Natural History, USA, 2002
  • Biocenter Science Award der Julius-Maximilians-Universität Würzburg, 2006
  • Förderpreis der Ingrid Weiss / Horst Wiehe Stiftung, Deutsche Gesellschaft für allgemeine und angewandte Entomologie (DGaaE), 2007
  • Young Scientist Award, Society for Experimental Biology (SEB), United Kingdom, 2007
  • Thüringer Forschungspreis, 2014
  • Griswold Lecture, Department of Entomology, Cornell University, USA, 2018
  • European Research Council (ERC) Consolidator Grant, 2019]
inge Thu, 15.07.2021 - 00:59

Tim Kalvelage

Tim Kalvelage

Tim KalvelageDr. Tim Kalvelage

Wissenschaftsjournalist und Fotograf; Freiberufler

https://www.timkalvelage.de/science-reporter/

 

Tim Kalvelage hat Biochemie und Ozeanographie an der Universität Kiel und am GEOMAR studiert; das Masterstudium und die Doktorarbeit erfolgten am Max-Planck-Institut für marine Mikrobiologie in Bremen.

Nach seiner Promotion 2012 und einem Postdoc-Aufenthalt an diesem Institut , hat er am CERC Ocean Science and Technology derDalhousie Universität in Halifax, Kanada an "Zeitreihenanalysen der Nährstoffumwandlung im eutrophen Bedford-Becken" geforscht. Anschließend untersuchte er als Senior Scientific Assistant die Biogeochemie von Süßwässern in der Gruppe Aquatische Chemie an der ETH Zürich.

Kalvelage hat dann zum Journalismus gewechselt: Weiterbildung "Wissenschaftsredaktion" am mibeg-Institut Medien in Köln und journalistische Ausbildung an der Reportageschule in Reutlingen. Er war dann Redakteur für Chemie und Geowissenschaften bei Spektrum der Wissenschaft.

Seit 2018 ist Kalvelage als selbsständiger Wissenschaftsjournalist und Fotograf tätig. (Foto: https://www.researchgate.net/profile/Tim-Kalvelage)

inge Thu, 04.05.2023 - 00:42

Vinzenz Kletzinsky

Vinzenz Kletzinsky

Vinzenz Kletzinsky Prof. Vinzenz Kletzinsky

Chemiker und Pathologe

* 1826 Gutenbrunn am. Weinsbergforst (N.Ö.), † 1882 in Wien

  Studium der Medizin an der medizinisch-chirurgischen Josefsakademie und an der medizinischen Fakultät der Universität Wien (ohne Doktorgrad)
1848 V.K. hat sich der revolutionären Bewegung angeschlossen und auf den Barrikaden und an der Nußdorfer Linie mitgekämpft
1852 - 1855 Assistent bei J. F. Heller am neugegründeten patholog.-chem. Institut der Universität Wien
1854 k.k. beeideter - Landesgerichtschemiker
1855 - Professor für Chemie an der Oberrealschule Wieden
1856 Prüfungs-Commissär der k. k. Finanz-Landesdirection
1857 Pathologischer Chemiker am k.k. Krankenhaus auf der Wieden
1858 sanitätspolizeilicher Chemiker des Wiener Magistrates
1861 von den Liberalen des 4. Bezirkes in den Gemeinderat gewählt, er musste sein Mandat aber bald zurücklegen

Aktivitäten

Als Chemiker war er vor allem analytisch tätig und genoss als solcher bei Medizinern und Technikern ein großes, wenn auch manchmal umstrittenes Ansehen. Verschiedene seiner wissenschaftlichen Untersuchungen waren insbesondere der Harnanalyse und der pathochemischen Diagnostik gewidmet. Er beschäftigte sich auch mit Erfindungen auf anorganisch-technischen Gebieten.

Kletzinsky war ein ausgezeichneter Stilist und glänzender Redner, dessen populärwissenschaftliche Vorträge sich großer Beliebtheit erfreuten. Unter anderem hat er auch wiederholt Vorträge im Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien gehalten (daraus stammt der Vortrag im ScienceBlog).

Als Autor hat Kletzinsky zahlreiche Arbeiten in Fachzeitschriften wie der Wiener Medizinischen Wochenzeitschrift, der Zeitschrift für practische Heilkunde, der Zeitung der Gesellschaft der Ärzte und anderen veröffentlicht.

Unter seinen Werken stechen vor allem hervor:

Das Compendium der Biochemie, 1858, in dem er erstmals den Begriff der Biochemie einführt. ((https://www.digitale-sammlungen.de/en/view/bsb10073084?page=4,5, open access, C0, keine kommerzielle Nutzung)

Compendium zur Pharmakologie, als kurze Erläuterung der neuen österreichischen Pharmakopoe und der darin enthaltenen Arzneimittel : Nach dem gegenwärtigen Stande der darauf Bezug habenden Wissenschaften für Aerzte und Pharmaceuten, 1857 (https://www.digitale-sammlungen.de/en/view/bsb10287287?page=1, open access, C0, keine kommerzielle Nutzung)


Daten zur Biographie u.a. aus:

https://www.biographien.ac.at/oebl/oebl_K/Kletzinsky_Vinzenz_1826_1882.xml

https://de.wikisource.org/wiki/BLK%C3%96:Kletzinsky,_Vincenz


 

Artikel von Vinzenz Kletzinsky im ScienceBlog:

 

12.08.2021: Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren

inge Thu, 12.08.2021 - 18:27

Walter Kutschera

Walter Kutschera

Walter Kutscheraemer. o. Univ.-Prof. Dr. Walter Kutschera

wurde 1939 in Wien geboren (in dem Jahr als die Kernspaltung entdeckt wurde und der 2. Weltkrieg begann) und hat Physik an der Universität in Graz studiert.

1965 Promotion zum PhD in Experimentaphysik
1966 – 1993 Tätigkeiten an verschiedenen Institutionen im Ausland in Nuklearphysik, hauptsächlich in Verbindung mit Tandem-Beschleuniger:
  • Max-Planck Institut für Nuklearphysik in Heidelberg (3 Jahre)
  • Physik-Dept der TU München, Garching (8 Jahre) – Habilitation in Experimentalphysik 1978
  • Physik Dept. University Tokyo (1 jahr)
  • Physics Division Argonne National Laboratory in Chicago, USA (14 Jahre, Promotion to Senior Scientist 1986)
  • Weizmann Institute of Science, Rehovot und Rahah Institue of Physics, Hebrew University Jerusalem (1 Jahr)
1993 – 2007 o. Univ.Prof für Physik, Vorstand des Instituts für Isotopenforschung und Nuklearphysik an der Universität Wien. Errichtung des Vienna Environmental Research Accelerator (VERA) zur Beschleuniger-Massenspektrometrie (accelerator mass spectrometry – AMS), ab 2001 AMS für alle Isotopen möglich.
1999 – 2000 Präsident der Österreichischen Physikalischen Gesellschaft
2004 – 2006 Dekan der Fakultät für Physik, Universität Wien
2006 – 2007 Vizedekan der Fakultät für Physik, Universität Wien
2008 – Emeritus Prof. für Physik, Universität Wien

Auszeichnungen

2006 Großes Silbernes Ehrenzeichen für Verdienste um die Republik Österreich
2010 Erwin Schrödinger Preis der Österreichischen Akademie der Wissenschaften
2011 Fellow der American Association for the Advancement of Science

Forschungsinteressen

„Erforschung unserer Welt“ mit Hilfe von langlebigen und auch stabilen Isotopen (10Be, 14C, 26Al, 36Cl, 39Ar, 41Ca, 44Ti, 55Fe, 59Ni, 60Fe, 81Kr, 126Sn, 129I, 182Hf, 205Pb, 210Pb, 236U, 244Pu, u.a.) unter Verwendung der Beschleuniger-Massenspektrometrie. Untersuchungen der Atmosphäre, Biosphäre, Hydrosphäre, Kryosphäre, Lithosphäre, Kosmosphäre, Technosphäre . Forschungsgebiete: u.a. Archäologie, Kunst, Atmosphärenwissenschaft, Atom-und Molekülphysik, Biomedizin, Umweltphysik, Forensische Medizin, Geochronologie- und –morphologie, Geophysik, Gletscherkunde, Astrophysik, Nuklearphysik, Ozeanographie, Paläoklimatologie. Eine Auswahl aus den sehr zahlreichen Publikationen findet sich auf seiner Homepage der Webseite der Uni Wien (für die Jahre 2004-2012)


Artikel von Walter Kutschera im ScienceBlog

Redaktion Tue, 19.03.2019 - 23:35

Rattan Lal

Rattan Lal

Rattan LalProf. Dr. Rattan Lal
Professor of Soil Science

Ohio State University School of Environment and Natural Resources

http://senr.osu.edu/our-people/rattan-lal

2014 wurde er von Thomas Reuters in die Liste der World’s Most Influential Scientific Minds (2002-2013) aufgenommen.

Rattan Lal stammt aus Indien, hat an der Punjab Agricultural University und am Indian Agricultural Research Institute (IARI)in Delhi Agrarwissenschaften studiert und 1968 an der Ohio State University im Fach Bodenwissenschaften promoviert.

Beruflicher Werdegang

(unvollständige Liste)

1963 – 1965 Wissenschaftlicher Mitarbeiter, The Rockefeller Foundation, New Delhi, India
1966 - 1968 Wissenschaftlicher Mitarbeiter, OARDC, Wooster, OH, U.S.A.
1968 – 1969 Senior Research Fellow, University of Sydney, Australia
1970 - 1987 Bodenwissenschafter, IITA, Ibadan, Nigeria
1987 – 2011 Prof. für Bodenwissenschaften, The Ohio State University, Columbus, OH
2000 – Direktor, South Asia Program, IPA, FAES, The Ohio State University, Columbus, OH
2006 – 2007 President, Soil Science Society of America
2009 Adjunct Professor, University of Iceland, Reykjavik, Iceland
2011 – 2012 Sr. Science Advisor, Inst. Advanced Sustainability Studies (IASS), Potsdam, Germany
2001 – Direktor, Carbon Mgt. & Sequestration Program, OARDC/OSU, Columbus, OH
2011 – Distinguished University Professor of Soil Science
2011 – Member, Scientific Advisory Board, SERDP, DOD, Washington, D.C.
2011 – 2014 Member, FAC, 3rd Climate Assessment Report, NOAA, Washington, D.C.
2013 Member, Advisory Board, Food Agriculture and Climate Change (FACCE), E.C.
2013 – Member, Steering Committee, Global Soil Week (IASS), Potsdam, Germany
2014 – Chair, Advisory Committee, UNU-FLORES, Dresden, Germany
2014 – President Elect, International Union of Soil Sciences, Vienna, Austria

Veröffentlichungen

Rattan Lal gehört zu den highly cited authors (h-Faktor: 106) mit: Publikationen in Fachzeitschriften: > 1850 Bücher (als Autor/Editor): 70 Buchkapitel: 404

Tätigkeiten in Organisationen

2014 Thomas Reuters: World’s Most Influential Scientific Minds (2002-2013) 2014 – President Elect, International Union of Soil Sciences, Vienna, Austria 2007 – 2008 Member, NRC/NAS Panel on Africa and Asia, NRC/NAS, Washington, D.C. 2006 – 2007 President, Soil Science Society of America 2006 Editor for the Americas, Land Degradation & Development, J. Wiley & Sons, U. K. 2004 – Co-Editor-in-Chief, Soil & Tillage Research, Elsevier, Holland 2003 – 2005 Lead Author, U.N. Millennium Ecosystem Assessment 2000 – Editor-in-Chief, Encyclopedia of Soil Science, Dekker, NY, Taylor and Francis 2000 – 2005 Member, Review Panel, Environ. Division, Los Alamos National Lab., New Mexico 1998 – 2002 Member, U.S. Nat'l Comm. on Soil Sci., Nat'l Acad. Sci., Washington, D.C. 1998 – 2000 Lead Author, IPCC Special Report, LULUCF, Geneva, Switzerland 1993 – 1996 Corresponding author, IPCC Working Group II: Geneva, Switzerland 1990 – 1993 Member NRC/NAS Panel on Sustainable Agric. NRC, Washington, D.C. 1990 – 1992 Member NRC/NAS Panel on Vetiveria, NRC, Washington, D.C 1988 – 1991 President, Int’l Soil Tillage Research Organization 1987 – 1990 President, World Association of Soil and Water Conservation 1982 – 1987 Vice President, Int’l Commission on Continental Erosion, Exeter, U.K.

Auszeichnungen

Ehrendoktorate verschiedener Universitäten und zahlreiche Auszeichnungen, Liste in: http://senr.osu.edu/sites/senr/files/imce/files/CVs/2015/Lal_CV%202pg.pdf


Artikel von Rattan Lal auf Scienceblog.at

Redaktion Tue, 19.03.2019 - 23:22

Tim Lämmermann

Tim Lämmermann

Tim LämmermannDr. Tim Lämmermann

Max Planck Forschungsgruppenleiter

Max-Planck Institut für Immunbiologie und Epigenetik

http://www.ie-freiburg.mpg.de/4496753/Labor_Tim_Laemmermann

Tim Lämmermann hat an der Universität Erlangen-Nürnberg Molekulare Medizin studiert, mit Forschungs-Auslandsaufenthalten in Innsbruck, Edinburgh und Lund. Einer fünfjährigen Promotionsarbeit am Max-Planck Institut für Biochemie in Martinsried (2004-2009) folgte ein Postdoktoranden-Aufenthalt an den National Institutes of Health im Laboratory of Systems Biology in Bethesda, USA (2009-2014). Seit Januar 2015 ist Lämmermann unabhängiger Forschungsgruppenleiter der Arbeitsgruppe Immunzell-Dynamik am Max-Planck-Institut für Immunbiologie und Epigenetik in Freiburg. Für seine wissenschaftlichen Arbeiten wurde Tim Lämmermann 2010 mit dem Otto-Westphal-Promotionspreis der Deutschen Gesellschaft für Immunologie und 2014 mit dem Robert-Koch-Postdoktorandenpreis der Robert-Koch-Stiftung ausgezeichnet.


Artikel von Tim Lämmermann auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:21

Hans Lassmann

Hans Lassmann

Hans LassmannUniv. Prof. Dr. Hans Lassmann, Ordinarius für Neuroimmunologie an der Medizinischen Universität Wien, war Planer und auch erster Leiter des Institus für Hirnforschung. Forschungsschwerpunkte: entzündliche Erkrankungen des Nervensystems (insbesondere Multiple Sklerose).

Lassmann, geboren am 7. Juli 1949 in Wien, maturierte am BRG Wien XVIII und begann sein Studium im Fach Humanmedizin an der Universität Wien. Bereits während seines Studiums war er am Institut für Elektronenmikroskopie der Medizinischen Fakultät in wissenschaftliche Projekte und in der Lehre der Histologie und Embryologie eingebunden.

Nach seiner Promotion zum Doktor der gesamten Heilkunde (1975) wechselte er an das Neurologische Institut der Universität Wien (Prof. F. Seitelberger) zur Facharztausbildung in klinischer Neuropathologie. 1977 unterbrach er seine Facharztausbildung und vertiefte seine Ausbildung als Postdoktorand am Institute for Basic Research in Developmental Disabilities in New York (Prof. H. Wisniewski) in den Bereichen der experimentellen Neuropathologie, Neurochemie und Neuroimmunologie.

Nach seiner Rückkehr aus New York 1978 wurde Herr Lassmann im Neurologischen Institut und im von Prof. Seitelberger in Personalunion geleiteten Institut für Hirnforschung der Österreichischen Akademie der Wissenschaften beauftragt, neben seiner weiteren Facharztausbildung eine neue Arbeitsgruppe für Experimentelle Neuropathologie aufzubauen.

Die Habilitation im Fachgebiet Neuropathologie erfolgte 1983. 1990 übernahm er die Leitung einer neu gegründeten Forschungsstelle für Experimentelle Neuropathologie der Österreichischen Akademie der Wissenschaften, die er bis 1996 ausübte. 1993 erfolgte seine Ernennung zum außerordentlichen Professor für Experimentelle Neuropathologie (§31 UOG) an der Universität Wien.

Seit 1995 war Lassmann zentral in die Planung des neu zu errichtenden Instituts für Hirnforschung der Universität Wien eingebunden und wurde mit dessen Implementierung 1999 mit seiner Leitung betraut.

Gleichzeitig wurde er zum ordentlichen Universitätsprofessor für Neuroimmunologie ernannt. In der Zeit seiner Leitungsfunktion erfolgte der Ausbau des Instituts in seiner gegenwärtigen Struktur mit sechs eigenständigen Abteilungen, der Umzug in das neu adaptierte Gebäude und die Übernahme als theoretisch-medizinisches Zentrum in die Medizinische Universität Wien.

2008 übergab er die Gesamtleitung des Instituts an Prof. J. Sandkühler. Seit 2002 ist Herr Lassmann im medizinischen Fakultätskollegium der Universität bzw. im Senat der Medizinischen Universität Wien vertreten. 2005 wurde Herr Lassmann zum korrespondierenden und 2011 zum wirklichen Mitglied der Österreichischen Akademie der Wissenschaften gewählt. Sein Forschungsschwerpunkt liegt im Bereich der entzündlichen Erkrankungen des Nervensystems, insbesondere der Multiple Sklerose.


Artikel von Hans Lassmann im ScienceBlog

Redaktion Tue, 19.03.2019 - 23:19

Andreea Lazar

Andreea Lazar

Andreea LazarDr. Andreea Lazar Postdoc am Max-Planck Institut für Hirnforschung, Frankfurt/M

http://brain.mpg.de/?id=499

Andreea Lazar (Jg 1981) stammt aus Sibiu (Rumänien) und hat bereits während ihrer Schulzeit in nationalen Mathematik-Wettberben Auszeichnungen erhalten.

Ausbildungs- und Karriereweg

2000 Gheorghe Lazăr National College
2000 – 2004 Unconditional admission as an exceptional student at the Babes-Bolyai University, Cluj, Romania; BSc in Computer Science at the Faculty of Mathematics and Computer Science
2004 – 2005 MSc in Intelligent Systems (English) at the Faculty of Mathematics and Computer Science, Babes-Bolyai University, Cluj, Romania
2006 – 2009 PhD student at the Frankfurt Institute for Advanced Studies (FIAS) & Johann Wolfgang Goethe-Universität, Frankfurt, Thesis: `Self-organizing Recurrent Neural Networks' (Prof. J. Triesch), Frankfurt Institute for Advanced Studies (FIAS)
2010 – Postdoc, Max-Planck Institut für Hirnforschung, Frankfurt/M; Singer Emeritus Gruppe

Forschung

- Wie verändert Erfahrung die raumzeitlichen Eigenschaften der Hirnrindenaktivität in simulierten Rückkopplungsnetzwerken und experimentellen in vivo Elektrophysiologischen Ergebnissen. - Spontane Aktivierung neuronaler Schaltkreise, deren Relevanz für Vorhersagbarkeit, Gedächtnis, statistisches Lernen. Es liegen bereits 15 Publikationen in Fachjournalen vor.


Artikel von Andreea Lazar auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:18

Elena Levashina

Elena Levashina

Elena LevashinaProf.Dr. Elena A. Levashina

Forschungsgrupppenleiterin
Vektor Biologie

http://www.mpiib-berlin.mpg.de/research/vector_biology

Max-Planck-Institut für Infektionsbiologie, Berlin

1994 Promotion in Pflanzengenetik (PhD). Universität St Petersburg
1995 – 1998 PostDoc , Institut de Biologie Moléculaire et Cellulaire, CNRS, Strasbourg, France (Labor J.A. Hoffmann)
1999 – 2001 PostDoc, EMBL, Heidelberg (Labor Fotis C. Kafatos)
2002 Gruppenleiterin, Institut de Biologie Moléculaire et Cellulaire, CNRS, Strasbourg, France; sie leitete dort ein CNRS-INSERM Team: “Post genomic analysis of the mosquito immune responses to Plasmodium parasites”.
2005 – 2010 International Scholar, Howard Hughes Medical Institute

Forschungsinteressen

Verständnis der Interaktionen zwischen der Anopheles Mücke (dem Insektenvektor, der Malaria auf den Menschen überträgt), dem Parasiten (Plasmodium), dem Menschen als Wirt und der Umwelt.

Rolle des Immunsystems der Mücken in der Entwicklung der Malaria Parasiten.

Reaktion von Mücken auf eine Vielzahl von Pathogenen, einschließlich Bakterien und Pilzen; Kompromiss zwischen Immunität und Fortpflanzung.

Neue Interventionsstrategien im Kampf gegen durch Vektoren übertragene Krankheiten

Publikationen: 61 zum Teil open access https://www.ncbi.nlm.nih.gov/pubmed/?term=levashina+EA

Auszeichnungen

Die Arbeiten von Levashina und ihrem Team zu Immunantworten von Moskitos erhielten eine Reihe hoher Auszeichnungen. Sie wurdezum International Research Scholar des Howard Hughes Medical Institute (HHMI) gewählt (2005 - 2010) und 2010 zum EMBO Mitglied.

Sie ist Preisträgerin des INSERM Forschungspreises (2008) und des Jaffe Preises der Französischen Akademie der Wissenschaften (2011).


Artikel von Elena Levashina auf ScienceBlog

Redaktion Thu, 16.05.2019 - 05:28

Peter Lemke

Peter Lemke

Peter LemkeProf. Dr. Peter Lemke

Alfred Wegener Institute, Bremerhaven

Scientific Coordinator of Regional Climate Initiative of the Helmholtz Association

http://www.awi.de/ueber-uns/organisation/mitarbeiter/peter-lemke.html

Nach einer Physiklaboranten-Lehre und dem Erwerb des Abiturs auf dem Zweiten Bildungsweg studierte Peter Lemke (geb. 1946) Physik in Berlin und Hamburg. Er promovierte 1980 und habilitierte 1988 im Fach Meteorologie an der Universität Hamburg, wo er am Max-Planck-Institut für Meteorologie arbeitete (1975 – 1989).

Nach einem zweijährigen Forschungsaufenthalt an der Princeton University (1981-1983) war er Professor an den Universitäten Bremen (1989-1995) und Kiel (1995-2001) und ist seit Februar 2001 als Professor für Physik von Atmosphäre und Ozean an der Universität Bremen tätig. Am Alfred-Wegener-Institut für Polar- und Meeresforschung in Bremerhaven war er bis zu seiner Pensionierung am 30.9.2014 Leiter des Fachbereichs Klimawissenschaften.

Lemke beschäftigt sich mit der Beobachtung von klimarelevanten Prozessen in Atmosphäre, Meereis und Ozean und mit der Umsetzung dieser Beobachtungen in regionalen numerischen Modellen des polaren Teils des Klimasystems. Lemke hat an neun mehrmonatigen Polarexpeditionen mit dem deutschen Forschungseisbrecher Polarstern teilgenommen, von denen er sechs als Fahrtleiter durchführte. Seit 2009 leitet er die Klimainitiative REKLIM (Regionale Klimaänderungen) der Helmholtz-Gemeinschaft (HGF), in der neun Zentren der HGF und neun Universitäten zusammenarbeiten.

1991 wurde Lemke der Preis für Polarmeteorologie (Georgi-Preis) der Alfred-Wegener-Stiftung (heute: Geo-Union) verliehen.

2005 wurde er zum Honorable Professor der China Meteorological Administration (Chinesischer Wetterdienst) ernannt.

2010 erhielt Lemke den Bayer Climate Award. Im Mai 2013 wurde er in den Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen berufen.

Lemke ist seit über 30 Jahren in internationalen Gremien im Bereich der Klima- und Polarforschung vertreten. Von der Gründung in 1992 bis 1999 war er Mitglied der Scientific Steering Group der Arctic Climate System Study (ACSYS), eines Projekts des World Climate Research Programme.

Von 1989 bis 1999 war Lemke Vorsitzender verschiedener internationaler Modelliergruppen, zuletzt der ACSYS Numerical Experimentation Group, die die Modellierung der Wechselwirkung zwischen Atmosphäre, Meereis und Ozean international koordinierte. Ziel dieser Gruppen war es, die Darstellung von polaren Prozessen in Klimamodellen zu verbessern.

Von 1995 bis 2006 war er Mitglied und von 2000 bis 2006 Vorsitzender des Joint Scientific Committee, dem wissenschaftlichen Steuergremium für das World Climate Research Programme.

Für den Vierten Sachstandsbericht des Intergovernmental Panel on Climate Change (IPCC), der 2007 veröffentlicht wurde, hat er das Kapitel 4 (Observations: Snow, Ice and Frozen Ground) der Working Group 1 (The Physical Science Basis) koordiniert. Die Arbeit des IPCC wurde 2007 zusammen mit Al Gore mit dem Friedensnobelpreis geehrt. Für den Fünften Sachstandsbericht der Working Group 1, der im September 2013 veröffentlicht wurde, war Lemke als Review Editor für das Kapitel 4 und als Leitautor für die Technical Summary tätig.


Artikel von Peter Lemke auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:16

Ricki Lewis

Ricki Lewis

Ricki LewisRicki Lewis, PhD

Genetikerin, Lektorin, Verfasserin von Lehrbüchern, Wissenschaftsjournalistin und Bloggerin

http://www.rickilewis.com/

Ricki ist in Brooklyn, NY aufgewachsen, hat die James Madison High School besucht und SUNY Stony Brook. Sie hat Genetik studiert und 1980 an der Indiana University promoviert (PhD). Da sie von Kind an gerne schrieb, besuchte sie einen Kurs für Journalismus, der ihr Leben ändern sollte.

Als assistant professor an der Miami University unterrichtete sie Genetik (man brauchte dort - wie sie sagt - eine Person unter 80 mit zwei X-Chromosomen) und begann bereits Artikel über Gesundheitsthemen zu schreiben. Bald darauf erhielt sie Verträge von akademischen Verlagen, für die sie College-Lehrbücher schreiben sollte.

Es folgen tausende Artikel und mehrere Lehrbücher (in vielen Auflagen). Ricki war "founding author" des Lehrbuchs "Life", das eine Einführung in die Biologie ist, und Koautor von zwei Lehrbüchern über die Anatomie und Physiologie des Menschen. Ihr Lieblingsbuch ist "Human Genetics: Concepts and Applications", das nun in der 14. Auflage vorliegt. Mit dem Buch "Human Genetics: The Basics" (2010, für die Routledge Press’s "The Basics" Serie) hat sie einen neuen, mehr erzählenden Stil eingeschlagen.

Eine Sammlung von Essays "Discovery: Windows on the Life Sciences" (Blackwell Science) hat sie 2001 veröffentlicht, eine erste Novelle "Stem Cell Symphony" im Jänner 2008.

Artikel von Ricki sind in naturwissenschaftlichen und medizinischen Journalen aber auch in Verbrauchermagazinen erschienen (u.a. in Discover, The Scientist, Science, Nature, Playgirl, Self, Health, Woman’s World, Genetic Engineering News, High Technology, The New York Times Book Review, FDA Consumer, BioScience, Journal of the American Medical Association (JAMA), Lancet Oncology, Reuters, Medscape Medical News). Sie schreibt auch Biotech-Berichte für Cambridge Healthtech Associates und die Cure Huntington Disease Initiative.

Ferner fungiert Ricki als Beraterin in Genetik (für CareNet Medical Group in Schenectady, NY), als wissenschafliche Beraterin für das American Film Institute, unterrichtet "Genethics" online (Master Kurse am Albany Medical Center). Jeden Donnerstag postet sie einen Artikel auf dem populären DNA SCIENCE blog in der Public Library of Science.


Artikel von Ricki Lewis auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 23:12

Arvid Leyh

Arvid Leyh

Arvid Leyh

Chefredakteur von www.dasgehirn.info

homepage: http://www.nurindeinemkopf.de/nurindeinemkopf/Home.html

Arvid Leyh (*1968) ist Initiator von https://www.dasgehirn.info/, einer nicht-kommerziellen Wissenschaftsseite, die 2011 online ging. Mit einem Faible für Multimedia und 3D-Gehirn hatte der Wissenschaftsjournalist auf diese Seite 10 Jahre lang hingearbeitet, bis er in der gemeinnützigen Hertie-Stiftung jemanden fand, der die Idee verstand. Es entstand daraus ein Gemeinschaftsprojekt der Neurowissenschaftlichen Gesellschaft e.V., der Klaus Tschira Stiftung GmbH und des ZKM | Zentrum für Kunst und Medien Karlsruhe. Die Seite hat sich zum Ziel gesetzt "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton". Experten aus der Neurowissenschaftlichen Gesellschaft sind für die wissenschaftliche Qualität des Portals verantwortlich.

Von 2005 bis 2017 hat Leyh den Braincast produziert, einen nahezu wöchentlichen Podcast mit neurowissenschaftlichen, psychologischen und philosophischen Inhalten. Durch einen Ansatz zwischen "Übersetzung" wissenschaftlicher Themen, alltäglichem Bezug und viel Humor hat er über zwei Millionen Downloads pro Jahr erreicht.


Artikel in ScienceBlog.at:

09.11.2023: Das Human Brain Project ist nun zu Ende - was wurde erreicht?


 

inge Fri, 10.11.2023 - 00:05

Manuel Liebeke

Manuel Liebeke

Manuel LiebekeDr. Manuel Liebeke

Professor für Metabolomics, Universität Kiel

Forschungsgruppenleiter: Metabolische Interaktionen, Max-Planck-Institut für Marine Mikrobiologie, Bremen

 

Beruflicher Werdegang

2001 - 2005 Pharmaziestudium an der Universität Greifswald (Deutschland)
2005- 2006 Diplomstudium am Pharmazeutischen Institut, Universität Greifswald
2006 - 2010 Doktorarbeit in pharmazeutischer Biologie, Universität Greifswald . Thesis: “Establishment and application of techniques for microbial metabolomics”
2010 - 2015 PostDoc am Imperial College, London; Dept of Sugery. Main topic: environmental metabolomics, metabolic profiling on invertebrates
2013 - 2018 PostDoc am Max-Planck-Institut für marine Mikrobiologie, Bremen; Dept Symbiosis
seit 2018 Forschungsgruppenleiter "Metabolic Interactions" (Dept. Symbiosis) am Max-Planck-Institut für marine Mikrobiologie, Bremen
2021 - 2022 Gastprofessor (Otto Monstedt Foundation) an der TU Copenhagen
seit 2023  Professur für Metabolomics an der Universität Kiel

Forschungsschwerpunkte:

  • Bildgebende Massenspektrometrie im Micrometer Auflösungsbereich zur Visualisierung von Bakterien und deren Metaboliten
  • Metabolomics von Proben direkt aus der Umwelt (z.B. Seewasser, Tier- und Pflanzengewebe)
  • Metabolische Interaktionen innheralb von Symbiosen (z.B. zwischen Würmern und den bakteriellen Symbionten)

Liebeke hat bislangmehr als 60 (peer-reviewed) Arbeiten publiziert.

Artikel in ScienceBlog.at:

28.09.2023: Seegraswiesen wandeln Kohlendioxid in Zuckerverbindungen um und sondern diese in den Meeresboden ab

inge Thu, 28.09.2023 - 18:40

Benjamin List

Benjamin List

Benjamin ListProf.Dr. Benjamin List

Direktor

Max-Planck-Institut für Kohlenforschung, Mülheim an der Ruhr

Abteilung Homogene Katalyse

https://www.kofo.mpg.de/de/forschung/homogene-katalyse/

* 1968 in Frankfurt am Main

Werdegang

1993 Diplom an der Freien Universität Berlin
1997 Promotion an der Goethe-Universität Frankfurt /td>
1997 - 1998 Postdoc am Scripps Research Institute, La Joya, USA
1999 - 2003 Assistant Professor (Tenure Track) am Scripps Research Institute, La Jolla, USA
2003 - 2005 Arbeitsgruppenleiter am Max-Planck-Institut für Kohlenforschung, Mühlheim an der Ruhr
seit 2004 Honorarprofessor an der Universität zu Köln
Seit 2005 Wissenschaftliches Mitglied der Max-Planck-Gesellschaft
Seit 2005 Direktor am Max-Planck-Institut für Kohlenforschung, Mülheim an der Ruhr

Forschungsschwerpunkte:

Organokatalyse, Katalysekonzepte, Prolin-katalysierte intermolekulare Aldol-Reaktion, Asymmetrische Katalyse, Textilorganische Katalyse

Benjamin List ist Chemiker. Er hat das Gebiet der Organokatalyse mitbegründet und entwickelt darin neue Katalysekonzepte. Organokatalysatoren werden zum Beispiel in der Herstellung von Medikamenten eingesetzt. Ihr Vorteil ist, dass sie ohne teure Metallverbindungen auskommen, die oft gesundheits- und umweltschädlich sind.

Benjamin List hat die natürliche Aminosäure Prolin als effizienten Katalysator entdeckt (Prolin-katalysierte intermolekulare Aldol-Reaktion) und damit die Organokatalyse möglich gemacht. Damit

Publikationen:  https://www.kofo.mpg.de/836200/Publikationsliste-Website_20210907.pdf

Auszeichnungen

2021 Nobelpreis für Chemie (gemeinsam mit David MacMillan)
seit 2018 Mitglied der Nationalen Akademie der Wissenschaften Leopoldina
2017 Prof. U. R. Ghatak Endowment Lecture, Kalkutta, Indien
2017 Ta-shue Chou Lectureship, Institute of Chemistry, Academia Sinica, Taipei, Taiwan
2016 Gottfried Wilhelm Leibniz-Preis der Deutschen Forschungsgemeinschaft (DFG)
2015 Carl Shipp Marvel Lectures, University of Illinois at Urbana-Champaign, USA
2014 Thomson Reuters Highly Cited Researcher
2014 Cope Scholar Award, USA
2013 Ruhrpreis, Mülheim
2013 Mukaiyama Award, Japan
2013 Horst Pracejus-Preis
2012 Otto Bayer-Preis
2012 Novartis Chemistry Lectureship Award
2011 Boehringer-Ingelheim Lectureship, Harvard University, USA
2011 ERC Advanced Grant
2009 Thomson Reuters Citation Laureate
2009 Organic Reactions Lectureship, USA
2009 Boehringer-Ingelheim Lectureship, Kanada
2008 Visiting Professor der Sungkyunkwan University, Korea
2007 AstraZeneca Preis in organischer Chemie
2007 OBC-Lecture Award
2007 Preis des Fonds der Chemischen Industrie
2006 100 Masterminds of Tomorrow, Deutschland
2006 JSPS Fellowship Award, Japan
2006 Wiechert Lectureship, Freie Universität Berlin
2005 Novartis Young Investigator Award in Chemistry
2005 AstraZeneca European Lecturer 2005
2005 Visiting Professor der Gakushuin University, Tokyo, Japan
2005 Lectureship Award der Society of Synthetic Chemistry, Japan
2004 Lieseberg-Preis der Universität Heidelberg
2004 Dozentenstipendium des Fonds der Chemischen Industrie
2004 Degussa Prize for Chirality in Chemistry
2003 Carl Duisberg-Gedächtnispreis der Gesellschaft Deutscher Chemiker
2000 Synthesis-Synlett Journal-Preis
1997 Feodor Lynen-Forschungsstipendium der Alexander von Humboldt-Stiftung
1994 NaFöG-Preis der Stadt Berlin
inge Fri, 08.10.2021 - 00:52

Wolfgang Lutz

Wolfgang Lutz

Wolfgang Lutz

 

Univ. Prof. Dr. Wolfgang Lutz

Leiter des Wittgenstein Centre for Demography and Global Human Capital

IIASA World Population Program Director

Professor für Sozialstatistik,
Wirtschaftsuniversität Wien

http://www.iiasa.ac.at/web/home/research/researchPrograms/WorldPopulation/Staff/Wolfgang-Lutz.en.html

* 1956 (Rom)

Ausbildung und Karriereweg

1975 Matura am Schottengymnasium, Wien Studium der Philosophie, Mathematik und Theologie, Universität München
1980 M.A. in Sozial-und Ökonomiestatistik, Universität Wien Cand. theol. (Fakultät für Theologie) Universität Wien
1982 M.A. in Demography,University of Pennsylvania, USA
1983 PhD in Demography,University of Pennsylvania, USA
1988 Habilitation in Demographie und Sozialstatistik, Universität Wien
1984 Eintritt in IIASA
1992 Program Director at IIASA
1994 - Leiter des World Population Program am IIASA
2002 - Wissenschaftl. Direktor am Vienna Institute of Demography(VID) der ÖAW
2008 - Professor für Sozialstatistik, Wirtschaftsuniversität Wien
2011 - Gründer und Leiter des "Wittgenstein Centre for Demography and Global Human Capital"

Forschungsschwerpunkte

Methoden der Demografie, Bevölkerungsprognosen, Weltbevölkerungsentwicklung, Vergleichende europäische Demografie, Entwicklung von Bildung und Humankapital, Zukunft der Geburtenentwicklung

Ein zentraler Aspekt ist die Untersuchung des Zusammenhangs von Bildung und Demografie. Lutz konnte zeigen, dass Bildung ein entscheidender Faktor für das Wohlergehen der Bevölkerung sowohl in Entwicklungsländern als auch in den reichen Staaten Europas ist.

Anhand empirischer Untersuchungen belegt er, dass sich mit Bildung die Bevölkerungsentwicklung in den Entwicklungsländern beeinflussen lässt. Außerdem kann sie dazu beitragen, das Rentensystem in den reichen Staaten Europas im Gleichgewicht zu halten.

Publikationen

Lutz ist Autor von 28 Büchern und mehr als 255 Veröffentlichungen in führenden Journalen

Auszeichnungen

Mindel C. Sheps Award of the Population Association of America (PAA) und European Association for Population Studies (EAPS) Award (2016)

ERC Advanced Investigator Grant 2008 und 2017

Wittgensteinpreis (2010), Mattei Dogan Award of the IUSSP (2009)

Mitglied: der Österreichischen Akademie der Wissenschaften (2012), der Nationalen Akademie der Wissenschaften Leopoldina (2013), der Societas Scientiarum Fennica (2014), The World Academy of Sciences (TWAS, 2014), der National Academy of Sciences (NAS, 2016), der Academia Europaea (2018/19)

Funktionen in Gesellschaften und Gremien

1999 - 2004 Wissenschaftlicher Koordinator im Dienst der EU‐Kommission in Sozial‐, Demografie und Familienfragen
2001 - 2002 Initiator und Koordinator des Global Science Panel on Population and Environment
2002 - 2009 Stellvertr. Vorsitzender des Aufsichtsrats und Vorsitzender des Scientific Program Committee, African Population and Health Research Center (APHRC), Nairobi
2003 - 2008 Kuratoriumsmitglied am Max‐Planck‐Institut für Demografische Forschung in Rostock
2008 - 2014 Vorstand beim Population Reference Bureau in Washington D.C
2009 - 2015 Mitglied des Committee on Population der US National Academy of Sciences
2016 - Mitglied des Senats der Leopoldina

Artikel von Wolfgang Lutz im ScienceBlog

Redaktion Thu, 25.07.2019 - 13:46

Autoren M-R

Autoren M-R Redaktion Tue, 19.03.2019 - 10:15

Herbert Mang

Herbert Mang

Herbert MangEm. o. Prof. Herbert A. Mang studierte Bauingenieurwesen und Mathematik (Technische Universität Wien, Texas Technological University). Nach seiner Habilitation war er langjähriger Ordinarius für Festigkeitslehre und Vorstand des gleichnamigen Instituts an der TU Wien und Dekan und Prorektor ebendort. Mang war Generalsekretär und darauf folgend Präsident der Österreichischen Akademie der Wissenschaften und Präsident internationaler wissenschaftlicher Organisationen. Er ist Träger hochrangiger Auszeichnungen, Inhaber zahlreicher Ehrendoktorate und Mitglied höchstrenommierter Gesellschaften. Forschungsschwerpunkte: Numerische Mechanik, Numerische Akustik, Mehrskalen-Analysen.

Academic and Professional Activities Abroad

1942: geboren in Wien 1967: Dipl.-Ing. (Bauingenieurwesen), Technische Universität (TU) Wien 1970: Dr. techn., TU Wien 1974: Ph.D. (Hauptfach: Bauingenieurwesen, Nebenfach: Mathematik), Texas Tech University, USA 1977: Habilitation, TU Wien 1983: o. Prof (Festigkeitslehre), TU Wien 1984-2004 Vorstand, Inst. für Festigkeitslehre, TU Wien 1991-1994: Dekan, Fakultät für Bauingenieurwesen, TU Wien 1994-1995: Prorektor (Vice President), TU Wien 1995-2003: Generalsekretär der Österreichischen Akademie der Wissenschaften 2003-2006: Präsident, Österreichische Akademie der Wissenschaften 2003 - : Mitglied (2010- : stellvertretender Vorsitzender) Österreichuscher. Wissenschaftsrat 2008 -2010: Vorstand Institut. für Mechanik der Werkstoffe und Strukturen, TU Wien

Wissenschaftliche Aktivitäten

Grundlagenforschung und angewandte Forschung: Mechanik verformbarer Feststoffe, Strukturmechanik, Numerische Mechanik, Numerische Akustik, Mehrfeld-Analysen, Multiskalen-Analysen

20 Bücher und Herausgeber von Büchern, 439 Artikel in wissenschaftlichen Journalen und Konferenz-Proceedings; Koeditor von 2 internationalen Journalen, Mitglied des Editorial Board von 38 wissenschaftlichen Journalen

Aktivitiäten in Wissenschaftlichen Organisationen

1992-1995: Präsident der Central European Association for Computational Mechanics (CEACM) 1998-2010: Vizepräsident der International Association for Computational Mechanics (IACM) 2005-2009: Präsident der European Community on Computational Methods in Applied Sciences (ECCOMAS)

Auszeichnungen und Mitgliedschaften

6 Ehrendoktorate (Technische Universität Krakau, Universität Innsbruck, Nationale Technische Universität der Ukraine Kiew, Tschechische Technische Universität Prag, Montanuniversität Leoben, Technische Universität Vilnius), Honorarprofessor (Tongji University Shanghai) Wirkliches Mitglied der Österreichischen Akademie der Wissenschaften, Auswärtiges Mitglied: der U.S. National Academy of Engineering, der Polnischen Akademie der Wissenschaften (Warschau), der Ungarischen Akademie der Wissenschaften, der Kroatischen Akademie der Wissenschaften und Künste, der Polnischen Akademie der Wissenschaften und Künste (Krakau), der Slowakischen Akademie der Wissenschaften, der Albanischen Akademie der Wissenschaften, der Georgischen Akademie der Wissenschaften, der Deutschen Akademie der Technischen Wissenschaften, der Engineering Academy of the Czech Republic, der Slovak Academy of Engineering Sciences, der Akademie der Wissenschaften von Lissabon (Academia Lusitana), der Akademie der Wissenschaften Ukraine, der Brunswick Wissenschaftlichen Gesellschaft, der Europäischen Akademie der Wissenschaften und Künste (Salzburg), and der Académie Européenne des Sciences, des Arts et des Lettres (Paris) Fellow von 3 Internationalen Fachverbänden, Ehrenmitglied von 3 ausländischen Fachverbänden 9 (höhere) nationale and 7 (höhere) ausländische Auszeichnungen (Preise, Medaillen, Orden). Vienna University of Technology Karlsplatz 13, 1040 Vienna, Austria e-mail: Herbert.Mang@tuwien.ac.at Homepage: www.imws.tuwien.ac.at


Artikel von Herbert Mang im ScienceBlog

Redaktion Tue, 19.03.2019 - 22:52

Gerhard Markart

Gerhard Markart

Gerhard MarkartDI Dr. Gerhard Markart ist Leiter am Institut für Naturgefahren in Innsbruck (Bundesforschungszentrum für Wald) in Innsbruck. Bereits seit den 1980er-Jahren arbeitet er an hydrologischen Fragestellungen. Im Jahre 2000 hat er mit der Doktorarbeit „Zum Wasserhaushalt von Hochlagenaufforstungen: am Beispiel der Aufforstung von Haggen bei St. Sigmund im Sellrain“ (Anleitung: Herbert Hager, Institut für Waldökologie, Universität für Bodenkultur, Wien) promoviert. Zentrales Thema seiner Forschungsarbeiten ist der Wasserumsatz in Wildbacheinzugsgebieten – darunter insbesondere folgende Arbeitsbereiche: Forst- und Wildbachhydrologie, Abfluss- und Erosionsforschung (Starkregensimulation, Niederschlag-/Abflussmodellierung, Bewirtschaftungskonzepte für alpine Gebiete), angewandte Bodenphysik Publikationsliste Details zu den Arbeitsbereichen des Instituts für Naturgefahren (Bewirtschaftung von Wildbach- und Lawineneinzugsgebieten) Webseite des Bundesforschungszentrums für Wald

Kontakt:
DI Dr. Gerhard Markart
Institut für Naturgefahren
Rennweg 1
6020 Innsbruck
t: +43-0512-57 39 33-51 30 oder 0664/826 99 22
m: gerhard.markart (at) uibk.ac.at


Artikel von Gerhard Markart im ScienceBlog

Redaktion Tue, 19.03.2019 - 22:50

Georg Martius

Georg Martius

Georg MartiusDr. Georg Martius
Forschungsgruppenleiter am
Max-Planck-Institut für Intelligente Systeme (Tübingen) https://al.is.tuebingen.mpg.de/ http://georg.playfulmachines.com

Ausbildung und Karriereweg

1999 - 2005 Studium : Computer Wissenschaften, Universität Leipzig
2002 - 2003 Studium : Computer Wissenschaften, Universität Edinburgh
2005 - 2009 PhD-Student am Bernstein Center Center for Computational Neuroscience (BCCN) Göttingen
2009 PhD in Physik (Computational Neuroscience and Robotics)
2009 - 2010 Postdoc am Max-Planck- Institut für Dynamik und Selbstorganisation, Göttingen
2010 - 2015 Postdoc am Max-Planck- Institut für Mathematik in den Naturwissenschaften, Leipzig
2015 - 2017 Postdoc am IST Austria (Christoph Lampert, Gasper Tkacik)
2017 - Forschungsgruppenleiter für "Autonomes Lernen" am Max-Planck-Institut für Intelligente Systeme, Tübingen

Forschungsinteressen

Roboter erlernen autonom neue Fähigkeiten: d.i. Roboter lernen spielerisch sich selbst und ihre Umwelt effizient und robust wahrzunehmen, zu lernen, was zu lernen ist, wie es zu lernen ist und wie der Lernerfolg zu beurteilen ist. Details zu Forschung, den mehr als 50 Publikationen, Videos etc.: in: Research Network for Self-Organization of Robot Behavior in Leipzig, Göttingen and Edinburgh, http://robot.informatik.uni-leipzig.de/research/index.php?lang=en


Artikel von Georg Martius im ScienceBlog

Redaktion Tue, 19.03.2019 - 22:49

Tags

Herbert Matis

Herbert Matis

Herbert Matisem. o.Univ. Prof.Dr. Herbert Matis

Institut für Wirtschafts-und Sozialgeschichte,
Wirtschaftsuniversität Wien


https://bach.wu.ac.at/d/research/ma/130/

Herbert Matis (Jg 1941) hat an der Universität Wien Geschichte und Geographie studiert und 1965 promoviert (Dr.phil).

Karriereweg und Funktionen

1971 Habilitation an der damaligen Hochschule für Welthandel
1972 - 2009 Universitätsprofessor für Wirtschafts- und Sozialgeschichte an der Wirtschaftsuniversität Wien
1975 – 1977 Vorsitzender der Fachgruppe für Geistes- und Sozialwissenschaften
1978 – 1982 Vorsitzender des Professorenverbandes
1983 – 1985 Rektor der Wirtschaftsuniversität Wien und Vizepräsident der Österreichischen Rektorenkonferenz
1986 – 1995 Vizerektor WU Wien für Forschung
1985 – 2000 Leiter des Ludwig Boltzmann Instituts für wirtschaftshistorische Prozessanalyse
1994 – 2014 Geschäftsführer des Kardinals Innitzer Studienfonds
1997 – 2000 Vizepräsident des FWF und Abteilungspräsident für die Geistes- und Sozialwissenschaften
2000 – 2006 Präsidiumsmitglied des Internationalen Forschungszentrums für Kulturwissenschaften (IFK)
2003 – 2009 Vizepräsident der Österreichischen Akademie der Wissenschaften und Vorsitzender der phil.-hist. Klasse
2004 – 2012 Kommission für vergleichende Medien- und Kommunikationsforschung, Österr. Akademie der Wissenschaften
2004 – 2014 Vorstandsmitglied der Ludwig Boltzmann Gesellschaft
2010 – 2014 Mitglied des ORF Publikumsrats
2014 – 2017 Präsident der Ignaz Lieben Gesellschaft – Verein zur Förderung der Wissenschaftsgeschichte

Forschungsschwerpunkte

Wirtschaftswissenschaften , Wirtschaftsgeschichte, Österreichische Geschichte, Sozialgeschichte, Politische Ökonomie, Neuere Geschichte.

Publikationen

Matis ist Autor und Herausgeber von mehr als 50 Büchern und hat rund 100 Buchkapitel und 27 Artikel in Journalen verfasst. (Liste: https://bach.wu.ac.at/d/research/ma/130/#publications) Themen: Wirtschaft, Gesellschaft und Unternehmen Brücke zu technischen Themen, z.B.: "Von der frühen Industrialisierung zum Computerzeitalter", "Die Wundermaschine. Die unendliche Geschichte der Datenverarbeitung - von der Rechenuhr zum Internet", "Evolution - Organisation - Management. Zur Entwicklung und Selbststeuerung komplexer Systeme". Anlässlich ihres 150 Jahre Jubiläums im Jahr 1997 hat Matis unter dem Titel "Zwischen Anpassung und Widerstand" die Geschichte der Akademie der Wissenschaften in den Jahren 1938-1945 aufgearbeitet.

Wesentliche Mitgliedschaften und Auszeichnungen

Wirkl. Mitglied der der philosophisch-historischen Klasse der Österreichischen Akademie der Wissenschaften (1995) Mitglied Academia Scientiarum et Artium Europeae (1995) Korr. Mitglied der Royal Historical Society (2001) Großes Goldenes Ehrenzeichen für Verdienste um die Republik Österreich (1999) österreichisches Ehrenkreuz für Wissenschaft und Kunst I. Klasse (1982) Großes Goldenes Ehrenzeichen für Verdienste um das Bundesland Niederösterreich (1991) Komturkreuz des Silvesterordens (1999)


Artikel von Herbert Matis auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:46

Nils Matzner

Nils Matzner

Nils Matzner Nils Matzner, M.Sc.

Institut für Technik- und Wissenschaftsforschung
Alpen-Adria-Universität Klagenfurt

https://www.aau.at/technik-und-wissenschaftsforschung

Nils Matzner hat am Institut für Politische Wissenschaften der RWTH Aachen studiert und erhielt mit der Thesis "Die Politik des Geoengineering" 2011 den Mastertitel. Matzner ist nun wissenschaftlicher Mitarbeiter am Institut für Technik und Wissenschaftsforschung an der Alpen Adria Universität Klagenfurt. Im Rahmen seiner Dissertation beschäftigt er sich mit dem Verantwortungsdiskurs von Wissenschaft und Politik (Aufbau einer Wissensgemeinschaft) im Rahmen des sogenanntem Climate Engineering (CE). Er ist Mitarbeiter an dem, von der Deutschen Forschungsgemeinschaft 2013 - 2019 geförderten Schwerpunktprogramm SPP 1689 „Climate Engineering: Risiken, Herausforderungen, Möglichkeiten?“ http://www.spp-climate-engineering.de und Web Editor von www.climate-engineering.eu. Wesentliches Ziel des Schwerpunktprogramms ist es, die großen Unsicherheiten in unserem gegenwärtigen Verständnis der Auswirkungen von CE auf Umwelt, Politik und Gesellschaft zu verringern und damit eine wissenschaftliche Basis für einen verant­wortungs­vollen Umgang mit dem Thema CE zu schaffen. Nils Matzner hat zu CE aber auch zu anderen sozial- und politikwissenschaftlichen Themen publiziert. Details: https://scholar.google.de/citations?user=UcAbutUAAAAJ&hl=en


Artikel von Nils Matzner auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:44

Max-Planck-Gesellschaft

Max-Planck-Gesellschaft

MPG Webseite: https://www.mpg.de/

Max-Planck, der Namensgeber der Gesellschaft (Aufnahme aus dem Jahr 1918, als er den Nobelpreis für Physik für seine Arbeiten zur Quantentheorie erhielt). Seine wissenschaftliche Überzeugung "Dem Anwenden muss das Erkennen vorausgehen."  bestimmt seit Ende der 1990er Jahre das Leitbild der Max-Planck-Gesellschaft. Die Max-Planck-Gesellschaft (MPG) zur Förderung der Wissenschaften e.V. gehört zu den weltweit besten nicht-universitären Forschungseinrichtungen im Bereich der Grundlagenforschung. Sie ist eine unabhängige Forschungsorganisation in der Rechtsform eines gemeinnützigen eingetragenen Vereins mit dem juristischen Sitz in Berlin. In Nachfolge der bereits 1911 errichteten Kaiser-Wilhelm-Gesellschaft zur Förderung der Wissenschaften erfolgte die Gründung der MPG am 26. Februar 1948 in Göttingen. Max-Planck hatte sich für den Erhalt der Kaiser-Wilhelm-Gesellschaft eingesetzt und dank seines internationalen Renommees konnte die Institution in ihrer Struktur erhalten werden.

Forschungseinrichtungen

Die Max-Planck-Gesellschaft unterhält derzeit 83 Max-Planck-Institute und Forschungseinrichtungen (Stichtag 1. Januar 2016); davon befinden sich fünf Max-Planck-Institute und eine Außenstelle im Ausland. Die Institute und Einrichtungen betreiben Grundlagenforschung in den Natur-, Bio-, Geistes- und Sozialwissenschaften im Dienste der Allgemeinheit. Max-Planck-Institute engagieren sich in Forschungsgebieten, die besonders innovativ sind, einen speziellen finanziellen oder zeitlichen Aufwand erfordern. Ihr Forschungsspektrum entwickelt sich dabei ständig weiter: Neue Institute werden gegründet oder bestehende Institute umgewidmet, um Antworten auf zukunfts­trächtige wissenschaftliche Fragen zu finden. Diese ständige Erneuerung erhält der Max-Planck-Gesellschaft den Spielraum, auf neue wissenschaftliche Entwicklungen rasch reagieren zu können. Für die Beratung und Unterstützung dieser Einrichtungen unterhält die Max-Planck-Gesellschaft in München ihre Generalverwaltung. Derzeitiger Präsident ist der Elektrochemiker und Materialwissenschafter Martin Stratmann. Am 1. Januar 2016 waren 22.197 Mitarbeiter tätig, davon 60 % im wissenschaftlichen Bereich (davon rund 30 % Frauen). Knapp 50 % der Wissenschafter kamen aus dem Ausland.

Die Finanzierung der Max-Planck-Gesellschaft

erfolgt überwiegend aus öffentlichen Mitteln von Bund und Ländern; im Jahr 2016 waren dies knapp 1,8 Milliarden Euro. Hinzu kamen Drittmittel für Projekte von öffentlichen oder privaten Geldgebern sowie der Europäischen Union.

Wissenschaftliche Preise und Auszeichnungen

sind ein wichtiger Indikator für die Qualität von Forschungsleistungen. An erster Stelle unter den wissenschaftlichen Preisen steht international der Nobelpreis. Seit Gründung der Max-Planck-Gesellschaft im Jahre 1948 zählt sie allein 18 Nobelpreisträger in ihren Reihen. Hinzu kommen weitere 15 Nobelpreise, mit denen Wissenschaftler ihrer Vorgängerorganisation, der Kaiser-Wilhelm-Gesellschaft, zwischen 1914 und 1948 ausgezeichnet wurden.


Artikel der Max-Planck-Gesellschaft auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:43

Andreas Merian

Andreas Merian

Dr.Andreas Merian

Postdoc an der Technischen Universität Darmstadt,

freier Wissenschaftautor

Merian hat an der Friedrich Schiller Universität (Jena) studiert (Bachelor 2009) und das Masterstudium in Photonik ebendort und an der University of Central Florida absolviert (M.Sc. 2014).

An seiner Doktorarbeit hat er am Max-Planck-Institut für Biogeochemie (Jena) und Leibniz Institut für Photonische Technologien (Jena) über optische Gassensoren für Anwendungen in den Umweltwissenschaften geforscht. Dr. rer.nat. 2022 (Thesis: "Fiber-enhanced Raman spectroscopy for applications in biogeochemistry.")

Seit Mai 2023 arbeitet Merian als Postdoc an der Technischen Universität Darmstadt über Biophotonik und Biomedizintechnik.

Seit 2020 ist Merian auch als freier Wissenschaftsautor tätig; mehrere Artikel sind in Max-Planck Forschung und in Techmaxder Max-Planck Gesellschaft erschienen (die Angaben über den Autor stammen aus linkedin.com/in/andreas-merian-knebl-92876b58)


 

Artikel von Andreas Merian im ScienceBlog.at:

24.08.2023: Live-Videos aus dem Körper mit Echtzeit-MRT

inge Thu, 24.08.2023 - 00:47

Trevor Mendel

Trevor Mendel

Trevor MendelDr. Trevor Mendel

Dept. Optical and Interpretative Astronomy
Max-Planck-Institut für extraterrestrische Physik
, Garching

Ausbildung und Karriereweg

2001 - 2005 Studium der Physik, Macalester College (Minnesota) Bachelor in Physik
2005 -2009 Swinburne University of Technology (Melbourne, Aus) , Astronomie und Astrophysik, Thesis: "Galaxy stellar populations and dynamics as probes of group evolution"; PhD.
2009 Wiss. Mitarbeiter an der Swinburne Univ.
2009 - 2012 Postdoc an der University of Victoria
2012 - 2014 Postdoc am MPI für Extraterrestrische Physik, Garching
2015 - Wissenschafter am MPI für Extraterrestrische Physik, Garching Wiss. Mitarbeiter an der Univ. Sternwarte München

Forschungsschwerpunkte

Interagierende Galaxien, Entstehung und Evolution von Galaxien Publikationen: bis 2012: 24 (http://www.astro.uvic.ca/~tmendel/site/Publications.html), seit 2013 mehr als 40 (http://www.mpe.mpg.de/3872125/publications_man)


Artikel von Alessandra Beifiori auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:42

Gero Miesenböck

Gero Miesenböck

Gero MiesenböckProf. Dr. Gero Miesenböck Waynflete Professor of Physiology, Wellcome Investigator Centre for Neural Circuits and Behaviour University of Oxford

homepage: http://www.cncb.ox.ac.uk/people/gero-miesenboeck/

Gero Miesenböck (*1965, Braunau, OÖ) ist in Thalheim bei Wels aufgewachsen.

Ausbildung

1983 - 1991 Medizinstudium an der Universität Innsbruck Thesis (JR Patsch: “Relationship of triglyceride and high density lipoprotein metabolism”)
1989 University of Umeå, Sweden
1992 - 1998 Postdoktorand am Memorial Sloan-Kettering Cancer Center (NY, US) mit Dr. James E. Rothman

Karriereweg

1999 – 2004 Assistant Professor für Zellbiologie und Genetik; Assistant Professor für Neurowissenschaften, Cornell University (NY)
1999 – 2004 Leitung des Labors für Neuronale Systeme, Memorial Sloan-Kettering Cancer Center (NY)
2004 – 2007 Associate Professor für Zellbiologie und für Zelluläre und Milekulare Physiologie, Yale University , School of Medicine (New Haven)
2007 – Waynflete Professor of Physiology, University of Oxford
2011 – Gründungsdirektor des Centre for Neural Circuits and Behaviour, University of Oxford

Forschung

Der Neurophysiologe hat gemeinsam mit Boris Zemelman das neue Fachgebiet der Optogenetik begründet -ein ungemein erfolgversprechendes Konzept für die Grundlagenforschung und auch für bahnbrechende Anwendungen in der Medizin.

- Mittels genetischer Programmierung (nicht nur) von Nervenzellen lässt sich deren Aktivität erstmals sichtbar machen und kontrollieren.

- Fernsteuerung neuronaler Funktionen, um die Organisation neuronaler Schaltkreise zu erkunden, - um die Prozesse im Gehirn zu identifizieren, welche Wahrnehmung, Handeln, Emotion, Gedanken und Gedächtnis zugrundeliegen. Liste der Publikationen des Instituts (Centre for Neural Circuits and Behaviour): http://www.cncb.ox.ac.uk/the-science/publications/

Auszeichnungen (Auswahl)

2008: Mitglied der European Molecular Biology Organization 2009: Bayliss-Starling Prize Lecture 2012: InBev-Baillet Latour Health Prize 2013: Brain Prize 2013: Jacob Heskel Gabbay Award in Biotechnology and Medicine[9] 2014: Mitglied im Ausland der Österreichischen Akademie der Wissenschaften 2014: Kulturpreis des Landes Oberösterreich 2015: Fellow of the Royal Society (London) 2015: Heinrich-Wieland-Preis 2016: Mitglied der Leopoldina – Deutsche Akademie der Naturforscher 2016: Wilhelm-Exner-Medaille 2016: Massry-Preis


Artikel von Gero Miesenböck auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:40

Karin Moelling

Karin Moelling

vemer. Prof. Prof. hc. Dr. rer. nat. Karin Moelling
homepage: http://moelling.ch/wordpress/

Universität Zürich & Max-Planck-Institut für Molekulare Genetik, Berlin


*1943 in Meldorf, Dithmarschen, D

Ausbildung und Karriereweg

1962 – 1968 Studium der Physik/Germanistik an der Universität Kiel
1968 Diplom in Kernphysik, Institut für Kernphysik, Kiel
1968 - 1969 Stipendium der Studienstiftung, University California,Berkeley, Studium der Biochemie und Molekularbiologie
1969 - 1972 Doktorarbeit am Max-Planck-Institut für Virusforschung, Tübingen (Replikationsmechanismus von RNA-Tumorviren).
1973 - 1975 Postdoc am Robert Koch Institut in Berlin
1975 - 1977 Postdoc am Institut für Virologie der Universität Gießen, Habilitation in Biophysik (Replikation von Retroviren)
1976 - 1993 Forschungsgruppenleiterin am Max-Planck-Institut für Molekulare Genetik in Berlin
1983 - 1993 C3-Professorin am Max-Planck-Institut für Molekulare Genetik, Berlin
1992 - 1994 Direktorin für Zell- und Molekularbiologie bei der US-Biotech-Firma Apollon Inc. (Spin-off von Centocor in Pennsylvania)
1993 - 2008 o.Prof. und Direktorin am Institut für medizinische Virologie, Universität Zürich; Leiterin der Virusdiagnostik am Universitätsspital in Zürich
2008 Emeritierung
2008 - 2011 Gruppenleiterin an der Universität Zürich und am Max-Planck-Institut für Molekulare Genetik in Berlin
2008 -

Projekte:

- klinische Anwendung von Phagen gegen Antibiotika-resistente Bakterien,

- metastasierende Zellen

- Evolution der Immunsysteme ausgehend von Viren und transposablen Elementen

Forschungsinteressen

Von ihren anfänglichen Arbeiten an Atomkernen wandte sich Moelling bald Untersuchungen an Zellkernen zu, besser gesagt der Aufschlüsselung von Lebensvorgängen mittels molekularbiologischer Methoden. 

Auf  ihren Spezialgbieten der Virologie (insbesondere von Retroviren, von HIV/AIDS und nun auch von Phagen), der Signalübertragung in Zellen und der molekularen Mechanismen von Krebsentstehung wurde Moelling eine renommierte Expertin: Auf sie gehen einige grundlegende Erkenntnisse zurück, die zu fixen Bestandteilen von Lehrbüchern wurden wie u.a. die Entdeckung und Charakterisierung des ersten Kern-Onkogens "Myc" und der "raf-Kinase", die eine zentrale Rolle bei der Signalübertragung in Zellen spielt oder das Konzept HIV-Viren in den Selbstmord zu treiben bevor sie sich vermehren können (via Aktivierung einer Ribonuklease H, die das Erbgut des Virus zerschneidet, bevor es sich kopieren kann).

Moelling hat auch Vakzinen gegen Viren und Krebs designt, neue Diagnostika  etabliert und klinische Studien zur Impfung mit DNA-Plasmiden gegen Krebs durchgeführt.

Ein besonderes Interesse gilt der Evolution von Viren und der Rolle, die diese bei der Entstehung des Immunsystems spielen.

Über ihre Arbeiten hat Moelling mehr als 250 Veröffentlichungen in hochrangigen Zeitschriften verfasst (siehe homepage) und auch einige für Laien leicht verständliche Bücher geschrieben, wie:

Supermacht des Lebens: Reisen in die erstaunliche Welt der Viren (2015), Beck-Verlag München

Viruses: more friends than foes (2016), New Jersey : World Scientific. (Schwerpunkt: die weit überwiegende Zahl von Viren, die nicht zu Krankheiten führen)

In einem neuen Projekt widmet sich Moelling nun der klinischen Anwendung von Viren, die Bakterien befallen: Diese sogenannten Phagen können künftig eine wirksame Alternative zur Therapie mit Antibiotika darstellen, insbesondere, wenn es um Infektionen mit gegen Antibiotika-resistenten Bakterien geht.

Auszeichnungen

1981 Vincenz Czerny Preis für Onkologie
1982 Walther und Christiane Richtzenhain Preis (Malign Transformation)
1983 Mitglied der European Molecular Biology Organization (EMBO)
1986 Wilhelm und Maria Meyenburg Prize (‘Carcinogenesis’)
1987 Aronson Preis für ‘Cancer and AIDS Research’
1988 Endowed Lecture “Bertha Benz” on ‘Retroviruses in Cancer and AIDS Research’
1992 Heinz Ansmann Peis für AIDS Forschung
2005 Prof.hc an der Charité, Berlin
2007 SwissAward ((Suicide-killing of HIV)
2018 Bundesverdienstkreuz 1. Klasse des Verdienstordens der Bundesrepublik Deutschland

Artikel von Karin Moelling im ScienceBlog

Redaktion Thu, 04.07.2019 - 10:57

Helmuth Möhwald

Helmuth Möhwald

Helmuth Möhwaldo.Prof. Dr. Dr. h.c. Helmuth Möhwald, Direktor (em.)

http://www.mpikg.mpg.de/grenzflaechen/direktor/helmuth-moehwald

Helmuth Möhwald  (Jg. 1946), Gründungsdirektor des Max-Planck-Instituts für Kolloid- und Grenzflächenforschung hat an der Universität Göttingen Physik studiert und nach einer Doktorarbeit am Max-Planck-Institut für Biophysikalische Chemie, Göttingen, 1974 promoviert.

Beruflicher Werdegang

1974 – 1975 Postdoktorand, (IBM San Jose)
1978 Habilitation in Physik (Universität Ulm): Transporteigenschaften und Phasenübergänge in organischen Charge-Transfer Kristallen
1978 – 1981 Wissenschaftlicher Mitarbeiter: Dornier-System, Friedrichshafen
1981 – 1987 Außerordentlicher Professor (C3) für Experimentelle Physik (Biophysik), TU München
1983 Gast-Professor: University Pennsylvania
1987 – 1993 Lehrstuhl (C4) für Physikalische Chemie, Universität Mainz
1991 – 1992 Gast-Professor: Weizmann Institut, Rehovot
1993 – 2014 Direktor des Max-Planck-Instituts für Kolloid- und Grenzflächenforschung, (Potsdam), Wissenschaftliches Mitglied der MPG
1995 – Honorar-Professor, Universität Potsdam
2001 – Gast-Professor: Zheijang University, Hangzhou
2004 – Gast-Professor: Fudan University, Shanghai
2011 – Gast-Professor: Harbin Institute of Technology, Harbin und Soochow University, Suzhou
2014 – Direktor (em.) und Consultant, Max-Planck-Institut für Kolloid- und Grenzflächenforschung und Abteilung Biomaterialien, Potsdam
2014 – Consultant am CEA Marcoule
2014 – Gast-Professor: Chinesische Akademie der Wissenschaften, Peking

Auszeichnungen, Mitgliedschaften

1979: Physikpreis der Deutschen Physikalischen Gesellschaft 1998: Raphael-Eduard-Liesegang-Preis der Deutschen Kolloid-Gesellschaft 2000: Chaire de Paris 2000: Vannegard Lecture, Gothenburg 2002: Lectureship Award of the Japanese Colloid Society, Sendai 2002: Founder’s Lecture, London 2002: Eli Burstein Lecture, Philadelphia 2004: Korrespondierendes Mitglied der Österreichischen Akademie der Wissenschaften 2006: Honorarprofessor am Institut Chemie der Chinesischen Akademie der Wissenschaften 2007: "Gay-Lussac Preis", Französisches Ministerium für Forschung und Technologie in Zusammenarbeit mit der Alexander von Humboldt-Stiftung 2007: Overbeek-Medaille der European Colloid and Interface Society 2008: Ehrendoktorwürde der Universität Montpellier, Frankreich 2009: Wolfgang-Ostwald-Preis der Deutschen Kolloid-Gesellschaft 2010: BP Visiting Lecturer 2010, Cambridge Univ.,UK 2012: Mitglied der Academia Europaea 2014: Langmuir Lectureship Award of the American Chemical Society 2014: Elyuhar-Goldschmidt Award of the Royal Spanish Chemical Society 2014: Honorarprofessur am Institut für Process Engineering der Chinesischen Akademie der Wissenschaften

Aktivitiäten in Wissenschaftlichen Organisationen

Seit 1986: Vorstandsrat der Kolloid-Gesellschaft 1996-1998: Vorstandsrat der Deutschen Physikalischen Gesellschaft 1996-1998: Sprecher des Fachverbandes Chemische Physik der Deutschen Physikal.Gesellschaft DPG 1997-2000: Wissenschaftlicher Fachbeirat der European Synchrotron Radiation Facility 2002/2003: Präsident der European Colloid and Interfaces Society 2002-2007: Wissenschaftlicher Beirat des Hahn-Meitner Instituts, Berlin 2003-2007: Vorsitzender der Deutschen Kolloid-Gesellschaft 2005-2007: Vorsitzender des wissenschaftlichen Beirats des Hahn-Meitner Instituts, Berlin 2004-2011: Wissenschaftlicher Beirat und Jury der Austrian Nano Initiative Seit 2005: Bayreuther Zentrum für Kolloide und Grenzflächen Seit 2005: Fraunhofer-Institut für Angewandte Polymerforschung. Potsdam  Seit 2008: Biofibre Materials Research Center, Stockholm Seit 2008: International Center for Frontier Research in Chemistry, Strasbourg, F 2008-2012: Vorsitzender des wissenschaftlichen Beirats am Institut für Biophysik der ÖAW, Graz, Au 2008-2010: Adolphe Merkle Institute, Université de Fribourg (CH) Seit: 2010: Wissenschaftlicher Beirat - Materials Science at Göteborg Seit: 2012: Wissenschaftlicher Beirat "Pôle Chimie Balard", Université de Montpellier 2014: Chair of the Natural Science Evaluation Panel for Linnaeus Centers of the Swedish Research Council

Publikationen

Mehr als 980, die insgesamt mehr als 43 000 mal zitiert wurden (ISI Publication Record; Januar 2015). Mit einem H-Index: 101 ist Möhwald ein "Highly Cited Scientist".

Hauptforschungsfelder

Biomimetische Systeme

  • Struktur komplexer Grenzflächen (Amphiphile, Peptide, Proteine, Polymere, Cluster, Partikel)
  • Polymer (Protein)/Lipid Wechselwirkungen

Chemie und Physik in Hohlräumen

  • Struktur-Übergänge (Phasen-Übergänge und -Trennungen, Kristallisation und Wachstum, Quellung)
  • Verkapselung und Freisetzung
  • Sonochemie

Dynamik an Grenzflächen

  • Molekulare Bewegung (Translation, Rotation)
  • Elektron-Energie-Transfer
  • Molekularer Austausch

Artikel von Helmuth Möwald auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:38

Klaus Müllen

Klaus Müllen

Klaus MüllenProf. Dr. Klaus Müllen em. Direktor am Max-Planck-Institut für Polymerforschung (Mainz), http://www.mpip-mainz.mpg.de/

Klaus Müllen (Jg. 1947) hat an Universität Köln Chemie studiert und dort seine Diplomarbeit (bei E. Vogel) gemacht. Die Doktorarbeit erfolgte an der Universität Basel (F. Gerson), wo er 1971 promovierte.

Beruflicher Werdegang

1972 – 1978 Postdoc-Aufenthalt und Habilitierung (JFM Oth) an der ETH Zürich
1977 Privatdozent ETH Zürich
1979 – 1984 Professor, Universität Köln
1983 – 1989 Professor, Johannes-Gutenberg-Universität, Mainz
1988 Ruf an die Universität Göttingen
1989 Ernennung zum wissenschaftlichen Mitglied der Max-Planck Gesellschaft, Direktor am Max-Planck-Institut für Polymerforschung, Mainz

Auszeichnungen

1993 Max Planck Forschungspreis
1997 Philip Morris Forschungspreis
2001 Nozoe-Award, San Diego
2002 Kyoto University Foundation Award
2003 Wissenschaftspreis des "Stifterverbands"
2006 Belgian Polymer Award
2008 Innovationspreis des Landes Nordrhein-Westfalen, Nikolaus August Otto Preis
2009 The Society of Polymer Science Japan International Award
2010 The European Research Council (ERC) Advanced Investgator Grant: Nanographenes
2011 Polymer Award of the American Chemical Society, Tsungming Tu Award, Taiwan
2012 BASF-Award for Organic Electronics
2013 Franco-German Award of the Sociéte Chimique de France, Adolf-von-Baeyer-Medaille, GDCh, Utz-Helmut Felcht Award, SGL Group, ChinaNANO Award
2014 Carl Friedrich Gauß-Medaille der "Braunschweigischen Wissenschaftlichen Gesellschaft", 2014 ACS Nano Lectureship Award

Ehrendoktorate und Mitgliedschaften

Klaus Müllen erhielt Ehrendoktorate der Universität von Sofia, des Karlsruher Instituts für Technologie (KIT) und der Jiatong University, Shanghai. Er ist Honorarprofessor der East China University of Science and Technology, Shanghai; des Institute of Chemistry Chinese Academy of Science, Beijing; und der Universität Heidelberg. Er ist Mitglied der American Academy of Arts & Sciences Müllen ist Editor und Mitglied des Editorial Boards zahlreicher renommierter Fachzeitschriften, und Beirat wichtiger wissenschaftlicher Organisationen. Von 2008 – 2009 war er Präsident der Deutschen Chemischen Gesellschaft, seit 2013 Präsident der Gesellschaft Deutscher Naturforscher und Ärzte.

Forschungsschwerpunkte

  • Graphene und Kohlenstoffmaterialien;
  • Neue Polymerisierungs-Reaktionen, incl. Methoden der organometallischen Chemie
  • Multidimensionale Polymere, funktionelle polymere Netzwerke für katalytische Zwecke,
  • Farben und Pigmente,
  • Chemie und Physik von Einzelmolekülen,
  • Materialien mit flüssigkristallinen Eigenschaften für elektronische und optoelektronische Bauelemente,
  • Biosynthetische Hybride,
  • Nanocomposite

Klaus Müllen hat nahezu 1600 Veröffentlichungen in wissenschaftlichen Fachzeitschriften (h-Faktor 110) und 60 Patente. (Weitere Details: siehe Homepage)


Artikel von Klaus Müllen auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:36

Eva Maria Murauer

Eva Maria Murauer

Eva Maria MurauerDr. Eva Maria Murauer

Gruppenleiterin der Forschungsgruppe Gentherapie EB Haus Austria

http://www.eb-haus.org/eb-haus/forschung/team/dr-eva-murauer.htmlhttp://www.eb-haus.org/eb-haus/forschung/team/dr-eva-murauer.html

Ausbildung und Karriereweg

1999 - 2002 Bakkalaureatsstudium Genetik und Molekularbiologie an der Universität Salzburg
2002 - 2005 Magisterstudium Genetik und Biotechnologie an der Universität Salzburg (mit Auszeichnung). Diplomarbeit: : Isolation and characterization of EMPD specific Single Chain Antibodies. (Betreuer: Gernot Achatz)
2003 Erasmus Semester an der Università degli Studi di Perugia, Italien
2005 - 2008 Doktoratsstudium an der Universität Salzburg (mit Auszeichnung). Thesis: 3-trans-splicing repair of the COL7A1 gene in Epidermolysis bullosa dystrophica patients. (Betreuer: Johann Bauer)
2005 - 2012 Wissenschaftliche Mitarbeiterin im EB-Haus Austria, Labor für Molekulare Therapie
2012 - 2013 Post-Doc im Labor für Genetik von Seltenen Erkrankungen, Montpellier, Frankreich
2013 - Gruppenleiterin der Forschungsgruppe Gentherapie

Forschung

  • Gentherapie für EB dystrophicans: 3'-Korrektur im COL7A1 Gen
  • Gezielte Korrektur von Genmutationen mittels CRISPR Technologie
  • Charakterisierung von Mesenchymalen Stammzellen (MSC) aus der Haut

ISI Web of Knowledge (Thomson Reuters) listet 59 Publikationen (abgerufen am 1.März 2017)

Auszeichnungen

- Theodor Körner Preis für das Forschungsprojekt "Heilung für Schmetterlingskinder durch eine alternative Gentherapie". - UNILEVER Dermatologen-Preis für die Forschungsarbeit "Functional correction of type VII collagen expression in dystrophic epidermolysis bullosa." - Paracelsus Wissenschaftspreis in Silber - Sanofi Aventis Preis für medizinische Forschung


Artikel von Eva Maria Murauer auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:31

Jochen Müller

Jochen Müller

Jochen MüllerJochen Müller,PhD

Neurowissenschafter und freier Journalist

http://www.jochen-mueller.net/

Nach dem Biologie Studium und der Promotion in medizinischen Neurowissenschaften hat Jochen Müller in Kanada und Berlin als PostDoc gearbeitet, bevor er der Forschung den Rücken kehrte, um sich ihr als Wissenschaftsjournalist wieder zuzuwenden.

Wenn er nicht über sein Lieblingsthema, das Gehirn, schreibt, dann präsentiert er es in Form von Science Slams.

In seiner Freizeit bereist er die Welt, macht Taekwon-Do und fotografiert.

Arbeitsschwerpunkt:

Klinische Neurowissenschaften, Neurowissenschaften Allgemein, Systemneurobiologie, Zelluläre Neurobiologie

inge Wed, 18.11.2020 - 23:38

Richard Neher

Richard Neher

Richard NeherDr. Richard Neher

Arbeitsgruppenleiter Evolutionsdynamik und Biophysik
Max-Planck-Institut für Entwicklungsbiologie, Tübingen

http://www.eb.tuebingen.mpg.de/de/forschung/arbeitsgruppen/richard-neher.html

Ausbildung und beruflicher Werdegang

1998 – 2000 Studium Physik, Universität Göttingen, Vordiplom
2000 – 2007 Studium Physik, Universität München;
2003 Diplom; Thesis: "Stochastic Geometry and Percolation" (H. Wagner)
2007 PhD; Thesis: "Dynamic aspects of DNA" (U. Gerland)
2007 – 2010 Post-Doctoral Fellow, Kavli Institute for Theoretical Physics, University of California, Santa Barbara, USA
2010 – Unabhängiger Arbeitsgruppenleiter, Max-Planck-Institut für Entwicklungsbiologie, Tübingen

Auszeichnungen

2009 Harvey L. Karp Discovery Award
2011 ERC Starting Grant
2012 ARCHES award
2016 OpenSciencePrize (Phase I, with Trevor Bedford)

Forschungsinteressen

Evolution von Viren auf dem molekularen Niveau: zeitliche Veränderung von Virussequenzen (HIV) in einzelnen Patienten (Einfluss von Immunsystem und Therapie), Bestimmung der Fitness der Virenpopulationen, theoretische Modelle. Die Arbeiten haben bis jetzt zu rund 40 Veröffentlichungen in renommierten Zeitschriften geführt, Details: https://neherlab.files.wordpress.com/2013/07/cv_ran2.pdf Blog: neherlab (englisch), Evolution, population genetics, and infectious diseases https://neherlab.wordpress.com/


Artikel von Richard Neher auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:26

Wolfgang Neubauer

Wolfgang Neubauer

Wolfgang NeubauerIcon Physik Dir. PD Ao. Univ.‐Prof. Mag. Dr. Wolfgang Neubauer

Ludwig Boltzmann Institut für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro)

http://archpro.lbg.ac.at https://homepage.univie.ac.at/wolfgang.neubauer/

Wolfgang Neubauer (Jg 1963) ist als Sohn österreichischer Eltern in der Schweiz aufgewachsen.

Ausbildung

1984 – 1993
1993
Studium: prähistorische Archäologie, Archäometrie, Mathematik; Universität Wien
Mag.Phil.
1985 – 1993 Studium: Mathematik und Computerwissenschaften, Technische Universität Wien
1991 Training: Interpretation von Luftaufnahmen (Leica, CH)
Training: Bodenradar, GSSI Inc., Universität Patras
1993 Qualifikation als Systemadministrator für SUN OS
2000 Dr.Phil., prähistorische Archäologie: magnetische Prospektion in der Archäologie
2003 Training: 3D Laser Scanning, Riegl LMS
2008 Habilitation: Prähistorische Archäologie: interdisziplinäre Archäologie, Universität Wien

Karriereweg

1994 –1995 Forschungsassistent am Institut für Urgeschichte und Historische Archäologie, Universität Wien
1996 – 2004 Forscher am Österreichischen Zentralinstitut für Meteorologie und Geodynamik; Abt. Geophysik, Archäo-Prospektionsteam
2002 Gastforscher: Nara, Japan & Bermuda Maritime Museum
2002 Gastprofessor am Institut für Alte Geschichte, Universität Innsbruck
2006 Gastprofessor am Institut für Angewandte Wissenschaften, Mainz
2007 Gastforscher: Xian - Qjanling, China & Bermuda Maritime Museum
2007 – 2008 Forschungsassistent am Institut für Computergrafik und Algorithmen, Technische Universität Wien
1994 – Forscher am VIAS - Vienna Institute for Archaeological Science (VB1a/hb), Universität Wien
2010 – Direktor des Ludwig Boltzmann Instituts für Archäologische Prospektion und Virtuelle Archäologie

Forschungsinteressen

Entwicklung von hochauflösenden zerstörungsfreien Methoden zur Prospektion ganzer archäologischer Landschaften und Visualisierung und Interpretation der Ergebnisse. In Zusammenarbeit mit (internationalen) Partnern Testung der Anwendbarkeit und Aussagekraft der Methoden an Hand von "Fallstudien". Die homepage des LBI ArchPro beschreibt 9 solcher Studien in England, Schweden, Norwegen, Österreich und Deutschland, darunter so spektakuläre Fälle wie die Gesamtprospektion von Carnuntum oder der Landschaft von Stonehenge, wo weitere bislang unbekannte prähistorische Monumente entdeckt wurden. Die Ergebnisse sind in zahlreichen wissenschaftlichen und populärwissenschaftlichen Veröffentlichungen niedergelegt.

Wissenschaftskommunikation

Neben Vorlesungen an der Universität Wien und an zahlreichen akademischen Einrichtungen im In- und Ausland sieht Neubauer die Vermittlung seiner Forschungsgebiete an Wissenschafter ebenso wie an ein Laienpublikum als zentrale Aufgabe. Dementsprechend engagiert er sich sehr erfolgreich auch als Kurator großer Ausstellungen und Organisator von Veranstaltungen. In Anerkennung dieser Aktivitäten wurde Neubauer 2015 vom Klub der Bildungs- und Wissenschaftsjournalisten zum "Wissenschafter des Jahres" gewählt.


Artikel von Wolfgang Neubauer auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:24

Christian R. Noe

Christian R. Noe

Christian Roland Noeo. Univ.Prof. DI Dr.Mag. Christian Roland Noe wurde 1947 in Schärding (OÖ) geboren und besuchte dort die Volksschule und das Gymnasium.

1965 – 1972 Chemiestudium (Technische Chemie) an der Technischen Universität in Wien. Diplomarbeit und Doktorarbeit in organischer Chemie. Promotion “sub auspiciis praesidentis rei publicae".
1970 – 1972 Vertragsassistent - TU Wien;
1968 – 1979 Pharmaziestudium an der Universität Wien, Sponsion: “Magister der Pharmazie”;
1972 – 1991 “Universitätsassistent ad personam”
1972 – 1973 Post-graduate Kurs “Export Business” an der Hochschule für Welthandel in Wien;
1977 – 1978 Post‑doctoral Aufentalt an der ETH Zürich (A. Eschenmoser);
1980 Post-doctoral Aufenthalt an der University of Salford (H. Suschitzky);
1982 Habilitation in in Organischer Chemie an der TU Wien ("Chirale Lactole“);
1982 – 1991 Universitätsdozent – Gruppenleiter für Bioorganische Chemie, dann Abteilungsleiter, Institut für Organische Chemie, TU Wien
1989 – 1995 Leiter des Christian Doppler Labors: “Chemie chiraler Verbindungen”;
1991 – 1999 C4-Professor für Medizinische Chemie (Pharmazeutische Chemie) an der Johann Wolfgang Goethe-Universität Frankfurt;
1996 – 1997 Dekan des Fachbereich Biochemie, Pharmazie und Nahrungsmittelchemie, Johann Wolfgang Goethe-University Frankfurt;
1996 Qualifikation als „responsible person in gene technology projects“.
1999 – 2012 o.Prof. und Vorstand des Departments für Medizinische Chemie an der Universität Wien;
2000 – 2004 Vorstand des Fachbereichsausschusses für Pharmazie, Universität Wien;
2002 – 2008 Dekan der Fakultät für Naturwissenschaften und erster Dekan der neuen Fakultät für Lebenswissenschaften, Universität Wien;
2008 – 2012 Sprecher des Pharmaziezentrums Universität Wien.

Weitere Aktivitäten

1974 – 1991 Experte für pharmazeutische Fragestellungen in diversen UNO-Missionen;
1983 – 1991 Zivilingenieur für Technische Chemie - Zertifikation und Konsulent;
1983 – Konsulent für pharmazeutische Industrieforschung, Beteiligung an mehreren Start-up Firmen

Mitgliedschaften und Auszeichnungen (unvollständige Liste)

1991 Ernst‑Späth‑Preis der Österreichischen Akademie der Wissenschaften;
1998 – 2000 Vorstandsmitglied Deutsche Chemische Gesellschaft;
2000 Senior Fellow der Christian-Doppler-Forschungsgesellschaft ;
2003 Korrespondierendes Mitglied der Österreichischen Akademie der Wissenschaften;
2005 – 2007 Präsident der European Federation of Pharmaceutical Sciences (EUFEPS);
2006 Ehrenmitglied der Slowakischen Pharmazeutischen Gesellschaft;
2008 – Gründungsmitglied und Sekretär des EUFEPS-Senats;
2009 – Vorsitzender des wissenschaftlichen Komitees der „European Innovative Medicines Initiative of the European Commission and EFPIA (IMI-JU)“;
2010 Ehrenmitglied der Ungarischen Akademie der Wissenschaften,
2010 “2010 PSWC Scientific Excellence Award” (Pharmaceutical Science World Congress)
2010 Mitglied der “Standing Advisory Group on Nuclear Applications” (SAGNA) der IAEA.

Wissenschaftliche Interessen

Christian Noe hat mehr als 200 Artikel in Journalen veröffentlicht, ist Inhaber von mehr als 30 Patenten und hat mehr als 70 Doktorarbeiten betreut.

Primärer Fokus: Entdeckung und Design von neuen Arzneimitteln (Nukleinsäure-basierte Therapeutika, Rezeptor-Anatgonisten und –Modulatoren; Noe ist Mit-Erfinder von Dexpirronium, Brotizolam, Tenoxicam, Lornoxicam;).

Stereochemie (chirale Verbindungen), Systembiologie (Systempharmakologie) und Translationale Wissenschaften,

Arbeiten zur Blut-Hirn-Schranke und zur Selbstkonstitution von Biomolekülen.


Artikel von Christian Noe im ScienceBlog

Redaktion Tue, 19.03.2019 - 22:23

Peter Palese

Peter Palese

Peter PaleseDer weltbekannte Virologe Peter Palese ist Professor für Mikrobiologie an der Mount Sinai Medical School, New York. Er wurde 1944 in Linz geboren und hat an der Universität Wien Chemie und Pharmazie studiert. In seinem Spezialgebiet ›RNA-Viren‹ hat er als erster die genetische Analyse der Influenzaviren A, B und C erstellt, das bereits ausgestorbene 1918-Grippevirus rekonstruiert, die Funktion einzelner viraler Bausteine erforscht und u.a. den Wirkungsmechanismus wichtiger antiviraler Medikamente – der Neuraminidasehemmer – aufgeklärt. Zur medizinischen Anwendung seiner Ergebnisse hat er mehrere Biotechnologie-Firmen gegründet, u.a. Aviron (jetzt AstraZeneca) und Vivaldi Biosciences.

Wissenschaftliche Laufbahn

1969 Promotion (Chemie) PhD, Universität Wien
1970 Promotion (Pharmazie) M.S., Universität Wien
1970 – 71 Postdoc am Roche Institute of Molecular Biology, Nutley, New Jersey
1971 – 74 Assistant Professor Mount Sinai Medical Center, New York
1974 – 77 Associate Professor Mount Sinai Medical Center, New York
1976 Visiting Professor Dept Microbiology and Immunology, School of Medicine, Univ. California, L.A.
1978 Full Professor of Microbiology Mount Sinai School of Medicine, New York
1987 Chairman Dept. Microbiology Mount Sinai School of Medicine, New York
2003 – 4 Präsident, The Harvey Society
2005 – 6 Präsident, American Society for Virology

Forschungs- und Arbeitsgebiete

Fundamentale Fragen zu “genetischem Make-up” und Funktion von RNA-Viren, insbesondere hinsichtlich der Mechanismen ihrer Vermehrung und der Wechselwirkungen mit den Wirtszellen. Ziel: neue Angriffspunkte zur Erstellung neuer Impfstoffe und antiviraler Medikamente. Mehr als 300 wissenschaftliche Arbeiten sind in Fachzeitschriften erschienen, daneben zahlreiche Buchkapitel und Patente zu antiviralen Medikamenten und Impfstoffen. Details siehe: https://icahn.mssm.edu/profiles/peter-palese

Mitgliedschaften und Auszeichnungen

Palese ist Mitglied zahlreicher wissenschaftlicher Akademien (u.a. der National Academy of Sciences of the USA, des Institute of Medicine (IOM), der Deutschen Akademie der Wissenschaften Leopoldina, k.M.i.A der Österreichischen Akademie der Wissenschaften). Er erhielt renommierte Auszeichnungen (u.a. Robert Koch Preis, Berlin, Wilhelm Exner Preis, Wien, Sanofi – Institut Pasteur Award) Palese war und ist Mitglied im Editorial Board renmmierter Zeitschriften (u.a. Virus Research, Virology, Journal of Virology, Proceedings of the National Academy of Sciences (PNAS)) und in zahlreichen Review boards (NSF Grant Review Panel for Genetic Biology, Max-Planck Society, Munich (Fachbeirat, Biochemistry), U. S. Medical Licensing Examination (USMLE) Committee for Microbiology, Food and Drug Administration (FDA), Advisory Committee for Vaccines and Related Biological Prods).


Artikel von Peter Palese im ScienceBlog

Redaktion Tue, 19.03.2019 - 22:21

Israel Pecht

Israel Pecht

Israel PechtEm. Univ. Prof. Dr. Israel Pecht, Jg. 1937, wurde in Wien geboren und emigrierte Ende 1938 mit seinen Eltern nach Israel. Er hat an der Hebräischen Universität in Jerusalem Chemie studiert und erwarb dort 1962 seinen M.Sc. in Physikalischer Chemie. Nach der Doktorarbeit am Weizmann Institut in Rehovot (Ph.D. 1967), verbrachte Israel Pecht zwei Jahre als Postdoc in der Gruppe von Manfred Eigen am Max-Planck-Institut für Biophysikalische Chemie in Göttingen. Zurück in Israel, erhielt Pecht eine Anstellung am Institut für Chemische Immunologie des Weizmann Instituts, die 1975 in eine Tenure-Position umgewandelt wurde. 1984 wurde Pecht zum Professor für Chemische Immunologie am Weizmann Institut ernannt (Jacques Mimran Professor of Chemical Immunology, später Dr. Morton and Anne Kleiman Professor of Chemical Imminology) und war mehrere Jahre Leiter dieses Instituts und auch des J. Cohn Zentrums für Biomembran-Forschung, das er aufgebaut hatte.

Forschungsaufenthalte und Gastprofessuren

u.a. Stanford University, California Institute of Technology, Institute Curie (Paris), Institut Jaques Monod, Max-Planck Institut für Biophysikalische Chemie (Göttingen).

Publikationen

Mehr als 350 Originalarbeiten und Review-Artikel in peer-reviewed Journalen. Mehrere Patente, auf der Basis eines dieser Patente entwickelt Yeda R&D eine neuartige Therapie (AllergyFight) zur Vorbeugung und Behandlung allergischer Symptome.

Mitglied im Editorial/Advisory Board wichtiger Zeitschriften, u.a. Immunology Letters, International Immunology, Journal of Biochemistry, European Journal of Immunology, Molecular Immunology, European Biophysics Journal.

Funktionen in Gesellschaften

Gegenwärtig: Generalsekretär der FEBS (Federation of European Biochemical Societies).

Secretary General of the 9th International Biophysics Congress (Jerusalem, Israel, 1987); Vice-President and President of the European Federation of Immunological Societies (EFIS); Präsident der International Union of Pure and Applied Biophysics (IUPAB); Comite de Direction: Institute de Biologie Moleculaire et Cellulaire CNRS, (Strasbourg, France); FEBS Fellowships Committee; member of UNESCO: International Network for Molecular and Cell Biology.

Chairman of the Executive Committee, Israel National Science Foundation; Chairman, Section on Life Sciences of the Israel Academy of Sciences and Humanities; Basic Resarch Foundation;. President of the Israeli Immunological and Biochemical Societies.

Forschungsschwerpunkte

Elektron-Transferprozesse in Proteinen, Immunrezeptoren, Signaltransfer; untersucht mit biophysikalischen Methoden (Fluoreszenzmethoden, schnelle Kinetik, Puls-Radiolyse, etc.)

Details zu Auszeichnungen & Publikationen auf seiner Webseite


Artikel von Israel Pecht im ScienceBlog

Redaktion Tue, 19.03.2019 - 22:14

Alexander Petter-Puchner

Alexander Petter-Puchner

Alexander Petter-PuchnerPrivatdozent Dr. Alexander Petter-Puchner leitet die experimentelle Forschungsgruppe zur Behandlung von Bauchwanddefekten im Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie und arbeitet als Facharzt für Allgemeinchirurgie an der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilheminenspital. Darüber hinaus betreibt er eine Wahlarztordination mit Spezialisierung auf Hernienchirurgie in Wien.

office{ät}chirurgie-vienna.com http://www.chirurgie-vienna.com/ Geboren 1974 in Wien Schulbesuch in Wien und Medizinstudium an der Medizinischen Universität Wien (MUW)

1998 Promotion Dr.med.
1996 Studienaufenthalt an der Universitätsklinik Turku, Finnland
1998, 2000 Studienaufenthalt Sao Paulo, Brasilien
2000 – 2001 Anstellung an der Universität Lausanne (CHUV), Schweiz
2001 - 2004 Turnusanstellung im Orthopädischen KH Gersthof, UKH Meidling und Wilhelminenspital
2004 – 2009 Facharztausbildung an der Abteilung für Allgemeinchirurgie im Wilhelminenspital
2010 – Facharzt an der Abteilung für Allgemeinchirurgie im Wilhelminenspital
2011 Habilitation über „Neuartige Implantate in der Hernienchirurgie“ an der Medizinischen Universität Wien

Artikel von Alexander Petter-Puchner auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:12

Alberto E. Pereda

Alberto E. Pereda

Alberto E. PeredaProf. Alberto E. Pereda, PhD, MD

Dominick P Purpura Department of Neuroscience,
Albert Einstein College of Medicine, New York, United States
http://www.einstein.yu.edu/faculty/8028/alberto-pereda/

Ausbildung und Karriereweg

  Studium an der Universidad de la Republica Montevideo, Uruguay
1984 – 1986 Postdoc am Dept of Physiology, Brain Research Institute, School of Medicine, University of California LA: "Gleichgewichtshaltung im Schlaf" (mit Michael Chase and Francisco Morales)
1989 – 1992 Postdoc am Dept. of Physiology, School of Medicine, State University of New York (SUNY) at Buffalo: "Plastizität der Synapsen im Gehörsystem des Goldfisches" (mit Donald Faber)
Seit 1993 – Dominick P Purpura Department of Neuroscience, Albert Einstein College of Medicine, New York

Forschungsinteressen

Synaptische Neurotransmission,

Eigenschaften und Plastizität von "gap junction-mediated" elektrischen Synapsen,

Funktionelle Wechselwirkungen zwischen elektrischen und chemischen Synapsen

Die Ergebnisse der Untersuchungen sind in Dutzenden Arbeiten in erstklassigen Zeitschriften niedergelegt.


Artikel von Alberto Pereda auf Scienceblog:

12.9.2019: Wissenschaft, Kunst und Gesellschaft - Gustav Klimts Deckengemälde für die Universität Wien

Redaktion Thu, 12.09.2019 - 10:36

Georg Pohnert

Georg Pohnert

Georg Plohnert

Professor für Bioorganische Analytik
Institut für Anorganische und Analytische Chemie,
Friedrich-Schiller-Universität, Jena

https://www.chemgeo.uni-jena.de/en/pohnertgroup.html

Leitung Fellow Group am
Max-Planck-Institut für Chemische Ökologie, Jena

https://www.ice.mpg.de/ext/index.php?id=hopa&pers=gepo2404

Georg Pohnert (Jahrgang 1968) hat an der Universität Karlsruhe Chemie studiert und - nach einem Forschungsaufenthalt an der University of Washington - an der Universität Bonn 1997 promoviert (Thesis unter W. Boland über Pheromonchemie der Braunalgen).

1997 – 1998 Postdoc-Aufenthalt an der Cornell University in New York
1998 – 2005 Gruppenleiter am Max-PIanck-Institut für Chemische Ökologie in Jena
2003 Habilitation über "Dynamische chemische Verteidigungsstrategien von marinen Algen" an der Friedrich-Schiller-Universität, Jena
2005 – 2007 Assistenz-Professor für Chemische Ökologie an der Eidgenössischen Technischen Hochschule in Lausanne
2007 – Lehrstuhl für Bioorganische Analytik am Institut für Anorganische und Analytische Chemie, Friedrich-Schiller-Universität, Jena
2015 – Max-Planck Fellow; Leitung der Max-Planck-Fellow-Gruppe "Interaktion in Plankton-Gemeinschaften" am Max-Planck-Institut für Chemische Ökologie, Jena
2019 – Vizepräsident für Forschung der Friedrich-Schiller-Universität, Jena

Forschungsinteressen

Chemische Verteidigungs- und Kommunikationsstrategien von marinen und Süßwasserorganismen

Entwicklung und Anwendung analytischer Methoden, darunter auch komparative Metabolomik, um die chemisch vermittelten Interaktionen in Plankton-Gemeinschaften zu beobachten und zu analysieren.

Die Ergebnisse der Arbeiten sind in mehr als 200 Veröffentlichungen niedergelegt (Details: https://www.ice.mpg.de/ext/index.php?id=hopa&pers=gepo2404&d=fgp&li=ice&pg=publ)

Auszeichnungen

2001: Lehrpreis der Friedrich-Schiller-Universität Jena
2005: Akademiepreis für Chemie der Akademie der Wissenschaften zu Göttingen sowie die Lichtenberg-Professur der Volkswagen Stiftung
2006:

Nachwuchswissenschafter-Preis für Naturstoffforschung der DECHEMA

Artikel von Georg Pohnert auf ScienceBlog.at

Redaktion Thu, 14.11.2019 - 13:42

Julia Pongratz

Julia Pongratz

Julia Pongratz

Dr. Julia Pongratz hat an der Ludwig-Maximilians-Universität in München (2000 – 2005) und an der University of Maryland (2003 – 2004) Geowissenschaften studiert. Für ihre mit „summa cum laude“ bewertete Dissertation “A model estimate on the effect of anthropogenic land cover change on the climate of the last millennium“ am Max Planck Institut für Meteorologie (MPI-M)/ Universität Hamburg (2008 – 2009) erhielt sie die Otto-Hahn-Medaille der Max-Planck-Gesellschaft (MPG) und den Wladimir-Peter-Köppen-Preis der Universität Hamburg.

Anschließend arbeitete sie als PostDoc (2009 – 2012) am Department of Global Ecology der Carnegie Institution in Stanford, Kalifornien/USA, zuletzt an Themen der Nahrungsmittelsicherheit.

Seit Juli 2013 leitet sie eine Emmy Noether Nachwuchsgruppe „Forstwirtschaft im Erdsystem“ in der Abteilung „Land im Erdsystem“ (Prof. Martin Claußen) am MPI-M, die sich mit Wechselwirkungen von Landnutzung und Klima beschäftigt.

Am 28. Juni 2014 wurde Julia Pongratz in die Junge Akademie der Leopoldina – Nationale Akademie der Wissenschaften aufgenommen. Forschungsschwerpunkte, Publikationen und weitere Details:

Homepage: http://www.mpimet.mpg.de/en/mitarbeiter/julia-pongratz.html


Artikel von Julia Pongratz auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:09

Ruben Portugues

Ruben Portugues

Ruben PortuguesRuben Portugues, PhD

Max-Planck Forschungsgruppenleiter am MPI für Neurobiologie, Martinsried http://www.neuro.mpg.de/portugues/de

Wissenschaftlicher Werdegang

1995 – 1999 BA & MA in Mathematics; University Cambridge, UK
1999 – 2004 PhD in Theoretical Physics; University Cambridge, UK
2004 – 2006 Postdoc, Theoretical Physics; Centro de Estudios Cientificos (CECS) in Valdivia, Chile
2006 – 2014 Postdoc, Neurobiology; Laboratoy Florian Engert at Harvard University, USA
2014 – Max Planck Research Group Leader " Sensorimotor Control" at the MPI of Neurobiology, Martinsried, Germany

Artikel von Ruben Portugues auf Scienceblog.at

Redaktion Tue, 19.03.2019 - 22:07

Josef Pradler

Josef Pradler

Josef PradlerDr. Josef Pradler

Juniorforschungsgruppenleiter am Institut für Hochenergiephysik (HEPHY) Österreichische Akademie der Wissenschaften
http://www.hephy.at/de/forschung/theoretische-physik/dunkle-materie/

Wissenschaftlicher Werdegang

2000 – 2006 Studium der Physik an der Universität Wien (Leistungsstipendium der Universität Wien)
2005 – 2009 Diplom- und Doktorarbeit am Max Planck Institut für Physik in München (Förderung: International Max Planck Research School on Elementary Particle Physics)
2009 – 2012 Postdoktorand am Perimeter Institute for Theoretical Physics, Waterloo, Kanada
2012 – 2014 Postdoktorand an der Johns Hopkins University, Baltimore, USA
Juni 2014 – Juniorforschungsgruppenleiter am HEPHY in Wien; neue Forschungsrichtung: Dunkle Materie (im Rahmen des „New Frontiers Program“ der Österreichischen Akademie der Wissenschaften)

Auszeichungen

2007 Helmholtz Young Researcher Prize for Astroparticle Physics
2015 Ludwig Boltzmann Preis der Österreischischen Physikalischen Gesellschaft

Young Principal Investigator Forschungspreis der Austrian Scientists & Scholars in North America

Forschungsschwerpunkte

  • Szenarios für Teilchennatur der Dunklen Materie: Überprüfbarkeit der theoretischen Szenarien im Experiment und in der astrophysikalischen Beobachtung
  • Physik des frühen Universums: Entstehung der Dunklen Materie, sowie der leichten Elemente (primordiale Nukleosynthese).
  • Aus diesen Gebieten sind im Web of Science 27 Veröffentlichungen gelistet (darunter auch ein highly cited paper; abgerufen am 16. Juni 2016).

    Artikel von Josef Pradler auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 22:05

Niels Rattenborg

Niels Rattenborg

Niels C. RattenborgDr. Niels C. Rattenborg
http://www.orn.mpg.de/2696/Forschungsgruppe_Rattenborg

Forschungsgruppenleiter
Max-Planck-Institut für Ornithologie (Seewiesen)

Der US-Amerikaner Rattenborg forscht bereits seit zwei Jahrzehnten über das Schlafverhalten von Vögeln. In die Schlafforschung erhielt er erste Einblicke als er in Ferienjobs in einem Schlaflabor arbeitete. Rattenborg hat Biologie studiert und über das Schlafverhalten von Stockenten promoviert. Anschliessend nahm eine Wissenschaftlerstelle in Wisconsin an und wechselte schließlich 2005 an das Max-Planck-Institut für Ornithologie (Seewiesen), wo er seitdem die Forschungsgruppe Vogelschlaf leitet. Rattenborg ist auch Dozent an der International Max Planck Research School for Organismal Biology (IMRRS).

Für sein im Journal Nature Communications erstmals beschriebenes Schlafverhalten von Fregattvögeln - dass die Vögel im bis zu 10 Tage über dem Ozean dauernden Flug entweder mit jeweils einer Gehirnhälfte oder mit beiden gleichzeitig schlafen können - wurde er von der Gesellschaft für Schlafforschung ausgezeichnet. Eine Liste von 62 Publikationen ist unter http://www.orn.mpg.de/publication-search/2696?person=persons179398&seite=1 einzusehen.


Artikel von Niels Rattenborg auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:56

Paul Rainey

Paul Rainey

Prof.Dr. Paul Rainey

Direktor am Max Planck-Planck-Institut für Evolutionsbiologe in Plön

https://www.evolbio.mpg.de/6055/group_expandevolgenetics

Geboren 1962 in Neuseeland.

Studium sowie Doktorarbeit an der University of Canterbury, England. Von 1989 bis 2005 war Rainey in Großbritannien tätig, wo er die meiste Zeit als Forscher und dann als Professor an der Universität von Oxford tätig war.

2003 kehrte er nach Neuseeland zurück, zunächst als Vorsitzender der Abteilung für Ökologie und Evolution an der Universität von Auckland. 2017 wechselte er als einer der Gründungsprofessoren an das New Zealand Institute for Advanced Study.

Paul Rainey ist derzeit Direktor der Abteilung für mikrobielle Populationsbiologie am Max-Planck-Institut für Evolutionsbiologie in Plön (seit 2017), Professor am ESPCI in Paris und hat eine zusätzliche Professur am NZIAS in Auckland inne.

Er ist Fellow der Royal Society of New Zealand, Mitglied der EMBO und Honorarprofessor an der Christian-Albrechts-Universität in Kiel (seit 2019). Wissenschaftliches Mitglied der MPG

Forschungsinteressen: Rainey untersucht an Bakterien den Ursprung von Vielzelligkeit und Kooperation. Besonders interessiert ihn die Entstehung von Individualität während evolutionärer Übergänge. Die Ergebnisse der Untersuchungen sind in mehr als 80 Veröffentlichungen (siehe homepage) niedergelegt.


Artikel im ScienceBlog:

02.11.2023: Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?


 

inge Thu, 02.11.2023 - 17:07

Helmut Rauch

Helmut Rauch

Helmut RauchEm. o. Univ. Prof. DI Dr. Helmut Rauch

(1939 - 2019)

hat an der Technischen Universität Wien Technische Physik studiert und sich für das Fachgebiet „Neutronen- und Reaktorphysik“ habilitiert. Er war langjähriger Vorstand des Instituts für Experimentelle Kernphysik, des Instituts für Kernphysik (beide TU Wien) und des Atominstituts der österr. Universitäten und Präsident des Fonds zur Förderung Wissenschaftlicher Forschung. Er ist Träger zahlreicher Auszeichnungen und Mitglied hochrangiger Gesellschaften und Kommissionen. Forschungsschwerpunkte: Neutronen- und Festkörperphysik, Quantenmechanik.

Werdegang

Geboren 22. Jänner 1939 in Krems/Donau, Österreich,
Eltern Johann Rauch, Bundesbahnbeamter und Hermine Rauch (geb. Weidenauer)
Persönliches seit 27. Februar 1965 verheiratet mit Annemarie Rauch (geb. Krutzler) Kinder: Dr. Peter Rauch (*4.2.1962), Mag. Dr. Astrid Bucher (*18.7.1964), Dipl.-Ing. Dr. Christoph Rauch (*10.05.1970). Römisch-katholisches Religionsbekenntnis; parteiungebunden

Ausbildung

1944-1947 3 Klassen Volksschule in Mautern/Donau
1947-1948 4. Klasse Volksschule in Pinkafeld/Bgld.
1948-1957 Bundesrealgymnasium Oberschützen/Bgld. Reifeprüfung am 22.Juni 1957
1957-1962 Studium der Technischen Physik an der TU Wien 2. Staatsprüfung am 30. Juni 1962
1962-1966 Doktoratsstudium an der TU Wien mit dem Dissertationsthema "Anisotroper ß-Zerfall nach Absorption polarisierter Neutronen", Promotion am 1. Juli 1965

Berufliche Tätigkeit

1962-1972 Universitätsassistent am Atominstitut der Österreichischen Universitäten bei o.Prof.Dr.G. Ortner
1970 Habilitation an der TU Wien für das Fachgebiet "Neutronen- und Reaktorphysik" am 16. April 1970
1972 Erweiterung der Lehrbefugnis auf die Universität Wien am 11. März 1972
1972 Berufung zum ordentlichen Universitätsprofessor für Experimentelle Kernphysik an der TU Wien am 1. März 1972
1972-1979 Vorstand des Instituts für Experimentelle Kernphysik der TU Wien
1979-1980 einjähriger Gastaufenthalt am Institut für Festkörperphysik an der Kernforschungsanlage Jülich, Deutschland
1980-1996 Vorstand des Instituts für Kernphysik der TU Wien (abwechselnd mit o.Prof.Dr.G. Eder)
1972-2007 Vorstand des Atominstituts der Österreichischen Universitäten
2009 Gastwissenschaftler am Institut Laue-Langevin in Grenoble
2010 Gastprofessor an der TU-München und TU-Prag

Wissenschaftliche Tätigkeit

Bisher über 400 wissenschaftliche Veröffentlichungen aus dem Gebiet der Neutronen- und Festkörperphysik und über Grundlagenexperimente zur Quantenmechanik. Autor des Fachbuches „Neutron Interferometry“, Clarendon Press, Oxford 2000 (gemeinsam mit S.A. Werner). Mitherausgeber der Zeitschrift „Kerntechnik“, des „Czechoslovak Journal of Physics“ und von „Nuclear Instruments and Methods A“. Zahlreiche Vorträge bei internationalen Konferenzen sowie Mitwirkung in verschiedenen Tagungskomitees

1962-1972 Aufbau verschiedener Neutronen-Strahlrohrexperimente am TRIGA Mark-II Reaktor des Atominstituts der Österr. Universitäten. Besondere Beachtung fanden Untersuchungen mit polarisierten Neutronen (elektronische Neutronen-Chopper), die Entwicklung eines neuartigen Gadolinium-Neutronendetektors sowie der Nachweis der Neutronenbeugung am Strichgitter.
1970-1985 Entwicklung des ersten funktionsfähigen Neutroneninterferometers. Damit Nachweis der Kohärenzfähigkeit von weit separierten Neutronenwellen, erste Verifikation der 4-pi-Symmetrie von Spinoren und des quantenmechanischen Spin-Superpositionsgesetzes. Diese Experimente werden am Neutroneninterferometeraufbau am TRIGA-Reaktor in Wien und am neuen Neutroneninterferometeraufbau am Hochflußreaktor in Grenoble durchgeführt (in Kooperation mit der Universität Dortmund).
1982-jetzt Erster Test einer neutronenoptisch aktiven Komponente in Form eines „neutron magnetic resonance“-Systems. Erprobung eines Perfektkristall-Neutronenresonators, Entwicklung der Neutronen-Quantenoptik, Verifikation von „squeezed neutron states“, Postselektion von Schrödinger-Katzen-Zuständen. Neutronen in mikro-fabrizierten Strukturen, Messung geometrischer Quantenphasen, Nachweis der Kontextualität in Quantensystemen, Experimente mit ultrakalten Neutronen.

Lehrtätigkeit

Vorlesungen über Experimente der Kern- und Teilchenphysik Reaktorphysik 1 und 2 Alternative nukleare Energiesysteme
Praktika Praktische Übungen am Reaktor
Seminare Abhaltung verschiedener Seminare
Betreuung von bisher 45 Diplomarbeiten und 72 Dissertationen

Mitgliedschaften

Österreichische Physikalische Gesellschaft (seit 1965, Vorsitz 1995/96 und 2005/06
Deutsche Physikalische Gesellschaft (seit 1970)
Chemisch-Physikalische Gesellschaft (seit 1971, Vorsitzender 1983/84)
Academia Europaea (seit Mai 1990)
Österreichische Akademie der Wissenschaften (seit 15. Mai 1990)
Deutsche Akademie der Naturforscher „Leopoldina“, Halle (seit 1995)

Auszeichnungen

1967 Felix Kuschenitz-Preis der Österr. Akademie der Wissenschaften
1977 Erwin Schrödinger-Preis der Österr. Akademie der Wissenschaften
1979 Kulturpreis für Wissenschaften des Landes Niederösterreich
1985 Wilhelm Exner-Medaille des Österreichischen Gewerbevereins
1986 Kardinal Innitzer Würdigungspreis
1992 Honorarprofessor University of Science & Technology, Hefei, China
1993 Preis der Stadt Wien für Naturwissenschaften und Technik
2000 Ernst Mach-Ehrenmedaille der Tschechischen Akademie der Wissenschaften
2007 Ludwig Wittgenstein Preis der Österreichischen Forschungsgemeinschaft
2010 Doctor honoris causa, Akademie der Wissenschaften der Ukraine

Funktionen außerhalb des Instituts

1984-1992 Mitglied der Kommission für "Struktur und Dynamik kondensierter Materie der Internat. Union für Reine und Angewandte Physik IUPAP
1985-1990 Vizepräsident des Fonds zur Förderung der Wissenschaftl. Forschung FWF
1990-1993 Mitglied des Wissenschaftl. Rats des Instituts Laue-Langevin, Grenoble
1991-1994 Präsident des Fonds zur Förderung der Wissenschaftlichen Forschung FWF
1996-1999 Mitglied des Executive Council der European Science Foundation ESF
1999-2005 Mitglied des Executive Council der European Neutron Association ENSA
2005-2008 Mitglied des General Assembly der IUPAP
1995-1996
2005-2007
Vorsitzender Österreichische Physikalische Gesellschaft ÖPG

Atominstitut Technische Universität Wien Stadionallee 2 1020 Wien/Österreich Tel: +43-1-58 801-141 400 Fax: +43-1-58 801-141 99 e-mail: rauch@ati.ac.at Jänner 2011


Artikel von Helmut Rauch im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:56

Heinz Redl

Heinz Redl

Heinz RedlUniv.Prof. DI Dr. Heinz Redl

Direktor des Ludwig Boltzmann Instituts für klinische und experimentelle Traumatologie
Donaueschingenstraße 13, A-1200 Vienna

Website: http://trauma.lbg.ac.at/

Heinz Redl wurde 1952 in Wien geboren und ist dort aufgewachsen.

Ausbildung

1962 – 1970 Gymnasium, BRG XII, Wien
1970 – 1975 Studium: Technische Biochemie an der Technischen Universität (TU), Wien Sponsion: Diplomingenieur
1975 – 1979 Doktorarbeit in Biochemie an der TU, Wien Promotion: Dr. (PhD)
1978 – 1982 Postdoctoral Felllow am Forschungsinstitut für Traumatologie der Allgemeinen Unfallsversicherungsanstalt (AUVA), Wien

Berufliche Laufbahn

1974 – 1975 Wissenschaftliche Hilfskraft am Institut für Technische Mikroskopie (Prof.Dr.Stachelberger), TU, Wien
1975 – 1978 Assistent am Institut für Technische Mikroskopie (Prof.Dr.Stachelberger), TU, Wien
1976 – 1998 Konsulent für das Forschungsinstitut für Traumatologie (AUVA) , Wien
1978 – Konsulent für Geweberegeneration und Intensivmedizin (verschiedene Firmen)
1980 – 1995 Forscher am Ludwig Boltzmann Institut (LBI) für Experimentelle und klinische Traumatologie (Direktor Prof.Dr.G.Schlag)
1983 – Univ.Professor am Institut für chemische Verfahrenstechnik, TU Wien
1995 – 1998 Stellvertretender Direktor des LB) für Experimentelle und klinische Traumatologie (Direktor Prof.Dr.G.Schlag)
1998 – Direktor des LBI für Experimentelle und klinische Traumatologie
2006 – Koordinator des österreichischen Forschungscluster für Geweberegeneration Adjunct Prof. Anaesthesiology, Galveston, University of Texas Medical Branch

Funktionen

Sekretär der European Shock Society (bis 2000) Präsident der European Shock Society (2002 – 2005) Ratsmitglied der US Shock Society Sekretär der Federation of the International Shock Societies (2005-2009) Präsidium des Lorenz Böhler Fonds ( - 2006, 2011-) Forschungskuratorium der AO (Arbeitsgemeinschaft für Osteosynthesefragen) (1998 – 2006) Schaffung des „Günther Schlag Nachwuchsförderungspreis“ Nominierung Committee TERMIS-EU Visiting Professor Peter Safer Center, Pittsburgh 2003 Congress President 3rd TERMIS World Congress 2012 Wissensch. Beirat ACMIT (2012-) (Austrian Center for Medical Innovation and Technology) President elect TERMIS-EU 2013

Auszeichnungen

  • 1986Forschungspreis der Österreichischen Gesellschaft für klinische Chemie und MERCK AUSTRIA 2001Lorenz-Böhler-Medaille
  • 2012Karl Landsteiner Memorial Lecture (DGTI)
  • 2012Nominiert (Dreierliste) “Österreicher des Jahres (Forschung)
  • 2013Wilhelm-Exner-Medaille

Veröffentlichungen

Mehr als 390 in Fachzeitschriften Herausgeber einiger Bücher und Buchkapitel Mehr als 10 Patente

Forschungsschwerpunkte

Allgemein

  • Diagnostische und therapeutische Maßnahmen bei Verletzungen

Spezifisch

  • Fibrin Matrix für Zellen und Wachstumsfaktoren und deren Anwendung
  • Adulte Stammzellen (inklusive iPS)
  • Präklinische Modelle für Skelettmuskel/Neuro-Gebiet
  • Bildgebende Verfahren
  • Translationale Methoden

Heinz Redl ist Mitglied zahlreicher nationaler und internationaler Gesellschaften, die ein breites Spektrum an Fächern abdecken (Von biomedizinischen Gebieten und Verfahrenstechniken, Stammzellforschung bis zu Schock und Unfallchirurgie).

Er ist im Editorial Board mehrerer Zeitschriften: Shock, European Journal of Trauma, European Cells and Materials, Journal of Tissue Engineering and Regenerative Medicine und fungiert als Reviewer für wichtige Zeitschriften in den Gebieten Geweberegeneration und Intensivmedizin.


Artikel von Heinz Redl auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:54

Kurt Redlich

Kurt Redlich

Kurt RedlichSchwerpunkt der wissenschaftlichen Arbeit von Dr. med. Kurt Redlich ist die Erforschung der Mechanismen, die zur Gelenkzerstörung bei Patienten mit chronischer Polyarthritis führen. Am 8.4.1966 in Wien geboren, besuchte Redlich von 1976-1985 das Naturwissenschaftliche Realgymnasium in Wien VII, wo er am 30.5.1985 die Reifeprüfung ablegte. Neben seinem Studium an der medizinischen Fakultät der Universität Wien, das er 1994 mit der Promotion zum Dr. med. univ. abschloss, arbeitete er seit 1991 bei Prof. Peterlik am Institut für allgemeine und experimentelle Pathologie der Universität Wien. Forschungsschwerpunkte waren damals einerseits die Auswirkungen von Kalzium-Kanal Blockern auf den Knochenstoffwechsel, andererseits Untersuchungen über Effekte von verschiedenen Vitamin D analogen Substanzen auf die Osteoklastogenese. Sein starkes Interesse an der Verknüpfung von wissenschaftlicher und klinischer Tätigkeit führte ihn schließlich 1995 an die Abteilung für Rheumatologie der Universitätsklinik für Innere Medizin III. Seine Facharztausbildung, die er 2003 abschloss, umfasste unter anderem auch Rotationen an die Abteilungen für Onkologie, Angiologie, Infektiologie, Gastroenterologie sowie Notfallmedizin der Universitätsklinik Wien. Ein besonderes Anliegen ist Dr. Redlich auch die Ausbildung der Studenten. Er leitete zahlreiche Praktika, Intensivkurse und Vorlesungen vor allem mit dem Ziel, die praktische Anwendung des theoretisch erworbenen Wissens zu fördern. Im Rahmen eines Studienaufenthaltes in den USA 1995/96 an der University of Birmingham bei Prof. Steffen Gay hatte Dr. Redlich die Möglichkeit, sich mit der Rolle von Gelenkfibroblasten in einem Tiermodell der chronischen Polyarthritis vertraut zu machen. In weiterer folge publizierte er mehrere Arbeiten über die Rolle der Osteoklasten bei der chronischen Polyarthritis. 2004 wurde er mit dem Theodor-Billroth Preis der Ärztekammer ausgezeichnet. Im März 2004 erlangte Dr. Redlich die venia docendi für das Fach Innere Medizin mit der Habilitationsschrift „Pathogenese der erosiven Arthritis“. Im Oktober 2004 wurde Dr. Redlich zum Oberarzt ernannt.


Artikel von Kurt Redlich im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:53

Guy Reeves

Guy Reeves

Guy ReevesMax-Planck-Institut für Evolutionsbiologie, Abteilung Evolutionsgenetik (Diethard Tautz)

http://web.evolbio.mpg.de/~reeves/Site/GuyReeves.html

Guy Reeves hat an der Leeds Universität (UK) Genetik studiert , seine Doktorarbeit am Smithsonian Tropical Research Institute Panama ausgeführt und im Fach Molekulare Phylogenetik an der University of Newcastle-Upon-Tyne (UK) promoviert (PhD).

Zur Zeit forscht er als PostDoc am Max-Planck-Institut für Evolutionsbiologie (Plön).

Forschungsinteressen: Genetisch modifizierte Insekten: Standards und Vektorkontrolle, genetische Unterdominanz zur Schädlingskontrolle, Informieren der Öffentlichkeit


Artikel von Guy Reeves auf ScienceBlog.at:

Redaktion Wed, 08.05.2019 - 21:20

Christian Reick

Christian Reick

Christian Reick

Dr.Christian Reick hat Theoretische Physik studiert an den Universitäten Köln, Innsbruck und Hamburg.

Promotion 1990 über chaotische Systeme an der Universität Hamburg.

Danach Postdoc an der Universität Wuppertal und der Technischen Universität Dänemarks in Kopenhagen. 1995 Wechsel in die Umweltwissenschaften mit Aufenthalten am Wuppertal Institut für Klima, Umwelt, Energie (Arbeitsgruppe Systemanalyse und Simulation), der Universität Hamburg (Forschungsgruppe Umweltinformatik) und dem Alfred-Wegener-Institut Bremerhaven.

2002 Wechsel an das Max-Planck-Institut für Meteorologie. Dort seit 2006 Leiter der Arbeitsgruppe Globale Vegetationsmodellierung.

Derzeitiger Forschungsschwerpunkt ist der Einfluss des Menschen auf den globalen Kohlenstoffkreislauf. Ein weiteres aktuelles Interessengebiet betrifft geometrische Regelmäßigkeiten in Pflanzen (Phyllotaxis).

http://www.mpimet.mpg.de/en/science/the-land-in-the-earth-system/working-groups/global-vegetation-modelling.html


Artikel von Christian Reick auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:52

Ortwin Renn

Ortwin Renn

Ortwin RennProf. Dr. Dr. h.c. Ortwin Renn ist Ordinarius für Umwelt- und Techniksoziologie (www.uni-stuttgart.de/soz/tu), Dekan der wirtschafts- und sozialwissenschaftlichen Fakultät sowie Direktor des Zentrums für Interdisziplinäre Risiko- und Innovationsforschung an der Universität Stuttgart (http://www.zirius.eu/). Homepage: http://www.ortwin-renn.de/

Ortwin Renn (Jg 1951) hat Volkswirtschaftslehre, Soziologie und Journalistik in Köln studiert im Fach Sozialpsychologie an der WISO-Fakultät der Universität Köln promoviert.

Beruflicher Werdegang

Renn arbeitete als Wissenschaftler und Hochschullehrer in den USA (1986–1992 Professor für Umweltwissenschaften, Clark University, Worcester), der Schweiz (1992–1993 Gastprofessor an der Abteilung Umweltnaturwissenschaften, ETH Zürich) und Deutschland.

Von 1992–2003 war er Mitglied des Vorstandes der Akademie für Technikfolgenabschätzung in Baden-Württemberg, von 2001–2003 als leitender Direktor.

Seit Dezember 2003 ist er Direktor des Zentrums für Interdisziplinäre Risikoforschung und nachhaltige Technikentwicklung (ZIRN) am Internationalen Zentrum für Kultur- und Technikforschung (IZKT) der Universität Stuttgart.

Von 2006 bis 2012 leitete er den Nachhaltigkeitsbeirat des Landes Baden-Württemberg und war Mitglied in der von Bundeskanzlerin Angela Merkel berufenen Ethikkommission „Zukunft der Energieversorgung“.

Von 2103 bis 2014 gehörte er dem „Science and Technology Advisory Council“ an, einem Beraterstab für EU-Kommissionspräsident Jose Manuel Barroso. Im Jahre 2013 wurde er für ein Jahr zum Präsidenten der Internationalen Gesellschaft für Risikoanalyse (SRA) ernannt.

Renn gründete das Forschungsinstitut DIALOGIK, eine gemeinnützige GmbH, deren Hauptanliegen in der Erforschung und Erprobung innovativer Kommunikations- und Partizipationsstrategien in Planungs- und Konfliktlösungsfragen liegt (www.dialogik-expert.de).

Gemeinsam mit Prof. Armin Grunwald leitet Renn die Helmholtz Allianz „Zukünftige Infrastrukturen der Energieversorgung. Auf dem Weg zur Nachhaltigkeit und Sozialverträglichkeit“.

Seit 2007 ist Renn außerdem Honorarprofessor der Universität von Stavanger für „Integrated Risk Research“, seit 2009 Gastprofessor an der Normal University in Peking und seit 2011 Ehrenprofessor an der Technischen Universität München.

Mitgliedschaften und Auszeichnungen

Renn ist Mitglied im Präsidium der Deutschen Akademie für Technikwissenschaften (Acatech) und im Senat der Berlin-Brandenburger Akademie der Wissenschaften (BBAW). Er gehört zahlreichen weiteren wissenschaftlichen Beiräten, Kuratorien und Kommissionen an.

Renn ist u.a. Ehrendoktor der ETH Zürich, Ehrenprofessor der Technischen Universität München. Er erhielt den „Distinguished Achievement Award“ der Internationalen Gesellschaft für Risikoanalyse (Society for Risk Analysis) sowie in Anerkennung seiner wissenschaftlichen Leistungen im In- und Ausland das Bundesverdienstkreuz Erster Klasse.

Hauptforschungsfelder

  • Risikoanalyse (Governance, Wahrnehmung und Kommunikation),
  • Theorie und Praxis der Bürgerbeteiligung bei öffentlichen Vorhaben,
  • sozialer und technischer Wandel in Richtung einer nachhaltigen Enzwicklung.

Publikationen

  • über 30 Monografien und editierte Sammelbände,
  • mehr als 250 wissenschaftliche Publikationen (siehe http://www.ortwin-renn.de/node/7 ).

Zahlreiche Publikationen und Vorträge können von http://www.ortwin-renn.de/node/13 heruntergeladen werden. Besonders hervorzuheben sind sein 2014 erschienenes Buch „Das Risikokoparadox. Warum wir uns vor dem Falschen fürchten“ (Fischer: Frankfurt am Main) sowie sein 2008 erschienenes Werk: "Risk Governance" (Earthscan: London).


Artikel von Ortwin Renn auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:51

Anthony Robards

Anthony Robards

Anthony RobardsProf. Anthony Wiliams Robards OBE, PhD, DSc Vorsitzender des Yorkshire Krebsforschungskuratoriums, York, UK Direktor AWR 1 Associates Emeritus Professor, University of York

Der Biowissenschafter Tony Robards (Jg. 1940) hat nach dem Besuch der Skinner’s School, Tunbridge Wells, am University College London Biologie studiert. Er wurde dort zum PhD promoviert und an der Universität London zum D. sc. (Doctor of Science). Bereits 1966 erhielt Robards eine Berufung an die Universität York. Auf einem Lehrstuhl ad personam verbrachte er mehr als 40 Jahre seiner akademischen Karriere, war über längere Zeit auch Vice-Pro-Chancellor der Universität York und HSBC-Professor für Innovation. Seit seiner Emeritierung ist Robards sowohl weiterhin für die Universität York als auch in leitender Funktion für Unternehmen und gemeinnützigen Organisationen tätig.

Seit vielen Jahren spielt Robards eine zentrale Rolle an der Schnittstelle von Unternehmertum und Universität York. In dieser Funktion startete er zahlreiche Initiativen zur Förderung von Innovation und Startups; u.a. war er Gründer des Venturefest Yorkshire und Mitbegründer der Science City York. Er war Präsident der York und Nord-Yorkshire Handelskammer und non-executive director einer Reihe von Unternehmen des privaten und öffentlichen Sektors. Die folgende Liste ist eine unvollständige Aufzählung seiner wesentlichen Aktivitäten: 1995 – 2012 Non-executive director: York Science Park Ltd. 1996 – 2004 Pro-Vice-Chancellor for External Relations, Universität York 2001 – 2008 HSBC Professor für Innovation, Universität York 2003 – 2012 Non-executive director: Pro-Cure Therapeutics Ltd. 2005 – 2014 Non-executive director: Avacta Group plc. 2007 - Chairman Yorkshire Krebsforschungskuratorium 2009 - Professor at AWR1 Associates 2010 - 2012 Executive chairman bei: York Science and Innovation Grand Tour Von besonderer Bedeutung erscheint seine Initiative „York Science and Innovation Grand Tour“, die im Sommer 2012 stattfand : Die ganze Stadt York wurde Ausstellungsort - an Mauern, Hauswänden, in Parks waren großartige Bilder aus der in York betriebenen Wissenschaft ausgestellt und interaktiv konnten Besucher Details über das Dargestellte erhalten. Es war Wissenschaftskommunikation par excellence! In Anerkennung seiner “Verdienste um höhere Bildung” (Services to Higer Education), die aus seiner Vermittlerrolle zwischen Akademie, Unternehmertum und gemeinnützigen Organisationen entstanden, wurde Tony Robards von der englischen Königin mit dem Orden of the British Empire (OBE) geadelt.

Wissenschaftliches Opus

Zentrales Thema: Ultrastrukturen der pflanzlichen Zelle -untersucht mittels Elektronenmikroskopie - und deren Dynamik. Diese Pionierarbeiten wurden in 149 Arbeiten in peer reviewed Journalen publiziert (Thomson Reuters Web of Science, abgerufen am 21. Feber 2016). Dazu gibt es auch zahlreiche Buchkapitel und Bücher. Besonders zu erwähnen ist ein Standardwerk in der angewandten Elektronenmikroskopie, das Robards zusammen mit unserem ScienceBlog Autor Uwe Sleytr verfasst hat: A.Robards . U.Sleytr (1985) „Low Temperature Methods in Biological Electron Microscopy [Practical methods in electron microscopy]”.


Artikel von Anthony Robards im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:50

Duška Roth

Duška Roth

MA Duška Roth

freie Autorin

*1980 in Zagreb (Kroatien)

Roth lebt seit 1991 in Deutschland.

Ausbildung:

Studium von 2000 – 2002 Ethnologie, Medienwissenschaften und Kunstgeschichte an der Philipps-Universität Marburg und von 2002 - 2010 Ethnologie und Kunstgeschichte an der Eberhard-Karls-Universität in Tübingen. Abschluss MA Sozial-und Kulturanthropologie.

Oktober 2014 - Dezember 2015: Bikultureller Crossmedialer Journalismus am BWK - BildungsWerk Kreuzberg

Berufserfahrung

2003 - 2011 u.a. Mitarbeiterin am Kulturreferat der Universität Tübingen, am Studierendenwerk Tübingen-Hohenheim, am Kompetenzzentrum für Hochschuldidaktik in Medizin Baden-Württemberg und als Projektkoordinatorin des Nachhilfeprojekts "Schüler helfen Schülern"

2011 -2012: Projektkoordinatorin am Max-Planck-Institut für ethnologische Forschung (Halle/Saale)

2013 - 2014: Sprachenschule in Baku (Aserbaidschan): Deutsch, Englisch

Seit 2014: freie Autorin

(Quelle: https://www.xing.com/profile/Duska_Roth undhttps://www.linkedin.com/in/duskaroth/?originalSubdomain=de


Artikel im ScienceBlog

20.07.2023: Wenn das Wasser die Menschen verdrängt - Megastädte an Küsten


 

inge Thu, 24.08.2023 - 12:31

Robert Rosner

Robert Rosner

Robert W. RosnerDr. Robert W.Rosner

Robert Rosner wurde 1924 in Wien geboren. Seine Familie stammte aus der Bukowina und war während des 1. Weltkriegs nach Wien geflüchtet. 1939 kam er mit einem Kindertransport nach England. Dort arbeitete er erst in einer Schneiderei, dann in einer Holzbearbeitungsfirma und schließlich als Dreher in der Rüstungsindustrie. Während dieser Zeit gelang es ihm in Abendkursen die Matura abzulegen.

1946 kehrte Rosner nach Wien zurück und begann 1947 an der Universität Wien mit dem Chemiestudium, das er 1955 mit dem Doktorat abschloss. Von 1956 an arbeitete er als Chemiker in der Loba-Chemie, einem neu, zur Produktion organischer Reagenzien gegründeten Unternehmen, das erfolgreich eine breite Palette an Reagenzien weltweit exportierte.

Nach seiner Pensionierung im Jahr 1990 studierte Rosner an der Universität Wien Politikwissenschaft und Wissenschaftsgeschichte und schloss 1997 mit dem Magisterium ab. Seither hält Rosner Vorträge und veröffentlicht Artikel und Bücher, die sich mit Wissenschaftsgeschichte, insbesondere mit der Geschichte der Chemie beschäftigen.

Seiner Freundschaft mit dem gleichaltrigen, ebenfalls aus Wien vertriebenen Chemiker Alfred Bader - dem Gründer des weltweit führenden Herstellers und Händlers von chemischen, biochemischen und pharmazeutischen Forschungsmaterialien Sigma-Aldrich - ist es zu verdanken, dass Bader den hochrenommierten Liebenpreis "wiederbelebte", der an Wissenschafter aus dem Gebiet der ehemaligen k.u.k Monarchie für "herausragende Arbeiten auf dem Gebiet der Molekularbiologie, Chemie und Physik" verliehen wird. (Dazu im Scienceblog: Christian Noe: http://scienceblog.at/das-ignaz-lieben-projekt-%E2%80%94-%C3%BCber-momente-zuf%C3%A4lle-und-alfred-bader#) -

Auswahl an historischen Arbeiten

Der Ignaz Lieben Preis. Ein österreichischer Nobelpreis (1997), Chemie Das österr. Magazin für Wirtschaft und Wissenschaft Probleme der Organischen Chemie und die Lage der Chemie in Österreich zur Zeit von Loschmidts Veröffentlichung „Chemische Studien“ (1997) 138 S. Akademische Druck-und Verlagsanstalt Graz Organic Chemistry in the Habsburg Empire between 1845-1865, AMBIX , (2002) The Journal of the society for the history of alchemy and chemistry Marietta Blau - Sterne der Zertrümmerung (2003) 228 S. Robert Rosner, Brigitte Strohmaier (Hg) Böhlau Verlag CHEMIE IN ÖSTERREICH 1740-1914 Lehre, Forschung, Industrie (2004) 359 S. Böhlau Verlag Frauen in den Naturwissenschaften an der Universität Wien und an der deutschen Universität Prag 1900-1919 (2012), Mitteilungen der österreichischen Gesellschaft für Wissenschaftsgeschichte 29 Die Chemischen Institute der Universität Wien (2015) Werner Soukup und Robert Rosner in Reflexive Innensichten aus der Universität. Vienna University Press
----------------------------------------------------------------------------------------
Das Foto von Robert Rosner stammt von F.J. Morgenbesser und steht unter einer cc-by-sa 2.0 Lizenz (https://www.flickr.com/photos/vipevents/15735571565/in/photostream/)


Artikel von Robert Rosner auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:49

Erich Rummich

Erich Rummich

Erich RummichUniv.Prof. i.R. Dipl.-Ing.Dr.techn. Erich Rummich (Jg 1942) hat nach seiner Matura an der HTL in Wien 4. an der Technischen Hochschule in Wien Elektrotechnik studiert. Nach Abschluß des Studiums war er von 1967 bis 1973 Assistent am Institut für Elektrische Maschinen (Leitung Prof. Stix) und habilitierte sich dort auf dem Gebiet der elektrischen Maschinen. 1975 erhielt Rummich die Professur für elektrische Maschinen und nichtkonventionelle Energiesysteme am Institut für Elektrische Maschinen und Antriebe an der Technischen Universität Wien. In den Jahren 1996 bis 1998 war er Institutsvorstand des Institutes für Elektrische Maschinen und Antriebe und leitete außerdem das Institut für Hochspannungstechnik und Elektrische Schaltgeräte.

Professor Rummich hat zahllose Maschinenbaustudenten in den Fächern Elektrotechnik und Elektronik ausgebildet. Seit 1976 hält er Vorlesungen über Elektrische Maschinen, Nichtkonventionelle Energiewandlung, Energiespeicher, Solarenergie, etc. an der Technischen Universität Wien. Seit 1980 lehrt er auch über nichtkonventionelle Energienutzung an der Universität für Bodenkultur in Wien.

Von den wissenschaftlichen Publikationen Rummich sind vor allem Bücher über Graphentheorie, nichtkonventionelle Energienutzung und Schrittmotoren hervorzuheben. Zum Thema seines Blog-Beitrags hat er in den letzten Jahren die Bücher „Elektrische Schrittmotoren und –antriebe“ (2007), „Energiespeicher: Grundlagen - Komponenten - Systeme und Anwendungen“ (2009) und „Elektrische Straßen- und Hybridfahrzeuge“ (2012) veröffentlicht.


Artikel von Erich Rummich im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:48

Bernhard Rupp

Bernhard Rupp

Bernhard RuppBernhard Rupp, Ph.D., M.Sc., Dr. habil. 01.01.1956, Vienna, Austria; Citizen of Austria, EU Legal Alien, USA

Nach dem Studium der Chemie, Physik, und Mathematik promovierte Bernhard Rupp 1984 an der Universität Wien in Physikalischer Chemie mit Arbeiten an der molekularen Struktur von Metalhydriden. Während seiner post-doctoral fellowships in Wien, Jerusalem, Jülich und der ETH Zürich forschte er an der Struktur und Funktion von Materialien in Energiespeicherung, Supraleitung, Magnetismus und Biomaterialien.

1989 kam er durch ein postdoctoral fellowship der University of California, Berkeley, an das Lawrence Livermore National Laboratory (UC-LLNL), wo er nach Arbeiten in Strukturaufklärung mittels Synchrotron-Strahlung in Stanford und Brookhaven 1992 die Proteinkristallographie aufbaute.

1998 erhielt er die venia docendi in Molekularer Strukturbiologie an der Universität Wien.

Als Gründungsmitglied eines Structural Genomics Consortiums expandierte er ab 1999 in Hochdurchsatzkristallographie und strukturgeleitete Wirkstoffforschung. Zahlreiche Entwicklungen in Hochtechnologie und Robotics aus seinem Laboratorium und Unternehmen in wurden kommerzialisiert und finden sich heute in fast allen Strukturbiologielaboratorien.

Ab 2006 gründete Dr. Rupp mit private Investment startups in high throughput structure determination and drug discovery technologies in San Diego.

In der Lehre engagiert sich Dr. Rupp in on-line Training in Proteinkristallographie, sowie Organisation und Teilnahme als Vortragender und Tutor an zahlreichen Workshops.

2009 erschien sein weltweit erfolgreiches Lehrbuch „Biomolecular Crystallography: Prinicples, Practice, and Application to Structural Biology“. Neueste Arbeiten konzentrieren sich auf wissenschaftliche Epistemologie sowie Validierung und Qualitätsverbesserung von Protein-Ligandenstrukturen, mit besonderer Betonung auf notwendiges Training und bessere Vorbereitung angehender Strukturbiologen.

Dr. Rupp hat über 130 wissenschaftliche Arbeiten, Reviews und Buchbeiträge verfasst und ist gewähltes Mitglied des US National Academies of Sciences Committee for Crystallography (USNC/Cr).

Dr. Rupp residiert an der Pazifikküste in Südkalifornien bei San Diego und ist gegenwärtig Gast an der Medizinischen Universität Innsbruck im Rahmen eines hochkompetitive Forschungsprojektes aus dem Bereich „People“ des 7. EU Rahmenprogrammes. Seine Arbeit an multifunktionellen Glykoproteinen wird durch ausgedehnte Vortrags-und Lehrtätigkeit im Rahmen von EMBO und Instruct Workshops in der EU ergänzt. Links zu: Buchseite „Biomolecular Crystallography: Principles, Practice and Application to Structural Biology“: www.ruppweb.org/garland/ Wissenschaftliche Arbeiten: tinyurl.com/bwcckb5 Vorträge: tinyurl.com/c2n8x4m


Artikel von Bernhard Rupp auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:47

Autoren S

Autoren S Redaktion Tue, 19.03.2019 - 10:15

Karin Saage

Karin Saage

Karin SaageKarin Saage ist Altphilologin (und Eva Sinners Schwester).

1969 in Ulm geboren
1979-1988 humanistisches Kaiser-Wilhelm Gymnasium, Hannover
Studium Griechisch und Latein an der Universität Kiel
Beruf unterrichtet Griechisch an einem Gymnasium in Lübeck

Artikel von Karin Saage im ScienceBlog

Redaktion Thu, 04.07.2013 - 11:47

Niyazi Serdar Sariciftci

Niyazi Serdar Sariciftci

Niyazi Serdar Sariciftcio.Prof. Mag. DDr. h.c. Niyazi Serdar Sariciftci

Gründer und Leiter des Linzer Instituts für Organische Solarzellen LIOS und
Vorstand des Instituts für Physikalische Chemie, Universität Linz

http://www.jku.at/ipc/content

Sariciftci (Jg 1961) wurde in Konja (Türkei) geboren, hat in Istanbul das österreichische St.Georgs Gymnasium besucht und daneben am Musikkonservatorium Piano studiert. Nach Wien kam er, um sein Musikstudium fortzusetzen, hat dann aber an der Universität Wien Physik studiert.

Wissenschaftlicher Werdegang

1980 – 1986 Physikstudium an der Universitär Wien; Masterarbeit: Structural phase transitions in the ferroelectric potassium – dihydrogenphosphat
1986 – 1989 Doktorarbeit an der Universität Wien: Spectroscopic investigations on the electrochemically induced metal to insulator transitions in polyaniline (Betreuer : H. Kuzmany und A. Neckel). Promotion zum PhD.
1989 – 1991 Postdoc am 2. Physikalischen Institut der Universität Stuttgart ; Projekt "Molecular Electronics" (DGG, SFB 329)
1992 – 1996 Senior research associate: Institute for Polymers & Organic Solids, University of California , Santa Barbara. Zusammen mit Alan J. HEEGER (Nobelpreis für Chemie, 2000): Entwicklung der Grundlagen für polymere, organischeSolarzellen
1992 Habilitation; Central Interuniversitary Commission (YÖK) in Ankara, Türkei.
1996 – Ordinarius und Vorstand des Instituts für Physikalische Chemie, Universität Linz
2000 – Gründungsdirektor und Vorstand des Linzer Instituts für Organische Solarzellen LIOS, das bereits zu den weltweit führenden Einrichtungen in diesem Gebiet zählt.

Auszeichnungen und Mitgliedschaften

Ehrendoktorate der Abo Academy (Turku, Finland) und der Universität Bukarest Nakamura Award of the University of California, Santa Barbara, USA (2012) Wittgenstein-Preis (2012) Kardinal-Innitzer-Preis (2010) Humanitätsmedaille der Stadt Linz (2010) Österreicher des Jahres (2008), Kategorie Forschung (ORF und Die Presse) Turkish National Science Prize (2006) ENERGY GLOBE Oberösterreich (2003) Grünpreis (2001) gesponsert von den „Grünen Oberösterreich“ Mitgliedschaften: u.a. Fellow der International Society for Optics and Photonics (SPIE), Fellow der Royal Society of Chemistry, Korrespondierendes Mitglied der Österreichischen Akademie der Wissenschaften

Forschungsschwerpunkte

Forschung und Entwicklung neuer Verfahren zur solaren Energieumwandlung (organische Solarzellen, hybride Zellen, neuartige photoaktive Schichten zum effektiveren Lichteinfang, Erhöhung der Flexibilität, Verringerung des Gewichts, Reduktion der Herstellungskosten von Solarzellen, biokompatible und bioabbaubare Elektronik, etc). Verfahren zur Speicherung von regenerativem Strom (vor allem aus Sonnenenergie) unter gleichzeitiger CO2 - Bindung durch Elektro-Biotechnologie: künstliche Photosynthese, Kraftstoffproduktion und CO2-Recycling

Veröffentlichungen

Das bisherige Opus von Sariciftci umfasst rund 600 Publikationen in wissenschaftlichen Zeitschriften. Sariciftci ist einer der meist zitierten Wissenschaftler in seinem Gebiet. In einem weltweiten Ranking der besten Materialwissenschaftler wurde er 2010 vom Web of Science (ISI Thompson Reuter) 2010 als 14. gereiht. Seine Arbeiten sind dort bis jetzt (21. Mai 2015) insgesamt 37 000 mal zitiert worden (die meistzitierte Arbeit mit über 3100 Zitierungen stammt aus dem Jahr 2007: „Conjugated polymer-based organic solar cells".)


Artikel von Niyazi Serdar Sariciftci auf ScienceBlog

Redaktion Tue, 19.03.2019 - 17:39

Sch

Sch Redaktion Tue, 19.03.2019 - 10:18

Gottfried Schatz

Gottfried Schatz

Gottfried SchatzEmer.o.Univ.Prof. Dr. Gottfried Schatz,

  (1936 - 2015) war einer der bedeutendsten Biochemiker unserer Zeit.

Er studierte Chemie und Biochemie an der Universität Graz und forschte an der Universität Wien, am Public Health Reseach Institute New York, an der Cornell University (Ithaca, NY) und am Biozentrum der Universität Basel zum zentralen Thema Mitochondrien. Er war Mitentdecker der mitochondrialen DNA und klärte den Mechanismus des Proteintransports in Mitochondrien auf. Schatz ist Träger vieler hochrangiger Preise und Ehrungen, Mitglied zahlreicher wissenschaftlicher Akademien und Vorsitzender bedeutender Organisationen und Gremien. Mit dem Ziel: „Wissenschaft verständlich machen“ betätigt sich Schatz auch als Essayist und Buchautor.

Schatz, Professor em. für Biochemie an der Universität Basel, wurde 1936 in Strem bei Güssing geboren. Er wuchs in Graz auf, verbrachte ein Jahr seiner Mittelschulzeit als Austauschstudent in Rochester, NY und studierte dann Chemie und Biochemie an der Universität Graz.

Nach der Promotion summa cum laude (1961) begann er am Institut für Biochemie der Universität Wien bahnbrechende Arbeiten zur Biogenese von Mitochondrien, in deren Verlauf er die mitochondriale DNA entdeckte. Während eines postdoc-Aufenthalts am Public Health Research Institute der Stadt New York in der Gruppe von Efraim Racker untersuchte er den Mechanismus der oxydativen Phosphorylierung (1964 – 1966).

Nach einer kurzen Rückkehr nach Wien emigrierte Schatz in die USA und wurde Professor am Department für Biochemie und Molekularbiologie an der Cornell University in Ithaca, NY. 1974 nahm Schatz die Berufung als Professor für Biochemie an das neu erbaute Biozentrum der Universität Basel an, das er von 1983 -1985 auch leitete. Er war dort auch nach seiner Emeritierung (2000) noch tätig. Zu den wichtigsten Arbeiten aus der Basler Zeit zählt die Aufklärung des Mechanismus des Proteintransports in Mitochondrien.

Schatz ist Mitglied zahlreicher wissenschaftlicher Akademien (u.a. der National Academy of Sciences of the USA, der Royal Swedish Society, der Netherlands Academy of Sciences und der Österreichischen Akademie der Wissenschaften) und erhielt renommierte Auszeichnungen (u.a. Louis Jeantet Preis, Marcel Benoist Preis, Gairdner Award, die Krebs Medal, die Warburg Medal, die E.B. Wilson Medal) und Ehrungen (z.B. Großes Silbernes Ehrenzeichen für Verdienste um die Republik Österreich, Österreichisches Ehrenzeichen für Wissenschaft und Kunst, Europäischer Wissenschafts-Kulturpreis).

Schatz war u.a. Generalsekretär der European Molecular Biology Organization (EMBO), Ratsmitglied der Protein Society und Vorsitzender zahlreicher Advisory Boards. Er war Präsident des Schweizerischen Wissenschafts- und Technologierats und ist Präsident des Wissenschaftsrats des Institut Curie (Paris) and Scientific Councillor des Institut Pasteur (Paris).

Er und seine dänische Frau haben drei Kinder.

Dr. Gottfried Schatz verstarb nach langer, geduldig ertragender Krankheit am 1. Oktober 2015.


Gottfried Schatz bei Youtube

»Das Rätsel unserer Lebensenergie«. Von Quentin Quencher zusammengestellte Kurzfassung eines Gesprächs mit Gottfried Schatz im Rahmen der »Sternstunde Philosophie« des Schweizer Fernsehens; Erstausstrahlung: 27.11.2011.

(Und hier finden Sie das vollständige Gespräch von 55'.)


Artikel von Gottfried Schatz im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:36

Christa Schleper

Christa Schleper

Christa SchleperUniv.Prof. Dipl.-Biol. Dr. Christa Schleper

Archaea Biologie und Ökogenomik Division des Dept. für Ökogenomik und Systembiologie

Universität Wien http://genetics-ecology.univie.ac.at/

Christa Schleper (Jg 1962) hat an der Universität Konstanz Biologie (Mikrobiologie, Immunologie und Genetik) studiert und 1993 mit einer Doktorarbeit am Max‐Planck‐Inst. für Biochemie in München (bei Wolfram Zillig) promoviert (PhD)

Wissenschaftlicher Werdegang

1994 – 1995 Postdoc am Max‐Planck‐Inst. für Biochemie in München (bei Wolfram Zillig): Novel strains and genetic elements of hyperthermophilic Archaea
1995 Postdoc am CALTEC, Californian Institute of Technology, Pasadena (bei Mel Simon): Signal transduction in Archaea
1996 – 1997 Postdoc an der Univ. of Sta. Barbara, California, USA (bei Edward Delong): Ecology and evolution of marine Archaea with metagenomics
1998 – 2004 Assistant Professor, Gruppenleiter an der Universität Darmstadt (D), Fokus: Transcriptomics and Metagenomics des Bodens
2004 – 2007 Univ. Professor, Department of Biology, Universität Bergen, Norway
2007 Berufungen an die ETH Zürich (Lehrstuhl für Molekulare Mikrobiologie, EAWAG) and TU München (Lehrstuhl für Mikrobiologie) – abgelehnt
2007 – Univ. Professor an der Universität Wien, Leiterin der Archaea Biologie und Ökogenomik Division des Dept. für Ökogenomik und Systembiologie Adjunct Professor am Center of Excellence for Geobiology, University of Bergen, Norway

Auszeichnungen und Mitgliedschaften

Korrespondierendes Mitglied der Österreichischen Akademie der Wissenschaften (2013), Gewähltes Mitglied der American Academy of Microbiology (2012), EMBO Young Investigator Award 2000, Post-Doctoral Fellowship der Deutschen Forschungsgemeinschaft

Forschungsschwerpunkte

  • Ökologie, Genetik und Evolution von Archaea . Fokus auf Ökologie und Metabolismus der Ammoniak-oxdierenden Archaea und auf DNA-Transfer und Virus-Wirtsorganismus Wechselwirkungen.
  • Entwicklung und Anwendung metagenomischer und metatranskriptomischer Ansätze zur Untersuchung mikrobieller Systeme (terrestrische und arktische Gebiete, System Wirt-Mikroben).

Berufliche Aktivitäten

  • Editor und Co-Editor von wissenschaftlichen Zeitschriften und Bänden (ISME Journal, Current Opinion in Microbiology, Environmental Microbiology )
  • Koordination von Projekten (INFLAMMOBIOTA, international Era-Net project: SulfoSYS)
  • Internationale Kooperationen mit Gruppen der Universitäten: München, Tromso (Norwegen), Kuopio (Finland), Lyon (France), Uppsala (Sweden), dem Helmholtz Zentrum München, dem Bigelow Laboratory, East Boothbay (US).
  • Organisation zahlreicher (internationaler) Tagungen
  • Mitglied der Kommission für interdisziplinäre ökologische Studien (KIÖS) der Österreichischen Akademie der Wissenschaften
  • Evaluierungsgremium des Leibniz Instituts DSMZ
  • Mentoring Programme

Veröffentlichungen

Christa Schleper hat bisher 117 Artikel in höchst renommierten wissenschaftlichen Zeitschriften (u.a. Nature, PNAS) veröffentlicht (h-faktor 45). Die am häufigsten zitierte Publikation wurde schon mehr als 1000 x zitiert (Web of Science, ISI Thompson Reuter, 6/2015). Eine ausführliche Liste der Publikationen findet sich unter: http://genetics-ecology.univie.ac.at/files/cv_schleper_10-2014.pdf und http://genetics-ecology.univie.ac.at/publications.html


Artikel von Christa Schleper auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:34

Robert Schlögl

Robert Schlögl

Robert SchlöglProf. Dr. Robert Schlögl
Geschäftsführender Direktor
Abteilung Heterogene Reaktionen
Max-Planck-Institut für Chemische Energiekonversion

https://cec.mpg.de/forschung/heterogenereaktionen/prof-dr-robert-schloegl/

Robert Schlögl (*1954 in München) hat an der Maximilian-Ludwig Universität in München Chemie studiert und mit einer Doktorarbeit über "Graphite intercalation compounds" 1982 promoviert.

Nach Postdoc-Aufenthalten an der Cambridge University (mit Sir J. Meurig Thomas) und in Basel (mit Prof. H.J. Güntherodt) war Schlögl Gruppenleiter bei Hoffmann La Roche AG, (Basel).

Er habilitierte sich 1989 mit einer Arbeit über "Structure of industrial ammonia-synthesis catalysts" am Fritz Haber Institut/Berlin (Prof. Gerhard Ertl) und wurde im selben Jahr auf den Lehrstuhl für Anorganische Chemie der Universität Frankfurt berufen.

1994 kehrte Schlögl nach Berlin zurück; er ist seitdem Direktor und Wissenschaftliches Mitglied am Fritz-Haber-Institut der Max-Planck-Gesellschaft.

2011 wurde er zusätzlich Gründungsdirektor am Max-Planck-Institut für Chemische Energiekonversion in Mülheim a.d.Ruhr.

Publikationen

Schlögl ist Autor von etwa 800 Publikationen (Liste: https://cec.mpg.de/fileadmin/media/Publikationen/Pub_Schloegl_190410.pdf) und Inhaber zahlreicher Patente.

Forschungsschwerpunkte

heterogene Katalyse, nanochemisch optimierte Materialien für Energiespeicherkonzepte, chemische Energiekonversion, Energieumwandlungsprozesse der Natur

Auszeichnungen

  • 2019 Eduard-Rhein-Kulturpreis
  • 2017 Ruhrpreis für Kunst und Wissenschaft der Stadt Mülheim a.d. Ruhr
  • 2017 ENI Award Energy Transition
  • 2016 Innovationspreis NRW
  • 2015 Alwin Mittasch Award
  • 2013 Max Planck Communitas Award
  • 2010 Dechema Medal
  • 1994 Otto Bayer Prize
  • 1989 Schunck Award for Innovative Materials

 

Mitgliedschaften

  • Fellow of the Royal Society of Chemistry, U.K.
  • Chairman of Chemisch-Physikalisch-Technische Sektion des Wissenschaftlichen Rates der Max-Planck-Gesellschaft, 2004-2006
  • Vice-Chairman of Chemisch-Physikalisch-Technische Sektion des Wissenschaftlichen Rates der Max-Planck-Gesellschaft, 2002-2003
     

Artikel von Robert Schlögl im ScienceBlog

Redaktion Thu, 13.06.2019 - 06:17

Manuela Schmidt

Manuela Schmidt

 Manuela Schmidt Dr. Manuela Schmidt Gruppenleiterin Emmy Noether-Forschungsgruppe Somatosensorische Signaltransduktion und Systembiologie Max-Planck-Institut für experimentelle Medizin, Göttingen

Ausbildung und beruflicher Werdegang

1997 – 2002 Diplom, Biologiestudium an der Universität Würzburg
2001 – 2002 Master in Neurowissenschaften, International Max Planck Research School Neurosciences, Göttingen, Deutschland
2002 – 2006 Promotion in Neurowissenschaften ("Charakterisierung synaptischer Proteinkomplexe bei Drosophila melanogaster") International Max Planck Research School Neurosciences (Labor von Stephan Sigrist), Göttingen, Deutschland
2007 – 2012 Postdoc bei Ardem Patapoutian, The Scripps Research Institute, La Jolla, Kalifornien, USA
2012 – Emmy Noether-Gruppenleiterin, MPI für experimentelle Medizin, Göttingen, Deutschland

Forschungsinteressen

Molekulare Grundlagen des Tastsinns, insbesondere der Schmerzentstehung und -weiterleitung. Ein Fokus dabei sind chronische Schmerzen.


Artikel von Manuela Schmidt auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:33

Markus Schmidt

Markus Schmidt

Markus SchmidtDr. Markus Schmidt absolvierte nach einer HTL-Ausbildung in Biomedizinischer Technik (1994) das Studium der Biologie, Zoologie und Ökologie an der Universität Wien und der Universität Autonoma de Madrid. Im Rahmen seiner Diplomarbeit (2001), erforschte er eine komplexen Ameisen-Pflanzen-Symbiose im Regenwald Costa Ricas. Das 2005 abgeschlossene interdisziplinäre Doktorat widmete sich dem Thema “Verlust der Agro-biodiversität in Vavilov-Zentren, mit spezieller Berücksichtigung genetisch veränderter Pflanzen” mit Forschungsaufenthalten in Südafrika und Portugal).

Zunächst als Mitarbeiter der Universiät Wien (bis 2007), später als Mitgründer der außeruniversitären Forschungseinrichtung Organisation for International Dialog and Conflict Management (IDC) und seit 2010 als Gründer der Biofaction KG, einer Forschungs-, Technikfolgen- und Wissenschafts-kommunikations-Firma in Wien, beschäftigt er sich in seiner wissenschaftlichen Arbeit mit den gesellschaftlichen Auswirkungen neuer Biotechnologien. Er koordinierte in diesem Zusammenhang mehrere EU Projekte:

  • “AGRO-FOLIO: Benefiting from an Improved Agricultural Portfolio in Asia” (2006-2007)
  • “DIVERSEEDS: Networking on conservation and sustainable use of plant genetic resources in Europe and Asia" (2006-2008)
  • “SYNBIOSAFE: Safety and ethical aspects of synthetic biology” (2007-2008) und nationale Projekte
  • „CISYNBIO: Cinema and Synthetic Biology“ (2009-2012)
  • „Biosafety and risk assessment needs of synthetic biology in Austria and China“ (2009-2012)
  • SYNMOD: Synthetic biology to obtain novel antibiotics and optimized production systems (2009-2013), bzw. nahm an mehreren europäischen und nationalen Forschungsprojekten teil:
  • “COSY: Communicating Synthetic Biology” (2008-2010)
  • “TARPOL: Targeting environmental pollution with engineered microbial systems á la carte.” (2008-2010)
  • "ST-FLOW: Standarization and orthogonalization of the gene expression flow for robust engineering of NTN (new-to-nature) biological properties" (2011-2015) und
  • "METACODE: Code-engineered new-to-nature microbial cell factories for novel and safety-enhanced bio-production" (2011-2015).

Dr. Schmidt ist Herausgeber zweier Bücher zur synthetischen Biologie, Autor zahlreicher Fachartikel im Bereich der pflanzengenetischen Ressourcen, synthetischen Biologie, Xenobiologe, Biosicherheit, Technikfolgenabschätzung und öffentliche Wahrnehmung neuer Technologien. Neben der wissenschaftlichen Projektarbeit wurde er mehrmals als wissenschaftspolitischer Berater eingeladen, z.B. von der European Group on Ethics (EGE) der Europäischen Kommission, der US Presidential Commission for the Study of Bioethical Issues, dem J Craig Venter Institute, der Alfred P. Sloan Foundation, und dem Bioethikrat des deutschen Bundestags. Weiters bemüht sich Schmidt für eine bessere Interaktion zwischen Wissenschaft und Gesellschaft im Rahmen öffentlicher Vorträge, wissenschaftlicher Dokumentarfilme, Science Film Festivals (Bio:fiction) und Art-Science Austellungen (synth-ethic). Dr. Markus Schmidt, Biofaction KG, Kundmanngasse 39/12, 1030 Wien schmidt@biofaction.com http://www.biofaction.com/


Artikel von Markus Schmidt im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:32

Nora Schultz

Nora Schultz

Nora SchultzDr. Nora Schultz

Biologin,Wissenschaftliche Referentin Deutscher Ethikrat, freie Wissenschaftsjournalistin

https://redaktion.dasgehirn.info/author/noraschultz

Nora Schultz hat in Oxford und Cambridge Biologie studiert (PhD in Entwicklungsneurobiologie) und in Dortmund Journalistik (Diplomjournalistik, B.A). Für ihren Promotionsausflug ins Forscherleben wollte sie erst per Genmanipulation superschlaue Mäuse herstellen, entschied sich dann aber doch dafür, Zebrafischnervenzellen beim Hirnbautanz zu filmen. Weil ihr im Labor die Themenfülle zu kurz kam, erkundet sie die wundervolle Welt der Wissenschaft inzwischen lieber wieder vom Schreibtisch aus, als wissenschaftliche Referentin beim Deutschen Ethikrat und als freie Wissenschaftsjournalistin z. B. für www.dasgehirn.info, "New Scientist" und "Spiegel Online".

Arbeitsschwerpunkte

Klinische Neurowissenschaften, Kognitive Neurowissenschaften, Molekulare Neurobiologie, Neuropharmakologie und -toxikologie, Neurowissenschaften Allgemein, Systemneurobiologie, Verhaltensneurobiologie, Zelluläre Neurobiologie

Artikel von Nora Schultz auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:30

Inge Schuster

Inge Schuster

Inge SchusterDr. Inge Schuster,

1941 in Wien geboren, studierte Chemie und Physik an der Universität Wien. Nach einer Tätigkeit als Universitätsassistent und einem Post-doc Aufenthalt am Max-Planck Institut für Biophysikalische Chemie in Göttingen, leitete sie über drei Jahrzehnte ein Forschungslabor des Pharmakonzerns Novartis und hat bis vor kurzem eine Lehrtätigkeit an der FH Wien ausgeübt. Forschungsgebiete: Modelle zu Resorption und Metabolismus von Pharmaka, Steroidhormone, Vitamin D.

1959 –1967 Studium der Chemie und Physik an der Universität Wien, Doktorarbeit in Biophysikalischer Chemie (mit radiochemischen Methoden)
1966 –1967 Assistent am Organisch-Chemischen Institut der Universität Wien, NMR-Spektroskopie
1968 – 1969 Postdoctoral Aufenthalt; Max Planck Institut für Biophysikalische Chemie, Göttingen Deutschland, Kinetik des allosterischen Enzyms GAPDH
1970 –1999 Sandoz/Novartis Forschungsinstitut Wien, Leitung eines biochemischen Forschungslabors, Projektleitung
1988 Organisation der "6th International Conference on Biochemistry and Biophysics of Cytochrome P450", in Wien (300 Teilnehmer)
1997 Organisation der "International Conference on the Vitamin D-Cascade” Novartis Forschungsinstitut Wien (100 Teilnehmer)
1994 – 2015 Zusammenarbeit mit Satya Reddy (Brown University Providence, Rhode Island USA)
1999 – Zusammenarbeit mit Rita Bernhardt (Institut für Biochemie Universität Saarbrücken)
2000 – 2006 Zusammenarbeit mit Christian Noe (Institut für Pharmazeutische Chemie der Universität Wien)
2005 – 2013 Lektor an der FH Campus Wien, Studiengang: Bioengineering
2011 – wissenschaftl. Leitung von ScienceBlog.at

Forschungsschwerpunkte

Schnelle Kinetik von Enzymreaktionen, Entwicklung prädiktiver Modelle zu Resorption und Metabolismus von Pharmaka im Menschen, Rolle von Cytochrom P450 Enzymen im Metabolismus von Pharmaka, in Synthese und Abbau von Steroidhormonen und von Vitamin D, Protein-Protein Wechselwirkungen, Drug Design und präklinische Charakterisierung von Inhibitoren unterschiedlicher Enzyme.


Artikel von Inge Schuster im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:32

Peter Schuster

Peter Schuster

Inge SchusterEm. Univ. Prof. Dr. Peter Schuster, Jg. 1941, studierte an der Universität Wien Chemie und Physik, war langjähriger Ordinarius für Theoretische Chemie und Leiter des Computerzentrums in Wien, Gründungsdirektor des Instituts für Molekulare Biotechnologie in Jena, Vizepräsident und Präsident der ÖAW sowie Mitglied höchstrangiger Akademien.

1959 – 1967 Studium der Chemie und Physik an der Universität Wien, Ph.D. sub auspiciis praesidentis
1968 – 1969 Postdoctoral Aufenthalt; Max Planck Insitut für Physikalische Chemie in Göttingen, Deutschland Von dann an Zusammenarbeit mit Prof. Manfred Eigen
1971 Habilitation in Theoretischer Chemie an der Universität Wien
1972 Berufung Lehrstuhl Theoretische Chemie, TU Berlin
1973 – 2009 o. Prof. Theoretische Chemie, Universität Wien
1985 – 1991 Leiter des Computer Zentrums, Universität Wien
1991 – External faculty member of the Santa Fe Institute, Santa Fe, USA
1992 – 1995 Gründungsdirektor des Instituts für Molekulare Biotechnologie (IMB) in Jena, Deutschland
1992 – 1997 Leiter der Abteilung „Molecular Evolutionary Biology“ am IMB
2000 – 2003 Vizepräsident: Österreichischen Akademie der Wissenschaften (ÖAW)
2006 – 2009 Präsident der ÖAW
Oktober 2009 Professor emeritus Universität Wien

Wissenschaftliche Publikationen

  • Mehr als 330 Originalarbeiten, Reviews und Essays in wissenschaftlichen Zeitschriften, 9 Bücher.
  • Herausgeber mehrerer Zeitschriften

Forschungsschwerpunkte

  • Theorie der Wasserstoffbrückenbindung
  • Kinetik von Protonen Transfer Reaktionen
  • Nicht-lineare Dynamik
  • Theorie der molekularen Evolution, RNA Replikation, Selektion und Optimierung
  • Struktur und Funktion von RNA und Proteinen
  • Regulatorische und Metabolische Netzwerke
  • Theoretische Systembiologie

Ausgewählte Mitgliedschaften

  • ÖAW
  • Deutsche Akademie der Naturforscher Leopoldina
  • Academia Europaea, London
  • National Academy of Sciences USA

Der Lebenslauf als PDF


Artikel von Peter Schuster im ScienceBlog

Redaktion Fri, 12.04.2013 - 20:36

Petra Schwille

Petra Schwille

Petra SchwilleProf. Dr. Petra Schwille Abteilungsdirektorin Zelluläre und Molekulare Biophysik Max-Planck Institut für Biochemie, München http://www.biochem.mpg.de/en/rd/schwille Petra Schwille (*1968 in Sindelfingen, D) hat in Lauffen am Nekar das Hölderlin Gymnasium besucht.

Ausbildung und Karriereweg

1987 – 1989 Physik Studium, Universität Stuttgart; Vordiplom Physik
1989 - 1993 Physik- und Philosophie-Studium, Universität Göttingen Diplomarbeit: "Nachweis der Temperaturerhöhung bei Ultraschallabsorption mit Hilfe des Mirage-Effektes"
1993 - 1996 Doktorarbeit am Max-Planck Institut für Biophysikalische Chemie (Anleitung: Manfred Eigen): "Fluoreszenz-Korrelations-Spektroskopie: Analyse biochemischer Systeme auf Einzelmolekülebene"
1996 – 1997 Postdoc am Max-Planck Institut für Biophysikalische Chemie
1997 – 1999 Postdoc bei Watt W. Webb, Dept. Applied and Engineering Physics, Cornell University, Ithaca, NY
1999 – 2002 Junior Gruppenleiter "Experimentelle Biophysik", Max-Planck Institut für Biophysikalische Chemie, Göttingen
2002 – 2012 Lehrstuhl für Biophysik, Technische Universität Dresden
2005 – 2010 Max-Planck Fellow am Max-Planck-Institut für Molekulare Zellbiologie und Genetik (MPI-CBG)
2011 – Direktor am Max-Planck Institut für Biochemie, München
2012 – Hon.Prof. an der Ludwig-Maximilian-Universität München

Auszeichnungen und Mitgliedschaften

1994 – 1996 DAAD-Forschungsstipendium am Karolinska Institut Stockholm, Sweden
1997 – 1999 Feodor-Lynen-Stipendium der Alexander von Humboldt Stiftung für Postdoc Aufenthalt an der Cornell-University, USA
1998 BioFuture-Preis für junge Forscher des Bundesministeriums für Bildung und Wissenschaft
2001 Dozentenstipendium, Preis der Deutschen Chemischen Industrie
2003 Young Investigator Award for Biotechnology der Peter und Traudl Engelhorn Stiftung
2004 Philip Morris Preis
2005 Max-Planck Fellow am Max-Planck-Institut für Molekulare Zellbiologie und Genetik (MPI-CBG)
2010 Gottfried Wilhelm Leibniz Preis der Deutschen Forschungsgemeinschaft (DFG); Mitglied der Leopoldina
2011 Braunschweiger Forschungspreis
2012 Mitglied der Deutschen Akademie der Technikwissenschaften (Acatech)
2013 Mitglied der Berlin-Brandenburgischen Akademie der Wissenschaften Mitglied der EMBO

Forschungsinteressen

siehe: http://www.biochem.mpg.de/en/rd/schwille/research

Bottom-up Ansätze, um die fundamentalen Merkmale von Zellen als minimale Einheiten belebter Materie zu erkennen und zu verstehen. Zelluläre Abläufe werden in einer dramatisch vereinfachten zellfreien Umgebung nachgebaut und exakten biophysikalischen Untersuchungen unterzogen, wie sie in der Zelle selbst oft so nicht möglich wären.

  • Biophysik von Zellen und Zellmembranen
  • Einzelmolekülspektroskopie (Fluoreszenzkorrelationsspektrokopie)
  • Synthetische Biologie
  • Signaltransfer

Das Web of Science verzeichnet 211 Publikationen (abgerufen am 26.10.2016), siehe auch: http://www.biochem.mpg.de/en/rd/schwille/publications


Artikel von Petra Schwille auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:30

Peter Seeberger

Peter Seeberger

Peter SeebergerPeter H. Seeberger (geb. 1966)

studierte Chemie an der Universität Erlangen-Nürnberg und promovierte in Biochemie an der University of Colorado.

Nach einem Postdocaufenthalt am Sloan-Kettering Institute for Cancer Research in New York City wurde er 1998 Assistant Professor und 2002 Firmenich Associate Professor of Chemistry am MIT in Cambridge, USA. Von 2003 bis 2008 war er Professor an der ETH Zürich. Seit 2009 ist Peter H. Seeberger Direktor am Max-Planck Institut für Kolloid- und Grenzflächenforschung in Potsdam sowie Professor für Organische Chemie an der Freien Universität Berlin. Ferner ist Prof. Seeberger seit 2003 Affiliate Professor am Burnham Institute in LA Jolla, USA. Seine Arbeitsgruppe forscht im Grenzgebiet von Chemie und Biologie. Neben Untersuchungen zu neuen Techniken in der Synthese (u.a. Mikroreaktoren), neuen Synthesemethoden, der Totalsynthese biologisch aktiver Verbindungen, stehen biologische Arbeiten zur Aufschlüsselung von Signalübertragung, Immunologie und die Entwicklung von Impfstoffen im Vordergrund. Ein Malariaimpfstoffkandidat aus seinem Labor steht nun kurz vor der klinischen Entwicklung.

Professor Seebergers Forschung ist in über 190 wissenschaftlichen Artikeln, zwei Büchern, 15 Patenten und in über 370 eingeladenen Vorträgen dokumentiert. Unter anderem wurde das Seeberger-Labor mit folgenden Preisen ausgezeichnet: Arthur C. Cope Young Scholar and Horace B. Isbell Awards von der American Chemical Society (2003) und der Otto-Klung Weberbank Preis für Chemie (2004). 2007 erhielt Prof. Seeberger die Havinga Medaille, die Yoshimasa Hirata Gold Medaille und den mit 750.000 Euro dotierten Körber-Preis für die Europäische Wissenschaft. Sowohl 2007 und 2008 wurde Professor Seeberger von der Schweizer Illustrierten zu den “100 wichtigsten Schweizern“ gewählt. Zudem erhielt er 2008 den UCB-Ehrlich Preis für Exzellenz in der Medizinalchemie sowie den Karl-Heinz Beckurts Preis. Ferner wurde ihm 2009 der Claude S. Hudson Award für Kohlenhydratchemie von der American Chemical Society überreicht.

Peter H. Seeberger ist der Chefredakteur des Beilstein Journal of Organic Chemistry und gehört dem Beirat zwölf wissenschaftlicher Journale an. Er ist ein Gründungsmitglied des Stiftungsrats der Tesfa-Ilg Stiftung “Hoffnung für Afrika”, die sich um verbesserte Gesundheitsvorsorge in Afrika bemüht. Professor Seeberger ist ein Berater für mehrere Firmen und gehört dem wissenschaftlichen Beirat mehrerer Unternehmen an. Er war Jahrespräsident der Schweizer Akademie der Naturwissenschaften im Jahr 2006. Die Forschung im Seeberger-Labor führte zur Gründung von zwei Unternehmen: Ancora Pharmaceuticals (gegründet 2002, Medford, USA) entwickelt derzeit verschiedene Impfstoffkandidaten, während i2chem Mikroreaktors für chemische Anwendungen kommerzialisiert.


Artikel von Peter Seeberger auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:29

Josef Seethaler

Josef Seethaler

Josef SeethalerDr. Josef Seethaler ist stellvertretender Direktor des Instituts für vergleichende Medien- und Kommunikationsforschung der Österreichischen Akademie der Wissenschaften. Seine Forschungsschwerpunkte sind: Politische Kommunikation, Medien und internationale Beziehungen, Mediensystemanalyse, Wissenschaftskommunikation, Methoden und statistische Verfahren der empirischen Sozialwissenschaft. Er ist österreichischer Vertreter in einer Reihe von internationalen Kooperationen wie etwa dem Projekt „Worlds of Journalism“. Josef Seethaler studierte Kommunikationswissenschaft, Theaterwissenschaft und Philosophie an der Universität Wien. Er ist seit 1984 an der Österreichischen Akademie der Wissenschaften tätig, seit 1994 als Senior Scientist an der damaligen Kommission für vergleichende Medien- und Kommunikationsforschung, die 2013 in ein gemeinsam von ÖAW und der Alpen-Adria-Universität Klagenfurt geführtes Institut umgewandelt wurde. Außerdem ist er Lehrbeauftragter an den Universitäten Wien, Salzburg und Klagenfurt, Mitglied und Berater mehrerer in- und ausländischer Institute und Gremien sowie Gutachter für zahlreiche internationale Fachgesellschaften und Fachzeitschriften. 2009 erhielt er den Werner Welzig-Preis der Österreichischen Akademie der Wissenschaften und 2010 den Preis der Deutschen Gesellschaft für Publizistik und Kommunikationswissenschaft für den besten kommunikationswissenschaftlichen Zeitschriftenaufsatz (gemeinsam mit Thomas Hanitzsch). Neben zahlreichen Arbeiten in wissenschaftlichen Journalen, Enyklopädien und Proceedings hat er zehn Bücher veröffentlicht, zuletzt „Medienpolitik und Recht II“ (gemeinsam mit Helmut Koziol und Thomas Thiede) und „Selling War: The Role of the Mass Media in Hostile Conflicts from World War I to the ‚War on Terror‘“ (gemeinsam mit Matthias Karmasin, Gabriele Melischek und Romy Wöhlert). Zu Josef Seethalers Webseite Mailkontakt


Artikel von Josef Seethaler im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:25

Rupert Seidl

Rupert Seidl

Rupert SeidlAssoc. Prof. DI. Dr. Rupert Seidl

Institut für Waldbau, Universität für Bodenkultur Wien http://www.wabo.boku.ac.at/waldbau/personen/seidl/

Rupert Seidl hat an der Universität für Bodenkultur in Wien Forstwirtschaft studiert.

Wissenschaftlicher Werdegang

2004 Sponsion zum Diplomingenieur der Forstwirtschaft (Thesis: Evaluation of a hybrid forest patch model).
2006 Research scholarship am European Forest Institute (EFI), Joensuu, Finnland
2008 Promotion zum Doktor der Bodenkultur (Forstwirtschaft; Thesis: Model-based analysis of sustainable forest management under climate change with particular consideration of bark beetle disturbances).
2009 - 2011 PostDoc an der Oregon State University (OSU), Corvallis, Oregon, USA
2011 Gastwissenschaftler an der Sveriges Lantbruksuniversitet (SLU), Alnarp, Sweden
2012 Senior Scientist, Institut für Waldbau, Universität für Bodenkultur Wien
2013 Assistenzprofessor, Institut für Waldbau, Universität für Bodenkultur Wien
2014 Habilitation für das Fach Waldökosystemmanagement, Universität für Bodenkultur Wien (Habilschrift: Forest ecosystem management in a changing world: Anticipating risks and fostering resilience).
2015 Gastwissenschaftler, University of Wisconsin, Madison, USA
2015 - Assoziierter Professor, Institut für Waldbau, Universität für Bodenkultur Wien

Forschungsschwerpunkte

Aspekte der Waldökosystemdynamik im generellen und die Rolle von Klima und Störungen in Waldökosystemen im speziellen. Ziel seiner Arbeit ist es, Erkenntnisse über Zusammenhänge der Waldökosystemdynamik – v.a. in Form von Simulationsmodellen – für Fragestellungen der nachhaltigen Waldbewirtschaftung nutzbar zu machen. Seidl entwickelte unter anderem das individuen-basierte Waldlandschaftsmodell iLand (http://iland.boku.ac.at/iLand), welches populationsökologisches und biogeochemisches Prozessverständnis integriert und Störungsregimes räumlich explizit auf Landschaftsebene simuliert.

Seidl erhielt für seine Arbeiten mehrere Auszeichnungen, u.a. den START-Preis des Österreichischen Wissenschaftsfonds FWF im Jahr 2015 für das Projekt "Forest disturbance in a changing world".

Veröffentlichungen

Zahlreiche Arbeiten in Fachzeitschriften - darunter 35 Arbeiten in SCI/PubMed gelisteten Journalen - , Monographien und Beiträge zu Sammelwerken.

Berufliche Aktivitäten

Projektleiter in 6 laufenden Projekten, darunter das EU-Projekt: Simulation von Anpassungsstrategien an geänderte Klima- und Störungsregimes in der Waldbewirtschaftung (SAGE) Betreuer von Master/Diplomarbeiten/Dissertationen Editorial Board Member von Zeitschriften (Forest Ecology and Management, Forest: biogeosciences and forestry) Fachgutachter für zahlreiche Zeitschriften (u.a. Science, PNAS, J ECOL) und (Förder)organisationen


Artikel von Rupert Seidl im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:24

Dmitry Semenov

Dmitry Semenov

Dmitry SemenovDr. Dmitry A Semenov
Wissenschaftlicher Mitarbeiter
am Max-Planck-Institut für Astronomie (Heidelberg)
Abt. Planeten- und Sternentstehung
http://www.mpia.de/~semenov

* 1978 in St. Petersburg (Russland)

Ausbildung

1993 - 1995 Lyceum für Begabte, Vertiefung in Mathematik, Physik, Chemie und Astronomie ; St. Petersburg
1995 - 2000 Studium: Astronomie und Mathematik an der Universität St. Petersburg. Masterarbeit (mit Auszeichnung): "Modeling of polarization properties of cometary dust grains"
2000 - 2005 PhD Studium am Astrophysikalischen Institut der Friedrich Schiller Universität (Jena). Thesis: "Astrophysical modeling - chemical evolution of protoplanetary disks” (Th. Henning)
2005 Promotion (“Magna cum laude”)
2005 - 2011 Postdoc am Max-Planck-Institut für Astronomie (Heidelberg)
2005 - Visiting scientist bei Gruppe von A. Dutrey, Bordeaux Obs. (France)
11 - 12/2009 Visiting scientist bei Gruppe von A. Glassgold, Universität Berkely (California)
2011 - Wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Astronomie, Abt. Planeten- und Sternentstehung (Heidelberg)

Wissenschaftliche Interessen

Welche Eigenschaften haben die riesigen Scheiben aus Gas und Staub, in denen sich die Planeten bilden?

  • Chemische Evolution in protoplanetarischen Scheiben und Solarnebel
  • Interferometrische Beobachtungen von protoplanetarischen Scheiben
  • Isotopenfraktionierung und Transportprozesse in protoplanetarischen Scheiben und Solarnebel

Simulationen auf Supercomputern, theoretische Modelle Ein ausführliches CV und eine Liste der Publikationen sind unter http://www.mpia.de/homes/semenov/CV_2015.pdf und http://www.mpia.de/homes/semenov/Publication_list_2015.pdf zu finden.


Artikel von Dmitry Semenov auf ScienceBlog

Redaktion Tue, 19.03.2019 - 17:23

Lore Sexl

Lore Sexl

Lore SexlDr. Lore Sexl

Als Mitglied der Kommission der Österreichischen Akademie der Wissenschaften für die Geschichte der Naturwissenschaften, Mathematik und Medizin beschäftigt Lore Sexl sich vor allem mit Radioaktivität und Kernphysik, organisiert Vortragsveranstaltungen und Ausstellungen und entwickelt Schulprojekte, in deren Rahmen naturwissenschaftliche Themen fächerübergreifend für Schüler aufbereitet werden.

1939 in Wien geboren
1957–1962 Studium Physik, Mathematik und Philosophie an der Universität Wien. Während des Studiums Arbeit am Wiener Radiuminstitut (wo sie Lise Meitner kennenlernt) bei Marietta Blau über Hyperfragmente. Doktorarbeit (Walter Thirring) über ein Thema aus der Elementarteilchenphysik. In Kooperation mit dem Europäischen Kernforschungszentrum CERN Forschungsaufenthalte bei CERN in Genf und der Universität in Bern.
1965/66 Mitarbeiterin am Institut für Hochenergiephysik der ÖAW
1967 –1969 Washington DC: NASA-Kontrakt (Directional characteristics of the lunar infrared radiation). Daneben Beginn eines Studiums der Theaterwissenschaften
1977 Lehramtsprüfung in Physik und Mathematik an der Universität Wien
seit 1992 Konsulentin der Österreichischen Akademie der Wissenschaften und Mitglied der Kommission für Geschichte der Naturwissenschaften, Mathematik und Medizin der Österreichischen Akademie der Wissenschaften.
Seit 2008 Mitglied des Universitätsrats der Technischen Universität Wien

Als Mitglied der Kommission der Österreichischen Akademie der Wissenschaften für die Geschichte der Naturwissenschaften, Mathematik und Medizin beschäftigt Lore Sexl sich vor allem mit Radioaktivität und Kernphysik, organisiert Vortragsveranstaltungen und Ausstellungen und entwickelt Schulprojekte, in deren Rahmen naturwissenschaftliche Themen fächerübergreifend für Schüler aufbereitet werden.

Schulprojekte

  • Geschichte von Radioaktivität und Kernphysik (1896-1938)
  • Das Entstehen eines naturwissenschaftlich orientierten Weltbildes im 17. und 18. Jahrhundert. Mikrokosmos – Makrokosmos
  • III. Auswirkungen der Naturwissenschaften in Literatur, Malerei und Architektur. Beispiele aus dem 18. Jahrhundert bis heute

Vorträge, Veranstaltungen u.a.

  • Gründung und erstes Jahrzehnt des Instituts für Radiumforschung der kaiserlichen Akademie der Wissenschaften
  • 100 Jahre Entdeckung von Radium und Polonium
  • Lise Meitner und Wien
  • Gottfried Wilhelm Leibniz: Neuorganisation von Wissen

Bücher

  • "Weiße Zwerge - Schwarze Löcher, Einführung in die relativistische Astrophysik." Roman Sexl, Hannelore Sexl, Vieweg Verlag)
  • Lore Sexl & Anne Hardy: Lise Meitner. Rowohlt Taschenbuch-Verlag, Reinbek 2001

Auszeichnungen

  • 2002 Medaille "Bene merito" für ihre verdienstvollen Arbeiten zur Geschichte der Naturwissenschaften in Österreich.
  • 2004 Preis der Stadt Wien

Artikel von Lore Sexl im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:21

Karl Sigmund

Karl Sigmund

Karl Sigmundo. Univ. Prof. Dr.Karl Sigmund (Jg 1945) hat an der Universität Wien Mathematik studiert, nach mehreren Auslandaufenthalten und einer Berufung an die Universität Göttingen ist Karl Sigmund seit 1974 Ordinarius für Mathematik an der Universität Wien. Sigmund ist Träger zahlreicher Auszeichnungen und Mitglied hochrangiger Gesellschaften.

Wissenschaftliche Schwerpunkte: Ergodentheorie und dynamische Systeme; später biomathematische Themen: Populationsdynamik, Populationsökologie und Populationsgenetik, evolutionäre Spieltheorie und Replikator-Gleichungen; Evolution von Kooperation in biologischen und menschlichen Populationen mittels evolutionärer Spieltheorie. Publikationen: http://homepage.univie.ac.at/karl.sigmund/

Curriculum Vitae Karl Sigmund

* Juli 26, 1945, Gars am Kamp, Niederösterreich. Verheiratet mit Anna Maria Sigmund; Sohn Willi Schule: Lycée francais de Vienne, bac’ 1963 Studium: 1963-1968 Mathematisches Institut, Universität Wien PhD 1968 Habilitation 1972 Postdoc: 1968-69 University of Manchester 1969-70 Institut des Hautes Études, Bures sur Yvette 1970-71 Hebrew University, Jerusalem 1971-72 Universität Wien 1972-73 Österr.Akademie der Wissenschaften, Wien

Beschäftigung

1973-74 C3 Professor at Universität Göttingen, 1974 - o. Professor, Universität Wien (Mathemat. Fakultät) 1984 - : part time scholar, International Institute for Applied Systems Analysis (IIASA) Laxenburg Professional service: 1983-85 head of the Institute of Mathematics, University of Vienna 1995-1997 vice president, Austrian Society of Mathematics 1997-2001 president, Austrian Society of Mathematics 2003-2005 vice president, Austrian Science Fund (FWF)

Akademische Auszeichnungen

1998 Plenarvortrag ICM Berlin 1999 Mitglied der Österr.Akademie der Wissenschaften, 2003 Mitglied der Deutschen Akademie der Wissenschaften, (Leopoldina) 2003 Gauss lecture (DMV) Würzburg 2006 Österreicher des Jahres (Forschung) 2007 inaugural IIT Karl Menger lecture 2010 Mitglied der Europäischen Akademie der Wissenschaften 2010 Ehrendoktorat, University of Helsinki 2010 Preis der Stadt Wien für Naturwissenschaften 2011 Würdigungspreis für Wissenschaften durch das Land Niederösterreich 2011 Blaise Pascal Medal for Mathematics of the European Academy of Science

Editorial or advisory boards (past or present)

Monatshefte für Mathematik Journal of Theoretical Biology Journal of Mathematical Biology Theoretical Population Biology International Journal of Biomathematics International Journal of Bifurcation and Chaos Philosophical Transactions of the Royal Society B Dynamic Games and Applications

Ausstellungen

Kühler Abschied von Europa - Wien 1938 und der Exodus der Mathematik (2001) Gödels Jahrhundert 1906-2006 (2006)


Artikel von Karl Sigmund im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:20

Michael Simm

Michael Simm

Michael SimmDipl.Biol. Michael Simm

Journalist für Medizin & Wissenschaft
Textchef in der Redaktion von dasGehirn.info

Michael Simm (* 1961) stammt aus Heidelberg

Ausbildung

9/1982 – 8/1984 Biologie-Studium an der Universität Heidelberg (Schwerpunkte: Genetik, Mikrobiologie, Biochemie
9/1984 – 7/1985 Stipendium an der California Polytechnic State University San Luis Obispo; Fachrichtung Molekularbiologie
9/1985 – 8/1988 Molekularbiologie an der Universität Heidelberg (Schwerpunkte: Genetik, Biochemie.
1988 Abschluss als Diplombiologe (Arbeitsgruppe H. Bujard); Zentrum für Molekulare Biologie Heidelberg (ZMBH)

Karriereweg

6/1986 – 3/1987 Wissenschaftliche Hilfskraft am European Molecular Biology Laboratory (EMBL); Proteinanalysen für Labor Dr. B. Dobberstein.
4/1087 – 5/1989 Wissenschaftliche Hilfskraft am Zentrum für Molekulare Biologie Heidelberg (ZMBH) (AG H. Bujard; Zusammenarbeit M. Vingron)
9/1987 – 1/1988 Freier Mitarbeiter bei der Rhein-Neckar-Zeitung; erste Artikel zu Gentechnik, Ethik, Klimawandel.
6/1989 – 12/1989 Praktikum Ressort Wissenschaft bei „Die Welt“ Leitung Dr. Dieter Thierbach. Abschluss 12/89 als Wissenschaftsredakteur
12/1989 – 5/1992 Stipendiat im Förderprogramm Wissenschaftsjournalismus der Robert Bosch Stiftung
9/1990 – 12/1992 Wissenschaftsredakteur bei „Die Welt“.Planung, Layout und Produktion der täglich erscheinenden Wissenschaftsseite.
Seit 1993 Freiberuflicher Journalist für Medizin & Wissenschaft (mit Unterbrechung: Wissenschaftsredakteur bei der Süddeutschen Zeitung). Tätigkeit für verschiedene, überwiegend deutschsprachige Printmedien und Webseiten mit den Schwerpunkten Biomedizin, Pharma und Hirnforschung. Konzeption, Recherche, Texte und komplette Produktionen umfangreicher Broschüren für das Bundesforschungsministerium und den Verband forschender Arzneimittelhersteller.
Seit 6/2017 Textchef in der Redaktion von dasGehirn.info, der größten deutschsprachigen Webseite zum Thema Gehirn

Artikel von Michael Simm auf ScienceBlog

Redaktion Tue, 19.03.2019 - 17:17

Wolf Singer

Wolf Singer

Wolf Singer Prof. Dr. Dr. h.c. mult. Wolf Singer (*1943, München)

Direktor der Singer Emeritus Gruppe, Max-Planck Institut für Hirnforschung http://brain.mpg.de/research/singer-emeritus-group/director.html

Senior Fellow am Ernst Strüngmann Institut (ESI) für Neurowissenschaften in Cooperation mit der Max Planck Gesellschaft http://www.esi-frankfurt.de/research/singer-lab/

Ausbildung und Karriereweg

1962 – 1964 Medizinstudium, Ludwig Maximilian Universität, München
1964– 1965 Medizinstudium an der Sorbonne, Troisième Cycle de Neurophysiologie, Faculté des Sciences, Paris
1965 – 1968 Fortsetzung Medizinstudium, Ludwig Maximilian Universität, München
1966 – 1968 Thesis am MPI für Psychiatrie, München (Betreuer O. Creutzfeldt): "The role of telencephalic commissures in bilateral EEG-synchrony"
1969 – 1970 Klinik: Universitätsspital LMU München, Approbation , Teilzeit als MD bis 1980
1971 Postdoc, Dept. Psychology, University of Sussex
1972 – 1975 Postdoc am MPI für Psychiatrie (Prof. H.D. Lux)
1972 Berufung: Lehrstuhl für Humane Neurobiologie, Univ. Bielefeld
1972 – 1981 Vorlesungen: Neurophysiologie, Physiologie, TU München
1996 – 1997 Postdoc am Max-Planck Institut für Biophysikalische Chemie. Mitglied des Spezialforschungsbereich Kybernetik (DFG)
1975 Habilitation für Physiologie, Med.Fakultät, TU München
1975 – 1981 Unabh. Gruppenleiter am MPI für Psychiatrie, München
1976 Berufung: Lehrstuhl Institut für Hirnforschung, Universität Zürich
1980 – Professur für Physiologie, TU München
1981 – 2011 Direktor am Max-Plack Institut für Hirnforschung, Abt. Neurophysiologie, Frankfurt
2003 Gastprofessor Collège de France, Paris, France
2004 – Gründungsdirektor des Frankfurt Institute for Advanced Studies (FIAS), Frankfurt; Gründungs-Co-Director des Brain Imaging Center (BIC), Frankfurt
2006 – Gründungsdirektor des Ernst Strüngmann Forum (former Dahlem Conference), Frankfurt
2008 – Gründungsdirektor des Ernst Strüngmann Institute (ESI) for Neuroscience in Cooperation with Max Planck Society, Frankfurt
4/2011 – Emeritus Status am Max-Planck Institut für Hirnforschung; Senior Fellow am Ernst Strüngmann Institute (ESI) for Neuroscience in Cooperation with Max Planck Society

Auszeichnungen

1991 Prize of the IPSEN Foundation (shared with Thorsten Wiesel and Ursula Bellugi)
1994 Ernst Jung Prize für Wissenschaft und Forschung; Zülch Prize
1998 Hessischer Kulturpreis
2000 Körber Preis für Europäische Wissenschaften
2001 Max-Planck-Preis für Öffentlichkeitsarbeit
2002 La Medaille de la Ville de Paris; Chevalier de la Legion d'Honneur; Ernst Hellmut Vits Preis, Universität Münster
2003 Krieg Cortical Discoverer Award of the Cajal Club; Betty und David Koetser Preis, Universität Zürich; Communicator Preis, DFG; Hans Berger Prize, Society for Clinical Neurophysiology
2005 Dr. honoris causa Universität Oldenburg; Aschoff Preis, Universität Freiburg
2006 INNS Hebb Award
2008 Dr. honoris causa Rutgers University, NJ
2009 Kaloy Preis, Universität Genf
2011 Verdienstorden (1. Klasse) der BRD
2013 Cothenius-Medaille, Leopoldina
2014 Max-Planck-Medaille
2015 Communitas-Preis der Max-Planck Gesellschaft; Ehrenplakette der Stadt Frankfurt am Main

Mitgliedschaften in Akademien…

  • Academia Europaea
  • Scientific Academy of the Johann Wolfgang Goethe University Frankfurt
  • Academia Scientiarum et Artium Europaea
  • Member of the Pontifical Academy of Sciences
  • Founding Member of the Berlin-Brandenburgische Akademie der Wissenschaften
  • Honorary Associate of the Neurosciences Research Program Member of the Bayerische Akademie der Wissenschaften
  • Member of the Leopoldina, Halle
  • Member of Collegium Europaeum Jenense, Jena
  • Honorary Member of the World Innovation Foundation
  • Foreign Member of the Russian Academy of Sciences
  • Consultor of the Pontifical Council for Culture ad quincennium
  • Honorary Member of the Hungarian Academy of Sciences
  • AAAS Fellow in the American Association for the Advancement of Science
  • Member of EMBO excellence in life sciences

…und in wissenschaftlichen Kommissionen

  • Secretary European Brain and Behaviour Society
  • President European Neuroscience Association Senatsausschuß für Sonderforschungsbereiche, Deutsche Forschungsgemeinschaft
  • Evaluierungskommission des Wissenschaftsrates für Neue Bundesländer
  • Commission des Sciences Cognitives, C.N.R.S., France
  • Board of Fondation Fyssen
  • Board of European Science Foundation Senatsausschuß der Max-Planck-Gesellschaft für Forschungsplanung
  • Chairman of the Board of Directors of the Max Planck Society
  • Munich Center for Neurosciences - Brain and Mind (MCN LMU)
  • Sigmund-Freud-Institut (SFI), Frankfurt/Main
  • Interdisciplinary Center for Neuroscience Frankfurt (ICNF)
  • Scientific Committee Rhine-Main Neuroscience Network (rmn2)
  • Chairman of the Commission for Animal Rights Issues of the Max Planck Society
  • Global Excecutive Committee, The Dana Alliance for Brain Initiatives (DABI)

Forschung

"Alles Wissen eines Menschen residiert in der funktionellen Architektur des Gehirns und ebenso die Regeln nach denen dieses Wissen erworben, verhandelt und angewandt wird (Wolf Singer)." Physiologische Grundlagen von Bewußtsein und Identifizierungsvorgängen

"Wie gelingt es kohärente Bilder der Welt zu entwerfen?" - Wie werden unterschiedliche, über viele Hirnareale verteilte Sinneswahrnehmungen von einem Objekt – Form, Farbe, Klang, Geruch, Haptik etc.– zu einem einzigen wahrgenommenen Objekt zusammengefasst?("Bindungsproblem"). Physiologische und gestörte Funktionsabläufe im Gehirn.

Das überaus reiches Opus von Wolf Singer - mehr als 500 Artikel in Fachzeitschriften, zahlreiche Buchkapitel, Bücher, Videos, etc. - kann hier auch nicht annähernd dargstellt werden. Details finden sich in: http://brain.mpg.de/research/singer-emeritus-group/director.html


Artikel von Wolf Singer auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:13

Eva Sinner

Eva Sinner

Eva Sinnero. Prof. Dr. Eva-Kathrin Sinner hat an der Universität Hannover Biologie studiert. Nach Postdoktoraten am RIKEN (Japan) und am Max-Planck Institut für Biochemie in Martinsried (München) und der Habilitation an diesem Institut wurde sie auf den Lehrstuhl für Biophysik der Universität Mainz berufen. Seit 2010 ist sie o.Prof für Nanobiotechnologie an der Universität für Bodenkultur in Wien und leitet das gleichnamige Department.

1990 –1995 Studium der Biologie an der Universität Hannover, Diplomarbeit über Tetrapyrrolbiosynthese am IPK in Gatersleben, Doktorarbeit bei der Firma Merck, Darmstadt KGaA un dem MPI für Polymerforschung, Postdoktorat am RIKEN, Japan
1999-2005 Postdoktorat am Max-Planck Institut für Biochemie Martinsried, Research Associate am Dept. für Chemie und Pharmazie der Ludwig Maximilian Universität München
2007 Habilitation bei Herrn Prof. Oesterhelt am MPI für Biochemie
2008 Ruf auf einen Lehrstuhl für Biophysik (w3) an der Johannes Gutenberg Universität in Mainz
2010 Ruf auf die Professur für Nanobiotechnologie der Universität für Bodenkultur (BOKU) in Wien („Synthetic Bioarchitectures”, Head of the Department NanoBioTechnologie (DNBT))

Artikel von Eva Sinner im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:11

Peter Skalicky

Peter Skalicky

Peter SkalickyPeter Skalicky war nach dem Studium der Technischen Physik und Abschluss des Doktorates Assistent, um sich in der Kristallphysik zu habilitieren. Nach mehreren Auslandsaufenthalten und entsprechenden Professuren kehrte er als Dekan an die TU Wien zurück, die er zuletzt als Rektor leitete. Diverse internationale Mitgliedschaften und Auszeichnungen runden das Bild des umfassend engagierten Wissenschaftlers ab. Em.O.Univ.Prof. Dr.techn. Dipl.-Ing. Peter Skalicky geboren am 25. April 1941 in Berlin, Schulbesuch und Matura in Wien Studium der Technischen Physik an der TH Wien

1964 Diplom-Ingenieur Technische Physik
1965 Doktorat mit einer Dissertation über Röntgeninterferenzmikroskopische Untersuchungen an dünnen Einkristallen.
1967 Hochschulassistent; Aufbau eines elektronenmikroskopischen Laboratoriums und einer Arbeitsgruppe für Röntgen- und Elektronenbeugung
1973 Habilitation im Fachgebiet Kristallphysik
1974 Außerordentlicher Professor für Kristallphysik an der TH Wien
1975/1976 Professeur Associé an der Université Pierre et Madame Curie (Paris VI)
1979 Ordentlicher Professor für Angewandte Physik an der TU Wien, Vorstand des gleichnamigen Institutes
1982 Gastprofessor der Universität Changchun, China
1986 – 1990 Dekan der Technisch-Naturwissenschaftlichen Fakultät der TU Wien
1991 – 2011 Rektor der TU Wien
1991 Mitglied der vom Bundesministerium für Wissenschaft und Forschung eingesetzten Arbeitsgruppe zur Ausarbeitung eines Entwurfs für das Universitätsgesetz UOG 1993
1991 Stellvertretender Vorsitzender der österreichischen Rektorenkonferenz (ÖRK), verantwortlich für Internationale Beziehungen, nationale und internationale Forschungskooperation
1991 – 1994 Mitglied des Rates für Wissenschaft & Forschung
1995 – 1999 Präsident der österreichischen Rektorenkonferenz (ÖRK)
1999 Vizepräsident der ÖRK mit dem Ressort Internationale Beziehungen, nationale und internationale Forschungskooperation
seit 2001 Mitglied des Kuratoriums des Technischen Museums Wien

Auszeichnungen, Mitgliedschaften

1972 Fritz-Kohlrausch-Preis für Arbeiten über Röntgen-Polarisationsoptik, durchgeführt an der Universität Paris VI
2001 Ehrendoktorat der Technischen Universität Cluij-Napoca (Rumänien)
2002 Professor h. c. der STU Perm (Russland)
2002 Großes Goldenes Ehrenzeichens für Verdienste um die Republik Österreich
2002 Ehrendoktorat der Technischen Hochschule Lemberg
2003 Chevallier de l'Ordre des Palmes Academiques
2004 Verleihung des Ordens „L’Ordre National du Mérite“ durch die französische Botschaft in Wien
2004 Großes Silbernes Ehrenzeichen der Stadt Wien
2007 Ehrendoktorat der Technischen Universität Bratislava Internationale Aktivitäten
1977 – 1983 Mitglied des Ad-hoc Komitees der European Science Foundation (ESF) und der Projektgruppe „European Synchrotron Radiation Facility“ (ESRF, Grenoble)
1980 – 1983 Mitglied der Europäischen ESF Projektgruppe zur Ausarbeitung des standortunabhängigen Projektes der Europäischen Synchrotron Strahlungsquelle, mittlerweile in Grenoble errichtet (ESRF).
1993 – 1997 Mitglied des Liaison Committee (Confederation of European Universities) der Europäischen Rektorenkonferenzen
2000 – 2003 Mitglied im Council der EUA (European University Association), als Vertreter der Österreichischen Rektorenkonferenz.
1991 – 1995 Vorsitzender der AUSTRON Studiengruppe (Projekt einer Internationalen Großforschungseinrichtung für eine Neutronen Spallationsquelle)
seit 2003 Mitglied der „Commission Aval“ der École Polytechnique, Paris
seit 2003 Mitglied des Conseil Administratif der École Centrale, Paris
2006/2007 Präsident von T.I.M.E. (Top Industrial Managers for Europe) Forschungs- und Lehrtätigkeit

Publikationen Forschungsinteressen

  • 87 Publikationen über Festkörperphysik, Kristallphysik, Elektronen- und Röntgenbeugung
  • Lehrveranstaltungen über Festkörperphysik, Kristallphysik, Elektronen- und Röntgenbeugung

Artikel von Peter Skalicky im ScienceBlog

Redaktion Fri, 19.07.2013 - 10:15

Katja Skorb

Katja Skorb

Katja SkorbDr. Katja (Ekaterina) Skorb http://www.mpikg.mpg.de/70648/employee_page?c=177399&employee_id=22306 http://www.mpikg.mpg.de/4684891/Research

Ausbildung, berufliche Karriere

Katja Skorb hat an der Weißrussischen Universität in Minsk Chemie studiert und dort nach einer Doktorarbeit in Physikalischer Chemie (Photocatalytic and photolithographic system based on nanostructured titanium dioxide films modified with metallic and bimetallic particles) 2008 promoviert.

2007 Deutscher Akademischer Austausch Dienst: Fellow am Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Potsdam
2008 - 2009 Weißrussische Universität, Minsk
2009 – 2010 Postdoktorand am Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Potsdam
2010 – 2011 Humboldt Fellow am Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Potsdam
2012 – 2013 Senior Lecturer an der Weißrussischen Universität, Minsk
2014 - Independent Researcher, Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Potsdam Privatdozent an der Weißrussischen Universität, Minsk

Auszeichnungen

Ministry of Education Research Award, Belarus; First Government Price for the Research Work for the researcher under 30 years old, Minsk, Belarus; Belarusian National Foundation Grant ; Stipend of the President of Belarus; Award of the Ministry of Education of Belarus for the Outstanding Research Achievements.

Publikationen/ Forschungsinteressen

43 Publikationen (in ISI-gelisteten Journalen) und Buchkapitel Methoden zur Herstellung von Oberflächen (vor allem von Titan) mit definierter Porosität, Metall“schwämme“ ; Beladen der porösen Oberflächen mit Chemikalien, Antibiotika, Hormonen, Wachstumsfaktoren, etc. und deren gezielte Freisetzung. Ziel ist es u.a. Implantate herzustellen, die Wirkstoffe speichern und ans umgebende Gewebe kontrolliert abgeben, die eine Besiedlung mit Mikroorganismen verhindern Bakterienbelag befreien.


Daneben kombiniert Katja Skorb Wissenschaft mit Kunst. Sie produziert wunderschöne Photos aus der Mikrowelt ihrer Forschung: http://www.baks-galerie.de/en/authors/1562


Artikel von Katja Skorb auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:09

Uwe Sleytr

Uwe Sleytr

Uwe SleytrO.Univ.-Prof. em. DI Dr.Uwe B. SLEYTR hat in Wien an der Universität für Bodenkultur (BOKU) Biotechnologie studiert, sich für Mikrobiologie habilitiert und war nach Auslandssaufenthalten (MRC Laboratory, Strangeways Res.Labs (Cambridge, UK); Temple University (Philadelphia, US) von 1980 -2010 Vorstend des Dept. für NanoBiotechniologie an der BOKU Wien. Sleytr ist Autor von 400 Publikationen, Träger zahlreicher Auszeichnungen und Mitglied hochrangiger Gesellschaften. Hauptarbeitsgebiete: Nanobiotechnologie, Biomimetik, Synthetische Biologie, ...und bildende Kunst

Curriculum Vitae

Em.Univ.Prof. Dipl. Ing. Dr.nat.techn. Uwe B. SLEYTR, * 15. Juli 1942, Wien, Österreich verheiratet, 1 Kind

Akademische Grade:

Dipl.Ing. (1966) der Lebensmittel- und Biotechnologie und Dr.nat.techn. (1970) der Uni­versität für Bodenkultur, Wien

Wissenschaftliche Laufbahn:

1965-1972 Assistent am Institut für Lebensmitteltechnologie der Universität für Bodenkultur, Wien

1972-1973 Visiting Scientist am Strangeways Research Laboratory, Cambridge, England (Stipendium der Europäischen Molekularbiologischen Organisation)

1973 Habilitation für das Fach Allgemeine Mikrobiologie an der Universität für Bodenkultur, Wien

1974-1975 Senior Visiting Scientist am Strangeways Research Laboratory und dem MRC Laboratory of Molecular Biology in Cambridge, England (Fellowship of the Medical Re­search Council)

1977 a.o.Universitätsprofessor für Allgemeine Mikrobiologie an der Universität für Boden­kultur, Wien

1977-1978 Visiting Professor am Department of Microbiology and Immunology, Temple University, School of Medicine, Philadelphia, USA (Fulbright and Senior Foreign Dental Scientist Fellowship)

1980 Berufsverhandlungen für das Ordinariat Mikrobiologie an der Universität Wien

1980-2010 Vorstand des Departments für NanoBiotechnologie (vormals Zentrum für Ultrastruktur­forschung) der Universität für Bodenkultur, Wien

1982 o.Universitätsprofessor für Ultrastrukturforschung an der Universität für Bodenkultur, Wien

1985 Erstgereihter im Besetzungsvorschlag für die Leitung des Institutes für Chemie am GKSS-Großforschungszentrum Geesthacht, Deutschland und für eine C4-Professur am Institut für Technische und Makromolekular-Chemie an der Universität Hamburg

1986-2004 Leiter des Ludwig Boltzmann-Institutes für Molekulare Nano­techno­logie,

Wien 2003 Gründung der Firma Nano-S zur Verwertung von S-Schicht-Nanotechnologien

Seit Okt. 2010 Professor emeritus am Department für NanoBiotechnologie der Universität für Bodenkultur, Wien

Wissenschaftliche Auszeichnungen:

Schwackhöfer-Preis des Vereins österr. Lebensmittel- und Biotechnologen, 1970

Sandoz-Preis, 1971

Diplom der Royal Microscopical Society, Oxford, Großbritannien, 1975

Förderungspreis der Stadt Wien für Wissenschaft, 1983

Wissenschaftspreis der Wiener Wirtschaft, 1983

EUREKA-Erfindermedaille, 1988 (gemeinsam mit Prof. Sára)

Innitzer-Würdigungspreis für Naturwissenschaften, 1989

Mitglied der New York Academy of Sciences, 1994

Wahl zum korrespondierenden Mitglied der Österr. Akademie der Wissenschaften, 1992

Wahl zum wirklichen Mitglied der Österr. Akademie der Wissenschaften, 1994

Ehrenmitglied der Tschechoslowakischen Gesellschaft für Mikrobiologie, seit 1997

Philip Morris Forschungspreis, 1998

Wilhelm Exner Medaille des Österr. Gewerbevereins, 1998

Preis der Stadt Wien für Natur- und technische Wissenschaft, 1999

Ernennung zum Honorarprofessor an der Sichuan Universität, Chengdu, China, 2006

Wahl zum ordentlichen Mitglied der Europäischen Akademie der Wissenschaften und Künste, 2008

Ernennung zum Honorarprofessor an der China University of Petroleum, Qingdao, Shandong, China, 2010

Fellow of the American Institute for Medical and Biological Engineering 2012

Hauptarbeitsgebiete:

Molekulare Nanotechnologie und Nanobiotechnologie, Biomimetik, Synthetische Biologie, Allgemeine Mikro­biologie, Molekularbiologie, Membrantechnologie, Ultrastrukturforschung, Entwicklung mole­kularer Baukastensysteme, Untersuchungen zur Aufklärung der Struktur, Chemie, Morphoge­nese, Funktion und Anwendungspotential von kristallinen Bakterien­zell­wand­schichten (S-Schichten).

Publikationen und Patente:

Ca. 400 wissenschaftliche Arbeiten (siehe http://www.nano.boku.ac.at/7759.html)

Zahlreiche internationale Patente auf den Gebieten der Membrantechnik, Biotechnologie, Impf­stoffentwicklung, der Molekularen Nanotechnologie und Genetik von prokaryontischen Exo­proteinen.

Bücher: Autor des Buches „Low Temperature Methods in Biological Electron Microscopy“ (mit A.W. Robards), Elsevier, Amsterdam, New York, Oxford, 1985, 551 pp. Herausgeber des Buches „Crystalline Bacterial Cell Surface Layers“ (mit P. Messner, D. Pum, M. Sára), Springer, Berlin, Heidelberg, New York, London, Paris, Tokyo, 1988, 200 pp. Herausgeber des Buches „Immobilised Macromolecules: Application Potentials“ (mit P. Messner, D. Pum, M. Sára), Springer, London, 1993, 212 pp. Herausgeber des Buches „Crystalline Bacterial Cell Surface Layer Proteins (S-layers)“ (mit P. Messner, D. Pum und M. Sára), Molecular Biology Intelligence Unit, R.G. Landes/­Academic Press, Austin, 1996, 225 pp.

Sonstige Aktivitäten:

Life Member des Clare Hall College, Cambridge, Großbritannien, seit 1982

Mitglied des DECHEMA-Fachausschusses Chemische Reaktionstechnik (Arbeitsaus­schuss „Membrantechnik“), 1987-1993

Senator der Fachgruppe Lebensmittel- und Biotechnologie an der Universität für Boden­kultur Wien und Präses der 1. Diplomprüfungskommission, 1990-1992

Fachreferent für Biologie und Molekularbiologie im Österreichischen Fonds zur Förderung der wissenschaftlichen Forschung – FWF, 1982-1990

Mitglied des Österreichischen Forschungsförderungsrates, 1994-1998

Mitglied des Senats der Christian Doppler-Gesellschaft, 1988-2001

Mitglied des Komitees für APART-Stipendien, 1993-2002

Mitglied der Planungskommission der Österreichischen Akademie der Wissenschaften sowie Mitglied den Kuratorien der Österreichischen Akademie der Wissenschaften (ÖAW-Institut für Sensor- und Aktuatorsysteme sowie ÖAW-Institut für Biophysik und Nanosystemforschung)

Vorstandsmitglied der Österreichischen Gesellschaft für Elektronenmikroskopie, 1980-1996

Vorstandsmitglied der Österreichischen Gesellschaft für Hygiene, Mikrobiologie und Präventivmedizin, seit 1983

Vizepräsident der Erwin Schrödinger-Gesellschaft für Mikrowissenschaften, 1988-1996

Präsident der Erwin Schrödinger-Gesellschaft für Nanowissenschaften, 1999-2002 seit 2002 Vizepräsident)

Vertreter des FWF im Forschungsförderungsfonds für die Gewerbliche Wirtschaft – FFF, 1997-2001

Kuratoriumsmitglied für den Novartis-Preis, seit 1998

Päsidialrat des Österreichischen Gewerbevereins und Geschäftsführer der Exner-Medaillen Stiftung, seit 2001

Vorsitzender des lokalen Wissenschaftlichen Beirates des Forschungszentrums für Molekulare Medizin der Österreichischen Akademie der Wissenschaften, seit 2002

Mitglied des Scientific Advisory Committe (SAC) of the International Society for Nanoscale Science, Computation and Engineering – ISNSCE, seit 2004

Mitglied des Advisory Board des CALIT NanoBio Steering Committee, Center of Advanced Learning In Information Technologies (ICAM), Belgien, seit 2006

Mitglied des Finanzkuratoriums der Österreichischen Akademie der Wissenschaften, seit 2009

Mitglied der Delegiertenversammlung der mathematisch-naturwissenschaftlichen Klasse des Wissenschaftsfonds, seit 2009

Mitglied der Ethikkommission der Österreichischen Akademie der Wissenschaften, seit 2011

Aktivitäten in Editorial Boards:

Journal of Microscopy (1980-1991)

Journal of Ultrastructure Research (1985-1988)

Supramolecular Sciences (1994-1996)

Journal of Bacteriology (1994-1997)

Journal of Applied Biochemistry and Biotechnology (seit 1993)

Journal of Nanoscience and Nanotechnology (seit 2001)

Journal of Biomedical Nanotechnology (seit 2004)

Small (seit 2004)

Journal of Bionanoscience (seit 2006)


Artikel von Uwe Sleytr im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:06

Josef Smolen

Josef Smolen

Josef Smoleno. Prof. Dr. Josef Smolen, Jg 1950, wuchs in Wien auf . Nach dem Besuch von Volks- und Mittelschule (BRG I, Stubenbastei) in Wien, absolvierte Smolen das Medizinstudium an der Medizinischen Fakultät der Universität Wien.

1975 Promotion und Eintritt in das Institut für Immunologie (Vorstand Prof. Carl Steffen); Arbeiten zur experimentellen Arthritis, Autoantikörperforschung, zellulärimmunologische  Untersuchungen.
1976 - 1980 Assistenzarzt an der II. Medizinischen Universitätsklinik ( Vorstand Prof. Georg Geyer). Von der rheumatologischen Heimatstation aus genoss er seine internische Ausbildung auch an mehreren anderen Stationen der Klinik sowie an der Universitätklinik für Kardiologie (Prof Kaindl) und der II.Universitätsklinik für Gastroenterologie (Prof. Grabner).
1980 – 1981 Max Kade Stipendiat an den National Institutes of Health in Bethesda, Maryland, USA (Chairman Dr. Alfred Steinberg). Untersuchungen: u.a. zu Zell-Zell-Interaktionen am Beispiel der autologen gemischten Lymphozytenkultur, zum systemischen Lupus erythematosus.
1982 Rückkehr nach Wien an die 2. Medizinische Universitätsklinik, Rheumatolog. Station.
1983 – 1989 Oberarzt an der rheumatologischen Station (Station 98)
1985 Habilitation für Klinische Immunologie
1987 Habilitation für Innere Medizin.
1989 -1995 Vorstand der 2. Medizinischen Abteilung des Krankenhauses der Stadt Wien-Lainz, und wissenschaftlicher Leiter des Ludwig Boltzmann Instituts für Rheumatologie und Balneologie,
1995 - Berufung auf den Lehrstuhl für Rheumatologie an der Universitätsklinik für Innere Medizin III der Universität Wien

Josef Smolen ist Träger zahlreicher hochrangiger Preise und Mitglied renommierter Gesellschaften (u.a. der Österreichischen Akademie der Wissenschaften) Er hatte und hat zahlreiche Funktionen in nationalen und internationalen Organisationen inne (u.a.: Chairman, Standardization Committee, International Union of Immunological Societies (IUIS), Chairman, International Affairs Committee, Amer. Coll. Rheumatol., zuletzt Präsident der Europäischen Rheumaliga (EULAR) und der Österreichischen Gesellschaft für Rheumatologie und Rehabilitation sowie President elect der Österreichischen Gesellschaft für Allergologie und Immunologie).

Forschungsgebiete:

Pathogenese der rheumatischen Erkrankungen, insbesondere der rheumatoiden Arthritis und des systemischen Lupus erythematosus; Autoantikörper; Zelluläre Immunologie.

Smolen hat mehr als 450 Originalarbeiten, Reviews und Essays in wissenschaftlichen Zeitschriften publiziert, ist Editor/ Associate Editor mehrerer Zeitschriften und in seinem Fachgebiet einer der meistzitierten Autoren.


Artikel von Josef Smolen im ScienceBlog

Redaktion Tue, 19.03.2019 - 17:04

St

St Redaktion Tue, 19.03.2019 - 10:18

Thomas Stanzer

Thomas Stanzer

Thomas StanzerDI Thomas Stanzer MA

Public Relations, acib GmbH

thomas.stanzer@acib.at www.acib.at

Thomas Stanzer studierte Chemie/Biochemie an der TU Graz und Medienkunde an der Universität Graz. Von 1997 bis 1998 absolvierte er ein Traineeprogramm bei der Kleinen Zeitung und arbeitete dort bis 2006 als Redakteur.

Auf die Kleine Zeitung folgte eine Zeit als Journalist, Projektmanager und Berater vor allem im politischen Bereich sowie weiter für Zeitungen, Zeitschriften und Unternehmen. Nebenbei absolvierte Thomas Weiterbildungen in (Projekt)Management und Teamentwicklung, im Medienbereich sowie Ausbildungen im Bereich Outdoor/Wildnispädagogik und ist immer wieder als Outdoorguide im Einsatz.

Thomas Stanzer ist seit Oktober 2011 beim acib für die Unternehmenskommunikation zuständig.


Artikel von Thomas Stanzer auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 17:01

Frank Stollmeier

Frank Stollmeier

Frank StollmeierFrank Stollmeier, M.Sc. Max Planck Institut für Dynamik und Selbstorganisation/ Göttingen www.ds.mpg.de Frank Stollmeier hat von 2006 – 2013 an der Universität Göttingen Physik studiert.

2009 B.Sc. Thesis: ”Computational grids for particle tracking in DSMC flow simulations“ am Deutschen Luftfahrtzentrum (DLR)
2013 M.Sc. Thesis: “Modeling Growing Biodiversity” am Max Planck Institut für Dynamik und Selbstorganisation/ Göttingen
2014 – Ph.D Student am Max Planck Institut für Dynamik und Selbstorganisation/ Göttingen Thesis: ”Non-standard evolutionary dynamics“ (vorläufiger Titel)

Forschungsinteressen

Statistische Effekte in evolutionären Prozessen, Entwicklung der Artenvielfalt


Artikel von Frank Stollmeier auf ScienceBlog.at:

Redaktion Tue, 19.03.2019 - 17:00

Christian Sturmbauer

Christian Sturmbauer

Christian SturmbauerUniv.Prof.Dr. Christian Sturmbauer,

1960 in Linz geboren, studierte Biologie an der Universität Innsbruck, habilitierte sich dort für das Fach Zoologie und absolvierte Forschungsaufenthalte an der State University of New York at Stony Brook.

2002 wurde er als Professor für Zoologie an die Karl-Franzens Universität in Graz berufen, seit 2004 ist er dort auch Vorstand des Instituts für Zoologie.

Homepage: http://www200.uni-graz.at/~sturmbau/sturmb.html

Wissenschaftliches Curriculum

1979 – 1990 Studium Biologie, Universität Innsbruck
1986 Magister der Naturwissenschaften (mit Auszeichnung)
1988 – 1989 Zivildienst: Rotes Kreuz, Innsbruck
1990 Promotion Dr. (Thesis: Vergleichende Untersuchungen zur Physiologie und Ethologie herbivorer Fische)
1984 – 1990 Assistent an der Abteilung für Ökophysiologie, Univ. Innsbruck
1991 – 1993 Postdoc im Department of Ecology and Evolution, State University of New York at Stony Brook (with Axel Meyer and Jeffrey Levinton)
1993 – 1995 Vertragsassistent an der Abteilung für Zoologie und Limnologie, Universität Innsbruck. Leiter des Molecular Evolutionary Biology Laboratory.
1995 – 2001 Universitätsassistent an der Abteilung für Zoologie und Limnologie, Universität Innsbruck
1998 Habilitation: Molekulare versus phänotypische Evolution: Ökomorphologische Diversifizierung und Artentstehung
2002 – Berufung als Professor für Zoologie an die Karl-Franzens Universität in Graz
2004 – Vorstand des Instituts für Zoologie, Karl-Franzens Universität in Graz ; Leiter der Forschungsgruppe „ Biodiversität und Evolution“

Forschungsgebiete

Biodiversität, Evolution: Populationsgenetik, Phylogenetik, Phylogeographie, Adaptive Evolution, Verhaltensökologie. Untersuchungen vorwiegend an Süßwasserfischen (eurasischen Lachsartigen und afrikanischen Buntbarschen) aber auch an anderen Spezies von Arthropoden bis zu Säugetieren. Mehr als 70 Veröffentlichungen in Fachzeitschriften und Monographien

Funktionen und Mitgliedschaften

Christian Sturmbauer ist u.a.: Mitglied im Editorial Board von Zeitschriften, korrespondierendes Mitglied der ÖAW, Mitglied des Kuratoriums des FWF, der Kommission für Interdisziplinäre Ökologische Studien (KIÖS) der ÖAW. Er ist Beirat der Deutschen Zoologischen Gesellschaft, Konsulent des Institute of Science and Technology Austria (ISTA).


Artikel von Christian Sturmbauer auf ScienceBlog.at

Redaktion Tue, 19.03.2019 - 16:59

Peter Stütz

Peter Stütz

Peter StützDr. Peter L. Stütz,

am 6. März 1940 in Linz geboren, hat nach der Matura das Studium der Chemie und Physik an der Universität Wien begonnen und 1965 mit der Promotion zum Dr.phil. abgeschlossen. Stütz war im Pharmakonzern SANDOZ (später umbenannt in NOVARTIS) in leitender Funktion tätig. Schwerpunkte: Organische Synthese, Computerbasierte Methoden in der Chemie, Immunstimulation, Qualitätsmanagement, Wissenschaftliche Infrastruktur, Planung & Koordination von Kooperationen.

Berufliche Laufbahn

1958 – 1965 Studium der Chemie und Physik an der Universität Wien, Doktorarbeit aus Organischer Chemie: "Synthesen substituierter Diphenylamine und Benzthiophene"(Anleitung: Prof. Hromatka, Technische Universiät Wien)
1964 – 196 Wissenschaftliche Hilfskraft, Technische Universität Wien
1966 – 1971 Laborleiter, Mutterkornalkaloid Synthese, Forschungslabors für Pharmazeutische Chemie, SANDOZ AG., Basel, CH
1972 – 1976 Gruppenleiter, Ergot Alkaloid Synthese, Forschungslabors für Pharmazeutische Chemie, SANDOZ AG., Basel, CH
1976 – 1986 Leiter des Bereichs Chemie, SANDOZ Forschungsinstitut, Wien
1986 – 1989 Leiter des Bereichs Immunstimulation, SANDOZ Forschungsinstitut, Wien
1990 – 1994 Leiter des Bereichs Scientific Infrastructure, SANDOZ Forschungsinstitut, Wien
1995 – 1997 Leiter für Computational Chemistry & Analytics, SANDOZ Forschungsinstitut, Wien
1997 – 2002 Planung und Koordination inkl. „Scientific Data Quality“, NOVARTIS Forschungsinstitut, Wien
2002 – 2006 Externe wissenschaftliche Kollaborationen, NOVARTIS Forschungsinstitut, Wien
2006 – Berater/Konsulent, u.a. für eine Biotech. Co. im RaumWien, für präklinische, von der EU geförderte Programme zur Entwicklung neuartiger Therapien

Management Ausbildung

International Seminar on Management of Research & Development, August 16‑27, 1982; International Management Institute (IMI), Geneva, Switzerland. Advanced Management Programme, June 29 ‑ July 25, 1986; Institut Europeen d'Administration des Affaires, Fontainebleau, France.

Wissenschaftliche Publikationen

Neben ungezählten internen Projektvorschlägen und Dokumenten hat Peter Stütz 61 Publikationen in peer-reviewed Zeitschriften und 10 Buchkapitel verfaßt, er ist Inhaber zahlreicher Patente und hat sehr viele Vorträge gehalten. In seiner Freizeit beschäftigt er sich mit wissenschaftlichen Fragestellungen zu Systematik, Vorkommen und Vermehrung von Pilzen und Orchideen.


Artikel von Peter Stütz im ScienceBlog

Redaktion Tue, 19.03.2019 - 16:58

Jeremy Swann

Jeremy Swann

Jeremy SwannJeremy Swann, PhD

Projektleiter Max-Planck Institut für Immunobiologie und Epigenetik (Freiburg) http://www.mpg.de/153825/immunbiologie

Jeremy Swann hat an der Universität Melbourne (Australien) studiert und mit einer Doktorarbeit über Tumorimmunologie am Peter MacCallum Cancer Centre abgeschlossen. Anschliessend war er Postdoc am Max-Planck Institut für Immunobiologie und Epigenetik, wo er die Evolution und Entwicklung des Thymus untersuchte. Er setzt seine Arbeiten nun dort als Projektleiter fort und erforscht den Einfluss somatischer Variationen auf die Biologie der T-Zellen.


Artikel von Jeremy Swann auf ScienceBlog.at

Redaktion Fri, 14.08.2015 - 06:39

Peter Swetly

Peter Swetly

Peter SwetlyUniv. Prof. Dr. Peter Swetly

hat Chemie und Physik (Universität Wien) studiert, leitete Abteilungen für Gentechnologie, Biotechnologie und Immunologie am Ernst Boehringer Institut (Wien), war langjähriger Direktor für Forschung und Entwicklung bei Bender&Co und Boehringer Ingelheim (Austria) und Vizerektor für Forschung an der Vetmed Univ. Wien. Er ist Mitglied zahlreicher Gremien und Science Advisory Boards.

Swetly wurde am 19.12.1939 in Wien geboren.

Ausbildung

1957 – 1967 Studium der Chemie und Physik an der Universität Wien

Beruf

2004 – 2010 Vizerektor für Forschung der Veterinärmedizinischen Universität Wien

2002 – 2003 Konsulent bei Boehringer Ingelheim International, ab 01.01.1999 Boehringer Ingelheim Austria

1988 – 2001 Direktor, Bereich Forschung und Entwicklung bei Bender + Co GmbH, ab 01.01.1999 Boehringer Ingelheim Austria

1986 Ernennung zum ao. Universitätsprofessor an der Medizinischen Fakultät der Universität Wien

1985 – 1988 Fachleiter für Biotechnologie und Immunologie bei Boehringer Ingelheim International

1981 – 1988 Leiter der Abteilung Gentechnologie am Ernst-Boehringer-Institut, Wien

1980 Habilitation an der Medizinischen Fakultät der Universität Wien

1968 – 1981 Laborleiter am Ernst-Boehringer-Institut, Wien

1970 – 1971 WHO Fellow am Wistar Institute

1968 – 1969 Post Doctoral Fellow, Wistar Institute for Anatomy and Biology, University of Pennsylvania, Philadelphia, USA

1966 – 1968 Wissenschaftlicher Mitarbeiter am Institut für Biochemie der Universität Wien

Mitgliedschaften und Funktionen

  • Deutsche Gesellschaft für Genetik
  • Österreichische Biochemische Gesellschaft
  • Gesellschaft für Mikrobiologie
  • International Society for Interferon and Cytokine Research
  • Österreichische Gesellschaft für Biotechnology
  • Österreichische Gesellschaft für Genetik und Gentechnik
  • American Association for the Advancement of Science Club Alpbach
  • The New York Academy of Science
  • EuropaBio
  • Kommission für Forschungsangelegenheitn der Österreichischen Rektorenkonferenz (2000 – 2001)
  • EU Gentechnikkommission
  • SAB Intercell
  • SAB IMP
  • SAB Innovationsagentur
  • Kommission des Bundesministeriums für Bildung und Forschung Bonn

Lebenslauf als PDF abrufbar


Artikel von Peter Swetly im ScienceBlog

Redaktion Tue, 19.03.2019 - 16:47

Autoren T-Z

Autoren T-Z Redaktion Tue, 19.03.2019 - 10:15

Felix Warmer

Felix Warmer

Felix WarmerDr. Felix Warmer

Assistant Professor

Eindhoven University of Technology, http://www.tue.nl/

Felix Warner (*1988) hat an der Universität Leipzig Physik studiert und seine Masterarbeit und später seine Doktorarbeit am Max-Planck-Institut für Plasmaphysik in Greifswald - hier wird der Stellarator Wendelstein 7-X entwickelt- gemacht. Seine Doktorarbeit " Integrated Concept Development of Next-Step Helical-Axis Advanced Stellarators" wurde 2016 mit "summa cum laude" ausgezeichnet.

Anschließend war Warner als Research Fellow der Alexander von Humboldt Stiftung und der Japan Society for the Promotion of Science bis September 2017 am National Institute of Fusion Sciences, Tokyo, Japan.

Er kehrte 2017 an das Max-Planck-Institut für Plasmaphysik in Greifswald als Postdoc und später als Staff Scientist zurück.

Im März 2022 wurde Warmer als Assistant Professor an die Eindhoven University of Technology berufen.

 Forschungsinteressen

Der noch recht junge Forscher hat bereits über 40 Arbeiten publiziert. Sein Ziel ist es einen flexiblen digitalen Zwilling eines Fusionskraftwerks am Computer zu modellieren, mit dem man die Auswirkung neuer Technologien, physikalischer Erkenntnisse oder Unsicherheiten auf den Entwurf untersuchen kann.


Artikel von Felix Warmer auf ScienceBlog.at

inge Thu, 28.07.2022 - 18:15

Peter Tessarz

Peter Tessarz

Peter TessarzDr.Peter Tessarz

Max-Planck-Forschungsgruppenleiter, Max-Planck-Institut für Biologie des Alterns, Köln, Deutschland

https://www.age.mpg.de/de/forschung/forschungsgruppen/tessarz

*1977, Germany

Ausbildung und Karriereweg

   
2009 - 2014 Research Associate, Group of Tony Kouzarides, Gurdon Institute, University of Cambridge, UK
2008 Postdoc, Gruppe: Bernd Bukau, ZMBH, Universität Heidelberg, Deutschland
2003 - 2008 Doktorand (Dr. rer. nat.), summa cum laude, Gruppe: Bernd Bukau, ZMBH, Universität Heidelberg, Deutschland
2003 Diplom in Biochemie, Gruppe: Rodnina Rodnina, Institut für Physische Biochemie, Universität Witten/Herdecke, Germany
2000 - 2003 Studium: Biochemie, Universität Witten/Herdecke, Germany

Forschungsschwerpunkte

  • Chromatin und Alterung
  • Verbindung von Stoffwechsel und Epigenom
  • Epigenetische Heterogenität Auszeichnungen

 Über diese Arbeiten sind 34 Publikationen in peer-reviewed Journalen erschienen. Tessarz wurde 2014 mit dem Kekulé-Fellowship des 'Fonds der chemischen Industrie' ausgezeichnet.

inge Thu, 22.09.2022 - 17:24

Diethard Tautz

Diethard Tautz

Diethard TautzProf. Dr. Diethard Tautz

Direktor am Max-Planck-Institut für Evolutionsbiologie, Abteilung Evolutionsgenetik http://www.evolbio.mpg.de/2719/evolutionarygenetics

*1957 in Glonn bei München

Ausbildung und Karriere

1975 - 1983 Studium der Biologie in Frankfurt am Main und Tübingen
1983 Promotion MPI Tübingen und EMBL Heidelberg
1983 - 1985 Postdoc am Department of Genetics (Gabriel Dover), Cambridge (UK)
1985 - 1988 Postdoc am MPI für Entwicklungsbiologie (Herbert Jaeckle), Tübingen
1988 Habilitation in Molekularbiologie, Tübingen
1988 - 1990 Gruppenleiter am Institut für Genetik, LMU München
1991 -1998 Professor für molekulare Evolution am Zoologischen Institut der LMU München
1998 - 2007 Professor für molekulare Evolution am Institut für Genetik, Univ. Köln
2007 - Direktor am Max-Planck-Institut für Evolutionsbiologie, Plön

Forschungsinteressen

decken verschiedenene Themen der molekularen Evolution ab. Tautz befasst sich insbesondere mit molekularen Mechanismen evolutionärer Anpassungen, Populationsgenetik, der Entstehung der Arten und der vergleichenden Genomforschung.

Derzeit arbeitet die Gruppe von Diethard Tautz am MPI an der Identifizierung und Charakterisierung von Genen, die an evolutionären Anpassungsprozessen beteiligt sind, wobei die Maus als Modellsystem dient. Es wird ein breites Spektrum genomischer Technologien verwendet, sowie Verhaltensexperimente, morphologische Untersuchungen und Genkartierungsansätze. Zur Charakterisierung identifizierter Gene werden auch Populationsexperimente unter semi-natürlichen Bedingungen durchgeführt.

Die Forschungsergebnisse sind in mehr als 260 Publikationen niedergelegt (Liste: http://web.evolbio.mpg.de/~tautz/publications_tautz.pdf)

Auszeichnungen und Mitgliedschaften

1990 Gerhard Hess Preis der DFG
1995 Philip Morris Preis
2001 Mitglied der European Molecular Biology Organization, EMBO
2004 Mitglied der Nordrhein-Westfälischen Akademie der Wissenschaften
2008 Mitglied der Deutschen Akademie der Naturforscher Leopoldina
2004 -2012 Mitglied im Fachkollegium Zoologie der DFG
2005 - 2007 Initiator und Sprecher des SFB 680 "Molecular Basis of evolutionary Innovations"
2005 - 2006 Präsident der Deutschen Zoologischen Gesellschaft
2006 Wissenschaftliches Mitglied der Max-Planck Gesellschaft
2010 - 2011 Präsident des Verbandes Biologie, Biowissenschaften & Biomedizin in Deutschland, VBIO

Artikel von Diethard Tautz auf ScienceBlog

Redaktion Tue, 19.03.2019 - 16:45

Helge Torgersen

Helge Torgersen

Helge TorgersenHelge Torgersen

wurde am 4.9.1954 in München geboren. Kindheit und Schulzeit verbrachte er in Wien, Hannover, Bonn und Salzburg, wo er 1972 maturierte. Er studierte Zoologie und Biochemie in Salzburg und promovierte 1980. Von 1981 an war er Assistent am Institut für Molekularbiologie der Univ. Wien (prof. E. Wintersberger), von wo er 1987 an das Institut für Biochemie (Med. Fak., Prof. H. Tuppy) wechselte. Forschungsgegenstände in dieser Zeit waren zunächst DNA-Tumorviren, später Picornaviren.

1990 wechselte Helge Torgersen an die Forschungsstelle für Technikbewertung der Österreichischen Akademie der Wissenschaften (Prof. E. Braun), die 1984 unter Prof. G. Tichy zum Institut für Technikfolgen-Abschätzung wurde. Helge Torgersen baute dort einen Arbeitsschwerpunkt zu gesellschaftlichen Aspekten der Biotechnologie auf, der u.a. die Enquete-Kommission des österreichischen Nationalrats zur Gentechnik begleitete. Seit 1996 gehört er einer internationalen Arbeitsgruppe unter Prof. G. Gaskell (London School of Economics) an, die die Eurobarometer-Umfragen zur öffentlichen Wahrnehmung der Biotechnologie konzipiert und auswertet.

Seit mittlerweile mehr als 20 Jahren beschäftigte sich Helge Torgersen mit gesellschaftlichen Aspekten der Biotechnologie – vorwiegend in internationaler Zusammenarbeit, aber auch im Auftrag der österreichischen Verwaltung und als Leiter von GEN-AU/ELSA-Projekten. Ging es zunächst vor allem um die Debatte um die Grüne Gentechnik, so stand in letzter Zeit das Thema Synthetische Biologie im Mittelpunkt. Themen waren neben der öffentlichen Wahrnehmung und allfälligen gesellschaftlichen Konflikten auch Fragen der Risikoabschätzung und des -managements, der Regulierung und der Governance.

Dr. Helge Torgersen, Institut für Technikfolgen-Abschätzung der ÖAW, Strohgasse 45, 1030 Wien torg@oeaw.ac.at http://www.oeaw.ac.at/ita


Artikel von Helge Torgersen im ScienceBlog

Redaktion Tue, 19.03.2019 - 16:43

Dario Ricardo Valenzano

Dario Ricardo Valenzano

Dario R. ValenzanoDario Riccardo Valenzano, PhD Forschungsgruppenleiter am Max-Planck-Institut für Biologie des Alterns (Köln) http://valenzano-lab.age.mpg.de/ *1977 in Bari (Italien)

Ausbildung und Karriereweg

2001 BSc und MSc in Biologie, Universität Pisa, Italien
2000 – 2002 Thesis am ISTC of the CNR, Rome, Italy (Advisor: Dr. Elisabetta Visalberghi): "Facial expressions in tufted capuchins (Cebus apella)"
2002 Dipl. Biologe, Scuola Normale Superiore, Pisa, Italien
2003 – 2006 Thesis in Neurobiologie an der Scuola Normale Superiore, Pisa, Italy (Advisor: Dr. Alessandro Cellerino): Aging in Nothobranchius furzeri, a new vertebrate model of extremely short lifespan
2006 PhD
2006 – 2011 Postdoc: Stanford University, Dept Genetics (Advisor: Dr. Anne Brunet) Developing genetic and genomic tools to identify the genes associated with longevity in the short-lived fish Nothobranchius furzeri
2011 – 2013 Research Associate: Stanford University, Dept. Genetics (Brunet laboratory)
2013 – Forschungsgruppenleiter am Max-Planck-Institut für Biologie des Alterns
2016 – Principal Investigator am Cologne Cluster of Excellence CECAD ( Cellular Stress Responses in Aging-Associated Diseases - ein interdisziplinärer Forschungsverbund der Universität Köln und des Max-Planck-Instituts für die Biologie des Alterns)

Forschungsinteressen

Evolutionäre genetische Grundlagen der Lebensdauer und des Alterns von Wirbeltieren. Modellorganismus ist der afrikanische Türkise Prachtgrundkärpfling (Nothobranchius furzeri) - das kurzlebigste Wirbeltier, welches im Labor gehalten und gezüchtet werden kann. Publikationen: http://valenzano-lab.age.mpg.de/php/publications.html


Aritkel von Dario Ricardo Valenzano auf ScienceBlog

Redaktion Tue, 19.03.2019 - 16:42

Gerhard Wegner

Gerhard Wegner

Gerhard WegnerEm.Univ.Prof. Dr. Gerhard Wegner

1940 in Berlin geboren
1965 Promotion als Abschluss des Studiums der Chemie, Universität Mainz
1966 – 1969 Yale University Conn. USA
1970 Habilitation im Fach Physikalische Chemie, Universität Mainz
1971 – 1974 Professor für Physikalische Chemie, Universität Mainz
1974 – 1984 Direktor des Instituts für Makromolekulare Chemie, Universität Freiburg
1984 – 2008 Gründungs-Direktor des Max-Planck-Instituts für Polymerforschung Mainz
1991 – 1994 Vorstand der Chemie-Physik-Technologie Sektion der Max-Planck-Gesellschaft
1996 – 2002 Vizepräsident der Max-Planck-Gesellschaft
2006 – 2011 CEO des Instituts für Mikrotechnologie, Mainz (IMM)
2009 – Aufbau der Exploratory Round Table Conferences (ERTC) – Max-Planck-Society & Chinese Academy of the Sciences (CAS).

Forschungsschwerpunkte

Polymerchemie: Strukturprinzipien im Design neuartiger makromolekularer Materialien, Charakterisierung der Struktur von Polymeren mittels quantitativer Methoden (Röntgen, Elektronenmikroskopie, Lichtstreuung) feste Polyelektrolyte und Ionenleiter, Polymere als Halbleiter, oberflächenaktive Polymere

Mitgliedschaften und Auszeichnungen

Mitglied des Vorstands der DECHEMA, Frankfurt Mitglied der Österreichischen Akademie der Wissenschaften, der Königlich-Niederländischen Akademie der Wissenschaften, der Nordrhein-Westfälischen Akademie der Wissenschaften, der Academia Europea, der Akademie der Wissenschaften und Literatur in Mainz (2006 – 2012 Vizepäsident) Preise: Otto Bayer Preis; Philipp Morris Preis; Hermann Staudinger Preis; Polymerchemiepreis der American Chemical Society; Preis der Gesellschaft für Polymerchemie, Japan; Dechema-Medaille; FEMS-European Materials Medal, Lausanne; Bundesverdienstkreuz 1. Klasse Ehrendoktorate: ETH Zürich, Universität Erlangen, Technische Universität Lodz, Universität Patras, University of Masschusetts Honorary Professor at Nakai University, Tiajin, China and Honorary Member of the Topchiev Institute of the RAS, Moscow, Russia


Artikel von Gerhard Wegner im ScienceBlog

Redaktion Tue, 19.03.2019 - 16:38

Gerhard Weikum

Gerhard Weikum

Gerhard WeikumProf.Dr. Gerhard Weikum

Direktor am Max-Planck Institut für Informatik in Saarbrücken, Leiter der Abteilung Datenbanken und Informationssysteme

Homepage: http://people.mpi-inf.mpg.de/~weikum/

* 1957, Frankfurt.

Gerhard Weikum hat an der TU Darmstadt Informatik studiert und war nach seiner Promotion dort Hochschulassistent.

Von 1988 – 1989 ging er zu MCC (Microelectronics and Computer Technology Corporation) in Austin, Texas.

Von 1989 bis 1994 war er Professor für Informatik an der ETH Zürich, anschließend bis 2003 an der Universität des Saarlandes in Saarbrücken.

Seit 2003 ist er Direktor am Max-Planck Institut für Informatik in Saarbrücken, seit 2004 Dekan der International Max Planck Research School for Computer Science (IMPRS-CS).

Weikum ist Principal Investigator im Cluster of Excellence on "Multimodal Computing and Interaction"

Auszeichnungen

Mitglied der Deutschen Akademie der Wissenschaften und der Literatur ACM SIGMOD Contributions Award ((Association for Computing Machinery, Special Interest Group on managemet of Data), 2011 Google Focused Research Award 2010 Fellow of the German Computer Society (GI) 2010 Mitglied der Deutschen Akademie der Technikwissenschaften (acatech) 2008 ACM Fellow 2005 (Association for Computing Machinery) CIDR 2005 Timeless Idea Award VLDB 10-Year Award 2002 (Very Large Data Bases)

Forschungsgebiete

Intelligente Organisation von und Suche in semistrukturierten Informationen Verteilte Informationssysteme, Peer-to-Peer-Systeme, Performance-Optimierung (automatic tuning) und Selbstorganisation (autonomic computing) von Datenbanksystemen

Publikationen

mehr als 400, Liste: http://www.mmci.uni-saarland.de/en/investigators/pi/gweikum


Artikel von Gerhard Weikum im ScienceBlog

Redaktion Tue, 19.03.2019 - 16:37

Roland Wengenmayr

Roland Wengenmayr

Roland WengenmayrDI. Roland Wengenmayr

Physiker, freier Wissenschaftsjournalist

http://www.roland-wengenmayr.de/

Roland Wengenmayr hat an der TU Darmstadt Physik studiert und anschließend am CERN in Genf gearbeitet. Zwischen 1993 und 2000 war er Lektor beim Wissenschaftsverlag Wiley-VCH in Weinheim. Seit 2001 ist er als freier Wissenschaftsjournalist tätig.

Er ist Autor und Herausgeber mehrerer Bücher. Darüber hinaus ist er Zeichner und hat Bücher illustriert. Seine Artikel erscheinen unter anderem in der Frankfurter Allgemeinen Sonntagszeitung, dem Handelsblatt und der MaxPlanckForschung.

Gemeinsam mit Thomas Bürke ist Wengenmayr Herausgeber von "Physik in unserer Zeit" und wurde zusammen mit diesem 2013 mit der "Medaille für naturwissenschaftliche Publizistik der Deutschen physikalischen Gesellschaft" ausgezeichnet.


Artikel im ScienceBlog:

19.05.2022: Elektrisierende Ideen für leistungsfähigere Akkus

Christina Beck & Roland Wengenmayr. 21.04.2022: Grünes Tuning - auf dem Weg zur künstlichen Photosynthese

11.03.2021: Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

13.01.2022: Nanokapseln - wie smarte Polymere Chemie und Medizin revolutionieren

02.12.2021: Brennstoffzellen: Knallgas unter Kontrolle

08.10.2021: Alles ganz schön oberflächlich – heterogene Katalyse

13.05.2021: Die Sonne im Tank - Fusionsforschung

08.04.2021: 3D-Druck: Wie Forscher filigrane Formen aus Metall produzieren


 

inge Wed, 10.03.2021 - 23:04

Georg Wick

Georg Wick

Georg WickEm. Prof. Dr. Med. Georg Wick

war Ordinarius für Pathophysiologie und Immunologie (Universität Innsbruck), Gründungsdirektor des ÖAW-Instituts für Biomedizinische Alternsforschung, Präsident des FWF, Leiter des Labors für Autoimmunität (Biozentrum Univ Innsbruck)-.

Forschungsschwerpunkte:

Arteriosklerose, sklerotische Erkrankungen.

1939 in Klagenfurt, Österreich, geboren promovierte Georg Wick 1964 an der Universität Wien zum Dr. med.

Nach Aufenthalten in den USA, 1967-1971, habilitierte er sich 1971 für das Fach Allgemeine und Experimentelle Pathologie, wurde 1974 zum ao. Professor für Immunpathologie an der Universität Wien ernannt und 1975 als Ordinarius für Pathophysiologie und Immunologie an die Medizinische Fakultät der Universität Innsbruck berufen.

Von 1991-2003 war er gleichzeitig Gründungsdirektor des Instituts für Biomedizinische Alternsforschung der ÖAW in Innsbruck und

von 2003-2005 Präsident des Österreichischen Fonds zur Förderung der Wissenschaftlichen Forschung (FWF), Wien.

Seit seiner Emeritierung Ende 2007 leitet er das Labor für Autoimmunität am Biozentrum der Medizinischen Universität Innsbruck. Seine derzeitigen Forschungsschwerpunkte sind die Immunologie der Arteriosklerose und die Immunologie Fibrotischer Erkrankungen.

Er ist Autor von 600 wissenschaftlichen Arbeiten und 10 Büchern, Mitglied der Deutschen Akademie der Wissenschaften Leopoldina, der Academia Europea, und von verschiedenen wissenschaftlichen Fachgesellschaften.

Georg Wick ist Herausgeber der Zeitschrift Gerontology und nimmt offizielle Funktionen im In- und Ausland wahr. Er erhielt zahlreicher Auszeichnungen und Preise wie „Österreichischer Wissenschaftler des Jahres 1994“, „Österreichische Ehrenkreuz für Wissenschaft und Kunst 1. Klasse“, Clemens von Pirquet Award, University of California at Davis, Erwin-Schrödinger-Preis der ÖAW, Georg Wick Autoimmunity Day, Tel Hashomer, Israel.


Artikel von Georg Wick im ScienceBlog

Artikel ohne link sin derzeit noch nicht aufbereitet

Redaktion Tue, 19.03.2019 - 16:41

Martin Wikelski

Martin Wikelski

Martin WikelskiProf. Dr. Martin Wikelski
Geschäftsführender Direktor am
Max-Planck-Institut für Verhaltensbiologie Radolfzell / Konstanz

Abteilung für Tierwanderungen
https://www.ab.mpg.de/3747/wikelski

Martin Wikelski (*1965 in München) hat an der Ludwig-Maximilians-Universität in München Zoologie studiert (1985-1991) und an der Universität Bielefeld über Verhaltensökologie (1994) promoviert.

Karriereweg

1995–1998 Postdoc-Stellen an der University of Washington in Seattle und am Smithsonian Tropical Research Institute in Panama (1996-1998)
1998–2000 Assistant Professor an der University of Illinois, Urbana-Champaign
2000–2005 Assistant Professor in Princeton
2005– Associate Professor in Princeton
2007– Direktor der Abteilung für Tierwanderung und Immunökologie und Wissenschaftliches Mitglied am Max-Planck-Institut für Ornithologie in Radolfzell
2008– Professor für Ornithologie an der Universität Konstanz
2011– Geschäftsführender Direktor des Max-Planck-Instituts für Ornithologie, Radolfzell
2011– Leiter der Migration Ecology Group der FAO Task Force for Wildlife and Ecosystem Health
2015– Mitglied der Working Group on Avian Influenza der European Food and Safety Association

Forschungsinteressen

Globale Tierwanderungen, Immunökologie, Computational Ecology.

Wikelski hat ein neues globales Tierbeobachtungssystem ‚ICARUS‘. etabliert: mittels miniaturisierter Messgeräte am Körper der Tiere und Empfangsantennen im Weltraum können selbst die Bewegungen kleiner Tierarten nahezu rund um die Uhr und an jedem Ort der Erde verfolgt werden können. Die gewonnenen Daten werden in einer jedermann zugänglichen Datenbank ("Movebank“) gespeichert.

Tierwanderungen geben wichtige Hinweise auf Klimaveränderungen, anstehende Vulkanausbrüche und menschliche Einflüsse und sind von großer immunökologischer Bedeutung im Kampf gegen hochansteckende Infektionskrankheiten wie Sars, West‐Nil‐Fieber oder Vogelgrippe.

Über seine Forschungen liegen 286 Publikationen vor.

Auszeichnungen

1998 Niko-Tinbergen-Preis der Deutschen Ethologischen Gesellschaft
1999 A. O. Beckman Award, University of Illinois, USA
2000 Bartolomew-Preis der Gesellschaft für Integrative und Vergleichende Biologie der USA
2008 National Geographic Society “Emerging Explorer“
2010 National Geographic Society “Adventurer of the Year”
2014 Mitglied der Nationalen Akademie der Wissenschaften Leopoldina
2014 Fellow der International Ornithologists' Union (IOU)
2016 Max-Planck-Forschungspreis

Artikel von Martin Wikelski im ScienceBlog

Redaktion Thu, 20.06.2019 - 07:16

Christian Wolf

Christian Wolf

Christian WolfDr.Christian Wolf

https://www.wissenschaftsjournalist-wolf.de/%C3%BCber-mich/

Christian Wolf (* 1976) hat an der Universität Würzburg Germanistik und Philosophie studiert.

Mehr und mehr fasziniert von der Welt des empirisch Messbaren kam er über Praktika bei spektrum.de und Gehirn&Geist zum Wissenschaftsjournalismus. Seit 2009 verbindet er als freier Wissenschaftsjournalist in Berlin die Leidenschaft für komplexe Themen mit der kritischen Zurückhaltung des philosophischen Blicks. Immer auf Augenhöhe mit dem Leser. Insbesondere will er Lesern Forschungsergebnisse der Psychologie, der Neurobiologie und der Medizin zu vermitteln.

Wolf schreibt für diverse Zeitschriften (u.a. Gehirn und Geist, Psychologie Heute, Spektrum der Wissenschaft, Scientific American), Zeitungen (u.a. Berliner Zeitung, Standard, Frankfurter Zeitung, NZZ am Sonntag, Handelsblatt) und online-Portale. Auf der Webseite https://www.dasgehirn.info ist er Autor von 80 Artikeln.


Artikel von Dr. Christian Wolf im ScienceBlog

o4.05.2025:Intuition - unbewusste Quelle des Denkens.

14.11.2024: Wie das Gehirn von Abfallstoffen gereinigt wird.

29.08.2024: Langeweile: Von Nerv tötender Emotion zu kreativen Gedanken


 

inge Thu, 29.08.2024 - 22:37

Matthias Wolf

Matthias Wolf

Matthias WolfHon.-Prof. (FH) Matthias Wolf, MSc

Matthias Wolf, Jahrgang 1965, studierte Physik und danach Erdwissenschaften bis zum MSc an der Open University mit Sitz in Milton Keynes, UK. Sein Spezialfach waren die Klimawissenschaften; seine Diplomarbeit befasste sich mit einem Verfahren zur Verbesserung von Wettersimulationen für den Alpenraum (insbesondere, was Niederschläge betrifft). Im Zuge dieser Arbeit deckte er einen Fehler in E-OBS, einem international renommierten Datensatz, auf, der dadurch in der Nachfolgeversion korrigiert werden konnte.

Seit 2011 hilft er Inge Schuster beim ScienceBlog, dessen technischer Betreiber er seit 2014 selbst ist.

Wolf ist seit 30 Jahren selbständig im IT-Bereich mit Spezialisierung auf Erstellung von Client-/Server-Datenbankprojekten. Er ist diesbezüglich Sachbuchautor und unterrichtet diese Fertigkeiten bald 20 Jahre an zwei FHs in Wien und St.Pölten.


Artikel von Matthias Wolf auf ScienceBlog

mat Wed, 25.12.2019 - 13:57

Claudia-Elisabeth Wulz

Claudia-Elisabeth Wulz

Claudia-Elisabeth WulzUniv.-Doz. Dr. techn. Dipl.-Ing. Claudia-Elisabeth Wulz

Institut für Hochenergiephysik (HEPHY), Wien und CERN/PH

Vormals Gruppenleiterin CMS Trigger http://wulz.web.cern.ch/wulz/

Claudia Wulz wurde 1960 in Klagenfurt geboren.

Ausbildung

1970 - 1978 Bundesgymnasium Villach, Matura mit Auszeichnung
1978 - 1986 Studium der Technischen Physik. Technische Universität Wien
1982 - 1983 Diplomarbeit am Institut für Hochenergiephysik, Wien, Experiment UA1 (CERN)
1983 Diplom Ingenieur (mit Auszeichnung)
1983 - 1985 Dissertation am Institut für Hochenergiephysik, Wien, Experiment UA1 (CERN)
1986 Dr. techn. ("sub auspiciis präsidentis")

Karriereweg

1986 - 1987 Fellow, CERN, Genf, Experiment UA1
1988 - Physikerin, Institut für Hochenergiephysik, Wien, Experimente UA1, RD5, NA48, CMS
1993 - Leiterin des CERN Vienna-CMS Teams Leiterin: Projekt CMS-Trigger der Österreichischen Akademie der Wissenschaften
1994 1998 Resources Manager für das CMS Myon Project
1994 - Lehrtätigkeit, Institut für Theoretische Physik, TU Wien , Universität Wien
2002 Habilitation, TU Wien: Experimentelle Hochenergiephysik
2007 - CMS Deputy Trigger Project Manager

Forschungsschwerpunkte

Teilchenphysik… • Physik jenseits des Standardmodells, Supersymmetrie • Dunkle Materie • Neutrinos • Teilchen und Strahlen aus dem Kosmos, Kosmologie …und experimentelle Methoden Elektronik, Teilchendetektoren und Datenakquisition. Ein enorm wichtiger Beitrag zum CMS-Experiment ist die Entwicklung eines Triggersystems, das aus den rund 4 Millionen Mal pro Sekunde erfolgenden Kollisionen von Teilchen nur die interessantesten herausfiltert (beispielsweise ob eine hochenergetische Spur eines Myons oder Elektrons vorhanden ist).

Publikationen

622 Arbeiten, davon > 80 % CMS Kollaborationen (Stand Dezember 2015) http://wulz.web.cern.ch/wulz/PUBS/Publications.html

Wissenschaftskommunikation

Zahlreiche öffentliche Vorträge über Teilchenphysik, Astrophysik und Kosmologie, Mitarbeit bei Veranstaltungen und Ausstellungen in diesen Gebieten, Interviews für Presse und Medien, Teilnahme an TV-Dokumentationen und Diskussionen


Artikel von Claudia Wulz auf dem ScienceBlog

Redaktion Tue, 19.03.2019 - 13:11

Sönke Zaehle

Sönke Zaehle

Dr. Sönke Zaehle

 

Sönke ZaehleForschungsgruppenleiter
Terrestrial Biosphere Modelling
Max-Planck-Institut für Biogeochemie

https://www.bgc-jena.mpg.de/bgi/index.php/People/SoenkeZaehle

Ausbildung und Karriereweg

1996 Abitur, Gymnasium Westerwede
1997 - 2000 Studium der Geoökologie am Institut für Geoökologie, Technische Universität Braunschweig
2000 -2001 MSc in Umweltwissenschaften, University of East Anglia, Norwich, UK.
2001 - 2005 PhD Arbeit am Institut für Klimafolgenforschung, Universität Potsdam, anschliessend Forschungsarbeiten ebendort
2005 - 2008 PostDoc am Laboratoire des Sciences du Climat et de l'Environnement in Gif sur Yvette, FR, (GREENCYCLES MC-RTN)
2008 - Forscher am Max-Planck-Institut für Biogeochemie (Jena)
2009 - Leitung der Terrestrial Biosphere Modelling Research Group ebendort

Forschungsschwerpunkte

Quantifizierung des Effekts von Nährstofflimitierung (Stickstoff, Phosphor) auf die Dynamik der Landbiomasse (Kohlenstoffkreislauf, Wasser- und Energiehomöostase, Wachstumsdynamik) und ihre Wechselwirkungen mit dem System Erde. Neue numerische Modelle zur Kopplung zwischen terrestrischen Kohlenstoff- uns Stickstoffkreisläufen und ihrer Relevanz für das Klimasystem.

Dazu gibt es mehr als 160 Publikationen (Eine Auswahl dazu: https://www.bgc-jena.mpg.de/bgi/index.php/People/SoenkeZaehle#publications)

Auszeichnungen

Experienced Researcher Marie-Curie Fellowship (Greencycles-RTN) 2005 - 2008

Marie-Curie Fellowship Reintegration Grant (JULIA) 2008 - 2011

Heinz Maier-Leibnitz-Preis 2014

Artikel von Sönke Zaehle im ScienceBlog

Redaktion Thu, 01.08.2019 - 12:10

Arturo Zychlinsky

Arturo Zychlinsky

Arturo Zychlinsky

Prof. Arturo Zychlinsky, Ph.D.

Direktor der Abteilung Zelluläre Mikrobiologie

Max-Planck-Institut für Infektionsbiologie

http://www.mpiib-berlin.mpg.de/1831543/arturo-zychlinsky

*1962 in Mexico-Stadt

Akademischer und beruflicher Werdegang

1980 – 1985 Studium der Chemie, Bakteriologie und Parasitologie am Nationalen Polytechnischen Institut, Mexiko Stadt
1985 – 1991 Promotion in Immunologie an der Rockefeller University, New York, USA
1991 – 1993 Postdoktorand am Institut Pasteur Paris, Frankreich
1993 – 2001 Professor am Skirball Institute of Biomolecular Medicine / NYU Langone Medical Centre und Abteilung für Mikrobiologie an der New York University, USA
2001 – Direktor der Abteilung Zelluläre Mikrobiologie am Max-Planck-Institut für Infektionsbiologie, Berlin

Forschungsschwerpunkte

Mikrobiologie, Infektionsbiologie, Krankheitserreger. Seine Schwerpunkte liegen auf Neutrophilien, dem Immunsystem und angeborener Immunität.

Zychlinsky hat bahnbrechende Arbeiten zu den antibakteriellen Wirkmechanismen von neutrophilen Granulozyten und zur Induktion der Apoptose von Makrophagen durch bakterielle Faktoren geleistet. In der Datenbank PubMed sind 125 Publikationen in Fachjournalen gelistet.

Auszeichnungen

2012 Fellow der American Academy of Microbiology
2005 Mitglied der Nationalen Akademie der Wissenschaften Leopoldina
2005 Eva und Klaus Grohe-Preis, Berlin-Brandenburgische Akademie der Wissenschaften
2001 Wissenschaftliches Mitglied der Max-Planck-Gesellschaft

Artikel von Arturo Zychlinsky auf ScienceBlog

Redaktion Fri, 27.12.2019 - 09:13

Redaktion

Redaktion

Artikel der Redaktion auf ScienceBlog.at

 

Redaktion Tue, 19.03.2019 - 16:57

…Erscheinungsdatum

…Erscheinungsdatum Redaktion Tue, 19.03.2019 - 10:10

2025

2025 inge Thu, 09.01.2025 - 13:56

Was ist Stress? Ursachen und Auswirkungen auf Körper und Psyche

Was ist Stress? Ursachen und Auswirkungen auf Körper und Psyche

Do, 29.05.2025 — Christina Beck Christina Beck

Icon Medizin

„Ich bin total im Stress!“ – wer hat das nicht schon oft gehört. Ob in Schule, Studium oder Beruf: Lernstress vor Prüfungen, Termindruck im Job und manchmal sogar Freizeitstress, wenn man sich unter der Woche zu viel vorgenommen hat. Stress hat in unserer Gesellschaft ein ausgesprochen schlechtes Image. Zu Recht? „Ohne Stress wäre unser Leben ziemlich langweilig“, sagt der Biologe Mathias V. Schmidt vom Max-Planck-Institut für Psychiatrie in München. „Wir könnten unseren Alltag gar nicht bewältigen, wenn es keinen Stress gäbe und wir kein funktionierendes Stresssystem hätten.“ *

© HNBM

Stress ist also per se nichts Negatives. Das Stresshormon Cortisol etwa hilft uns dabei, morgens überhaupt aufstehen zu können – zu diesem Zeitpunkt ist die Cortisol-Konzentration im Blut erhöht. Sie sorgt dafür, dass wir mit Energie in den Tag starten. Abends sinkt sie wieder, damit wir zur Ruhe kommen. „Im Grunde helfen uns Stressreaktionen dabei, die ganz normalen Herausforderungen des Alltags zu bewältigen. Stress gehört zum Leben dazu“, sagt Mathias V. Schmidt. Problematisch wird es, wenn wir zu viel Stress haben – und zwar in Bezug auf Intensität und Dauer (Abbildung 1).

Hält Stress zu lange an, kann unser Stoffwechsel nicht mehr in den Normalzustand zurückkehren. Ein solcher Dauerstress kann krank machen und psychische Erkrankungen wie zum Beispiel Depressionen auslösen. Auch besonders intensiver Stress, etwa durch traumatische Erlebnisse, kann zu solchen Erkrankungen führen. Mathias V. Schmidt untersucht unter anderem an Mäusen, wie verschiedene Arten von Stress auf Säugetiere wirken. Mäuse sind dafür gut geeignet, weil ihr Stresshormon-System und die Rezeptoren – die Andockstellen für Stresshormone in ihrem Gehirn – denen des Menschen sehr ähnlich sind. In seiner Forschung hat der Biologe unter anderem herausgefunden, dass sozialer Stress bei Mäusen einer der stärksten Stressoren überhaupt ist.

Abbildung 1: Ursachen von Stress. Auszug einer Befragung von volljährigen Personen in Deutschland im Frühjahr 2021: Große Stressfaktoren sind – wie schon vor der Corona-Pandemie – das Pensum an Anforderungen von Schule, Studium und Beruf sowie hohe Ansprüche an sich selbst. Stark an Bedeutung gewonnen hat durch die Pandemie die Sorge um erkrankte Nahestehende. Weitere Ursachen siehe Quelle. © Quelle Zahlen: Techniker Krankenkasse (TK-Stressstudie, 2021); Grafik: HNBM

Stress außer Kontrolle

Sozialer Stress macht Mäuse vor allem dann krank, wenn er sich nicht kontrollieren lässt und unerwartet auftritt. Experimente lassen sich zum Beispiel so konstruieren, dass eine Maus bei Auseinandersetzungen immer verliert. Experten sprechen von „social defeat“ – „sozialer Niederlage“. Eine solche Maus entwickelt zwar keine Depression, zeigt aber krankhafte Veränderungen. So kann sie zum Beispiel apathisch oder fettleibig werden. Diese Ergebnisse seien auf den Menschen übertragbar, betont Schmidt: „Auch beim Menschen wirkt vor allem jener Stress besonders stark, der unkontrollierbar und unberechenbar ist, zum Beispiel bei Mobbing, das Menschen auf Dauer krank machen kann.“ Ein anderes Beispiel sei die Corona-Pandemie gewesen. Zu Beginn der Pandemie im Frühjahr 2020 war noch unklar, wie gefährlich der Erreger ist und wie man sich wirkungsvoll dagegen schützen kann. Die Menschen fühlten sich ständig einer unberechenbaren Gefahr ausgesetzt. „Durch diesen chronischen Stress hat die Zahl depressiver Symptome damals messbar zugenommen“, erklärt der Max-Planck-Forscher (Abbildung 2). Als dann die ersten Impfstoffe auf den Markt kamen und klar wurde, wie man sich schützen kann, nahm der Stress wieder ab. „Kontrollierbaren Stress können wir Menschen deutlich besser bewältigen.“ Prüfungsstress kann man beispielsweise minimieren, indem man frühzeitig beginnt, den Lernstoff in kleine Einheiten aufteilt und einen Zeitplan erstellt. Durch Simulieren der Prüfungssituation gewinnt man an Sicherheit. Zu bedenken ist aber auch, dass jeder Mensch anders auf Stressoren reagiert“, so der Wissenschaftler.

Abbildung 2: Mögliche Folgen von unkontrollierbarem Stress. Globale Prävalenz von schweren depressiven Störungen vor und während der COVID-19-Pandemie nach Alter und Geschlecht. © Quelle: Lancet 2021; 398: 1700–12, Fig. 1 (Auszug);   https://doi.org/ 10.1016/S0140-6736(21)02143-7 /CC BY 4.0

Anhaltender, unkontrollierbarer Stress und traumatische „Stresserlebnisse“ können also zu einer Depression führen. Welche Mechanismen dahinterstecken und welche Veränderungen im Stoffwechsel Depressionen auslösen, hat man bisher aber nur zum Teil verstanden. Vor 50 Jahren gingen Fachleute noch davon aus, dass Depressionen einzelne, klare Auslöser hätten. Gemäß dieser Vorstellung habe die Erkrankung ihre Ursache in veränderten biochemischen „Pfaden“ (engl. pathways), also einzelnen, klar umrissenen Stoffwechselwegen. Inzwischen ist die Forschung deutlich weiter: Tatsächlich können Depressionen viele verschiedene biologische Auslöser haben. Etwa ein Drittel des Risikos, an einer Depression zu erkranken, ist auch genetisch bedingt – Genomanalysen von Menschen mit Depressionen haben gezeigt, dass viele Gene an der Entstehung einer Depression beteiligt sind. Dieses genetische Risiko spielt mit den Risiken durch Stress zusammen, und könnte zum Teil erklären, warum Menschen resilient oder weniger resilient gegenüber Stresserfahrungen sind.

Alles eine Frage der Gene?

Ein Forschungsteam am Max-Planck-Institut für Psychiatrie ist genau dieser Frage nachgegangen, welche genetischen Varianten an der Reaktion auf Stress und dem Risiko, eine psychiatrische Störung zu entwickeln, beteiligt sein könnten. Dazu nutzten sie eine Substanz namens Dexamethason, die ähnlich wirkt wie das Stresshormon Cortisol und ebenso wie dieses eine molekulare und zelluläre Antwort, beginnend auf der Ebene der DNA, auslöst. Das Team untersuchte Zellen, die besonders empfindlich auf Stress reagieren. Dabei fanden sie über 500 Stellen im Erbgut (sog. Loci), die Reaktionen auf Stress zeigten, sowie 79 genetische Varianten, die die Expression von Genen und somit die molekulare Antwort auf Stress nur bei Behandlung mit Dexamethason beeinflussten. Diese Varianten stehen, wie große internationale Studien gezeigt haben, auch im Zusammenhang mit dem Risiko, eine psychiatrische Störung zu entwickeln.

Um herauszufinden, wie die Kombination der Varianten dieses Risiko beeinflusst, unterzog das Forschungsteam die Teilnehmenden der Studie einer Stressaufgabe. Dabei zeigte sich, dass eine höhere Anzahl dieser „stressreaktiven“ Genvarianten mit einem Anstieg des Cortisolspiegels bei den entsprechenden Probanden verbunden war. Dieser Unterschied wurde vor der Stressaufgabe nicht beobachtet, was heißt, dass diese Varianten nur in Stresssituationen von Bedeutung waren. Personen mit vielen dieser Genvarianten konnten ihr Stresshormon-System nach der Aufgabe nicht wieder schnell normalisieren und waren dadurch „unnötig“ lange gestresst. So zeigte ein weiterer Test, dass Personen mit mehr Risikovarianten bei Erschrecken intensiver reagierten und sich die Stärke der Schreckreaktion auch nach Wiederholen des Schreckreizes noch erhöhte. „Dabei hätte man eigentlich ein verringerte Reaktionen durch Gewöhnung erwartet“, erklärt Elisabeth Binder, Direktorin am Max-Planck-Institut für Psychiatrie.

„Die Genetik hat also einen Einfluss auf die Empfindlichkeit unserer Reaktion auf Stress. Der molekulare Mechanismus könnte erklären, warum belastende Lebensereignisse mal mehr oder weniger mit psychiatrischen Störungen korrelieren“, fasst Binder die Ergebnisse zusammen. Diese Erkenntnisse seien wichtig für die Vorhersage, welche Menschen ein höheres Risiko haben, als Reaktion auf Stress psychiatrische Störungen zu entwickeln, so die Forscherin weiter. Das könnte helfen, frühzeitig Hilfen anzubieten, um die Entwicklung von psychiatrischen Störungen zu vermeiden.

Stress lass nach

In zahlreichen Forschungsprojekten wird nach neuen Therapieansätzen für psychiatrische Störungen gesucht. Im Fokus der Untersuchungen steht dabei jenes Stresshormon-System, das unsere Anpassung an Stresssituationen koordiniert, die sogenannte Hypothalamus-Hypophysen-Nebennieren-Achse (HPA-Achse). Eine wichtige Schaltstelle in diesem System ist der Glukokortikoid- Rezeptor. Er kommt in nahezu allen Zellen vor und reguliert dort die Genexpression. Aber erst wenn das Stresshormon Cortisol an den Rezeptor bindet, kann dieser an die entsprechenden Kontrollstellen auf der DNA binden (Abbildung 3) und so die Transkription und damit die Biosynthese vieler verschiedener Proteine anstoßen, die für die Stressreaktion wichtig sind.

Abbildung 3: Schaltstelle für Stress. Glucocorticoid-Rezeptor (DNA-Bindungsdomäne), gebunden an einen DNA-Doppelstrang. © molekuul.be / Adobe Stock

Die Empfindlichkeit des Glukokortikoid-Rezeptors gegenüber Cortisol wird durch eine Reihe von Molekülen, sogenannte Chaperone und Co-Chaperone moduliert. Chaperone beeinflussen die Aktivität anderer Proteine, indem sie diese bei der Faltung in ihre dreidimensionale Struktur unterstützen. Sie sind in verschiedenen Zelltypen und bei verschiedenen Proteinen aktiv. Das Chaperon mit dem Kürzel FKBP51 ist von besonderem Interesse, denn es setzt die Cortisol-Bindefähigkeit des Glukokortikoid-Rezeptors herab. Auf diese Weise sorgt es dafür, dass die Stressreaktion des Körpers wieder heruntergefahren wird, wenn der äußere Stress nachlässt, eine bedrohliche Situation beispielsweise vorüber ist. Das ist ein ganz natürlicher und wichtiger Mechanismus. Genomanalysen bei Menschen mit Stress-bedingten psychiatrischen Erkrankungen, wie der posttraumatischen Belastungsstörung (PTBS) und Depressionen, haben gezeigt, dass bei manchen von ihnen Veränderungen an genau jenem Gen vorliegen, das für das Chaperon FKBP51 kodiert. Möglicherweise wird FKBP51 deshalb vermehrt synthetisiert und dämpft den Glukokortikoid-Rezeptor dauerhaft. Das könnte, so die Annahme, bei depressiven Menschen zu Antriebslosigkeit und Niedergeschlagenheit führen. Auch Veränderungen der Interaktionen des Chaperons mit anderen für Nervenzellen wichtigen Proteinen könnten eine Erklärung dafür sein, warum manche Menschen mehr oder weniger stressresistent sind.

Chaperone sind ein hochinteressanter, potenzieller Angriffspunkt (engl. target) für neue Medikamente und damit verbunden die Therapie depressiver Menschen. Derzeit werden erste Chaperon-Antagonisten entwickelt, die die Aktivität der Chaperone oder deren Biosynthese hemmen. Die Herausforderung dabei: Es gibt viele verschiedene Chaperone, die in ganz verschiedenen Zellen und Geweben aktiv sind und die ganz unterschiedliche Stoffwechselreaktionen steuern. Das bedeutet, dass Chaperon-Antagonisten im Körper sehr gezielt in die für die Stressreaktion zuständigen Zellen eingeschleust werden müssten. Wie sich eine solche gezielte Form des „drug delivery“ technisch umsetzen ließe, ist noch Gegenstand der Forschung.

Kann Stressresistenz erlernt werden?

Aber es sind nicht immer die Gene, die dazu führen, dass manche Menschen nach einem traumatischen Erlebnis eine Depression entwickeln, während andere Menschen mit gleicher Erfahrung nicht erkranken. Tatsächlich spielen auch epigenetische Prozesse eine zentrale Rolle: Sie verändern beispielsweise das Muster der Methylgruppen an der DNA und damit die Aktivierbarkeit bestimmter Gene in bestimmten Zellen oder Organen (s. https://scienceblog.at/epigenetik-mpg). So prägt die Epigenetik auch unser Stresssystem. Frühkindlicher Stress beispielsweise kann sich langfristig auf die psychische Gesundheit auswirken und das Risiko für die Entwicklung von Angststörungen und einer posttraumatischen Belastungsstörung erhöhen.

„Stress und Trauma in der Kindheit sind ein maßgeblicher Risikofaktor“, betont Elisabeth Binder. So gehen belastende Kindheitserfahrungen mit einem doppelt so hohen Risiko für depressive Störungen und einem 2,7-fach erhöhten Risiko für Angststörungen im Erwachsenenalter einher. Aber: „Ganz ohne Stress kann auch keine Resistenz aufgebaut werden“, betont die Medizinerin. Tatsächlich legt die Stressforschung der vergangenen Jahre nahe, dass Stressresistenz in der frühkindlichen Entwicklung erlernt wird. Durch seine Experimente an Mäusen hat Mathias V. Schmidt herausgefunden, dass es offenbar wichtig ist, in der Kindheit moderaten Stress zu erfahren. „Stresserfahrung ist essenziell, damit die Mäuse „lernen“, mit Stress umzugehen“, sagt Schmidt. Das sei höchstwahrscheinlich auch beim Menschen so. „Wer zum Beispiel überbehütet aufwächst, kann später den Stress, den Konflikte zwangsläufig mit sich bringen, schlechter bewältigen“, so der Forscher.

Dieses „Stress-Lernen“ findet sehr wahrscheinlich ebenfalls zu einem Teil auf der epigenetischen Ebene statt. „Wir gehen heute davon aus, dass das Erlernen von Stress in der frühkindlichen Entwicklung durch die Methylierung gesteuert wird“, sagt der Max-Planck-Forscher. Epigenetische Veränderungen fänden auch an den Histonen statt, jenen Proteinen, um die der DNA-Strang im Zellkern gewickelt ist. Durch Acetylierung der Histone kann die Wicklung verfestigt oder gelockert werden. Auch das beeinflusst, ob bestimmte Gene aktiviert oder unterdrückt werden. Mittlerweile gibt es konkrete Hinweise darauf, dass zahlreiche epigenetische Veränderungen einen Einfluss darauf haben, wie verschiedene Menschen auf Stress reagieren.

Um die Entwicklung psychiatrischer Erkrankungen zu verstehen, müssen somit neben den genetischen Analysen auch die epigenetischen Kodierungen identifiziert werden. Damit tun sich viele neue Wege für Therapien auf. Stress und Depressionen mögen ein komplexes Phänomen sein, doch die jüngsten Erkenntnisse liefern auch viele Ansatzpunkte für neue Medikamente. Schmidt: „Diese Entwicklungen stimmen mich zuversichtlich, dass wir in den nächsten Jahren große Fortschritte beim Verständnis des Stresses und bei der Entwicklung neuer Wirkstoffe gegen Depressionen und andere psychische Erkrankungen machen werden.



*Der Artikel ist erstmals in Biomax 40 unter dem Titel: "Voll im Stress?! - Was steckt dahinter?"  https://www.max-wissen.de/max-hefte/biomax-40-stress/ im April 2025 erschienen. Bis auf den Titel wurde der unter einer CC BY-NC-SA 4.0 Lizenz stehende Text unverändert wiedergegeben.


 Stressforschung. Stress lass nach (2022): https://www.mpg.de/18498408/stress-lass-nach

Stresstudie (2021):https://www.tk.de/resource/blob/2116464/d16a9c0de0dc83509e9cf12a503609c0/2021-stressstudie-data.pdf


 

inge Thu, 29.05.2025 - 23:55

Selbst bei einer Umkehr der globalen Erwärmung wird es Jahrhunderte dauern, bis sich die Gletscher erholen

Selbst bei einer Umkehr der globalen Erwärmung wird es Jahrhunderte dauern, bis sich die Gletscher erholen

Fr, 23.5..2025 — IIASA

IIASA Logo

Icon Klima

Neue Forschungsergebnisse zeigen, dass sich die weltweiten Berggletscher über Jahrhunderte hinweg nicht erholen werden – selbst wenn der Mensch durch sein Eingreifen die Erde wieder auf die 1,5-°C-Grenze abkühlt, die er bereits überschritten hat. Die von der Universität Bristol in Großbritannien und der Universität Innsbruck in Österreich in Zusammenarbeit mit Kollegen vom IIASA und der Schweiz geleitete Forschung präsentiert die ersten globalen Simulationen der Gletscherveränderungen bis zum Jahr 2500 unter sogenannten „Overshoot“-Szenarien, bei denen die Erde die 1,5-°C-Grenze vorübergehend um bis zu 3 °C überschreitet, bevor sie wieder abkühlt.*

Unsere Gletscher schmelzen dahin. © Dreamstime Agency|Dreamstime

Die in Nature Climate Change veröffentlichten Ergebnisse zeigen, dass ein solches Szenario dazu führen könnte, dass die Gletscher bis zu 16 % mehr Masse verlieren als in einer Welt, in der die 1,5-°C-Schwelle nicht überschritten wird [1].

„Die aktuelle Klimapolitik steuert die Erde auf einen Kurs nahe 3 °C. Es ist klar, dass eine solche Welt für die Gletscher weitaus schlimmer wäre als eine, in der die 1,5-°C-Grenze eingehalten wird“, sagt der korrespondierende Autor Fabien Maussion, außerordentlicher Professor für polare Umweltveränderungen an der Universität Bristol. „Wir wollten herausfinden, ob sich Gletscher erholen können, wenn der Planet wieder abkühlt. Diese Frage stellen sich viele Menschen: Werden Gletscher zu unseren Lebzeiten oder denen unserer Kinder nachwachsen? Unsere Ergebnisse deuten leider darauf hin, dass dies nicht der Fall ist.“

Steigende globale Temperaturen deuten nun darauf hin, dass die vor einem Jahrzehnt im Pariser Abkommen festgelegten Grenzwerte erheblich überschritten werden könnten. So war das vergangene Jahr das heißeste Jahr aller Zeiten und das erste Kalenderjahr, in dem die 1,5-Grad-Marke überschritten wurde.

Die Wissenschaftler bewerteten die zukünftige Gletscherentwicklung unter einem Szenario starker Überschreitung, in dem die globalen Temperaturen bis etwa 2150 weiter auf 3,0 °C ansteigen, bevor sie bis 2300 wieder auf 1,5 °C fallen und sich stabilisieren. Dieses Szenario spiegelt eine verzögerte Netto-Null-Zukunft wider, in der Technologien zur Reduzierung negativer Emissionen wie die Kohlenstoffabscheidung erst eingesetzt werden, wenn kritische Erwärmungsschwellen überschritten sind.

Die Ergebnisse zeigen, dass es den Gletschern deutlich schlechter ergehen würde als in einer Welt, in der sich die Temperaturen bei 1,5 °C stabilisieren, ohne die Obergrenze zu überschreiten. Bis 2200 würden weitere 16 % der Gletschermasse verloren gehen, bis 2500 sogar noch 11 % – zusätzlich zu den 35 %, die bereits bei 1,5 °C schmelzen würden. Dieses zusätzliche Schmelzwasser gelangt schließlich ins Meer und trägt zu einem noch stärkeren Anstieg des Meeresspiegels bei. Abbildung.

Abbildung. Gletschermasse (relativ zu 2020) für sieben relativ trockene und stark vergletscherte Einzugsgebiete. Klimaprojektionen: Temperaturanstieg stabilisiert bei 1,5oC (blau); stabilisiert bei 3oC (lila); Überschreiten um 3oC bis 2150, dann Absinken auf 1,5oC (orange). (Klimamodell GFDL-ESM2M). Bild (von Redn. eingefügt) aus L. Schuster et al, 2025 [1]. Lizenz cc-by.

Für die Forschung wurde ein bahnbrechendes Open-Source-Modell der Universität Bristol und Partnerinstitutionen verwendet, das vergangene und zukünftige Veränderungen aller Gletscher weltweit, mit Ausnahme der beiden polaren Eisschilde, simuliert. Es wurde mit neuartigen globalen Klimaprojektionen der Universität Bern kombiniert.

„Unsere Modelle zeigen, dass es viele Jahrhunderte, wenn nicht Jahrtausende dauern würde, bis sich die großen Polargletscher von einer 3°C-Überschreitung erholen. Bei kleineren Gletschern wie denen in den Alpen, im Himalaya und in den tropischen Anden wird die Erholung erst in den nächsten Generationen sichtbar, ist aber bis 2500 möglich“, erklärt Hauptautorin Lilian Schuster, Forscherin an der Universität Innsbruck.

Das Gletscherschmelzwasser in diesen Bergregionen ist für die Gemeinden flussabwärts lebenswichtig – insbesondere in Trockenzeiten. Wenn Gletscher schmelzen, geben sie vorübergehend mehr Wasser ab. Dieses Phänomen wird als Gletscher-Spitzenwasser bezeichnet.

"Wenn Gletscher nachwachsen, speichern sie wieder Wasser als Eis – und das bedeutet, dass weniger Wasser flussabwärts fließt. Wir nennen diesen Effekt ‚Trogwasser‘, im Gegensatz zum Spitzenwasser. Wir haben festgestellt, dass etwa die Hälfte der von uns untersuchten Becken nach 2100 eine Form von Trogwasser erleben wird. Es ist noch zu früh, um die Auswirkungen zu beurteilen, aber unsere Studie ist ein erster Schritt zum Verständnis der vielfältigen und komplexen Folgen von Klimaüberschreitungen für gletschergespeiste Wassersysteme und den Meeresspiegelanstieg“, fügt Schuster hinzu.

Diese Forschung wurde im Rahmen des EU-finanzierten Projekts PROVIDE (https://www.provide-h2020.eu/) durchgeführt , das die Auswirkungen von Klimaüberschreitungen auf Schlüsselsektoren auf der ganzen Welt untersucht.

„Die Gletscher der Zukunft werden die Folgen unseres heutigen Klimaschutzes – sei es nun in der Vergangenheit oder in der Untätigkeit – bezeugen. Selbstzufriedenheit ist nicht angesagt. Wir müssen die Emissionen im Rennen um die Netto-Null-Emissionen jetzt und entschieden reduzieren, um die schlimmsten Folgen des Klimawandels zu vermeiden“, schlussfolgert Co-Autor Carl-Friedrich Schleussner , Leiter der Integrated Climate Impacts Research Group im IIASA-Programm für Energie, Klima und Umwelt.

Die Prognosen für Gletscher im Zuge des Klimawandels können auch auf dem PROVIDE Climate Risk Dashboard des IIASA (https://climate-risk-dashboard.iiasa.ac.at/) eingesehen werden. Die Auswirkungen von Überschreitungen werden auch ein zentrales Thema der internationalen Overshoot-Konferenz sein, die im Oktober 2025 am IIASA stattfinden wird.

--------------------------------------------------------------------

[1] Schuster, L., Maussion, F., Rounce, D.R., Ultee, L., Schmitt, P., Lacroix, F., Frölicher, T.L., & Schleussner, C-F (2025). Irreversible glacier change and trough water for centuries after overshooting 1.5 °C. Nature Climate Change DOI: 10.1038/s41558-025-02318-w


*Der Artikel " Glaciers will take centuries to recover even if global warming is reversed" ist am 19. Mai 2025 auch in deutscher Übersetzung auf der IIASA Website erschienen (https://iiasa.ac.at/news/may-2025/glaciers-will-take-centuries-to-recover-even-if-global-warming-is-reversed). Der Artikel steht unter einer cc-by-nc-Lizenz. IIASA hat freundlicherweise der Veröffentlichung der Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.Eine Abbildung aus der zugrundeliegenden Publikation [1] wurde von der Redaktion eingefügt.


 

inge Fri, 23.05.2025 - 18:15

Schmerz lass' nach ....Wie wirksam ist Paracetamol?

Schmerz lass' nach ....Wie wirksam ist Paracetamol?

Mo, 19.05.2025— Inge Schuster

Inge Schuster Icon Medizin

Schmerz warnt unseren Körper vor gefährlichen Situationen der Außenwelt und macht ebenso auf viele Krankheiten aufmerksam. Chronische Schmerzen haben allerdings die Warnfunktion häufig verloren, sind seit jeher der häufigste Grund, warum ein Arzt aufgesucht wird und lassen sich - trotz eines breiten Arsenals an Schmerzmedikamenten - bislang nicht zufriedenstellend behandeln. Zu den weltweit am häufigsten - gegen akute und chronische Schmerzen - angewandten Arzneimitteln gehört das in den 1950er Jahren zugelassene, als sicher und wirksam betrachtete Paracetamol, das von der Weltgesundheitsorganisation (WHO) in die Liste der essentiellen Arzneimittel aufgenommen wurde. Große, unabhängige und qualitativ hochwertige klinische Studien und Cochrane-Metaanalysen lassen allerdings an der Wirksamkeit von Paracetamol stark zweifeln, ebenso können schwere Nebenwirkungen nicht ausgeschlossen werden.

Abbildung 1: Seit Jahrtausenden wird Schlafmohn in der Medizin angewandt: Göttin mit den Mohnkapseln, minoische Terracottafigur aus dem Tempel von Gazi, Kreta 1350 v.Chr. (Archäologisches Museum, Heraklion; gemeinfrei).

Seit alters her versuchen Menschen ihre Schmerzen zu lindern. Interessanterweise spielten dabei zwei Stoffe die Hauptrolle, aus denen auch die wohl wirksamsten Schmerzmittel der Gegenwart hervorgegangen sind. So waren in der Antike in Ländern wie Ägypten, Syrien und Griechenland die schmerzstillenden Eigenschaften der Weide bekannt - deren Wirkstoff Salicin hat heute über Aspirin zu den potenten Vertretern der Nicht-Steroidalen Antientzündlichen, Schmerzstillenden Wirkstoffe - NSAIDs - geführt. Vom Mittelmeerraum und Nahem Osten ausgehend wurde die Milch des Schlafmohns - das Opium - bereits seit Jahrtausenden als schmerzlinderndes, euphorisierendes Mittel angewandt. Abbildung 1. Die von den Wirkstoffen des Opiums abgeleiteten/diese nachahmenden Opioide stellen heute ein unverzichtbares, hochwirksames Arsenal an Schmerzmitteln dar.

Opioide und NSAIDs sind essentielle Arzneimittel in den von der Weltgesundheitsorganisation WHO 1986/2018 herausgegebenen Leitlinien zur Schmerzbehandlung [1]. In einem 3-Stufenschema werden in Stufe 1 Nicht-Opioidanalgetika vor allem aus der Gruppe der NSAIDs, aber auch aus den Gruppen, zu denen Metamizol (Novalgin) oder Paracetamol (Acetaminophen) gehören, empfohlen. Wenn die Schmerzlinderung nicht ausreicht, werden in Stufe 2 Niederpotente Opioid- plus Nicht-Opioidanalgetika empfohlen, in Stufe 3 schließlich hochpotente Opioid- plus Nicht-Opioidanalgetika. Zudem können in allen Stufen zusätzlich auch sogenannte Co-Analgetika (Antidepressiva, Antikonvulsiva, Muskelrelaxantien, Glukokortikoide, Antiemetika, Laxantien) eingesetzt werden.

Paracetamol findet sich auch neben Acetylsalicylsäure und Ibuprofen in der aktuellen WHO Model List of Essential Medicines als unverzichtbare Nicht-Opioid Analgetika zur Behandlung von Schmerzen ganz allgemein und speziell von akuten Migräneanfällen (hier kommt noch Sumatriptan dazu). Abbildung 2. (https://www.who.int/publications/i/item/WHO-MHP-HPS-EML-2023.02).

Was ist Paracetamol?

Paracetamol (Acetaminophen, in den US Tylenol) gelangte vor 70 Jahren auf den US-amerikanischen Markt und fand kurz darauf weltweite Verbreitung. Es gehört heute zu den weltweit am häufigsten eingenommenen Schmerz- und fiebersenkendem Mittel, wobei der Großteil der Anwendungen rezeptfrei erfolgt. Laut Global Market Insights lag der Paracetamol Markt im Jahr 2024 bei rund US$ 1,39 Mrd und soll bis 2033 auf rund US$ 1,74 Mrd steigen. https://www.globalgrowthinsights.com/market-reports/paracetamol-and-acetaminophen-api-market. In Deutschland, Österreich und der Schweiz ist das Schmerzmittel Paracetamol bis zu einer Gesamtmenge von zehn Gramm pro Medikamentenpackung (Tabletten) rezeptfrei in der Apotheke erhältlich und wird zur symptomatischen Behandlung leichter bis mäßig starker Schmerzen und/oder von Fieber empfohlen. Insgesamt findet es breiteste Anwendung vor allem bei Kopfschmerzen, Migräne, Rückenschmerzen, Rheuma und Muskelschmerzen, Osteoarthritis von Hüfte und Knie, Neuropathien, Erkältungssymptomen, Halsschmerzen, Zahnschmerzen, postoperativen Schmerzen und Fieber.

Abbildung 2: Chemische Strukturen der Nicht-Opioid Analgetika in der WHO Model List of Essential Medicines, die primär - in Stufe 1 des Dreistufenschemas der WHO - zum Einsatz kommen sollen. Ibuprofen ist ein von der Acetylsalicylsäure abgeleitetes Nicht-Steroidales Antientzündliches Schmerzmittel (NSAID). In Klammer stehen die jeweiligen Daten der Markteinführung.

Um die Wirkung zu verstärken, wird Paracetamol sehr häufig in Kombination mit anderen Arzneimitteln angewandt - u.a. mit Acetylsalicylsäure, Ibuprofen, Coffein, Tramadol, Codein, u.v.a. m. - laut der US-Behörde FDA gibt es mehr als 600 derartige Präparate. Bei den anzuwendenden hohen Dosen (bis 4 g/Tag) und dem enormen Konsum in den verschiedensten Indikationen verbrauchen einzelne Länder jährlich Tausende Tonnen Paracetamol [2].

Der genaue Wirkmechanismus von Paracetamol ist bis heute nicht bekannt; mehrere Hypothesen werden derzeit kontrovers diskutiert und sollen hier - angesichts der in den meisten Anwendungen zweifelhaften Wirkung (s.u.) - nicht näher besprochen werden.

Von primärer Bedeutung erscheinen allerdings Untersuchungen über das Ausmaß der schmerzlindernden Wirkung in den verschiedenen Indikationen, die im letzten Jahrzehnt nach Maßstäben der evidenzbasierten Medizin erfolgt sind. Dabei stellte sich heraus, dass die analgetische Wirksamkeit wesentlich geringer sein dürfte, als lange angenommen wurde.

Ein grundlegendes Problem bei der Beurteilung der analgetischen Wirksamkeit ist ja das Fehlen objektiver Kriterien zur Messung des Schmerzempfindens. Wie in den folgenden Absätzen dargelegt, haben es erst Übersichtsstudien von qualitativ hochwertigen Placebo-kontrollierten klinischen Studien ermöglicht zu evidenzbasierten Aussagen zu kommen.

Messung des Schmerzempfindens ....

Brennend, stechend, bohrend, dumpf, (nicht) lokalisierbar, ausstrahlend, etc. - Schmerz wird sehr unterschiedlich empfunden. Die Aufteilung nach Typen ist nicht einheitlich; meistens wird nur nach akuten oder chronischen Schmerzen, nach nozizeptiven (auf Grund einer Verletzung) oder neuropathischen Schmerzen (Schädigung oder Fehlfunktion von Nerven des CNS) unterschieden.

....basiert auf Selbstauskünften der Patienten

Obwohl Schmerzen zu den häufigsten und insgesamt gesehen am meisten kostenden Gesundheitsproblemen zählen, ist die Bestimmung ihres Schweregrads und ihrer Reaktion auf ein Schmerzmittel bislang äußerst ungenau. Anders als beispielsweise bei Infektionskrankheiten, Diabetes oder Bluthochdruck existiert keine zuverlässige valide Methode, um die individuellen Beeinträchtigungen objektiv zu quantifizieren. Man verlässt sich auf Selbstauskünfte der Patienten, die nach wie vor ersucht werden, ihre Schmerzen auf einer linearen Skala von 0 bis 10 Punkten oder bei Kindern auf Skalen von traurigen bis lustigen Gesichtern zu bewerten (ich war bei meinen Wirbelsäuleproblemen  dazu nicht in der Lage). Vielleicht werden auch Angaben über physische und emotionale Funktionsfähigkeit erhoben. Diese sehr subjektive Interpretation des Schmerzempfindens geht - in Zahlen gegossen - dann in die Ergebnisse der klinischen Wirksamkeitsstudien von Schmerzmitteln ein, wobei die Höhe der Wirksamkeit als Punktedifferenz zu einem Placebo oder einem Konkurrenzprodukt ermittelt wird. Bei einem sehr starken Schmerzmittel - Schmerzreduktion z.B. von 9 auf 0 Punkten - wäre dies kein Problem; was ist aber die klinische Relevanz einer Schmerzreduktion von 4 Punkten in der Arzneimittelgruppe, wenn sie in der Placebogruppe bei 3 Punkten liegt?

.... wobei Schmerzen tageszeitlich schwanken

Es fließen noch weitere Unsicherheiten in die Bestimmung ein. Rezente Metaanalysen von Beobachtungsstudien zeigen, dass die meisten Schmerzen einem zirkadianen Rhythmus - unserer inneren Uhr - folgen, wobei die Stärke einiger Schmerzarten über den Tag hin ansteigt und abends/nachts das Maximum erreicht (z.B. Neuropathien, Cluster-Kopfschmerz, Gallenkoliken), bei anderen Schmerzarten dagegen morgens am größten ist und dann abflaut (z.B. Migräne, Fibromyalgie, Trigeminus-Neuralgie, postoperative Schmerzen) [3]. Abhängig vom Zeitpunkt der Schmerzmittelapplikation ist der Schmerz  vielleicht bereits im Abflauen und führt dann zu hohen "Wirksamkeiten", die in klinischen Studien auch in der Placebogruppen auftreten. (Es wäre allerdings wünschenswert, dass basierend auf den circadianen Schwankungen für ein effizienteres Timing der Schmerzmittelverabreichung gesorgt würde.)

Klinische Studien zur Wirksamkeit von Schmerzmitteln sind Legion; allein in der US-Datenbank https://clinicaltrials.gov/ sind bislang über 33 000 solcher Studien gelistet. Die meisten davon zeigen neben methodischen Schwächen auch Mängel in der Konzipierung und Durchführung wie fehlende Randomisierung, fehlende Placebogruppe und - in Anbetracht der problematischen Wirksamkeitsmessungen- zu geringe Patientenzahlen, sodass die Evidenz der Ergebnisse zweifelhaft ist. In einm rezenten Artikel benennt der renommierte britische Schmerzforscher Andrew Moore die Problematik mit "Flawed, futile, and fabricated features that limit the confidence in clinical research in pain..."[4].

Cochrane Reviews - Goldstandards für die Beurteilung von Wirksamkeiten

Der Mangel an zuverlässiger Evidenz für viele klinische (diagnostische und therapeutische) Verfahren hat 1993 zur Gründung von Cochrane geführt, einem globalen, unabhängigen Netzwerk aus Wissenschaftern, Ärzten, Angehörigen der Gesundheitsfachberufe, Patienten und weiteren an Gesundheitsfragen interessierten Personen. Cochrane erstellt systematische Übersichtarbeiten (Reviews) zu Studien im Gesundheitswesen; es werden dazu vorwiegend randomisierte doppelt-verblindete klinische Studien ausgewählt, die hohe explizite Qualitätskriterien erfüllen müssen. Die Reviews werden in der Cochrane Library veröffentlicht, sind in den meisten Ländern frei zugänglich und gelten als „Goldstandard“ für die Beurteilung der Wirksamkeit einer Intervention oder Behandlung (https://www.cochranelibrary.com/about/about-cochrane-reviews).

Wie wirksam ist Paracetamol?

Tabelle 1. Cochrane-Reviews zur Wirksamkeit von Paracetamol bei Erwachsenen Abkürzungen: Coch: Cochrane Reviews (Jahr der Veröffentlichung), Stud: berücksichtigte klinische Studien (Zahl), Pat: Patienten in den berücksichtigten klinischen Studien (Zahl) . PA: Paracetamol, IBU: Ibuprofen, Plac: Placebo.

Die im Folgenden getätigten Aussagen zur Wirksamkeit von Paracetamol gegen diverse Schmerzen stammen nahezu ausschließlich aus Cochrane-Reviews.  Sie sind ernüchternd:

Paracetamol

  • ist nur mäßig wirksam bei Migräne und Spannungskopfschmerzen, 
  • kann zur Linderung von verstopfter/rinnender Nase, aber nicht von anderen Erkältungssymptome (incl. Halsschmerzen, Unwohlsein, Niesen und Husten) beitragen,
  • verstärkt die schmerzlindernde Wirkung von Ibuprofen nach Extraktion von Weisheitszähnen,
  • ist unwirksam bei Schmerzen im unteren Rücken sowohl kurzfristig als langfristig,
  • ist praktisch unwirksam bei Osteoarthritis (Hüfte und Knie),
  • ist ohne zusätzliche Opioide unzureichend wirksam bei postoperativen Schmerzen,
  • kann bei Kindern Fieber senken,
  • ist als Monotherapie bei Mittelohrentzündung von Kindern möglicherweise besser als Placebo.

Die Studien bieten weiters keine hinreichende Evidenz, dass Paracetamol Rheumatoide Arthritis lindert und allein oder in Kombination mit Opioiden deren Wirkung bei Tumorschmerzen verbessert.

Tabelle 2. Cochrane-Reviews zur Wirksamkeit von Paracetamol bei Kindern Abkürzungen: Coch: Cochrane Reviews (Jahr der Veröffentlichung), Stud: berücksichtigte klinische Studien (Zahl), Pat: Patienten in den berücksichtigten klinischen Studien (Zahl) . PA: Paracetamol, IBU: Ibuprofen, Plac: Placebo.

Hinsichtlich einer Wirkung bei Neuropathien und bei chronischen (non-cancer Schmerzen) von Kindern können keine Aussagen getroffen werden, da einfach keine den Cochrane-Qualitätskriterien entsprechenden Studien vorliegen.

Zusammengefasst: Cochrane Review liefern überzeugende Evidenz, dass Paracetamol in den meisten Indikationen wenig wirksam oder überhaupt unwirksam ist.

Eine Übersicht über die Cochrane-Reviews zu einzelnen Indikationen und ihre Ergebnisse in Schlagworten (aus den Cochrane-Kernaussagen) ist in Tabellen 1und 2 dargestellt. Von den insgesamt 30 in der Cochrane-Library vorgefundenen Reviews sind hier Studien zur Lebertoxizität von Paracetamol, zur analgetischen Wirkung bei Säuglingen und bei Geburtsschmerzen nicht angeführt. 

Paracetamol ist nicht nur wenig wirksam, es ist auch nicht sicher

Sehr lange wurde angenommen, das Paracetamol ein sicheres Arzneimittel ist, im Gegensatz zu anderen Schmerzmitteln aus der Gruppe der NSAIDs (Ibuprofen, Acetylsalicylsäure oder auch Diclofenac), die z.T. schwere Nebenwirkungen auf den Magen-Darm-Trakt und auf die Blutgerinnung zeigen. Dies hat auch zum enormen globalen Konsum von Paracetamol - vom Säugling bis ins Greisenalter - beigetragen (beispielsweise konsumieren nahezu 25 % der US-Bevölkerung wöchentlich Paracetamol).

Neben einer Reihe von anderen Nebenwirkungen kann Paracetamol nach zu hohen Dosen - ob absichtlich oder unabsichtlich - zu schwersten Leberschädigungen bis hin zum tödlichen Ausgang führen. In den Industrieländern gibt es jährlich 10 Fälle von Leberversagen pro 1  Million Menschen, wobei rund 40 % der Fälle auf eine Überdosierung von Paracetamol zurückzuführen sind [5]. Da Paracetamol in so vielen Kombinationspräparaten enthalten ist, kann es zur unabsichtlichen Überdosierung kommen, wenn beispielsweise das Mittel gegen chronische Rückenschmerzen genommen wird und zusätzlich ein Kombinationspräparat gegen akute Kopfschmerzen.

Abbildung 3: Der Abbau von Paracetamol führt neben den konjugierten Hauptmetaboliten auch zu NAQPI, einem hochreaktiven zelltoxischen Produkt, das durch Glutathion (GSH) inaktiviert werden kann. (Bild leicht modifiziert nach Wikipedia, gemeinfrei.)

Die Ursache der Toxizität ist im Abbau (der Metabolisierung) von Paracetamol in der Leber begründet. Abbildung 3. Wie nahezu alle Arzneimittel und Fremdstoffe wird auch Paracetamol überwiegend in diesem Organ zu Produkten metabolisiert, die schnell aus dem Organismus eliminiert werden (im konkreten Fall über den Urin). Hauptsächlich wird dabei ein Glucuronsäure- oder ein Schwefelsäurerest an das Paracetamol-Molekül angehängt (konjugiert).

In geringerem Ausmaß erfolgt über das Enzym CYP2E1 eine Oxidation zu einem hochreaktiven toxischen Produkt (abgekürzt NAPQI), das mit den Makromolekülen (Nukleinsäuren, Proteinen) der Zellen reagieren und den Zelltod auslösen kann. Im Allgemeinen kann NAPQI durch das in der Zelle vorhandene Antioxidans Glutathion gebunden (konjugiert) und damit inaktiviert und unschädlich gemacht werden.

Werden bei einer Überdosierung die Glutathionvorräte der Leberzelle erschöpft, so kann NAPQI seine zelltoxische Wirkung entfalten und Nekrosen auslösen. Ob und wann dies geschieht, hängt von der Höhe des verfügbaren Glutathions ab - das auch andere toxische Stoffwechselprodukte "entgiften" muss - und von der Kapazität des CYP2E1 reaktives NAPQI zu produzieren. Diese kann von Mensch zu Mensch um das Zehnfache variieren [5]: viele Fremdstoffe (vor allem Ethanol und auch viele kleine Moleküle, fluorierte/ halogenierte Substanzen) werden über das Enzym abgebaut, konkurrenzen daher mit Paracetamol, können aber - wie beispielsweise bei chronischem Alkoholkonsum - auch seine Synthese enorm stimulieren und damit die NAPQI-Produktion steigern. So kann Lebertoxizität auch bei therapeutischen Paracetamol-Dosierungen auslösen, die unterhalb der maximal empfohlenen 4g/Tag liegen. Tatsächlich haben klinische Studien zur Behandlung chronischer Schmerzen viermal häufiger erhöhte Leberwerte bei Patienten in der Paracetamolgruppe angezeigt als in der Placebogruppe [2].

Fazit

Forschung und Entwicklung von neuen wirksameren und sichereren Analgetika sind dringendst erforderlich, um akute und chronische Schmerzen effizient behandeln zu können.  Überzeugende Evidenz aus klinischen Studien zeigt jedenfalls, dass Paracetamol - eines der weltweit am häufigsten angewandten Schmerzmittel - in den meisten Indikationen praktisch wirkungslos ist und darüber hinaus seltene, aber sehr ernste Nebenwirkungen auslösen kann.

Unter den heutigen Zulassungskriterien wäre Paracetamol wohl nie auf den Markt gekommen.


[1] H. Bablich, F. Reh et al., WHO-Stufenschema. DocCheck Flexicon. https://flexikon.doccheck.com/de/WHO-Stufenschema (abgerufen 16.5.2025)

[2] R Andrew Moore, Nicholas Moore, Paracetamol and pain: the kiloton problem. Eur J Hosp Pharm 2016;23:187–188. doi:10.1136/ejhpharm-2016-000952

[3] N. N.Knezevicet al., Circadian pain patterns in human pain conditions –A systematic review. Pain Practice. 2023; 23:94–109. DOI: 10.1111/papr.13149

[4] Andrew Moore et al, Flawed, futile, and fabricated features that limit confidence in clinical research in pain and anaesthesia: a narrative review. Br J Anaesth. 2023 Mar;130(3):287-295. DOI: 10.1016/j.bja.2022.09.030

[5] Toby J Athersuch et al., 2018, Paracetamol metabolism, hepatotoxicity, biomarkers and therapeutic interventions: a perspective. Toxicol Res (Camb) Mar 6;7(3):347–357. doi: 10.1039/c7tx00340d


Schmerz im ScienceBlog:

Gottfried Schatz, 30.08.2012: Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält

Nora Schultz, 07.12.2016: Vom Sinn des Schmerzes

Manuela Schmidt, 06.05.2016: Proteinmuster chronischer Schmerzen entziffern

Susanne Donner, 16.02.2017: Placebo-Effekte: Heilung aus dem Nichts


 

inge Mon, 19.05.2025 - 22:15

Wie Blumen zu ihrem Geruch nach verfaultem Fleisch gekommen sind: Eine genetische "Just So" Geschichte

Wie Blumen zu ihrem Geruch nach verfaultem Fleisch gekommen sind: Eine genetische "Just So" Geschichte

So, 11.05.2025 — Ricki Lewis Ricki LewisIcon Biologie

Der englische Schriftsteller Rudyard Kipling hat die Gute-Nacht-Geschichten, die er seiner Tochter erzählte, 1902 unter dem Titel "Just so stories" herausgebracht. Die phantasievollen Geschichten erklärten "just so" (genau so), d.i. in Worten, an die seine Tochter gewöhnt war, wie Tiere ihre charakteristischen Merkmale, wie Flecken, Rüssel, Höcker, etc erhalten hatten - alles mit dem Ziel besser überleben zu können. Von einer derartigen zielgerichteten Strategie ist auch in einem aktuellen Bericht zu lesen: Einige Pflanzen haben Aasgeruch entwickelt, um Insekten anzulocken und von diesen bestäubt zu werden. Die Genetikerin Ricki Lewis wendet sich gegen eine derartige Interpretation und erklärt, warum die Evolution von Merkmalen nicht zielgerichtet erfolgt.*

Nicht alle Blumen verströmen Gerüche, die auf den Menschen anziehend wirken. Drei Arten blühender Pflanzen - Asarum simile, Eurya japonica und Symplocarpus renifolius - riechen wie verwesendes Fleisch oder Exkremente. Ursache ist das Enzym Disulfidsynthase. Dieses Enzym ist auch in den Mundgeruch beim Menschen involviert, der an den Klassiker der amerikanischen Rockband Lynyrd Skynyrd denken lässt "Ooh, that smell The smell of death surrounds you.".

Ein neuer Bericht von Yudai Okuyama und Mitarbeitern an der Universität Tokio in der Fachzeitschrift Science zeigt, wie eine anfängliche Veränderung des Enzyms vor langer Zeit den Blumenduft in einer Weise veränderte, dass sich eine Nische für neue Bestäuber eröffnete [1].

Von Kipling bis Darwin

Stinkende Blumen bieten ein weiteres Beispiel für die „Just-So“-Stories ("Genau-so"-Geschichten), die der englische Journalist, Romancier und Dichter Rudyard Kipling 1902 veröffentlichte.

Abbildung 1. Titelblatt von Rudyard Kiplings "Just so Stories". Erste Ausgabe 1902. Die Gutenacht-Geschichten wurden genau so, d.i. in Worten an die Kiplings Tochter gewöhnt war, erzählt und veranschaulichen, wie die Tiere ihre besonderen Merkmale erhalten haben. ,http://www.biblio.com/just-so-stories-by-kipling-rudyard/work/732, (Bild und Text von Redn eingefügt.Lizenz:gemeinfrei.)

Kiplings phantasievolle Erklärungen der Natur haben dazu beigetragen, dass ich mich als kleines Kind für Naturwissenschaften begeisterte. Er erklärte bekanntlich „wie der Leopard zu seinen Flecken gekommen ist“, „wie das Kamel seinen Höcker bekommen hat“ und „wie das Nashorn seine Haut bekommen hat“. [2; von Redn. eingefügt.]

Heute ermöglichen die Entdeckungen in der Genetik den Blick zurück in die Vergangenheit, um herauszufinden, wie Merkmale entstanden und erhalten geblieben sind. Ich habe in meinem DNA -Science-Blog (Anm. Redn.: https://dnascience.plos.org/) über mehrere genetische „Just-so“-Geschichten berichtet: Wie das Schuppentier seine Schuppen bekam [3] , wie die Giraffe ihre Flecken bekam, wie der Tabby seine Streifen bekam und wie der Mensch seinen Schwanz verlor.

Kiplings Geschichten inspirierten mich dazu, wie Darwin darüber nachzudenken, wie charakteristische Merkmale entstanden sind. Ein neues Merkmal entsteht nicht durch eine gezielte Handlung des Leoparden, des Kamels, des Nashorns, der Katze oder der blühenden Pflanze. Stattdessen begünstigt die natürliche Auslese ein vorteilhaftes vererbtes Merkmal, vielleicht aufgrund einer neuen Mutation, die zu einer größeren Verbreitung führt.

Aber warum sind bestimmte Merkmale vorteilhaft? Hier kommt die Fantasie ins Spiel.

  • Die Flecken eines Leoparden und die Streifen eines Tabby? Tarnung.
  • Die gepanzerte lange Nase eines Schuppentiers? Schirmt ab und schützt auch vor Hautinfektionen.
  • Die verschwindenden Schwänze unserer entfernten Vorfahren? Die Fähigkeit, aufrecht zu stehen und schließlich zu gehen.

Organische Chemie erklärt den Geruch

Der unverwechselbare Geruch nach fauligem Fleisch einer Asarum-Blüte entsteht durch organische Reaktionen - unter organisch versteht man ursprünglich  kohlenstoffhaltige Verbindungen, nicht den übernommenen populären Begriff.

Abbildung 2. Disulfidsynthasen sind in Tier und Pflanzen konservierte Enzyme; bestimmten Blumen verleihen sie den Geruch von Aas und Dung, der neue Bestäuber anlockt. Der Gestank wird durch Dimethyldisulfid und Dimethyltrisulfid verursacht. © 2025 National Museum of Nature and Science, gezeichnet von Yoh Izumori.

Für den Blütengeruch ist das Molekül Dimethyldisulfid (DMDS) verantwortlich Es bildet sich spontan während des Stoffwechsels, wenn sich ein kleineres Molekül, Methanthiol (Methan plus Schwefel, der Stoff, aus dem die Fürze sind), zu Dubletten verbindet (dimerisiert).Abbildung 2.

Die Forscher haben außerdem ein überaktives Gen in den Blumen identifiziert. Das Gen kodiert für ein Protein, das das Element Selen bindet. Dieses Protein entgiftet beim Menschen Methanthiol (aus dem ersten Schritt) und setzt dabei Wasserstoffperoxid, Schwefelwasserstoff und Formaldehyd frei. Menschen, die Mutationen in diesem Gen haben, sind durch die Eigenschaft charakterisiert, dass sie nach Kohlgeruch stinken.

In Pflanzen ist die Biochemie jedoch anders. Anstatt das Trio von Verbindungen wie der Mensch auszustoßen, geben Asarum-Blüten das (für uns) extrem übel riechende DMDS ab. Vor langer, langer Zeit mutierte ein entfernter gemeinsamer Vorfahre der drei modernen stinkenden Arten auf eine Weise, die den Stoffwechsel so veränderte, dass DMDS freigesetzt wurde. Wenn bestimmte Bestäuber es anziehend fanden, hatten diese Pflanzen einen Fortpflanzungsvorteil und konnten sich so halten.

Der neue Geruch entstand durch einen in der Evolution üblichen Mechanismus - Genduplikation. So wie man beim Kauf eines neuen Laptops einen alten als Reserve behält, „probiert“ die Evolution manchmal eine neue Funktion in einem Genduplikat aus, ohne die Aktivität des ursprünglichen Gens auszulöschen.

Die Evolution ist nicht zielorientiert

Elegante Experimente haben erklären lassen, wie bestimmte Pflanzen einen Geruch entwickelten, der an Kohl, stinkende Füße, Furze und fauliges Fleisch erinnert. Leider werden in einem begleitenden Artikel von Lorenzo Caputi und Sarah E. O'Connor vom Max-Planck-Institut für chemische Ökologie in Deutschland die üblichen Fehler bei der Erklärung der Evolution gemacht, die die falsche Annahme nähren, dass diese zielgerichtet ist [4].

Die Evolution verfolgt kein Ziel. Würden Bakterien, Würmer, Kakteen oder Pilze neue Eigenschaften entwickeln, weil sie es einfach wollten?

Caputi und O'Connor verfallen auch in einen phantasievollen Anthropomorphismus; sie bezeichnen den Geruch als „strategische Täuschung, bei der Insekten, die sich normalerweise von verrottenden organischen Stoffen ernähren, dazu verleitet werden, diesen Blumen einen Besuch abzustatten, was zu einer ungewollten Bestäubung durch die Insekten führt. Die Aufnahme dieser schwefelhaltigen Moleküle hat es den Pflanzen also ermöglicht, das Verhalten der Insekten zu überlisten, ohne ihnen etwas dafür zu bieten."

Die begleitende Pressemitteilung von Science ist nicht viel besser: "Manche Pflanzen locken Bestäuber nicht mit süßen Düften, sondern mit dem Gestank der Verwesung. In einer neuen Studie zeigen Forscher, wie Pflanzen das anstellen." Und wir sind wieder bei den "just so Geschichten.

Mutationen geschehen zufällig, als eine Folge der Chemie. Wenn eine genetische Veränderung zu einer nützlichen Merkmalsvariation führt - wie einem fauligen Geruch, der für bestimmte Insektenbestäuber köstlich ist - dann bleibt sie bestehen, weil diese Pflanzen einen Fortpflanzungsvorteil haben. Mehr Insekten besuchen sie.

In diesen Zeiten der Kürzungen in der wissenschaftlichen Forschung und an Universitäten ist es wichtiger denn je, experimentelle Ergebnisse in einer entsprechenden Sprache zu kommunizieren - es gibt keinen Grund, die Wissenschaft zu verdummen.


[1] Yudai Okuyama et al., Convergent acquisition of disulfide-forming enzymes in malodorous flowers. Science 8 May 2025 Vol 388, Issue 6747, pp. 656-661

[2] Rudyard Kipling (1902): Just So Stories. Nachzulesen (in Englisch) https://www.telelib.com/authors/K/KiplingRudyard/prose/JustSoStories/index.html

[3] Ricki lewis, 5..1.2017: Wie das Schuppentier zu seinen Schuppen kam.

[4] Lorenzo Caputi et al., Flowers with bad breath. How an old gene acquired a new function to exploit an insect’s sense of smell, Science 8 May 2025 Vol 388, Issue 6747, pp. 586-587


*Der Artikel ist erstmals am 8.Mai 2025 in PLOS Blogs - DNA Science Blog unter dem Titel "How Flowers Came to Smell like Rotted Flesh: Another Genetic Just-So Story" erschienen (https://dnascience.plos.org/2025/05/08/how-flowers-came-to-smell-like-rotted-flesh-another-genetic-just-so-story/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Die Übersetzung folgt so genau als möglich der englischen Fassung. Abbildung 1 wurde von Redn eingefügt.


 

inge Mon, 12.05.2025 - 00:02

Intuition - unbewusste Quelle des Denkens

Intuition - unbewusste Quelle des Denkens

So 04. 05.2025— Christian Wolf

Christian Wolf

Icon Gehirn

Intuition: eine mystische Eingebung, ein sechster Sinn oder gar die Stimme Gottes? Weit gefehlt! Psychologen sehen in der Intuition eine unbewusste Form der Informationsverarbeitung. Sie verstehen unter Intuition Gefühle, sich in eine bestimmte Richtung zu entscheiden, die rasch im Bewusstsein auftauchen, ohne dass uns ihre Gründe dafür vollständig bewusst werden Diese Gefühle sind aber oft stark genug, uns direkt danach handeln zu lassen. Allerdings sind Intuitionen nicht immer hilfreich: Manchmal führen sie in die Irre.*

„Sie ist am liebsten außer sich und mag es, voreilige Schlüsse zu ziehen“: Diese Worte eines amerikanischen Komikers galten ursprünglich einer Frau, die er nicht sonderlich gut leiden konnte. Für den israelisch-amerikanischen Psychologen und Wirtschaftsnobelpreisträger Daniel Kahneman (Nobelpreis 2002) passen diese Worte auch sehr gut zur Intuition: Denn die Intuition erachtet Kahneman nicht gerade als Garant für fundierte Entscheidungen.

Vielleicht ist es kein Zufall, dass hier Daniel Kahneman eine Frau ins Spiel bringt. Immerhin besagt ein altes Vorurteil, dass vor allem Frauen eine Begabung für die Intuition hätten. Seit der Epoche der Aufklärung gilt uns die Vernunft mehr als die Intuition. Und auch Frauen standen lange Zeit im Schatten der Männer und mussten mit dem Vorurteil kämpfen, Logik und Denken seien nicht ihre Sache.

Bei der Stellung und dem Ansehen der Frauen hat sich mittlerweile einiges getan. Der Ruf der Intuition dagegen bleibt zweifelhaft: Esoteriker deuten die Intuition nach wie vor als etwas Mystisches und in der Gesellschaft hat sie noch nicht den Ruf, etwas zu sein, das wissenschaftlich erklärt werden kann. Dabei hat die Wissenschaft die Intuition (von dem lateinischen Wort intueri für ansehen, betrachten) inzwischen als einen ernst zu nehmenden Forschungsgegenstand entdeckt und zu einer Form des unbewussten Denkens aufgewertet. Wie die Intuition genau funktioniert, darüber streiten die Experten noch heute.

Gerd Gigerenzer, langjähriger Direktor am Max-Planck-Institut für Bildungsforschung in Berlin, macht in seinem Buch „Risiko – Wie man die richtigen Entscheidungen trifft“ deutlich, was Intuition jedenfalls nicht ist: „Eine Intuition ist weder eine Laune noch ein sechster Sinn, weder Hellseherei noch Gottes Stimme. Sie ist eine Form der unbewussten Intelligenz.“ Die Annahme, Intelligenz (kognitive Leistungsfähigkeit des Menschen) sei notwendigerweise bewusst und überlegt, sei ein Riesenirrtum, so der Psychologe und Risikoforscher. Intuition ist für Gigerenzer gleichbedeutend mit einer Bauchentscheidung: Statt dass wir uns den Kopf zerbrechen, haben wir ein Gefühl im Bauch. Dieses Bauchgefühl ist so stark und es taucht so rasch im Bewusstsein auf, dass wir uns auf dieses Gefühl verlassen und nach diesem entscheiden – auch wenn uns die Gründe für das Gefühl nicht näher bekannt sind.

Gigerenzer vertritt die Position, dass intuitive Entscheidungen auf so genannten Heuristiken basieren, welche auch das Geheimnis des Erfolgs von Intuition ausmachen. Heuristiken sind gewissermaßen Faustregeln. Sie gründen nur auf wenigen Informationen und klammern einen großen Teil der vorhandenen Informationen aus, um zu besseren Urteilen zu kommen. Laut Gigerenzer haben diese oft die Struktur, dass man sich nur auf die zuverlässigste Information stützt und alles andere ignoriert. Wenn beispielsweise ein Baseball-Spieler versucht, einen vom Gegner hoch geschlagenen Ball zu fangen, berechnet er dann genau die Flugbahn des Balls? Berücksichtigt er die Anfangsentfernung, die Geschwindigkeit und den Winkel des Balls, den Wind und den Luftwiderstand? Selbstverständlich nicht! Der Baseball-Spieler greift laut Gigerenzer meist unbewusst auf eine Heuristik, eine Faustregel, zurück: Fixiere den Ball und passé deine Laufgeschwindigkeit so an, dass dein Blickwinkel konstant bleibt. Solche Faustregeln könnten es uns ermöglichen, blitzschnell und intuitiv zu entscheiden und zu handeln. Dass die von Gigerenzer vorgeschlagenen Heuristiken tatsächlich die der Intuition zugrunde liegenden Prozesse der Informationsbearbeitung beschreiben, ist allerdings empirisch nicht zweifelsfrei belegt. Zum Beispiel müssten die Mechanismen, die der Ballfang-Heuristik zugrunde gelegt werden, deutlich komplexer sein, haben andere Forscher bereits vor Jahren gezeigt.

Schnelles Denken, langsames Denken

Ein anderes und teilweise pessimistischeres Bild der Intuition zeichnet der eingangs erwähnte Daniel Kahneman. Der Wirtschaftsnobelpreisträger unterscheidet in seinem Besteller „Schnelles Denken, langsames Denken“ zwei Systeme des Verstandes, die er wie zwei Akteure in seinem Buch auftreten lässt. Der erste Akteur – das unbewusste System – arbeitet automatisch, schnell und ohne willentliche Steuerung. Es kommt etwa zum Zuge, wenn man die Feindseligkeit aus einer Stimme heraushört oder auf einen Blick sieht, was „2+2“ ergibt. Der zweite Akteur – das bewusste System unseres Verstandes – ist hingegen mehr der akribische Typ. Es stellt komplizierte Berechnungen an und kann eine wohlüberlegte Wahl zwischen verschiedenen Optionen treffen, etwa wenn man zwei Waschmaschinen auf das bessere Preis-Leistungs-Verhältnis hin vergleicht. Der Preis ist allerdings: Die Tätigkeiten des bewussten Systems erfordern Aufmerksamkeit. Auf das Waschmaschinen-Problem muss man sich konzentrieren und von daher kann das bewusste System nicht mehrere Aufgaben gleichzeitig bewältigen. Außerdem kostet das sorgfältige Kalkulieren und Abwägen Zeit und das Gedächtnis kann nur eine begrenzte Menge von Informationen gleichzeitig bewusst verarbeiten.

Nach Kahneman gibt es daher durchaus gute evolutionäre Gründe für das flinke unbewusste System: „Es erhöhte die Überlebenschancen, wenn man die schwerwiegendsten Bedrohungen oder die vielversprechendsten Gelegenheiten schnell erkannte und umgehend darauf reagierte.“ Selbst beim modernen Menschen übernehme heute noch das unbewusste System die Kontrolle, wenn Gefahr droht. Wenn vor Ihnen auf der Straße ein Auto überraschend bremst, werden Sie merken: Sie reagieren, bevor Ihnen die Gefahr überhaupt richtig bewusst geworden ist.

Das flinke unbewusste System übernimmt die Kontrolle, wenn Gefahr droht.

Kognitive Fallstricke

Normalerweise arbeitet das automatische unbewusste System zuverlässig. Das möchte auch Kahneman keineswegs bestreiten. Doch in jahrzehntelanger Forschung hat er auch gezeigt, wie die Intuition immer wieder in kognitive Fallen tappt und Denkverzerrungen zum Opfer fällt. Ähnlich wie Gigerenzer geht Kahneman dabei davon aus, dass einfache Heuristiken der Intuition zugrunde liegen. Allerdings hat Kahneman in seinen Arbeiten andere Heuristiken als Gigerenzer formuliert. Kahneman zufolge würden die eigentlich für die Lösung einer Aufgabe relevanten Informationen durch irrelevante Informationen ersetzt, nämlich durch eine Information, die im Gedächtnis besonders leicht zugänglich ist. Versuchen Sie beispielsweise einmal die folgende Aufgabe zu lösen:

  • Ein Schläger und ein Ball kosten zusammen 1,10 Euro.
  • Der Schläger kostet einen Euro mehr als der Ball.
  • Wie viel kostet der Ball?

Wahrscheinlich schießt Ihnen intuitiv sofort eine Antwort in den Kopf: 10 Cent. Der Gedanke ist verführerisch, aber leider falsch, wie exaktes Nachrechnen ergibt. Wenn der Ball 10 Cent kostet und der Schläger 1 Euro mehr – also 1,10 Euro –, dann kostet beides zusammen schon 1,20 Euro. Die richtige Antwort lautet 5 Cent. Für Kahneman stellt dieses Beispiel einen Fall dar, wo schnelle intuitive Prozesse in die Irre führen, besonders wenn das bewusste System einer seiner Aufgaben nicht nachkommt: Eigentlich soll es nämlich die blitzschnellen „Vorschläge“ des unbewussten Systems einer kritischen Prüfung unterziehen.

Des Öfteren versagt das bewusste System nicht nur in seiner Kontrollfunktion. Es neigt auch gerne einmal dazu, den Entscheidungen unseres unbewussten Systems im Nachhinein einen rationalen Anstrich zu verpassen. Etwa wenn man ein Projekt aus vermeintlich guten Gründen optimistisch einschätzt, für das man in Wirklichkeit vor allem Sympathien hegt, weil die Projektleiterin einen an die geliebte Schwester erinnert. „Doch wenn man Sie nach einer Erklärung fragt, werden Sie Ihr Gedächtnis nach plausiblen Gründen durchforsten und mit Sicherheit einige finden“, erläutert Kahneman in seinem Buch. Letztlich entstehen im unbewussten System Eindrücke und Gefühle, die die Hauptquelle der expliziten Überzeugungen und Entscheidungen des bewussten Systems bilden. Die Intuition kann dann auch zu Vorurteilen führen: Jemand beurteilt andere Menschen schnell – und mitunter moralisch vorschnell.

Auch gute Intuitionen haben lange Vorlaufzeit

Wie hilfreich ist die Intuition also letztlich bei Entscheidungen und wo versagt sie? In einem Fachaufsatz filterten Daniel Kahneman und Gary Klein von der Firma Applied Research Associates die Bedingungen erfolgreicher beruflicher Intuitionen aus Jahrzehnten empirischer Forschung heraus. Bemerke etwa eine Krankenschwester intuitiv eine Infektion bei einem Neugeborenen, gelingt ihr das nur, weil ihre berufliche Umwelt stabil sei und zuverlässige Hinweise zu der jeweiligen Situation liefere. Bei einem Neugeborenen gebe es häufig frühe Anzeichen einer Infektion, die eine Krankenschwester im Laufe der Zeit erlernen könne. Zudem erhalte sie ein schnelles und eindeutiges Feedback, ob sie mit ihrer Intuition richtig gelegen hat.

Ob intuitive Entscheidungen erfolgreich sind, hängt davon ab, ob sie auf genügend Erfahrung beruhen“, sagt auch der Psychologe Henning Plessner von der Uni Heidelberg. „Intuition beruht auf viel Wissen und bewusster Erfahrung. In der Entscheidungssituation selbst denkt man dann nicht mehr viel nach.“ Die Position, dass Intuition auf unbewussten Prozessen der Informationsverarbeitung basiert, die es Menschen erlauben, eine Vielzahl von Informationen und Erfahrungen gleichzeitig zu berücksichtigen, wird inzwischen von vielen Intuitionsforschern geteilt.

Die in den komplexeren Modellen hervorgehobene Rolle von auf Erfahrungen basierendem Wissen bedeutet aber auch: Intuitionen, die nicht auf viel Erfahrung beruhen, sollte man eher misstrauisch begegnen: Damit man keine voreiligen Schlüsse zieht. Egal, ob man nun – wie in dem Spruch des US-Komikers über die unliebsame Person – eine Frau oder ein Mann ist.


* Der vorliegende Artikel ist unter dem Titel "Unbewusstes Denken statt sechsten Sinns" auf der Webseite www.dasGehirn.info am 22.1.2025 erschienen https://www.dasgehirn.info/denken/intuition/unbewusstes-denken-statt-sechsten-sinns.Der Artikel steht unter einer cc-by-nc Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


 

inge Sun, 04.05.2025 - 22:46

Gürtelrose-Impfung: Wirksamkeit gegen Demenzerkrankungen auch in Australien nachgewiesen

Gürtelrose-Impfung: Wirksamkeit gegen Demenzerkrankungen auch in Australien nachgewiesen

Sa, 26.04.2025— Redaktion

Redaktion

Icon Medizin

An Hand von sehr umfangreichen elektronischen Gesundheitsdaten aus Wales (UK) konnte kürzlich ein transdisziplinäres Team von Wirtschaftswissenschaftern und Medizinern in einem "Quasi-Experiment" zeigen, dass offensichtlich ein kausaler Zusammenhang zwischen der Gürtelrose-Impfung und der Reduktion von Demenzerkrankungen besteht. Eine ähnliche "quasi-experimentelle Analyse" - nun basierend auf elektronischen Gesundheitsdaten aus Australien - ist am 23. April d.J. erschienen und bestätigt die Waliser Ergebnisse in einem anderen Volk und einem anderen Gesundheitssystem: Die Gürtelrose-Impfung dürfte Demenzerkrankungen weitaus stärker verhindern oder verzögern als die bislang angewandten Therapien.

Auswirkung der Zostavax Impfung in Wales.........

Vor drei Wochen ist eine aufsehenerregende Studie im Fachjournal Nature erschienen, welche die einzigartige Art und Weise, in der die Impfung gegen Gürtelrose (Zostavax) in Wales eingeführt wurde, nutzte, um überzeugend darzulegen, dass ein kausaler Zusammenhang zwischen der Impfung und der Reduktion von Demenzerkrankungen besteht [1].

Das Impfprogramm mit Zostavax - dem damals einzig verfügbaren abgeschwächten Lebendimpfstoff - war In Wales am 1. September 2013 eingeführt worden, wobei nur Personen zur Impfung zugelassen wurden, die an diesem Tag jünger als 80 Jahre (also nach dem 2. September 1933 geboren) waren. Knapp vor und nach diesem Stichtag gab es demnach - wie in einer randomisierten Placebo-kontrollierten klinischen Studie - gleichartig zusammengesetzte, äußerst ähnliche Kohorten von Geimpften und Nichtgeimpften, die nun ohne den in assoziierenden Beobachtungsstudien üblichen Bias von Herkunft, Bildung und sozialem Status auf das Auftreten von Demenzerkrankungen über eine Nachbeobachtungsperiode von 7 Jahren verglichen werden konnten. Die Studie nutzte dazu sogenannte Regressions-Diskontinuitäts (RD)-Analysen, in den Wirtschaftswissenschaften häufig angewandte Verfahren, um auf kausale Effekte zu testen. Diese zeigten eine große signifikante Diskontinuität in der Wahrscheinlichkeit, dass Geimpfte innerhalb der nächsten sieben Jahre an Demenz erkrankten: bezogen auf zur Impfung Berechtigte und Nichtberechtigte betrug dieser Sprung absolut 1,3 %, auf tatsächlich Geimpfte und Nichtgeimpfte bezogen waren es 3,5 %. Relativ zur Inzidenz der Erkrankungen entsprach dies rund 20 % der neuen Demenzdiagnosen.

Eine leicht verständliche Darstellung der Wales-Studie und ihrer Ergebnisse ist vor 2 Wochen im ScienceBlog erschienen und dazu auch ein Überblick zum Varicella-Zoster-Virus, das Windpocken auslöst und Nervengewebe infiziert, woraus sich Jahrzehnte später häufig eine Gürtelrose und möglicherweise auch neurodegenerative Erkrankungen entwickeln[2].

...........und in Australien

Eine sehr ähnliche Situation wie in Wales gab es auch in Australien. Hier wählte das Nationale Immunisierungsprogramm ebenfalls einen Stichtag, den 1. November 2016, ab dem die kostenlose Impfung mit der abgeschwächten Lebendvakzine Zostavax für 70 -79-Jährige, nicht aber für ältere Personen angeboten wurde, wobei Ärzte der Primärversorgung die Impfungen durchführten.

Pascal Geldsetzer (University Stanford), der auch an der Wales-Studie [1] federführend mitwirkte, und Kollegen wandten in ähnlicher Weise wie in Wales ein "Quasi-experimentelles Design" (dort als "natürliches Experiment" bezeichnet) an, um die Auswirkungen der Gürtelrose Impfung auf Demenzerkrankungen zu untersuchen [3]. Über eine Nachbeobachtungszeit von 7,4 Jahren verglichen sie mit Hilfe von Regressions-Diskontinuitäts -Analysen die Wahrscheinlichkeit an Demenz zu erkranken von nahezu identisch zusammengesetzten Personengruppen - von solchen, die unmittelbar vor dem Stichtag 80 Jahre alt wurden und damit keinen Zugang zur Impfung erhielten und solchen, die unmittelbar nach dem Stichtag 80 wurden und damit berechtigt waren geimpft zu werden. Sie nutzten dazu Primärversorgungs-Daten der Gesundheitsinformatikplattform PenCS, die Forschern detaillierte elektronische Gesundheitsdaten (Diagnosen, Impfungen, andere Behandlungen der Gesundheitsversorgung, verschriebene Medikamente, sowie Geburtsdaten) landesweit von 65 Hausarztpraxen zur Verfügung stellt.

Wie die Studie ergab,

  • war bei den Impfberechtigten (d. h. bei den kurz nach dem 2. November 1936 Geborenen) die Wahrscheinlichkeit innerhalb von 7,4 Jahren eine neue Demenzdiagnose zu erhalten, statistisch signifikant um 1,8 Prozentpunkte (95% Konfidenzintervall: 0,4-3,3 Prozentpunkte; P = .01) niedriger, als bei den kurz vor dem 2. November 1936 Geborenen und daher Nichtberechtigten [3]. Der Unterschied (die Diskontinuität) war damit noch größer als in der Wales-Studie (siehe Abbildung 2 in [2]). Von einer Skalierung der Impfberechtigten auf tatsächlich Geimpfte und damit auf die relative Größe der Reduktion von Demenzdiagnosen (in Wales 20 %) nahmen die Forscher allerdings Abstand, da die Inanspruchnahme von präventiven Gesundheitsleistungen in Australien im Allgemeinen offenbar stark unterreportiert wird.
  • Anders als in der Wales-Studie konnte kein vergleichbarer Geschlechtsunterschied in der Wirkung auf Demenzen festgestellt werden. Dies könnte aber nach Meinung der Autoren auch an dem sehr breiten Konfidenzintervall (KI 95 %: -1,3 - 4,4 %; p==0,319) liegen
  • Wie auch in der Wales-Studie war der Effekt der Gürtelrose-Impfung auf Demenzerkrankungen spezifisch: Es wurden keinerlei Auswirkungen auf die Diagnosen von 15 anderen häufigen chronischen Erkrankungen oder Inanspruchnahmen von präventiven Gesundheitsleistungen beobachtet.

Schlussfolgerungen der Studienautoren

" In Verbindung mit den Resultaten eines ähnlichen Quasi-Experiments in Wales deuten die Ergebnisse unserer Studie darauf hin, dass die Gürtelrose-Impfung eine kostengünstige und lohnende Maßnahme ist, um die Belastung durch Demenzerkrankungen zu verringern.

Wir sind der Meinung, dass unsere Ergebnisse Investitionen in die weitere Forschung in diesem Bereich erfordern, einschließlich klinischer Studien, weiterer Replikationen in anderen Umfeldern, Bevölkerungsgruppen, und Gesundheitssystemen sowie mechanistischer Forschung."

Pomirchy M et al., 23.04.2025, JAMA [3]


[1] Eyting, M., Xie, M., Michalik, F., Hess S., Chung S. et Geldsetzer, P.. A natural experiment on the effect of herpes zoster vaccination on dementia. Nature (2025). https://doi.org/10.1038/s41586-025-08800-x

[2] Redaktion, 09.04.2025: Die Impfung gegen Gürtelrose senkt das Risiko an Demenz zu erkranken.

[3] Pomirchy M, Bommer C, Pradella F, Michalik F, Peters R, Geldsetzer P. Herpes Zoster Vaccination and Dementia Occurrence. JAMA. Published online April 23, 2025. doi:10.1001/jama.2025.5013.


 

inge Sat, 26.04.2025 - 17:13

Wir lachen von frühester Kindheit an

Wir lachen von frühester Kindheit an

Fr. 18.04.2025— Susanne Donner

Susanne DonnerIcon Gehirn

Menschen und viele Tiere sind von klein auf zu Späßen aufgelegt. Schon ab drei Monaten hat die Hälfte der Säuglinge ihren Humor entdeckt, Kleinkinder finden es lustig, wenn Sinneseindrücke ihre Erwartungen unterlaufen. Später haben Kinder auch Spaß daran andere zu ärgern und auszulachen. Den Humor von Erwachsenen finden Kinder lange nicht besonders witzig. Lachen signalisiert, ob zwei Menschen als Freund oder Feind auseinandergehen. Humor scheint eine Triebfeder der Bindung zu sein.*

Es war eine köstliche Szene, die sich in einem Berliner Café bot: Eine Oma nestelte ein buntes Halstuch aus ihrer Tasche und lächelte ihre gerade einmal sechs Monate alte Enkeltochter an, die neben ihr im Kinderwagen lag. Mit einer amüsierten Geste hielt die Dame das Tuch in die Höhe und verbarg dann ihr Gesicht dahinter. Das Baby starrte auf das Tuch. Da lugte die Oma mit einem Auge hinter ihrem Versteck hervor. Vor Freude gluckste die Kleine und strahlte über das ganze Gesicht. Unermüdlich wiederholte die Oma ihr Versteckspiel. Jedes Mal fand ihre Enkelin es aufs Neue so lustig wie beim ersten Mal.

Das Mädchen hat offensichtlich Spaß an der gezeigten Kugel. Ausschnitt aus Catharina Hooft mit ihrer Amme. Franz Hals, ein Maler des Lachens und Humors: ca. 1620 (Kunstmuseum, Berlin, gemeinfrei)

Das kleine Mädchen ist kein Einzelfall. Kinder entwickeln schon im ersten Lebensjahr Humor, wie wir dank der Psychologin Elena Hoicka von der Universität Bristol seit wenigen Jahren genauer wissen. Sie, selbst Mutter von drei Kindern, erzählt: „Als ich hörte, dass Babys schon mit drei Monaten ihre lustige Seite entdecken, konnte ich das zunächst nicht glauben. Ich hielt es für viel zu früh.“

Kinderlachen: Kaum erforscht und schwer zu erforschen

Gemeinsam mit anderen Forschenden entwickelte Hoicka einen Fragebogen, in dem nach verschiedenen Arten des Humors bei Kindern gefragt wird. Tatsächlich ist die heitere Gemütslage alles andere als trivial zu erforschen. „In Laborexperimenten finden die Kinder kaum etwas lustig. Sie fühlen sich befangen oder scheuen vor der erwachsen Person zurück“, sagt Hoicka. Auflockern lässt sich das allenfalls in kleinen Gruppen. Leichter und sehr aussagekräftig ist es aber, die Eltern genau zu befragen, was ihre Sprösslinge zum Kichern bringt, hat Hoicka nachgewiesen.

Sie testete ihren Fragebogen an knapp 700 Kindern aus Kanada, Großbritannien, Australien und den USA. Die Hälfte der Babys fing den Eltern zufolge schon mit drei Monaten an, Sinneseindrücke lustig zu finden. Sie grinsten, wenn eine Person das Wiehern eines Pferdes oder das Miauen einer Katze nachmacht. Und sie belustigen sich, wenn man sie durch die Beine hindurch anschaut. „Sie haben eine erste Idee davon, was normal ist. Wenn diese erwarteten Sinneseindrücke auf den Kopf gestellt werden, finden sie das lustig“, erklärt Hoicka. Deshalb kichern sie auch, wenn Mutter ihren Kopf hinter einem Möbel versteckt und abrupt immer wieder hervorschaut.

Sobald Säuglinge ihren Humor entdecken, können sie davon offenbar auch nicht genug bekommen: Die Hälfte der Kinder war mindestens alle drei Stunden zu Scherzen aufgelegt, fand Hoicka heraus.

Ab acht Monaten prägt zusehends die Kultur den Humor der Kinder. Sie wissen, dass Schuhe an die Füße gehören und ein Löffel in den Mund. Witzig finden sie es, wenn Objekte zweckentfremdet werden, etwa die Schuhe an den Händen stecken oder eine Unterhose auf dem Kopf liegt. Sie können auch ins Lachen geraten, wenn man sie mit einem Geräusch erschreckt oder Sachen, die man ihnen anbietet, spielerisch schnell wegzieht, ehe sie zugreifen können. Im Alter von einem Jahr finden sie es auch amüsant, wenn sie Körperteile vertrauter Personen zu Gesicht bekommen, die sie sonst nicht oft sehen, etwa den nackten Bauch von Opa.

Lachender Knabe, Franz Hals um 1625. (Den Haag, Mauritshuis, gemeinfrei).

Lachen und auslachen

Ab zwei Jahren bekommt der Humor allerdings auch eine fiese Färbung. Kinder entdecken dann die lustige Seite des Ärgerns. Sie können ihren Spaß am Schubsen haben oder wenn ein Mensch geschubst wird. Sie machen sich lustig über andere. Sprachliche Spielereien kommen dazu. In diesem Alter beginnen sie, Quatschwörter zu erfinden.

Schon Kleinkinder passen ihren Humor dem Gegenüber an. An 72 Fünfjährigen beobachtete die Psychologin Amy Paine von der Cardiff University , dass die Kinder umso humorvoller waren, je besser sie ein Geschwisterkind einschätzen konnten und je mehr sie es mochten. Humor ist ein auf Mitmenschen bezogenes Verhalten und sehr fein auf das Vorwissen über diese Personen abgestimmt, erklärt Paine in einem Fachaufsatz im Journal of Applied Developmental Psychology.

Das Gehirn verarbeitet Lustiges schnell und oft schon vorauseilend

Wenn etwas lustig ist, reagiert das Gehirn ziemlich flink, teils sogar schon in Erwartung einer komischen Situation. Experimente aus den neunziger Jahren zeigten beispielsweise, dass Witze die Hirnströme verändern, unabhängig davon, ob sie ein Lächeln oder Lachen hervorrufen. Etwa 200 Millisekunden, nachdem ein Witz gerissen wurde, konnte eine positive Erregungswelle an der Kopfhaut abgeleitet werden, die bei 300 Millisekunden ihr Maximum hatte. Ein typischer Marker, der im Elektroenzephalogramm bei Überraschung oder einer Wendung im Witz auftritt, ist die sogenannte N400-Komponente, die mit der Verarbeitung unerwarteter oder unpassender Informationen verbunden ist.

Beim Kitzeln löst bereits die sich nähernde Hand eine Reaktion in der Körperfühlhirnrinde aus, berichtet der Neurobiologe Michael Brecht von der Humboldt-Universität zu Berlin aus seiner Forschung. Die Erwartung der Berührung triggert schon das Lachen, erkannte er bei Ratten und sieht eine Analogie beim Menschen: „Kinder schreien und johlen und kringeln sich vor Lachen, wenn man sie kitzeln möchte. Damit laden sie regelrecht zur Berührung ein, die ihnen ja auch Spaß macht.“

Hoicka vermutete, dass der Humor von Kindern auch ein Gradmesser für ihre soziale und geistige Entwicklung ist. Doch ihre Forschung zeigte, dass der Zusammenhang genau umgekehrt ist: Eine ausgeprägte lustige Seite sagt bessere soziale und geistige Fähigkeiten sechs Monate später vorher. Denkbar ist es, dass Humor und im weiteren Sinn Begeisterung das Gehirn in einen Zustand leichteren Lernens versetzt und deshalb einem Entwicklungsschub vorausgeht. Schon länger wissen Pädagoginnen und Pädagogen, dass sich die Fähigkeiten von Kindern immer wieder in so genannten Sprints entwickeln.

„Vieles, was wir in der Humorforschung finden, ist nicht gerade, was wir erwarten“, sagt Hoicka. Manche Facette des Humors verstehen Forschende letztlich noch nicht zur Gänze.

Der Humor der Erwachsenen ist zu kompliziert für Kinder

Gemeinsam über eine Sache zu lachen, kann sehr verbindend sein. Franz Hals (um 1623) Yonker Ramp and his sweetheart’"(Metropolitan Museum, New York, gemeinfrei)

Eines aber eint alle Kinder: Der Humor der Erwachsenen ist für sie oft nichts zum Lachen, Ironie etwa ist für den Nachwuchs schwer zu verstehen. Erst ab sieben Jahren öffnet sich diese verkehrte Welt für sie. Auch Doppeldeutigkeiten und Wortspielereien rufen bei ihnen in der Regel keinen Lacher hervor. „Welche Mode ist aus Holz? – Die Kommode!“ ist so eine Scherzfrage, die erst in einem Buch für Kinder ab acht Jahren auftaucht. Denn sie setzt Kenntnisse über Mode und Möbel voraus.

Warum wir überhaupt schon kurz nach der Geburt lachen? Einen wichtigen Fingerzeig liefern Forschungen an Tieren. Denn auch sie sind teils zu Späßen aufgelegt. Legendär sind die quiekenden Ultraschalllaute der Ratten, wenn sie am Bauch gekitzelt werden. Der 2017 verstorbene Neurowissenschaftler Jaak Panksepp dokumentierte das Gegiggel der Ratten beim Kitzeln vor rund 30 Jahren. „Zuerst wollte das niemand glauben. Aber er hat so viele Beweise gesammelt. Und wir haben seine Experimente nachgemacht“, sagt der Neurobiologe Michael Brecht von der Humboldt-Universität zu Berlin. Heute weiß er deshalb: Ratten sind an verschiedenen Körperteilen unterschiedlich kitzelig. Am Schwanz ist ihnen die Berührung egal. Aber am Bauch und am Nacken reagieren sie heftig.

Wie auch der Mensch sind die Nagetiere soziale Wesen, die in Gruppen leben. „Wir denken, dass die Kitzeligkeit ein Trick der Natur ist, damit wir uns gegenseitig berühren und in Kontakt kommen. Und das Lachen signalisiert, dass es OK ist“, erklärt Brecht. Dafür spricht auch: Besonders kitzelig werden Ratten, wenn sie allein in ihrem Käfig leben. Haben sie schon Mitbewohner, sind sie weniger empfänglich.

So gesehen könnte Humor eine Triebfeder der Bindung sein. „Gemeinsam über eine Sache zu lachen, kann sehr verbindend sein. Auch signalisiert es, dass gerade keine Gefahr droht“, sagt Hoicka. Lachen durchbricht den Flucht- und Kampfmodus des Menschen, heißt es auch. -


* Der vorliegende Artikel ist unter dem Titel "Zum Lachen geboren" auf der Webseite www.dasGehirn.info am 28. Feber 2025 erschienen (https://www.dasgehirn.info/denken/humor/zum-lachen-geboren). Der Artikel steht unter einer cc-by-nc-sa Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen; zur Visualisierung wurden 3 Abbildungen eingefügt.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Lachen im ScienceBlog

Nora Schultz, 13.03.2025: Persönlichkeit und individueller Humorsinn

Inge Schuster, 05.07.2024: Stimulation des Vagusnervs - eine Revolution in der Therapie physischer und psychischer Erkrankungen?

Inge Schuster, 12.92.2024: Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum.


 

inge Fri, 18.04.2025 - 22:27

Die Impfung gegen Gürtelrose senkt das Risiko an Demenz zu erkranken

Die Impfung gegen Gürtelrose senkt das Risiko an Demenz zu erkranken

Mi, 9.04.2025— Redaktion

Redaktion

Icon Medizin

In den letzten Jahren mehren sich die Hinweise, dass Herpesviren eine Rolle bei der Entstehung von Demenzen spielen dürften und eine Herpes-Impfung Schutz vor diesen Erkrankungen bieten könnte. Eine neue Studie nutzt die einzigartige Art und Weise, in der der Gürtelrose-Impfstoff Zostavax in Wales eingeführt wurde, um in überzeugender Weise darzulegen, dass offensichtlich ein kausaler Zusammenhang zwischen der Impfung und der Reduktion von Demenzerkrankungen besteht. Über einen Nachbeobachtungszeitraum von sieben Jahren hat die Impfung die Diagnose von neuen Demenzerkrankungen um etwa 20 % gesenkt - eine nebenwirkungsfreie und dabei wirksamere und kostengünstigere Intervention als die bestehenden pharmazeutischen Maßnahmen.

Von Feuchtblattern zur Gürtelrose......

Das zur Gruppe der Herpesviren gehörende Varicella-Zoster-Virus (VZV) ist ein weltweit verbreitetes neurotropes - d.i. Nervengewebe infizierendes - Virus. VZV ist hochansteckend und löst primär Feuchtblattern (Windpocken) aus, eine Hauterkrankung, an der vor allem Kinder erkranken und die mit Fieber und juckendem bläschenförmigen Ausschlag aber meistens ohne schwere Komplikationen einhergeht. Eine Impfung gegen das Virus gibt es bereits seit mehr als 30 Jahren; dies hat die Zahl der Fälle und vor allem der seltenen schweren Komplikationen enorm verringert. Über 90 % der Erwachsenen in Europa weisen Antikörper gegen das Virus auf, weil sie entweder mit VZV infiziert waren oder als Kinder dagegen geimpft wurden - dies macht sie gegen einen neuen Feuchtblattern-Ausbruch immun.

Abbildung 1. Zur Infektion mit dem Varicella-Zoster-Virus.Vereinfachtes Schema. Die Erstinfektion mit dem Virus (rechts oben) erfolgt in der Regel durch Einatmen hochinfektiöser Partikel von akut an einer Varizelleninfektion erkrankten Personen. Man nimmt an, dass VZV die Epithelschleimhaut (Mukosa) in den oberen Atemwegen und dabei lokale dendritische Zellen infiziert (links), über die das Virus in die Lymphknoten übertragen wird, wo es T-Zellen infiziert. Über die Blutbahn wird das Virus in der Haut verbreitet und führt dort zu den juckenden Bläschen der Feuchtblattern. Daneben gelangt VZV in die sensorischen Nervenzellen der Spinalganglien (DRG - dorsal root ganglia) und verbleibt dort in latenter, d.i. reaktivierbarer Form. Dies geschieht im Alter und/oder bei geschwächtem Immunsystem; das Virus gelangt wieder in die Haut und löst nun den charakteristischen Herpes-Zoster-Ausschlag aus.

(Bild links modifiziert aus: Chelsea Gerada et al., Front. Immunol. 2020 Sec. Viral Immunology. Vol 11. https://doi.org/10.3389/fimmu.2020.00001; Lizenz CC-BY. Bild oben rechts: NIAID - Electron micrograph of Varicella-zoster Virus, https://commons.wikimedia.org/w/index.php?curid=39933260 CC BY 2.0. Bild unten rechts: Gürtelrose, https://commons.wikimedia.org/wiki/File:DGK_Guertelrose.jpg, CC-BY-SA.)

Wenn die Feuchtblattern-Infektion abgeklungen ist, ist das Virus allerdings nicht völlig aus dem Organismus verschwunden. Über die Nervenbahnen in Nervenzellen des Rückenmarks (in den dorsalen Spinalganglien) und auch in Hirnnerven gelangt verbleibt es dort - solange es von der antiviralen Immunantwort in Schach gehalten wird - in einem inaktiven (latenten) Zustand. Ist aber das Immunsystem infolge des Alterungsprozesses, schweren Erkrankungen oder Therapien - schwächer geworden, so kann das Virus auch noch nach Jahrzehnten reaktiviert werden, sich vermehren und über die Nervenbahnen ausbreiten - in den entsprechenden Hautabschnitten (Dermatomen) können dann Gürtelrose und in vielen Fällen sehr schmerzhafte Post-Zoster-Neuralgien ausgelöst werden.

Zu Feuchtblattern führende Primärinfektion und Gürtelrose auslösende Reaktivierung des VZV sind in Abbildung 1 vereinfacht dargestellt.

...........und zu kognitiven Beeinträchtigungen

Wie auch das nahe verwandte Herpes simplex Virus kann VZV im zentralen Nervensystem Hirnentzündung (Enzephalitis) und Hirnhautentzündung (Meningitis) auslösen.

Darüber hinaus mehren sich die Hinweise, dass das Virus eine Rolle in der Pathogenese von Demenzerkrankungen, insbesondere der Alzheimerkrankheit spielen dürfte: Untersuchungen haben gezeigt, dass VZV zu zerebralen Vaskulopathien (Gefäßerkrankungen), Amyloidablagerungen, Aggregation von Tau-Proteinen und Neuroinflammation und in Folge zu kognitiven Beeinträchtigungen führen kann.

Wenn also VZV maßgeblich in diese Pathogenese involviert sein dürfte, sollte die (für ältere Menschen empfohlene) Impfung gegen Gürtelrose das Risiko für Demenzerkrankungen reduzieren. Dies haben in jüngster Zeit eine Reihe von epidemiologischen Studien berichtet, die elektronische Gesundheitsdaten heranzogen, um Kohorten, die eine Gürtelrose-Impfung erhalten hatten mit solchen zu vergleichen, die nicht geimpft wurden. Allerdings leiden solche Korrelationen unter dem Bias, dass sich solche Kohorten in (auch mit Demenz zusammenhängenden) Merkmalen unterscheiden können, insbesondere da gesundheitsbewusste/-kompetente Menschen sich eher impfen lassen und weniger häufig an Demenz erkranken.

Ein "natürliches" Experiment

Eine transdisziplinäres Team von Wirtschaftswissenschaftern und Medizinern aus den US, Deutschland und Österreich konnte an Hand von vollständigen elektronischen Gesundheitsdaten- d.i. über erhaltene Impfungen, primäre und sekundäre Gesundheitsversorgung, Geburts- und Sterbedaten -, wie sie in Wales (SAIL-Datenbank) erhoben werden, nun in überzeugender Weise zeigen, dass offensichtlich ein kausaler Zusammenhang zwischen der Gürtelrose-Impfung und der Reduktion von Demenzerkrankungen besteht [1].

In Wales wurde am 1. September 2013 die Impfung mit der abgeschwächten Lebendvakzine Zostavax (dem damals einzigen Gürtelrose-Impfstoff) für 70 bis 79 Jährige eingeführt. Das Impfprogramm zeigte dabei eine Besonderheit, die es möglich machte äußerst ähnliche Kohorten von Geimpften und Nichtgeimpften zu vergleichen: Da die Wirksamkeit des Impfstoffs für Personen ab 80 Jahren niedriger ausfällt und damit als nicht kosteneffizient galt, wurden nur Personen zur Impfung zugelassen, die mit dem Stichtag 1. September 2013 jünger als 80 Jahre (also nach dem 2. September 1933 geboren) waren [2].

Die Forscher verglichen nun über eine Nachbeobachtungsperiode von sieben Jahren die Gesundheitsdaten, das Auftreten von Gürtelrose, Post-Zoster-Neuralgien und von Demenzerkrankungen von Senioren, die eine Woche vor dem Stichtag 80 geworden waren und daher von der Impfung ausgeschlossen waren, mit denen, die in der Woche nach dem Stichtag 80 wurden und daher berechtigt waren geimpft zu werden (47 % dieser Impfberechtigten ließ sich auch impfen). Vom minimalen Altersunterschied abgesehen lagen daher zwei weitestgehend gleichartig zusammengesetzte Personengruppen (also auch hinsichtlich der Impfwilligen und Impfunwilligen) vor, die sich nur durch den Faktor Impfung unterschieden. Besser als diese, von den Forschern als "natürliches Experiment" bezeichnete Analyse lässt sich auch der Goldstandard klinischer Untersuchungen, die randomisierte, Placebo-kontrollierte Studie nicht designen!

Abbildung 2. Die Zulassung zur Gürtelrose-Impfung bewirkt einen großen Sprung (Diskontinuität) in der Wahrscheinlichkeit innerhalb der folgenden sieben Jahre an Demenz zu erkranken. Regression-Diskontinuitäts-Analyse. Normiert auf den Anteil der tatsächlich geimpften Personen, resultiert eine Reduktion der neuen Demenzfälle um 3,5 % (95% CI = 0.6–7.1; p= 0.019) oder rund 20 % der neuen Demenzdiagnosen. (Bild modifiziert aus Fig.3.in Eyting et al. 2025 [1]; Lizenz CC-BY)

Diese "Quasi-Randomisierung" wurde dann in Regressions-Diskontinuitäts-Analysen benutzt, statistischen Verfahren, die in den Wirtschaftswissenschaften häufig Verwendung findenum auf kausale Effekte zu testen; es handelt sich dabei um statistische Verfahren, die in den Wirtschaftswissenschaften häufig Verwendung finden, aber in die klinische Forschung noch kaum Eingang gefunden haben.

Auswirkungen der Gürtelrose-Impfung

Getestet auf die eigentlichen Targets der Impfung zeigten die Analysen, dass der Impfstoff Zostavax die neuen Gürtelrose-Diagnosen in vergleichbarem Ausmaß (um rund 37 %) verringerte, wie dies aus vorangegangenen klinischen Studien (von Sanofi Pateur MSD) bekannt war. Es gab auch einen starken Hinweis darauf, dass der Impfstoff die Wahrscheinlichkeit einer Post-Zoster Neuralgie reduziert.

Getestet auf das Off-Target Demenzerkrankungen demonstrierte die Analyse eine große signifikante Diskontinuität in der Wahrscheinlichkeit innerhalb der nächsten sieben Jahre an Demenzen zu erkranken: bezogen auf zur Impfung Berechtigte und Nichtberechtigte betrug dieser Sprung absolut 1,3 %, (Abbildung 2), auf tatsächlich Geimpfte und Nichtgeimpfte bezogen waren es 3,5 %. Relativ zur Inzidenz der Erkrankungen entsprach dies rund 20 % der neuen Demenzdiagnosen.

Zostavax reduziert spezifisch die Inzidenz von Gürtelrose und Demenz. An Hand der Gesundheitsdaten testeten die Forscher auch, ob Zostavax einen Einfluss auf das Auftreten der in Wales führenden zehn Ursachen für Morbidität und Mortalität (darunter Herz-Kreislauferkrankungen, Nierenkrankheiten, Rheuma, Leukämien) haben könnte. Sie konnten keinen statistisch signifikanten Effekt auf diese Krankheiten feststellen und ebenso auch nicht auf die Inanspruchnahme präventiver Gesundheitsmaßnahmen (andere Impfungen oder Medikamente)der Geimpften vor und nach Beginn des Impfprogramms.

Abbildung 3. Die Gürtelrose-Impfung reduziert in den folgenden acht Jahren die Wahrscheinlichkeit und Häufigkeit von Demenzdiagnosen insgesamt um -3,5 % (Abbildung 2); bei Frauen aber viel stärker (-5,6 %) als bei Männern (-01 %). (Bild modifiziert aus Supplement Fig.22. in Eyting et al. 2025 [1]; Lizenz CC-BY).

Die gegen Demenz schützende Wirkung von Zostavax ist bei Frauen viel stärker ausgeprägt als bei Männern. In Bezug auf die Wirkung der Wirkung des Impfstoffs auf die Diagnose von Gürtelrose und Post-Zoster-Neuralgien hatte es keinen signifikanten Geschlechtsunterschied gegeben. Dagegen betrug die Reduktion neuer Demenzdiagnosen bei geimpften Frauen 5,6 % (p= 0,001), während bei Männern eine 0,1 % -ige Reduktion statistisch nicht signifikant (p= 0,94) war. Abbildung 3.

Die Unterschiede können möglicherweise u.a. auf geschlechtsspezifische Immunreaktionen auf Impfstoffe und/oder eine unterschiedliche Pathogenese der Demenz bei Männern und Frauen zurückzuführen sein.

Ausblick

Ein Manko der Studie: Die untersuchte abgeschwächte Lebendvakzine Zostavax ist vor wenigen Jahren in sehr vielen Ländern durch den wesentlich wirksameren rekombinanten Totimpfstoff Shingrix® (GlaxoSmithKline) - mit unbekanntem Effekt auf Demenzen - abgelöst worden. Basierend auf den elektronischen Gesundheitsdaten in den US stellte der dort im Oktober 2017 erfolgte Umstieg für eine englische Forschergruppe ein "natürliches" Experiment dar, um auf die Wirksamkeit des neuen Impfstoffs gegen Demenzen zu prüfen. In dieser Beobachtungsstudie (Kausalität wurde nicht nachgewiesen) wurde die Schutzwirkung bestätigt, wobei diese bei Frauen um 9 % größer war als bei Männern, aber wie in den Waliser Ergebnissen nicht durch einen besseren Schutz vor Gürtelrose bei Frauen als bei Männern erklärt werden kann [3].

Zweifellos sollten nun weitreichende randomisierte klinische Studien folgen, um ein optimales Impfprogramm zum Schutz vor Demenzen zu ermitteln.

Ohne hier auf Hypothesen auf den Mechanismus eingehen zu wollen, wie die Gürtelrose-Impfung Demenzerkrankungen beeinflussen könnte, machen die Untersuchungen klar: Die Impfungen wirken offensichtlich besser gegen Demenz als die bislang verfügbaren Arzneimittel!

Oder wie es die Autoren der Waliser Studie formulieren:

" Wenn diese Ergebnisse wirklich kausal sind, so impliziert die beträchtliche Größe unseres Effekts verbunden mit den relativ geringen Kosten des Gürtelrose-Impfstoffs, dass dieser weitaus wirksamer und auch kosteneffizienter als bestehende pharmazeutische Maßnahmen sein wird, um Demenz vorzubeugen oder zu verzögern."


[1] Eyting, M., Xie, M., Michalik, F. et al. A natural experiment on the effect of herpes zoster vaccination on dementia. Nature (2025). https://doi.org/10.1038/s41586-025-08800-x.

[2] Vaccination against shingles for adults.https://111.wales.nhs.uk/pdfs/am%20i%20at%20risk%20hep%20b/qas%20for%20welsh%20govt%20leaflets/shingles%20qa%20for%20health%20care%20professionals.pdf

[3] Taquet M, Dercon Q, Todd JA, Harrison PJ. The recombinant shingles vaccine is associated with lower risk of dementia. Nat Med. 2024 Oct;30(10):2777-2781. doi: 10.1038/s41591-024-03201-5.


Videos zur Studie:

Stanford Medicine, Shingles vaccine may reduce the risk of dementia: Interview mit Pascale Geldsetzer, einem der Studienautoren: Video, 2:20 min. https://www.youtube.com/watch?v=unnePZUqi1o

Could the shingles vaccine also help prevent dementia? Video 1:27 min. AJE VideoBytes https://www.youtube.com/watch?v=o-PRFD_DN4M

Diese bekannte Impfung schützt auch vor Demenz. Video 1:35 min. MSN. https://www.msn.com/de-de/video/other/diese-bekannte-impfung-sch%C3%BCtzt-auch-vor-demenz/vi-AA1Cssd1


 

 

inge Wed, 09.04.2025 - 23:28

Proxima Fusion - auf dem Weg zur marktreifen Fusionsreaktoranlage

Proxima Fusion - auf dem Weg zur marktreifen Fusionsreaktoranlage

Fr, 28.03.2025 — Andreas Merian

Andreas Merian

Icon Physik

Ein Fusionskraftwerk verspricht quasi unerschöpfliche und saubere Energie. Daran arbeiten weltweit zahlreiche Forschungseinrichtungen und Start-up-Unternehmen. Eines davon ist Proxima Fusion. Es ist aus dem Max-Planck-Institut für Plasmaphysik gegründet worden und setzt auf das Stellaratorprinzip, das dort maßgeblich entwickelt wurde. Der Fusionsreaktor soll relativ einfach und kostengünstig zu bauen sein, weil er kompakter ist, als es bisherige Konzepte vorsehen. Bis Anfang der 2030er-Jahre will Proxima Fusion eine marktreife Fusionsanlage entwickeln.*

Moonshot. Ein Schuss auf den Mond. Der steht seit der erfolgreichen Landung eines US-amerikanischen Astronauten auf dem Mond für ein herausforderndes und innovatives Vorhaben mit hoch gestecktem Ziel. Und so passt es nur zu gut, dass das Gründerteam des Start-ups Proxima Fusion sein Vorhaben als Moonshot bezeichnet. Denn sein Ziel ist es, ein Fusionskraftwerk zu entwickeln und auf diese Weise saubere und schier unerschöpfliche Energie bereitzustellen. Jorrit Lion, Chef-Wissenschaftler und einer der Gründer von Proxima Fusion, fertigte seine Doktorarbeit am Max-Planck-Institut für Plasmaphysik in Greifswald an und erforschte, wie aus dem dort verfolgten Reaktorkonzept ein Kraftwerk werden könnte. Und während er dort forschte, lernte er auch die meisten seiner Mitgründer kennen. Gemeinsam entwickelten sie die Idee, durch ein Start-up schneller ans Ziel Fusionskraftwerk zu kommen. „Die Grundlagenforschung zur Kernfusion hat in Deutschland über Jahrzehnte großartige Leistungen erbracht. Für die Entwicklungen hin zum kommerziellen, stromproduzierenden Kraftwerk ist jetzt das Start-up-Unternehmen die richtige Umgebung“, erklärt Lion diesen Schritt. Denn ein Unternehmen kann sich auf die technischen und ökonomischen Aspekte konzentrieren, die entscheidend sind, um einen technisch nutzbaren Fusionsreaktor zu bauen. Und so entschied sich Lion zusammen mit vier anderen Wissenschaftlern und Ingenieuren 2023 Proxima Fusion zu gründen.

Nun arbeitet Lion also nicht mehr am Forschungsinstitut in Greifswald, sondern in einer modernen, offenen Bürolandschaft in München, die Start-up-Spirit versprüht. Die Entscheidung für München fiel aus mehreren Gründen. So beheimatet die Stadt eine große Start-up-Szene und bietet jungen Unternehmen mit Innovationszentren und der Nähe zu staatlichen und privaten Geldgebern die nötige Unterstützung. Außerdem ist es auch in München nicht weit zum Max-Planck-Institut für Plasmaphysik, in diesem Fall allerdings zum Standort in Garching. Und die beiden großen Universitäten der Stadt sind sowohl mögliche Kooperationspartner als auch Talentschmieden, aus denen qualifizierte Arbeitskräfte rekrutiert werden können. Was den Arbeitsmarkt angeht, ist München schließlich auch für internationale Talente attraktiv, denn für seine Mission möchte Proxima Fusion die klügsten Köpfe gewinnen. Heute beschäftigt das Start-up 55 Mitarbeitende an drei Standorten, neben München hat es Büros in Villigen in der Schweiz und im englischen Oxford.

Um sein Vorhaben umzusetzen, hat das Team bereits 60 Millionen Euro eingeworben. Davon stammt die eine Hälfte aus öffentlichen Mitteln, die andere von privaten Investoren. Mit diesem Startkapital wollen die Gründer zeigen, dass ihr Ansatz, einen Fusionsreaktor zu konstruieren, erfolgreich sein kann. „Wenn wir das schaffen, ist der nächste Schritt, das nötige Kapital für Alpha, unseren Demonstrator, einzusammeln“, sagt Lion. Der Zeitplan von Proxima Fusion ist bewusst ambitioniert: Bereits 2027 soll der Bau von Alpha beginnen, und 2031 will das Team zeigen, dass der Demonstrator mehr Energie produziert, als er verbraucht. Denn auch zahlreiche andere Unternehmen verfolgen das Ziel, einen Fusionsreaktor für den kommerziellen Einsatz zu bauen. Das wohl vielversprechendste Vorhaben mit dem kürzesten Zeithorizont stammt aus den USA: Commonwealth Fusion Systems hat mit etwa zwei Milliarden US-Dollar bereits die nötigen finanziellen Mittel eingeworben und Ende 2021 mit dem Bau ihres Prototyps Sparc begonnen. Schon 2027 soll Sparc Energie produzieren. Ob das Unternehmen bis dahin alle technischen Hürden nehmen kann, wird sich allerdings erst noch zeigen.

Dass Skepsis angebracht ist, zeigt die Geschichte der Fusionsforschung: Seit Ende des Zweiten Weltkriegs wird an einer zivilen Nutzung der Kernfusion zur Stromerzeugung geforscht. Doch trotz aller Anstrengungen konnten Wissenschaftlerinnen und Ingenieure bisher keinen Fusionsreaktor mit einer positiven Energiebilanz realisieren. Fusionsenergie entsteht, wenn leichte Atomkerne verschmelzen. Das passiert jedoch nur, wenn extrem hoher Druck und extrem hohe Temperaturen zusammenwirken, wie es etwa in der Sonne geschieht. Dort fusionieren die Kerne von Wasserstoffatomen bei einem Druck von rund 200 Milliarden Bar und gut 15 Millionen Grad Celsius zu Helium. Unter diesen Bedingungen liegt Materie als Plasma vor, das heißt, Elektronen und positiv geladene Atomkerne sind nicht mehr aneinander gebunden. Auf der Erde technisch nutzbar wäre die Fusion von schwerem und überschwerem Wasserstoff – auch bekannt als Deuterium und Tritium. Doch aus einem solchen Wasserstoffplasma mehr Energie zu gewinnen, als insgesamt in die Erzeugung hineingesteckt wurde, ist bisher noch keinem Forschungsteam gelungen [A. Merian, 2022].

Eine Möglichkeit, die Bedingungen für die Kernfusion technisch herzustellen, besteht darin, das Plasma in einem ringförmigen Magnetfeld einzuschließen. So kann man verhindern, dass das Plasma mit der Reaktorwand in Berührung kommt. Denn dieser Kontakt würde das Plasma abkühlen, und die sich selbst erhaltende Fusionsreaktion würde zusammenbrechen. Reaktoren des Typs Tokamak oder Stellarator setzen daher auf den Magneteinschluss, um die Wechselwirkung zwischen Plasma und Wand zu minimieren und ein möglichst stabiles Plasma zu erzeugen. Ein Tokamak ist ein donutförmiges Gefäß, das verhältnismäßig einfach zu konstruieren ist, in dem die Fusion aber nicht dauerhaft aufrechterhalten werden kann. Gepulst kann ein Tokamak zwar trotzdem in einem Kraftwerk zum Einsatz kommen, doch wird eine solche Anlage unter anderem stark belastet, wenn der Betrieb ständig pausiert und wieder hochgefahren wird. Nach dem Tokamakprinzip funktionieren beispielsweise der große internationale Fusionsreaktor Iter und Sparc, der Prototyp von Commonwealth Fusion Systems.

Abbildung 1: Verdrehte Teigschlange: Proxima Fusion entwickelt einen Fusionsreaktor nach dem Vorbild von Wendelstein 7-X. In ihm schließt ein Magnetfeld, das ebene und gewundene Spulen erzeugen, das Plasma ein. Über diverse Zugänge kontrollieren und analysieren Forschende das Plasma in Wendelstein 7-X. Die Geometrie des Stellarators macht zwar dessen Konstruktion schwieriger, hat aber im Betrieb große Vorteile gegenüber konkurrierenden Konzepten. (© Max-Planck-Gesellschaft)

Im Stellarator ähneln Plasmagefäß und Magnetfeld weniger einem Donut als einer mehrfach in sich verdrehten Teigschlange. Daher ist ein Stellarator schwerer zu konstruieren als ein Tokamak. So fehlten für die Optimierung des Magnetfelds eines Stellarators lange entscheidende physikalische Kenntnisse und auch die nötige Rechenleistung. Doch seit den 1980er-Jahren sind ausreichend genaue Berechnungen möglich, und das Institut für Plasmaphysik entwickelte mit seinen Wendelsteinanlagen das moderne Stellaratorkonzept. Stellaratoren bieten entscheidende Vorteile für den Kraftwerksbetrieb: Die Fusion ist darin leichter zu kontrollieren und kann dauerhaft aufrechterhalten werden. Auch deswegen hat sich Proxima Fusion für das Stellaratorkonzept entschieden. Abbildung.

Ein erstes Fusionskraftwerk in den 2030er-Jahren

Die nötige Temperatur für die Fusion wird in beiden Reaktortypen vor allem durch Mikrowellenstrahlung erreicht. Stimmen die Bedingungen, verschmelzen die Kerne von Deuterium und Tritium, und es entstehen ein Heliumkern und ein Neutron, beide mit beträchtlicher Bewegungsenergie. Für das ungeladene Neutron ist der Magnetkäfig durchlässig, sodass das Teilchen mit voller Wucht in die Gefäßwand eindringt. Die dabei erzeugte Wärme soll wie in einem konventionellen Kraftwerk zur Stromerzeugung genutzt werden. Somit entstehen während der Stromerzeugung durch Fusion keine Treibhausgase und keine anderen schädlichen Nebenprodukte oder Abfälle. Einzig das Wandmaterial des Reaktors muss nach einiger Zeit ausgetauscht und als leicht radioaktives Material für einige Jahrzehnte gelagert werden. Die Gefahr eines GAUs mit Kernschmelze und Explosion wie im Fall eines auf Kernspaltung basierenden Atomkraftwerks besteht bei einem Fusionskraftwerk aber nicht. Da die Ausgangsstoffe zudem quasi unerschöpflich sind, sprechen Befürworter der Fusionsforschung von praktisch unbegrenzter und sauberer Energie.

Doch trotz aller Versprechungen, Pläne und Anstrengungen ist die Fusionsforschung immer noch ziemlich weit weg von einem stromerzeugenden Kraftwerk. Deshalb sprechen manche sarkastisch von der Fusionskonstante: Die Stromerzeugung durch einen Fusionsreaktor liege immer dreißig oder gar fünfzig Jahre in der Zukunft. Doch Lion ist zuversichtlich: „In den 2030er-Jahren wird das erste Fusionskraftwerk stehen. Und in unseren Augen ist das Stellaratorkonzept mit dem geringsten technologischen Risiko verbunden. Die Ergebnisse von Wendelstein 7-X zeigen, dass der Stellarator prinzipiell funktioniert.“ Denn ausschlaggebend für die Gründung von Proxima Fusion waren wichtige wissenschaftliche Fortschritte aus den Jahren 2021 und 2022. Das Team um Lion war sich damit sicher: Ein Stellarator wie Wendelstein 7-X ist kraftwerkstauglich. Entsprechend war die Idee hinter der Gründung des Start-ups, das Konzept von Wendelstein 7-X nur da zu verändern, wo es unbedingt notwendig ist. Mit einer Re-Optimierung der komplexen Geometrie will Proxima Fusion nun in wenigen Jahren zu einem funktionierenden Kraftwerksreaktor kommen.

Proxima Fusion setzt dabei auf einen Reaktor, der kompakter ist als bisherige Konzepte und damit kostengünstiger und schneller gebaut werden kann. Doch kompaktere Reaktoren brauchen deutlich stärkere Magnetfelder als große, damit sie das Plasma einschließen und effizient Energie gewinnen können. Solche starken Felder lassen sich allerdings nur mit neuartigen Hochtemperatur-Supraleitern erzeugen, die bisher noch nicht so weit entwickelt sind, dass sie in den Magnetspulen von Fusionsreaktoren zum Einsatz kommen können. Proxima Fusion arbeitet deshalb am Standort Villigen zusammen mit Fachleuten des dortigen Paul Scherrer Instituts an solchen Hochfeldspulen. Und auch in der großen Werkhalle, die direkt neben den Münchner Büros liegt, wird getüftelt. Denn das Material des Hochtemperatur-Supraleiters ist eine brüchige Keramik, die nicht einfach für die Magnetfeldspulen aufgewickelt werden kann. Deswegen wird die Keramik auf Stahlbänder aufgebracht, die dann übereinander gestapelt und um Kupferwendeln gewickelt werden.

Damit sind allerdings noch nicht alle Herausforderungen auf dem Weg zur Hochfeldspule gemeistert, und so arbeitet das Team von Proxima Fusion hinter verschlossenen Türen weiter an einigen Details. Bis spätestens 2027 will Proxima Fusion die für ihren Stellarator nötigen Spulen entwickeln. „Wenn die Spulen funktionieren und entsprechend starke Magnetfelder erzeugen, dann haben wir es geschafft!“, sagt Jonathan Schilling, Mitgründer von Proxima Fusion und Laborleiter. Denn dann hat das Start-up nach Ansicht des Teams die größte Entwicklungshürde genommen.

Der Demonstrationsreaktor Alpha soll dann mehr Energie erzeugen, als er verbraucht. In dieser Beziehung spricht man in der Fusionsforschung oft von einem Q größer 1. Q ist das Verhältnis zwischen der Leistung, die durch die Fusionsreaktion entsteht, und der Leistung, die direkt in die Fusionsreaktion hineingesteckt wird. Bisher hat weltweit erst ein einziges Fusionsexperiment einen Q-Wert größer 1 erreicht, und zwar 2022 durch laserbasierte Trägheitsfusion in der National Ignition Facility NIF in den USA. Doch obwohl damit medial wirksam die Schallmauer der Kernfusion durchbrochen wurde, bedeutet das nicht, dass so Strom erzeugt werden kann. Denn für die Erzeugung der Laserenergie war insgesamt etwa 150-mal mehr Energie notwendig, als die Laser schließlich in die Reaktorkammer pumpten. Somit setzte die Kernfusion nur etwa ein Prozent der eingesetzten Energie als Wärme frei. Und davon könnten wiederum allenfalls etwa 50 Prozent in Strom umgewandelt werden.

Stellaris zeigt: Ein Kraftwerk ist möglich

Beim Magneteinschlussverfahren ist die Diskrepanz zwischen Energiebilanz der Fusionsreaktion und Nettoenergieausbeute des Reaktors nicht ganz so groß. Die Heizung des Plasmas und die Kühlung der Magnetfeldspulen verschlingen im Vergleich zur Erzeugung der Laserpulse weniger Energie. Proxima Fusion müsste ein Q von etwa 10 erreichen, um Strom zu erzeugen. In einer aktuellen Studie zeigen das Start-up und das Greifswalder Max-Planck-Institut für Plasmaphysik wissenschaftlich und technisch detailliert, dass ein Stellarator mit Hochfeldspulen als Kraftwerksreaktortyp geeignet ist. Der darin beschriebene Reaktor namens Stellaris hat einen Durchmesser von etwa 25 Metern und würde etwa ein Gigawatt Strom erzeugen. Das entspricht grob der Leistung eines modernen Atomkraftwerks.

Ganze Kraftwerke möchte Proxima Fusion allerdings nicht bauen. Diesen Schritt sollen, ebenso wie den Betrieb, Energiekonzerne übernehmen. Proxima Fusion selbst möchte den wärmeerzeugenden Stellarator als Produkt anbieten. Francesco Sciortino, Mitgründer und Geschäftsführer des Start-ups, sagt: „Wir stehen bereits im Austausch mit Energieunternehmen und großen Energieverbrauchern wie beispielsweise Betreibern von Rechenzentren aus Europa und den USA.“ Bis zur kommerziellen Stromerzeugung gilt es aber, neben der Nettoenergieausbeute noch einige weitere Herausforderungen zu meistern. Ein offener Punkt ist die Verfügbarkeit von Tritium. Denn während Deuterium in ausreichender Menge natürlich vorkommt, ist Tritium aktuell nur als Nebenprodukt der Kernspaltung in Atomkraftwerken verfügbar. Nachdem diese Menge aber stark limitiert ist, planen Unternehmen wie Proxima Fusion, Tritium später selbst herzustellen. Einmal gestartet, soll ein Fusionsreaktor sein eigenes Tritium ausbrüten. Als Brüten bezeichnet man den Prozess, in dem ein Teil der energiereichen Neutronen aus der Fusion in den Reaktorwänden auf Lithium treffen und so Helium sowie Tritium erzeugen. Wie genau dieser Prozess abläuft und gesteuert werden kann, ist noch nicht getestet. Momentan stehen nämlich keine Quellen derart hochenergetischer Neutronen zur Verfügung, mit denen Reaktionen im Wandmaterial experimentell untersucht werden können. Proxima Fusion setzt darauf, dass andere Unternehmen wie beispielsweise Kyoto Fusioneering die notwendige Technik entwickeln.

Auch bei weiteren Herausforderungen erwartet das Start-up, dass staatliche Institutionen und die zahlreichen Unternehmen die Bedingungen für die Fusion gemeinsam schaffen. Beispiele dafür sind die Herstellung des Wandmaterials, das im Reaktor extremen Bedingungen ausgesetzt ist, und regulatorische Themen wie Abfallbeseitigung und Reaktorsicherheit. Dazu arbeitet Proxima Fusion mit zwei weiteren deutschen Fusions-Start-ups zusammen und ist auch international gut vernetzt. Ob sich Fusionskraftwerke durchsetzen werden, wenn sie sich als technisch machbar erweisen, darüber entscheidet am Ende die Wirtschaftlichkeit und auch die Kompatibilität der Kraftwerke mit dem dann bestehenden Stromnetz. Doch bei aller Unsicherheit des Moonshots Fusionsstrom ist das Team von Proxima Fusion motiviert. Lion sagt: „Die Aussicht auf unbegrenzte und saubere Energie ist einfach zu gut, um es nicht zu versuchen.“

------------------------------------------------------

Andreas Merian, MaxPlanck-Forschung 4/2022. https://www.mpg.de/19685395/W005_Physik-Astronomie_062-069.pdf


Der Artikel ist unter dem Titel "Im Endspurt zu Fusionskraft" im Wissenschaftsmagazin - MaxPlanck-Forschung 01/2025  https://www.mpg.de/24341285/F002_Fokus_032-037.pdf im März 2025 erschienen und wird - mit Ausnahme des Titels und des fehlenden Gruppenfotos - hier unverändert wiedergegeben . Die MPG-Pressestelle hat freundlicherweise der Verwendung von Magazin-Beiträgen im ScienceBlog zugestimmt. (© Max-Planck-Gesellschaft)


Kernfusion im ScienceBlog

Roland Wengenmayr, 13.05.2021:Die Sonne im Tank - Fusionsforschung.

Felix Warmer, 28.07.2022: Das virtuelle Fusionskraftwerk.


 

inge Fri, 28.03.2025 - 18:08

Eurobarometer 557: Informationsstand und Kenntnisse der EU-Bürger über Wissenschaft und Technologie haben sich verschlechtert

Eurobarometer 557: Informationsstand und Kenntnisse der EU-Bürger über Wissenschaft und Technologie haben sich verschlechtert

Di. 25.03.2025  — Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Im Abstand von einigen Jahren gibt die EU-Kommission repräsentative Umfragen in Auftrag, welche die Kenntnisse und Einstellungen der EU-Bürger zu Wissenschaft (d.i. Naturwissenschaft) und Technologie (W&T) ermitteln sollen. Die Ergebnisse der jüngsten diesbezüglichen Umfrage (Eurobarometer 557) sind im Feber 2025 veröffentlicht worden und bislang von Medien, Bildungs- und Forschungseinrichtungen weitestgehend unbeachtet geblieben. Der fast 300 Seiten starke Bericht bietet eine Zusammenfassung von Informationsstand, Kenntnissen und Einstellungen der europäischen Bürger zu W&T. Er zeigt u.a. ihre Ansichten zu den Auswirkungen von W&T auf die Gesellschaft insgesamt und auf spezielle Bereiche von Wirtschaft und wesentliche Aspekte des modernen Lebens, auf die mögliche Steuerung von W&T und die Beteiligung von Bürgern an W&T. Der aktuelle Blog-Artikel betrachtet einige dieser Aspekte in kritischer Weise, wobei auch auf die Situation in Österreich und Deutschland Bezug genommen wird. 

Von jeher hat die Europäische Kommission Wissenschaft und Innovation als  prioritäre Schlüsselstrategien betrachtet, die Lösungen für die wichtigsten, jeden Europäer betreffenden Fragen liefern können: es sind dies Fragen der Gesundheit, der Beschäftigung und damit Fragen der gesamten Gesellschaft und der Wirtschaft. …....Die Zukunft Europas ist die Wissenschaft!“ (Jose M. Barroso, 6. Oktober 2014)

Zum wiederholten Mal erfolgte im Auftrag der Europäischen Kommission im Herbst 2024 eine Umfrage in den 27 Mitgliedsländern, welche Kenntnisse, Informiertheit und allgemeine Ansichten der Bevölkerung zu Wissenschaft (dem englischen Begriff Science entsprechend bedeutet das Naturwissenschaften) und Technologie (W&T) erkunden sollte (auf zusätzliche Erhebungen in den Westbalkanländern, der Türkei und UK soll hier nicht eingegangen werden). Speziell ausgebildete Interviewer befragten in jedem Staat jeweils einen repräsentativen Querschnitt verschiedener sozialer und demographischer Gruppen von rund 1000 Personen ab 15 Jahren in ihrem Heim und in ihrer Muttersprache (derartige "face to face" Interviews liefern die qualitativ hochwertigsten Befragungsdaten). Dabei wurden sowohl die gleichen Standardfragen wie in früheren Umfragen (zur Vergleichbarkeit mit deren Ergebnissen) als auch wechselnde Fragen zu unterschiedlichen Themen - im rezenten Fall zum schnell wachsenden Einsatz von Künstlicher Intelligenz (KI) - gestellt. Die Ergebnisse der Umfrage sind kürzlich im Eurobarometer Spezial 557 veröffentlicht worden [1], wurden aber von Medien, Bildungs- und Forschungsinstitutionen bislang ignoriert.

Auswirkungen von W&T auf die Gesellschaft

Insgesamt herrscht ein breiter Konsens (im Mittel 83 % der EU-Bürger) darüber, dass Wissenschaft und Technologie einen sehr positiven oder einen ziemlich positiven Einfluss auf die Gesellschaft haben.

Ekaterina Zaharieva, EU-Kommissarin für Start-ups, Forschung und Innovation freut sich „Die insgesamt positive Einstellung gegenüber Wissenschaft und Technologie ist ermutigend, da sie für das Erreichen unserer Wettbewerbsziele unerlässlich ist“.

Dies täuscht aber nicht darüber hinweg, dass die positive Einstellung in 25 Mitgliedsländern gegenüber den Ergebnissen von 2021 [2] und insgesamt EU-weit um 3 % gesunken ist - in Österreich und Deutschland stärker als im EU27-Mittel von 80 auf 72 % respektive von 87 auf 81 %; dementsprechend haben hier die negativen Einstellungen auf 22 % respektive 15 % zugenommen.

Die größten Auswirkungen durch Forschung und Innovation

wird es nach Meinung der EU27-Bürger in den kommenden Jahren im Gesundheitswesen und der medizinischen Versorgung vor dem Kampf gegen den Klimawandel und der Energieversorgung geben.

Dass W&T unser Leben einfacher, gesünder und bequemer machen werden,

findet die Zustimmung der Mehrheit der EU27-Bürger (67%) , wobei es einen starken Abwärtstrend von vor allem skandinavischen Ländern (bis zu 82 % in Finnland und Schweden) zu ehemaligen Oststaaten (bis zu 49 % in Rumänien), aber auch Deutschland (59 %) und Österreich (58 %) gibt.

Die durch W&T sich ergebenden Chancen für junge Menschen

sieht die Mehrheit der Europäer optimistisch. Dass W&T mehr Möglichkeiten für die Jungen schaffen wird, glauben im Schnitt 68 % der EU-Bürger (1 % weniger als 2021, 65 % der Österreicher und 72 % der Deutschen - beide gleich viele wie 2021). Auch, dass das Interesse der Jungen an W&T maßgeblich für den zukünftigen Wohlstand ist, glauben im Mittel 82 % - 3 % weniger als 2021 - der EU27 (mit 74 % um 3 % mehr Österreicher als 2021, mit 80 % um 7 % weniger Deutsche als 2021).

W&T sollten inklusiv sein,

auch wenn dies (wie es manipulative Fragen suggerieren; s.u.) gegenwärtig nicht unbedingt der Fall ist. Dass bei der Entwicklung neuer Lösungen und Produkte die Bedürfnisse aller Gruppen von Menschen zu berücksichtigen sind, ist für die weitaus überwiegende Mehrheit der EU27 wichtig (77 % gegenüber 78 % im Jahr 2021, wobei 10 Länder mehr - darunter AT - und 14 Länder weniger - darunter D - zustimmen als 2021).

Ein eklatantes Manko der Studie

sind hier mehrere stark manipulative Fragen, die eine bestimmte Antwort oder Antwortrichtung suggerieren wie beispielsweise: Stimmen Sie zu, dass "W&T für Umweltverbesserungen und die Bekämpfung des Klimawandels eingesetzt werden könnten, aber hauptsächlich Unternehmen helfen, Geld zu verdienen“ oder, dass "W&T eingesetzt werden könnten, um das Leben aller zu verbessern, hauptsächlich dadurch aber das Leben von Menschen verbessert wird, die ohnehin bessergestellt sind", oder "Wir haben keine andere Wahl, als denen zu vertrauen, die in Wissenschaft und Technologie das Sagen haben". Derartige Fragen sollten in einer seriösen Umfrage fehl am Platz sein.

Selbsteinschätzung des Informationsstands über W&T

Die Mehrheit der Europäer fühlt sich nach eigenen Angaben sehr gut/einigermaßen gut über neue wissenschaftliche Entdeckungen und technologische Entwicklungen informiert. Am besten informiert fühlen sich die EU-Bürger über Umweltprobleme, einschließlich Klimawandel (79%). Über neue wissenschaftliche Entdeckungen und technologische Entwicklungen sowie über neue Entdeckungen in der Medizin fühlt sich hingegen nur etwas mehr als die Hälfte gut informiert. Abbildung 1.

Abbildung 1: Der Informationsstand der EU-Bürger über wissenschaftliche und technologische Themen hat seit 2021 dramatisch abgenommen. Selbsteinschätzungen von Österreichern, Deutschen und dem EU27-Mittel. Grafik aus Daten von QA1.1 - 3 [1].

Allerdings ist gegenüber den Erhebungen von 2021 [2] ein massiver Rückgang im selbst eingeschätzten Informationsstand festzustellen. Dieser fällt bei Umweltproblemen mit 3 % (Österreich und Deutschland jeweils 8 %) noch geringer aus, als wenn es um neue medizinische Entdeckungen geht - hier liegt der Rückgang im EU27 Schnitt bei 15 % (in Österreich bei 12 %, in Deutschland bei 17 %)- und um neue wissenschaftliche Entdeckungen und technologische Entwicklungen, wo der Rückgang EU27-weit 10 % (in Österreich 19 %, in Deutschland 14 %) beträgt. Auch verglichen mit einer früheren Erhebung im Jahr 2010 [2] liegt der aktuelle Informationsstand bei medizinischen Themen und bei W&T-Themen um jeweils 9 % niedriger - trotz der seitdem enorm gestiegenen Möglichkeiten sich mit diesen Themen auseinandersetzen zu können. Tabelle.

Tabelle. Informationsstand zu wissenschaftlichen und technologischen Themen. Sehr gut/einigermaßen gut informierte Bürger im EU27-Schnitt laut Selbsteinschätzung [%].

Kenntnisse und Verständnis von Wissenschaft

Ähnlich wie der Informationsstand haben auch die Kenntnisse der EU-Bürger abgenommen. Dies wurde nicht durch Selbsteinschätzung der EU-Bürger sondern an Hand von Testfragen festgestellt. Zu zehn Aussagen aus mehreren Themenbereichen, von denen einige sachlich richtig und andere frei erfunden waren, sollten die Teilnehmer angeben, ob diese ihrer Meinung nach richtig oder falsch wären (oder sie es nicht wüssten). Dieselben Fragen wurden zuvor schon 2021, 2005 und zum Teil 2001 gestellt.

Aussagen zu Naturkunde, Demographie und Geografie:

  • „Die Kontinente, auf denen wir leben, bewegen sich seit Millionen von Jahren und werden sich auch in Zukunft weiter bewegen“ (RICHTIG);
  • „Die ersten Menschen haben zur gleichen Zeit wie die Dinosaurier gelebt“ (FALSCH);
  • „Menschen, wie wir sie heute kennen, haben sich aus früheren Tierarten entwickelt“ (RICHTIG);
  • „Die Weltbevölkerung liegt derzeit bei mehr als 10 Milliarden Menschen“ (FALSCH);

Aussagen zu Naturwissenschaften und Technologie:

  • „Der Sauerstoff, den wir einatmen, stammt von Pflanzen” (RICHTIG);
  • „Antibiotika töten Viren genauso gut wie Bakterien” (FALSCH);
  • „Laser funktionieren durch die Bündelung von Schallwellen” (FALSCH);
  • „Der Klimawandel wird zum Großteil durch natürliche Zyklen anstatt durch menschliches Handeln verursacht” (FALSCH).

Aussagen zu Verschwörungstheorien:

  • „Es gibt ein Heilmittel für Krebs, das jedoch aus kommerziellen Interessen vor der Öffentlichkeit zurückgehalten wird“ (FALSCH);
  • „Viren wurden in staatlichen Laboren erzeugt, um unsere Freiheit zu kontrollieren“ (FALSCH).

 

Im Vergleich zu 2021 haben die EU-Bürger häufiger falsche Antworten gegeben, auch in Bezug auf Verschwörungstheorien. Abbildung 2.

Abbildung 2: Die Kenntnisse der EU-Bürger über viele W&T-Themen haben seit 2021 abgenommen. Falsche Antworten EU27-weit und aus Österreich und Deutschland zu Fragen aus Naturkunde, Demographie und Geografie (links oben), Naturwissenschaften und Technologie (links unten), sowie Glaube an Verschwörungstheorien (rechts). Grafik zusammengestellt aus Daten zu QA17 in [1].

Ebenso bedrückend ist die Zunahme der für Verschwörungstheorien affinen Bevölkerung. Die Liste wird mit bis 63 % Zustimmung von ehemaligen Ostblockländern, Griechenland und Zypern angeführt, am anderen Ende der Skala stehen skandinavische Länder aber auch Österreich und Deutschland.

Naturwissenschaftliche Grundbildung im EU-weiten Überblick

Abbildung 3: W&T Kenntnisse der EU-Bürger beurteilt aus der Beantwortung von Testfragen. 2024 (oben) wurden 10 Testfragen gestellt, 2021 waren dieselben 10 Fragen plus einer zusätzlichen Frage gestellt worden. (Bilder übernommen aus [1] und [2]).

EU-weit gesehen sind die Befragten aus den skandinavischen Ländern am ehesten in der Lage, mehr als acht der 10 Fragen richtig zu beantworten ("Schulnote": gut - sehr gut)). In Richtung Südosten nehmen die Kenntnisse stark ab - in Zypern, Bulgarien (jeweils 55%) und Griechenland (51%) gibt es die höchsten Anteile an Befragten, die weniger als fünf Fragen richtig beantworten ("Schulnote": nicht genügend). Abbildung 3.

Die Ergebnisse von 2021 [2] zeigen ein qualitativ sehr ähnliches Bild der W&T-Kenntnisse in Europa: Der Nordwesten Europas schneidet wesentlich besser ab als der Südosten die Balkanländer, Griechenland und Zypern. Ein direkter Vergleich der Zahlen ist allerdings nicht möglich, da 2021 eine zusätzliche Testfrage gestellt worden war.

Warum finden EU-Bürger es schwierig sich mit W&T zu befassen?

Die EU-weit 3 am häufigsten genannten Gründe sind Zeitmangel (EU27: 40%; AT: 38%; D: 43%), mangelndes Interesse (EU27: 37%; AT: 43 %; D: 41 %) und Mangel an Wissen auf dem Gebiet von W&T (36%, AT: 33 %; D: 35 %). In insgesamt 19 Ländern stimmen mehr als 50 % der Befragten zu, dass W&T so kompliziert seien, dass sie nicht viel davon verstünden: 53 % im EU27-Mittel (2021: 46 %), 55 % (2021: 51 %) der Österreicher und 47 % (2021: 32 %) der Deutschen; erstaunlicherweise teilen in Rumänien - einem Land, das in Punkto Kenntnissen und Informiertheit am unteren Ende der Länderskala rangiert, aber nur 40 % (2021: 56 %) der Befragten diese Meinung.

Mangelndes Interesse dürfte auch daran liegen, dass Kenntnisse über Wissenschaft zu besitzen für das tägliche Leben vieler Europäer nicht von Bedeutung ist, und deren Anteile seit 2021 in 15 Ländern zugenommen haben. Im EU27-Mittel stimmen 36 % (2021: 33 %) dieser Aussage zu, 34 % (2021: 27 %) in Deutschland und 46 % (2021: 53 %; 2010: 57 % [2]) in Österreich. Wie auch in früheren Umfragen rangiert Österreich in der "es geht auch ohne" Reihung weit oben: nun liegt es gleichauf mit Italien hinter der Slowakei (58 %), Polen (54 %), Bulgarien (52 %) und Estland (49 %), gefolgt von anderen ehemaligen Ostblockländern und Portugal. Am anderen Ende der Liste stehen die skandinavischen Länder. Abbildung 4.

Abbildung 4: Es geht auch ohne: In 10 Ländern sehen mehr als 40 % der Befragten wissenschaftliche Kenntnisse für das tägliche Leben als nicht erforderlich an. (Grafik QA7.2 aus [1] übernommen.)

Fazit

Eigentlich hatte die Europäische Union mit der Lissabon Strategie im Jahr 2000 das Ziel verfolgt sich bis 2010 zur weltweit wettbewerbsfähigsten und dynamischsten wissensbasierten Ökonomie zu entwickeln. Dass die Kernziele nicht annähernd erreicht würden, war bald evident. Für die von 2014 - 2020 laufende Nachfolgestrategie Horizon 2020 - die eine Reihe neuer Forschungsthemen aufnahm - wurden die Finanzmittel mit 70 Mrd € dotiert; das neue bis 2027 laufende Programm Horizon Europe dotiert mit 100 Mrd € soll schlussendlich soll die Forschung in den Bereichen Klimawandel, Ziele für nachhaltige Entwicklung (SDG) und Wettbewerbsfähigkeit der EU stärken.

In bestimmten Zeitabständen werden von der EU Umfragen beauftragt, die den Weg der Bevölkerung zur wettbewerbsfähigen Wissensgesellschaft aufzeigen und der EU Informationen zu Maßnahmen liefern sollen. Der aktuelle Bericht Eurobarometer 557 berichtet nun, dass in vielen EU-Ländern Informationsstand, Kenntnisse und Verständnis für Wissenschaft und wissenschaftliche Methoden leider abgenommen haben. Nicht angesprochen in den Ergebnissen wird der seit Anfang an bestehende große Graben, der sich von Nord-West nach Süd-Ost durch Europa zieht - von den Ländern, in denen W&T zum täglichen Leben gehört, die daran interessiert und gut informiert sind und gute Kenntnisse besitzen, zu den großteils dem ehemaligen Ostblock angehörenden Ländern, für die W&T viel zu kompliziert und ihre Kenntnisse zu dürftig sind und sie im Alltagsleben daher ohne diese auskommen.

Unangenehm fallen eine Reihe manipulativer Fragen auf, welche die suggerierten Antworten dann als wesentliche Ergebnisse der Umfrage präsentieren (siehe Schlussfolgerungen in [1].

"Man merkt die Absicht und man ist verstimmt."


[1] Eurobarometer Spezial 557: Kenntnisse und Einstellungen der europäischen Bürger zu Wissenschaft und Technologie(03.02.2025).doi: 10.2777/1446670.

[2]Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology (September 2021).


Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013, 2014 und 2021 wurde mit speziellem Fokus auf Österreich im ScienceBlog berichtet.

J.Seethaler, H.Denk, 17.10.2013:Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme.

J.Seethaler, H. Denk, 31.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

 I. Schuster, 28.02.2014:Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401).

I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch.

I. Schuster, 3.10.2021:Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

I. Schuster, 30.10.2021: Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich.


 

inge Tue, 25.03.2025 - 19:38

Persönlichkeit und individueller Humorsinn

Persönlichkeit und individueller Humorsinn

Do, 13.03.2025 — Nora Schultz

Nora Schultz

“Psychologie"Humor hat viele unterschiedliche Facetten und nicht jeder findet alles lustig. Woher die Unterschiede im Witzgeschmack kommen, hängt vor allem von der Persönlichkeit ab. Wir lachen miteinander, wir lachen übereinander und wenn wir Glück haben, können wir auch über uns selbst lachen. Denn lachen befreit und stärkt unser Wohlbefinden. Lachen entlarvt aber auch - psychologisch formuliert: "Sag mir. worüber Du lachst und ich sag Dir, wer Du bist." Die Entwicklungsbiologin Nora Schultz berichtet über den psychologischen Aspekt dieses Themas.*

Wie nennt man einen Keks unter einem Baum? Ein schattiges Plätzchen!

Haben die Mundwinkel gezuckt? Oder eher die Augen leicht entnervt gerollt? Kein Wunder, kaum ein Witz gefällt allen. An der Suche nach universell erfolgreichen Scherzen haben sich schon viele die Zähne ausgebissen, nicht nur auf Comedy-Bühnen und in Abreißkalendern. Auch der britische Psychologe Richard Wiseman hatte nur mäßigen Erfolg, als er im September 2001 auszog, um den besten Witz der Welt zu finden. 40.000 Witze und viele Bewertungen aus 70 Ländern später stand der Sieger fest, ein Scherz über zwei Jäger:

Zwei Jäger gehen auf die Jagd und wandern durch den Wald. Plötzlich greift sich der eine an die Kehle und stürzt zu Boden. Der andere Jäger gerät in Panik und ruft den Notarzt an: "Ich glaube mein Freund ist tot, was jetzt?" Der Arzt sagt: "Beruhigen Sie sich! Zunächst einmal müssen Sie sicher gehen, dass Ihr Freund wirklich tot ist." Kurze Pause, dann ein Schuss. Dann kommt er wieder ans Telefon. "OK, erledigt, und was jetzt?" http://www.laughlab.co.uk/.

Wer nach Lektüre des Siegerwitzes nicht lachend in der Ecke liegt, befindet sich in guter Gesellschaft. Der Witz gefällt zwar vielen Personen halbwegs gut, aber kaum jemanden so richtig. Die meisten Leute haben andere Favoriten – nur eben nicht dieselben. „Viele andere Witze wurden von bestimmten Personengruppen besser bewertet“, erklärt Wiseman im Abschlussbericht des LaughLabs.

Humor ist also Geschmackssache. Aber woher kommen die Unterschiede? „Durch nichts bezeichnen die Menschen mehr ihren Charakter als durch das, was sie lächerlich finden“, verkündete schon 1809 Johann Wolfgang von Goethe. Zweihundert Jahre später liegen auch wissenschaftliche Daten zu den Variationen des Humorsinns vor und verweisen auf komplexe Witzlandschaften. „Es geht nicht mehr nur darum, ob jemand überhaupt Humor hat oder nicht, oder einen guten oder schlechten Humorsinn“, sagt Sonja Heintz von der Universität Plymouth in England. Moderne Humorforschung versucht stattdessen, unterschiedliche Facetten von Humor und verschiedene Komikstile zu erfassen und zu kartieren, wie diese mit der Persönlichkeit zusammenhängen und sich im Leben auswirken.

Quantitative Aspekte, also zum Beispiel wie oft und wie stark jemand Humor einsetzt oder versteht, spielen dabei ebenso eine Rolle, wie Unterschiede in der Humorqualität. Der kanadische Psychologe und Humorforscher Rod Martin hat etwa 2003 einen Fragebogen zu vier Humorstilen entwickelt, die in unterschiedlichen Situationen zum Einsatz kommen. Demnach kann Humor eher positiv oder negativ geprägt sein und entweder der eigenen Person oder anderen gelten. Selbststärkender Humor kann am ehesten als lockerer Umgang mit den Schwierigkeiten des Lebens verstanden werden. Wer mit Herausforderungen humorvoll umgehen und über Missgeschicke lachen kann, praktiziert selbststärkenden Humor. Verbindender Humor ist ähnlich positiv geprägt, zielt aber vor allem darauf, andere zum Lachen zu bringen und Spannungen oder Konflikte in sozialen Situationen zu mildern. Beide Humorstile gehen mit positiven Emotionen und erhöhtem psychischen Wohlbefinden einher.

Parallelen zwischen Persönlichkeit und individuellem Humorsinn

Auch wenn sich die meisten Menschen im Alltag je nach Situation unterschiedlicher humoristischer Stilmittel bedienen, lassen sich mit den Fragebögen generelle Vorlieben für bestimmte Witzqualitäten ermitteln. „Aus den Antworten ergeben sich individuelle Humorprofile, die vermutlich ziemlich stabil sind, da sie stark mit der Persönlichkeit zusammenhängen“, sagt Heintz. Ein häufig verwendeter Ansatz, den Charakter eines Menschen zu beschreiben, misst die Ausprägung von fünf Persönlichkeitsmerkmalen, die auch als „Big Five“ bezeichnet werden:

  • Offenheit für Erfahrungen (von neugierig bis konservativ),
  • Gewissenhaftigkeit (von effektiv bis nachlässig),
  • Extraversion (von gesellig bis zurückhaltend),
  • soziale Verträglichkeit (von kooperativ bis wettbewerbsorientiert) und
  • Neurotizismus bzw. emotionale Stabilität (von selbstsicher bis verletzlich).

Der individuelle Humorsinn wird von der Ausprägung dieser Persönlichkeitsmerkmale mitbestimmt. Wer zum Beispiel eher wenig sozialverträglich und gewissenhaft agiert, neigt auch häufig zu Sarkasmus und Zynismus, während Menschen mit einer Vorliebe für wohlwollenden Humor oft besonders sozial verträglich, extrovertiert, emotional stabil und offen für neue Erfahrungen sind.

Franz Hals, ein Maler des Lachens und Humors: Der Rommelpotspieler mit fünf Kindern (1618–1622)

Auch diverse Charakterstärken korrelieren mit dem Humorgeschmack. Zwischenmenschliche Stärken wie Freundlichkeit und Teamfähigkeit etwa sind bei Fans der dunkleren Komikstile schwach ausgeprägt. Dafür punkten sie bei intellektuellen Stärken wie Kreativität und Lernbereitschaft, genau wie Menschen, die gerne Nonsens, Satire oder Witz verwenden. Witzliebhaber wie auch Freunde von Spaß und wohlwollendem Humor haben zudem besonders ausgeprägte emotionale Stärken wie Mut, Elan und Ehrlichkeit. Was sich hingegen nicht ohne weiteres aus der psychologischen Forschung ableiten lässt, ist eine Verbindung zwischen Humor und Intelligenz. Es gibt zwar Hinweise darauf, dass kluge Menschen gerade dunklen Humor besonders gut verstehen. Dass ein Hang zu Satire, Ironie und co. ein Zeichen von überdurchschnittlicher Intelligenz ist, lässt sich daraus allerdings nicht schließen. Heintz Forschung hingegen zeigt: Wer Witz, wohlwollenden Humor, Satire, Ironie und Nonsens mag, hält sich zwar oft für überdurchschnittlich intelligent. Tatsächlich messbar ist ein solcher Zusammenhang aber nur für den Komikstil Witz – und das nur schwach. Auch wenn der Charakter mit dem Humorgeschmack korreliert, so ist dieser Zusammenhang nicht unabänderlich. Zumindest das Gespür für bestimmte Formen der Witzigkeit lässt sich sehr wohl trainieren – mit messbaren Auswirkungen auf das Wohlbefinden. Viele Studien bestätigen zum Beispiel die Effektivität des in den 1990er Jahren entwickelten „7 Humor Habits Training“ von Paul McGhee, das gezielt positive Humortechniken wie eine spielerische Einstellung, die Suche nach Humor im täglichen Leben und den Einsatz von Humor unter Stress einübt. “Die Ergebnisse solcher Interventionen zeigen, dass gerade das Training wohlwollender Komikstile das Wohlbefinden stärken kann”, sagt Heintz.

Humor kann positiv und negativ sein

Wilhelm Busch: Max und Moritz: DritterStreich (1865)

Im Gegensatz dazu werden die zwei negativen Humorstile vorwiegend von negativen Emotionen begleitet. Selbstentwertender Humor steht im Mittelpunkt, wenn man derbere Witze auf eigene Kosten oder gute Miene zu verletzenden Scherzen anderer macht. Menschen, die selbstentwertenden Humor praktizieren, zum Beispiel als Klassenclown, wirken zwar witzig, fühlen sich dabei aber oft nicht gut. Ähnliches gilt für aggressiven Humor, der darauf zielt, andere zu verspotten, zu schikanieren oder lächerlich zu machen. Solche verletzenden Scherze werden sowohl bei ihren Urhebern als auch bei denen, die sie treffen, eher von negativen Gefühlen begleitet.

Für eine noch genauere Beschreibung verschiedener Humorsinne hat Sonja Heintz gemeinsam mit den Humorforscher Willibald Ruch und weiteren Kollegen in einem ersten Schritt Vorarbeiten des Literaturwissenschaftlers Wolfgang Schmidt-Hidding aufgegriffen, der schon in den 1960er Jahren acht Kategorien von Komik identifizierte. Auf dieser Grundlage entstand 2018 ein Fragenbogen , dessen Antworten Auskunft darüber geben, welcher Art von Humor einem Menschen besonders liegt. Auf der Liste stehen vier eher liebevolle Komikstile – wohlwollender Humor, Unsinn, geistreicher Witz und harmloser Spaß – und vier dunklere Ansätze: Ironie, Satire, Sarkasmus und Zynismus. Inzwischen hat Heintz weitere Scherzvarianten ausfindig gemacht. „Unsere neue Liste wird wahrscheinlich 23 Komikstile umfassen, die sich alle klar voneinander unterscheiden lassen“, erklärt sie. „Neu dabei sind z. B. trockener Humor, schwarzer Humor oder sexueller Humor [MS1] .“

[MS1] Zwar gibt es den Fragebogen online unter https://charakterstaerken.org/. Dies erfordert jedoch eine Registrierung und die Beantwortung zahlreicher Fragen, sodass mir eine Verlinkung wie von der Autorin angeregt nicht wünschenswert scheint.


* Der vorliegende Artikel ist unter dem Titel " Ein ganz persönlicher Humorsinn" auf der Webseite www.dasGehirn.info am 28.Feber 2025 erschienen (https://www.dasgehirn.info/ein-ganz-persoenlicher-humorsinn). Der Artikel steht unter einer cc-by-nc-sa Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen; zur Visualisierung wurden 2 Abbildungen eingefügt.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Zum Weiterlesen

• Ruch, Willibald und Goldstein, Jeffrey. "Festschrift for Paul McGhee – Humor Across the Lifespan, Theory, Measurement, and Applications " HUMOR, 2018;31(2): 167-405. (Zum Abstract:  https://doi.org/10.1515/humor-2018-0036 ).

• Bressler E, Martin R, Balshine S. Production and appreciate of humor as sexually selected traits. Evolution and Human Behavior. 2006;27: 121-130. (Zum Abstract: https://doi.org/10.1016/j.evolhumbehav.2005.09.001).

• Ruch W, Heintz S, Platt T, Wagner L, Proyer RT. Broadening Humor: Comic Styles Differentially Tap into Temperament, Character, and Ability. Front Psychol. 2018;9:6. (Zum Volltext: https://doi.org/10.3389/fpsyg.2018.00006 ).

• Willinger U, Hergovich A, Schmoeger M, et al. Cognitive and emotional demands of black humour processing: the role of intelligence, aggressiveness and mood. Cogn Process. 2017;18(2):159-167. (Zum Volltext: https://pmc.ncbi.nlm.nih.gov/articles/pmid/28101812/ )


 

inge Thu, 13.03.2025 - 00:49

Stenosen der Lendenwirbelsäule - Operation oder nicht-Operation, das ist die Frage

Stenosen der Lendenwirbelsäule - Operation oder nicht-Operation, das ist die Frage

Do, 6.03.2025— Inge Schuster

Inge Schuster Icon Medizin

Degenerative Veränderungen der Lendenwirbelsäule sind bei nahezu allen über 65 Jahre alten Personen in bildgebenden radiologischen Untersuchungen anzutreffen. Häufig entsteht daraus eine Stenose (Einengung) des knöchernen Spinalkanals, die je nach Ausmaß und Lage das darin eingebettete Rückenmark und die davon ausgehenden Nervenwurzeln und deren Funktionen beeinträchtigen kann - bis zu schwersten Ausfallserscheinungen, wie sie beim (allerdings sehr seltenen) Cauda equina Syndrom auftreten. Erst wenn konservative Maßnahmen keine Besserung bringen, wird eine Operation zur Dekompression des Spinalkanals empfohlen. Bislang fehlen evidenzbasierte Daten zu diagnostischen Kriterien und zu Komplikationen und (langfristigen) Prognosen von Behandlungsmethoden; widersprüchliche Angaben in der Fachliteratur ob und wann ein alter Patient operiert werden sollte, erzeugen Verunsicherung................so hat mein Weg bis zur Operation 22 Jahre gedauert.

Der Pensionsantritt brachte keine wesentliche Zäsur in meinen Tagesablauf. War ich zuvor überwiegend an die Vorgaben eines Multi-Pharmakonzerns gebunden, so war ich nun frei mit befreundeten Gruppen im In-und Ausland auch weiterhin Forschung zu ehemaligen und auch zu völlig neuen Gebieten zu betreiben. Außerdem wollte ich aber auch meine durch überlange Schreibtischtätigkeit degenerierten Muskeln durch 2 x wöchentliches Turnen und Gymnastiktraining, sowie durch Kieser-Rückentraining kräftigen; Letzteres war auf ein aktuelles CT-Bild meiner Wirbelsäule ausgelegt.

Zurückgekehrt von einem Ausflug zur (leider erfolglosen) Trüffelsuche nach Istrien, konnte ich im November 2002 plötzlich kaum mehr gehen. Ein Schmerz, der seinen Ursprung im Bereich der Lendenwirbelsäule hatte, pflanzte sich in die Beine fort, verschwand aber, wenn ich leicht vornüber gebeugt am Schreibtisch saß. Dass es sich nicht um einen sogenannten Hexenschuss handelte, war bald klar als sich über die Wochen hin die Beschwerden kaum besserten, Übungen zur Reduktion von Muskelverkrampfungen, wie sie Turnen/Gymnastik und auch das Kieser-Training anboten, wirkungslos blieben. Zur Abklärung meiner Symptome wandte ich mich schlussendlich an einen mir gut bekannten Rheumatologen, der an einem der großen Wiener Spitäler eine Abteilung leitete. Stationär aufgenommen, brachten die Untersuchungen schnell das Ergebnis: Die Magnetresonanz-Tomographie (MRT) zeigte neben anderen Verschleißerscheinungen eine hochgradige lumbale Stenose, d.i. eine Verengung des Nervenkanals (Spinalkanals) im unteren Teil der Lendenwirbelsäule:

Die Behandlung erfolgte konservativ - mit krankengymnastischen Übungen, physikalischer Therapie und Diclofenac (Voltaren), dem bekannten, von der Acetylsalicylsäure abgeleiteten, gegen Entzündung und Schmerz (anti-inflammatorisch und analgetisch) wirkenden Arzneimittel. Leider traten bei der dritten Diclofenac-Infusion ausgeprägte allergische Erscheinungen auf; später stellte sich heraus, dass auch andere Medikamente dieser Verbindungsklasse bei mir nicht anwendbar waren. Von einem chirurgischen Eingriff war damals nicht die Rede; ich erhielt eine Zeit lang physikalische Therapie.

Was bedeutet lumbale Vertebrostenose?

Degenerative Veränderungen der Wirbelsäule nehmen mit steigendem Alter zu, führen zur Verengung des knöchernen, aus 24 Wirbelkörpern zusammengesetzten Spinalkanals und können das darin eingebettete, der Signalvermittlung zwischen Gehirn und Peripherie dienende Rückenmark und die davon ausgehenden Spinalnerven komprimieren.

Insgesamt gehen vom Rückenmark 31 Paare von Spinalnerven ab, die den beweglichen Wirbeln des Halsbereichs (C1 - C8), Brustbereichs (T1 - T12) und Lendenbereichs (L1 - L5) und den zusammengewachsen Wirbeln des Kreuzbeins (S1 - S5) und Steißbeins (Co1) zugeordnet sind. Die Spinalnerven treten durch Öffnungen zwischen benachbarten Wirbeln (Neuroforamina) aus dem Spinalkanal aus und setzen sich aus Fasern zusammen, die sensorische Informationen aus anderen Körperregionen an das Gehirn weiterleiten (afferente Fasern) in Kombination mit Fasern, die motorische oder sekretorische Informationen vom Gehirn an den Körper (efferente Fasern) senden. Das von den drei Hirnhäuten - außen der sogenannte Durasack mit anhaftender Arachnoidea, innen die von der Rückenmarksflüssigkeit (Liquor) umspülte zarte Pia Mater - umhüllte Rückenmark reicht dabei nur vom Hirnstamm bis zum ersten (oder zweiten) Lendenwirbel; unterhalb ziehen die Nervenfasern als dickes, pferdeschweifartige (Cauda equina) Nervenbündel zu ihren Austrittsöffnungen an den Lendenwirbeln L2 - L5, den Kreuzbeinwirbeln S1 - S5 und am Steißbein (Co1). (Abbildung 1A).

Die im Bereich der Lendenwirbelsäule und des angrenzenden Kreuzbeins austretenden Spinalnerven steuern die wesentlichen Körperfunktionen unterhalb der Gürtellinie - von Bein- und Fußbewegungen über die Schließmuskeln von Darm und Blase bis hin zu sexuellen Funktionen im Genitalbereich.

Alters- und verschleißbedingte Veränderungen an den Wirbeln wie Höhenminderung und Protrusion der Bandscheiben, knöcherne Anbauten an den Zwischenwirbelgelenken (Facettengelenken), Verdickung des stabilisierenden Bandes zwischen den Wirbelbögen (Ligamentum flavum) und Wirbelgleiten führen zur Einengung des Wirbelkanals und auch der Neuroforamina und können eine Kompression von Nerven und Gefäßen verursachen. Abbildung 1B - D.

Abbildung 1: Zur Stenose der Lendenwirbelsäule. A) Anatomisches Präparat der menschlichen Wirbelsäule - das im Wirbelkanal eingebettete Rückenmark geht in der Höhe von L1 in ein dickes Bündel von Nervenwurzeln - Cauda equina - über. (Amada44: https://de.wikipedia.org/wiki/R%C3%BCckenmark#/media/Datei:Spinal_Cord_-_4742.jpg. Lizenz: CC-BY-SA). B) Querschnitt eines Lendenwirbels (L2 - L5) mit Kompression des Spinalkanals. C) Degenerativ veränderte Lendenwirbelstrukturen, die zur Einengung des Spinalkanals (rote Pfeile) führen. D) Seitenansicht zweier benachbarter Wirbel mit Bandscheibenvorfall, der zu eingeklemmtem Spinalnerv führt. (B und D modifiziert nach Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN 2002-4436.. Lizenz, CC BY 3.0.)

Die Folge kann u.a. eine Kompression von Blutzufluss und venösem Abfluss an den Nerven, also Ischämie und Ödeme verursachen - und so die charakteristischen Beschwerden bei Belastung - aufrechtem Gehen und Stehen - hervorrufen, die in Ruhe bei Dehnung des Spinalkanals durch vorgeneigtes Sitzen zumeist sofort verschwinden.

Was tun bei lumbaler Stenose?

Als um und nach 2003 meine Beschwerden anhielten, recherchierte ich dazu ausführlich die Fachliteratur (beispielsweise [1 - 3]). Demnach zeigen MRT und CT-Aufnahmen, dass nahezu alle über 65-Jährigen von degenerativen Veränderungen der Lendenwirbelsäule betroffen sind, wobei in bis zu 60 % der Fälle Einengungen des Spinalkanals und/oder der Neuroforamina auftreten. Auf Grund der Lordose der Lendenwirbelsäule ist das Segment L4/L5 am häufigsten von Schäden und Verschleißerscheinungen betroffen, es ist sozusagen die Sollbruchstelle bedingt durch das Eigengewicht und die aufrechte Haltung. Allerdings sind die radiologischen Bilder auch heute nur bedingt aussagekräftig: sehr viele Personen mit pathologischen Aufnahmen sind klinisch ohne Symptome.

Das Fehlen valider randomisierter klinischer Studien und widersprüchliche Aussagen über die Wirksamkeit von chirurgischer im Vergleich zu konservativer Behandlung unterstützten um die Jahrtausendwende häufig die Ansicht, dass die meisten Fälle von lumbaler Wirbelkanalstenose ohne Operation mit Methoden wie Physiotherapie mit Muskel entspannenden Maßnahmen im Akutstadium gefolgt von Stärkung der Rückenmuskulatur zum Erhalt von Funktion und Mobilität plus Schmerzmedikation behandelbar sind. Erst wenn konservative Behandlungen keinen ausreichenden Nutzen gebracht hatten, wurde eine Operation zur Druckentlastung der eingeengten Nervenwurzeln empfohlen. Es waren dabei u.a. die Nebenwirkungen der Schmerzmittel gegen die Komplikationen einer OP, wie Infektionen, Blutungen, Blutgerinnsel, Nerven- und Gewebeschäden abzuwägen, insbesondere da ja eine OP hauptsächlich ältere, z.T. multimorbide Patienten betraf. Szpalski und Gunzburg konstatieren 2004:"Ein chirurgischer Eingriff zur Behandlung der lumbalen Spinalkanalstenose wird in der Regel akzeptiert, wenn die konservative Behandlung versagt hat, und zielt darauf ab, die Lebensqualität durch eine Verringerung der Symptome wie neurogene Claudicatio, unruhige Beine und ausstrahlende neurogene Schmerzen zu verbessern" [2].

Basierend auf extensiver Literaturrecherche folgert das Deutsche Ärzteblatt fast ein Jahrzehnt später: "Bei wenig verlässlich evidenzbasierten Daten zur Diagnostik und Therapie gibt es aktuell keine valide Beurteilung der Behandlungsstrategien speziell bei Patienten im höheren Lebensalter." [4].

Der letzte Cochrane-Review - eine Metaanalyse basierend auf 5 Studien an 643 Patienten - schreibt schließlich: "Wir sind uns kaum sicher, ob eine chirurgische Behandlung oder ein konservativer Ansatz bei lumbaler Spinalkanalstenose besser ist, und wir können keine neuen Empfehlungen für die klinische Praxis geben." [5].

Eine vorübergehende Besserung der Beschwerden...

Dass auch bei mir eine Operation unnötig sein dürfte, schien sich vorerst zu bestätigen. Ab 2004 begannen die Beschwerden abzuflauen, und ich konnte bald fast wie ehedem längere Strecken schwimmen, bergwandern und auch mehrstündige Vorlesungen halten. Der erfreuliche Zustand hielt bis 2011 an.

...bis zur Feststellung eines Cauda equina Syndroms (CES)

Dann wurden die Gehstrecken sukzessive kürzer. 2014 schaffte ich noch 1 km, im folgenden Jahr nur mehr 400 m, auch Schwimmen wurde immer mühsamer; nur der Wocheneinkauf im Supermarkt - gestützt auf den Einkaufswagen - funktionierte. Die Hoffnung, dass sich mit einem Übungsprogramm zur Entlastung der Wirbelsäule so wie 2004 der Prozess der Verschlechterung umkehren könnte, schlug fehl. 2021 suchte ich schließlich einen mir empfohlenen Orthopäden auf, der mich zum MRT schickte. Abbildung 2 A. Die Aufnahmen zeigten neben teils discogenen, teils knöchernen Einengungen von Spinalkanal und Spinalnerven vor allem eine hochgradige Kompression der Cauda equina.

Was bedeutet CES?

Durch raumfordernde Kompression der Cauda equina im Spinalkanal verursacht, sind neurologische Ausfallserscheinungen der unterhalb der Engstelle betroffenen Nervenwurzeln die Folge. CES ist ein sehr seltener, schwerwiegender pathologischer Zustand, von dem Schätzungen zufolge insgesamt nur 1 - 7 von 100 000 Personen betroffen sind, davon die meisten zwischen dem 30. und 50. Lebensjahr infolge eines akuten, den Spinalkanal ausfüllenden Bandscheibenvorfalls, vor allem im Bereich der Lendenwirbel L4/L5 [6]. Die Kompression betrifft dann alle unterhalb austretenden Spinalnerven und damit deren Körperfunktionen unterhalb der Gürtellinie (siehe oben). Je nach Schweregrad der Kompression kommt es zum Gefühlsverlust im sogenannten Reithosenbereich (umfasst innere Oberschenkel, Gesäß, Genitalien, Damm), zu Lumbalgien, Gefühlsverlust, motorischen Defiziten und Reflexveränderungen in den Beinen, zu Blasen- und/oder Mastdarmstörungen und zu sexueller Funktionsstörung. Ein akut auftretendes CES gilt als neurochirurgischer Notfall und sollte möglichst schnell operiert werden, um irreversible Nervenschäden zu vermeiden. Dennoch kann die Hälfte dieser Patienten auch noch nach Jahren unter neurologischen Defiziten leiden [6].

Abbildung 2: Meine Lendenwirbelsäule rund 3,5 Jahre vor und 4 Tage nach der Operation. A) MRT-Befund: Irritation und Einengung der Spinalnerven L1, L2, L4 und vor allem hochgradige knöcherne Kompression der Cauda equina auf Höhe L4/L5 (der üblicherweise 15 - 18 mm breite Spinalkanal war nur mehr 3 mm weit). B) Röntgenaufnahmen: Zustand nach Laminektomie 4/5: Deutlich erkennbar ist der anstelle der Bandscheibe zur Fusion von L4/5 eingesetzte Titankäfig und die Wirbel-stabilisierenden Titanschrauben. (Aufnahmen: A) Diagnosticum Dr. Sochor, Gersthof. B) Institut für bildgebende Diagnostik, Rudolfinerhaus.)

Zum viel seltener diagnostizierten chronischen CES, das sich u.a. aus der in der älteren Bevölkerung häufig auftretenden lumbalen Stenose entwickeln kann und auch zu seinen postoperativen Prognosen, gibt es in der Fachliteratur wenig Konkretes. Die degenerativen Veränderungen im Spinalkanal (siehe Abbildung 1) schreiten ja langsam fort, das Nervenbündel der Cauda kann sich noch einige Zeit daran anpassen, die Betroffenen schreiben Symptome der Caudakompression auch häufig dem Alterungsprozess zu; schlussendlich kann aber die langanhaltende schwere Kompression zu irreversiblen Schäden an den Nervenfasern führen. Die Meinungen, wie chronisches Caudasyndrom zu managen ist - wann und ob überhaupt operiert wird, gehen weit auseinander; ein rezenter Artikel zitiert: "Es wurde vorgeschlagen, dass Fälle von chronischem CES, die mit einem langsamen Beginn bei degenerativer Lendenwirbelsäulenstenose einhergehen, oft keine Notfallbehandlung erfordern, aber sorgfältig überwacht werden sollten, um ein Fortschreiten zu irreversiblem CES zu vermeiden."[7]. In anderen Worten heißt das: Abwarten.

Mein Weg zur Operation

Abwarten war auch der Weg, den mir der konsultierte Orthopäde vorschlug und für's erste Physiotherapie empfahl. Trotz mehreren Blöcken Physiotherapie und täglich 20 - 25 min der empfohlenen Übungen verschlechterte sich mein Zustand zusehends. Die Beine schmerzten, die Muskeln krampften, fühlten sich dabei aber taub an. Die Reithosenfläche fühlte sich ebenfalls taub an, brannte zugleich aber wie Feuer und schließlich begannen Blase und Darm nicht mehr wie gewohnt zu funktionieren. Als die COVID-19 Lockdowns zu Ende waren, konnte ich das Haus nicht mehr verlassen, nur mehr etwa 5 Meter (mit Stock) gehen und Schlafen im Liegen war nicht mehr möglich.

Spät aber doch begann ich - online und auf Empfehlungen von Freunden - nach erfahrenen Neurochirurgen für Wirbelsäulenstenosen zu suchen. Einige der in Frage kommenden Spezialisten - darunter Dr.Sindhu Winkler, die mich dann auch operierte - waren am Wiener Rudolfinerhaus tätig, das ich von einer früheren Operation in bester Erinnerung hatte. Auf Anraten kontaktierte ich dort vorerst den Neurologen Dr. Mohammad Baghaei, der mich sofort als Akutfall einstufte und alle präoperativen Untersuchungen organisierte, die bereits 3 Tage später im Rudolfinerhaus starteten. Das neu erstellte MRT-Bild war in Einklang mit einer frühen Cauda-equina Symptomatik, zeigte absolute Spinalkanalstenose bei L4/5, degeneratives Wirbelgleiten und weitere degenerative Veränderungen. Nach Meinung der Chirurgin hatte ich praktisch bereits eine Querschnittslähmung. Die nun umgehend erfolgende Operation sollte vor allem den verengten Bereich erweitern, um damit den Druck auf die gequetschten Nervenfasern der Cauda zu reduzieren.

Der komplizierte Eingriff dauerte fast 4 Stunden unter Anwendung eines Operationsmikroskops und kontrolliert mittels CT-Bildgebung. Ein etwa 12 cm langer Hautschnitt eröffnete das Operationsgebiet. Die Dekompression des Spinalkanals erfolgte durch Laminektomie (vollständige Entfernung der Lamina plus Dornfortsatz (Abbildung 1B)) am Wirbel L4 und Versteifung (Fusion) der Wirbelkörper L4/5 unter Anwendung der TLIF-Technik ("transforaminal lumbar interbody fusion"). Dazu wurde die degenerierte Bandscheibe entfernt und durch einen 10 mm hohen, mit dem aus der Laminektomie entnommenen Knochenmaterial gefüllten Titankäfig ersetzt. Zur Stabilisierung des Wirbelsegments waren zuvor 4 Titanschrauben in die Pedikel (Abbildung 1B) von L4 und L5 eingebracht und durch 50 mm lange Titanstäbe verbunden worden. Abbildung 2B. Dr. Winkler hatte auch den gesamten Spinalkanal von L2 bis S1 - wie sie sagte -"geputzt", d.i. degenerative knöcherne Anbauten und Bindegewebe beseitigt - Spinalkanal und auch Foramina waren nun frei, sofern keine irreversible Schädigung vorlag, sollten sich die Nerven also erholen können.

Die Operation verlief erfolgreich ........

und ohne Komplikationen. Ich wurde bereits am nächsten Tag mobilisiert und konnte nach langer Zeit gleich wieder aufrecht stehen und im Liegen schlafen. Die Taubheit im Reithosenbereich war deutlich reduziert, ebenso die nächtlichen Muskelkrämpfe. Die Taubheit in den Beinen war noch da und Dr. Winkler meinte "die völlig gequetschten Nerven müssten erst wieder lernen, wie sie funktionieren sollten."

Die viel zu lange komprimierten Nerven sind noch lernfähig: 7 Wochen nach der OP und bei intensiver Physiotherapie kann ich erstmals seit 4 Jahren ohne Stützung (allerdings noch wacklig) wieder rund 75 m gehen. Schmerzmittel konnten bereits vor einer Woche abgesetzt werden; die zurückkehrende Mobilität steigert ganz ungemein die Lebensqualität. Auch wenn nicht alle Nerven wieder voll funktionieren sollten, ist der Zustand bereits jetzt wesentlich besser als vorher - ich bin sehr froh auf eine Neurochirurgin und einen Neurologen gestoßen zu sein, die das möglich gemacht haben!

Fazit

Trotz der enorm hohen, weltweiten Prävalenz der lumbalen Spinalkanalstenose gibt es derzeit weder eine Definition noch radiologische Diagnosekriterien, die allgemein anerkannt sind [8]. Es fehlen auch ausreichend evidenzbasierte Daten (z.B. Cochrane-Reviews) zu Komplikationen und Erfolgsaussichten der Behandlungsmethoden. Eine erste, 2019 angekündigte randomisierte Placebo-kontrollierte Studie zur operativen Behandlung hat bislang noch keine Ergebnisse gebracht [9]. Widersprüchliche Angaben in Fachliteratur und ärztlichen Aussagen, ob und wann ein betagter Patient operiert werden sollte, erzeugen natürlich Verunsicherung und Ängste.

Muss man sich deshalb vor einer OP fürchten? Ich denke nein; wie in vielen anderen Sparten der Medizin muss man aber wohl auch hier selbst nach erfahrenen Spezialisten suchen (lassen) - das Internet bietet heute ja alles zu Ausbildung, Praxis und Bewertung, also den Blick auf einen "gläsernen Neurochirurgen".


Dr. Sindhu Winkler. Neurochirugin am Rudolfinerhaus und im Wirbelsäulenzentrum Döbling (zusammen mit Dr. Mohammad Baghaei.  https://www.ambulatorium-doebling.at/de/privataerzte-zentrum/wirbelsaeule.)

Rudolfinerhaus Privatklinik.https://www.rudolfinerhaus.at/ 


[1] R.Gunzburg & M.Szpalsky: The conservative surgical treatment of lumbar spinal stenosis in the elderly. Eur Spine J (2003) 12 (Suppl. 2) : S176–S180. DOI 10.1007/s00586-003-0611-2 .

[2] Marek Szpalski, and Robert Gunzburg (2004) Lumbar Spinal Stenosis in the elderly: an overview. Eur Spine J (2003) 12 (Suppl. 2) : S170–S175. DOI 10.1007/s00586-003-0612-1.

[3] Mary Ann E. Zagaria: Lumbar Spinal Stenosis: Treatment Options for Seniors. The Journal of Modern Pharmacy/ July 2004, 11 (7).  https://hdl.handle.net/10520/AJA16836707_2508 .

[4] R. Kalff et al., Degenerative lumbale Spinalkanalstenose im höheren Lebensalter. Dtsch Arztebl Int 2013; 110(37): 613-24; DOI: 10.3238/arztebl.2013.0613.

[5] F. Zaina et al., (2016): Surgical versus non-surgical treatment for lumbar spinal stenosis (Review). Cochrane Database of Systematic Reviews. 2016, Issue 1. Art. No.: CD010264. DOI: 10.1002/14651858.CD010264.pub2.

[6] R.T. Schär et al., Das Cauda equina Syndrom. Swiss Med Forum. 2019;19(2728):449-454. DOI: https://doi.org/10.4414/smf.2019.08297

[7] C. Comer et al., SHADES of grey – The challenge of ‘grumbling’ cauda equina symptoms in older adults with lumbar spinal stenosis. Musculoskeletal Science and Practice 45 (2020) 102049. https://doi.org/10.1016/j.msksp.2019.102049.

[8] L. Wu et al., Lumbar Spinal Stenosis (2024). StatPearls [Internet]. https://www.ncbi.nlm.nih.gov/books/NBK531493/

[9] Anderson DB, et al. SUcceSS, SUrgery for Spinal Stenosis: protocol of a randomised, placebo-controlled trial. BMJ Open 2019;9:e024944. doi:10.1136/bmjopen-2018-024944 .

inge Thu, 06.03.2025 - 00:20

Der Tag der Seltenen Erkrankungen 2025 wird in den USA verschoben - warum?

Der Tag der Seltenen Erkrankungen 2025 wird in den USA verschoben - warum?

So, 02.03.2025 — Ricki Lewis

Ricki Lewis Icon Molekularbiologie Jedes Jahr findet am 28. (29.) Februar der Tag der Seltenen Erkrankungen statt, um für die 300 Millionen Menschen zu sensibilisieren, die an einer seltenen Krankheit leiden und Veränderungen für diese sowie für ihre Familien und Betreuer herbeizuführen. Veranstaltungen in 106 Ländern bringen Patienten, Wissenschaftler, Behörden und Kliniker zusammen, um neue Hypothesen, neue Daten, vorläufige Schlussfolgerungen und praktische Informationen über das Leben mit diesen Krankheiten auszutauschen und zu diskutieren. Auf lokalen, nationalen und internationalen Konferenzen über Seltene Erkrankungen kommt es dabei zu wichtigen Kontakten. In den USA sind etwa 30 Millionen Menschen von Seltenen Erkrankungen betroffen. Fassungslos berichtet die Genetikerin Ricki Lewis, dass - offensichtlich auf Grund der Entlassung von Experten und der Demontage der Infrastruktur wichtiger Institutionen - in den USA der FDA-NIH Tag der Seltenen Erkrankungen 2025 verschoben werden musste.*

Rare Disease Day (https://www.rarediseaseday.org/)

Laut der US Nationalen Organisation für Seltene Erkrankungen aus dem Jahr 2023 "hat sich der 28. Februar zu einer wichtigen jährlichen Feier entwickelt, um die Gemeinschaft einzubinden, die Geschichten von Patienten und Familien bekannt zu machen, Spenden zu sammeln und wichtige Ressourcen und innovative Forschung für seltene Krankheiten zu fördern. " Weitere Informationen und Möglichkeiten zum Mitmachen findet man unter rarediseaseday.us. Jedes Jahr am 28. Februar ist "A Day to be Heard".

Ich habe an den Veranstaltungen zum Tag der Seltenen Erkrankungen teilgenommen und mich mit vielen Familien angefreundet, während und nachdem ich das Buch The Forever Fix: Gene Therapy and the Boy Who Saved It (2012) geschrieben habe. DNA Science berichtet seit Jahren über den Tag der Seltenen Erkrankungen (z.B.: https://dnascience.plos.org/2022/02/24/rare-disease-day-2022-juvenile-huntingtons-disease/).

Bei Tagungen über seltene Erkrankungen füllen sich die Hörsäle; Menschen studieren die auf großen Bildschirmen angezeigten Daten oder treffen sich in kleineren Gruppen, um gemeinsame Herausforderungen und Anliegen zu besprechen, von Ideen zur Mittelbeschaffung bis hin zur Auswahl der optimalen viralen Vektoren für spezifische Gentherapien. Und ein oder zwei Elternteile verkleiden sich vielleicht als Zebra, das gestreifte Säugetier, das eine seltene Krankheit unter den häufiger auftretenden Pferden symbolisiert. Für einige mögen Einhörner passen.

Ich hätte mir nie vorstellen können, dass eine so wunderbare Feier wie der Tag der Seltenen Krankheiten verschoben werden würde, außer vielleicht wegen einer Naturkatastrophe wie einem drohenden Asteroideneinschlag oder einem unmittelbar drohenden Krieg. Aber die Entlassung von Experten und die Demontage der Infrastruktur wichtiger Institutionen hat nun auch menschliche Interaktionen betroffen, die darauf abzielen, Leben zu retten, viele davon von Kindern. Selbst dieser besondere Tag ist offenbar nicht immun.

Ich war fassungslos, als ich auf die Nachrichten-Webseite der FDA zum Tag der Seltenen Krankheiten 2025 klickte:

"Verschoben- FDA-NIH Tag der Seltenen Erkrankungen

Nach reiflicher Überlegung haben wir den FDA-NIH Tag der Seltenen Erkrankungen 2025 verschoben und werden ihn in den kommenden Monaten neu ansetzen. Der Tag der Seltenen Erkrankungen ist für uns alle wichtig, und wir möchten sicherstellen, dass wir uns voll und ganz auf die Veranstaltung konzentrieren können, um sie so gut wie möglich zu gestalten. Wir wissen Ihr Verständnis zu schätzen und danken Ihnen für Ihre kontinuierliche Arbeit bei der Bewusstseinsbildung, der Entwicklung von Heilmitteln und Behandlungen und der Bereitstellung von Ressourcen, die den Millionen von Menschen in diesem Land, die von seltenen Krankheiten betroffen sind, Hoffnung geben." (Ankündigung des FDA Office of Orphan Products Development: POSTPONED - FDA-NIH Rare Disease Day.)

Die genauen Gründe für die plötzliche Verschiebung des Tages der Seltenen Krankheiten sind mir unbekannt. Wenn man zwischen den Zeilen liest, kann man vermuten, dass die Leute bei der FDA und den NIH unter den jüngsten und drohenden Kürzungen leiden - nicht unbedingt, dass das DoGE (Department of Government Efficiency) absichtlich die jährliche Gelegenheit blockiert hat, dass sich Familien mit seltenen Krankheiten mit Wissenschaftlern, Klinikern, Regulierungs- und Gesundheitsexperten treffen. Ich hoffe sehr, dass die Hilfe für die Gemeinschaft der Menschen mit seltenen Krankheiten nicht als "staatliche Verschwendung" betrachtet wird.

Verstehen die Beamten, die sich für die Kürzungen einsetzen, die zu dem "Aufschub" geführt haben, die Krankheiten, die Behandlungen oder wie Forschung tatsächlich vor sich geht? Die Fortschritte bei den Gen- und Zelltherapien sind zwar langsam, aber gleichzeitig erstaunlich. Es werden Kinder behandelt! Einige leben länger, als ihre Gene sonst diktiert hätten, und zeigen bisher unbekannte Erscheinungsformen, die als Grundlage für die Entwicklung neuer Behandlungsansätze dienen und künftige klinische Versuche inspirieren können.

Die große Ironie ist, dass der diesjährige Tag der Seltenen Krankheiten mit dem 50. Jahrestag des geschichtsträchtigen letzten Tages der Konferenz in Asilomar, Kalifornien, zusammenfallen sollte, auf der Wissenschaftler die Sicherheit der rekombinanten DNA-Technologie diskutierten, bei der DNA aus Zellen einer Art von Organismus in Zellen einer anderen Art eingebracht wird.

Die Bürger haben sich über die wissenschaftlichen Grundlagen informiert, Probleme abgewogen und den Experten Fragen gestellt. Darauf folgten Debatten. Die aktuelle Ausgabe des Fachjournals Trends in Biotechnology enthält mehrere Artikel zum Thema "50 Jahre nach der Asilomar-Konferenz", die in dieser Pressemitteilung mit Links zusammengefasst sind (https://www.eurekalert.org/news-releases/1074439?).

Zur Zeit von Asilomar waren die Menschen recht besorgt. Die Rekombination von genetischem Material - diese ist möglich, weil alle Organismen DNA besitzen und ihre Zellen denselben genetischen Code verwenden - war neu und besorgniserregend. Mein Mentor an der Hochschule nannte die Technologie um 1975 das "dreiköpfige lila Monster".

Allerdings erleichterte/ermöglichte die rekombinante DNA-Technologie die Herstellung verschiedener Medikamente. Heute werden auf dieser Technologie beruhende Medikamente zur Behandlung von Volkskrankheiten wie Diabetes, lebensbedrohlichen Blutgerinnseln, rapide sinkenden Blutwerten nach einer Chemotherapie, zur Stärkung des Immunsystems, zur Erleichterung der Atmung, zur Senkung des Blutdrucks, zur Korrektur von Enzymdefiziten und zur Heilung der Haut eingesetzt.

Ich frage mich, wie viele Patienten daran denken, dass ihr Insulin in Bakterien hergestellt wird, die eingefügte menschliche Gene "lesen"? Oder dass der menschliche Gerinnungsfaktor VIII, den Menschen mit Hämophilie A einnehmen, in kultivierten Zellen des Eierstocks oder der Niere eines chinesischen Hamsters hergestellt wird?

Die Technologie der rekombinanten DNA hat sich durchgesetzt. Sie ist einfacher als die Gentherapie, weil sie die Peptide und Proteine, die die Medikamente darstellen, in Zellen produziert, die in einem Labor wachsen.

Bei der Gentherapie hingegen, die etwa zwei Jahrzehnte später als die rekombinante DNA-Technologie einsetzte, wird DNA in bestimmte Zelltypen oder in den Körper eines Patienten eingebracht. Wenn alles gut geht, produziert der Patient dann das benötigte Protein, das die krankheitsverursachenden Mutationen ausgleichen kann. Das Konzept ist einfach, die Durchführung der Gentherapie jedoch äußerst schwierig.

Komplizierter bedeutet teurer - einige Gentherapien kosten Millionen, auch wenn es sich dabei um "einmalige" Strategien handelt. Einige wurden aus diesem Grund aus der Pipeline genommen (z.B. Glybera, das erste Gentherapeutikum zur Behandlung einer sehr seltenen Fettstoffwechsel-Erkrankung).

Fazit

Seit ich mein Buch über Gentherapie geschrieben habe, haben mir mehr und mehr Familien mit genetischen Störungen von ihren Erfahrungen berichtet, wie sie klinische Studien in die Wege geleitet haben, um ihren Angehörigen und anderen zu helfen - oft beginnend mit präklinischer Forschung (an tierischen Organismen und menschlichen Zellen).

Ich mag gar nicht über die Auswirkungen der Kürzungen bei den NIH, der FDA, der CDC und anderen wichtigen Behörden nachdenken, die sich aus den Aufschüben, Verzögerungen und Stornierungen ergeben.


*Der Artikel ist erstmals am 27. Feber 2025 in PLOS Blogs - DNA Science Blog unter dem Titel "Rare Disease Day 2025 is Postponed – Why?" https://dnascience.plos.org/2025/02/27/rare-disease-day-2025-is-postponed-why/ erschienen und steht unter einer CC-BY-Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


 

inge Mon, 03.03.2025 - 00:30

Wieweit werden die terrestrischen CO2-Senken ihre Funktion als Klimapuffer in Zukunft noch erfüllen?

Wieweit werden die terrestrischen CO2-Senken ihre Funktion als Klimapuffer in Zukunft noch erfüllen?

So, 23.02.2025 — Tim Kalvelage

Tim Kalvelage

Icon Klima

 

Im Jahr 1958 installierte der amerikanische Chemiker Charles D. Keeling ein Messgerät für Kohlenstoffdioxid (CO2) auf dem Vulkan Mauna Loa auf der Insel Hawaii. Das Gerät stand in rund 3.400 Metern Höhe, weit weg von störenden CO2-Quellen wie Industriegebieten. Keeling wollte den CO2-Gehalt der Atmosphäre bestimmen. Bis dahin gab es dazu nur ungenaue und widersprüchliche Daten. Daher war unklar, ob sich das Treibhausgas durch das Verbrennen von Öl, Gas und Kohle in der Atmosphäre anreichert. Viele Forschende vermuteten, das dabei freigesetzte CO2 würde vom Ozean geschluckt. Die vom Menschen verursachte Erderwärmung war damals bloß eine Theorie. Der Mikrobiologe und Wissenschaftsjournalist Dr. Tim Kalvelage spricht hier über Untersuchungen zur Dynamik der terrestrischen CO2-Senken, die durch menschliche Aktivitäten und Klimawandel beeinträchtigt zu CO2-Quellen werden können.*

Keeling machte zwei Entdeckungen: Zum einen stellte er fest, dass die CO2-Konzentration innerhalb eines Jahres schwankt und dem Vegetationszyklus auf der Nordhalbkugel folgt: Im Frühjahr und Sommer nimmt sie ab, während sie in der kälteren Jahreshälfte ansteigt. Zum anderen konnte er bald nachweisen, dass der durchschnittliche CO2-Gehalt in der Lufthülle der Erde tatsächlich von Jahr zu Jahr zunimmt. Die von Keeling begonnene und bis heute fortgesetzte Messreihe gilt als bedeutendster Umweltdatensatz des 20. Jahrhunderts (Abbildung 1). Sie zeigte zum ersten Mal, wie die Biosphäre im Rhythmus des jahreszeitlich bedingten Pflanzenwachstums CO2 aus der Atmosphäre aufnimmt und wieder abgibt – und wie der Mensch das Klima des Planeten beeinflusst

Abbildung 1: Keeling-Kurve. Die Abbildung zeigt die monatliche durchschnittliche CO2-Konzentration der Luft, gemessen auf dem Mauna Loa in einer Höhe von 3.400 Metern in den nördlichen Subtropen. Die Keeling-Kurve steigt nicht gleichförmig an, sondern schwingt im Verlauf des Jahres auf und ab. Jeweils am Ende des Frühjahrs klettert der Wert auf einen neuen Höchststand. Das liegt unter anderem daran, dass die Wälder der Nordhemisphäre im Winter nur wenig Fotosynthese betreiben und monatelang kaum CO2 aus der Luft aufnehmen, während Pflanzen und Böden einen Teil des zuvor aufgenommenen Kohlenstoffdioxids durch die Atmung wieder an die Atmosphäre abgeben. Der langfristige Trend hingegen geht hauptsächlich auf die anthropogen bedingten CO2-Emissionen zurück. © Author: Oeneis; Data from Dr. Pieter Tans, NOAA/ESRL and Dr. Ralph Keeling, Scripps Institution of Oceanography / CC BY-SA 4.0

Natürliche Kohlenstoffspeicher

Vor Beginn der Industrialisierung herrschte zwischen Aufnahme und Freisetzung von Kohlenstoffdioxid im langfristigen Mittel ein Gleichgewicht. Der Mensch aber stört diese Balance, vor allem durch die Nutzung fossiler Rohstoffe, die heutzutage fast 90 Prozent der weltweiten Treibhausgasemissionen verursacht. Die restlichen zehn Prozent gehen auf das Konto veränderter Landnutzung. Dazu zählen die Umwandlung von Wäldern, Grasländern oder Mooren in landwirtschaftliche Nutzflächen und die Verwendung von Holz als Brennstoff, aber auch Siedlungs- und Straßenbau. Zu Beginn der industriellen Revolution waren die daraus resultierenden Emissionen sogar größer als jene aus dem Verbrennen fossiler Rohstoffe. Erst im Zuge des starken weltweiten Wirtschaftswachstums nach Ende des Zweiten Weltkriegs wurden Öl, Gas und Kohle zur bedeutendsten CO2-Quelle.

Die Erderwärmung durch die anthropogenen CO2-Emissionen wäre heute noch viel höher, gäbe es keine Ökosysteme, die einen Teil des Kohlenstoffdioxids aus der Atmosphäre aufnehmen und speichern. Wie das funktioniert und welche Faktoren dabei eine Rolle spielen, untersucht das Team von Sönke Zaehle, Direktor am Max-Planck-Institut für Biogeochemie in Jena. Die Wissenschaftlerinnen und Wissenschaftler erforschen die Kohlenstoffbilanzen von Landökosystemen. Sie wollen verstehen, wie etwa Wälder, Grasländer und Böden als Quellen und Senken von Treibhausgasen wirken und wie der Mensch und das Klima diese Ökosysteme beeinflussen. „In den vergangenen 60 Jahren haben Ozeane und Landökosysteme etwa die Hälfte der anthropogenen Kohlenstoffdioxid-Emissionen aus der Atmosphäre aufgenommen“, erklärt Sönke Zaehle (Abbildung 2). „Die Weltmeere nehmen Kohlenstoffdioxid aus der Atmosphäre auf und lösen es in Form von Kohlensäure. Auf dem Land wirken Pflanzen und Böden als Kohlenstoffspeicher.“ Die Forschung von Sönke Zaehle ist Teil eines globalen Monitorings: Klimaforschende aus der ganzen Welt erstellen jedes Jahr eine Bilanz des globalen Kohlenstoffkreislaufs. Sie beziffern im Global Carbon Report unter anderem die anthropogenen CO2-Emissionen auf der einen sowie die CO2-Aufnahme der Landbiosphäre und der Ozeane auf der anderen Seite.

Abbildung 2: Globales Kohlenstoffbudget 2023. Etwa die Hälfte des ausgestoßenen CO2 aus fossilen Energiequellen und Landnutzungsänderungen wird von Land- und Ozeansenken absorbiert, der Rest verbleibt in der Atmosphäre und trägt zum Klimawandel bei. © Global Carbon Project; Data source: Friedlingstein et al. 2023 Global Carbon Budget 2023. Earth System Science Data. // CC BY 4.0; https://globalcarbonatlas.org

Wenn Senken zu Quellen werden

Bis heute gibt es noch keine Technologien, um Kohlenstoffdioxid in großem Maßstab aus der Atmosphäre zu entfernen. Um den Klimawandel einzudämmen, sind die natürlichen Senken daher von zentraler Bedeutung, denn ohne diese würde die doppelte Menge an CO2 in die Atmosphäre gelangen und die Erde noch schneller aufheizen. Doch die Senken sind zunehmend bedroht – durch menschliche Aktivitäten und auch durch den Klimawandel selbst. Im schlimmsten Fall kann die CO2-Abgabe die Aufnahme sogar übersteigen, sodass Pflanzen und Böden zur Netto-CO2-Quelle werden. Das passierte etwa im Jahr 2023 – bis dahin das heißeste jemals aufgezeichnete Jahr, als die Netto-Kohlenstoffaufnahme an Land zeitweise sogar zusammenbrach: Pflanzen und Böden wandelten sich von Kohlenstoffsenken in -quellen.

Menschliche Aktivitäten wie Abholzung, Brandrodung oder die Trockenlegung von Feuchtgebieten, 2020 aber auch Urbanisierung und die Versiegelung von Böden zerstören wertvolle Kohlenstoffspeicher. Der Klimawandel fördert Hitze, Dürren, Brände und Überschwemmungen, die das Pflanzenwachstum beeinträchtigen und CO2 aus dem Boden freisetzen. Die weltweite landwirtschaftliche Nutzfläche beträgt heute rund fünf Milliarden Hektar – fast 40 Prozent der globalen Landoberfläche. Insbesondere in den Tropen und in anderen Ländern mit starkem Bevölkerungs- und Wirtschaftswachstum haben Landwirtschaft und Holznutzung stark zugenommen. So geraten die natürlichen Kohlenstoffreservoirs immer mehr unter Druck. In Südostasien werden Wälder vor allem für den Anbau von Ölpalmen und Kautschukbäumen großflächig gerodet, in Westafrika für Kakaoplantagen. Im Amazonasgebiet gilt die Produktion von Rindfleisch, Soja und Zuckerrohr als Haupttreiber der Entwaldung.

Der Einfluss von El Niño

Forschungsgruppenleiter Santiago Botía und sein Team am Max-Planck-Institut für Biogeochemie konzentrieren sich unter anderem auf den Amazonas-Regenwald, der mehr als die Hälfte des weltweit noch verbliebenen tropischen Regenwalds ausmacht. Die Forschenden möchten herausfinden, welche Rolle der Wald als Kohlenstoffsenke spielt, was seine Speicherkapazität beeinflusst und welche Prozesse sich auf den Gehalt von CO2, Methan und Lachgas in der Atmosphäre auswirken. Um die Kohlenstoffflüsse nachzuverfolgen, kombinieren sie Messungen von Treibhausgasen an Bodenstationen oder per Flugzeug mit Computersimulationen, die den Gastransport in der Atmosphäre abbilden. Wichtige Messdaten liefert das 325 Meter hohe Amazon Tall Tower Observatory (ATTO) mitten im brasilianischen Regenwald (Abbildung 3). Ziel ist es, Quellen und Senken von Kohlenstoff im Amazonasgebiet zu bestimmen.

Abbildung 3: Forschungsprojekt ATTO des Max-Planck-Instituts für Biogeochemie Jena. Abseits der brasilianischen Stadt Manaus steht mitten im Regenwald ein 325 m hoher Forschungsturm aus Stahl sowie zwei weitere 80 m hohe Türme. Hier wird untersucht, wie die Wälder des zentralen Amazonasgebiets mit der Atmosphäre und dem Klima interagieren, um zu prüfen, wie sich langfristige Klimaveränderungen und die zunehmende Kohlendioxidkonzentration auswirken. © P. Papastefanou / MPI-BGC. CC-BY-NC-SA.

Grundsätzlich gilt der Amazonas-Regenwald als Kohlenstoffsenke“, sagt Santiago Botía, „Doch es gibt Hinweise, dass diese Senke durch menschliche Eingriffe sowie klimabedingten Trockenstress schwächer geworden ist.“ Eine wichtige Rolle dabei spielt El Niño (s. unten). El Niño ist ein natürliches Klimaphänomen, das die Folgen des menschengemachten Klimawandels wie Hitzewellen, Dürren oder extreme Niederschläge verstärken kann. Botía und sein Team haben gezeigt, dass die Dürre im Jahr 2023 das Pflanzenwachstum und damit die Kohlenstoffspeicherung beeinträchtigt hat (Abbildung. 4): „Während eines El Niño wird insbesondere in den Tropen weniger Kohlenstoff gebunden und infolgedessen ist der CO2-Anstieg in der Atmosphäre in der Regel höher als in anderen Jahren“, sagt der Max-Planck-Forscher. Als weiteres Beispiel nennt er den starken El Niño in den Jahren 2015 und 2016. „Damals gab es viele Feuer, die zahllose Bäume vernichtet haben, zusätzlich hat der Wald wegen Hitze und ausbleibender Regenfälle weniger CO2 aufgenommen.“

Abbildung 4: Wenn der Regenwald zur CO2-Quelle wird. Die gestrichelte rote Linie zeigt den zeitlichen Verlauf der CO2-Aufnahme bzw. -Abgabe des Amazonasgebiets für das Jahr 2023. Der schattierte Bereich gibt die normalen Werte der letzten zwei Jahrzehnte (2003-2023) an. Die gestrichelte schwarze Linie ist die Netto-Null-Linie, d.h. CO2-Aufnahme und -Abgabe sind ausgeglichen. Von Januar bis April 2023 war die Kohlenstoffaufnahme höher als üblich. Das änderte sich im Mai, als der Regenwald begann, mehr CO2 freizusetzen, wobei die höchsten Werte im Oktober gemessen wurden. Da die CO2-Emissionen durch Brände innerhalb der normalen Werte der letzten zwei Jahrzehnte lagen, führen die Forschenden die Anomalie auf eine verringerte CO2-Aufnahme durch den Regenwald zurück. © S. Botía, MPI für Biogeochemie / CC BY 4.0

Dass El Niño dabei auch zu Veränderungen der jährlichen Wachstumsrate des CO2-Gehalts in der Atmosphäre führen kann, belegt eine gemeinsame Studie von Forschenden des Max-Planck-Instituts für Biogeochemie und der Universität Leipzig: Langzeitdaten hatten gezeigt, dass der CO2-Gehalt in der Atmosphäre zwischen 1959 und 2011 phasenweise besonders stark angestiegen war. Als Ursache vermutete man langfristige klimabedingte Veränderungen des Kohlenstoffkreislaufs und damit des globalen Klimasystems. Die Forschenden überprüften diese Annahme anhand von Computersimulationen – und kamen zu einem anderen Ergebnis: Der hohe Anstieg lässt sich allein mit dem vermehrten Auftreten von El Niño -Ereignissen in den 1980er- und 1990er-Jahre erklären. Hierunter fallen auch die extremen El Niño -Phasen von 1982/83 und 1997/98, die starke Dürren und Hitzewellen in den Tropen mit sich brachten. Während dieser Phasen nahm der CO2-Gehalt in der Atmosphäre überraschend schnell zu. Die schnelle Zunahme hängt damit zusammen, dass während der El Niño -Phasen (aber auch anderer klimatischer Extremereignisse) gehäuft auftretende Brände und andere Störungen schnell viel Kohlenstoff freisetzen – und so die langfristige, vergleichsweise langsame Kohlenstoffaufnahme der ungestörten Ökosysteme kompensieren. In der Ökologie ist dies bekannt als die sogenannte „slow-in, fast-out-Dynamik“ des Kohlenstoffkreislaufs. Die langfristige Konsequenz davon ist, dass sich Veränderungen in der Häufigkeit von El Niño sich auf den CO2-Gehalt der Atmosphäre auswirken und so eine Rückkopplung zum Klimawandel verursachen können.

Kohlenstoffsenken unter Beobachtung

Das Team von Sönke Zaehle möchte mit seiner Arbeit vor allem dazu beitragen, künftige Klimamodelle zu verbessern: „Um verlässlichere Prognosen für die Zukunft zu machen, ist es entscheidend, die räumliche und zeitliche Dynamik der Kohlenstoffsenken möglichst genau zu kennen“, sagt Zaehle. Das gilt auch für Strategien, die auf Klimaneutralität abzielen: Der europäische „Green Deal“ etwa, der Netto-Null-Emissionen bis zum Jahr 2050 anstrebt, kalkuliert die Kohlenstoffaufnahme durch Landökosysteme wie Wälder mit ein. Doch auch in unseren Breiten verlieren Wälder zunehmend ihre Fähigkeit, Kohlenstoff zu speichern: Im Jahr 2022 etwa wurden in Europa rekordverdächtige Temperaturen gemessen. Fast 30 Prozent des Kontinents – insgesamt rund drei Millionen Quadratkilometer – waren von einer schweren Sommertrockenheit betroffen. Ein Forschungsteam unter Beteiligung des Max-Planck-Instituts für Biogeochemie wies nach, dass die Netto-Kohlenstoffaufnahme der Biosphäre in diesem Gebiet stark verringert war. Einige Wälder in Frankreich setzten im Sommer durch Trockenstress und Waldbrände sogar Kohlenstoff frei. „Solche temporären Schwankungen der Kohlenstoffsenken werden bislang kaum berücksichtigt“, sagt Zaehle. Ein Ziel des europäische Erdbeobachtungsprogramms Copernicus ist es daher, die Kohlenstoffbilanz kontinuierlich zu überwachen.

Ökosysteme stärken

Studien wie die der Jenaer Wissenschaftlerinnen und Wissenschaftler zeigen, wie fragil die natürlichen Kohlenstoffsenken sind. Dass wir uns auch weiterhin auf sie verlassen können, ist keineswegs sicher: „Inwieweit die terrestrischen Kohlenstoffsenken ihre Funktion als Klimapuffer in Zukunft noch erfüllen können, ist unklar“, sagt Santiago Botía. „Bei der derzeitigen globalen Erwärmung sind extreme Dürrejahre häufiger zu erwarten und werden wohl Teil der neuen Normalität“. Es ist daher entscheidend, dass wir uns auf diese Veränderungen vorbereiten und die Funktion der Ökosysteme erhalten. „Wichtig ist, die natürlichen Kohlenstoffsenken zu stärken – zum Beispiel durch Aufforstung von Wäldern, die Wiedervernässung von Mooren und eine nachhaltige Landwirtschaft, die den Kohlenstoffgehalt von Böden erhöht und weniger Treibhausgase produziert“, sagt Sönke Zaehle. „Neben dem Erhalt der natürlichen Senken ist aber eine Reduzierung der fossilen Emissionen unerlässlich, um den Klimawandel zu stoppen. Jede Tonne Kohlenstoffdioxid, die wir vermeiden, zählt.”


Zu EL Niño

Die sogenannte El Niño -Südliche Oszillation (ENSO) ist ein gekoppeltes Zirkulationssystem von Ozean und Atmosphäre im tropischen Pazifik. Normalerweise schieben die Passatwinde das Oberflächenwasser entlang des Äquators von der Westküste Südamerikas in Richtung Südostasien. Dort steigt der Meeresspiegel infolgedessen um gut einen halben Meter an. Vor Südamerika erzeugt diese westwärtige Strömung einen Sog, der kaltes Tiefenwasser zur Oberfläche strömen lässt. Das kalte Wasser heizt sich auf dem Weg nach Westen auf, was vor Südostasien für starke Verdunstung und ein regenreiches Klima sorgt. Etwa alle fünf Jahre passiert es, dass sich die Passatwinde aufgrund von Veränderungen der Luftdruckverhältnisse über dem Pazifik abschwächen oder ihre Richtung sogar umkehren. Dadurch strömt warmes Wasser aus dem Westpazifik nach Osten. An der sonst trockenen Westküste Südamerikas kommt es dadurch zu starken Niederschlägen, während in Südost-asien weniger Regen fällt. Weil das Phänomen seinen Höhepunkt typischerweise um Weihnachten erreicht, wird es El Niño, spanisch „das Christkind“, genannt.


 * Der Artikel von Tim Kalvelage ist unter dem Titel: "Klimapuffer der Erde - Forschung untersucht die Dynamik von Kohlenstoffsenken https://www.max-wissen.de/max-hefte/geomax-30-klimapuffer-der-erde/ " im Geomax 30-Heft der Max-Planck-Gesellschaft im März 2025 erschienen. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


Weiterführende Links

Carbon Story: https://globalcarbonatlas.org/emissions/carbon-story/

Amazon Tall Tower (ATTO)-Projekt. Bildungsmaterialien des Max-Planck-Instituts für Biogeochemie Jena. https://www.attoproject.org/de/medien/mission-atto-forschung-im-gruenen-ozean/.

Klima/Klimawandel im ScienceBlog: https://scienceblog.at/klima-klimawandel


 

inge Sun, 23.02.2025 - 16:11

Eine genetische Kristallkugel: Wenn Genomsequenzierung bei Neugeborenen Krankheiten bei Verwandten erklären kann

Eine genetische Kristallkugel: Wenn Genomsequenzierung bei Neugeborenen Krankheiten bei Verwandten erklären kann

Do, 06.02.2025 — Ricki Lewis

Ricki Lewis Icon Molekularbiologie Vor 5 Jahren befürchtete man, dass die Genom-Sequenzierung bei Neugeborenen deren Privatsphäre gefährden könnte, wenn die genetischen Informationen dann beim Heranwachsen nicht angemessen geschützt würden. Dass die DNA-Analyse bei Neugeborenen einen vielleicht unerwarteten Nutzen kann berichtet die Genetikerin Ricki Lewis an Hand der Erkrankungen Marfan Syndrom und Alström Syndrom: Die Mutationen eines Neugeborenen können plötzlich eine neue Deutung von Symptomen bei Eltern, Geschwistern und anderen Naheverwandten bieten. Dieser Ansatz ercheint besonders wertvoll bei extrem seltenen genetischen Erkrankungen, die ein Arzt, der nicht gleichzeitig Genetiker ist, möglicherweise nicht erkennt.*

Screening von Neugeborenen auf Stoffwechselprodukte, nicht auf DNA

Das Screening von Neugeborenen auf andere verdächtige Moleküle als die DNA gibt es schon seit Jahrzehnten. Kurz nach der Geburt wird aus der Ferse entnommenes Blut auf verschiedene Moleküle (Metaboliten) untersucht, die als Biomarker für bestimmte Krankheiten dienen.

Das US-amerikanische Recommended Uniform Screening Panel (RUSP) https://www.hrsa.gov/advisory-committees/heritable-disorders/rusp testet so auf 61 Erkrankungen. Die Liste variiert je nach Bundesstaat, wobei Illinois zum Beispiel auf 57 Krankheiten tested, Kalifornien auf 80. Sonderprogramme haben das RUSP im Laufe der Jahre erweitert.

Das Ziel des Neugeborenen-Screenings ist es, Krankheiten so früh zu erkennen, dass Symptome verhindert oder behandelt werden können. Allerdings sind manche Leute der Ansicht, dass das Neugeborenen-Screening "Patienten im Wartezustand" schafft, was bei frischgebackenen Eltern Ängste auslöst.

Genomsequenzierung bei Neugeborenen

Das Neugeborenen-Screening kann zwar genetische Krankheiten aufdecken, analysiert aber nicht die DNA selbst. Es stellt nur zu hohe oder zu niedrige Werte bestimmter Aminosäuren und Acylcarnitine fest, die auf einen gestörten Eiweiß- bzw. Fettstoffwechsel hinweisen. Die dazu angewandte Technik ist die Tandem-Massenspektrometrie.

Die Sequenzierung von DNA zur Klassifizierung von Genvarianten ist etwas anderes. Gene sind die Anweisungen einer Zelle zur Verknüpfung präziser Sequenzen von Aminosäuren zu Proteinen.

Neugeborenen-Screening auf DNA: GUARDIAN und BabySeq

Zwei Programme haben kürzlich Ergebnisse zur Bedeutung der DNA-Sequenzierung  eines Neugeborenen veröffentlicht.

Die GUARDIAN-Studie (Genomic Uniform-screening Against Rare Disease in All Newborns - https://guardian-study.org/ des New York-Presbyterian Hospital untersuchte 4 000 Kinder, die zwischen September 2022 und Juli 2023 in sechs Krankenhäusern in New York City geboren wurden. Dabei wurden Gene sequenziert, die für 156 früh auftretende genetische Erkrankungen und 99 mit Krampfanfällen einhergehende neurologische Entwicklungsstörungen verantwortlich sind. Die gewählten Erkrankungen sind behandelbar, insbesondere wenn sie frühzeitig erkannt werden. Die Ergebnisse wurden kürzlich im Fachjournal JAMA veröffentlicht [1].

Das Projekt BabySeq (https://www.genomes2people.org/research/babyseq/news-media/),das 2018 begann, ist breiter angelegt. Es hat Exome (den proteincodierenden Teil eines Genoms) oder ganze Genome sequenziert und 954 Gene identifiziert, bei denen Mutationen drei Kriterien erfüllen: 

  • die assoziierte Erkrankung beginnt in der Kindheit
  • wenn eine Mutation vorhanden ist, sind auch die Symptome vorhanden (hohe Penetranz)
  • die Erkrankung ist bis zu einem gewissen Grad therapiebar

BabySeq suchte auchaus der Liste der sekundären Befunde des American College of Medical Genetics and Genomics (ACMG - https://www.ncbi.nlm.nih.gov/clinvar/docs/acmg/) nach einigen therapiebaren Erkrankungen, die nur im Erwachsenenalter auftreten, wie z. B. familiäre Krebssyndrome.

In der Ankündigung von BabySeq in Pediatrics (https://pmc.ncbi.nlm.nih.gov/articles/PMC6038274/) heißt es:

"Die größte Chance, dss sich die Genomsequenzierung ein Leben lang auswirkt, hat die Zeit unmittelbar nach der Geburt. Neugeborenenperiode. Das BabySeq-Projekt ist eine randomisierte Studie, die die medizinischen, verhaltensbezogenen und wirtschaftlichen Auswirkungen erforscht, wenn die Genomsequenzierung in die Fürsorge  gesunder und kranker Neugeborener eingebaut wird."

Im Rahmen des BabySeq-Projekts wurden Kinder fünf Jahre lang beobachtet. Die ersten Ergebnisse sind in der Juli-Ausgabe 2023 des American Journal of Human Genetics veröffentlicht [2].

An dem Projekt haben 127 gesunde Säuglinge und 32 kranke Säuglinge aus Intensivstationen zweier Bostoner Krankenhäuser teilgenommen. Außerdem wurde nach einigen relevanten Erkrankungen im Erwachsenenalter gesucht, die in der Liste der sekundären Befunde des American College of Medical Genetics and Genomics (ACMG)  aufgeführt sind.

Bei 17 der Kinder wiesen die Genome relevante krankheitsverursachende Mutationen auf.

Von 14 gesunden Säuglingen entwickelten vier ein vergrößertes und geschwächtes Herz - dilatative Kardiomyopathie - aufgrund von Mutationen im TTN-Gen, das für ein Muskelprotein (Titin) kodiert. Durch häufige EKGs und Echokardiogramme können die ersten Symptome erkannt werden, die dann medikamentös oder physikalisch behandelbar sind. Betroffene Kinder sollten bestimmte Stimulanzien meiden, bestimmte Sportarten wählen und eine für das Herz gesunde Ernährung einhalten.

Ein anderes Kind hatte eine feststellbare und heilbare verengte  Aorta,  und ein weiteres litt an Vitaminmangel (Biotin), der mit Nahrungsergänzungsmitteln behandelbar war. Zwei Neugeborene wiesen BRCA2-Mutationen auf, was drei Verwandte zu einer Operation veranlasste, um damit assoziierte Krebserkrankungen zu verhindern. Ein weiteres Kind kann dank der Früherkennung einen Hörverlust im Teenageralter vermeiden.

Bei Babys, die wegen einer Erkrankung auf der Intensivstation lagen, wurde eine durch die DNA aufgezeigte, weitere Erkrankung festgestellt. Ein Kind, das wegen eines Herzfehlers ins Krankenhaus eingeliefert wurde, hatte auch einen Glucose-6-Phosphat-Dehydrognenase-Mangel, der beim Verzehr bestimmter Lebensmittel eine hämolytische Anämie verursacht. Und ein Säugling, der wegen Atembeschwerden ins Krankenhaus eingeliefert wurde, hatte das Lynch-Syndrom geerbt, das im Erwachsenenalter Darm-, Gebärmutter-, Magen- und Eierstockkrebs verursacht.

Einige der Kinder wiesen Mutationen auf, die sich später auf den Stoffwechsel bestimmter Krebs- und entzündungshemmender Medikamente auswirken sollten.

Ein unerwarteter Nutzen der Neugeborenen-Sequenzierung der DNA: Erklärung der Krankheiten von Verwandten

Als die BabySeq-Studie im Jahr 2018 begann, wurde kritisiert, dass Eltern mit Namen von beängstigenden Krankheiten belastet werden, die sich - wenn überhaupt - möglicherweise erst nach Jahren manifestieren. Nach den fünf Jahren der Studie zeigte sich welchen Wert die Erkennung behandelbarer Krankheiten noch vor ihrem Ausbruch hat: Die Mutationen eines Neugeborenen können plötzlich eine neue Deutung von Symptomen bei Eltern und Geschwistern, Tanten und Onkeln, Großeltern und Cousins bieten. Dieser Ansatz ist besonders wertvoll bei extrem seltenen genetischen Erkrankungen, die ein Arzt, der nicht gleichzeitig Genetiker ist, möglicherweise nicht erkennt.

Genetiker bezeichnen mehrere, scheinbar nicht zusammenhängende Symptome, die von einer Mutation in einem einzigen Gen herrühren, als Pleiotropie. Ein Beispiel sind das seltene Marfan-Syndrom und das noch seltenere Alström-Syndrom.

Marfan-Syndrom

Einige Symptome des Marfan-Syndroms sind offenkundig, wenn man sie zusammen betrachtet: lange Arme, Beine, Finger und Zehen, ein schmales, langes Gesicht, ein eingesunkener oder hervorstehender Brustkorb aufgrund einer kollabierten Lunge sowie Plattfüße, Skoliose und sehr flexible Gelenke. Ein Patient mit nur einem oder zwei dieser Merkmale könnte allerdings unbemerkt bleiben. Und einige Marfan-Symptome treten erst im Erwachsenenalter auf, z. B. Kurzsichtigkeit, Katarakte und verrutschte Linsen.

Die Diagnose des Marfan-Syndroms wird in der Regel nach kardialen Ereignissen gestellt, z. B. undichten Herzklappen oder einer aufgespaltenen Aorta, die sich ausbeulen und reißen kann (ein Aneurysma). Wenn die Schwächung frühzeitig erkannt wird, kann ein synthetisches Transplantat den Abschnitt der Arterienwand ersetzen und das Leben des Betroffenen retten. Manchmal macht sich das Marfan-Syndrom aber auch als Notfall bemerkbar.

So erging es auch dem Dramatiker Jonathan Larson, der das Stück Rent über die Anfänge von AIDS schrieb. Er starb 1996 plötzlich, einen Tag vor der Premiere von Rent am Broadway, an den Folgen einer Aortendissektion, die später als Folge des Marfan-Syndroms erkannt wurde. Nach Angaben der Marfan Foundation "wies er viele der äußeren Anzeichen auf, war aber nie diagnostiziert worden. Zwei Notaufnahmen von Krankenhäusern in New York City erkannten nicht die Anzeichen einer Aortendissektion und auch nicht, dass Jonathan viele Merkmale des Marfan-Syndroms aufwies, was ihn einem hohen Risiko für eine Aortendissektion aussetzte."

Andere berühmte Persönlichkeiten, die das Marfan-Syndrom hatten, sind Abraham Lincoln, Julius Cäsar, König Tut und der olympische Schwimmer Michael Phelps.

Eine dominante Mutation im Gen FBN1 verursacht das Marfan-Syndrom. Das Gen kodiert das Protein Fibrillin-1, das die elastischen Fasern des Bindegewebes bildet und Blutgefäße, Knochen und Knorpel beeinflusst. In etwa 75 Prozent der Fälle wird die Krankheit von einem Elternteil vererbt, in den anderen Fällen entsteht sie durch eine neue Mutation. Die Untersuchung der Eltern eines Patienten kann Aufschluss darüber geben, ob die Mutation neu ist oder vererbt wurde, was wiederum Auswirkungen auf andere Familienmitglieder hat.

Eine Genomsequenzierung kann das Marfan-Syndrom auch dann aufdecken, wenn ein Neugeborenes nicht die verräterischen langen Gliedmaßen und den eingesunkenen oder vorstehenden Brustkorb aufweist oder wenn sein Arzt die Anzeichen nicht erkennt. So könnte eine genetische Diagnose sofort erklären, warum eine Tante an einem Aortenaneurysma gestorben ist, ein Geschwisterkind mit verrutschten Linsen und einem langen Gesicht, ein Großelternteil, der wegen seiner Plattfüße nicht zum Militär gehen konnte, und ein Cousin, der dank seiner großen Flexibilität ein begnadeter Tänzer ist.

Alström-Syndrom

Die Inzidenz (Häufigkeit in der Bevölkerung) des Marfan-Syndroms liegt bei 1 zu 5.000 (https://medlineplus.gov/genetics/condition/marfan-syndrome/#:~:text=At%20least%2025%20percent%20of,mutation%20in%20the%20FBN1%20gene), was für eine Störung an nur einem Gen recht hoch ist. Im Gegensatz dazu betrifft das Alström-Syndrom zwischen 1:10.000 und weniger als 1:1.000.000 Menschen ((https://rarediseases.org/rare-diseases/alstrom-syndrome/). Bisher sind nur 1200 Fälle bekannt. Die Sequenzierung des Genoms von Neugeborenen kann das aber ändern.

Die Liste der Symptome des Alström-Syndroms ist so lang und die Zusammenstellung der Symptome bei den Patienten so unterschiedlich, dass es verständlich ist, wenn Ärzte die zugrunde liegende genetische Ursache möglicherweise nicht erkennen. Und wie beim Marfan-Syndrom treten einige Alström-Symptome erst im Erwachsenenalter auf.

Das Alström-Syndrom beeinträchtigt das Seh- und Hörvermögen, verursacht Fettleibigkeit im Kindesalter, Insulinresistenz und Diabetes mellitus, dilatative Kardiomyopathie, degenerierende Nieren und kann Leber, Lunge und Blase sowie die Hormonsekretion betreffen. Die Intelligenz bleibt in der Regel erhalten, aber die Kinder können kleinwüchsig sein und Entwicklungsverzögerungen aufweisen.

Die vielfältigen Symptome entstehen durch eine Mutation in einem Gen, ALMS1. Es kodiert für ein Protein, das für aus der Zelle austretende schwanzartige Flimmerhärchen die Basis bildet. Die atypischen Flimmerhärchen verursachen Krankheiten, die als "Ciliopathien" bezeichnet werden, was für "kranke Flimmerhärchen" steht. Da die Flimmerhärchen die Bewegung von Substanzen in und zwischen den Zellen steuern und die Zellteilung kontrollieren, treten bei einer Beeinträchtigung viele Symptome auf.

Im Gegensatz zum dominanten Erbgang des Marfan-Syndroms, bei dem ein betroffener Elternteil die Krankheit weitergibt, ist das Alström-Syndrom rezessiv; zwei Trägereltern sind nicht betroffen, geben aber ihre Mutationen weiter. Wenn also bei der Sequenzierung des Genoms eines Neugeborenen ein Kind mit zwei Kopien einer ALMS1-Mutation identifiziert wird, dann sind die Eltern vermutlich beide Träger. Geschwister haben ein 25-prozentiges Risiko, die Krankheit zu erben.

Fazit

Um die potenziellen Auswirkungen der DNA-Sequenzierung bei Neugeborenen zu beurteilen, braucht es noch einige Zeit. Ich denke jedoch, dass die potenzielle Preisgabe der Privatsphäre bei der Identifizierung von Mutationen, insbesondere von relevanten Mutationen, verspricht die Gesundheit vieler anderer Personen zu verbessern


 [1] Alban Ziegler et al., Expanded Newborn Screening Using Genome Sequencing for Early Actionable Conditions. JAMA. 2025;333(3):232-240. doi:10.1001/jama.2024.19662

[2] Robert C. Green et al., Actionability of unanticipated monogenic disease risks in newborn genomic screening: Findings from the BabySeq Project. The American Journal of Human Genetics 110, 1–12, July 6, 2023. DOI: 10.1016/j.ajhg.2023.05.007


* Der Artikel ist erstmals am 14. November2024 in PLOS Blogs - DNA Science Blog unter dem Titel "A Genetic Crystal Ball: When Newborn Genome Sequencing Findings Explain Illnesses in Relatives" https://dnascience.plos.org/2024/11/14/a-genetic-crystal-ball-when-newborn-genome-sequencing-findings-explain-illnesses-in-relatives/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


 

inge Thu, 06.02.2025 - 21:54

Ernährungsforschung - ein Schwerpunkt im ScienceBlog

Ernährungsforschung - ein Schwerpunkt im ScienceBlog

So. 02.02.2025 — Redaktion

Redaktion

Icon Nahrung

Die Ernährungsforschung ist eine noch eine recht junge wissenschaftliche Disziplin, die erst im 20. Jahrhundert einsetzen konnte, als die Chemie imstande war komplexe organische Materialien zu analysieren und einzelne Strukturen daraus aufzuklären. Im ScienceBlog liegt eine bereits sehr umfangreiche Artikelsammlung vor, die viele unterschiedliche Facetten der Ernährungsforschung zeigt: Diese reichen vom Mangel an Nährstoffen oder deren exzessiven Konsum und damit assoziierten Krankheiten, über die Rolle des Mikrobioms und über Vergiftungen bis hin zu Adaptierungen in Lebensweise und Konsumgewohnheiten als Folge einer sich rasch verändernden Welt. Die Artikelsammlung ist auch unter der Rubrik "Artikel sortiert nach Themenschwerpunkten" gelistet und soll durch neue Berichte entsprechend ergänzt werden.

"Deine Nahrung sei Deine Medizin, Deine Medizin sei Deine Nahrung" Offensichtlich war den Menschen seit alters her bewusst, dass Ernährung und Gesundheit untrennbar miteinander verknüpft sind. Obiges Zitat wird üblicherweise dem griechischen Arzt Hippokrates (460 - 370 BC) zugeschrieben, der als Begründer einer wissenschaftlichen Medizin gilt. Für Hippokrates galt eine gesunde Ernährung als zentrale Voraussetzung für Wohlbefinden und ein gutes Leben - diaita (davon leitet sich unser Grundbegriff Diät) - her. Abbildung 1.

Abbildung 1. Hippokrates auf dem Boden des Asklepieion von Kos sitzend, mit Asklepios, dem in einem Boot ankommenden Gott der Heilkunst in der Mitte. Mosaik aus dem 2-3.Jh n.Chr. (Bild: By Tedmek - Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=15847465)

Das von Hippokrates angestrebte Wohlbefinden findet sich heute, fast 2500 Jahre später, in der Definition der WHO wieder: "Gesundheit ist ein Zustand des vollständigen körperlichen, geistigen und sozialen Wohlbefindens. Das körperliche Wohlbefinden bezieht sich auf das Funktionieren unseres Körpers, das geistige darauf, wie wir unser Leben bewältigen und das soziale auf unsere Beziehungen zu anderen".

Was aber ist Ernährung, was eine gesunde Ernährung?

Die Wissenschaft in diesem Gebiet ist noch sehr jung. Eine Analyse, woraus sich Nahrung zusammensetzt, wurde erst mit den Anfängen der Chemie möglich, d.i. ab dem späten 18. Jahrhundert. Im Habsburgerreich gelang 1810  dem jungen Joseph Wilhelm Knoblauch eine - leider weitgehend vergessene - Pionierleistung mit seinem damals preisgekrönten, monumentalen 3-bändigen Werk “Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten und möglichst wieder aufzuheben“ (siehe Artikelliste).

In der Mitte des 19. Jahrhunderts hat der Mediziner und Chemiker Vinzenz Kletzinsky erstmals den Begriff "Biochemie" als Lehre vom Stoff des Lebens geprägt und damit die Bescheibung des Kreislaufs des organischen Lebens angestrebt  (siehe Artikelliste).

Bis zum Beginn des 20. Jahrhunderts

bezogen sich die Analysen von Nahrungsmitteln bloß auf deren Gehalt an Makronährstoffen, d.i. an den Stoffklassen der Proteine, Fette und Kohlenhydrate, die dem Körper Energie liefern - ohne deren Komponenten noch zu kennen. Zu den Makronährstoffen zählen auch Wasser, das keine Energie liefert und Ballaststoffe, die nicht - wie bis vor Kurzem angenommen - unverdaut ausgeschieden werden, sondern über das Mikrobiom im Darmtrakt zu energieliefernden Produkten abgebaut werden können.

In einem 1918 erschienenen Handbuch "Diet and Health" hat die US-amerikanische Ärztin Lulu Hunt Peters erstmals eine neue Methode zur Bewertung von Lebensmitteln vorgestellt - nämlich deren Nährstoffgehalt in ihrem Brennwert, d.i. in Kalorien auszudrücken. Daraus leitete sich die Möglichkeit ab durch Limitierung der aufgenommenen Kalorien "Kalorienzählen" eine Reduktion des Körpergewichts zu erzielen. Das Buch wurde ein Bestseller und hat ein Jahrhundert von Diätmoden eingeleitet, die uns bis heute hungern lassen, um unsere Körper kräftig und gesund zu erhalten.

In der ersten Hälfte des 20. Jahrhunderts gelang es essentielle Mikronährstoffe - Vitamine, Prohormone (Vitamin D, A) und Vitalstoffe - in Nahrungsmitteln zu isolieren, zu charakterisieren und schwere Mangelzustände mit spezifischen Krankheitsbildern (z.B. Skorbut, Pellagra, Anämie und Rachitis) zu assoziieren. Diese Erkenntnisse führten zur industriellen Vermarktung von Mikronährstoffen - als Supplemente und angereichert in Grundnahrungsmitteln - und eröffneten damit neue Möglichkeiten zur Behandlung von Mangelzuständen.

Die Rolle von Mangelernährung konzentrierte sich auch auf den Proteinmangel, vor allem bei Kindern in Entwicklungsländern (Folge: Marasmus und Kwashiorkor) aber auch u.a. bei geriatrischen Patienten in der westlichen Welt. Die Industrie antwortete mit der Entwicklung von eiweißangereicherten Formeln und Beikost für Entwicklungsländer.

Auch weiterhin blieb die Lebensmittelforschung in den Händen der Chemie; in Deutschland und auch in Österreich wurden erst in der zweiten Hälfte des 20 Jh. die entsprechenden Lehrstühle nicht mehr ausschließlich mit Chemikern besetzt; das Fach ist heute multidisziplinär.

Die aus einer Arbeit von Dariush Mozaffarian entnommene Abbildung 2 fasst die historische Entwicklung der Ernährungsforschung seit rund 100 Jahren zusammen.

In der zweiten Hälfte des 20. Jahrhunderts

verlagerte sich das Interesse der Ernährungsforschung auf die Rolle von Nährstoffen bei chronischen Krankheiten, vor allem bei Herz-Kreislauf-Erkrankungen, Adipositas, Diabetes und Krebserkrankungen. Man blieb bei dem für Vitaminmangel erprobten Modell die physiologische Wirkung eines einzelnen Nährstoffes zu verfolgen und daraus seine optimale Dosis zur Prävention von Krankheiten bestimmen zu wollen. Es zeigte sich, dass diese Strategie aber nur schlecht auf chronische Erkrankungen übertragbar ist, Adipositas, Diabetes und einige Krebserkrankungen stiegen an.

Abbildung 2. Wesentliche Ereignisse der modernen Ernährungswissenschaft mit Auswirkungen auf die aktuelle Wissenschaft und Politik (Bild modifiziert aus: Dariush Mozaffarian et al., BMJ 2018;361:k2392 | doi: 10.1136/bmj.k2392. Lizenz cc-by)

Zum Unterschied zu den erfolgreichen früheren Vitaminstudien erweisen sich derartige Untersuchungen als hochkomplex und sehr teuer; deren Qualität ist häufig niedrig und das Ergebnis enttäuschend. Bei einer jahrelangen Studie zu einer bestimmten Diätform ist ja eine riesige Anzahl von Probanden nötig, um einen signifikanten Unterschied im Ergebnis nachzuweisen. Dabei ist es kaum möglich  zu kontrollieren, wie weit sich die Probanden an die vorgeschriebene Diät gehalten haben und echte Placebo-Gruppen fehlen zumeist  (man kann ja Probanden über Jahre nicht schweren Mangelbedingungen aussetzen).

Als Beispiel sei die 5-Jahre dauernde US-amerikanische Studie VITAL an 26 000 Probanden zur erhofften positiven Wirkung von Vitamin D-Supplementierung auf Herz-Kreislauf- und Krebserkrankungen angeführt (siehe Artikelliste). Es konnte hier kein signifikanter Unterschied zwischen Vitamin D-supplementierter Gruppe und Placebogruppe festgestellt werden, allerding lagen die Blutspiegel der Placebogruppe (die Teilnehmer durften täglich 800 IU einnehmen) bereits im Bereich erstrebenswerter normaler Vitamin D-Konzentrationen (25(OH)2D3 im Mittel 30,8 ng/ml), sodass  eine weitere Steigerung in der supplementierten Gruppe (25(OH)2D3 im Mittel rund 42 ng/ml) nicht unbedingt zu zusätzlicher Wirkung führen brauchte.

Ernährung in der Zukunft

Der Klimawandel nimmt an Fahrt zu und bedroht den Bestand einiger unserer Grundlebensmittel. Unsere Konsumgewohnheiten tragen noch dazu bei, dass miteinander verknüpfte Probleme wie Klimawandel, Luftverschmutzung und Verlust der biologischen Vielfalt weiter fortschreiten. Wir sind zudem abhängig von einer globalisierten Versorgung mit einer "Handvoll" von Nahrungsmitteln geworden. Diese Handvoll, die zu 90 % zur Ernährung der Menschheit beiträgt, kann durch politische Unruhen, Kriege, Pandemien und andere Katastrophen bedroht werden. Nahrungsmittel müssen sich an die Gegebenheiten adaptieren, Pflanzenzucht, Landwirtschaft, Viehhaltung und Lebensmittelproduktion werden sich dementsprechend verändern und auf Verhaltensweisen und Konsumgewohnheiten einwirken, um Menschen mit sehr unterschiedlichen Überzeugungen und Wertebegriffen dazu zu bringen, diese zu ändern.


Artikelsammlung im ScienceBlog (wird laufend ergänzt)


Mikronährstoffe

Übergewicht

Diabetes

Mikrobiom

Vergiftungen

Ernährung in einer sich verändernden Welt


 

inge Mon, 03.02.2025 - 00:19

Von der Fachmesse zur modernen Chirurgie: das Forschungsprojekt, das den 3D-Druck in der Medizin einführte

Von der Fachmesse zur modernen Chirurgie: das Forschungsprojekt, das den 3D-Druck in der Medizin einführte

Fr, 24.01.2025 — Redaktion

RedaktionIcon Medizin

Das in den 1990er Jahren von der EU finanzierte Projekt Phidias hat die medizinische Welt auf den Kopf gestellt, indem es den 3D-Druck in das Gesundheitswesen einführte. Dies hat zu wesentlich besseren Ergebnissen bei komplizierten Operationen geführt und das Leben von Tausenden von Patienten verbessert.*

Der 3D-Druck ist in der Medizin inzwischen weit verbreitet. Präzise Modelle von menschliche Knochen und Organen sind eine große Hilfe bei komplexen Operationen. (© Scharfsinn, Shutterstock.com)

1990 besuchte Fried Vancraen eine deutsche Fachmesse und war von einem dort ausgestellten 3D-Drucker so fasziniert, dass er einen solchen für sein neues Unternehmen Materialise kaufte. Gefördert von der EU trat er zwei Jahre später mit seinem kleinen belgischen Start-up eine Reise an, die die Welt der Medizin - und des 3D-Drucks - für immer verändern sollte.

Zusammen mit Partnern aus Deutschland und dem Vereinigten Königreich haben Vancraen und Materialise Pionierarbeit bei der Nutzung des 3D-Drucks für medizinische Zwecke erbracht. Auf der Grundlage medizinischer Bilder haben sie zum ersten Mal begonnen genaue Modelle menschlicher Knochen und Organe - Modelle zum Angreifen - herzustellen. Dies war eine große Hilfe für Chirurgen bei der Planung komplexer Eingriffe.

"Schon damals waren wir davon überzeugt, dass 3D-Drucker die medizinische Welt verändern würden", so Vancraen.

Nachdem sich Materialise von einem universitären Spin-off zu einem multinationalen Unternehmen entwickelt hatte, zog sich Vancraen 2024 aus der Führungsposition zurück und wurde Vorsitzender des Unternehmens. Aber er erinnert sich noch lebhaft an die Begeisterung, als sie zur Testung ihrer Ideen vor mehr als 30 Jahren Neuland betraten.

Den Anfang machte eine EU-Förderung für ihr Forschungsprojekt namens PHIDIAS. Es lief drei Jahre lang, bis Ende 1995, und sein Fokus lag auf der Erstellung genauer medizinischer Modelle auf der Grundlage verbesserter medizinischer Bilder, wobei es sich hauptsächlich um Computertomographie (CT) handelte.

"Natürlich erinnere ich mich daran", sagte Vancraen, als er danach gefragt wurde. "Ich war der Projektleiter, ich habe den [Finanzierungs-]Antrag geschrieben und die Partner zusammengebracht".

Dazu gehörten Imperial Chemical Industries aus dem Vereinigten Königreich, dessen Pharmasparte 1993 in ein eigenständiges Unternehmen, Zeneca, umgewandelt wurde, sowie Siemens, der deutsche Industrieriese, der medizinische Bildgebungsgeräte herstellt, und die Universität KU Leuven in Belgien.

Materialise, das aus der KU Leuven hervorging, beschäftigt heute rund 2 000 Mitarbeiter und ist an der Nasdaq-Börse in New York notiert.

Inzwischen ist der 3D-Druck zu einem Eckpfeiler der chirurgischen Gesundheitsversorgung geworden. 3D-Drucker werden regelmäßig zur Herstellung von Implantaten, Prothesen und Körpermodellen von Patienten verwendet, an denen Chirurgen üben können.

Als Materialise gegründet wurde, steckte die Technologie jedoch noch in den Kinderschuhen. Es gab Zweifel, wie nützlich sie sein könnte und ob Ärzte sie für die Behandlung echter Patienten einsetzen könnten.

Am 1. Januar 1993, weniger als drei Jahre nach der Gründung des Unternehmens, wurde die Arbeit ernsthaft aufgenommen.

"Das waren unsere Anfangstage", sagt Vancrean. "Damals hatten wir ein Team von etwa 20 Leuten".

Von der Salamiwurst zum Spiralscan

Für Vancraens Team ging es zunächst darum, die medizinische Bildgebung zu verbessern.

"Damals war die Aufnahme eines CT-Scans wie das Aufschneiden einer Salami", erinnert sich Vancraen. "Um den Scan zu erstellen, machte der Scanner ein Bild von einer Schicht des Körpers des Patienten und wurde dann ein paar Zentimeter nach vorne bewegt, um einen weiteren Scan zu erstellen - so als würde man eine Wurst aufschneiden."

"Jedes Mal, wenn sich der Patient auch nur geringfügig bewegte, kam es zu Problemen im Bild", sagt Vancraen und bezieht sich dabei auf die so genannten Artefakte, unbeabsichtigte Muster oder Verzerrungen in der Abbildung.

Der 3D-Druck erfordert genaue Bilder des Körpers des Patienten. Wenn man zum Beispiel ein Implantat in 3D drucken will, das nahtlos passt, braucht man ein genaues Bild des Körpers des Patienten. Artefakte im Scan bedeuten für den Patienten später medizinische Probleme und Beschwerden.

Aus diesem Grund hat das Team von Materialise die "Salami-Methode" durch einen Spiral-CT-Scan ersetzt. "Wir haben es geschafft, den Patienten in einer einzigen Bewegung zu scannen", sagt Vancraen. "Das CT bewegt sich spiralförmig um den Patienten herum."

Eine weitere Hürde wurde genommen, als Zeneca, das später mit dem schwedischen Arzneimittelhersteller Astra zu AstraZeneca fusionierte, ein menschenverträgliches Polymer entwickelte, das in 3D gedruckt werden konnte. Dieses ersetzte ältere Polymere, die für Menschen oft giftig waren und nicht für Implantate verwendet werden konnten.

Gehen vor Laufen

In dem Bestreben, seine bahnbrechende Technik zu erweitern, brachte Materialise die Technologie in das Universitätskrankenhaus von Leuven, seiner Heimatstadt. Dort testete man in enger Zusammenarbeit mit 30 Chirurgen aus Belgien, Frankreich, Deutschland und den USA, ob Chirurgen tatsächlich vom 3D-Druck profitieren können.

"Wir haben die erste echte klinische Studie zum 3D-Druck im Gesundheitswesen durchgeführt", so Vancraen. Insbesondere half sie den Chirurgen, sich auf komplexe Operationen vorzubereiten.

Das Team verwendete die Laser-Stereolithografie, eine Technik, mit der komplexe, genaue Modelle Schicht für Schicht gedruckt werden. Dabei wird ein ultravioletter Laser mit Hilfe einer computergestützten Design-Software auf ein Harz aus großen Molekülen fokussiert, die für UV-Licht empfindlich sind.

Mit ihren neuen Scannern, die eine bessere medizinische Bildgebung ermöglichen, erstellten die Forscher 3D-gedruckte Modelle von Organen und Körperteilen, an denen die Chirurgen operieren würden. Auf diese Weise konnten sich die Chirurgen darauf vorbereiten, was sie im Körper des Patienten vorfinden würden, und ihr Vorgehen anpassen.

"In mehreren Fällen ist es uns gelungen, die Anzahl der Operationen, denen sich ein Patient unterziehen musste, zu reduzieren", so Vancraen. "Bei einer Person waren drei Operationen geplant. Dank unserer Technologie konnte der Chirurg sie besser planen und den Eingriff tatsächlich in einer einzigen Operation durchführen. Das hat die Belastungen für den Körper des Patienten enorm reduziert."

Durch die Kombination von verbessertem Scannen und Drucken war PHIDIAS das Team, das den Grundstein für zukünftige Fortschritte im medizinischen 3D-Druck legte.

"Wir mussten erst gehen lernen, bevor wir laufen lernen konnten", sagt Vancraen. "PHIDIAS war der Moment, in dem wir gelernt haben, wie man läuft."

Sprungbrett

Einer von den Forschern, die heute bei Materialise tätig sind, ist Roel Wirix-Speetjens, Manager für die medizinische Forschung. Aufbauend auf der Arbeit der PHIDIAS-Forscher entwickelt er neue Lösungen.

"PHIDIAS hat unsere medizinische Abteilung geschaffen", sagt er. "Seitdem haben wir zum Beispiel mehr als 400 000 maßgeschneiderte Knieinstrumente geliefert. Darauf bin ich sehr stolz", sagt er und bezieht sich dabei auf Hilfsmittel, die Chirurgen helfen, genauer zu arbeiten.

In einem Projekt gelang es Materialise, ein detailliertes 3D-Modell der Lunge eines Patienten zu erstellen, einschließlich der Atemwege und der Lungenflügel, also der Abschnitte jeder Lunge. Dieses Modell hilft Chirurgen, die Lungenkrebs entfernen müssen, indem es ihnen erlaubt, die genaue Lage des Tumors zu bestimmen.

"Auf diese Weise wird weniger gesundes Lungengewebe entfernt", sagt Wirix-Speetjens. "Das macht die Genesung des Patienten viel weniger mühsam."

Aber sie entwickeln auch neue 3D-Drucktechnologien. Unter anderem hat Materialise Wege zur Verbesserung der Gesichtschirurgie entwickelt.

Wenn ein Patient beispielsweise eine Verletzung erlitt, die sein Gesicht deformierte, mussten Chirurgen in der Vergangenheit Standardimplantate verwenden, um den beschädigten Knochen und das Gewebe zu ersetzen. Sie mussten die Implantate während der Operation manuell biegen, damit sie sich in die verbleibende Gesichtsstruktur einfügten.

"Heute drucken wir 3D-Implantate, die auf den Patienten zugeschnitten sind", sagt Wirix-Speetjens. "Wir scannen ihre Gesichter und unsere 3D-Drucker stellen komplizierte Implantate her, mit denen die Chirurgen die Gesichtsstruktur rekonstruieren können."

Die Behandlung kann nun auf die Bedürfnisse des Einzelnen abgestimmt werden. PHIDIAS war ein wichtiger Schritt, um dies zu ermöglichen, und es gibt noch viele weitere spannende Möglichkeiten.

"Wir machen das erst seit 34 Jahren", sagt Vancraen. "Ich weiß nicht, wo wir landen werden."


*Dieser Artikel wurde ursprünglich am 21. Jänner 2025 von Tom Cassauwers in Horizon, the EU Research and Innovation Magazine unter dem Titel "From trade fair to advanced surgery: the research project that pioneered 3D printing in medicine"   https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/trade-fair-advanced-surgery-research-project-pioneered-3d-printing-medicine?pk_source=youtube&pk_medium=social_organic&pk_campaign=health-industry" publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt.


From trade fair to advanced surgery: the research project that pioneered 3D printing in medicine. Video: 0,39 min. https://www.youtube.com/watch?v=v283Tjog2Ls

Materialise homepage:https://www.materialise.com/de/


 

inge Fri, 24.01.2025 - 18:23

Biogene Isopren-Emissionen spielen eine wesentliche, bislang unerkannte Rolle auf Wolkenbildung und Klima

Biogene Isopren-Emissionen spielen eine wesentliche, bislang unerkannte Rolle auf Wolkenbildung und Klima

Sa, 18.01.2025 — Redaktion

Redaktion

Icon Klima

Aerosolpartikel in der Atmosphäre kühlen das Klima ab, indem sie das Sonnenlicht direkt reflektieren und als Nukleationskeime für Wasser fungieren, d.i. für die Bildung von Wolken, die auf die Strahlungsbilanz der Erde stark einwirken. Seit der vorindustriellen Zeit haben Veränderungen der atmosphärischen Partikel so einen Teil der Erwärmung maskiert, die durch den Anstieg des Kohlendioxidgehalts verursacht wurde. Der Großteil der Aerosolpartikel entsteht durch die spontane Kondensation von Spurendämpfen, die sogenannte Nukleation. Das biogene, vor allem von tropischen Regenwäldern emittierte Isopren - der häufigste in die Atmosphäre emittierte Nicht-Methan-Kohlenwasserstoff - wurde bislang für seine Fähigkeit zur Aerosolbildung als vernachlässigbar angesehen. Ein multinationales Team hat nun im Rahmen des CERN-Experiments CLOUD festgestellt, dass Isopren die schnelle Keimbildung und das Wachstum von Partikeln in der oberen Troposphäre sehr effizient fördern kann. Es sind dies wichtige Informationen, die in globalen Klimamodellen bislang unterrepräsentiert sind.

Atmosphärische Aerosole - d.i. heterogene Mischungen aus festen oder flüssigen Schwebeteilchen in einem Gas - spielen eine zentrale Rolle auf das Klima, indem sie Sonnenenergie zurückstreuen und als Kondensationskeime für Wasser, d.i. als Wolkenkondensationskeime fungieren. Aerosolpartikel sind mikroskopisch kleine Partikel, die direkt in die Atmosphäre emittiert werden oder durch chemische Reaktionen mit Vorläufersubstanzen entstehen, wie beispielsweise schwefelhaltigen Gasen, die aus vulkanischer Aktivität und Verbrennung stammen.

Die Vorgänge spielen sich in der sogenannten Troposphäre ab. Diese die Erde bis zu einer Höhe von 15 km umhüllende Schicht enthält bis zu 90 Prozent der gesamten Luftmasse und fast den gesamten Wasserdampf der Erdatmosphäre, in dieser Schichte entstehen also Wolken und findet der Wasserkreislauf statt. Die für die Bildung der Partikel verantwortlichen Dämpfe sind noch nicht gut erforscht, insbesondere in der oberen Troposphäre. Weltweit ist der wichtigste Dampf vermutlich die Schwefelsäure, die sich in der Atmosphäre durch Oxidation von Schwefeldioxid bildet, wie es bei der Verbrennung von Brennstoffen freigesetzt wird.

Die Emissionen aus fossilen Brennstoffen haben seit der vorindustriellen Zeit zur Zunahme von Aerosolen und Wolken geführt. Dementsprechend haben diese zu einem Nettoabkühlungseffekt geführt, der etwa die Hälfte der durch den Anstieg des Kohlendioxids verursachten Erwärmung maskieren dürfte. Dies ist aber eine mit großen Unsicherheiten behaftete Schätzung. Sie erschwert die Vorhersage des Klimas in späteren Jahrzehnten, wenn anthropogene Emissionen zurückgegangen sein sollten. Wenn der Schwefeldioxidgehalt durch Emissionskontrollen gesenkt wird, werden aus biogenen Quellen entstandene Aerosolpartikel an Bedeutung gewinnen, die allerdings derzeit in Klimamodellen kaum eingehen.

Isopren als Nukleationskeim

Flugzeugsmessungen seit mehr als 20 Jahren zeigen hohe Konzentrationen frisch gebildeter Aerosol-Partikel in der oberen Troposphäre über dem Amazonas sowie über dem tropischen Atlantik und Pazifik. Jüngste Untersuchungen führen diese Partikel auf das Molekül Isopren zurück, das von Pflanzen, insbesondere tropischen Bäumen emittiert und durch Konvektion in die obere Troposphäre transportiert wird. Nach Methan ist Isopren der am häufigsten emittierte flüchtige Kohlenwasserstoff in der Atmosphäre. Die jährliche Emissionsrate liegt bei 600 Millionen Tonnen (davon allein etwa 163 Mt aus dem tropischen Südamerika) und macht damit mehr als die Hälfte aller biogenen Emissionen flüchtiger organischer Verbindungen aus.

Isopren ist eine wesentliche Komponente unserer gesamten Biosphäre (Formel C5H8: Abbildung 1 oben). Das kleine, hochreaktive flüchtige Molekül wird von Pflanzen - vor allem Laubbäumen wie, Eichen, Pappeln und Eukalyptus - aber auch von Algen in großen Mengen produziert und emittiert. In Pflanzen, Mikroorganismen wie auch in höheren Organismen bilden Isopreneinheiten das Grundgerüst von sogenannten Terpenen und Terpenoiden (oxygenierten Terpenen). Wichtige Terpenoide sind u.a. Vitamin A, Vitamin E, Coenzym Q10, Dolichole, und Squalen, von dem sich Cholesterin, Vitamin D und die Steroide herleiten. Der Cholesterinstoffwechsel führt beim Menschen u.a. zur Ausatmung von Isopren, das mit ca. 17 mg/Tag der am häufigsten vorkommende Kohlenwasserstoff in der Atemluft ist. Es darf nicht unerwähnt bleiben, dass sich zahlreiche Arzneistoffe von Terpenen/Terpenoiden ableiten.

Zurück zur Emission von Isopren durch Pflanzen.

Abbildung 1. Reaktionsschema das aus emittiertem Isopren zu einer Reihe von neuen Partikeln führt, die Nukleationskeime für Aerosole bilden. (Bild: Ausschnitt aus Fig.3 in Curtius et al., 2024; [1]. Lizenz: cc-by)

Isopren aus Wäldern wird nachts durch tiefe konvektive Wolken effizient in die obere Troposphäre transportiert. Bei Tageslicht reagiert das Isopren, das sich über Nacht angesammelt hat, zusammen mit dem tagsüber konvektiven Isopren mit reaktivem Sauerstoff (Hydroxylradikalen) und Stickoxyden (NOx) aus Blitzen, um sauerstoffhaltige organische Isoprenmoleküle (IP-OOM) zu erzeugen. Abbildung 1. Die IP-OOM verbinden sich mit Spuren von Säuren und erzeugen bei Temperaturen unter -30 °C hohe Konzentrationen neuer Partikel.

Die neu gebildeten Partikel wachsen über mehrere Stunden und Tage rasch an, während sie den absteigenden Luftmassen folgen. So kann eine umfangreiche Quelle von Wolkenkondensations-kernen für flache kontinentale und marine Wolken entstehen, die die Strahlungsbilanz der Erde beeinflussen. Wie und welche Partikel entstehen werden im multinationalen CLOUD ("Cosmics Leaving Outdoor Droplets") -Experiment am CERN untersucht.

Das CLOUD-Experiment

untersucht im Labor, wie sich Aerosolpartikel unter atmosphärischen Bedingungen aus reaktiven Gasen bilden und wachsen. Ein internationales Team, bestehend aus 21 Institutionen (u.a. unter Beteiligung der Universitäten Wien und Innsbruck), untersucht in der CLOUD-Kammer mit einer Vielzahl an unterschiedlichen Messgeräten den physikalischen und chemischen Zustand der Teilchen und Gase. Keimbildung und Wachstum von Partikeln werden aus genau kontrollierten Dampfmischungen bei extrem niedrigen Konzentrationen, wie sie in der Atmosphäre vorkommen, ermittelt und auch wie diese (mit einem Teilchenstrahl aus dem CERN Protonen-Synchrotron) durch Ionen aus der galaktischen kosmischen Strahlung beeinflusst werden können.

Abbildung 2. Bildung neuer Partikel aus Isopren in der oberen Troposphäre - schematische Darstellung. Isopren aus Wäldern wird nachts durch tiefe konvektive Wolken effizient in die obere Troposphäre transportiert. Bei Tageslicht reagiert das über Nacht angesammelte Isopren zusammen mit dem tagsüber konvektiven Isopren mit Hydroxylradikalen und NOx aus Blitzen, um sauerstoffhaltige Issoprenmoleküle zu bilden. Diese verbinden sich mit Spuren von Säuren aus der Umgebung und erzeugen bei kalten Temperaturen unter -30 °C hohe Partikelkonzentrationen. Die neu gebildeten Partikel wachsen schnell über mehrere Stunden bis Tage, während sie den absteigenden Luftmassen folgen. Dieser Mechanismus kann eine umfangreiche Quelle von Kondensationskeimen für flache kontinentale und marine Wolken darstellen, die die Strahlungsbilanz der Erde stark beeinflussen. (Bild: Fig. 5 aus Shen et al., 2024; [2]. Lizenz cc-by).

Im CLOUD-Experiment konnte nun erstmals gezeigt werden, dass die von Isopren abstammenden oxidierten organischen Moleküle unter den kalten Bedingungen der oberen Troposphäre – im Bereich von -50 °C – sehr effizient neue Teilchen bilden (typische Teilchen in Abbildung 1). In Gegenwart von geringsten Mengen an Schwefelsäure haben die Nukleationsraten auf das Hundertfache zugenommen und erklären so die hohen beobachteten Teilchenanzahlen in der oberen Troposphäre. Ein eben im Fachjournal Nature erschienener Artikel beschreibt wie die Oxidationsprodukte von Isopren zum schnellen Partikelwachstum beitragen und somit Wolkeneigenschaften und damit das Klima beeinflussen [1].Abbildung 2. In einem parallel erschienenen Artikel in Nature werden die (neu-)identifizierten Mechanismen durch direkte atmosphärische Flugzeugmessungen bestätigt [2].

Das CERN-Experiment CLOUD ergänzt damit Informationen, die in globalen Klimamodellen bislang unterrepräsentiert sind; sie helfen zu verstehen, wie sich die Dinge ändern werden, wenn die Schwefelsäure-Emissionen sinken.


 [1] Curtius, J. et al. Isoprene nitrates drive new particle formation in Amazon’s upper troposphere. Nature (2024). DOI:https://doi.org/10.1038/s41586’024 -08192-4

[2] Shen, J., et al. New particle formation from isoprene under upper tropospheric conditions. Nature (2024). DOI: https://doi.org/10.1038/s41586’024 -08196-0


 

inge Sat, 18.01.2025 - 10:57

Auf dem Weg zu leistungsfähigen Quantencomputern

Auf dem Weg zu leistungsfähigen Quantencomputern

Do, 09.01.2025 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Sie sollen manche Rechnungen etwa beim Design von Windrädern und Flugzeugturbinen, in der Materialentwicklung oder der Klimaforschung einmal viel schneller ausführen als heutige Computer. Daher setzen unter anderem Microsoft, Google und IBM auf Quantencomputer. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über das Garchinger Start-up planqc, eine Ausgründung des Max-Planck-Instituts für Quantenoptik, das 2022 mit einem eigenen technischen Konzept in das Rennen eingestiegen ist. 2027 sollen die ersten Quantenrechner des Unternehmens betriebsbereit sein.*

Leuchtendes Beispiel: Bei der Entwicklung von Quantencomputern nutzt das planqc-Team Laserlicht, um Atome einzufangen und zu manipulieren.

„Sehen Sie die Glaszelle?“, fragt Johannes Zeiher im Labor. Durch ein Labyrinth aus optischen Bauteilen. Durch ein Labyrinth aus optischen Bauteilen, Geräten und Leitungen hindurch kann man eine kleine Quarzglaszelle erspähen. Wäre das Experiment in Betrieb, dann könnte man darin eine Wolke von im Vakuum schwebenden Metallatomen leuchten sehen. Die könnte künftig den Rechenkern eines Quantencomputers bilden und dabei recht ästhetisch anmuten. Derzeit sind verschiedene Techniken im Rennen, mit denen praktisch einsetzbare Quantencomputer manche Probleme künftig viel schneller knacken sollen als heutige Rechner. Auf die Wölkchen gasförmiger Atome setzt das Start-up planqc – der Name ist ein Kunstwort aus „Planck“ und „Quantencomputer“. Johannes Zeiher ist Wissenschaftler am Max-Planck-Institut für Quantenoptik in Garching und einer der Gründer von planqc, einer Ausgründung des Instituts.

Das Start-up richtet sich gerade in einem ehemaligen Baumarkt in Garching ein. Die Wahl sei auf diesen Ort wegen des besonders soliden Tiefgeschosses gefallen, erklärt Sebastian Blatt, Chefentwickler und ebenfalls Gründer von planqc sowie Gruppenleiter am Max-Planck-Institut für Quantenoptik: „So solide Keller baut man heute nicht mehr. Dieser bleibt auch im Sommer kühl, was bei den Stromkosten der Klimaanlage spart.“ Darin wird gerade renoviert und umgebaut. Gleichzeitig entsteht in einem Reinzelt ein Labor, vielmehr die Entwicklungs- und Produktionsstätte künftiger Quantencomputer. Dort befindet sich bereits ein optischer Tisch, der die Ausmaße einer Tischtennisplatte hat und auf dem optische Apparaturen für den planqc-Rechner entwickelt und getestet werden. Darum herum sind sogenannte Racks angeordnet, technische Regale, wie man sie von Computerservern kennt. In ihnen stecken Laser sowie Test- und Messgeräte.

Vorzeigeapparatur: Bei der Eröffnung des Firmensitzes 2024 präsentierte planqc das Design einer Glaszelle. Diese soll den Kern eines Quantenrechners bilden, in dem künftig viele Atome kontrolliert werden

Planqc entwickelt aber nicht nur eine als vielversprechend geltende Technik für einen frei programmierbaren Quantencomputer, sondern auch Rechenvorschriften – Quantenalgorithmen –, die dieser verarbeiten soll. Man kann sich einen Quantenalgorithmus als Analogon zur Software für herkömmliche klassische Computer vorstellen. Da Quantencomputer anders funktionieren als gängige Rechner, können sie möglicherweise einige spezielle Aufgaben schneller lösen. Sie werden klassische Rechner also nicht ersetzen, können sie aber bei manchen Aufgaben ergänzen. Derzeit gibt es allerdings nur wenige Rechenvorschriften für Quantencomputer. Wie vielseitig diese sich einsetzen lassen werden, hängt also auch davon ab, welche Quantenalgorithmen Forschende noch ausklügeln. Deshalb sei das Algorithmen-Team bei planqc wichtig, sagt Sebastian Blatt.

Auf der Suche nach Algorithmen

Die Entwicklung der Algorithmen leitet Martin Kiffner, der von der Universität Oxford zur Firma stieß. „Er ist ein Experte für Quantenalgorithmen, zum Beispiel speziell für die Fluiddynamik“, erklärt Blatt. „Fluiddynamikrechnungen kommen praktisch überall vor. Das ist eines unserer wichtigeren Standbeine in der Algorithmenentwicklung.“ Mit der Fluiddynamik lassen sich etwa die höchst komplexen Luft- oder Wasserströmungen um Turbinenschaufeln berechnen, was auf Computern enorme Rechenleistungen erfordert, aber für die Entwicklung effizienter Generatoren und Triebwerke nötig ist. Hier könnten Quantencomputer künftig Vorteile bringen. Auch die Entwicklung von Materialien werden sie möglicher weise beschleunigen, vor allem wenn es um Materialien geht, auf deren Quanteneigenschaften es ankommt – zum Beispiel solche für extrem empfindliche Sensoren oder neuartige Halbleiterelektronik. Denn gerade Quantencomputer dürften Quanteneigenschaften besonders effizient simulieren. Darüber hinaus könnten sie komplizierte chemische Verbindungen, etwa neue medizinische Wirkstoffe, berechnen. Manche Fachleute setzen auch darauf, dass die Rechner Logistikrouten optimieren werden oder Muster im atmosphärischen Geschehen besser erkennen und so die Wetter- und Klimavorhersagen verfeinern. Diese Anwendungen existieren bislang allerdings lediglich als Konzepte, von denen aktuell noch nicht klar ist, ob sie sich verwirklichen lassen.

Deshalb diskutiert das planqc-Team auch mit Industrievertretern, bei welchen Aufgaben Quantencomputer ihren Geschwindigkeitsvorteil ausspielen könnten. „Solche Kontakte helfen uns, zu verstehen, welche Anwendungen von Quantencomputern für die Wirtschaft interessant sind“, sagt Blatt. Erfahrung beim Brückenschlag zwischen Quantenphysik und Wirtschaft bringt Alexander Glätzle mit, der Dritte im Gründungstrio und Geschäftsführer von planqc. Er kommt aus der theoretischen Quantenphysik, hat unter anderem an der Universität von Oxford geforscht und wechselte 2018 in die Wirtschaft, wo er als Berater in der Kommerzialisierung von Quantentechnologien arbeitete. Dass einerseits so große Hoffnungen in Quantencomputer gesetzt werden, ihre Einsatzmöglichkeiten andererseits aber erst noch erforscht werden müssen, liegt daran, wie sie zu ihrer Rechenkraft kommen [Wengenmayr, 2022]. Die Technik des planqc-Rechners beruht darauf, dass sich vor allem Alkalimetallatome wie etwa Rubidium und Lithium sowie Erdalkalimetalle wie Strontium in einer geschickten Kombination aus Laserlicht und Magnetfeldern einfangen lassen.

Wenn Sebastian Blatt das Konzept vorstellt, stößt er gelegentlich auf Skepsis: „Das ist ja kein richtiger Computer, denn da gibt es ja gar keinen Chip“, bekomme er manchmal zu hören. Viele Gesprächspartner haben eine von der aktuellen Technik geprägte Vorstellung von Computerprozessoren. Dazu passen zwei Ansätze besser, die mit der planqc-Technik konkurrieren, weil es bei diesen echte Computerchips gibt. Einer dieser Ansätze nutzt als Qubits supraleitende Stromkreise, in denen also Strom bei sehr tiefen Temperaturen ohne Widerstand fließt. Daran forschen zum Beispiel IBM, Google oder das finnische Start-up IQM, das eine Niederlassung in München hat. In einem weiteren Konzept führen Ionen, sprich: elektrisch geladene Atome, die auf einem Chip in einem geschickt geformten elektrischen Feld, einer sogenannten Paul-Falle, gefangen werden, quantenlogische Operationen aus. Wie bei den elektrisch neutralen Atomen, mit denen planqc arbeitet, werden die ionischen Qubits mit Laserstrahlen angesteuert und manipuliert.

Robuste Geräte nach Industrienormen

Von dem Ansatz, den planqc verfolgt, erhofft sich das Unternehmen, dass sich in den Lichtgittern vergleichsweise leicht eine größere Zahl von Atomen, sprich Qubits, zu einem Quantenprozessor vereinen lassen. Zur Entwicklung dieses Gebiets hat die langjährige Grundlagenforschung am Max-Planck-Institut für Quantenoptik beigetragen. Auf den Ergebnissen dieser Forschung aufbauend, wurde 2022 planqc gegründet. Johannes Zeiher, der weiterhin auch Grundlagenforschung betreibt, erklärt seine persönliche Motivation so: „Für mich ist klar, dass neutrale Atome eine vielversprechende Technologie für Quantencomputer sind. Daher sollten wir erste Schritte gehen, um das Anwendungspotenzial solcher Maschinen zu untersuchen.“ Zudem bringe der intensive Austausch zwischen kommerzieller Entwicklung und Grundlagenforschung auch Letztere voran. „In der Grundlagenforschung entwickeln wir sozusagen Prototypen, die frei von kommerziellen Zwängen auf bestimmte Bereiche hin optimiert sind“, erklärt Zeiher. „Die bringen ab und zu Durchbrüche und eröffnen etwas ganz Neues.“ Auf der Basis dieser Erkenntnisse entwickelt planqc robuste kommerzielle Geräte, die auch alle Industrienormen erfüllen. Solche zuverlässigen Geräte hofft Zeiher später auch im Grundlagenlabor einsetzen zu können.

Design eines Quantenprozessors: Das planqc-Team verwendet gasförmige, aber sehr kalte Atome als Qubits. In einem optischen Gitter aus gekreuzten Laserstrahlen setzen sich die Atome an die Gitterpunkte wie Eier in einen Eierkarton. Ebenfalls mithilfe von Laserlicht führt das Team logische Operationen mit den Atomen aus. Die Ergebnisse der Rechnungen liest ein optischer Sensor aus und speist siein herkömmliche Elektronik ein. So baut planqc einen Quantencomputer als Koprozessor herkömmlicher Großrechner am Leibniz-Rechenzentrum auf.

Planqc wächst im Quantenbiotop des Munich Quantum Valley heran. „Wir sind die erste Ausgründung im Munich Quantum Valley“, sagt Sebastian Blatt. Als Vorzeigeprojekt wird planqc auch von der Bundesregierung gefördert, und zwar über eine Kooperation mit dem Deutschen Zentrum für Luft- und Raumfahrt, kurz DLR. Für das große Interesse an dem Garchinger Start-up sorgt auch das „Handlungskonzept Quantentechnologien“ der Bundesregierung. „Darin steht, dass man gerne bis Ende 2026 einen digitalen Quantencomputer mit hundert Quantenbits hätte“, sagt Blatt: „Und das einzige kommerzielle Projekt in Deutschland mit demselben Ziel ist eines, an dem wir zusammen mit dem DLR arbeiten.“ Dieses Projekt heißt DiNAQC, das Akronym steht für „Europas ersten Digitalen Neutral-Atom-Quantencomputer“. Für den Bau des Demonstrators mit zunächst hundert Quantenbits erhält planqc 30 Millionen Euro. Die Apparatur soll im Frühjahr 2027 beim DLR in Ulm in Betrieb gehen, also kaum später, als es das sehr ambitionierte politische Handlungskonzept vorsieht. An diesem Quantencomputer sollen erste Quantenalgorithmen für praktische Anwendungen ausprobiert werden. „Wir machen dort auch die ersten Schritte in Richtung Quantenfehlerkorrektur“, erläutert Blatt.

Miniaturisierte Quantenrechner

Ein Korrekturmechanismus ist beim Quantenrechnen nötig, da Quanteninformation extrem empfindlich gegen kleinste Störungen ist. Sie muss aufwendig stabilisiert und auf Fehler geprüft werden. Zur Stabilisierung dient der Trick, jeweils mehrere physikalische Qubits, bei planqc sind es die Atome, zu logischen Qubits zusammenzufassen. Passiert ein Fehler in einem physikalischen Qubit, kann die Quantenrechnung trotzdem weiterlaufen. Zur Fehlerkorrektur führt man Hilfsqubits ein, die als Sensoren für Störungen dienen – wie Kanarienvögel im Bergwerk. Solange eine Quantenrechnung läuft, dürfen die beteiligten logischen Qubits nämlich nicht auf Fehler überprüft werden, sonst bricht die Rechnung ab. Dank der Fehlermeldungen der Hilfsqubits kann das Resultat jedoch hinterher korrigiert werden. So benötigt ein Quantencomputer letztlich Zigtausende oder sogar Millionen von physikalischen Qubits. Bislang füllt die Technik mit den optischen Geräten und Vakuumkammern, die ein planqc-Rechner benötigt, ganze Labore. Miniaturisierung ist deshalb ein Ziel des zweiten Großprojekts von planqc, das vom Bundesforschungsministerium mit 20 Millionen Euro gefördert wird. Darin baut das Start-up gemeinsam mit dem Max-Planck-Institut für Quantenoptik am Leibniz-Rechenzentrum in Garching bis Ende 2027 ein Gerät namens MAQCS, kurz für „Multikern Atomare Quantencomputing Systeme“. Dieser Rechner soll schon tausend Neutralatome als Quantenbits besitzen und gewissermaßen als Koprozessor in den dortigen konventionellen Großcomputer integriert werden, und zwar platzsparend in kompakte Racks. „Wir wollen auch die Vakuumkammer mit den Atomen in solch ein Rack hineinbringen“, erklärt Blatt: „Wir machen hier Ingenieursarbeit!“ Entsprechend benötigt planqc auch Ingenieure. „Die Firma muss jetzt wachsen, um die Projekte zeitgerecht zu schaffen.“ Da trifft es sich gut, dass das Start-up, das aktuell insgesamt rund fünfzig Mitarbeitende hat, im Sommer 2024 weitere Millionen Euro an privatem Risikokapital eingeworben hat. So kommt es aktuell auf eine Finanzierung von 87 Millionen Euro – die Anteile an den beiden Großprojekten eingerechnet.

Ob letztlich die neutralen Atome in optischen Gittern, supraleitende Schaltkreise oder aber Ionen in Paul-Fallen das Rennen um einen praktisch einsetzbaren Quantencomputer machen werden, ist derzeit noch offen. Das meint auch Piet Schmidt von der Physikalisch-Technischen Bundesanstalt in Braunschweig. Dort entwickelt der Physikprofessor extrem präzise optische Atomuhren, welche ebenfalls auf Ionen in Paul-Fallen basieren. „Technologisch teilen wir mit dem Quantencomputer dieselbe Plattform“, erklärt Schmidt, Er ist Mitgründer des deutschen Start-ups Qudora, das kommerzielle Quantencomputer auf Basis von Ionen in Paul-Fallen entwickelt – ein Konkurrent von planqc also. Von den Fortschritten bei den Neutralatomen ist Piet Schmidt beeindruckt, er meint aber auch: „Das wird sich verlangsamen, die profitieren jetzt von bereits in den anderen Gebieten entwickelten Technologien.“ Angesichts des Ziels, viele Tausend, Zehntausend und mehr Qubits zu kontrollieren, sieht er noch enorme technische Herausforderungen bei allen drei Techniken. Bei den supraleitenden Qubits liegt ein ungelöstes Problem darin, dass die Schaltkreise extrem viele Kabel benötigen, die gute Wärmeleiter sind. Diese transportieren Wärme aus der Umgebung in den Kryostaten, der als Hightech-Thermoskanne den supraleitenden Chip kühlen soll. Wie trotzdem eine große Zahl von Qubits gekühlt werden kann, ist noch unklar. Hinzu kommen Probleme, aus dem supraleitenden Material, derzeit Aluminium, möglichst gleichartige Schaltkreise zu fabrizieren. Damit sich Ionen für Quantenrechnungen nutzen lassen, müsste nach Schmidts Ansicht die Miniaturisierung noch Fortschritte machen. Bislang können nämlich nicht genug optische und elektronische Komponenten in die Fallenchips integriert werden. Auch gelingt es bislang nicht, viele Ionen in einer Falle zu fangen. Mehrere Fallenchips zu koppeln, könnte hier ein Ausweg sein. Bei den Neutralatomen in optischen Gittern sieht Schmidt eine Hürde, die nach einem technischen Detail klingt, aber trotzdem noch genommen werden muss: Die Hilfsqubits müssen sich während der Rechnung noch schneller auslesen lassen, um die Fehlerkorrektur zu ermöglichen.

Und die Zukunftsaussichten? Piet Schmidt macht sich, so wie viele Forschende, Sorgen wegen des Hypes um den Quantencomputer. Der hat in Politik und Wirtschaft sehr hohe Erwartungen geweckt. Eine langfristige Förderpolitik muss Start-ups jedoch genug Zeit einräumen, damit sie Quantencomputer Schritt für Schritt kommerzialisieren können. „Ich war allerdings kürzlich bei Kollegen in den USA, in Harvard und am MIT, die zum Teil auch ihre eigenen Start-ups haben“, sagt er: „Die sind angesichts der derzeitigen Fortschritte sehr optimistisch.“ Planqc platziert seine Technik jedenfalls schon am Markt: „Natürlich kann jeder bei uns einen Quantencomputer kaufen“, betont Sebastian Blatt. Von einer Massenproduktion sei das Unternehmen jedoch noch weit entfernt, allein schon deshalb, weil die Computer von Stück zu Stück noch weiterentwickelt werden. „Sobald wir eines Tages einen Computer gebaut haben, den die Kunden in großer Stückzahl haben möchten“, sagt Sebastian Blatt, „würde planqc natürlich auch den Schritt zur Massenproduktion gehen."


* Der eben im Forschungsmagazin 4/2024 der Max-Planck Gesellschaft unter dem Titel "Rechnen mit Atomen" erschienene Artikel https://www.mpg.de/23934242/W006_Physik-Astronomie_068-073.pdf wird - mit Ausnahme des Titels, einigen Änderungen im Abstract und ohne das Gruppenfoto - in unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


 Quantencomputer im ScienceBlog

Roland Wengenmayr, 03.10.2024: Künstliche Intelligenz: Vision und Wirklichkeit.

Roland Wengenmayr, 09.03.2023: Laser - Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten.

Roland Wengenmayr, 07.07.2022: Was Quantencomputer in den nächsten Jahren leisten können.


inge Thu, 09.01.2025 - 15:49

2024

2024 inge Thu, 04.01.2024 - 01:13

Gesteigerte Produktion von Elektrofahrzeugen könnte unerwünschte Verschmutzungsschwerpunkte schaffen

Gesteigerte Produktion von Elektrofahrzeugen könnte unerwünschte Verschmutzungsschwerpunkte schaffen

Sa, 28.12.2024 — IIASA

IIASA Logo

Icon Klima

Die Umstellung auf Elektrofahrzeuge ist eine zentrale Strategie zur Reduzierung der Schadstoffemissionen und damit zu einem Grundpfeiler der globalen Energiewende geworden. Ein sehr rascher Anstieg der Produktion von E-Autos kann allerdings aufgrund der emissionsintensiven Erzeugung von kritischen Batteriematerialien - insbesondere auf Nickel- und Kobaltbasis - in der Nähe von Produktionszentren zu Hotspots von Umweltverschmutzung führen. Eine aktuelle Studie der Princeton University und des International Institute of Applied Science Analysis (IIASA) zeigt mögliche derartige Umweltauswirkungen auf China und Indien, zwei der am schnellsten wachsenden Märkte für Elektrofahrzeuge.*

Abbildung. Hotspots der Erzeugung von emissionsinensiven Batteriematerialien.

Mit dem Fokus auf Indien und China haben Forscher in der jüngst in der Zeitschrift Environmental Science & Technology veröffentlichten Studie festgestellt, dass dort die nationalen Schwefeldioxidemissionen (SO2) um bis zu 20 % über das derzeitige Niveau ansteigen könnten, sofern die Länder ihre Lieferketten für Elektrofahrzeuge vollständig inländisch gestalten würden [Sharma et al., 2024]. Der überwiegende Teil dieser SO2-Emissionen käme aus der Raffinierung und Produktion von Nickel und Kobalt - wichtigen Mineralien für die heutigen Batterien von Elektrofahrzeugen.

"Viele Diskussionen über Elektrofahrzeuge konzentrieren sich auf die Minimierung der Emissionen aus dem Verkehrs- und Energiesektor", sagt der korrespondierende Autor Wei Peng, Assistenzprofessor für öffentliche und internationale Angelegenheiten sowie für das Andlinger Center for Energy and the Environment an der Princeton University. "Wir zeigen hier aber, dass die Auswirkungen von Elektrofahrzeugen nicht bei den Auspuffemissionen der Fahrzeuge oder bei der Elektrizität enden. Es geht auch um die gesamte Beschaffungskette."

Die Forscher argumentieren, dass die Länder bei der Entwicklung von Dekarbonisierungsplänen strategisch über den Aufbau sauberer Lieferketten nachdenken müssen.

Was die Batterieproduktion betrifft, betonte das Team die Wichtigkeit der Entwicklung und Durchsetzung strenger Luftverschmutzungsnormen, um unbeabsichtigte Folgen der Umstellung auf Elektrofahrzeuge zu vermeiden. Die Forscher haben auch die Entwicklung alternativer Batterien-Chemie vorgeschlagen, um die prozessbedingten SO2-Emissionen bei der Herstellung heutiger Batterien zu vermeiden.

"Wenn man sich tief genug in eine saubere Energietechnologie vertieft, wird man feststellen, dass es Herausforderungen oder Kompromisse gibt", sagt die Erstautorin Anjali Sharma, die die Arbeit als Postdoktorandin in Pengs Gruppe abgeschlossen hat und jetzt Assistenzprofessorin am Zentrum für Klimastudien und am Ashank Desai Centre for Policy Studies am Indian Institute of Technology in Bombay ist. "Die Existenz dieser Kompromisse bedeutet nicht, dass wir die Energiewende stoppen müssen, aber es bedeutet, dass wir proaktiv handeln müssen, um diese Kompromisse so weit wie möglich abzumildern."

Eine Geschichte von zwei Ländern

Sowohl China als auch Indien haben gute Gründe, SO2-Emissionen zu vermeiden: Die Verbindung ist ein Vorläufer von Feinstaub und trägt zu einer Reihe von Herz-Kreislauf- und Atemwegsproblemen bei. Die beiden Länder leiden bereits unter einer hohen Luftverschmutzung. Allein im Jahr 2019 waren rund 1,4 Millionen vorzeitige Todesfälle in China und rund 1,7 Millionen vorzeitige Todesfälle in Indien auf die Feinstaubbelastung zurückzuführen.

Die beiden Länder befinden sich jedoch in unterschiedlichen Entwicklungsstadien für Elektrofahrzeuge. In China ist eine inländische Erzeugungskette für Elektrofahrzeuge der Status quo, während Indien noch im frühen Stadium der Entwicklung von solchen Ketten steckt. Der Vergleich hat den Forschern geholfen, kurzfristige Prioritäten zu identifizieren, während sie an Aufbau und Fortsetzung einer inländischen Lieferkette für Elektrofahrzeuge arbeiten.

"Unsere Ergebnisse deuten darauf hin, dass Indien sich auf die Verringerung der Emissionen des Energiesektors konzentrieren sollte, während China der Verringerung der Emissionen aus der Raffinierung von Batteriematerialien Vorrang einräumen sollte, um die Umweltauswirkungen der Umstellung auf Elektrofahrzeuge abzumildern", bemerkt der Mitautor der Studie, Pallav Purohit, Senior Researcher Scholar in der Pollution Management Research Group des IIASA Energy, Climate, and Environment Program.

In Indien wäre es am einfachsten, sich zunächst auf die Beseitigung der Verschmutzung durch den Energiesektor zu konzentrieren. Dazu müssten strenge Maßnahmen zur Kontrolle der SO2-Verschmutzung in Wärmekraftwerken durchgesetzt werden, wobei ausgereifte Technologien wie die Rauchgasentschwefelung zum Einsatz kämen. In China, wo es bereits strenge Emissionskontrollen für den Energiesektor gibt, muss der Schwerpunkt auf die Verringerung der SO2-Emissionen aus dem Batterieherstellungsprozess verlagert werden, mit dem die Forscher weniger vertraut sind.

Den Forschern zufolge wäre es jedoch ein entscheidender Fehler die Emissionen aus der Batterieherstellung zu ignorieren. In Szenarien, in denen China und Indien ihre Lieferketten vollständig auslagern, trug die Priorisierung eines saubereren Netzes wenig bis gar nicht zur Senkung der SO2-Emissionen bei. Stattdessen konnten nur Szenarien, die sich auf die Säuberung von Batterieherstellungsprozessen konzentrierten, SO2-Verschmutzungs-Hotspots vermeiden.

"Die Menschen gehen im Allgemeinen davon aus, dass der Übergang zu einer umweltfreundlicheren Technologie immer eine Win-Win-Situation ist - es wird Vorteile für das Klima und die Luftqualität geben", so Sharma. "Aber wenn man die Produktion nicht berücksichtigt, kann es sein, dass man zwar die Kohlenstoff- und Stickoxidemissionen senkt, aber die Luftverschmutzung in den Gemeinden in der Nähe der Produktionszentren erhöht."

Menschenzentrierte Ansätze zur Dekarbonisierung

Die Analyse konzentrierte sich zwar auf China und Indien, doch die Forscher argumentieren, dass die Umweltverschmutzung durch die Batterieherstellung mit der zunehmenden Verbreitung von Elektrofahrzeugen zu einem immer größeren globalen Problem werden wird, wenn man nichts dagegen tut. Selbst wenn Länder wie China und Indien die Batterieherstellung auslagerten, würden sie ohne Strategien zur Verringerung der SO2-Emissionen das Problem einfach auf ein anderes Land abwälzen.

"Es ist wichtig, Elektrofahrzeuge aus der Perspektive der globalen Lieferkette zu betrachten", sagt Sharma. "Selbst wenn Indien sich gegen den Aufbau einer inländischen Lieferkette entscheidete und stattdessen die Fahrzeuge aus anderen Ländern importierte, würde die Verschmutzung nicht verschwinden. Sie würde einfach in ein anderes Land verlagert werden."

Neben ihrer politischen Empfehlung für proaktive Luftverschmutzungsnormen, die wahrscheinlich auf nationaler oder subnationaler Ebene erfolgen würden, haben die Forscher auch untersucht, wie eine Änderung der Batteriechemie in Elektrofahrzeugen unerwünschte SO2-Emissionen auf globalerer Ebene vermeiden könnte.

Während die meisten Elektrofahrzeugbatterien heute auf Kobalt und Nickel basieren, könnten mit dem Aufkommen alternativer chemischer Systeme, die Eisen und Phosphat verwenden (so genannte Lithium-Eisenphosphat-Batterien), einige der mit dem Abbau und der Raffinierung von Kobalt und Nickel verbundenen Probleme umgangen werden. Durch den Verzicht auf die beiden Mineralien führten Szenarien mit einem hohen Verbreitungsgrad von Lithium-Phosphat-Batterien zu deutlich weniger SO2-Emissionen bei der Herstellung.

In jedem Fall stellen die Ergebnisse des Teams eine Mahnung dar, bei der Entwicklung von Dekarbonisierungsplänen die Menschen im Auge zu behalten, da selbst die vielversprechendsten Technologien unerwünschte und unbeabsichtigte Folgen haben können.

"Saubere Energietechnologien sind zwar vielversprechend, aber sie haben auch potenzielle Nachteile. Diese sollten uns jedoch nicht davon abhalten, eine nachhaltige Zukunft anzustreben, sondern uns vielmehr dazu motivieren, ihre negativen Auswirkungen abzuschwächen", schließt Koautor Fabian Wagner, Principal Research Scholar in den Forschungsgruppen Pollution Management und Transformative Institutional and Social Solutions des IIASA Energy, Climate, and Environment Program.


 Sharma, A., Peng, W., Urpelainen, J., Dai, H., Purohit, P., Wagner, F. (2024). Multisectoral Emission Impacts of Electric Vehicle Transition in China and India. Environmental Science & Technology Vol 58, Issue 44 DOI: 10.1021/acs.est.4c02694


 *Der Artikel " Increase in electric vehicles could create unwanted pollution hotspots" ist am 20.Dezember 2024 auf der IIASA-Website erschienen. (https://iiasa.ac.at/news/dec-2024/increase-in-electric-vehicles-could-create-unwanted-pollution-hotspots). Der unter einer cc-by-nc-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Der Themenschwerpunkt:Klima und Klimawandel

im ScienceBlog enthält bereits mehr als 50 Artikel, die sich vor allem mit Klimamodellen und den Folgen des Klimawandels bis zu Strategien seiner Eindämmung befassen.


 

inge Sat, 28.12.2024 - 16:42

Eine erste weltweite Karte der Klimagefahrenzonen

Eine erste weltweite Karte der Klimagefahrenzonen

Do, 28.11.2024 — IIASA

IIASA Logo

Icon Klima

In einer neuen Studie haben Wissenschafter des IIASA und der Columbia University festgestellt, dass bestimmte Regionen der Erde von extremen Temperaturen durchwegs stärker betroffen sind, als es die modernen Klimamodelle für die gegenwärtige Erwärmung vorausgesagt haben. Die Studie liefert die erste weltweite Karte dieser regionalen Klimagefahrenzonen.*

Angesichts der kontinuierlichen Zunahme der Durchschnittstemperaturen in den letzten Jahrzehnten wirft der jüngste Anstieg rekordverdächtiger extremer Hitzewellen die Frage auf, inwieweit Klimamodelle adäquate Schätzungen der Beziehungen zwischen Veränderungen der globalen Durchschnittstemperatur und regionalen Klimarisiken liefern können. Die Studie, die soeben im Fachjournal Proceedings of the National Academy of Sciences (PNAS) veröffentlicht wurde, liefert die erste weltweite Karte der Hochrisikogebiete [1].

"Es geht hier um extreme Trends, die das Ergebnis physikalischer Wechselwirkungen sind, die wir noch nicht ganz verstehen dürften", erklärt Kai Kornhuber, Ersttautor der Studie und Themenleiter für Wetterextreme und Klimadynamik im IIASA-Programm Energie, Klima und Umwelt. "Diese Regionen werden zu temporären Treibhäusern". Kornhuber ist auch Assistenzprofessor für Klima an der Columbia Climate School.

In der Studie werden die Hitzewellen der letzten 65 Jahre untersucht und Gebiete identifiziert, in denen die extreme Hitze deutlich schneller zunimmt als die typischen Temperaturen der warmen Jahreszeit insgesamt. Dies führt häufig zu Höchsttemperaturrekorden, die wiederholt gebrochen wurden. Diese extremen Hitzewellen sind vor allem in den letzten fünf Jahren schlagend geworden, wenngleich einige bereits in den frühen 2000er Jahren oder davor auftraten.

Zu den am stärksten betroffenen Regionen gehören Zentralchina, Japan, Korea, die arabische Halbinsel, Ostaustralien sowie Teile Südamerikas und die Arktis. Das intensivste und beständigste Signal kommt jedoch aus Nordwesteuropa, wo eine Folge von Hitzewellen zu rund 60 000 Todesfällen im Jahr 2022 und zu 47 000 im Jahr 2023 beitrug. Diese ereigneten sich unter anderem in Deutschland, Frankreich, dem Vereinigten Königreich und den Niederlanden. Abbildung.

Im September dieses Jahres wurden in Österreich, Frankreich, Ungarn, Slowenien, Norwegen und Schweden neue Höchsttemperaturrekorde aufgestellt. Auch in vielen Teilen des Südwestens der Vereinigten Staaten und in Kalifornien wurden bis weit in den Oktober hinein Rekordtemperaturen gemessen.

Abbildung. Veränderungen im Bereich der Höchsttemperaturen zwischen 1958 und 2022.( Lizenz cc-by-nc)

In diesen Regionen steigen die Extremtemperaturen schneller an als die durchschnittlichen Sommertemperaturen, und zwar in einem Tempo, das weit über dem liegt, das die modernen Klimamodelle in den letzten Jahrzehnten vorausgesagt haben. Das Phänomen tritt jedoch nicht überall auf; die Studie zeigt, dass der Temperaturanstieg in vielen anderen Regionen geringer ausfällt, als die Modelle vorhersagen würden. Dazu gehören weite Gebiete im nördlichen Zentrum der Vereinigten Staaten und im südlichen Zentrum Kanadas, innere Teile Südamerikas, große Teile Sibiriens, Nordafrikas und Nordaustraliens.

"In den meisten Gebieten werden die heißesten Tage des Jahres etwa gleich schnell warm wie typische Sommertage, was das vorherrschende Signal des Klimawandels ist, und in einigen Gebieten sogar langsamer. In den von uns aufgezeigten Hotspots haben sich die heißesten Tage jedoch besonders schnell erwärmt, was verschiedene Ursachen haben könnte. An manchen Orten könnten bestimmte Wettermuster, die eine Hitzewelle auslösen, häufiger auftreten, oder das Austrocknen des Bodens könnte die heißesten Temperaturen verstärken - es wird wichtig sein, diese spezifischen lokalen Faktoren zu entschlüsseln", sagt Koautor Samuel Bartusek, Doktorand an der Columbia University.

"Aufgrund ihrer beispiellosen Charakteristik sind diese Hitzewellen in der Regel mit schwerwiegenden gesundheitlichen Folgen verbunden und können katastrophale Auswirkungen auf die Landwirtschaft, die Vegetation und die Infrastruktur haben", ergänzt Kornhuber. "Wir sind nicht darauf vorbereitet und können uns möglicherweise nicht schnell genug anpassen."

Diese Studie ist ein wichtiger erster Schritt zur Bewältigung der sich abzeichnenden Risiken durch extreme und noch nie dagewesene Hitze, indem Regionen identifiziert werden, die in der Vergangenheit mit einem rasch ansteigenden Risiko konfrontiert waren, und indem quantifiziert wird wieweit Modelle fähig sind diese Signale zu simulieren.

--------------------------------------------------------------------------------

[1] Kai Kornhuber, Samuel Bartusek, Richard Seager and Mingfang Ting: Global emergence of regional heatwave hotspots outpaces climate model simulations. PNAS 121,49. December 3, 2024, https://doi.org/10.1073/pnas.2411258121 (cc-by-nc-nd)


 *Der Artikel " Mapping the world's climate danger zones" ist am 26.November 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/nov-2024/mapping-worlds-climate-danger-zones). Der unter einer cc-by-nc-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Der  Themenschwerpunkt: Klima und Klimawandel im ScienceBlog

enthält bereirs mehr als 50 Artikel, die sich vor allem mit Klimamodellen und den Folgen des Klimawandels bis zu Strategien seiner Eindämmung befassen.


 

inge Thu, 28.11.2024 - 00:26

Von ägyptischen Katzenmumien zu modernen Haustieren

Von ägyptischen Katzenmumien zu modernen Haustieren

Fr, 22.11.2024 — Redaktion

Redaktion

Icon Molekularbiologie

Um Einblicke in die bereits sehr lange Beziehung zwischen Katzen und Menschen zu gewinnen, analysiert das EU-finanzierte Projekt FELIX archäologische Proben von Katzen, die aus der Zeitspanne von vor 10 000 Jahren bis hin zum 18. und 19. Jahrhundert und von archäologischen Stätten in Europa, dem Nahen und Mittleren Osten und Nordafrika stammen. Das Projekt konzentriert sich dabei auf drei fundamentale Bereiche, die stark vom Vorgang der Domestizierung beeinflusst werden: Auf Genome, Ernährung und Mikroorganismen. Die Arbeit von FELIX wird einen neuen Blickwinkel auf die Debatte über die Domestizierung von Tieren und die einzigartigen biologischen und ökologischen Besonderheiten bieten, die die Domestizierung von Katzen und deren weltweite Verbreitung geprägt haben.*

Egal ob verehrtes Symbol antiker Zivilisationen, Schädlingsbekämpfung auf vier Beinen oder Lieblingshaustier – unsere Verbindung zur Hauskatze reicht viele tausend Jahre zurück. Trotz dieser langen Beziehung ist jedoch nur sehr wenig darüber bekannt, welche biologischen und kulturellen Entwicklungen hinter dem Aufkommen der Interaktionen zwischen Katze und Mensch im Laufe der Zeit stehen.

Diese Wissenslücke soll nun vom EU-finanzierten Projekt FELIX [1, 2] geschlossen werden, indem mittels modernster bioarchäologischer Methoden die Überreste von mehr als 800 Katzen vergangener Zeiten untersucht werden. Die Proben stammen aus dem Zeitraum von vor 10 000 Jahren bis ins 18. und 19. Jahrhundert. Sie wurden aus archäologischen Stätten in Europa, dem Nahen und Mittleren Osten sowie Nordafrika entnommen. Das von der Universität Tor Vergata in Rom koordinierte,  2021 begonnene Projekt wir bis 31. März 2026 dauern.

Katzenbesitzer, die mit der rätselhaften und unabhängigen Natur ihrer geliebten Haustiere vertraut sind, wird es wahrscheinlich nicht überraschen, dass Wissenschaftler herausgefunden haben, dass der Domestikationsprozess von Katzen im Vergleich zu anderen Tieren recht ungewöhnlich verlaufen ist.

"Katzen sind in gewisser Weise wirklich seltsam, weil sie sich stark an den Menschen angepasst haben, ohne dabei ihr Wesen wirklich zu verändern", sagt Dr. Claudio Ottoni, Paläogenetiker von der Universität Tor Vergata in Rom. "Selbst körperlich unterscheiden sich Wildkatzen und Hauskatzen nicht sehr. Katzen waren in der Evolution sehr erfolgreich und haben sich sehr gut an die menschliche Nische angepasst, was faszinierend ist."

Antike DNA

Ottoni, der mit Hilfe alter DNA die Vergangenheit von menschlichen und tierischen Populationen rekonstruiert, leitet das EU Projekt Felix. Das internationale Forschungsteam, dem führende Experten für Paläontologie, Archäozoologie und Molekularbiologie aus Museen und akademischen Instituten in ganz Europa angehören, analysiert über 1 300 archäologische Proben von Katzen aus einigen der wichtigsten Museumssammlungen.

Durch die Extraktion der genetischen Daten aus diesen alten Überresten von Katzen wollen die Forscher die einzigartigen biologischen und umweltbedingten Einflüsse rekonstruieren, welche die Domestizierung der Katze geprägt haben, und das Auftreten von Hauskatzen auf der ganzen Welt nachverfolgen.

Hightech-Analyse

Um das Risiko einer DNA-Kontamination zu minimieren, arbeiten die Forscher in spezialisierten Einrichtungen und testen Katzenproben mit modernsten molekularbiologischen Techniken, die es ihnen ermöglichen, genetische Informationen zu extrahieren und zu analysieren.

Winzige Knochen- und Zahnfragmente werden zu einigen Milligramm Pulver zermahlen, aus dem die DNA extrahiert und in "genomische Bibliotheken" umgewandelt wird - eine Sammlung sich überlappender DNA-Fragmente, die zusammen die gesamte genomische DNA eines einzelnen Organismus bilden. Die genetische Information wird dann mit Hilfe der leistungsstarken Next-Generation-Sequenzierung entschlüsselt - einer Gensequenzierungstechnologie, die es ermöglicht, große Datenmengen sehr schnell zu verarbeiten. Unterstützt werden die Forscher dabei von der Recheninfrastruktur des Cineca, einer der europäischen Großforschungseinrichtungen und einem der weltweit leistungsfähigsten Supercomputing-Dienstleister. Diese hochentwickelte Technologie ermöglicht es den Forschern, biologische Systeme auf einem bisher unerreichten Niveau zu untersuchen und wird es auch leichter machen, Muster genetischer Mutationen über die Zeit hin zu erkennen, die die verschiedenen Stadien der Domestizierung von Katzen anzeigen.

"Auf diese Weise können wir feststellen, ob ein alter Knochen zum Beispiel zu einer europäischen Wildkatze oder zu einer afrikanischen oder nahöstlichen Wildkatze gehört, die der Vorfahre der modernen Hauskatze ist", sagt Ottoni.

Fischen nach Hinweisen

Es wird auch untersucht, wie sich die Ernährung der Katze in Verbindung mit dem Menschen verändert hat, indem stabile Isotope, chemische Marker der alten Ernährung und Zahnstein analysiert werden. Schließlich wird das Vorhandensein von pathogenen Mikroorganismen in alten Katzen untersucht und wie die Beziehung zwischen Mensch und Katze die Übertragung bestimmter Infektionskrankheiten auf den Menschen (Zoonosen) bestimmt hat.

Die Forscher setzen ausgefeilte Techniken ein, die auf der chemischen Analyse von Kollagen, dem am häufigsten vorkommenden Protein in Knochen, basieren, um zu untersuchen, wie sich die Ernährung der Katzen im Laufe der Zeit entwickelt hat. Wann haben sie zum Beispiel begonnen, Fisch zu fressen, weil die Fischer sie mit den Resten ihres Fangs fütterten? So kann man sich ein Bild davon machen, wie sich die Domestizierung der Katze entwickelt hat [3].

Abbildung 1: . Ägyptische Katzenmumien könnten neue Informationen über die Abstammung unserer Katzen-Partner liefern. ©Andrea Izzotti, Shutterstock.com

Auf Grund der weitverbreiteten Ikonographie von Katzen und der Entdeckung von Katzenmumien (Abbildung 1), die als Opfergaben für die Götter gedacht waren, haben Wissenschafter über lange Zeit geglaubt, dass die Domestizierung der Katze im alten Ägypten ihren Ausgang genommen hat. Die Entdeckung der antiken Grabstätte eines jungen Mannes und einer Katze auf Zypern - im neolithischen Dorf Shillourokambos - im Jahr 2004 deutete jedoch darauf hin, dass Katzen bereits vor 11 000 Jahren domestiziert worden sein könnten.

Die von Ottoni und seinen Kollegen durchgeführte DNA-Analyse hofft, dieses Geheimnis zu lüften. Die bisherigen Ergebnisse deuten darauf hin, dass die Verbindung zwischen den europäischen Hauskatzen und den Menschen in Nordafrika begann und möglicherweise mit den Römern, die über das Mittelmeer Handel trieben, nach Europa kam.

"Wenn alles vor etwa 10 000 Jahren begonnen hat, würden wir erwarten, dass die Katzen bald darauf nach Europa gebracht wurden, so wie es bei Schweinen und anderen Haustieren finden", sagt Ottoni. "Unsere DNA-Analyse zeigt jedoch, dass die Katzen in Europa damals noch Wildkatzen waren und erst viel später, vor etwa 2 500 Jahren, genetisch von der domestizierten Katzenart abstammen."

Wie diese verschiedenen Zentren der Katzendomestikation zusammenwirkten, kann jedoch erst geklärt werden, wenn die Analyse des Genoms der alten Katzen - des Bauplans, der alle Informationen über Wachstum, Entwicklung und Funktion eines Organismus enthält - abgeschlossen ist.

Das geheime Leben der Katzenmumien

In den letzten zwei Jahren der Studie werden die Forscher die genetischen Geheimnisse ihrer großen Sammlung ägyptischer Katzenmumien entschlüsseln. Sie wollen die DNA dieser Katzen mit der DNA moderner Hauskatzen und mit der DNA von antiken Katzenresten vergleichen, die bereits in Europa analysiert wurden.

Abbildung 2: Professor Wim van Neer analysiert Schädel von Katzenmumien aus den Gräbern von Beni Hassan in Ägypten. © Bea De Cupere, RBINS

Das Forscherteam wird mit ägyptischen Katzenmumien arbeiten, die aus verschiedenen Sammlungen in ganz Europa stammen, darunter aus dem Naturhistorischen Museum in Wien, dem Musée des Confluences in Lyon, dem Natural History Museum und dem British Museum in London sowie dem Naturhistorischen Museum in Warschau.

Professor Wim Van Neer, ein renommierter belgischer Archäo-Zoologe am Königlichen Belgischen Institut für Naturwissenschaften in Brüssel, ist eng in diesen Teil der Forschung eingebunden. Er hat selbst Katzenmumien in Ägypten ausgegraben und verfügt über praktische Erfahrungen, die in seine Forschung einfließen. Abbildung 2.

"Als ich sechs vollständige Katzenskelette in einem 6 000 Jahre alten ägyptischen Grab ausgrub, konnte ich zeigen, dass diese Tiere zwar gezähmt, aber nicht vollständig domestiziert waren", so van Neer. "Diese Funde liegen mehr als 2 000 Jahre vor den frühesten Nachweisen von Hauskatzen im pharaonischen Ägypten. Ich frage mich immer noch, ob diese frühen Versuche, Katzen zu kontrollieren, schließlich zur Domestizierung führten."

Eine der Herausforderungen für die Forscher ist die mögliche Beschädigung der DNA durch den Mumifizierungsprozess. Van Neer hofft, dass die hochentwickelte Sequenzierungstechnologie, die ihnen jetzt zur Verfügung steht, dazu beitragen wird, diese potenzielle Hürde zu überwinden und weitere Einzelheiten über die faszinierende Reise der Hauskatze vom Wildtier zum Couch-Begleiter zu enthüllen.

"Ich sehe, wie viel die Menschen über ihre Katzen wissen wollen. Dieses Projekt wirft ein Licht darauf, wie die Beziehung des Menschen zur Katze begann - und wo", so Ottoni.


[1] EU-Projekt: Genomes, food and microorganisms in the (pre)history of cat-human interactions. https://cordis.europa.eu/project/id/101002811/de DOI  10.3030/101002811

[2] Neue Erkenntnisse über den zweitbesten Freund des Menschen: https://cordis.europa.eu/article/id/445553-gaining-new-insight-into-man-s-second-best-friend/de

[3] Brozou, A., Fuller, B.T., De Cupere, B. et al. A dietary perspective of cat-human interactions in two medieval harbors in Iran and Oman revealed through stable isotope analysis. Sci Rep 13, 12316 (2023). https://doi.org/10.1038/s41598-023-39417-7


* Dieser Artikel wurde ursprünglich am 31. Oktober 2024 von Ali Jones in Horizon, the EU Research and Innovation Magazine unter dem Titel "Tracing the journey from Egyptian cat mummies to modern house pets" - "https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/tracing-journey-egyptian-cat-mummies-modern-house-pets" - publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und durch einige Sätze aus der Homepage des Projekts [1, 2] ergänzt.


Cat domestication: From farms to sofas. Nature Video, 3:27 min. https://www.youtube.com/watch?v=SgZKFVaSDRw

Project Repository Journal: The feline enigma: exploring the origins, dispersal and evolution of domestic cats. https://edition.pagesuite.com/html5/reader/production/default.aspx?pubname=&edid=ed873552-5d35-420b-a949-90ae295e058b&pnum=70


 

inge Sat, 23.11.2024 - 00:32

Wie das Gehirn von Abfallstoffen gereinigt wird

Wie das Gehirn von Abfallstoffen gereinigt wird

Do 14. 11.2024— Christian Wolf

Christian Wolf

Icon Gehirn

Das Gehirn ist rund um die Uhr aktiv. Dabei fällt viel Müll an. Um diesen zu beseitigen, haben unsere grauen Zellen eine eigene Putzkolonne, die wir noch gar nicht so lange kennen: Das sogenannte glymphatische System nutzt die Hirnflüssigkeit, die durch Kanäle und Zellzwischenräume im Gehirn fließt, um Stoffwechselprodukte und Toxine aufzunehmen und abzutransportieren. Schlaf fördert möglicherweise die Effizienz des Reinigungssystems: Zellzwischenräume im Gehirn vergrößern sich während des Schlafs, was eine bessere Abfallentsorgung ermöglicht. Einige Forschungsergebnisse stellen diese Rolle des Schlafs allerdings in Frage.*

Die Putzkolonne im Gehirn

Das Gehirn gleicht ein wenig einem modernen Firmengebäude. Die Hirnregionen sind dabei die einzelnen Abteilungen. In jedem gut funktionierenden Bürokomplex braucht es ein effizientes Reinigungssystem, um alles sauber zu halten. Auch das Gehirn hat eine eigene Reinigungscrew, die dafür sorgt, dass der Laden reibungslos läuft.

Im restlichen Körper entfernt das Lymphsystem überschüssige Flüssigkeit, Abfallstoffe, Zelltrümmer, Krankheitserreger und andere unerwünschte Substanzen aus den Geweben. Doch wie wird das Gehirn seinen Müll los? Diese Frage ist nicht ganz unwichtig, da das Gehirn einen besonders aktiven Stoffwechsel hat. Entsprechend fällt auch einiges an Abfallprodukten an.

Der Fluss des Liquors

Bis vor kurzem glaubten Forscher, das Gehirn habe kein eigenes Lymphsystem, das die Reinigung übernimmt. Über ein Jahrhundert lang nahm man an, der Fluss des Liquors, der Hirnflüssigkeit, übernehme diese Funktion. Die Hirnflüssigkeit umgibt Gehirn und Rückenmark, schützt sie vor Stößen und transportiert Nährstoffe zu den Nervenzellen – und Substanzen von diesen weg. Abbildung 1 (von Redn. eigefügt).

Abbildung 1. Die Hirnflüssigkeit (Liquor) wird in den Hirnkammern (Ventrikeln) gebildet, fließt in den Raum zwischen der mittleren Hirnhaut (Arachnoidea) und der inneren Hirnhaut (Pia mater). Von hier aus umspült der Liquor das Gehirn und absteigend als Rückenmarksflüssigkeit das Rückenmark. (Bild: Advanced Anatomy 2nd. Ed. Copyright © 2018 by PHED 301 Students.Lizenz:cc-by-nc-nd.)

Zwar verspottet man Menschen, die nicht ganz so helle sind, gerne als Hohlköpfe. Doch tatsächlich sind wir im Grunde alle Hohlköpfe, denn tief in seinem Inneren ist das Gehirn tatsächlich hohl. Das liegt am Ventrikelsystem, einem Netzwerk miteinander verbundener Hohlräume, in denen sich die Hirnflüssigkeit befindet. Diese Ventrikel produzieren den Liquor und verteilen ihn.

Forscher gingen nun davon aus, dass sich von Nervenzellen und Gliazellen produzierte Abfallstoffe und Stoffwechselprodukte in der Hirnflüssigkeit sammeln und mit dieser in einer Art passivem Transport entfernt werden. Der Haken an dieser These: Dieser Vorgang wäre viel zu langsam, um eine effektive Müllabfuhr zu bilden. Es muss demnach anders laufen.

Das feinkörnige Bild

Erst 2012 entdeckten Forscher um die dänische Neurowissenschaftlerin Maiken Nedergaard vom University of Rochester Medical Center, dass das Gehirn ein eigenes Abfallentsorgungssystem besitzt – ähnlich dem Lymphsystem im restlichen Körper. Sie nannten es das "glymphatische System". Der Name setzt sich aus „Glia“ und „lymphatisch“ zusammen, da Gliazellen darin eine wichtige Rolle spielen. Das glymphatische System ist ein fließendes Durchlaufsystem zum Abtransport von überflüssigen und schädlichen Stoffen, bei dem auch der Liquor eine wichtige Rolle spielt. Abbildung 2 (von Redn. eigefügt).

A Das glymphatische System - Zufluss, Austausch Liquor(CSF) - Interstitielle Flüssigkeit( ISF) und Abfluss: Der Zufluss von Liquor in das Gehirn erfolgt über die para-arteriellen Bahnen und wird dann mit der ISF ausgetauscht. Der gemischte Liquor und der ISF mit den interstitiellen Stoffwechselabfällen fließen in die paravenösen Bahnen und von dort in das Lymphgefäßsystem. AQP4: Wasserkanäle . (Bild: Quan Jiang, MRI and glymphatic system. https://doi.org/10.1136/svn-2018-000197 cc-by-nc )

Im Rahmen der Abfallentsorgung fließt der Liquor durch verschiedene Räume im Gehirn. Dazu gehören winzige Kanäle, die parallel zu den Blutgefäßen verlaufen. Sie befinden sich zwischen den Blutgefäßen und dem umgebenden Gewebe.

Anschließend tritt die Hirnflüssigkeit in das Hirngewebe ein. Hier kommen die Gliazellen, genauer Astrozyten, ins Spiel. Diese Hirnzellen besitzen wasserleitende Kanäle in ihren Endfüßchen. Durch diese Kanäle wird der Liquor in die Zellzwischenräume des Gehirngewebes verteilt, also in den Bereich, der nicht von Blutgefäßen, Nervenfasern oder Zellen eingenommen wird.

Das Entscheidende ist nun: Während die Hirnflüssigkeit durch das Hirngewebe fließt, nimmt sie Abfälle auf, die durch den Zellstoffwechsel entstehen. Wie schon die Originalstudien von Maiken Nedergaard und ihren Kollegen 2012 deutlich machten, gehört dazu Beta-Amyloid. Dieses Eiweiß genießt einen schlechten Ruf. Denn die Ansammlung und Ablagerung des Proteins wird mit der Entstehung der Alzheimer-Erkrankung in Verbindung gebracht. Schließlich wird der Liquor samt Abfallstoffen entlang der Venen wieder abtransportiert. Klappt der Abtransport von Stoffen wie Beta-Amyloid nicht gut, könnte das möglicherweise dieEntstehung von neurodegenerativen Erkrankungen wie Alzheimer begünstigen.

Warum wir schlafen

Quasi nebenbei hat Maiken Nedergaard mit ihrer Forschung zum glymphatischen System auch einen möglichen Grund dafür gefunden, warum wir überhaupt schlafen. Wie wichtig guter Schlaf ist, fällt uns in der Regel dann auf, wenn er uns fehlt. War die Nacht mal wieder viel zu kurz, schlägt das nicht nur auf die Stimmung. Meist sind wir dann geistig nicht voll auf der Höhe. Den genauen Grund dafür kennt die Wissenschaft nicht.

Einer der Funktionen von Schlaf könnte darin liegen, dass das Gehirn währenddessen den eigenen Haushalt auf Vordermann bringt. Wie Maiken Nedergard 2013 in einer Studie an Mäusen belegen konnte, wird offenbar im Zuge des Schlummerns am meisten Müll abtransportiert. Der Zwischenraum zwischen den Zellen im Gehirngewebe nahm während des Schlafs durch Schrumpfung der Zellkörper um bis zu 60 Prozent zu.

Verantwortlich dafür ist unter anderem Noradrenalin, ein Botenstoff, der das Wachheitsniveau reguliert. Er scheint gleichzeitig die Größe des Zellzwischenraums zu steuern. Noradrenalin-vermittelte Signale verändern offenbar das Zellvolumen und verkleinern dadurch den Raum zwischen den Hirnzellen. Hemmten Nedergaard und ihre Kollegen diese Signale medikamentös, vergrößerte sich der Zwischenraum zwischen den Zellen. Das führte zu einer effizienteren Beseitigung von Abfallprodukten ähnlich wie im Schlaf.

Der naheliegende Vorteil von größeren Zellzwischenräumen während des Schlafs: Durch mehr Platz zwischen den Zellen kann die Hirnflüssigkeit besser zirkulieren und die Abfallstoffe effizienter abtransportieren. Tatsächlich wurde Beta-Amyloid in der Untersuchung von Nedergaard aus den Gehirnen schlafender Mäuse doppelt so schnell beseitigt wie bei wachen Mäusen. Ein weiterer Vorteil: Der Schlaf ermöglicht es dem glymphatischen System, intensiver zu arbeiten. Denn die Energie, die im Gehirn sonst für kognitive und andere Leistungen draufgeht, steht dann für die Reinigung des Gehirns zur Verfügung. In einer Untersuchung von 2019 kam Nedergaard zu dem Ergebnis, dass vor allem im Tiefschlaf die Abfallentsorgung auf Hochtouren läuft: „Schlaf ist entscheidend für die Funktion des Abfallbeseitigungssystems des Gehirns“, sagt sie in einer Pressemitteilung. „Und diese Studie zeigt, je tiefer der Schlaf ist, desto besser."

Müllabfuhr: Im Schlaf wirklich effektiver?

Allerdings stellte kürzlich eine Studie infrage, ob Schlaf wirklich dazu dient, die Abfallentsorgung zu unterstützen. Nick Franks, Professor für Biophysik und Anästhesie am Imperial College London, und seine Kollegen kamen genau zu dem gegenteiligen Ergebnis: Stoffe im Gehirn von Mäusen wurden während des Schlafs nicht etwa stärker beseitigt – der Abtransport war sogar deutlich vermindert. "Die Idee, Schlaf könne das Gehirn von Stoffwechselprodukten befreien, war verlockend", sagt Nick Franks. Aber die Daten, die dies untermauern sollten, seien meist indirekt gewesen. "Man hat gemessen, wie schnell bestimmte Nachweismoleküle in das Gehirn gelangten. Und hat dies als Ersatz für das, was hinausging, angesehen.“ Seine eigenen Daten seien direkter. Tatsächlich hatten die Wissenschaftler um Franks Markermoleküle ins Gehirn injiziert und gemessen, wie schnell sie wieder austraten. Schlaf und Narkosemittel hemmten die Ausscheidung. "Daher ist es unwahrscheinlich, dass die Ausscheidung von Stoffwechselprodukten der Hauptgrund dafür ist, dass wir schlafen müssen."

Ob im Schlaf wirklich der Großputz stattfindet, ist also nicht ganz klar. Dafür häufen sich die Belege, dass das Gehirn tatsächlich über eine eigene Putzkolonne verfügt. Ähnlich wie ein modernes, gut funktionierendes Firmengebäude.


-Zum Weiterlesen

  • Hablitz , L.M. et al.: Increased glymphatic influx is correlated with high EEG delta power and low heart rate in mice under anesthesia. In: Sci Adv 2019 Feb 27;5(2):eaav5447. 
  • Miao , A. et al.: Brain clearance is reduced during sleep and anesthesia. In: Nat Neurosci 2024 Jun;27(6):1046-1050.

 * Der Artikel von Christian Wolf ist unter dem Titel " Die Putzkolonne im Gehirn" auf der Webseite www.dasGehirn.info am 1.Mai 2024 erschienen (https://www.dasgehirn.info/die-putzkolonne-im-gehirn). Der Artikel steht unter einer cc-by-nc-sa Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen; zur Visualisierung wurden 2 Abbildungen eingefügt.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


 Artikel zum Thema im ScienceBlog:

Redaktion, 19.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.

Inge Schuster, 12.02.2024: Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum.


 

inge Thu, 14.11.2024 - 07:25

Wie wirkt eine ketogene Diät gegen Autoimmunerkrankungen?

Wie wirkt eine ketogene Diät gegen Autoimmunerkrankungen?

Mo, 11.11.2024 — Redaktion

Redaktion

Icon Nahrung

Ernährung und dadurch bedingte Veränderungen des Darm- Mikrobioms haben Auswirkungen auf diverse Autoimmunerkrankungen. Eine neue Untersuchung an einem Mausmodell der Multiplen Sklerose (MS) analysiert nun die komplexen Interaktionen zwischen Wirt und Mikrobiom und erklärt, wie eine ketogene Diät vor der Erkrankung schützt: Der Diät-bedingt im Wirtsorganismus entstehende Ketonkörper b-Hydroxybuttersäure (b-HB) ist notwendig und selbst ausreichend, um Inzidenz und Schwere der Erkrankung zu reduzieren. Zudem regt b-HB ein Darmbakterium zur Produktion des Stoffwechselprodukts Indol-Milchsäure (ILA) an, welches die für MS charakteristischen Entzündungsrektionen blockiert. Falls sich diese Ergebnisse auf den Menschen übertragen lassen, könnte anstelle einer restriktiven Keto-Diät Supplementierung von b-HB direkt zur Behandlung von Autoimmunkrankheiten eingesetzt werden.

Ketogene Diäten werden zwar bereits seit mehr als hundert Jahren klinisch angewandt, um epileptische Anfälle vor allem bei therapieresistenten (jugendlichen) Patienten zu kontrollieren, ihre Popularität hat aber erst in den letzten Jahrzehnten sprunghaft zugenommen. Keto-Diäten verhelfen zur Gewichtsabnahme, zeigen vielversprechende Auswirkungen u.a. auf das metabolische Syndrom, auf Entzündungen, Krebserkrankungen und können das Mikrobiom vorteilhaft verändern. Wie Langzeitstudien an Kindern und jungen Erwachsenen gezeigt haben, ist eine kohlenhydratreduzierte ketogene Diät offensichtlich gesundheitlich unbedenklich.

Seit mehr als 10 Jahren mehren sich die Berichte, wonach ketogene Diäten die Symptome von Autoimmunkrankheiten - darunter Multiple Sklerose (MS), entzündliche Darmerkrankungen, rheumatoide Arthritis und auch Diabetes -verbessern. Ob die Wirkung dieser Ernährungsform über den Wirt und/oder das Mikrobiom zustande kommt, war bislang unklar. Ein vorwiegend von der Universität San Francisco (UCSF) stammendes Forscherteam konnte nun diese Frage an Hand eines allgemein akzeptierten Modells für Autoimmunerkrankungen aufklären und damit möglicherweise den Weg zu einer erfolgversprechenden Therapie dieser Krankheiten bereiten [Alexander et al., 2024].

Abbildung 1: Ketogene Diät: viel Fett, aureichend Protein, sehr wenig Kohlenhydrate (Bild: Mohamed_hassan, gemeinfrei)

Eine Schlüsselrolle spielt der Metabolit b-Hydroxybuttersäure, der diätbedingt in höherer Menge im Wirtsorganismus produziert wird und über eine Veränderung des Darm-Mikrobioms zu einer verringerten Aktivierung des Immunsystems führt.

Der folgende Abschnitt gibt eine kurze Information zu diesem Metaboliten.

Was macht eine ketogene Diät aus?

In der Normaldiät liefern kohlenhydratreiche Lebensmittel wie Brot, Nudeln, Reis, Süßwaren und Obst den primären Energielieferanten im Zellstoffwechsel, die Glukose. Bei einer täglichen Zufuhr von 2000 kcal werden im Mittel 275 g Kohlenhydrate aufgenommen. (Abbildung 1, rechts oben).

Die Keto-Diät schränkt solche Lebensmittel sehr stark ein, erlaubt aber ausreichende Proteinzufuhr und nahezu unbegrenzten Verzehr von Fett. (Abbildung 1, rechts unten.) Werden einem Erwachsenen täglich weniger als 50 g Kohlenhydrate zugeführt, so reicht dies nicht mehr aus, um den Organismus mit Glukose zu versorgen und dieser schaltet den Stoffwechsel um und gewinnt Energie aus der Fettsäure-Oxidation (Lipidoxidation).

Der als Ketogenese bezeichnete Prozess

findet in den Mitochondrien vor allem der Leber- und Darmepithelzellen statt; er ist in Abbildung 2 vereinfacht dargestellt: Aus den Fettsäuren entstehen aktivierte Essigsäure (Acetyl-CoA) und in einer Reihe von Folgereaktionen drei sogenannte Ketonkörper: Acetoacetat, Aceton und b-Hydroxybuttersäure. Geschwindigkeitsbestimmend für die Umsetzung ist das Enzym HMG-CoA Synthase. Die wasserlöslichen Ketonkörper Acetoacetat und b-Hydroxybuttersäure treten in den Blutkreislauf ein und dienen praktisch allen Zellen als Energielieferanten. Darüber hinaus zeigen sie weitreichende Auswirkungen auf das Immunsystem; u.a. unterdrücken sie Entzündungsreaktionen und modifizieren die Funktion von T-Zellen (Th17-Zellen).

Abbildung 2: Von der Fettsäureoxidation zu den Ketonkörpern (lila) Acetoacetat, Aceton und  b-Hydroxybuttersäure . Stark vereinfachte Darstellung. Rote.Pfeile: Enzymreaktionen. HMG-CoA-Synthase katalysiert den geschwindigkeitsbestimmenden Schritt. Schwarzer Pfeil: spontane , nichtenzymatische Reaktion.

Von der Keto-Diät zur Entdeckung von zwei Schlüsselsubstanzen zur Therapie von Autoimmunerkrankungen

Die hier berichtete Studie des Forscherteams um Peter J. Turnbaugh (University San Francisco) wurde an einem Mausmodell der experimentellen Autoimmun-Enzephalomyelitis (EAE) durchgeführt [Alexander et al., 2024]. Dabei wird die Krankheit durch Immunisierung mit einem Peptid hervorgerufen, das zu autoimmuner Demyelinisierung der Nervenfasern führt. Unter allen Modellen der Multiplen Sklerose spiegelt dieses Modell deren Autoimmunpathogenese am besten wider und wird weltweit in der Forschung aber auch in der Entwicklung von Therapien am häufigsten verwendet.

Schlüsselrolle von b-Hydroxybuttersäure

Wie erwartet reduzierte die Keto-Diät (KD: 90,5 % Fett, 0 % Kohlenhydrate, 10 % Protein) die Schwere und die Inzidenzrate der Erkrankung im Vergleich zur Kontrollgruppe (HFD: mit zu KD abgestimmten Zutaten 75 % Fett, 15 % Kohlenhydrate, 9,5 % Protein), die zwar einen hohen Fettanteil aufwies aber auch ausreichend Kohlenhydrate, um nicht auf Ketogenese umzuschalten. Abbildung 3 A, B. In der KD-Gruppe war dagegen die b-Hydroxybuttersäure im Blut auf das rund Fünffache erhöht und die für EAE charakteristischen Immunzellen und Entzündungsfaktoren stark reduziert.

Ein völlig überraschendes Ergebnis der Studie war, dass Supplementierung der Kontrollgruppe (HFD-Mäuse) allein mit b-Hydroxybuttersäure(-ester: KE))  ausreicht, um eine mit der Keto-Diät vergleichbar starke Reduktion der EAE zu erzielen (Abbildung 3 C,D).

Bei transgenen Mäusen, deren HMG-CoA-Synthase (siehe Abbildung 2) ausgeschaltet ist und, die daher nicht in der Lage sind b-Hydroxybuttersäure im Darm zu produzieren, erweist sich die Keto-Diät als wirkungslos - die Tiere entwickeln eine der Kontrollgruppe gleichende schwere Krankheit (Abbildung 3 E,F).

Abbildung 3: In einem Mausmodell für Multiple Sklerose reduziert ketogene Diät Schwere und Inzidenzrate der Erkrankung. A, B: Vergleich Ketogene Diät (KD) versus nicht-ketogene Diät (HFD). C, D Supplementierung der nicht-ketogenen Diät (HFD) mit b-Hydroxybuttersäure (ester) führt zu vergleichbar hohem Schutz wie die ketogene Diät. E, F: Ketogene Diät zeigt bei transgenen Tieren (Hmgcs2IEC, die auf Grund der ausgeschalteten HMG-CoA-Synthase keine b-Hydroxybuttersäure produzieren können, keine Schutzwirkung wie der Wildtyp (Hmgcs2WT). G,H: Bei keimfreien (d.i. ohne Mikrobiom gezüchteten) Mäusen kannt die Keto-Diät trotz gesteigerter b-Hydroxybuttersäure Produktion den Krankheitsverlauf nicht positiv beeinflussen. (Daten sind Mittelwerte ± SEM; jeder Punkt stammt von einer einzelnen Maus. Bilder stammen aus Figures 1, 2, 3 in Alexander et al., 2024, Lizenz cc-by.)

b-Hydroxybuttersäure wirkt über das Mikrobiom

Im Gegensatz zu "nomalen" Tieren zeigte die Keto-Diät bei keimfrei - d.i. ohne Mikrobiom - gezüchteten (GF) Mäusen keinerlei Auswirkungen auf Schwere und Inzidenz der EAE (Abbildung 3 G, H), obwohl diese Tiere mehr als fünffach erhöhte b-Hydroxybuttersäure-Spiegel aufwiesen. Offensichtlich war also das Darm-Mikrobiom notwendig, um b-Hydroxybuttersäure wirksam werden zu lassen.

Um herauszufinden, wie dieser Metabolit das Darmmikrobiom beeinflusst, isolierte das Forscherteam Bakterien aus den Därmen von Mäusen, die mit der Keto-Diät, der fettreichen HF-Diät oder der mit der b-Hydroxybuttersäure supplementierten HF-Diät gefüttert wurden und untersuchten jede dieser Gruppen auf Stoffwechselprodukte. Es stellte sich heraus, dass die positiven Auswirkungen der Keto-Diät auf einen Typ der Lactobacíllus Species - Lactobacillus murinus - zurückzuführen waren. L. murinus produziert Indol-Milchsäure (ein Abbauprodukt der Aminosäure Tryptophan). Dieser Metabolit unterdrückt die Funktion bestimmter T-Zellen (Th17), die u.a. den für die Pathogenese von MS charakteristischen Entzündungsfaktor IL-17 produzieren.

Schlussendlich behandelten die Forscher die Mäuse anstelle der Keto-Diät direkt mit dem Keim L.murinus oder mit dessen Metabolit Indol-Milchsäure und konnten feststellen, dass dies die Tiere in gleicher Weise vor EAE schützte, wie die Keto-Diät oder der Wirtsmetabolit b-Hydroxybuttersäure.

Abbildung 4 fasst die erfolgversprechenden Auswirkungen der Keto-Diät auf das Modell der multiplen Sklerose zusammen.

Abbildung 4: Zwei Verbindungen bestimmen die neuroprotektive Wirkung der ketogenen Diät: Die durch die Diät im Wirtsorganismus erzeugte Hydroxybuttersäure (HB), die wiederum das Darmmikrobiom zugunsten von Produzenten der Indol-Milchsäure (ILA) verändert, welche Entzündungsreaktionen des Immunsystems unterdrückt. (Bild stammt aus Alexander et al., 2024, Lizenz cc-by.)

Fazit

Ketogene Diät schützt vor einer Autoimmunerkrankung in einer Mikrobiom-abhängigen Weise.

Der durch die Diät vom Wirtsorganismus erzeugte Metabolit b-Hydroxybuttersäure ist für die Schutzwirkung notwendig und alleine ausreichend.

b-Hydroxybuttersäure verändert die Diversität des Mikrobioms zugunsten von Bakterien, die Indol-Milchsäure produzieren; dieser bakterielle Metabolit unterdrückt entzündungsfördernde Immunzellen (Th17) und trägt so zur neuroprotektiven Wirkung bei.

Falls sich diese Ergebnisse auf den Menschen übertragen lassen, könnte anstelle einer restriktiven Keto-Diät Supplementierung von b-Hydroxybuttersäure direkt zur Behandlung von Autoimmunkrankheiten eingesetzt werden. Die Wirkung könnte möglicherweise durch zusätzliche Gabe von Indol-Milchsäure verstärkt werden.

---------------------------------

Anmerkung der Redaktion: b-Hydroxybuttersäure wird tatsächlich durch ketogene Diät im Menschen massiv hochreguliert!

Vor 9 Monaten wurde im ScienceBlog über eine randomisierte klinische Untersuchung berichtet, in der die Auswirkungen von ketogener Diät und veganer Diät auf Stoffwechsel, Immunsystem und Mikrobiom mit Hilfe eines Multiomic Anatzes verglichen wurden (Redaktion, 16.02.2024). Von den insgesamt im Plasma erfassten 860 Stoffwechselprodukten (Metaboliten) waren 131 bei ketogener Ernährung hochreguliert. Von allen strukturell identifizierten Metaboliten war b-Hydroxybuttersäure am stärksten hochreguliert (mittlere relative Plasmaspiegel bei Normaldiät 1,29, bei Keto-Diät 5,36 und bei veganer Diät bei 0,30. (Link V.M et al, 22024, Supplementary Information: Table 5)).


Alexander et al., 2024, A diet-dependent host metabolite shapes the gut microbiota to protect from autoimmunity. Cell Reports, 114891. https://doi.org/10.1016/j.celrep.2024.114891

Redaktion, 16.02.2024: Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt.

Link, V.M., Subramanian, P., Cheung, F. et al. Differential peripheral immune signatures elicited by vegan versus ketogenic diets in humans. Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2


 

 

 

inge Tue, 12.11.2024 - 01:10

Die Problematik von "Do Your Own Research" und "Believe in Science"

Die Problematik von "Do Your Own Research" und "Believe in Science"

Do,31.10.2024 — Ricki Lewis

Ricki Lewis

Icon Politik & Gesellschaft

Der Slogan "Do Your Own Research" (DYOR) wurde in den 1990er Jahren von dem US-Verschwörungstheoretiker Milton William Cooper geprägt. DYOR, das für „Mach' Deine eigene Recherche“ steht, d.i. sich selbst zu informieren, anstatt alles zu glauben, was man liest, wurde zum geflügelten Wort in der Kryptoszene und in den 2010er Jahren häufig von Impfgegnern im Internet verwendet. Während der COVID-Pandemie zeigten sich dann die negativen Auswirkungen von DYOR, eine Überfülle von selbst-recherchierten Fehlinformationen online und offline nährte Gerüchte und Verschwörungstheorien: das Misstrauen gegenüber wissenschaftlichen Institutionen und staatlichen Maßnahmen zur Eindämmung der Pandemie wuchs und wurde politisch instrumentalisiert, es wurden etablierte Beweise für die Wirksamkeit von Impfstoffen negiert, und insgesamt eine noch immer anhaltende globale Anti-Impf-Bewegung ausgelöst. Die Genetikerin Ricki Lewis zeigt die Problematik von DYOR auf, die heute zumeist bedeutet, dass mit Hilfe von Suchmaschinen Informationen gefunden werden, die bestätigen, was man bereits für wahr hält, aber auch von "Believe in Science", da Emotionen in der Wissenschaft fehl am Platze sind.*

Während der Pandemie haben wir uns an unsere Entscheidungsträger gewandt, um aktuelle Informationen über die beispiellose, sich rasch verschlechternde Situation zu erhalten. Als die Tage dann zu Wochen wurden, die Kranken vor den Krankenhäusern der Stadt Schlange standen, flehten wir nach Informationen. Doch vieles davon kam in einer unbekannten Sprache, in der Sprache der Virologie und Immunologie, der öffentlichen Gesundheit und der Epidemiologie.

In jenen frühen Tagen waren Politiker und Regierungsbeamte, die Begriffe wie "Zytokinsturm" und "RNA-Virus" noch nie gehört hatten, plötzlich gefordert, zu erklären, was vor sich ging. Zum Glück meldeten sich sachkundige Stimmen zu Wort. Experten trafen sich regelmäßig mit Wissenschaftsjournalisten und lieferten technische Updates, die wir in unsere Artikel, Blogbeiträge, Podcasts und andere Kommunikationsmittel einfließen ließen.

"Do Your Own Research" fördert wissenschaftlichen Analphabetismus

COVID hat das Mantra DYOR - Do your own research - zu neuem Leben erweckt. "Der Satz "Mach' Deine eigene Recherche" scheint heutzutage allgegenwärtig zu sein, oft von Leuten geäußert, die "Mainstream"-Wissenschaft nicht akzeptieren, von Verschwörungstheoretikern und vielen, die sich als unabhängige Denker aufspielen. Oberflächlich betrachtet scheint das legitim zu sein. Was kann daran falsch sein, Informationen zu suchen und sich eine eigene Meinung zu bilden?"[1]

Allerdings "Recherche/Forschung" zu betreiben, indem man auswählt, was man liest, sieht oder hört, ist überhaupt nicht dasselbe wie die Forschung, die Wissenschafter betreiben. Forscher achten nicht nur auf die Daten, die ihre Hypothesen unterstützen - in der Wissenschaft geht es vielmehr darum, Hypothesen zu verwerfen, weiter zu denken und neue Experimente zu designen, um etwas in der Natur zu untersuchen. In der Wissenschaft geht es um Daten, nicht um "Inhalte".

Die Quellen schreiben den Ursprung von DYOR Milton William "Bill" Cooper zu, der in den 1990er Jahren weithin als "amerikanischer Verschwörungstheoretiker" bezeichnet wurde (u.a. besaß er angeblich Dokumente, die die Anwesenheit von Außerirdischen auf der Erde bestätigten, was aber von amerikanischen Behörden vertuscht wurde; Anm. Redn.). Zwanzig Jahre später heizte sein DYOR die Anti-Impf-Bewegung an und widerlegte seit Dekaden etablierte Beweise für die Wirksamkeit von Impfstoffen. Die Angst vor Impfstoffen tauchte in Verbindung mit QAnon (von Amerika ausgehende Verschwörungstheorien mit rechtsextremem Hintergrund, Anm. Redn.) während der Pandemiejahre wieder auf und hat sich auch in der Zeit nach COVID nicht gelegt.

Abbildung. DYOR - Mach' Deine eigene Recherche: Fehleinschätzungen während der COVID-19 Pandemie. (Bild modifiziert nach Fernandozhiminaicela https://pixabay.com/photos/covid-19-coronavirus-pandemic-4985553/)

Unterstützung für 'DYOR' steht in Zusammenhang mit COVID-19-Fehleinschätzungen und Misstrauen in die Wissenschaft

Sedona Chinn von der University of Wisconsin und Ariel Hasell von der University of Michigan haben im Juni 2023 im Harvard Kennedy School Misinformation Review die Studie "Support for 'doing your own research' is associated with COVID-19 misperceptions and scientific mistrust" veröffentlicht. [2] (Chinn und Hasell sind selbst keine Wissenschafter - ihr Fachgebiet ist die Vermittlung von Wissenschaft).

Darin haben Chinn und Hasell die Daten einer YouGov-Umfrage von erwachsenen US-Bürgern analysiert, die im Dezember 2020 an 1.500 Personen und im März 2021 an weiteren 1.015 Personen durchgeführt wurde. Die Teilnehmer wurden gefragt, ob sie drei Aussagen über DYOR zustimmten, die auf einer 7-Punkte-Skala von "stimme überhaupt nicht zu" bis "stimme voll und ganz zu" bewertet wurden:

1. "Jeder kann ein Experte auf einem Gebiet sein, wenn er nur genug recherchiert".

2. "Ich ziehe es vor, selbst zu recherchieren, anstatt mich auf Experten und Intellektuelle zu verlassen".

3. "Die Meinung von Menschen, die selbst recherchiert haben, ist genauso gültig wie die Meinung von Experten und Intellektuellen."

Die statistische Auswertung zeigte, was wir instinktiv wissen oder zumindest vermuten. Chinn und Hasell kommen zu dem Schluss:

1. "Menschen überschätzen oft ihre Fähigkeiten, Informationen zu suchen und zu interpretieren, und neigen dazu, nach Informationen zu suchen, die mit bereits vorhandenen Werten, Überzeugungen und Identitäten übereinstimmen. Voreingenommenheit in der Wahrnehmung kann zu falschen Schlussfolgerungen führen, insbesondere dann, wenn den Einzelnen Fachwissen und Schulung in wissenschaftlichen Arbeitsweisen fehlen oder sie sich auf ihr Bauchgefühl verlassen."

2. DYOR kann auch "die Skepsis gegenüber wissenschaftlichen Institutionen und Mainstream-Informationsquellen fördern, indem betont wird, wie diese die Öffentlichkeit in die Irre führen könnten. Solche Aufrufe können die Sichtweise widerspiegeln, dass wissenschaftliche Institutionen oder Mainstream-Nachrichtenmedien korrupt sind oder eine versteckte Agenda haben, die den eigenen Weltanschauungen und Zielen feindlich gegenübersteht. Wenn auch DYOR-Aussagen nicht ausschließlich zur Förderung von Fehlinformationen verwendet werden, so zeigen unsere Ergebnisse, dass DYOR-Sichtweisenen mit Misstrauen gegenüber wissenschaftlichen Einrichtungen und COVID-19-Fehleinschätzungen zusammenhängen." Selbst gut gemeinte DYOR könnte die Skepsis gegenüber offiziellen Informationsquellen fördern, fügen sie hinzu.

3. Eine weitere Verwendung von DYOR kann darin bestehen, eine "politische Identität gegen das Establishment"  zu unterstützen, anstatt nach Daten, Beweisen oder Informationen zu suchen. An der Impfstofffront "wird DYOR oft in Verbindung mit Ressentiments gegenüber Ärzten und Wissenschaftern angeführt, die persönliche Erfahrung und Intuition abtun ... eine Manifestation der Verachtung für Eliten und nicht eine Bestätigung der Bedeutung unabhängiger Forschung."

"Believe in Science" datiert länger zurück als DYOR, ist aber noch problematischer

Ich kann Memes nicht leiden. (Memes sind (meist witzige) kurze Videos oder Bilder mit Schriftzügen, die sich im Internet in rasantem Tempo verbreiten; Anm. Redn.) Wenn es um keine Ansichtssachen geht, können sie unrichtig sein, aber dennoch verlässlich klingen, vor allem, wenn sie kopiert und eingefügt werden wie ein transponierbares Element ("springendes Gen"), das über ein Genom flitzt.

Eine gute Freundin hat kürzlich einen besonders ärgerlichen Satz auf Facebook gepostet: "Fakten zu glauben und der Wissenschaft zu vertrauen, bedeutet nicht, dass man ein 'Liberaler' ist. Es bedeutet, dass man 'gebildet' ist."

"Believe in Science" - "Glaube" und "Vertrauen" sind Emotionen, die in der Wissenschaft nichts verloren haben.

Das Problem dabei ist, dass "Glaube" und "Vertrauen" Emotionen sind. Sie haben in der Wissenschaft nichts verloren. Die erste Antwort auf den Facebook-Post meiner Freundin: "Wir sollten nicht vergessen, dass ein Großteil der *Wissenschaft* von der Regierung und speziellen Interessengruppen finanziert wird. Recherchieren Sie selbst und machen Sie einen sogenannten *Faktencheck.*" spiegelt genau das wider, was Chinn und Hasell in ihrer Analyse (s.o.) festgestellt hatten.

Der DYOR-er setzt damit wissenschaftliche Forschung einer "Forschung" gleich, die aus dem Lesen von Memes besteht, entscheidet was Wissenschaft ist und was nicht, nach dem, was er glaubt. .

Meine Antwort darauf lautete: "Die NIH und NSF (US-National Science Foundation; Anm. Redn.) finanzieren die Grundlagenforschung von Tausenden Wissenschaftern. Ohne Grundlagenforschung hätten wir keine Medikamente. Meine eigene Forschung befasste sich mit Fruchtfliegen, führte aber zu Behandlungen für Leukämien und andere Krankheiten. "Spezielle Interessengruppen" sind nicht der Feind. Dazu gehören die Biotech-Unternehmen, die uns gezielte Krebsmedikamente sowie Gen- und Immuntherapien liefern..."

Mein Mann Larry wies darauf hin, dass die anfängliche staatliche Finanzierung zur "Erfindung von Mikrowellenherden, Mobiltelefonen, Hörgeräten, Satellitenkommunikation, E-Mail, künstlichen Organen und Gliedmaßen und Hunderten von anderen Dingen" geführt hat.

Memes wie dieses, insbesondere die Beschwörung von DYOR und "Glaube an die Wissenschaft", untergraben weiterhin den Respekt vor der tatsächlichen Arbeit der Wissenschafter.

"Doing your own research" bedeutet, dass man das, was man liest, hört und sieht, so auswählt, dass es vorgefasste Meinungen unterstützt. Dies lässt die Kreativität, die Objektivität und das kritische Denken vermissen, die ein praktizierender Wissenschafter an den Tag legt, wenn er "Forschung betreibt".

DYOR bedeutet, dass man die Ideen und Gedanken anderer aufnimmt und vielleicht auswählt, um das zu unterstützen, was man selbst bereits für wahr hält. Wissenschaftliche Forschung ist etwas ganz anderes. Wissenschaft ist ein Zyklus des Forschens, Testens, Interpretierens und Überarbeitens von Hypothesen.

Fazit

Forschung in der Wissenschaft bedeutet viel Lesen, Nachdenken, Testen, Beobachten, Hypothesen aufstellen und das, was wir zu wissen glaubten, ständig zu revidieren. Sie ist ein kontinuierlicher Prozess, der sich über Jahrzehnte erstreckt.

Und deshalb stört mich - und vermutlich auch einige andere - der leichtfertige Satz "Recherchieren/Forschen Sie selbst". Um ein Experte auf einem Gebiet zu sein, gehört weit mehr dazu, als bereits bekannte Informationen aufzunehmen, die bestätigen, was man bereits weiß oder glaubt. Dieser Satz erweist der Wissenschaft und den Wissenschaftlern einen schlechten Dienst.


*Der Artikel ist erstmals am 24. Oktober 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " The Dangers of “Do Your Own Research” and “Believe in Science” https://dnascience.plos.org/2024/10/24/the-dangers-of-do-your-own-research-and-believe-in-science/erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Auf Grund seiner ungewöhnlichen Länge wurde hier allerdings nur der erste Teil des Artikels wiedergegeben und von der Redaktion mit einer Abbildung ergänzt


 [1] Melanie Trecek-King: (2021)Thinking is Power -The problem with “doing your own research” https://thinkingispower.com/the-problem-with-doing-your-own-research/

[2] Sedona Chinn& Ariel Hasell (2023): Support for “doing your own research” is associated with COVID-19 misperceptions and scientific mistrust. Harvard Kennedy School Misinformation Review. 4, 3, DOI: https://doi.org/10.37016/mr-2020-117.


 

inge Fri, 01.11.2024 - 00:33

Gehirnaktivität bei körperlicher Bewegung - ein neues Verfahren bietet Einblicke in die Parkinson-Erkrankung

Gehirnaktivität bei körperlicher Bewegung - ein neues Verfahren bietet Einblicke in die Parkinson-Erkrankung

Do, 24.10.2024 — Redaktion

Redaktion

Icon Gehirn

Mit dem kürzlich entwickelten integrativen mobilen Gehirn-/Körperbildgebungsverfahren MoBI (Mobile Brain/Body Imaging) lassen sich die Gehirn- und Muskeldynamik darstellen. Bei dem Verfahren werden mobile Elektroenzephalographie und Bewegungserfassung synchronisiert, um die Interaktion zwischen Gehirndynamik, Bewegung und Kognition bei menschlichen Bewegungen wie Gehen und Gleichgewicht halten oder dem Erlernen motorisch-kognitiver Abläufe zu untersuchen. Im Rahmen des EU-finanzierten Projekts TwinBrain hat ein internationales Forscherteam mit Hilfe von MoBI die Gehirnaktivitäten bei Bewegung verfolgt und konnte bereits frühe Anzeichen von Störungen der Gehirn-Körper-Koordination, wie sie bei der Parkinson-Krankheit auftreten erkennen.*

EU-Projekt TwinBrain: Zusammenspiel von Muskel- und Hirnaktivität- (http://www.twinbrain.si/)

Ein Durchbruch in der medizinischen Bildgebung hat es einem EU-finanzierten Forscherteam ermöglicht, die Gehirnaktivität während körperlicher Bewegung zu beobachten. Diese Arbeit soll den Weg für eine frühzeitige Erkennung der Parkinson-Krankheit und anderer neurologischer Störungen ebnen, von denen weltweit Millionen Menschen betroffen sind.

Bis vor kurzem bestand keine Möglichkeit zu beobachten, was im Gehirn während körperlicher Bewegung vor sich geht. Für Standard-Gehirnscans müssen sich die Probanden hinlegen und stillhalten; dies schränkt die Möglichkeiten der Wissenschafter ein, zu verstehen, wie das Gehirn alltägliche Situationen verarbeitet und darauf reagiert.

Dank der gemeinsamen Arbeit von Forschern im Rahmen von TwinBrain, einer dreijährigen, von der EU finanzierten und von slowenischen Wissenschaftern koordinierten Forschungsinitiative, konnte die Technologie, die dies ermöglicht, auf neue Gehirnregionen und neue Funktionen ausgedehnt werden.

Wir machen ständig Multitasking, fast ohne nachzudenken. Stellen Sie sich einfach vor, Sie gehen in den Supermarkt. Sie navigieren durch die Gänge auf der Suche nach den Artikeln auf Ihrem Einkaufszettel, halten dabei Ausschau nach den neuesten Schnäppchen und versuchen, nicht mit anderen Einkäufern zusammenzustoßen. EU-Forscher untersuchen nun solche alltäglichen Aktivitäten in der Hoffnung, wichtige Hinweise für die Erkennung und Behandlung schwerer neurologischer Krankheiten zu finden.

"Diese Situation mag für junge und gesunde Menschen sehr einfach erscheinen, aber sie verlangt dem Gehirn auch ein leistungsfähiges Multitasking ab", so Dr. Uroš Marušič, leitender wissenschaftlicher Mitarbeiter am Wissenschafts- und Forschungszentrum in Koper, Slowenien, und Leiter des neu eröffneten slowenischen Labors für mobile Bildgebung von Gehirn und Körper - SloMoBIL.

Verstehen des Zusammenspiels zwischen Muskeln und Gehirn

Marušič leitete die TwinBrain-Forschung, bei der die Dynamik von Gehirn und Bewegung auf eine bisher unerforschte Weise untersucht wurde. Die Initiative, die im Januar dieses Jahres abgeschlossen wurde, brachte Forscher der Technischen Universität Berlin in Deutschland, der Universität Triest in Italien und der Universität Genf in der Schweiz zusammen, um gemeinsam neue Wege in Diagnose und Behandlung komplexer neurologischer, die Bewegung beeinträchtigender Erkrankungen zu beschreiten. Dazu gehört auch die Parkinson-Krankheit, eine fortschreitende neurologische Erkrankung, von der weltweit mehr als 8 Millionen Menschen betroffen sind.

Mit steigendem Alter sind unsere neuronalen Ressourcen erschöpft, wodurch die so genannte kognitiv-motorische Interferenz zunimmt, d. h. wir können nicht mehr in gleicher Weise multitasken. Dies beeinträchtigt das, was Marušič als "Muskel-Hirn-Crosstalk" bezeichnet.

"Im Frühstadium der Parkinson-Krankheit kompensiert das Gehirn im Hintergrund Gleichgewichts- und Bewegungsdefizite", so Marušič, der auch ao. Professor für Kinesiologie an der Alma Mater Europaea Universität in Maribor (Slowenien) ist. Dies kann dazu führen, dass eine Person stolpert oder stürzt.

Die Forscher haben eine Technologie namens Mobile Brain/Body Imaging (MoBI) weiterentwickelt, die es ihnen ermöglicht, Gehirn und Körperbewegungen gleichzeitig zu überwachen. Ihre Arbeit wird es ermöglichen, verdächtige Anzeichen für neurologische Probleme zu erkennen und Behandlungen früher einzuleiten.

Mobile Brain/Body Imaging (MoBI): Eine bahnbrechende Technologie, um die Gehirnaktivität während körperlicher Aktivität zu überwachen. © Tridsanu Thopet, Shutterstock.com

MoBI wird im Berlin Brain/Body Imaging Lab (BEMoBIL) an der Technischen Universität Berlin eingehend untersucht. Dank TwinBrain wurde diese Technologie von Deutschland nach Slowenien transferiert und mit Unterstützung von Neurologen und Forschern aus Italien und der Schweiz weiterentwickelt.

"Sobald man Studienteilnehmer mit einer zusätzlichen kognitiven Aufgabe konfrontiert - beispielsweise mit einer Frage, während sie balancieren -, sehen wir, dass sie versuchen, zusätzliche neuronale Ressourcen zu aktivieren, aber sie können nicht immer alles verarbeiten", so Marušič.

Denken in Bewegung

Die MoBI-Technologie kombiniert die Technologie des Elektroenzephalogramms (EEG), einen Test, der die elektrische Aktivität im Gehirn bestimmt, mit der Elektromyografie (EMG), die die Muskelreaktion oder die elektrische Aktivität als Reaktion auf die Stimulation des Muskels durch einen Nerv misst. Außerdem wird die Motion-Capture-Technologie eingesetzt.

"Wir können jetzt messen, was im Gehirn vor sich geht, während man geht, läuft oder andere Arten von körperlicher oder geistiger Aktivität ausübt", so Marušič.

Marušič bezeichnet dies als einen der größten Erfolge der bisherigen Forschung, die aber auch eine enorme Big Data Herausforderung verursacht hat. Seit MoBI im Jahr 2021 nach Slowenien transferiert wurde, haben siebenundfünfzig Teilnehmer an den Tests teilgenommen. Für jede Sekunde der Aktivität wurden Hunderte von Messwerten erfasst, was zu Millionen von Datenpunkten führte. Diese werden nun mit Hilfe von künstlicher Intelligenz und einem Supercomputer synchronisiert und analysiert - ein Prozess, der bereits spannende Ergebnisse liefert.

Paolo Manganotti, Professor für Neurologie an der Universität Triest, war an der Rekrutierung und Testung von Freiwilligen für die TwinBrain-Studie beteiligt. Er stellte fest, dass die Teilnehmer nur zu gerne bereit waren, an der Studie teilzunehmen, um deren Ergebnisse nicht nur für sich selbst, sondern auch für künftige Patienten zu verbessern.

"TwinBrain bietet bahnbrechende Erkenntnisse für die klinische Praxis. Durch die Integration der neuesten Technologie können wir die Diagnose und Überwachung der Parkinson-Krankheit innerhalb weniger Jahre revolutionieren und die Zufriedenheit der Patienten und ihre Lebensqualität verbessern", so Manganotti.

Personalisierte Gesundheitsversorgung

Der nächste Schritt für Marušič ist die Vereinfachung und Optimierung der Technologie im Rahmen des neuen TBrainBoost-Projekts, das ebenfalls von der EU finanziert wird und bei SloMoBIL in Slowenien angesiedelt ist. Diesmal mit neuen Forschungspartnern aus Belgien, Deutschland, Malta und Slowenien.

Dies wird die Entwicklung neuer Produkte auf der Grundlage der MoBI-Technologie für einen breiteren klinischen Einsatz zugunsten von Patienten mit neurologischen Erkrankungen ermöglichen. Es festigt auch die Rolle von SloMoBIL als regionales Exzellenzzentrum für die Forschung in diesem Bereich.

Langfristig hofft Marušič, dass dies zu einer besseren und früheren Behandlung der Parkinson-Krankheit und anderer neurologischer Erkrankungen sowie zu einer stärker personalisierten Gesundheitsversorgung führen wird.

"Ich möchte, dass die Patienten an einen Ort kommen können, an dem alle Probleme gleichzeitig behandelt werden. Personalisierte Zentren, die Diagnostik und Behandlungen anbieten, die auf ihre Bedürfnisse zugeschnitten sind - ein Ort, der alles bietet", sagt er.


 *Dieser Artikel wurde ursprünglich am 3. September 2024 von Andrew Dunne in Horizon, the EU Research and Innovation Magazine unter dem Titel "Brain on the move – studying the brain in motion offers new insights into Parkinson’s disease" - https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/brain-move-studying-brain-motion-offers-new-insights-parkinsons-disease - publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Die erste Abbildung wurde von der Redaktion der Webseite des TwinBrain-Projekts http://www.twinbrain.si/ entnommen.


TWINning the BRAIN with machine learning for neuro-muscular efficiency:https://cordis.europa.eu/project/id/952401/de?isPreviewer=1

Laboratory of the Institute for Kinesiology Research, SloMoBIL laboratory (Slovenian Mobile Brain/Body Imaging Laboratory, Koper) https://www.zrs-kp.si/en/institutes-and-units/laboratory-of-the-institute-for-kinesiology-research/

TwinBrain project - short documentary, 2023,Video 7:10 min. https://www.youtube.com/watch?v=Vm42f2cIJw0&t=3s

TwinBrain EU project - promo video April 2022, Video 1:54 min. https://www.youtube.com/watch?v=3rnnEfDZHAI&t=61s

Berlin Mobile Brain/Body Imaging Lab (BeMoBIL): https://www.tu.berlin/bpn/forschung/berlin-mobile-brain-body-imaging-lab


 

inge Thu, 24.10.2024 - 23:44

Künstliche Intelligenz - Artikelsammlung im ScienceBlog

Künstliche Intelligenz - Artikelsammlung im ScienceBlog

Sa, 19.10.2024— Inge Schuster

Inge Schuster Icon Künstliche Intelligenz

„Künstliche Intelligenz (KI) ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“ (Europäisches Parlament, Webseite). In rasantem Tempo hat sich die KI-Forschung von einem teilweise als Science Fiction belächelten Gebiet zum unverzichtbaren, effizienten Werkzeug in Wissenschaft und Wirtschaft entwickelt und in zunehmendem Maße auch in unserem Alltag Einzug gehalten. Seit mehr als zehn Jahren wird im ScienceBlog über Erfordernisse, Anwendungen aber auch Risiken der KI informiert. Der folgende Bericht ist eine Zusammenstellung der bereits sehr umfangreichen Artikelsammlung, die laufend ergänzt werden soll.

Von der uralten Vision.....

Seit jeher besteht der Wunsch künstliche, dem Menschen an Fähigkeiten gleichende Kreaturen zu schaffen. So berichtet die griechische Mythologie von Hephaistos, dem Gott der Kunstfertigkeit, der u.a. auf Geheiß des Göttervaters Zeus die wunderschöne, mit allen positiven Eigenschaften versehene weibliche Figur, Pandora, aus Lehm fabrizierte (Abbildung 1). Mit Hilfe dieses unwiderstehlichen Wesens wollte Zeus aber die Menschen für den Diebstahl des Feuers durch Prometheus bestrafen; Pandora sollte Epimetheus, den erst im Nachhinein denkendenBruder des Prometheus verführen und von Neugier geplagt einen Krug öffnen, der mit allem Leid und Übel gefüllt war. Neugier und fehlendes Überlegen möglicher Folgen führten dazu, dass sich alles Böse über die Erde ergoss - eine auch für unsere heutige Wissenschaft gültige Metapher.

Abbildung 1. Pandora - eine Metapher für von Neugier getriebenes vorschnelles Handeln. Vase aus dem 5 Jh- v.Chr, Oben: Pandora (Mitte) wird von den Göttern mit allen positiven Atrtributen versehen; untere Reihe : Tanzende Satyren. (Bild: British Museum, London (CC BY-NC-SA 4.0)

Die Literatur ist voll von weiteren fiktiven Kreationen. Einige hervorstechende Beispiele sind der im 12. Jahrhundert vom Prager Rabbi Löw aus Lehm mittels eines Buchstabencodes geschaffene Golem, ein Befehlsempfänger ohne eigenen freien Willen, die im 19. Jh. von E.T.A. Hoffmann im Sandmann beschriebene Puppe Olimpia oder Mary Shelley's Frankenstein. Einige Darstellungen haben die realen Entwicklungen der künstlichen Intelligenz vorweg genommen.

............ zum Forschungsgebiet

Der Anfang des Forschungsgebiets Künstliche Intelligenz ist mit der Dartmouth Conference (New Hampshire) im Jahr 1956 festzusetzen. Die Konferenzteilnehmer - u.a. Marvin Minsky, Claude Shannon und John Mc Carthy - waren über Jahrzehnte hinweg führend in der KI-Forschung. In einem Antrag auf Förderung an die Rockefeller Foundation schrieben die Initiatoren: „Wir schlagen vor, im Laufe des Sommers 1956 über zwei Monate ein Seminar zur künstlichen Intelligenz mit zehn Teilnehmern am Dartmouth College durchzuführen. Das Seminar soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern. Wir glauben, dass in dem einen oder anderen dieser Problemfelder bedeutsame Fortschritte erzielt werden können, wenn eine sorgfältig zusammengestellte Gruppe von Wissenschaftlern einen Sommer lang gemeinsam daran arbeitet.“ (http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.htm).

Die Hauptthemen dieses Workshops zeigten - neben Informatik und Mathematik - bereits viele, aus verschiedenen Forschungsrichtungen stammende Teildisziplinen. Anfängliche Erfolge beim Lösen einfacher mathematischer Probleme oder im Schachspiel führten zu überoptimistischen Einschätzungen. Einer der Pioniere in KI, Marvin Minsky meinte 1970: "In 3 bis 8 Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines Durchschnittsmenschen haben." Die Enttäuschung folgte. Es fehlten damals noch ausreichende Computerkapazitäten zur Verarbeitung und Speicherung von Daten. Die anfängliche Hype brach in sich zusammen, es kam zu einer "Eiszeit" der KI.

Erst mit dem exponentiellen Anstieg der Computerleistung und neuen Technologien, die nicht nur in den Lebenswissenschaften zu einem explosionsartigen Anstieg von gespeicherten Datenmengen - den Big Data - führten, erlebte die KI ab den 1990er Jahren eine Renaissance. Auf der Basis von Maschinellem Lernen und dem vom diesjährigen Physik-Nobelpreisträger Geoffrey Hinton entwickelten tiefen Neuronalen Netzwerk, dem Deep Learning, ermöglichten nun Datenbanken die Erkennung von Mustern in riesigen, komplexen wissenschaftlichen Datensätzen.

---------- und unverzichtbarem Werkzeug in Forschung, Industrie und Alltag

Wir stehen am Beginn eines neuen, durch maschinelle Intelligenz geprägten Zeitalters. In vielen unserer Lebensbereiche gibt es bereits künstliche Unterstützung - dies reicht vom allgegenwärtigen Smartphone, Übersetzungstools und dem immer häufiger genutzten Sprachmodell ChatGPT, über Ansätze zum autonomen Fahren und in Dienstleistungsbereichen eingesetzte Roboter bis zu präziser medizinischer Diagnostik und Einsatz von Implantaten für immer mehr Körperfunktionen. Einige Beispiele sind in Abbildung 2 zusammengefasst.

Abbildung 2. Künstliche Intelligenz – Nutzen im Alltag und mögliche Einsatzgebiete. (© Europäische Union, [20-06-2023 ] – Quelle: Europäisches Parlament) /em>

In vielen naturwissenschaftlichen Disziplinen hat sich die Künstliche Intelligenz bereits gut etabliert. KI ist aus Biologie und medizinischer Diagnostik nicht mehr wegzudenken; die in Genanalyse, Mikroskopie, Computertomographie und MRI-Analyse anfallenden enormen Datenmengen können nun schnell verarbeitet werden und aussagekräftige Muster/Diagnosen liefern. Auch in der Suche nach neuen Wirkstoffen und nach Systemen, die Umweltgifte abbauen, spielt die KI eine wichtige Rolle. In den Geowissenschaften wird KI eingesetzt, um belastbare Vorhersagen über die Auswirkungen von Klimaextrema zu erhalten und die Gesellschaften dagegen widerstandsfähiger zu machen. Die Liste könnte fast endlos fortgesetzt werden.

Welche Bedeutung Künstliche Intelligenz (KI) heute in Wissenschaft, Wirtschaft und Gesellschaft hat, lässt sich wohl am besten daran zu erkennen, dass der Nobelpreis 2024 sowohl in Physik als auch in Chemie für Pionierleistungen in diesem Gebiet vergeben wurde. Die Physik-Preisträger John Hopfield (USA) und Geoffrey Hinton (Kanada) waren Wegbereiter, die für »bahnbrechende Entdeckungen und Erfindungen, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglichen« ausgezeichnet wurden. Darauf aufbauend ist es den Chemie-Preisträgern Demis Hassabis (UK) und John Jumper (UK) gelungen mit ihrem KI-Modell AlphaFold2 die räumliche Struktur praktisch aller Proteine mit hoher Genauigkeit aus den Aminosäuresequenzen vorherzusagen; David Baker (US) hat mit Rosetta ein Computerprogramm zum Design von völlig neuen Proteinen mit speziellen Eigenschaften entwickelt. Die nun ausgezeichneten KI-gestützten Technologien sind öffentlich frei zugänglich und wurden in den wenigen Jahren seit ihrer Freigabe bereits von Millionen Forschern für "unzählige" Fragestellungen des Proteindesigns und der Strukturvorhersage genutzt. Die Ergebnisse werden wohl unsere Welt verändern.

Wo viel Licht ist, ist auch Schatten

In zunehmendem Maße wird Kritik laut, dass KI sich auch zu einer dunklen Seite entwickeln kann. So meint der Evolutionsbiologe Paul Rainey: "Wie Viren oder andere invasive Organismen den Menschen, die Umwelt und sogar den Planeten bedrohen können, besteht auch die reale Gefahr, dass vermehrungsfähige KI unbeabsichtigte negative Auswirkungen auf den Menschen und die Erde hat. Sie könnte sich unkontrolliert verbreiten, die Ressourcen der Erde erschöpfen und die Ökosysteme schädigen" (Paul Rainey, 2023).

Schärfer formuliert es das Center for AI Safety, dem neben anderen prominenten KI-Forschern auch der diesjährige Chemie Nobelpreisträger Demis Hassabis angehört, in einem Aufruf im Jahr 2023: "Die Minderung des Risikos für eine Auslöschung der Menschheit durch künstliche Intelligenz sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Nuklearkrieg eine globale Priorität haben“.

Auch der diesjährige Physik-Nobelpreisträger Geoffrey Hinton warnt vor der Technologie, die er miterschaffen hat, weil sie die Menschen überfordern, durch kriegerische Anwendungen und poltische Manipulationen sogar gefährden könne.

Die eingangs erwähnte Metapher von der Neugier-getriebenen Nutzung einer Technologie ohne Überlegen der möglichen Folgen sollte bedacht werden, um nicht eine Büchse der Pandora zu öffnen.


Artikel im ScienceBlog über Erfordernisse für und Anwendungen von  Künstlicher Intelligenz

 

Inge Schuster, 15.10.2024: Chemie-Nobelpreis 2024 für die KI-gestützte Vorhersage von Proteinstrukturen und das Design völlig neuer Proteine

Roland Wengenmayr, 03.10.2024: Künstliche Intelligenz: Vision und Wirklichkeit

Andreas Merian, 30.05.2024: Künstliche Intelligenz: Wie Maschinen Bilder verstehen und erzeugen

Ricki Lewis, 08.09.2023: Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird

Redaktion, 08.06.2024: Aurora - mit Künstlicher Intelligenz zu einem Grundmodell der Erdatmosphäre

Lebenswissenschaften

Michael Simm, 06.05.2021: Das Neuronengeflecht entwirren - das Konnektom

Wolf Singer, 05.12.2019: Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Wolf Singer, Andrea Lazar, 15.12.2016: Die Großhirnrinde, ein hochdimensionales, dynamisches System

Ruben Portugues, 22.04.2016: Neuronale Netze mithilfe der Zebrafischlarve erforschen

Redaktion, 25.04.2019:Big Data in der Biologie - die Herausforderungen

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen

Gottfried Schatz; 24.10.2014: Das Zeitalter der “Big Science”

Ricki Lewis, 06.09.2024: CHIEF - ein neues Tool der künstlichen Intelligenz bildet die Landschaft einer Krebserkrankung ab und verbessert damit Diagnose, Behandlung und Prognose

Ricki Lewis, 25.01.2024: Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an

Inge Schuster, 27.02.2020: Neue Anwendungen für existierende Wirkstoffe: Künstliche Intelligenz entdeckt potentielle Breitbandantibiotika

Ricki Lewis, 13.09.2018: Zielgerichtete Krebstherapien für passende Patienten: Zwei neue Tools

Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Norbert Bischofberger; 24.05.2018: Auf dem Weg zu einer Medizin der Zukunft.

Robotics

Roland Wengenmayr, 02.12.2023: Roboter lernen die Welt entdecken Paul Rainey, 2.11.2023: Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrang

Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution

Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.

Algorithmen, Computer, Digitalisierung, Big Data

Redaktion, 29.07.2023: Welche Bedeutung messen EU-Bürger dem digitalen Wandel in ihrem täglichen Leben bei? (Special Eurobarometer 532)

IIASA, 24.09.2019: Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

Peter Schuster, 19.08.2016: Das Ende des Moore'schen Gesetzes — Die Leistungsfähigkeit unserer Computer wird nicht weiter exponentiell steigen

Manfred Jeitler; 13.11.2015: Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC.

Gerhard Weikum, 20.06.2014:Der digitale Zauberlehrling

Peter Schuster, 28.03.2014:Eine stille Revolution in der Mathematik.

Peter Schuster, 03.01.2014: Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften

Peter Schuster, 28.03.2013: Wie Computermethoden die Forschung in den Naturwissenschaften verändern


inge Sat, 19.10.2024 - 23:17

Chemie-Nobelpreis 2024 für die KI-gestützte Vorhersage von Proteinstrukturen und das Design völlig neuer Proteine

Chemie-Nobelpreis 2024 für die KI-gestützte Vorhersage von Proteinstrukturen und das Design völlig neuer Proteine

Di, 15.10.2024— Inge Schuster

Inge Schuster Icon Künstliche Intelligenz

Die 2024 mit dem Nobelpreis in Chemie ausgezeichneten Wissenschafter Demis Hassabis, John Jumper und David Baker haben eine Revolution in der Proteinforschung ausgelöst. Hassabis und Jumper haben mit AlphaFold2 ein künstliches Intelligenzmodell entwickelt, das den Traum wahrmacht mit hoher Genauigkeit die räumliche Struktur eines Proteins aus seiner Aminosäuresequenz vorhersagen zu können. Baker ist es gelungen mit seinem kontinuierlich weiter entwickelten Computerprogramm Rosetta völlig neue, in der Natur nicht vorkommende Proteine mit speziellen Eigenschaften für diverse Anwendungen zu designen. AlphaFold2 und Rosetta sind offentlich frei zugänglich, ihre bereits millionenfache Nutzung führt in eine neue Ära von Grundlagenforschung und diversesten Anwendungen.

Vorweg ein kurzer Kommentar

Die Verleihung des Chemie-Nobelpreises [1. 2] an David Baker, Demis Hassabis und John Jumper kam keineswegs unerwartet: die ausgezeichneten Arbeiten sind doch wohl einer "major transition" (d.i. einem "großen Übergang" [3]) in der Möglichkeit biologische Systeme zu beschreiben/zu verstehen gleichzusetzen. Möglich gemacht wurde die radikale Neuerung durch reichlich vorhandene, günstige Ressourcen - einer enorm gestiegenen Leistungsfähigkeit der Rechner, die das Analysieren und Speichern von Big Data erlaubt und dem Zugriff auf Datenbanken, in denen das Ergebnis von mehr als 60 Jahren Forschung zu Proteinstrukturen für jedermann frei verfügbar ist. Die nun ausgezeichneten Computer-und KI-gestützten Technologien wurden in den wenigen Jahren seit ihrer Freigabe bereits von Millionen Forschern für "unzählige" Fragestellungen des Proteindesigns und der Strukturvorhersage genutzt. Die Ergebnisse werden wohl unsere Welt verändern.

Über Proteine,....

“The most significant thing about proteins is that they can do almost anything.” Francis Crick ,1958

Mit Proteinen und durch Proteine entstehen und vergehen alle Strukturen der belebten Materie. Proteine bilden Gerüste innerhalb und außerhalb der Zellen, binden andere Moleküle, transportieren diese und setzen sie um. Proteine ermöglichen den Informationsaustausch in und zwischen Zellen und ihrer Umgebung, fungieren als präzise Katalysatoren (Enzyme) der Stoffwechselvorgänge, synthetisieren und metabolisieren andere Proteine und bauen Fremdstoffe ab. Das Ablesen der in der DNA gespeicherten genetischen Information und deren Übersetzung in Proteine wird durch Proteinkomplexe gesteuert, das Hormon-, Immun- und neuronale System durch Proteine reguliert.

Proteine sind groß, Makromoleküle, die aus linearen Ketten von (über Peptidbindungen) miteinander verknüpften Aminosäuren aufgebaut sind. Diese bereits zu Beginn des 20. Jahrhunderts aufgestellte "Peptidhypothese" wurde 1951 bestätigt, als es Frederick Sanger und Hans Tuppy gelang die chemische Struktur des ersten Proteins, des aus 51 Aminosäuren bestehenden Hormons Insulin, aufzuklären (zu sequenzieren). Etwa in diese Zeit fallen auch die mit Hilfe der Röntgenstrukturanalyse aufgeklärte DNA-Struktur und die ersten erfolgreichen Versuche die räumliche Struktur von Proteinen zu ermitteln: Der aus Wien stammende Chemiker Max Perutz benötigte fast zwei Jahrzehnte, um das aus 4 Untereinheiten bestehende Hämoglobin zu analysieren, der Brite John Kendrew konnte, aufbauend auf den Erkenntnissen von Max Perutz, die Struktur des einfacher aufgebauten. kleineren Myoglobin in "nur" 11 Jahren lösen [4]. Aus den Strukturen wurde die Funktion dieser Proteine klar erkennbar, wie sich die Aminosäureketten falteten, wie und wo sie Sauerstoff banden und die Strukturen sich dabei veränderten. Wie 1958 schon Sanger wurden Perutz und Kendrew für diese Pionierleistungen 1962 mit dem Nobelpreis für Chemie ausgezeichnet.

........ die weitere experimentelle Ermittlung ihrer 3D-Strukturen........

Die Ergebnisse an Myoglobin und Hämoglobin zeigten klar: Um die Funktionen von Proteinen zu verstehen und gegebenenfalls manipulieren zu können, ist eine detaillierte Kenntnis ihrer räumlichen Struktur, ihrer Gestalt und ihrer physikalisch-chemischen Eigenschaften an Oberflächen und Domänen, an denen sie mit Bindungsartnern interagieren, notwendig.

In der Folgezeit nahmen mehr und mehr Forscher die lange Zeit noch sehr schwierigen, kosten- und arbeitsintensiven Bemühungen auf sich, um Proteine in der für die Strukturanalyse benötigten Menge zu isolieren, zu reinigen und zu kristallisieren. In der ersten, 1971 gegründeten öffentlich frei zugänglichen Proteindatenbank PDB (https://www.rcsb.org/pages/about-us/index) waren 1976 bereits 13 Strukturen eingetragen - alles einfach zu handhabende, sehr häufig vorkommende Proteine, darunter einige Protein-spaltende Enzyme (Proteasen) und die aus 4 Untereinheiten zusammengesetzte Laktatdehydrogenase [5]. In den 1980er-Jahren gelang es die Strukturen erster Membranproteine aufzuklären. Neue Methoden der Molekularbiologie, laufend verbesserte Techniken der Kristallisierung und Fortschritte in der Kristallstrukturanalyse verkürzten die Prozeduren und ließen ab den 1990-er Jahren die Zahl der neuen Strukturen sehr schnell anwachsen. Bei einem Zuwachs von jeweils mehr als 14 000 neuer Strukturen in den letzten Jahren, gibt es derzeit insgesamt mehr als 225 000 Einträge in der Proteindatenbank (Abbildung 1).

Abbildung 1. Die Proteindatenbank. Anwachsen der experimentell bestimmten 3D-Strukturen von Makromolekülen. https://www.rcsb.org/stats/growth/growth-released-structures. (Grafik heruntergeladen am 12.10.2024).

Über 200 000 Proteinstrukturen von diversen Lebensformen - das klingt nach viel, ist aber eine geringe Zahl verglichen mit den bereits mehr als 200 Millionen Proteinsequenzen, die - mit rasant verbesserten DNA-Sequenzierungstechniken - bisher in diversen Organismen identifiziert wurden. Die experimentelle Strukturaufklärung hinkt nach, ist ja noch immer recht mühsam und für einige Proteintypen (noch) kaum möglich.

Von Anfang an stellten sich die Forscher daher die Frage, ob und wie man auf Basis der Aminosäuresequenzen Vorhersagen für die Strukturen treffen könne.

..... und eine Hierarchie der Strukturen

Die Abfolge der 20 unterschiedlichen Aminosäuren in den linearen Ketten - der Primärstruktur- ist in der DNA kodiert. Dass solche Ketten dazu tendieren regelmäßige, durch Wasserstoffbrücken stabilisierte Substrukturen, alpha-Helices und beta-Faltblatt-Elemente, zu bilden, wurde von amerikanischen Chemiker Linus Pauling 1951 postuliert und deren Vorliegen in den ersten aufgeklärten Proteinstrukturen bestätigt (Pauling erhielt 1954 den Nobelpreis für Chemie). Die sogenannte Sekundärstruktur umfasst diese Substrukturen und daneben ungeordnete Bereiche. Wie sich Sekundärstrukturen dann falten, wird durch Lage und chemische Eigenschaften der einzelnen Atome, funktionellen Gruppen und Substrukturen bestimmt, in anderen Worten: wie sich diese anziehen oder abstoßen. Aus der Sekundärstruktur entsteht die für jedes Protein spezifische dreidimensionale Tertiärstruktur, die sogenannte native Konformation, welche für die Funktion bestimmend ist. Wechselwirkungen zwischen gleichen und anderen Arten von Proteinen führen schließlich zu Quartärstrukturen. Abbildung 2.

Abbildung 2. Proteinfaltung dargestellt im Bändermodell. In der Sekundärstruktur haben sich aus der Aminosäurenkette die Substrukturen alpha-Helix und beta-Faltblatt (Pfeile in Richtung N zu C-Terminus) und ungeordnete Elemente gebildet. Die aus den Elementen der Sekundärstruktur zusammengesetzte Tertiärstruktur - die native Konformation - bestimmt die Funktion des Proteins. Zusammenlagerung von mehreren (unterschiedlichen) Proteinen durch Wechselwirkungen zwischen den Proteinen erzeugt Quartärstrukturen, Beispiel: Hämoglobin. (Quelle: aus gemeinfreien Bildern zusammengesetzt.)

Um die räumlichen Voraussetzungen für biochemische Funktionen - beispielsweise die Bindung eines kleinen Moleküls - zu schaffen, ist eine minimale Kettenlänge von 40 - 50 Aminosäuren erforderlich.

Zur Vorhersage der 3D-Struktur

Eine Vorhersage der Tertiärstruktur auf der Basis der potentiellen Wechselwirkungen der einzelnen Atome würde selbst bei einem kleinen Protein mit 100 Aminosäuren eine praktisch unbegrenzte Anzahl möglicher Strukturen schaffen und alle Zeit würde nicht reichen, um diese bis zur energetisch günstigsten, nativen Konformation durchzuspielen. Dass Proteine nicht über ein solches Ausprobieren ihre native Konformation finden, ist offensichtlich: unter physiologischen Bedingungen in Zellen dauert es Millisekunden von der neu synthetisierten Aminosäurenkette bis zur funktionellen 3D-Struktur.

Der amerikanische Biochemiker Christian Anfinsen hatte sich seit den 1950er-Jahren mit dem Zusammenhang zwischen Primärsequenz und 3D-Struktur von Proteinen beschäftigt und herausgefunden, dass die Faltung ein vorbestimmter Prozess ist: Als er 1961 das Enzym Ribonuklease unter verschiedensten ausgeklügelten Bedingungen reversibel denaturierte, d.i. die dreidimensionale Form in eine offene, enzymatisch inaktive Kette überführte und diese dann wieder sich falten ließ, entdeckte er, dass das entstandene Produkt jedes Mal die ursprüngliche Gestalt wieder angenommen hatte und enzymatisch aktiv war. Anfinsen schloss daraus, dass die native Konformation eines Proteins ausschließlich durch seine Aminosäuresequenz bestimmt wird, die wiederum im betreffenden Gen kodiert ist.

Anfinsens Hypothese fand weite Bestätigung durch andere Labors und wurde zum Startschuss weltweiter Bemühungen aus der Kenntnis der Aminosäuresequenzen die 3D-Strukturen von Proteinen vorherzusagen. Damit würde man ja nicht nur die mühsame, langdauernde Röntgenkristallographie umgehen, sondern rasch Aussagen für alle bekannten Proteine treffen können, auch für solche, bei denen experimentelle Verfahren (noch) nicht anwendbar sind. Die Bedeutung solcher Vorhersagen für verschiedenste Gebiete der Lebenswissenschaften in akademischer Forschung und Industrie war evident.

Zur rascheren Entwicklung von Voraussagetechniken wurde 1994 ein Projekt Critical Assessment of Protein Structure Prediction (CASP) gestartet - ein alle zwei Jahre stattfindender Wettbewerb, bei dem Forscher aus aller Welt ihre Methoden an eben aufgeklärten, noch geheim gehaltenen Strukturen ausprobierten. Beginnend bei etwa 10 % war die Übereinstimmung zwischen theoretischen Modellen und experimentell bestimmter Struktur bis 2016 noch zu niedrig (30 bis maximal 40 %), stieg aber 2018 auf fast 60 % und 2020 schließlich auf 90 %, eine Genauigkeit, die im Bereich der Genauigkeit von reproduzierten experimentelle Analysen liegt. Den sensationellen Durchbruch haben Demis Hassabis und John Jumper mit den KI-gestützten Programmen AlphaFold (2018) und AlphaFold2 (2020) erzielt, in denen sie Deep-Learning-Methoden unter Verwendung von "faltenden neuronalen Netzwerken" anwandten.

Von der Sequenz zur Struktur - der Durchbruch mit Alphafold

Demis Hassabis ist kein Unbekannter. Der britische Neurowissenschafter, Programmierer, Entwickler von Computerspielen und Schachmeister ist Mitbegründer und CEO des Startups DeepMind, das auf die Programmierung von künstlicher Intelligenz spezialisiert ist und - 2014 von Google aufgekauft-  zu Google DeepMind wurde. Bekannt wurde DeepMind unter anderem durch die Programme AlphaGo und AlphaGo-Zero, welche die Weltmeister im Go-Spielen schlagen konnten [6].

2018 kam das Computerprogramm AlphaFold heraus, basierend auf der Grundlage eines neuronalen Faltungsnetzwerks und auf den Strukturen der Protein Data Bank trainiert, um eine sogenannte Distanz-Karte der Abstände zwischen den Aminosäuregruppen in der räumlichen Struktur zu erstellen. Wie erwähnt gewann AlphaFold den CASP-Wettbewerb 2018. Das Programm erhielt eine wesentliche Verbesserung als der junge Biochemiker John Jumper in DeepMind eintrat und seine Kenntnisse in Protein-Chemie und Modellierung einbrachte. Das nun von Hassabis und Jumper 2020 präsentierte Programm AlphaFold2 war auf allen damals bekannten Proteinstrukturen (Abbildung 2) und den nahezu 200 Millionen Proteinsequenzen trainiert und erreichte eine Genauigkeit von etwa 90 %, die als gleichwertig mit der experimentell erreichten angesehen wird.

Eine vereinfachte Beschreibung wie AlphaFold2 arbeitet ist in Abbildung 3 dargestellt.

Abbildung 3. AlphaFold2: In 4 Schritten von der Aminosäuresequenz zur Proteinstruktur.( © Illustration: Johan Jarnestad/The Royal Swedish Academy of Sciences; Übersetzung des Texts: I. Schuster)

2020 wurde erstmals davon gesprochen, dass mit AlphaFold2 das Problem der Vorhersage von Proteinstrukturen aus der Primärsequenz als prinzipiell gelöst betrachtet werden könne.

Hassabis und Jumper haben mit AlphaFold2 zunächst die Struktur aller menschlichen Proteine vorhergesagt, bis 2022 rund 1 Million weiterer Strukturen - diese sind in der die Proteindatenbank PDB hinterlegt - und schließlich die Strukturen von praktisch allen 200 Millionen bislang identifizierten Proteinen. Alle diese Strukturen sind in der von Google DeepMind und dem EMBL’s European Bioinformatics Institute geschaffenen AlphaFold Datenbank öffentlich zugänglich (https://alphafold.ebi.ac.uk/))

Seit Sommer 2021 ist die Software von AlphaFold2 freigegeben (Open-Source-Lizenz). Jeder, der möchte kann nun Proteine falten. Zuvor hatte es oft Jahre gedauert, um eine Proteinstruktur zu erhalten, jetzt sind es nur noch ein paar Minuten Rechenzeit.

Mehr als 2 Millionen Forscher aus 190 Ländern haben von dem Programm schon Gebrauch gemacht. Die Tragweite dieser Möglichkeiten für Grundlagenforschung und diverse Anwendungen ist nicht absehbar.

Von der Struktur zur Sequenz - das Rosetta-Programm

Früher als Hassabis und Jumper hat sich der US-amerikanische Biochemiker David Baker, Direktor des Instituts für Protein Design an der Universität Washington, mit der Strukturvorhersage von Proteinen befasst und schon 1998 an den CASP-Wettbewerben teilgenommen. Er hatte das Computerprogramm Rosetta entwickelt, das - wie die Programme der Konkurrenten - aus den Aminosäuresequenzen die Proteinstrukturen vorhersagen sollte, diesen aber überlegen war. Baker und sein Team änderten aber bald die Strategie und gingen den umgekehrten Weg: anstatt vorherzusagen zu welcher Tertiärstruktur sich eine Primärstruktur falten würde, wollte man eine völlig neue Struktur schaffen und dann herausfinden, welche Sequenz sich zu dieser falten würde. In anderen Worten: Man wollte Rosetta so weiterentwickeln, dass man für diverse Funktionen - beispielsweise für spezielle Enzymaktivitäten - maßgeschneiderte Proteine würde designen können.

Die Machbarkeit dieses Ansatzes konnte Baker 2003 bestätigen: Er und sein Team hatten mit Top 7 ein völlig neues, in der Natur nicht vorkommendes Protein kreiert, das mit seinen alpha-Helix/ beta-Faltblatt Strukturen besonders stabil war und mit 93 Aminosäuren größer war, als alle bis dahin synthetisch hergestellten Proteine. Um den Erfolg der Software zu prüfenen, hatte man das Gen für die vorgeschlagene Aminosäuresequenz in Bakterien eingeführt und das von diesen produzierte Protein mit Hilfe der Röntgenkristallographie analysiert.

Abbildung 4. Proteine, die mit dem Rosetta-Programm von Baker entwickelt wurden: (Bild: ©Terezia Kovalova/The Royal Swedish Academy of Sciences, Text übersetzt von I. Schuster)

In weiterer Folge wurde durch Übernahme einer AlphaFold2 ähnlichen Deep Learning Architektur aus Rosetta das RoseTTAFold Programm, dessen Software frei zugänglich ist (https://github.com/RosettaCommons/RoseTTAFold ). Laut Homepage des Baker Instituts ist RoseTTAFold "ein "dreigleisiges" neuronales Netz, d. h. es berücksichtigt gleichzeitig Muster in Proteinsequenzen, die Art und Weise, wie die Aminosäuren eines Proteins miteinander interagieren, und die mögliche dreidimensionale Struktur eines Proteins. In dieser Architektur fließen ein-, zwei- und dreidimensionale Informationen hin und her, so dass das Netzwerk gemeinsam Schlussfolgerungen über die Beziehung zwischen den chemischen Bestandteilen eines Proteins und seiner gefalteten Struktur ziehen kann." (https://www.ipd.uw.edu/2021/07/rosettafold-accurate-protein-structure-prediction-accessible-to-all/)

Seitdem wurden mit RoseTTAFold Tausende neue Proteine designt, Strukturen, die für diversesten Anwendungen in Industrie, Umwelt und Gesundheit relevant sind. Einige dieser spektakulären Strukturen sind in Abbildung 4 dargestellt.

Ausblick

Das Nobel-Kommittee für Chemie schreibt [2]:

„Die Errungenschaften von David Baker, Demis Hassabis und John Jumper auf dem Feld des computergestützten Proteindesigns und der Proteinstruktur-Entschlüsselung sind fundamental. Ihre Arbeit hat eine neue Ära der biochemischen und biologischen Forschung eröffnet, in der wir nun Proteinstrukturen auf eine Weise entwerfen und vorhersagen können, wie es nie zuvor möglich war. Damit wurde ein lang gehegtes Ziel endlich erreicht, und die Auswirkungen werden weitreichende Konsequenzen haben.“


[1] The Nobel Prize in Chemistry 2024, Popular Science Background: They have revealed proteins’ secrets through computing and artificial intelligence.https://www.nobelprize.org/uploads/2024/10/popular-chemistryprize2024-3.pdf

[2] The Nobel Prize in Chemistry 2024, Scientific Background: Computational Protein Design and Protein Structure Prediction. https://www.nobelprize.org/uploads/2024/10/advanced-chemistryprize2024.pdf

[3] Peter Schuster, 04.03.2016: Die großen Übergänge in der Evolution von Organismen und Technologien

[4] Bernhard Rupp, 04.04.2014: Wunderwelt der Kristalle — Von der Proteinstruktur zum Design neuer Therapeutika

[5] PDP-Protein Data Bank: History:https://www.rcsb.org/pages/about-us/history

[6] Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin


 

inge Tue, 15.10.2024 - 12:45

Künstliche Intelligenz: Vision und Wirklichkeit

Künstliche Intelligenz: Vision und Wirklichkeit

Do, 03.10.2024 — Roland Wengenmayr

Roland Wengenmayr Icon Künstliche Intelligenz

Sei es eine medizinische Diagnose, die Suche nach Materialien für die Energiewende oder die Vorhersage von Proteinstrukturen – Algorithmen künstlicher Intelligenz dienen der Wissenschaft heute in vielen Bereichen als effektives Hilfsmittel. Doch können sie auch in der Physik nützlich sein, in der es darum geht, fundamentale Vorgänge in der Natur zu verstehen? Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über Forscher vom Max-Planck-Institut für die Physik des Lichts, die dies ausloten. So können Algorithmen die Forschung inspirieren und etwa überraschende Designs für Experimente entwerfen. Bis künstliche Intelligenz allerdings komplizierte Zusammenhänge der Physik wirklich versteht, ist es noch ein weiter Weg.*

Künstliche Intelligenz, kurz KI, boomt. Viele Menschen nutzen zum Beispiel ChatGPT als bekanntesten Vertreter einer auf großen Sprachmodellen basierenden KI, um zu recherchieren oder einen Text schreiben zu lassen. Man kann auch aus Texten Bilder oder Videos durch KI generieren lassen, in der Kunstwelt wird KI schon längst als Werkzeug eingesetzt. Aber wie sieht es damit in den Naturwissenschaften aus?

In den Lebenswissenschaften und in der Chemie ist KI bereits gut etabliert. Das AlphaFold-Programm von Deep-Mind wurde in der Biologie bekannt, weil es Proteinstrukturen berechnen kann. Zur Erinnerung: Furore machte DeepMind mit dem Programm Alpha-Go, das 2016 den Koreaner Lee Sedol, einen der weltstärksten Go-Spieler, schlug. Das war eine Sensation, weil es im Go so viele Möglichkeiten für den nächsten Zug gibt, dass kein Computer sie berechnen kann. Alpha-Go musste folglich ähnlich wie ein Mensch durch Training lernen, über Muster von Spielsteinkombinationen auf dem Brett ein Gespür, und damit eine Art Verständnis, für kluge Züge zu entwickeln. Dabei profitierte das Programm letztlich doch von brachialer Rechenpower: Es konnte in Millionen Partien quasi gegen sich selbst trainieren, während die menschlichen Go-Profis lediglich einige Tausend Spiele erreichen.

So breit die Anwendung von KI inzwischen auch ist, meistens funktionieren die Programme als Blackbox; das heißt, man erhält ein hilfreiches Ergebnis, weiß jedoch nicht, wie es zustande gekommen ist. Das mag oft genügen – etwa wenn es um die Suche nach einem Protein mit einer bestimmten Funktion geht. Entscheidend ist hier, dass man nachvollziehen kann, warum die von der KI gefundene Struktur das macht, was sie soll. Doch in der Physik, der fundamentalsten aller Naturwissenschaften, widerspricht eine Blackbox dem Anspruch, ein physikalisches System zu verstehen. Zwar setzen Forschende auch hier zunehmend KI ein, doch noch eher in Anwendungen, wo eine Blackbox als Hilfsmittel das Verständnis nicht behindert. Expertinnen und Experten diskutieren jedoch, ob KI so leistungsfähig werden kann, dass sie komplexe physikalische Systeme sogar besser als der Mensch verstehen könnte. Wenn sie dies dann auch menschlichen Kolleginnen und Kollegen erklären könnte: Würde sie damit zur künstlichen Physikerin auf Augenhöhe? Könnte sie so in der Physik zu neuen Ideen inspirieren?

Heureka-Erlebnis mit Maschinenlernen

Mario Krenn und andere Physiker bezeichnen eine solche KI als künstliche Muse, sie haben darüber in einem Artikel im Fachblatt Nature Reviews Physics vom Dezember 2022 geschrieben. Wir sitzen in der Cafeteria des Max-Planck-Instituts für die Physik des Lichts in Erlangen, mit dabei Florian Marquardt, Direktor der Theorie-Abteilung am Institut. Wie Krenn setzt er seit einigen Jahren Methoden des Maschinenlernens ein und verfeinert sie mit seinem Team kontinuierlich. Krenn, der in Wien bei Anton Zeilinger, Physik-Nobelpreisträger von 2022, noch als experimenteller Quantenoptiker promovierte, hat im Jahr 2014 – nach einem Heureka-Erlebnis mit Maschinenlernen – eine radikale Wendung vollzogen. „Seitdem bin ich in kein Labor mehr gegangen“, sagt er lachend. Er zählt zu den Pionieren des KI-Einsatzes in der Physik. Heute leitet er die Forschungsgruppe Artificial Scientist Lab am Institut – schon der Name vermittelt die Vision eines künstlichen Physikers.

Was 2014 Krenn zur Neuorientierung bewegte, soll später Thema sein. Zuerst gilt es zu klären, unter welchen Bedingungen eine KI menschlichen Physikerinnen und Physikern ebenbürtig wäre. „Zuerst müssen wir verstehen, wie menschliche Forschende arbeiten“, betont Krenn, „warum sie kreativ sind, wie sie kreativ sind, warum sie neugierig sind.“ Es geht also um die Frage, was Menschen zu ihrer Forschung motiviert. „Wenn wir das verstehen, haben wir eine bessere Chance, wirklich autonome, automatisierte Wissenschaft zu machen“, sagt er. Florian Marquardt stimmt dem zu und ergänzt: „Gleichzeitig lernt man etwas darüber, was wir Menschen in der Wissenschaft machen – es ist ja gar nicht klar, ob all unsere Prioritäten in der Forschung wirklich so objektiv sind!

Wir können also als ersten Punkt festhalten, dass ein künstlicher Physiker auf Augenhöhe mit dem Menschen sich selbst motivieren können müsste. Das klingt banal, aber ein Beispiel illustriert, wie anspruchsvoll diese Vision ist. „Nehmen wir doch eine Leitfrage der Festkörperphysik“, schlägt Marquardt vor: „Wie kann ich einen Raumtemperatur-Supraleiter herstellen?“ Abgesehen davon, dass selbst eine so konkrete Frage, die bis heute ungelöst ist, noch zu offen und unspezifisch für eine heutige KI ist: Ein künstlicher Physiker müsste von selbst auf die Frage kommen und sie auch als wichtig einstufen. Die KI müsste also von sich aus erkennen, dass die verlustlose Leitung von elektrischem Strom bei normaler Umgebungstemperatur ein attraktives Forschungsziel ist. „Aber warum willst du Strom verlustlos transportieren?“, stellt Krenn die Frage nach der nächsten Metaebene der Erkenntnis. Die KI müsste sich ohne äußere Vorgabe selbst diese Frage stellen und beantworten. Kurzum: Sie müsste wissen, dass elektrische Energie von zentraler Bedeutung für unsere Gesellschaft ist. Das ist aber ein ins Soziale gehender Aspekt, der weit außerhalb der Physik liegt.

Das Beispiel illustriert, wie anspruchsvoll Kreativität und Neugier sind, die uns Menschen auszeichnen. Davon ist KI noch weit entfernt. Etwas näher könnte KI daran sein, eine Art von Verständnis für physikalische Theorien zu erlangen. Auch hier stellt sich aber die Frage, was genau es bedeutet, einen physikalischen Zusammenhang zu verstehen. Im Gespräch mit Mario Krenn und Florian Marquardt kristallisieren sich mehrere Aspekte heraus, die dafür wesentlich sind. Dazu brauchen Physikerinnen und Physiker eine intuitive, modell- oder bildhafte Vorstellung – und sei es eine abstrakte mathematische Darstellung. Im Fall von AlphaGo hat KI schon bewiesen, dass sie diese Art Intuition – im speziellen Fall für die Situation auf dem Spielbrett – erlangen kann. Verständnis zu haben heißt aber auch, Einsichten und Lösungen von einem Gebiet auf ein anderes übertragen zu können. „Wenn eine KI ein Konzept in einem Zusammenhang kennengelernt hat, vielleicht auch, wie wir, davon in der wissenschaftlichen Literatur erfahren hat, dann kann sie vielleicht erkennen, dass sich das Konzept auch in einem anderen Zusammenhang anwenden lässt“, sagt Marquardt. Schließlich müsste eine KI, eventuell mithilfe eines Sprachmodells, auch Menschen einen Zusammenhang erklären können. Auch das trauen Mario Krenn und Florian Marquardt einer KI zu. Doch bis es so weit ist, muss KI noch viel lernen.

Heute schon ist KI menschlichen Physikerinnen und Physikern bei manchen speziellen Aufgaben überlegen. Und genau darauf setzen Krenn und Marquardt in ihrer Forschung: Sie nutzen dafür unter anderem künstliche neuronale Netze. Diese simulieren miteinander vernetzte Nervenzellen, die lernen, indem sie durch Training bestimmte neuronale Verbindungen stärken und andere abschwächen. „Allerdings sind künstliche neuronale Netze nur eine Methode, das Spektrum von KI ist wesentlich breiter“, betont Florian Marquardt: „Allen KI-Methoden ist aber gemeinsam, dass sie helfen, Komplexität zu beherrschen.“ Dazu gehört, sagt Marquardt, dass KI versteckte Muster entdecken und mathematische Optimierungsaufgaben lösen kann. So lernt KI etwa durch das Training an Millionen von Bildern, Objekte wie „Auto“ oder „Adler“ in den unterschiedlichsten Perspektiven und Situationen zu identifizieren.

Lösungen für die Quantenfehlerkorrektur

Genau diese Fähigkeit, Muster zu erkennen, nutzt Florian Marquardt. Vor einigen Jahren hat eines seiner Teams eine KI so trainiert, dass sie Lösungen für die Quantenfehlerkorrektur findet. Auf eine solche Korrektur werden kommende Quantencomputer angewiesen sein, da ihre hochempfindlichen Quantenbits unvermeidlich Störungen aus der Umgebung ausgesetzt sind. Zu den Eigenheiten der Quantenwelt gehört, dass man während einer Quantenrechnung nicht durch Messungen überprüfen darf, ob die Qubits noch die korrekten Werte enthalten. Folglich muss eine Quantenfehlerkorrektur eine direkte Messung trickreich umgehen. Es ist ein bisschen so, als würde man Go gegen einen Gegner spielen, dessen weiße Steine man nicht sehen kann, sodass man deren Lage durch vorsichtiges Setzen der eigenen Steine erspüren muss. Es geht also auch bei der Quantenfehlerkorrektur um das Erkennen von Mustern. Darüber hat das KI-basierte Programm der Erlanger für bestimmte Korrekturalgorithmen neue Sequenzen von Quantenoperationen aufgespürt.

Florian Marquardts Gruppe hat mithilfe von KI zudem weitere fehlertolerante Programmierungen für Quantencomputer entdeckt sowie Designs für photonische Schaltkreise – optische Gegenstücke zu elektronischen Schaltkreisen. Außerdem entwickelt seine Gruppe Ansätze für sogenannte neuromorphe Computerarchitekturen. Wegen der Arbeitsweise heutiger Computer benötigt KI aktuell viel Energie. Wesentlich nachhaltiger wären neuromorphe Chips, die vom Gehirn inspiriert sind. Immerhin benötigt unser Gehirn nur die Leistung einer 20-Watt-Glühbirne.

Mario Krenn ließ sich bei seinem erhellenden Erlebnis im Jahr 2014 ebenfalls von KI leiten. Damals wollte sein Team bei Anton Zeilinger eine besonders komplexe Form von Verschränkung zwischen Lichtquanten, Photonen, erzeugen. Die Verschränkung ist ein zentrales Werkzeug der Quanteninformationstechnik. Grob gesagt, werden die Quantenzustände einzelner Quantenobjekte, zum Beispiel Photonen, so überlagert, dass sie ein gemeinsames, großes Quantensystem formen. Ein bisschen kann man sich das wie einen Ruderachter vorstellen, dessen Mannschaft sich so gut synchronisiert hat, dass sie wie ein einziger Superathlet rudert.

KI konzipiert Quantenexperiment

Es war unklar, welcher experimentelle Aufbau die spezielle Verschränkung zwischen Photonen am besten erzeugen kann. Krenn hatte dazu ein Programm namens Melvin entwickelt, das alle nötigen optischen Bauelemente simulierte, darunter Laser, Linsen, Spiegel und Detektoren. Damit probierte es in kurzer Zeit Millionen von Kombinationen aus, bis es Experimente gefunden hatte, die diese Verschränkung herstellen. Weil Melvin lernte, welche Kombinationen sinnvoll sind, schaffte das Programm innerhalb von Stunden das, woran vier Physiker – drei Experimentatoren und ein Theoretiker – drei Monate vergeblich gearbeitet hatten: Es lieferte einen funktionierenden Aufbau des Experiments.

Radikale Vereinfachung: Ein Quantenexperiment (unten) lässt sich als Graphennetzwerk (oben) darstellen. Das Experiment soll vier Photonen a bis d (Knoten des Netzwerks oben) miteinander verschränken, wobei die farbigen Linien I bis IV Paarungen für die Verschränkung darstellen. Das Quadrat oben links entspricht der Verschränkung aller vier Photonen, die sich aus der Kombination der beiden Graphen daneben ergibt und sich in den drei unten dargestellten Experimenten realisieren lässt. Die blauen und roten Kästen entsprechen Lichtquellen, die einzelne Photonenpaare erzeugen, die schwarzen, kappenförmigen Symbole Detektoren für die ankommenden Photonen.PBS steht für ein optisches Bauelement, das Strahlen nach bestimmten Regeln aufteilen kann.(Grafik: oco nach Mario Krenn/MPI für die Physik des Lichts)

Nach diesem Aha-Erlebnis widmete sich Krenn ganz der Entwicklung von KI, die Vorschläge für physikalische Experimente kreiert. Dabei half eine wichtige Erkenntnis: „Wir haben zufällig bemerkt, dass diese Quantenoptik-Experimente stark abstrahiert werden können.“ Und zwar lassen sie sich als Netzwerk mathematischer Graphen aus Linien, sogenannten Kanten, und Knoten darstellen. Zwei Knoten stehen dann etwa für zwei Photonen und eine Linie zwischen ihnen für deren Verschränkung. „In diesem abstrakten Raum kannst du wesentlich einfacher zum Beispiel nach neuen Quantenexperimenten suchen“, erklärt Krenn begeistert. Vor allem lässt sich so die optimale Lösung mit einem Minimum an Knoten und Kanten finden, die sich dann in einen besonders ökonomischen Aufbau mit möglichst wenigen Bauteilen in der Realität umsetzen lassen sollte. Allerdings benutzt Krenn für seine KI-Programme keine künstlichen neuronalen Netze: Die müssten ja mit vorhandenen experimentellen Designs trainiert werden, was kaum grundlegend neue Ideen hervorbrächte. „Wir setzen sogenannte Explorationsalgorithmen ein“, erläutert Krenn, „die den riesigen abstrakten Raum an Kombinationen sehr effizient auf neue Lösungen durchsuchen.

Inzwischen ist Mario Krenn mit seiner Forschung erheblich weitergekommen. In einer derzeit auf dem Server Arxiv vorveröffentlichten Arbeit zeigt ein internationales Team, an dem er beteiligt war, zum Beispiel, dass sich mit KI neue Designs für Gravitationswellendetektoren entwickeln lassen. Verblüffenderweise wären diese Konzepte der derzeit geplanten nächsten Generation des amerikanischen Ligo Gravitationswellendetektors überlegen. Ligo wurde berühmt, weil es damit gelang, die Gravitationswellen zu entdecken, deren Existenz Einstein hundert Jahre zuvor postuliert hatte. Das wurde 2017 mit dem Physik-Nobelpreis gewürdigt. Heute sind Gravitationswellen ein wichtiges neues Werkzeug der Astrophysik, um beispielsweise Schwarze Löcher aufzuspüren. Nun ist ein Team um Rana X. Adhikari mit dem Design der nächsten Generation, Ligo Voyager, beschäftigt. Dieses Team stieß darauf, dass Mario Krenn mit KI neue quantenoptische Experimente entwickelte. Also fragte man bei Krenn an, ob er seine Methode auch für die Suche nach neuen Designs für Gravitationswellendetektoren einsetzen wolle. So kam es zur Zusammenarbeit. Was aber die Detektordesigns der KI angeht, müsste sich in der Praxis erst noch zeigen, ob nicht irgendwelche unerwarteten Effekte verhindern, dass sie ihre theoretischen Vorteile ausspielen können. Bei einem Experiment, das Milliarden Dollar kostet, ist man allerdings eher vorsichtig mit radikalen Neuerungen.

Ein Nobelpreis für künstliche Intelligenz?

Bei solchen Beispielen künstlicher Kreativität stellt sich die Frage: Erhaschen wir hier schon eine Vorahnung vom künstlichen Physiker? „Wir sind jetzt auf dem Level, wo wir Ideen erzeugen können“, zeigt sich Mario Krenn optimistisch: „Bei bestimmten Themen können unsere KI-Systeme vollkommen neue Lösungen finden, die im Vergleich mit Ideen von Menschen schon wesentlich kreativer sind, im Sinne des Neuigkeitsgrads und der Nützlichkeit!“ Florian Marquardt ist ebenfalls optimistisch, was Anwendungen von KI betrifft, aber doch vorsichtiger bei der ganz großen Vision. So bleibt die Frage, wann eine KI in der Lage sein wird, eine echte physikalische Theorie aufzustellen. Eine solche Theorie müsste elegant in übersichtlichen mathematischen Formeln darstellbar sein, an die bestehende Physik anknüpfen und Vorhersagen für physikalische Systeme ermöglichen. Trotz dieses hohen Anspruchs ist Mario Krenn zuversichtlich, dass schon in den nächsten Jahren eine KI die entscheidende Idee zu einer nobelpreiswürdigen Entdeckung liefern könnte. Schon bald könnte das Nobelkomitee mit der Frage konfrontiert sein, ob auch eine KI oder deren Schöpfer den höchsten Preis in der Wissenschaft erhalten kann.

Fazit

Künstliche Intelligenz ist sehr gut darin, in großen Datenmengen Muster zu erkennen und die Komplexität von Zusammenhängen zu reduzieren. Deshalb kann sie etwa in der Quanten- oder der Gravitationswellenphysik Experimente konzipieren.

Künftig könnte KI auch physikalische Zusammenhänge verstehen, wenn sie eine modellhafte Vorstellung davon erlangt, Konzepte von einem Gebiet auf ein anderes übertragen und Menschen einen Zusammenhang erklären kann.

Damit KI menschlichen Wissenschaftlern und Wissenschaftlerinnen ebenbürtig wäre, müsste sie selbst aus gesellschaftlichen Bedürfnissen Fragen ableiten können. Davon ist sie noch sehr weit entfernt.


* Der eben im Forschungsmagazin 3/2024 der Max-Planck Gesellschaft https://www.mpg.de/23524840/MPF_2024_3.pdf unter dem Titel "Künstliche Inspiration" erschienene Artikel wird - mit Ausnahme des Titels, einigen Änderungen im Abstract und ohne das Gruppenfoto - in unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


 

inge Thu, 03.10.2024 - 22:51

Bildung ist die Grundlage des menschlichen Fortschritts - Demograf Wolfgang Lutz erhält den weltweit höchstdotierten Preis für Bildungsforschung

Bildung ist die Grundlage des menschlichen Fortschritts - Demograf Wolfgang Lutz erhält den weltweit höchstdotierten Preis für Bildungsforschung

Fr, 26.092024 — IIASA

IIASA Logo

Icon Politik & Gesellschaft Vor 5 Jahren ist im ScienceBlog ein Artikel des Demografen Wolfgang Lutz erschienen, der zeigt, dass ein höherer Bildungsstand zu einem verbesserten Gesundheitsbewusstsein führt und dies wiederum zu einer Erhöhung der eigenen Lebenserwartung sowie der Lebenserwartung der Kinder. Für seine Forschungen über die Rolle der Bildung als Motor für nachhaltige Entwicklung wurde der emeritierte Wissenschafter am International Institute of Applied Sciences (IIASA), der auch wirkliches Mitglied der Österreichischen Akademie der Wissenschaften (ÖAW) und Professor an der Universität Wien ist, mit dem weltweit höchstdotierten Bildungspreis ausgezeichnet.*

Abbildung. Die Yidan-Medaille. Auf einer Seite ist eine Kiefer abgebildet, die aus einem Bergfelsen wächst: ein Symbol für Bildung, deren immergrüne Zweige sich auch unter den schwierigsten Bedingungen ausbreiten können. (Bild: Wikipedia By Joeysdy - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=65440140.)

Wie wirkt sich der Bildungsstand einer Bevölkerung langfristig auf soziale, ökonomische und ökologische Entwicklungen aus? Wie wirkt sich Bildung auf die Fähigkeit einer Gesellschaft aus, sich an den Klimawandel anzupassen? Und welche Rolle spielt die Bildung für die Gleichstellung der Geschlechter und den sozialen Aufstieg?

Die begehrteste Auszeichnung im globalen Bildungssektor

Diese grundlegenden Fragen stehen seit Jahrzehnten im Mittelpunkt der wissenschaftlichen Arbeit von Lutz. Seine mit zahlreichen internationalen Preisen ausgezeichneten Forschungen haben maßgeblich dazu beigetragen, Bildung als zentrale Variable bei der Analyse des Klimawandels zu etablieren. Nun wurde er mit dem hoch angesehenen Yidan-Preis geehrt. Mit 1,7 Millionen Euro freien Projektmitteln und einer zusätzlichen Dotierung von 1,7 Millionen Euro ist der Yidan-Preis die höchste Bildungsauszeichnung der Welt.

"Ich hatte das Privileg, Wolfgang Lutz seit Jahrzehnten als hochgeschätzten Kollegen und herausragenden Sozialwissenschaftler zu kennen", so OeAW-Präsident Heinz Faßmann in einer Glückwunschbotschaft an Lutz, der ordentliches Mitglied der Akademie ist. "Mit seinen Beiträgen zu großen internationalen Forschungsprojekten hat er das Fachgebiet der Demographie wesentlich geprägt und das Ansehen Österreichs in der Welt erhöht. Darüber hinaus hat er sich wirkungsvoll für die Bildung als wesentliches Element der nachhaltigen Entwicklung eingesetzt und damit politische Entscheidungen beeinflusst. Im Namen der OeAW gratuliere ich ihm zu dieser wohlverdienten Anerkennung."

Finanzierung des Aufbaus von Forschungskapazitäten in Afrika und Asien

"Bildung ist die Grundlage des menschlichen Fortschritts. Meine Forschung wird politischen Entscheidungsträgern auf der ganzen Welt Erkenntnisse über den Multiplikatoreffekt von Bildung für eine nachhaltige Zukunft liefern. Ich hoffe, dass ich die Projektmittel des Yidan-Preises nutzen kann, um die Entwicklung von Forschungskapazitäten in Afrika und Asien zu unterstützen und mich auf Bildung als den Schlüssel zur Stärkung der Resilienz zu konzentrieren", sagt Preisträger Lutz.

Der Generaldirektor des IIASA, John Schellnhuber, übermittelte Lutz ebenfalls seine Glückwünsche. "Ich freue mich, meinem geschätzten Kollegen Wolfgang Lutz zur Verleihung des Yidan-Preises herzlich gratulieren zu können. Seine bahnbrechenden Arbeiten in den Bereichen Demographie, Bildung und Systemanalyse haben unser Verständnis der Wechselwirkungen zwischen Bevölkerungsdynamik und Bildungssystemen revolutioniert. Diese Anerkennung unterstreicht die globale Wirkung seiner Forschung."

Zu den Gratulanten zählt auch Sebastian Schütze, Rektor der Universität Wien. "Ich freue mich für Wolfgang Lutz, dass er diese renommierte Auszeichnung erhält. Die Auszeichnung macht deutlich, dass Wolfgang Lutz international als ausgewiesener Demografie-Experte anerkannt ist", fügt Schütze zu.

Bildung als zentrale demografische Variable in der Bevölkerungsprognose

Als Demograf und Sozialstatistiker war Lutz einer der ersten Forscher, der die greifbaren globalen Auswirkungen von Bildung, Humankapital und nachhaltiger Entwicklung aufzeigte. Sein Ansatz, das Bildungsniveau einer Bevölkerung über lange Zeiträume zu analysieren und dessen Auswirkungen auf demografische und soziale Entwicklungen zu untersuchen, etablierte den Faktor Bildung - neben Alter und Geschlecht - als Schlüsselvariable für Bevölkerungsprognosen in der internationalen Forschung.

Lutz ist Gründungsdirektor des Wittgenstein-Zentrums für Demographie und Globales Humankapital, einem Joint Venture zwischen dem IIASA, der Österreichischen Akademie der Wissenschaften und der Universität Wien. Er ist außerdem Mitglied eines Expertenteams der Vereinten Nationen und war Autor des globalen Nachhaltigkeitsberichts "The Future is Now" im Jahr 2019.

Zahlreiche Auszeichnungen

Lutz wurde für seine herausragenden Arbeiten mit zahlreichen renommierten Preisen ausgezeichnet, darunter ist der Wittgenstein-Preis des Wissenschaftsfonds FWF sowie zwei Advanced Grants und ein Proof-of-Concept Grant des ERC (European Research Council). Zuletzt wurde er mit dem Wissenschaftspreis der Österreichischen Forschungsgemeinschaft 2023 ausgezeichnet. Außerdem ist er einer der wenigen Österreicher, die Mitglied der US National Academy of Sciences sind. Seine Arbeiten, die in mehr als 293 wissenschaftlichen Artikeln und 27 Büchern veröffentlicht wurden, sind weltweit anerkannt und haben die demografische Forschung maßgeblich beeinflusst.

Der Yidan-Preis wurde 2016 von dem Philanthropen Charles Chen Yidan gegründet, um Beiträge zur Bildungsforschung und -entwicklung zu würdigen. Die Yidan Prize Foundation hat ihren Sitz in Hongkong. Ihr Ziel ist es, Ideen und Praktiken im Bildungsbereich zu fördern, die das Leben des Einzelnen und der Gesellschaft positiv beeinflussen können.

Über die Yidan Prize Foundation

Die Yidan Prize Foundation ist eine globale philanthropische Stiftung, die sich zum Ziel gesetzt hat, durch Bildung eine bessere Welt zu schaffen. Durch ihren Preis und ihr Netzwerk von Innovatoren unterstützt die Yidan Prize Foundation Ideen und Praktiken im Bildungsbereich, die das Leben und die Gesellschaft positiv verändern können.

Der Yidan-Preis ist die weltweit höchste Bildungsauszeichnung, mit der Einzelpersonen oder Teams gewürdigt werden, die einen wichtigen Beitrag zur Theorie und Praxis der Bildung geleistet haben. Er besteht aus zwei Preisen, die zusammen passen: dem Yidan-Preis für Bildungsforschung und dem Yidan-Preis für Bildungsentwicklung. Beide Preise sind darauf ausgelegt, wirksam werden zu können: Die Preisträger erhalten über einen Zeitraum von drei Jahren einen nicht zweckgebundenen Projektfond in Höhe von 15 Mio. HK$, der ihnen hilft, ihre Arbeit auszuweiten, sowie eine Goldmedaille und einen Geldpreis in Höhe von 15 Mio. HK$. Der Projektfond und der Geldpreis werden zu gleichen Teilen an Teams vergeben.

Anm. Redn.: Der Stifter des Yidan Preises, Dr. Charles CHEN Yidan hat selbst erfahren, welchen Unterschied Bildung im Leben eines Menschen machen kann. Mit zwei Abschlüssen: einen Bachelor in angewandter Chemie an der Universität Shenzhen und einen Master in Wirtschaftsrecht an der Universität Nanjing wurde er zum Milliardär.


 *Der Artikel "Wolfgang Lutz is the first Austrian to win the Yidan Prize" ist am 26. September2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/sep-2024/wolfgang-lutz-is-first-austrian-to-win-yidan-prize). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch eine Abbildung und einen kurzen Kommentar ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Wolfgang Lutz im ScienceBlog:

Über Wolfgang Lutz: Wolfgang Lutz

Wolfgang Lutz & Endale Kebede, 25.7.2019: Bildung entscheidender für die Lebenserwartung als Einkommen


 

inge Thu, 26.09.2024 - 17:30

Zur unzureichenden Zufuhr von Mikronährstoffen

Zur unzureichenden Zufuhr von Mikronährstoffen

So, 22.09.2024 — Redaktion

Redaktion

Icon Nahrung

Die unzureichende Zufuhr von Mikronährstoffen und der daraus resultierende Mangel stellen eine große Herausforderung für die globale öffentliche Gesundheit dar. Auf der Grundlage von möglichst aktuellen, weltweit erhobenen Daten zum Nahrungskonsum liefert eine Studie nun erstmals Schätzungen der globalen und regionalen Zufuhr von 15 essentiellen Vitaminen und Mineralstoffen, wobei Unterschiede zwischen Männern und Frauen und nach Altersgruppen zwischen 0 und 80+ Jahren aufgezeigt werden. Die Ergebnisse sind alarmierend: Der weitaus überwiegende Teil der Weltbevölkerung konsumiert mindestens einen Mikronährstoff in unzureichender Menge. Diese Ergebnisse sind öffentlich frei zugänglich und können genutzt werden, um gezielt auf Bevölkerungsgruppen zuzugehen, die ein Eingreifen benötigen.

Eure Nahrung sei Medizin, eure Medizin Nahrung (Hippokrates)

Unser Organismus ist auf die regelmäßige Zufuhr von Mikronährstoffen angewiesen, die er selbst nicht produzieren kann. Es sind dies niedermolekulare Substanzen - Vitamine und Mineralstoffe -, die als essentielle Komponenten von physiologischen Prozessen im Organismus fungieren. Bei den meisten dieser Stoffe reichen dafür Mikrogramm- bis Milligramm-Mengen pro Tag aus und diese sollten in verfügbarer Form aus der Nahrung aufgenommen werden können.

Eine unzureichende Aufnahme von Mikronährstoffen gehört weltweit zu den häufigsten Formen der Mangelernährung, wobei bei jedem dieser essentiellen Stoffe ein "zu wenig" zu jeweils spezifischen gesundheitlichen Folgen führt. Diese reichen von Anämie, Erblindung, negativ verlaufenden Schwangerschaften, schlechter physischer Entwicklung, kognitiven Beeinträchtigungen, Haut-und Haarproblemen bis hin zu erhöhter Anfälligkeit für Infektionskrankheiten.

Mikronährstoffmangel trägt also massiv zu erhöhter Morbidität und Mortalität bei, das globale aber in vielen Fällen auch regionale Ausmaß des Problems hat sich aufgrund unzureichender und/oder veralteter Daten bisher kaum abschätzen lassen.

Globale Schätzung des nahrungsbedingten Mangels an Mikronährstoffen

So übertitelt ein Forscherteam der Harvard T.H. Chan School of Public Health, der UC Santa Barbara (UCSB) und der Global Alliance for Improved Nutrition seine eben im Fachjournal Lancet Global Health erschienene neue Studie [1]. Darin haben die Forscher erstmals den Bedarf an den Mikronährstoffen mit deren Aufnahme aus der jeweiligen Nahrung in 185 Ländern (dies entspricht 99,3 Prozent der Weltbevölkerung) verglichen. Die dazu verwendeten, möglichst aktuellen Daten stammten aus i) der Global Dietary Database, einer Datenbank, welche auf Basis repräsentativer nationaler Umfragen den globalen Ernährungsstatus schätzt [2], ii) der Weltbank und iii) aus Erhebungen zur Ernährung in 31 Ländern. Untersucht wurden 15 Mikronährstoffe: die Mineralstoffe Kalzium, Magnesium, Jod, Eisen, Zink und Selen und die Vitamine A, B1 (Thiamin), B2 (Riboflavin), B3 (Niacin), B6 (Pyridoxine), B9 (Folsäure), B12 (Cobalamin), C (Ascorbinsäure) und E (Tokopherole). Unterschiedlicher Bedarf an diesen Substanzen und deren Aufnahme aus der konsumierten Nahrung wurde bei beiden Geschlechtern und in 17 Altersgruppen von 0 bis 80+ Jahren erhoben.

Es muss betont werden, dass für die Zufuhr von Mikronährstoffen nur die Aufnahme aus der jeweiligen Nahrung, nicht aber in Form von Supplementen oder in angereicherten Formen in Lebensmitteln (z.B. jodiertes Kochsalz) berücksichtigt werden konnten. Der globale Markt für Supplemente ist in den letzten Jahren zwar sehr stark gewachsen, verlässliche Daten zur weltweiten Anwendung fehlen aber noch [3]. Programme für mit Vitaminen (zB. mit Folsäure) und/oder Mineralstoffen angereicherten Nahrungsmitteln laufen in zahlreichen Ländern, erfassen die Bevölkerung nur teilweise [4].

Alarmierende Ergebnisse

Abbildung 1. Unzureichende Aufnahme von 4 Mikronährstoffen aus der Nahrung. Zahl und Anteile der betroffenen globalen Bevölkerung und geschätzte Prävalenz in 185 Ländern im Jahr 2018. Zur besseren Sichtbarkeit sind Länder mit einer Landfläche von weniger als 25 000 km² als Punkte dargestellt (Bild: Unveränderter Ausschnitt aus Figure 2 in Pasarelli et al., 2024; Lizenz: cc-by-nc-nd).

Die Analyse ergab, dass Milliarden Menschen zu wenig von mindestens einem essentiellen Mikronährstoff konsumieren. Die Zahlen sind unerwartet hoch und betreffen Menschen in allen Ländern, arme ebenso wie reiche.

Am Unzureichendsten ist die Aufnahme von 4 Mikronährstoffen: Jod, Vitamin E, Calcium und Eisen - rund zwei Drittel der Menschheit weisen hier schwere Defizite auf. Abbildung 1.

Jodmangel führt mit 5,1 Milliarden Menschen die Liste an. Es ist ein essentieller Bestandteil der Schilddrüsenhormone Trijodthyronin und Thyroxin, die eine zentrale Rolle im Energiestoffwechsel spielen und Auswirkungen auf Zellwachstum, Immunzellen, Herzfunktion, Muskulatur, Fettgewebe und endokrine Organe zeigen. Die Analyse dürfte allerdings den Jodmangel stark überschätzen, da er sich auf die Aufnahme aus Nahrungsquellen - vor allem aus Meeresprodukten - bezieht, in vielen Ländern aber bereits jodiertes Speisesalz verwendet wird (und z.T. gesetzlich vorgeschrieben ist), das - wie erwähnt - in der Analyse nicht berücksichtigt wurde. Eine Anreicherung von Lebensmitteln mit vielen der Mikronährstoffe ist dagegen weltweit nicht üblich.

Tabelle. Mikronährstoffe, geschätzter Mangel der Weltbevölkerung (in Milliarden) und wichtigste physiologische Rollen. (Mangeldaten zusammengestellt aus [1) )

Die einzelnen Nährstoffdefizite zeigen starke regionale Unterschiede, oft auch zwischen Nachbarländern wie im Fall des Eisenmangels. Länder in Nordamerika, Europa und Teile Zentralasiens zeigen niedrige Prävalenzen von Calciummangel. Vitamin E-Mangel ist mit nur wenigen Ausnahmen nahezu über die ganze Erde verbreitet. Abbildung 1.

Die untersuchten 15 Mikronährstoffe, die globale Prävalenz ihrer Defizite und wesentlichste physiologische Rollen sind in der nebenstehenden Tabelle aufgelistet.

Die Forscher analysierten auch die Zufuhr von Mikronährstoffen über die gesamte Lebensdauer (in 5-Jahresintervallen) bei beiden Geschlechtern. So stellten sie fest, dass in allen Regionen die Aufnahme von Calcium sowohl bei Frauen als auch bei Männern im Alter zwischen 10 und 30 Jahren am geringsten war. Unterschiede zwischen Männern und Frauen bestanden bezüglich der Zufuhr verschiedener Stoffe: So wiesen innerhalb desselben Landes und derselben Altersgruppe Frauen höhere Defizite an Jod, Vitamin B12, Eisen und Selen auf als Männer, umgekehrt nahmen mehr Männer zu geringe Mengen an Niacin, Thiamin, Zink, Magnesium und den Vitaminen A, C und B6 zu sich.

Abbildung 2. 2, Abschätzung der unzureichenden Zufuhr von Eisen über die Lebensdauer von Frauen und Männern. Oben: Eisendefizite in den Weltregionen, Unten: Eisendefizite in Kasachstan. (Bild: Unveränderte Ausschnitte aus Figure 3 und 1, in Pasarelli et a., 2024; Lizenz: cc-by-nc-nd).

Abbildung 2 zeigt als Beispiel die unzureichende Zufuhr von Eisen, die bis Ende ihres reproduktionsfähigen Alters bei Frauen stärker ausgeprägt war als bei Männern .

Für die geschätzte unzureichende Versorgung mit bestimmten Nährstoffen ergaben sich so je nach Geschlecht eindeutige Muster. Die Autoren der Studie hoffen, dass diese Muster helfen können, besser zu erkennen, wo Ernährungsmaßnahmen erforderlich sind, wie z. B. diätetische Maßnahmen, Anreicherung und Supplementierung von Mikronährstoffen.

Methoden und Ergebnisse der Studie sind öffentlich frei zugänglich und können genutzt werden, um gezielt auf Bevölkerungsgruppen zuzugehen, die ein Eingreifen benötigen.


[1] Simone Passarelli et al., Global estimation of dietary micronutrient inadequacies: a modelling analysis. The Lancet Global Health, Vol: 12, Issue: 10, Page: e1590-e1599. https://doi.org/10.1016/S2214-109X(24)00276-6

[2] Global Dietary Databank. Improving global health through diet. https://doi.org/10.3390/nu15153320

[3] Ouarda Djaoudene et al., A Global Overview of Dietary Supplements: Regulation, Market Trends, Usage during the COVID-19 Pandemic, and Health Effects. Nutrients 2023, 15, 3320. https://www.gainhealth.org/sites/default/files/publications/documents/Mighty-Nutrients-Coalition-Policy-Brief-Preventing-Micronutrient-Deficiencies-Worldwide.pdf

[4] Global Alliance for Improved Nutrition (GAIN): Preventing Micronutrient Deficiencies Worldwide. https://www.gainhealth.org/sites/default/files/publications/documents/Mighty-Nutrients-Coalition-Policy-Brief-Preventing-Micronutrient-Deficiencies-Worldwide.pdf


WHO: Vitamin and Mineral Nutrition Information System (VMNIS). https://www.who.int/teams/nutrition-and-food-safety/databases/vitamin-and-mineral-nutrition-information-system


 

inge Sun, 22.09.2024 - 16:46

Antibiotika schädigen die Mucusbarriere des Dickdarms und erhöhen so das Risiko für entzündliche Darmerkrankungen

Antibiotika schädigen die Mucusbarriere des Dickdarms und erhöhen so das Risiko für entzündliche Darmerkrankungen

So,15.09.2024 — Redaktion

Redaktion

Icon Medizin

 

Eine neue Studie der Bar-Ilan-Universität zeigt auf, wie die Einnahme von Antibiotika das Risiko einer chronisch entzündlichen Darmerkrankung (CED) erhöht. Demnach führt bereits kurzzeitige Antibiotikabehandlung zum Zusammenbruch der schützenden Mucusbarriere, die Darmwand samt Immunzellen vor schädlichen Mikroorganismen im Darmlumen abschirmt. Die Schädigung der Mucusbarriere erfolgt offensichtlich dadurch, dass Antibiotika direkt die Schleimsekretion in den dafür verantwortlichen Becherzellen hemmen. In einem Mausmodell der CED führte der Antibiotika bedingte Mangel an Schleimproduktion zum Eindringen von Bakterien in die Darmschleimhaut, zum Auftauchen mikrobieller Antigene im Blutkreislauf und zur Verschlimmerung von Ulzerationen.

Mit der Entdeckung der ersten Antibiotika vor rund 100 Jahren setzte eine neue Ära der Medizin ein. Diese Wundermittel haben ehemals fatal verlaufende mikrobielle Infektionen zu (leicht) behandelbaren Erkrankungen gemacht, neue medizinische Verfahren ermöglicht, die von komplizierten Operationen, Transplantationen bis hin zu Krebsbehandlungen reichen, und so wesentlich dazu beigetragen, dass wir nun um Jahrzehnte länger leben als unsere Vorfahren. Allerdings hat der breite, allzu häufige und unsachgemäße Einsatz der Antibiotika nicht nur in der Humanmedizin, sondern auch im Tiergebiet (Massentierhaltung) bei vielen menschlichen Krankheitserregern zur Entwicklung von Arzneimittelresistenzen geführt. Es ist dies eine bedrohliche Situation, da neue, gegen (multi)resistente Bakterien wirksame Antibiotika derzeit fehlen.

Antibiotika und das Mikrobiom

Ein wesentliches Argument für den überaus hohen Einsatz der Antibiotika war, dass diese ja nur gegen mikrobielle Prozesse gerichtet sind, welche im menschlichen/tierischen Organismus nicht vorkommen. Natürlich wurde es zunehmend klar, dass neben der Vernichtung der schädlichen Mikroben auch Billionen unserer nützlichen mikrobiellen Mitbewohner - vor im Mikrobiom des Verdauungstrakts - durch Antibiotika empfindlich gestört/zerstört werden können. Wie die in den letzten Jahren boomende Mikrobiomforschung zeigt, gehen vom Mikrobiom im Darm Signale aus, die Verbindungen zu diversen Körperorganen - Achsen, darunter die bidirektionale Darm-Hirn-Achse - bilden, deren Stoffwechsel, Immun-, Nerven- und Hormonsysteme beeinflussen und so zur Homöostase der Organe beitragen. Als Folge wird daher angenommen, dass viele, in Zusammenhang mit Antibiotikaeinsatz stehende weitverbreitete Krankheiten - von neuro-immunologischen Entwicklungsstörungen bei (Klein)kindern über Fettleibigkeit, Diabetes bis hin zu chronischen Entzündungen - auf eben die Störung des Mikrobioms zurückzuführen sind. Zu diesen Entzündungen werden auch chronisch entzündliche Darmerkrankungen (CED) gezählt.

Antibiotika und chronisch entzündliche Darmerkrankungen

Von entzündlichen Darmerkrankungen - die wichtigste Arten sind Morbus Crohn und Colitis ulcerosa - sind derzeit rund 7 Millionen Menschen betroffen und diese Zahl ist im Steigen begriffen. Die Ursachen sind noch sehr schwammig mit einem komplexen Zusammenspiel von genetischer Veranlagung, Umweltfaktoren, einem deregulierten Immunsystem und dem Mikrobiom des Darms beschrieben. Epidemiologische Studien aus den letzten Jahren haben einen engen dosisabhängigen Zusammenhang zwischen der Anwendung von Antibiotika und dem Risiko für die Entwicklung von CED gezeigt [1].

Abbildung 1. Die Darmschleimhaut (Darmmucosa), schematische Darstellung (links) und Gewebeschnitt (rechts). Die Darmmucosa nimmt Nährstoffe aus dem Darmlumen auf und ist gleichzeitig Barriere gegen das Eindringen von Partikeln und Mikroorganismen. Sie setzt sich aus den Epithelzellen, der darunter liegenden Trägerschicht aus Bindegewebe (Lamina propria) und der als Grenzschschicht zum Darmlumen liegenden Schleimschichte (Mucus) zusammen. Epithelzellen: Enterozytendienen der Resorption von Nährstoffen, dem Ionentransport. Goblet Zellen (Becherzellen) sezernieren Mucine (Schleim). Panethzellen (vor allem im Dünndarm bewirken lokale Immunabwehr. Enteroendokrine Zellen produzieren (Gewebs)Hormone, die auch in die Blutbahn abgegeben werden. Tuft Zellen (Bürstenzellen) sind chemosensorische Zellen, die in der Immunantwort.eine Rolle spielen. Nicht gezeigt: Die Lamina propria enthält Zellen der Immunabwehr -Makrophagen, T-Zellen, dendritische Zellen. (Bild links:modifiziert nach A. I. Wells & C. B. Coyne (2023), https://doi.org/10.3390/v11050460; Lizenz: cc-by-sa. Bild rechts: modifiziert nach P. Paone & P.D. Cani (2020), https://doi.org/10.1136/gutjnl-2020-322260; Lizenz cc-by.-nc)

Ein Forscherteam unter Shai Bel von der Bar-Ilan-Universität (Ramat Gan, Israel) berichtet nun über entscheidende neue Erkenntnisse auf welche Weise Antibiotika zur Entstehung von chronisch entzündlichen Darmerkrankungen beitragen [2]:

    Ausgehend von der Hypothese, dass Antibiotika im Darm nicht nur Mikroorganismen sondern auch Strukturen des Wirtsorganismus direkt angreifen können, haben die Forscher festgestellt, dass Antibiotika den Zusammenbruch der zwischen Darmepithel und Darmlumen liegenden, schützenden Mucusbarriere bewirken.

Zum besseren Verständnis dieser Ergebnisse veranschaulicht Abbildung 1 die Darmschleimhaut (Darmmucosa) mit den wesentlichen Zelltypen und der als Grenzschschicht zum Darmlumen liegenden Mucusbarriere.

Die Mucusbarriere des Darms

Schleim - Mucus - liegt als Schichte (in mehreren Schichten) auf der Darmschleimhaut auf und separiert den Inhalt des Darmlumens mit seinen Stoffwechselprodukten, Verdauungsresten und dem Mikrobiom von der Darmwand. Der Schleim besteht aus Mucinmolekülen - Glykoproteinen -, die von Becherzellen (goblet cells) im Darmepithel abgesondert werden und ein hydratisiertes Gel bilden. Dieses erleichtert den Transport der Verdauungsprodukte im Darmlumen, schützt die Darmwand vor Verdauungsenzymen und verhindert, dass große Partikel und Billionen von Mikroorganismen direkt mit der Epithelzellschicht in Berührung kommen; kleine Moleküle können jedoch durch das Gel hindurch zu den absorbierenden Darmzellen passieren.

Antibiotika wirken direkt auf die Mucusbarriere

Tabelle. Charakteristika der 4 untersuchten Antibiotika

Die in [2] berichteten Studien wurden an Mäusemodellen durchgeführt. Mit dem Ziel eine kurzzeitige Antibiotikabehandlung an Patienten zu imitieren, erhielten die Tiere drei Tage lang 2 x täglich Antibiotika oral verabreicht. Es handelte ich dabei um 4 klassische, seit mehr als 60 Jahren angewandte Antibiotika - Ampicillin, Neomycin, Metronidazol und Vancomycin -, die aus unterschiedlichen Antibiotikaklassen stammen, unterschiedliche Wirkungsmechanismen und Wirkspektren haben (siehe Tabelle). Eine Kontrollgruppe erhielt gepufferte Kochsalzlösung. Nach Tötung der Tiere wurden dann Gewebe und Blut entnommen und mit unterschiedlichen Techniken wie Fluoreszenzmikroskopie, Messung der Schleimsekretion, RNA-Sequenzierung und maschinellem Lernen untersucht.

Das erstaunliche Ergebnis: Unabhängig von der Art des getesteten Antibiotikums, hat die kurzzeitige orale Behandlung in allen 4 Fällen zum Zusammenbruch der Mucusbarriere geführt; die räumliche Trennung von Epithelzellen/Immunzellen der Darmschleimhaut und den Mikroorganismen im Darmlumen wurde damit aufgehoben. Abbildung 2. Die Mikroben kommen so in direkten Kontakt mit dem Gewebe des Wirts und können eine Immunreaktion auslösen.

Tatsächlich wird sowohl in Tiermodellen für CED als auch bei Patienten mit CED ein Zusammenbruch der Mucusbarriere beobachtet.

Abbildung 2. Abbildung 2. Kolongewebe von Mäusen, die oral mit den angegebenen Antibiotika oder mit gepufferter Kochsalzlösung (PBS) behandelt wurden. Links: Fluoreszenz-in situ-Hybridisierung. Die Bakterien sind grün gefärbt, die Zellkerne des Wirts blau. Die gestrichelten weißen Linien markieren den Rand des Wirtsepithels. Maßstabsbalken, 20 μm. Rechts: Quantifizierung des Abstands zwischen luminalen Bakterien und Wirtsepithel. Jeder Punkt repräsentiert die Ergebnisse von einer Maus. (Bild aus J. Sawaed et al., 2024 [2], Lizenz cc-by).

Mit Hilfe weiterer Untersuchungen, u.a. durch Antibiotikabehandlung von keimfreien Mäusen, Transplantation des fäkalen Mikrobioms und in vitro Studien zur Schleimsekretion der Becherzellen, stellten die Forscher fest, dass die Schädigung der Mucusbarriere unabhängig von der Antibiotika-bedingten Veränderung des Mikrobioms erfolgt. Antibiotika lösen direkt in den für die Schleimsekretion verantwortlichen Becherzellen (siehe Abbildung 1) eine Stressreaktion aus, die zur Hemmung der Mucussekretion führt.

In einem weiteren Mausmodell für CED führte die durch Antibiotika blockierte Schleimsekretion zum Eindringen von Bakterien in die Darmschleimhaut, zur Verlagerung mikrobieller Antigene in den Blutkreislauf und zur Verschlimmerung von Ulzerationen.

----------------------------------------------

Summa summarum: Antibiotika schädigen nicht nur Bakterien, sondern auch Wirtszellen. Die orale Einnahme von Antibiotika kann infolge der gehemmten Mucusproduktion die Entstehung von Darmentzündungen begünstigen.


[1] A. S. Faye et al., Antibiotic use as a risk factor for inflammatory bowel disease across the ages: A population-based cohort study. Gut 72, 663–670 (2023).

[2] J. Sawaed et al, Antibiotics damage the colonic mucus barrier in a microbiota-independent manner, Science Advances (2024). www.science.org/doi/10.1126/sciadv.adp4119


 

inge Sun, 15.09.2024 - 23:32

CHIEF - ein neues Tool der künstlichen Intelligenz bildet die Landschaft einer Krebserkrankung ab und verbessert damit Diagnose, Behandlung und Prognose

CHIEF - ein neues Tool der künstlichen Intelligenz bildet die Landschaft einer Krebserkrankung ab und verbessert damit Diagnose, Behandlung und Prognose

Fr,06.09.2024 — Ricki Lewis

Ricki Lewis Icon Medizin

Forscher der Harvard Medical School haben mit CHIEF ein neues Tool der Künstlichen Intelligenz entwickelt, das weiter geht als viele derzeitige KI-Ansätze zur Krebsdiagnose: Es kann Krebs identifizieren, Behandlungsmöglichkeiten empfehlen und Überlebensraten für 19 verschiedene Krebsarten vorhersagen. Dies wird möglich, da CHIEF erstmals nicht nur Merkmale der Tumorzelle sondern auch der Mikroumgebung eines Tumors nutzt, um vorherzusagen, wie ein Patient auf eine Therapie ansprechen werde und wie für diesen eine optimale personalisierte Therapie aussehen könnte. Die Genetikerin Ricki Lewis berichtet über dieses neue Modell, das einen bahnbrechenden Fortschritt für Diagnose und Therapie von Krebserkrankungen verspricht.*

Bild: Placidplace, Pixabay (Inhaltslizenz).

Früher einmal hat die Diagnose Krebs im Stadium IV den Anfang vom Ende bedeutet. Heute markiert es für viele Patienten den Beginn einer zielgerichteten Therapie (targeted therapy), nämlich der Einnahme von einer Reihe von Medikamenten, die speziell auf die krankhaften Zellen abzielen, indem sie die Signale blockieren, die deren unkontrollierte Zellteilung ankurbeln, während sie gesunde Zellen schonen. Krebspatienten im Stadium IV können so noch Jahre, ja sogar Jahrzehnte leben und manchmal an einer anderen Krankheit sterben.

Jetzt gibt es sogar Hoffnung für Patienten, deren Krebserkrankungen gegen zielgerichtete Medikamente resistent geworden sind, indem mit Hilfe künstlicher Intelligenz Krebszellen und ihre Umgebung untersucht werden, um neue Schwachstellen zu ermitteln. Forscher der Harvard Medical School beschreiben ein neues ChatGPT-ähnliches Modell, das klinische Entscheidungen zu Diagnose, Behandlung und Überlebensvorhersage bei verschiedenen Krebsarten leiten kann. Ihr Bericht erscheint im Fachjournal Nature.[1].

Der neue Ansatz komplettiert zielgerichtete Arzneimittel, indem er über die Oberfläche einer Krebszelle und die biochemischen Wege in ihr hinausgehend auch deren Mikroumgebung - die unmittelbare Umgebung - mittels Bildanalyse untersucht. Frühzeitig eingesetzt könnte die künstliche Intelligenz Medikamente, die wahrscheinlich nicht wirken, effektiver identifizieren als genetische und genomische Tests. Es handelt sich um eine Strategie, bei der "man den Wald vor lauter Bäumen nicht sieht" und dabei die Landschaft einer Krebserkrankung aufdeckt.

Eine kurze Geschichte der zielgerichteten Krebsmedikamente

1978 genehmigte die FDA mit Tamoxifen das erste zielgerichtete Krebsmedikament. Anstatt wie bei einer herkömmlichen Chemotherapie alle sich schnell teilenden Zellen abzutöten, blockiert Tamoxifen die Östrogenrezeptoren. Dadurch wird das Hormon, das die zu häufige Teilung der Brustzellen auslöst, ausgeschaltet.

1998 hat die FDA Herceptin zugelassen, das auf einen anderen Rezeptor (HER2) in Brustkrebszellen abzielt.

Das bahnbrechendste, bisher zugelassene Krebsmedikament, ist Glivec; zwischen der Einreichung bei der FDA bis zur Zulassung im Jahr 2001 vergingen nur drei Monate. Glivec ist ein kleines Molekül, das mit einem Enzym - einer mutierten Tyrosinkinase - interferiert, das unkontrolliertes Wachstum in weißen Blutkörperchen auslöst. Glivec war der erste Kinasehemmer und wurde ursprünglich zur Behandlung einer Form von Leukämie eingesetzt.

Zielgerichtete, zur Behandlung einer bestimmten Krebsart entwickelte Krebsmedikamente, lassen sich - basierend auf molekularen Ähnlichkeiten - nach weiteren Studien häufig auch zur Behandlung anderer Krebsarten einsetzen. Allmählich begann sich die Organ-bezogene Diagnose auf eine Diagnose auf molekularer Basis zu verlagern. Und so weitete sich der Einsatz von Glivec rasch auf die Behandlung anderer Krebserkrankungen des Bluts und des Verdauungstraktes aus, die einem Freund von mir das Leben rettete.

Keytruda veranschaulicht die in jüngerer Zeit zugelassenen Krebsmedikamente. Keytruda wurde 2014 von der FDA zugelassen und war der erste "Programmierte Zelltod-Rezeptor-1 (PD-1)-Inhibitor". Die Anwendung wurde von Melanomen auf Nieren-, Lungen-, Gebärmutter- sowie Kopf- und Halskrebs ausgeweitet - allerdings auf bestimmte molekulare Subtypen dieser Krebsarten.

Zu den ausufernden Jargons von Krebsmedikamenten

In der Werbung für Krebsmedikamente werden in stakkatoartigem Kauderwelsch molekulare Mechanismen und biochemische Wege, Antikörper und ihre Rezeptoren beschrieben, als ob sich der verzweifelte Durchschnittspatient die Schritte eines Signaltransduktionswegs oder eines Antikörpers, der ein Antigen bindet, sofort vorstellen könnte.

Die letzte Silbe eines unaussprechlichen Arzneimittelnamens gibt den Arzneimitteltyp an. Ein Name, der auf "nib" endet, bedeutet ein kleines Molekül, das ein Enzym namens Kinase hemmt, und ist die Abkürzung für "inhibit". Da das Enzym erforderlich ist, damit Wachstumssignale in die Zelle gelangen und die Zellteilung auslösen können, stoppt das Medikament die unkontrollierte Teilung. Glivec, auch bekannt als Imatinib, tut dies.

Ein Name, der auf "mab" endet, ist ein monoklonaler Antikörper, abgekürzt MAb, der wie eine Drohne wirkt. Keytruda (Pembrolizumab) bindet eines von zwei Molekülen (den programmierten Zelltod-Rezeptor-1 [PD-1] oder den programmierten Todesliganden 1 [PD-L1]). Dadurch wird die durch den Krebs ausgelöste Blockade der Immunantwort aufgehoben, so dass die T-Zellen den Krebs bekämpfen können. Keytruda wird aufgrund seines Wirkmechanismus und nicht aufgrund seiner Struktur als Immun-Checkpoint-Inhibitor eingestuft.

KI untersucht die Mikroumgebung von Krebs

Zielgerichtete Krebsmedikamente basieren auf dem Genotyp - auf den Mutationen, die den Krebs auslösen und vorantreiben. Der neue KI-Ansatz berücksichtigt den Genotyp aber auch den Phänotyp - d.i. wie der Tumor und seine Umgebung aussehen: Er analysiert digitale Bilder von Tumorgewebe und nennt sich CHIEF für Clinical Histopathology Imaging Evaluation Foundation.

Die Forscher haben das Modell an 19 Krebsarten getestet und die Ergebnisse an mehreren internationalen Patientengruppen validiert.

"Unser Ziel war es, eine flinke, vielseitige, ChatGPT-ähnliche KI-Plattform zu schaffen, die ein breites Spektrum an Aufgaben zur Krebsbeurteilung übernehmen kann. Unser Modell erwies sich bei verschiedenen Aufgaben im Zusammenhang mit der Krebserkennung, der Prognose und dem Ansprechen auf die Behandlung bei verschiedenen Krebsarten als sehr nützlich", so der Hauptautor Kun-Hsing Yu.

Das KI-Modell liest und analysiert digitale Bilder von Tumorgewebe, identifiziert Krebszellen und prognostiziert das molekulare Profil eines Tumors auf der Grundlage der zellulären Merkmale und der Eigenschaften der Umgebung, der so genannten Mikroumgebung. Diese Erkenntnisse können dann zur Vorhersage des Ansprechens auf Behandlungen und der Überlebensdauer genutzt werden.

Vielleicht am wichtigsten, so das Team, ist, dass das KI-Tool neue Erkenntnisse generieren kann, z. B. eine Reihe bisher nicht bekannter Tumormerkmale zur Vorhersage der Überlebensdauer eines Patienten.

"Weiter validiert und auf breiter Basis eingesetzt, könnte unser Ansatz und ähnliche Ansätze frühzeitig Krebspatienten identifizieren, die von experimentellen, auf bestimmte molekulare Variationen abzielende Behandlungen profitieren könnten, ein Potential, das nicht überall in der Welt gleichermaßen vorhanden ist", so Yu.

Eine riesige Datenflut

KI produziert und verknüpft riesige Datenmengen und erstellt Projektionen. Die Forscher haben CHIEF an 15 Millionen unmarkierten Bildern trainiert, die nach Gewebetyp oder Lage in einem bestimmten Organ oder einer Struktur gruppiert waren. Anschließend wurde CHIEF an 60 000 weiteren Bildern trainiert, die viele Körperteile repräsentierten: Lunge, Brust, Prostata, Leber, Gehirn, Dickdarm, Magen, Speiseröhre, Niere, Blase, Schilddrüse, Bauchspeicheldrüse, Gebärmutter, Hoden, Haut, Nebennieren und andere. Das Training berücksichtigte den Standortkontext - das heißt, wo genau eine bestimmte Zelle im 3D-Raum eines Gewebes oder Organs liegt.

Die Trainingsstrategie ermöglichte es CHIEF ein Bild in einem breiten Kontext zu interpretieren und sich dabei auf einen bestimmten Teil eines Organs zu konzentrieren.

Nach dem Training erhielt CHIEF mehr als 19 400 Ganzbildaufnahmen aus 32 unabhängigen Datensätzen, die von 24 Krankenhäusern und Patientenkohorten aus der ganzen Welt gesammelt worden waren.

Ergebnisse

Unabhängig von der Art der Probennahme (Operation oder Biopsie) oder wie die Digitalisierung des Bildes erfolgt war, schnitt CHIEF gut ab - ein Hinweis auf die Umsetzbarkeit in verschiedenen medizinischen Anwendungen. Das Tool erkennt mit 94 - 96 % Genauigkeit Zellen unterschiedlicher Krebsarten, lokalisiert den Ursprung des Tumors und identifiziert und evaluiert Gene und DNA-Muster, die mit dem Ansprechen auf die Behandlung zusammenhängen. Es funktionierte sogar bei Bildern, die zuvor nicht analysiert oder deren Krebsart nicht identifiziert worden war.

Die schnelle Identifizierung von Zellmustern auf einem Bild, die auf spezifische genomische Aberrationen hindeuten, könnte eine rasche und kostengünstige Alternative zur Genom-Sequenzierung darstellen, so die Forscher. CHIEF leitet den Genotyp - Mutationen - ab, indem es die Assoziation mit dem Phänotyp - den Bildern - betrachtet.

CHIEF ermöglicht es einem Kliniker auch, sofort gezielte Medikamente für einen bestimmten Patienten zu evaluieren. Das Team hat dies mit der Fähigkeit von CHIEF getestet Mutationen in 18 Genen an 15 anatomischen Körperstellen vorherzusagen, die mit dem Ansprechen auf FDA-zugelassene Therapien in Verbindung stehen.

Am wichtigsten ist vielleicht, dass CHIEF bei der Vorhersage der Überlebensdauer von Patienten auf der Grundlage von Bildern des bei der Erstdiagnose entnommenen Tumors gut abschnitt. Es kann zwischen Tumoren, die von Immunzellen umgeben sind (was auf Langzeitüberleben hindeutet), und Tumoren ohne diese Schutzzellen (Kurzzeitüberleben) unterscheiden.

CHIEF visualisiert auch die Aggressivität eines bestimmten Tumors mit Hilfe von "Heatmaps" oder von der KI abgeleiteten "Hot Spots", die auf die Interaktion von Krebszellen mit benachbarten Nicht-Krebszellen hinweisen - ein Zeichen für eine drohende Ausbreitung.

CHIEF fand heraus, dass Tumore von Patienten mit einer schlechteren Prognose tendenziell auch Zellen unterschiedlicher Größe, verdächtig gelappte Zellkerne, schwache Verbindungen zwischen Zellen, absterbende Zellen und weniger dichte Bindegewebsnetze aufweisen. Krebs ist eindeutig mit mehr als nur fehlerhaften Genen verbunden.

Die Forscher planen, ihre Analyse von CHIEF zu erweitern:

  • zur Analyse von Nicht-Krebs-Erkrankungen, insbesondere von seltenen Krankheiten, die schwierig zu diagnostizieren und zu behandeln sind
  • zur Erkennung von Krebsvorstufen,
  • zur Vorhersage des Aggressionslevels von Krebszellen in verschiedenen Stadien
  • zur Ermittlung von Nutzen und Nebenwirkungen neuer Krebsbehandlungen.

-----------------

Als jemand, der an Schilddrüsen- und Brustkrebs erkrankt war, begrüße ich die Vermählung von KI mit der DNA-basierten Krebsdiagnostik. Mehr Informationen ermöglichen mehr Behandlungsoptionen.


[1] Hanwen Xu et al., A whole-slide foundation model for digital pathology from real-world data. 22 May 2024, Nature. DOI: 10.1038/s41586-024-07441-w

und

Harvard Medical School, September 5, 2024: Harvard Doctors Create ChatGPT-Like AI That Can Diagnose Cancer.  https://scitechdaily.com/harvard-doctors-create-chatgpt-like-ai-that-can-diagnose-cancer/

EKATERINA PESHEVA, 04.09.2024: A New Artificial Intelligence Tool for Cancer.https://hms.harvard.edu/news/new-artificial-intelligence-tool-cancer


 *Der Artikel ist erstmals am 5. September 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "AI Tool CHIEF Paints a Landscape of a Cancer, Refining Diagnosis, Treatment, and Prognosis"https://dnascience.plos.org/2024/09/05/ai-tool-chief-paints-a-landscape-of-a-cancer-refining-diagnosis-treatment-and-prognosis/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


 

inge Sat, 07.09.2024 - 00:01

Langeweile: Von Nerv tötender Emotion zu kreativen Gedanken

Langeweile: Von Nerv tötender Emotion zu kreativen Gedanken

Do,29.08.2024— Christian Wolf

Christian Wolf

Icon Gehirn

 

Langeweile ist ein lästiges Gefühl, das wir gerne so schnell wie möglich loswerden möchten. Es ist geprägt von einer stärkeren Aktivität im sogenannten Ruhezustandsnetzwerk des Gehirns, das immer dann tätig wird, wenn äußere Stimulation fehlt. Langeweile kann zu Frustessen oder sadistischem Verhalten führen, sie hat aber auch positive Seiten, motiviert uns Neues auszuprobieren, außerdem kann Langeweile zu Kreativität führen.*

„Der allgemeine Überblick zeigt uns als die beiden Feinde des menschlichen Glückes, den Schmerz und die Langeweile.“ So klagte bereits vor mehr als 150 Jahren der deutsche Philosoph Arthur Schopenhauer, und noch hat die Lageweile einen schlechten Ruf. In einer Welt, die ständig vor Aktivität und Ablenkung pulsiert, gilt sie als bloße Zeitverschwendung, eine lästige Emotion, die wir schnellstmöglich vertreiben möchten. Wer mag schon das Gefühl, wenn die Zeit sich wie Kaugummi dehnt und der Zeiger der Uhr stehenzubleiben scheint? Dann greift man doch lieber schnell zum Smartphone.

Langeweile - eine lästige Emotion, die mn schnell vertreiben möchte.

Dabei zeigt die Forschung: Langeweile ist nicht so eindimensional wie sich die Emotion oft anfühlt. Das Gefühl entstehe, wenn sich Menschen entweder unterfordert oder überfordert fühlten, sagt der Psychologe Thomas Götz von der Universität Wien. „Oder wenn einem das, was man gerade macht, als wenig sinnvoll erscheint.“ In Schulen beispielsweise wird der Lehrstoff auf einem bestimmten Niveau vermittelt. Dabei gibt es immer Schülerinnen und Schüler, die sich überfordert oder unterfordert fühlen. „Wer überfordert ist, schaltet irgendwann ab, versteht nichts mehr.“

Langeweile wird von vielen als so drückend empfunden, dass sie einiges tun, um sie loszuwerden. Wir scheuen dann nicht einmal Anstrengungen, vor denen wir sonst eher zurückschrecken. Das haben Forscher um den Psychologen Raymond Wu von der University of British Columbia herausgefunden. In ihrer Studie hatten die Teilnehmer die Qual der Wahl: beispielsweise unterschiedlich schwierige Additionsaufgaben zu bewältigen oder einen leeren Bildschirm zu betrachten. Es zeigte sich: die Probanden zogen schwierigere Aufgaben dem Nichtstun vor. In einer anderen Studie gaben sich Versuchspersonen sogar lieber selbst Elektroschocks, als untätig zu bleiben.

Vom Nichtstun zur Erfüllung

Um solche Phänomene zu verstehen, untersuchen Forscher auch einen Gefühlszustand, der der Langeweile entgegengesetzt ist - das Flow-Erlebnis. Dabei gehen wir völlig in einer Tätigkeit auf, sie geht uns wie von selbst von der Hand und wir empfinden Freude dabei. „Das Erleben von Flow ist relativ definiert, und zwar in Relation zum Erleben von Langeweile und Überforderung.“, erklärt der Psychologe Georg Grön, Leiter der Sektion Neuropsychologie und Funktionelle Bildgebung am Uniklinikum Ulm. „Ist eine Tätigkeit zu einfach, dann wird es einem schnell langweilig; ist eine Tätigkeit hingegen zu schwer, erleben wir uns überfordert.“ Dazwischen gebe es ein Fenster, wo die Tätigkeit weder das eine noch das andere ist. „Liegt unser Tun in diesem Fenster oder in dieser Zone, dann wird der zugehörige Zustand als angenehm erlebt. Wir sind im Flow.“

Georg Grön hat zusammen mit Kollegen herausgefunden: „Das Flow-Erleben kommt sehr wahrscheinlich hauptsächlich dadurch zustande, dass mindestens zwei bestimmte Gehirnregionen in ihrer Aktivität herunterreguliert werden.“ Damit wir uns „im Fluss“ fühlen, müssen sich nämlich der mediale präfrontale Cortex und die Amygdala zurückhalten. Der mediale präfrontale Cortex kommt beim Nachdenken über einen selbst zum Zug. Eine geringere Aktivität dieser Hirnregion während des Flowzustands bedeutet daher wahrscheinlich, dass weniger selbst-reflexive Gedanken im Moment des Handelns eine Rolle spielen. „Diese Selbstreflexionen haben auch bei gesunden Menschen häufig eine negative Bedeutung“, sagt Georg Grön. Trete nun solch eine negativ gefärbte Selbstreflexion während des Flows weniger auf, entstehe gewissermaßen ein positives Gefühl. Sehr plakativ ausgedrückt verschafft das Flow-Erleben einen Kurzurlaub vom „Ich“.

Hinzu kommt eine verminderte Aktivierung des Mandelkerns, dessen Tätigkeit mit emotionaler Erregung in Verbindung steht. „Die gemeinsam verminderte Aktivierung beider Regionen im Flowzustand hat dann zur Folge, dass man sich weniger mit sich selbst beschäftigt und die emotionale Belastung bei der Aufgabenerledigung weniger vordergründig ist.“ In der Folge ist man ganz auf die Tätigkeit fokussiert und man erledigt sie „gefühlt“ mühelos.

Bei Langeweile hingegen ist es umgekehrt. Man ist etwa von einer Tätigkeit unterfordert oder die Tätigkeit ist schlicht bedeutungslos für einen. Im Gehirn sind bei Langeweile der mediale präfrontale Cortex und der Mandelkern aktiv. In der Folge wird die Tätigkeit laut Georg Grön begleitet von selbst-reflexiven Gedanken wie etwa „Warum muss ich diese Aufgabe überhaupt machen“ oder „Bin ich konzentriert genug?“. Hinzu komme eine in der Regel negativ gefärbte emotionale Erregung. Studien anderer Forscher zeigen zudem: Bei Langeweile ist das sogenannte Ruhezustandsnetzwerk stärker aktiv, zu dem auch der mediale präfrontale Cortex gehört. Dieses Netzwerk steigert immer dann seine Tätigkeit, wenn wir nicht von äußeren Reizen in Anspruch genommen werden, sondern unseren Gedanken nachhängen.

Die Leere füllen

Keine Frage: Langeweile fühlt sich nicht nur äußert unangenehm an, sondern kann auch unangenehme Folgen haben. So versuchen manche Menschen die innere Leere im wahrsten Sinne des Wortes zu füllen: mit Essen. In einer Studie war eine gewisse Neigung zur Langeweile mit emotionalem Essen verknüpft. Dabei greifen Menschen aus negativen Gefühlen heraus zu Nahrungsmitteln. Was möglicherweise in Zeiten des Mangels ein sinnvolles Verhalten war, führt heutzutage jedoch zu Übergewicht und gesundheitlichen Problemen.

Aus Langeweile heraus können wir aber auch dazu neigen, anderen Lebewesen Schaden zuzufügen. Dies zeigt eine Studie , bei der Forscher der einen Hälfte von Probanden einen Film über einen Wasserfall zeigten. 20 Minuten lang war nur der Wasserfall zu sehen, – zum Gähnen. Die andere Hälfte bekam einen deutlich unterhaltsameren Film über die Alpen zu sehen. Während des Films konnten die Teilnehmer in einer Kaffeemühle Maden schreddern, wenn sie wollten. (In Wahrheit kamen die Maden in der Kaffeemühle nicht wirklich zu Schaden). Ergebnis: Die meisten Probanden zerkleinerten keine Maden. Von den 13 Personen, die es dennoch taten, gehörten 12 zu der Gruppe mit dem langweiligen Video. Das Zerkleinern der Maden ging bei den Versuchspersonen zudem mit einem Gefühl der Befriedigung einher. Offenbar löste also Langeweile bei ihnen sadistisches Verhalten aus.

Ein Zeichen für verschwendete Zeit

Langeweile kann den Impuls etwas Neues auszuprobieren hervorbringen, kann kreative Ideen produzieren. (Bild: pixabay, lizenzfrei.)

Doch das ist nur eine Seite von Langeweile. So nervtötend das Gefühl ist, es hat auch positive Seiten. „Langeweile hat eine wichtige Funktion“, sagt Thomas Götz, der Wiener Psychologe. Sie signalisiere uns, dass unsere aktuelle Beschäftigung oder Situation für uns unwichtig oder sinnlos ist. „Dadurch, dass sich Langeweile unangenehm anfühlt, sendet sie uns den Impuls, etwas anderes zu machen“ Sie bringe uns dazu, darüber nachzudenken, ob man sich überfordert fühlt, unterfordert fühlt oder ob man die aktuelle Situation für nicht sinnvoll hält. „Dann kann man versuchen, die Tätigkeit dem eigenen Leistungsniveau anzupassen, der jetzigen Tätigkeit mehr Sinn zu verleihen oder eine andere Tätigkeit anzufangen.“

Der Impuls etwas Neues zu tun, könne sowohl zu etwas Negativem führen als auch zu etwas Positivem, so Götz. Er verweist etwa auf Straftäter, die häufiger davon berichten, dass sie die Straftat aus purer Langeweile begangen haben. Langeweile könne aber auch unter Umständen kreativ machen, vor allem, wenn man sich aus Unterforderung langweilt, so Götz. So ging es wohl Albert Einstein, als er beim Berner Patentamt als Patentreferent tätig war. Während er monotoner Arbeit nachging, Akten ordnete und über drögen Papieren brütete, konnte sein Geist ungestört wandern, was ihn zu einigen seiner größten wissenschaftlichen Entdeckungen führte. Ein guter Grund also das Smartphone wegzupacken und die eigenen Ideen sprudeln zu lassen. Es muss ja nicht gleich die Relativitätstheorie herauskommen.


* Der vorliegende Artikel ist unter dem Titel "Langeweile - ein zweischneidiges Schwert" auf der Webseite www.dasGehirn.info am 1.Mai 2024 erschienen (https://www.dasgehirn.info/grundlagen/zeit/langeweile-ein-zweischneidiges-schwert)). Der Artikel steht unter einer cc-by-nc-sa Lizenz. Der Text wurde mit Ausnahme des Titels und der Zitate "Zum Weiterlesen" von der Redaktion unverändert übernommen; zur Visualisierung wurde Abbildung 2 eingefügt.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Kreativität im ScienceBlog:

Inge Schuster, 12.08.2024: Wie kreativ tickt unsere Jugend? Ergebnisse der aktuellen PISA-Studie


 

inge Thu, 29.08.2024 - 22:32

Stickstoffinterventionen als Schlüssel zu besserer Gesundheit und robusten Ökosystemen

Stickstoffinterventionen als Schlüssel zu besserer Gesundheit und robusten Ökosystemen

Fr, 16.082024 — IIASA

IIASA Logo

Geowissenschaften Die Produktion von Nahrungsmitteln und von Energie hat zu einer erheblichen Stickstoffbelastung geführt, die die Luft- und Wasserqualität beeinträchtigt und Risiken für das Klima und die Ökosysteme mit sich bringt. Ein internationales Team unter Beteiligung von IIASA-Forschern zeigt, wie Stickstoffinterventionen die Belastung verringern, die Gesundheit verbessern und die Ziele für nachhaltige Entwicklung (SDGs) unterstützen können*.

Der Stickstoffkreislauf der Erde gehört zu den am stärksten überschrittenen Grenzen des Planeten. Die landwirtschaftliche Produktion und die Verbrennung fossiler Brennstoffe setzen Stickstoffschadstoffe wie Ammoniak (NH3), Stickoxide (NOx) und Distickstoffoxid (N2O) frei, die zur Luftverschmutzung beitragen und die Ökosysteme schädigen. Diese Verschmutzer schaden der menschlichen Gesundheit, den Nutzpflanzen und den Ökosystemen. Angesichts des weltweit steigenden Energie- und Nahrungsmittelbedarfs ist damit zu rechnen, dass diese Schäden noch weiter zunehmen werden.

Stickstoffinterventionen...

Technologien und Maßnahmen zur Verringerung der Stickstoffbelastung - so genannte "Stickstoffinterventionen" - wurden hinsichtlich ihres Potenzial s zur Verbesserung der Luftqualität und zu reduzierten Auswirkungen auf die Ökosysteme bisher nur unzureichend erforscht. Es klafft eine Lücke zwischen der herkömmlichen Forschung zum Stickstoffbudget, das die Stickstoffflüsse in Luft, Wasser und Boden verfolgt, aber keine Details zu den biogeochemischen Umwandlungen liefert, und der geowissenschaftlichen Forschung, die diese Umwandlungen modelliert, sich aber in der Regel auf ein einziges Umweltmedium konzentriert.

Um diese Wissenslücke zu schließen, hat ein internationales Forscherteam multidisziplinäre Methoden kombiniert, um abzuschätzen, wie Stickstoffinterventionen die Luftqualität verbessern und die Stickstoffeinträge verringern könnten. Ihre Studie, die in Science Advances veröffentlicht wurde, ergab, dass Maßnahmen wie die Verbesserung der Verbrennungsbedingungen für Kraftstoffe, die Steigerung der Effizienz der Stickstoffnutzung in der Landwirtschaft und die Verringerung von Lebensmittelverlusten und -abfällen die Zahl der vorzeitigen Todesfälle aufgrund von Luftverschmutzung, Ernteverlusten und Ökosystemrisiken erheblich senken könnten. Während üblicherweise nur einzelne Ziele wie Luft- oder Wasserqualität betrachtet werden, ist die Einbeziehung der weitgehenden Vorteile des Stickstoffmanagements für eine künftige politische Gestaltung und eine wirksame Bekämpfung der Verschmutzung von entscheidender Bedeutung.

"Wir haben einen integrierten Bewertungsrahmen geschaffen, der künftige Szenarien der Stickstoffpolitik mit integrierten Bewertungsmodellen, Luftqualitätsmodellen und Dosis-Wirkungs-Beziehungen kombiniert, um abzuschätzen, wie ambitionierte Maßnahmen die Luftverschmutzung und die Schädigung von Ökosystemen auf detaillierten geografischen Ebenen verringern können", erklärt der Hauptautor Yixin Guo, ein Postdoktorand, der an der Universität Peking und dem IIASA arbeitet. Abbildung.

Abbildung. Ein iIntegriertes Modellierungsframework schätzt ab, wie ambitionierte Stickstoff-Interventionen die Ammoniak- und Stickstoffemissionen reduzieren und folglich die Luftqualität verbessern können, indem sie die Feinstaub- und Ozonwerte senken und die Stickstoffablagerung verringern, was letztendlich der Umwelt und der öffentlichen Gesundheit zugute kommt. Unten links: Szenarien des International Nitrogen Management System (INMS), die in das Global Biosphere Management Model (GLOBIOM) und das Greenhouse Gas and Air Pollution Interactions and Synergies model (GAINS) implementiert wurden; SSP-RCPs: klimapolitische Pfade, (© Source: Aspirational Nitrogen Interventions Accelerate Air Pollution Abatement and Ecosystem Protection [1])

......und was erreicht werden kann

Die Studie zeigt, dass durch ambitionierte Stickstoffinterventionen die weltweiten Ammoniak- und Stickoxidemissionen bis 2050 um 40 % bzw. 52 % gegenüber dem Stand von 2015 gesenkt werden könnten. Dies würde die Luftverschmutzung verringern, 817.000 vorzeitige Todesfälle verhindern, die bodennahen Ozonkonzentrationen senken und Ernteverluste verringern. Ohne diese Maßnahmen werden sich die Umweltschäden bis 2050 verschlimmern, wobei Afrika und Asien am stärksten betroffen sein werden. Sollten diese Maßnahmen jedoch umgesetzt werden, würden Afrika und Asien am meisten davon profitieren.

"Wir haben festgestellt, dass Stickstoffinterventionen im Laufe der Zeit immer mehr Vorteile bieten, wobei die Auswirkungen bis 2050 größer sind als bis 2030. Die größten Reduzierungen von Ammoniak und Stickoxiden werden in Ost- und Südasien erwartet, vor allem durch verbesserte Anbaumethoden und die Übernahme von Technologien in der Industrie. Diese Verringerungen werden dazu beitragen, die Luftverschmutzung zu senken, was es vielen Regionen erleichtern wird, die Zwischenziele der Weltgesundheitsorganisation zu erreichen. Außerdem wird der gesundheitliche Nutzen dieser Maßnahmen mit dem Bevölkerungswachstum zunehmen, insbesondere in Entwicklungsgebieten", fügt Yixin hinzu.

"Unsere Ergebnisse machen deutlich, dass Stickstoffinterventionen erheblich dazu beitragen können, mehrere Nachhaltigkeitsziele (SDGs) zu erreichen, darunter gute Gesundheit und Wohlbefinden (SDG3), Null Hunger (SDG2), verantwortungsvoller Konsum und Produktion (SDG12) und Leben auf dem Land (SDG15)", sagt Lin Zhang, Mitautor der Studie und assoziierter Professor am Department of Atmospheric and Oceanic Sciences der Universität Peking.

"Diese kollaborative Forschung zeigt, wie die IIASA-Forschung auf globaler Ebene umgesetzt werden kann. Die Lösungen für die Umweltauswirkungen werden je nach Region unterschiedlich sein, was maßgeschneiderte politische Empfehlungen ermöglicht, selbst für komplexe Themen wie die Stickstoffverschmutzung", schließt Wilfried Winiwarter, Mitautor der Studie und leitender Forscher in der Forschungsgruppe für Verschmutzungsmanagement des IIASA-Programms für Energie, Klima und Umwelt.


Guo Y., Zhao H., Winiwarter W., Chang J., Wang X., Zhou M., Havlik P., Leclere D., Pan D., Kanter D., Zhang L. (2024) Aspirational Nitrogen Interventions Accelerate Air Pollution Abatement and Ecosystem Protection, Science Advances, https://doi.org/10.1126/sciadv.ado0112.


 *Der Artikel "Nitrogen interventions as a key to better health and robust ecosystem" ist am 16. August2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/aug-2024/nitrogen-interventions-as-key-to-better-health-and-robust-ecosystems). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 2 Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Rezenter IIASA-Artikel im ScienceBlog:

IIASA, 13.06.2024: Die Emissionen von Distickstoffmonoxid (Lachgas) steigen beschleunigt an - Eine umfassende globale Quantifizierung dieses besonders starken Treibhausgases.


 

inge Sat, 17.08.2024 - 00:38

Wie kreativ tickt unsere Jugend? Ergebnisse der aktuellen PISA-Studie

Wie kreativ tickt unsere Jugend? Ergebnisse der aktuellen PISA-Studie

Mo, 12.08.2024— Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Kreatives Denken ist gefordert, um Antworten auf private und gesellschaftliche Herausforderungen zu finden. Die jüngste PISA-Studie hat an Hand einer Serie von Kreativitätstests nun erstmals untersucht, wie weit Jugendliche am Ende ihrer Pflichtschulzeit in der Lage sind kreativ zu denken, d.i. originelle Ideen auszudenken, vorhandene Ideen weiter zu entwickeln, sich visuell und schriftlich auszudrücken und soziale und naturwissenschaftliche Probleme zu lösen. Auf einer Kreativitätsskala von 0 bis 60 Punkten erreichten die Schüler der OECD-Staaten im Mittel 33 Punkte (Kompetenzstufe 3) und sollten demnach imstande sein kreative Ideen für ihnen geläufige Probleme vorzuschlagen. Die Fähigkeit kreativ zu denken stand dabei in engem Zusammenhang mit den Leistungen in den Kernkompetenzen Mathematik, Naturwissenschaften und Lesen.

In der heutigen Welt ist unsere Gesellschaft gefordert kreative Lösungen für die gewaltigen Herausforderungen zu finden, mit denen wir in zunehmendem Maße konfrontiert werden. Bereits Schüler sollten daran gewöhnt werden sich an die neuen, schnell veränderlichen Perspektiven anzupassen und in kreativer Weise zu deren Bewältigung beizutragen.

Was aber bedeutet kreativ sein?

Das ist nicht einfach zu definieren, das sind nicht einfach nur originelle Ansätze zur Lösung von Problemen. Hergeleitet vom lateinischen Verb "creare" (er)schaffen sieht man darin eine schöpferische, gestalterische Eigenschaft und nach Beispielen gefragt fallen einem spontan Namen berühmter Künstler, wie Leonardo da Vinci, Picasso oder Mozart und Beethoven, oder gefeierter Wissenschafter, wie Einstein, Gauss und Marie Curie, ein. Es waren dies Menschen mit einzigartigen Talenten - Genies, deren Vorstellungskraft sie die Grenzen ihrer jeweiligen Gebiete überschreiten und bedeutende, weltweit Kultur und Wissenschaft verändernde Beiträge leisten ließ. Das Wesen der diesen Menschen innewohnenden Kreativität lässt sich durch einen Ausspruch von Einstein beschreiben: „Kreativität bedeutet, zu sehen, was alle anderen gesehen haben, und zu denken, was noch niemand gedacht hat.“ In anderen Worten also: Probleme/Möglichkeiten zu erkennen, an die noch niemand gedacht hatte.

Neben dieser außergewöhnlichen Form der Kreativität (Big C creativity) wird auch eine alltägliche Form (small c creativity) definiert, die uns mehr oder weniger befähigt zweckorientiert auf der Basis von Erfahrungen Optionen zu erwägen, diese zu bewerten und daraus Entscheidungen zu treffen, die sich für uns selbst und/oder die Gesellschaft als nützlich erweisen. Im Alltag kann das beispielsweise auch heißen: Den Inhalt von Kühl-und Vorratsschrank auf verschiedenartige Möglichkeiten der Speisengestaltung zu durchforsten, originellen Rezepten den Vorzug geben, diese dann auf Tauglichkeit und auch Akzeptanz der Esser einzuschätzen und schlussendlich umzusetzen. Ob das Ergebnis als kreative oder vielleicht verunglückte Leistung des Kochs bewertet wird, bleibt dem subjektiven Urteil des Konsumenten vorbehalten.

Lässt sich Kreativität messen?

Abbildung 1. Kreatives Denken ist eine unabdingbare Komponente der Kreativität. Daneben braucht es Expertise - d.i. umfassende Kenntnisse/Erfahrungen - und Motivation, die abhängig von der Persönlichkeit der Testperson, ihrem unmittelbarem Umfeld und auch der Aussicht auf eine mögliche Belohnung ist. (Bild modifiziert nach T.M. Amabile, Harvard Business Review Oct. 1998).

Ähnlich wie Intelligenztests sind in den letzten Jahrzehnten auch Kreativitätstests entwickelt worden. Diese konzentrieren sich jedoch nur auf eine der Komponenten, die Voraussetzung für Kreativität sind: auf kreatives Denken. Abbildung 1.

Kreatives Denken umfasst dabei sowohl divergente kognitive Prozesse - d.h. die Fähigkeit frei assoziierend unterschiedliche Ideen, darunter kreative Ideen zu entwickeln - als auch konvergente kognitive Prozesse - d. h. die Fähigkeit in logischer Vorgangsweise Ideen zu bewerten und Verbesserungen dieser Ideen zu identifizieren. Kreativitätstests beurteilen wie viele Ideen produziert werden und wie originell diese sind.

Ob jemand in einem Gebiet tatsächlich kreative Leistungen erbringen wird, kann der Test kaum vorhersagen: Dies hängt ja auch von dem diesbezüglichem Wissenstand/den Erfahrungen - der Expertise - der Testperson ab und ebenso von deren Persönlichkeit, Selbstbild, Wissbegier, Offenheit für intellektuelle Herausforderungen und neue Erfahrungen, aber auch ein positives Umfeld und die Aussicht auf Anerkennung sind stark motivierende Faktoren.

Wie wurde in der PISA 2022 Studie kreatives Denken vermessen....

Im PISA-Zyklus 2022 wurde neben den drei Kernkompetenzen Mathematik, Lesen und Naturwissenschaften als weitere Kompetenz erstmals das kreative Denken von 15-jährigen Schülern getestet (OECD, 2024[1]). Die PISA-Definition des kreativen Denkens entspricht dabei dem Konzept der "small c creativity", der Alltagskreativität, nämlich: Die Fähigkeit Ideen zu entwickeln, zu bewerten und zu verbessern, um originelle und wirksame Lösungen zu finden, das Wissen zu erweitern und wirkungsvolle Vorstellungskraft zu schaffen. (Landläufig wird kreatives Denken oft auch als Querdenken oder über den Tellerrand schauen bezeichnet.)

Abbildung 2. Der Kreativitätstest bewertet die drei Ideenfindungsprozesse (divergente und konvergente kognitive Prozesse) des kreativen Denkens.(Bild modifiziert aus [2]; Lizenz: CC BY-NC-SA 3.0 IGO)

Der Test umfasste insgesamt 32 Aufgaben, welche die drei Ideenfindungsprozesse zu einem jeweiligen Thema messen sollten: Das Generieren möglichst unterschiedlicher aber möglicher Ideen, das Generieren kreativer Ideen (d.i. ungewöhnlicher aber durchaus möglicher Ideen) und die Bewertung und Verbesserung vorhandener Ideen bis zu einem zufriedenstellenden Ergebnis. Abbildung 2.

Da die Fähigkeit zur Entwicklung relevanter und innovativer Ideen auch vom Wissen und der Praxis in bestimmten Gebieten abhängt (Abbildung 1: Expertise), zielte der Test außerdem darauf ab, verschiedene Anwendungen von kreativem Denken zu messen. Die Aufgaben erfassten dabei 4 Anwendungsarten: Eine schriftliche Ausdrucksform, eine visuelle Ausdrucksform, das Lösen sozialer Probleme und das Lösen naturwissenschaftlicher Probleme. Was man sich unter den Aufgaben und den Anwendungen vorstellen kann, ist an Hand von 4 Beispielen in Abbildung 3 aufgezeigt.

Abbildung 3. Testbeispiele zur Erfassung des kreativen Denkens in 4 Anwendungsarten. (Bilder aus OECD, 2024[1]).

Die Tests wurden nicht maschinell sondern von Personen ausgewertet; für richtige Antworten auf die 32 Aufgaben konnte insgesamt ein Maximum von 60 Punkten vergeben werden. Gerankt auf einer Kreativitätsskala von 0 bis 60 Punkten wurden 6 Kompetenzstufen definiert, wobei die Jugendlichen mindestens Kompetenzstufe 3 (23 bis 31 Punkte) erreichen sollten, um für künftige (Berufs)anforderungen vorbereitet zu sein. Nb: Eine Differenz von 3 Punkten wird bereits als großer Unterschied im kreativen Denken betrachtet.

Der Kreativitätstest wurde in 64 der 81 an der PISA 2022 Studie teilnehmenden Ländern und Volkswirtschaften durchgeführt. (In Österreich wurden zwar einige allgemeine Fragen zum Thema Kreativität beantwortet, nicht aber die 32 Test-Aufgaben). Der Test erfolgte im Frühjahr 2022, ein umfangreicher, über 300 Seiten starker Report erschien erst im Juni 2024 [1]

... und welche Ergebnisse wurden erzielt?

Neben den Testaufgaben wurde auch eine Fülle anderer Themen abgefragt, die in puncto Kreativität von Selbsteinschätzung und Wachstumserwartungen der Schüler bis hin zum Klima an den Schulen reichten (diese Themen wurden auch in OECD-Staaten beantwortet, die an den Tests nicht teilgenommen hatten wie Österreich, Norwegen, Schweden, Schweiz, Türkei und UK).

Fähigkeit kreativ zu denken und Korrelation mit den Leistungen in den Lernfächern

Eigentlich wurden in den Kreativitätstests ganz andere Fähigkeiten untersucht als in den Tests der Kernkompetenzen Mathematik, Lesen und Naturwissenschaften. Dennoch erzielten viele Top-Performer in diesen Fächern auch die besten Ergebnisse im Kreativitätstest. An der Spitze steht Singapur: Es schnitt beim kreativen Denken mit 41 von 60 Punkten deutlich besser ab als alle anderen teilnehmenden Länder/Volkswirtschaften (Abbildung 4) und war auch in Mathematik (575 Punkte), Lesekompetenz (543 Punkte) und Naturwissenschaften (561 Punkte) allen Teilnehmern überlegen; verglichen mit dem OECD-Durchschnitt erzielte Singapur in diesen Disziplinen einen Vorsprung von rund 70 bis 100 Punkten (etwa 20 Punkte gelten als Äquivalent für ein Schuljahr). Auch in 11 weiteren Ländern lagen die Schüler im kreativen Denken über dem OECD-Durchschnitt (33 von 60 Punkten), davon in Korea, Kanada Australien, Neuseeland, Estland und, Finnland um mindestens 3 Punkte. In diesen Ländern wiesen mehr als 88 % der Schüler zumindest Kompetenzstufe 3 im kreativen Denken auf, d.i. sie sollten imstande sein kreative Ideen für ihnen vertraute Probleme vorzuschlagen. Diese Länder lagen auch in den Kernkompetenzen (größtenteils) weit über dem OECD-Schnitt.

Abbildung 4. Die Korrelation zwischen der Leistung in kreativem Denken und in Mathematik in allen 64 Ländern/Volkswirtschaften, die den Kreativitätstest durchgeführt haben (Bild: PISA in Focus 2024/125 (June) [2]. Lizenz: cc-by-nc-sa 3.0)

Am untersten Ende der Skala liegen die Partnerländer Dominikanische Republik, Philippinen Usbekistan , Marokko und Albanien, die nur zwischen 13 und 15 Punkte (Kompetenzstufe 1 bis 2) erreichten. Diese Schüler dürften selbst bei sehr einfachen Aufgaben Mühe haben mehr als eine passende Idee zu entwickeln.

Die Leistungen im Kreativitätstest sind positiv korreliert mit den Leistungen in den Kernkompetenzen. Für die 28 getesteten OECD-Länder liegt die Korrelation R2 bei 0,67 in Mathematik und 0,66 in Naturwissenschaften und Lesen. Werden alle 64 Teilnehmer der Studie einbezogen, liegt für Mathematik R2 = 0,75 bedeutend höher. Abbildung 4.

Schüler, die in Mathematik unter dem OECD-Durchschnitt (468 Punkte) rangierten, lagen auch im kreativen Denken unter dem OECD-Durchschnitt (33 Punkt) auf der Kreativitätsskala. Am anderen Ende der Mathematikskala erzielten 12 Länder auch überdurchschnittliche Bewertungen im kreativen Denken, 11 Länder lagen knapp unter oder am OECD-Durchschnittswert. Erstaunlicherweise war dies auch für die in den Kernkompetenzen herausragenden chinesischen Teilnehmer der Fall.

Geschlechtsunterschiede im kreativen Denken

Abbildung 5. Mädchen sind Buben in den Anwendungen kreativen Denkens überlegen. (Bild modifiziert nach : "Creative thinking assessment results (Infographic)"[3].Lizenz: cc-by-nc-sa 3.0)

In allen getesteten OECD-Staaten und Partnerländern schnitten Mädchen im Kreativitätstest um bis zu 6 Punkte besser ab als Buben (in Chile und Mexiko ist der Unterschied allerdings nicht signifikant). Im Allgemeinen zeigten Mädchen eine positivere Einstellung zu Kreativität und in kreativer Weise arbeiten zu können, und waren offener für neue Perspektiven. Aufgeschlüsselt nach Ideenfindungsprozessen und Anwendungen zeigten Mädchen bessere Leistungen im Evaluieren und Verbessern vorhandener Ideen und waren erfolgreicher im Generieren unterschiedlicher Ideen als im Generieren kreativer Ideen. Hinsichtlich der Anwendungen waren Mädchen wesentlich erfolgreicher etwas visuell oder auch schriftlich auszudrücken als Buben. Weniger überlegen zeigten sie sich bei der Lösung sozialer Probleme und etwa gleichauf mit den Buben bei der Lösung naturwissenschaftlicher Probleme. Abbildung 5. Wird berücksichtigt, dass Mädchen eine höhere Kompetenz im Lesen haben, dann verflachen die Unterschiede zu den Buben.

Einfluss der Lehrer

Viele Schüler waren der Meinung, dass ihre Lehrer ihre Kreativität im Großen und Ganzen schätzen (70 % der Schüler im OECD-Durchschnitt) und dass die Schule ihnen ausreichend Möglichkeit gibt, ihre Ideen zu äußern (69 %). Diese Ermutigung durch die Lehrer sollte zur Schaffung eines positiven Schulklimas für Kreativität beitragen und wichtige Motivation für die Schüler sein kreativ zu denken. Betrachtet man allerdings welche derartige Motivation in welchen Ländern geboten wird, so fällt der Effekt auf die kreativen Leistungen recht bescheiden aus. Abbildung 6. Top-Performer in den Kreativitätstests (rote Pfeile) kommen sowohl aus Ländern, in denen Lehrer die Kreativität der Jugendlichen stark fördern als auch aus Ländern mit niedrigerer Förderung. Dass in Ländern wie Albanien, Usbekistan oder den Philippinen sich 80 % der Schüler von den Lehrern motiviert fühlen, hat keine Auswirkungen auf deren kreative Leistungen gezeigt - diese liegen auf der untersten Kompetenzstufe der Kreativitätsskala (siehe Abbildung 4).

Abbildung 6. Motivierung zu kreativem Denken durch Lehrer wirkt sich kaum auf kreative Leistungen aus. Top-Performer (siehe Abbildung 4; rote Pfeile) kommen aus Ländern mit hoher und ebenso aus Ländern mit niedrigerer Motivierung.(Bild aus OECD, 2024[1]; Lizenz cc-by-nc-sa).

Was bringt die Kreativitätstestung?

Unter der Annahme, dass kreatives Denken erlernbar und trainierbar ist, sind Tests entwickelt worden, die weltweit (im konkreten Fall in 28 OECD-Ländern und 44 Partnerländern) den derzeitigen Status der Kreativität der Jugendlichen bei Pflichtschulabschluss erheben sollten, um darauf mögliche Erziehungsprogramme aufzubauen.

Wie weit diese Tests die unterschiedlichen Facetten kreativen Denkens abbilden und die Auswertung - beispielsweise: wie originell eine Idee ist - durch Prüfer objektiv erfolgen konnte, soll hier nicht breit diskutiert werden - die im Report angeführten Beispiele der Bewertung lassen Zweifel aufkommen. Merkwürdig erscheint auch die Zeitvorgabe von 5 Minuten zur Beantwortung einer Aufgabe (Abbildung 3), die konterkariert wird durch die Frage an die Schüler, ob Lehrer ausreichend Zeit geben um kreative Lösungen für Aufgaben zu finden (Abbildung 6). Die Vorgabe verschiedenste Aufgaben in kurzer Zeit kreativ zu lösen, testet also Kreativität auf Knopfdruck - wäre es so einfach und schnell Heureka-Momente zu generieren, hätte die Hirnforschung schon längst Personen im MRT-Scanner aufgefordert kreativ zu denken und die zugrunde liegende Prozesse aufgeklärt.

Das wesentliche Ergebnis der Studie ist, dass die Schüler der OECD-Staaten im Mittel Kompetenzstufe 3 im kreativen Denken erreichen damit imstande sein sollten kreative Ideen für ihnen geläufige (leider nicht für neuartige) Probleme vorzuschlagen. Besonders wichtig erscheint die enge Korrelation zwischen der Fähigkeit kritisch zu denken und den Leistungen in den Schulfächern Mathematik (Abbildung 4), Naturwissenschaften und Lesen. Verbesserte Unterrichtsprogramme und bessere Lernerfolge in diesen Fächern geben die nötige Basis (Expertise, Abbildung 1), die für das Generieren von (kreativen) Ideen Voraussetzung ist. Ob Lehrer nun mehr oder weniger motivierend auf Schüler einwirken, scheint von geringerer Bedeutung zu sein (Abbildung 6).


[1] OECD (2024), PISA 2022 Results (Volume III): Creative Minds, Creative Schools, PISA, OECD Publishing, Paris, https://doi.org/10.1787/765ee8c2-en.

[2] OECD 2024 PISA in Focus 2024/125 (Juni). New PISA results on Creative Thinking: can students think outside the box? https://beta.oecd.org/content/dam/oecd/en/publications/reports/2024/06/new-pisa-results-on-creative-thinking_7dccb55b/b3a46696-en.pdf

[3] OECD (2024), "Creative thinking assessment results (Infographic)", in PISA 2022 Results (Volume III): Creative Minds, Creative Schools, OECD Publishing, Paris, https://doi.org/10.1787/c6743eb9-en.

---------------------------------------------------

Eine ausführliche Darstellung der PISA 2022 Ergebnisse in den Kernkompetenzfächern:

Inge Schuster, 16.12.2023; Wie haben 15-jährige Schüler im PISA-Test 2022 abgeschnitten?


 

inge Tue, 13.08.2024 - 00:53

Alkoholkonsum: Gibt es laut WHO keine gesundheitlich unbedenkliche Menge?

Alkoholkonsum: Gibt es laut WHO keine gesundheitlich unbedenkliche Menge?

So, 04.08.2024— Inge Schuster

Inge Schuster

Icon Nahrung

Eine neue Metaanalyse widerspricht der weit verbreiteten Annahme, dass mäßiger Alkoholkonsum zu einem gesünderen und längeren Leben führt. Demnach hatte die Gruppe der wenig bis mäßig Alkohol Trinker keinen gesundheitlichen Vorteil gegenüber der abstinenten Gruppe gezeigt. Allerdings hat der Vergleich ein Manko: Auch wenn keine alkoholischen Getränke konsumiert werden, ist Ethanol ein (natürlicher) Bestandteil der menschlichen Nahrungsmittel und wird darüber hinaus auch endogen durch Mikroorganismen im Darm erzeugt. Die Abstinenzler nahmen wahrscheinlich auch mehrere Gramm Alkohol täglich über die Nahrung zu sich, gehörten also ebenfalls in die Gruppe der wenig bis mäßigen Alkoholtrinker.

A glass wine the day keeps the doctor away

Diese auf zahlreichen Untersuchungen basierende alte Volksweisheit scheint ausgedient zu haben.

Bereits im Jänner 2023 hat die Weltgesundheitsorganisation WHO im Fachjournal The Lancet Public Health eine Erklärung veröffentlicht, deren Fazit lautet: "Beim Alkoholkonsum gibt es keine gesundheitlich unbedenkliche Menge" {1]. Und die WHO argumentiert dies mit: "Es wurden die mit Alkoholkonsum verbundenen Risiken und Schäden über die Jahre systematisch evaluiert und sind hinreichend dokumentiert." Dies gilt laut WHO insbesondere für die cancerogenen Eigenschaften des Ethanols: "Mit steigendem Alkoholkonsum erhöht sich das Krebsrisiko erheblich. Die neuesten verfügbaren Daten deuten darauf hin, dass die Hälfte der dem Alkohol zurechenbaren Krebsfälle in der Europäischen Region der WHO durch „leichten“ bis „moderaten“ Alkoholkonsum – weniger als 1,5 Liter Wein oder 3,5 Liter Bier oder 450 Milliliter Spirituosen pro Woche – verursacht werden" [1].

Eine vor wenigen Tagen erschienene (allerdings bereits seit Anfang des Jahres online verfügbare) neue Untersuchung geht nun als Topmeldung durch alle Medien und unterstützt offensichtlich die Erklärung der WHO. Eine kanadische Forschergruppe unter Tim Stockwell (vom Canadian Institute for Substance Use Research) hat eine Metaanalyse von insgesamt 107 veröffentlichten Studien über Trinkgewohnheiten und Langlebigkeit durchgeführt und festgestellt, dass nur in den Studien von "minderer Qualität" ein Zusammenhang von leichtem bis mäßigem Alkoholkonsum und gesundheitsfördernder Wirkung gefunden wurde [2]. Als leicht bis mäßig wurde dabei ein Konsum zwischen einem Drink pro Woche und 2 Drinks täglich angesehen, entsprechend einer täglichen Dosis von 1,3 g bis 20 g reinem Ethanol. Der wesentliche Kritikpunkt in den von den Autoren als qualitativ schlechter eingestuften Studien war, dass ältere Teilnehmer (>56 Jahre alt), die aus gesundheitlichen Gründen auf Alkohol verzichtet hatten, als Abstinenzler den moderaten Trinkern gegenübergestellt worden waren." Die Autoren der Studie folgern: "Scheinbare gesundheitliche Vorteile können immer wieder durch Studien erzeugt werden, bei denen die Referenzgruppe der Abstinenzler in Richtung eines schlechten Gesundheitszustands verzerrt wird. Die relativ wenigen veröffentlichten Studien, die minimale Qualitätskriterien erfüllen, um dieses Problem zu vermeiden, zeigen kein signifikant geringeres Sterberisiko für Trinker mit niedrigem Konsum [2]."

Ist Abstinenz gleichbedeutend mit Null Alkoholkonsum?

Dies kann mit Sicherheit verneint werden, da in vielen Nahrungsmitteln des täglichen Konsums Alkohol - wenn auch in geringen Konzentrationen - enthalten ist. Alkohol entsteht ja auf natürliche Weise durch Gärung in Zucker und/oder Stärke enthaltenden Produkten - überall dort, wo Hefen oder andere Mikroorganismen hingelangen oder im Produktionsprozess zugesetzt werden. Dies ist bei Früchten und Fruchtsäften der Fall, ebenso bei der Herstellung von vergorenen Nahrungsmitteln wie u.a. Joghurt, Kefir, Essig, Gemüse, Sojasauce oder von Backwaren aus Hefeteig. Alkohol wird in kleinen Mengen auch bei der Herstellung von Fertigprodukten zugesetzt z.B. als Trägerstoff für Aromen oder als Konservierungsmittel (und braucht dann nicht als Inhaltsstoff angegeben werden). Als geschmacksgebende Zutat findet sich Alkohol in diversen Kuchen, Süßigkeiten, Eis, Milchbrötchen, etc., ebenso wie in vielen Fertigsuppen, Fertiggerichten, Saucen und Salatdressings - bei verpackten Produkten findet sich dann der Hinweis darauf auf dem Etikett im Kleingedruckten, bei offen verkauften Waren (z.B. in Bäckereien, Konditoreien) und in Restaurants fehlen solche Hinweise.

Bei Getränken muss Alkohol nur deklariert werden, wenn mehr als 1,2 Volumenprozent enthalten sind. Getränke mit weniger als 0,5 Volumenprozent dürfen sogar als „alkoholfrei“ beworben werden, etwa Biere oder Bier-Mixgetränke wie Radler. Dazu gehören auch die bei Kindern beliebten Malzbiere.

Konkrete Angaben zum Alkoholgehalt von Lebensmitteln sind in der publizierten Literatur nur spärlich zu finden und weisen zudem große Variabilität auf. Beispielsweise bei Fruchtsäften: Je nachdem ob vor der Pressung Obst schon leicht zu gären begonnen hat, enthalten Fruchtsäfte mehr oder weniger Alkohol, werden diese nach Öffnung noch gelagert, so kann der Alkoholgehalt massiv ansteigen. Kürzlich hat das Bayrische Landesamt für Gesundheit und Lebensmittelsicherheit (LGL) im Rahmen eines Schwerpunktprojekts den Ethanolgehalt in über 1200 marktüblichen, potentiell alkoholhaltigen Lebensmitteln untersucht [3]. Eine Zusammenstellung der Daten nach Produktgruppen in der nebenstehenden Tabelle zeigt die jeweilig gemessenen Minima und Maxima, die bis um das Tausendfache variieren können.

Detaillierte Angaben zu einzelnen häufig konsumierten Produkten rücken vor allem zwei Hefeteigbackwaren in den Vordergrund: Brioche (Croissant) mit einem Alkoholgehalt von 1,21 g/100g und Burger-Brötchen mit 1,28 g/100g [4]. Pizza enthält auch nach dem Backvorgang bei hoher Temperatur noch Alkohol (LGL-Messung: 0,15 g/100 g).

Welche Alkoholmenge kann nun eine abstinente Person nur über die Nahrung zu sich nehmen?

Dazu ein Zahlenbeispiel: Nehmen wir an ein Erwachsener beginnt den Tag mit 2 Croissants zum Frühstück oder isst zwei Burger-Brötchen zu Mittag, trinkt über den Tag verteilt 1 l Fruchtsaft oder Erfrischungsgetränk und verzehrt 2 überreife Bananen, so schlägt dies schon mit rund 4 g Alkohol zu Buche. Mit sogenannten alkoholfreien Getränken und mit in Süßwaren, Saucen und Fertiggerichten verstecktem Alkohol kann sich der Alkoholkonsum noch wesentlich erhöhen. Restaurantbesuche sind hier noch nicht berücksichtigt.

Ein derartiger Konsum fällt in der oben erwähnten Metaanalyse aber bereits unter die Definition "leichter bis mäßiger Alkoholkonsum (1,3 - 20 g Alkohol/Tag)" [2].

Alkohol entsteht auch durch die Tätigkeit der Mikroorganismen im Darm

Ethanol ist nicht nur in vielen Lebensmitteln enthalten, es wird auch bei fast allen Menschen im Darm, vor allem im proximalen Colon erzeugt: Ein weites Spektrum von dort ansässigen Bakterien und Pilzen fermentiert für uns unverdaubare Kohlenhydrate - Ballaststoffe, Cellulose, Hemicellulose, Pektin, etc. Neben kurzkettigen Fettsäuren entsteht auch Ethanol und CO2 [5, 6].

Führt Alkohol in Maßen genossen also nicht zu einem längeren und gesünderen Leben?

Dies lässt sich - meiner Meinung nach - aus der neuen Metaanalyse nicht klar beantworten. Es hatte die Gruppe der leicht bis moderat Trinkenden (1,3 bis 20 g Alkohol/Tag) zwar keine gesundheitlichen Vorteile gegenüber der Referenzgruppe der Abstinenzler erkennen lassen, allerdings nahmen Letztere wahrscheinlich auch mehrere Gramm Alkohol täglich über die Nahrung zu sich, gehörten also ebenfalls in die Gruppe der wenig bis mäßigen Alkoholtrinker. Es wurden also zwei zu wenig unterschiedliche Gruppen verglichen.

Alkohol über die Nahrung aufzunehmen ist in vielen Fällen unvermeidlich und die Menschheit ist seit alters her daran gewöhnt damit und auch mit der endogenen Alkohol-Produktion im Darm umzugehen. Wir verfügen über mehrere Enzymsysteme (Alkoholdehydrogenasen, CYP2E1, Katalase und Aldehyd-Dehydrogenasen) die - solange sie nicht überlastet oder gestört sind - Ethanol effizient und schnell zu unschädlichen Produkten abbauen. Bessere Kenntnisse über diese Abwehrsysteme könnten auch eine Revidierung der WHO-Erklärung "Beim Alkoholkonsum gibt es keine gesundheitlich unbedenkliche Menge" ermöglichen.


 [1] WHO: Beim Alkoholkonsum gibt es keine gesundheitlich unbedenkliche Menge . Press release, 04-01.2023.  https://www.who.int/europe/de/news/item/28-12-2022-no-level-of-alcohol-consumption-is-safe-for-our-health.

[2] Tim Stockwell et al., Why Do Only Some Cohort Studies Find Health Benefits From Low-Volume Alcohol Use? A Systematic Review and Meta-Analysis of Study Characteristics That May Bias Mortality Risk Estimates. Journal of Studies on Alcohol and Drugs, 85(4), 441–452 (2024). doi:10.15288/jsad.23-00283. (Published Online: January 30, 2024)

[3] Bayrische Landesamt für Gesundheit und Lebensmittelsicherheit: Versteckter Alkohol in Lebensmitteln. https://www.lgl.bayern.de/lebensmittel/warengruppen/wc_32_alkoholfreie_getraenke/jb22_alkohol_lebensmittel.htm.

[4] Gorgus, E., Hittinger, M., & Schrenk, D. (2016). Estimates of ethanol exposure in children from food not labeled as alcohol-containing. Journal of analytical toxicology, 40(7), 537-542.

[5] Ivan Šoša (2023).The Human Body as an Ethanol-Producing Bioreactor—The Forensic Impacts. Fermentation, 9, 738. https://doi.org/10.3390/fermentation9080738.

[6] George T. Macfarlane and Sandra Macfarlan (2012). Bacteria, Colonic Fermentation, and Gastrointestinal Health. Journal of AOAC International Vol. 95, No. 1, DOI: 10.5740/jaoacint.SGE_Macfarlane.


 

inge Mon, 05.08.2024 - 00:07

Elektrolyse von Meerwasser: natürliche Geobatterien produzieren Sauerstoff für das Ökosystem am tiefen Meeresgrund

Elektrolyse von Meerwasser: natürliche Geobatterien produzieren Sauerstoff für das Ökosystem am tiefen Meeresgrund

So. 28.07.2024 — Redaktion

Redaktion Icon Meere Die bislang geltende Lehrmeinung, dass der für das Leben auf unserem Planeten essentielle Sauerstoff ausschließlich durch photosynthetisch aktive Organismen unter Nutzung der Sonnenenergie generiert wird, findet laut einer neuen Untersuchung nun durch eine wesentliche weitere Sauerstoffquelle Ergänzung. Wie ein internationales Forscherteam zeigt, wird Sauerstoff auch in völliger Dunkelheit am Meeresboden in 4.000 Metern Tiefe produziert. Als Quelle dieses "Dunklen" Sauerstoffs wurden metallreiche Knollen - "Manganknollen" - identifiziert, die beispielsweise in der sogenannten Clarion-Clipperton Zone große Flächen des tiefen (abyssalen) Meeresboden bedecken und im Zentrum des geplanten Tiefseebergbaus stehen. Diese Metallknollen stellen natürliche Geobatterien dar: sie erzeugen genügend Spannung, um Meerwasser elektrolytisch zu spalten. Die Auswirkungen dieser Entdeckung auf Wissenschaft und Wirtschaft sind noch kaum absehbar.

Am 22. Juli 2024 wurde im Fachjournal Nature Geoscience über eine aufsehenerregende Entdeckung berichtet, die nicht nur unsere bisherigen Vorstellungen vom Ursprung des Lebens in Frage stellt, sondern auch inwieweit ökonomische und ökologische Aspekte des Tiefseebergbaus vereinbar sind [1]. Ein internationales Forscherteam um den schottischen Meeresforscher Andrew Sweetman (Scottish Association for Marine Science, (SAMS)) hat In den finsteren Tiefen des Pazifischen Ozeans Sauerstoff entdeckt, der nicht von photosynthetisch aktiven Organismen produziert wird, sondern von kartoffelförmigen Metallknollen - "natürlichen Geobatterien" -, wobei einzelne Knollen fast so viel Strom abgeben wie AA-Batterien und Meereswasser elektrolytisch zu Wasserstoff und Sauerstoff spalten können.

Die Veröffentlichung erfolgt zum richtigen Zeitpunkt, um Entscheidungen zum Tiefseebergbau beeinflussen zu können: seit dem 15. Juli verhandelt der in Jamaika tagende Rat der Internationalen Meeresbodenbehörde (ISA) über ein entscheidendes Regelwerk für den Abbau von Rohstoffen wie Nickel, Kupfer oder Kobalt; vom 29, Juli an soll in UNO-Vollversammlung auch über ein mögliches Moratorium für den Tiefseebergbau diskutiert werden.

Was sind diese Metallknollen und was bewirken sie?

Metallknollen am Tiefseeboden..........

wurden ursprünglich in der sogenannten Clarion-Clipperton-Zone (CCZ) entdeckt, einer Tiefseeebene, die sich in einer Tiefe von 4000 - 6000 m über 4,5 Millionen Quadratkilometer zwischen Hawaii und Mexiko erstreckt. Auf Grund des reichen Vorkommens solcher sogenannter Polymetall-Knollen (wegen des hohen Mangananteils auch als Manganknollen bezeichnet), die neben Mangan und Eisen auch Kupfer, Nickel, Kobalt, Titan und andere für unsere Batterien und insgesamt für den Übergang zu "sauberer" Energie dringend benötigten Metalle enthalten, stehen zahlreiche Bergbauunternehmen in den Starlöchern, um mit Hilfe von Bergbaurobotern den kommerziellen Abbau der Knollen zu beginnen.

Abbildung 1. Weltweite marine Mineralvorkommen von wirtschaftlicher Bedeutung und erteilte Lizenzen zur Exploration. Detailbild: In der Clarion-Clipperton- Zone haben sich zahlreiche Staaten Explorationsgebiete reserviert. (Bild: Meeresatlas 2017 – Daten und Fakten über unseren Umgang mit dem Ozean, Petra Böckmann - cc-by 4.0.)

Neben den Manganknollen sind zwei weitere aus vielen wichtigen Metallen bestehende marine Mineralvorkommen von wirtschaftlicher Bedeutung:

  • Kobaltkrusten - steinharte, kobaltreiche Eisenmangankrusten, die sich auf (vulkanisch entstandenen) Seebergen abgelagert haben - und
  • Massivsulfide - eisenreiche Schwefelverbindungen, die auch Kupfer, Zink Spuren von Gold, Silber und anderen Metallen enthalten -, die sich an Schwarzen Rauchern als Schlote oder Hügel anlagern.

 

Abbildung 1 zeigt eine Weltkarte der bis jetzt identifizierten marinen Mineralfundstätten mit Stätten für die Explorationslizenzen, d.i. die Berechtigung zum Abbau zu forschen aber nicht im industriellen Maßstab abzubauen, vergeben wurden. Das primäre Target des Tiefseeabbaus, die Clarion-Clipperton- Zone ist im Ausschnitt gesondert hervorgehoben mit für einzelne Länder vergebenen Lizenzen zu Exploration und Schutzzonen.

Manganknollen kennt man schon seit 150 Jahren, entdeckt anlässlich einer britischen Expedition galten sie bis in die 1960er Jahre als Kuriosum. Es sind etwa faustgroße Knollen, die ausgehend von einem zentralen Kern, an den sich gelöste Metallionen anlagerten, überaus langsam - über Zeiträume von Jahrmillionen - gewachsen sind und nun am Meeresboden lose aufliegen. Abbildung 2.

Abbildung 2. Manganknollen. Links: Aus dem Karischen Meer;Niederländische Polarexpedition 1881 -82. (Erdwissenschaftl. Sammlungen der ETH Zürich. System-ID #1332991. cc-by-sa.) Rechts: Knollen am Meeresboden der Clarion-Clipperton-Zone in mehr als 4000 Metern Wassertiefe (Bild Manganknollen / Manganknollen / ROV-Team/GEOMAR / CC BY 4.0 /)

Manganknollen sind in allen Ozeanen vorhanden und in einigen Gebieten, vor allem in der Clarion-Clipperton- Zone ist ihr Vorkommen so reichlich, dass sie als Rohstoffquelle nun mehr und mehr an Interesse gewinnen. Das US- Geological Survey schätzt das Vorkommen in der Clarion-Clipperton- Zone auf 21.1 Milliarden Tonnen Metallknollen, die mehr für die Industrie kritische Metalle enthalten als in Summe alle Vorkommen an Land. An manchen Stellen liegen die Knollen in dieser Zone dicht an dicht mit einem möglichen Ertrag von bis zu 75 kg/m2. Abbildung 2.

.......... und dort vorhandenes Leben

Die Manganknollenfelder beherbergen neben Viren, Archaeen und Bakterien eine enorm vielfältige Fauna von sesshaften und mobilen Spezies. Nur einen Bruchteil kennt man erst. Ein internationales Team um Muriel Rabone (Deep-Sea Systematics and Ecology Group, London) hat im vergangenen Jahr aus den gesamten bis dahin veröffentlichten Untersuchungen und Datenbanken zur Artenvielfalt in der Clarion-Clipperton-Zone eine erste Schätzung zur Fülle der Spezies getroffen. Die Wissenschaftler kamen auf 5 578 Tierarten, von denen rund 92 % bis dahin noch völlig unbekannt waren [3]. Abbildung 3.

Wie das Forscherteam des europäischen Projekts MiningImpact zeigen konnte, weisen Böden mit hoher Knollendichte eine höhere ökologische Vielfalt auf als Böden mit geringer Bedeckung [4].

Abbildung 3. Metazoa (vielzzellige Tiere) am Tiefseeboden, Spezies nach Stämmen geordnet. Eine erste Schätzung von bereits bekannten (blau) und noch völlig unbekannten (rot) Spezies. (Bild aus Rabone et al., 2023, [3] Lizenz cc-by.)

Um die ökologischen Folgen eines Manganknollen-Abbaus in der Tiefsee abzuschätzen, haben deutsche Meeresforscher im Jahr 1989 die Knollen in einem 11 km2 großen Gebiet vor Peru entfernt. 26 Jahre später untersuchte die Expedition SO24 den gestörten Tiefseeboden mit modernsten Technologien; es wurden mit einem Tauchroboter gezielt Proben genommen, mikrobiologische Aktivitäten gemessen und toxikologische Experimente am Meeresboden durchgeführt. Dazu gaben Fotos und Videos einen umfassenden detaillierten Eindruck der Umweltschädigungen. Die Pflugspuren von 1989 waren im Meeresboden noch deutlich sichtbar, aber Leben - nicht einmal in Form von Mikroorganismen - war dorthin (noch) nicht zurückgekehrt [4].

Die Schlussfolgerung der Forscher: Die zentralen Ergebnisse dieser Untersuchungen kleiner Meeresboden¬störungen durch das Projekt MiningImpact in Bezug auf den sehr viel großflächigeren industriellen Tiefseebergbau sind, dass die Umweltschädigungen nachhaltig sein werden und alle Ökosystem-Kompartimente betreffen. Für viele Jahrzehnte bis Jahrhunderte wird die Zusammensetzung der Faunengemeinschaften verändert, Populationsdichten und Biodiversität der Fauna sowie Ökosystemfunktionen, wie Produktivität und mikrobielle Aktivität, werden stark reduziert [3].

Noch problematischer erscheint der Abbau der Manganknollen im Lichte der nunmehrigen Entdeckung, dass diese als Sauerstoffproduzenten für das Habitat am Tiefseeboden fungieren [1].

Manganknollen als Sauerstoffproduzenten

Bislang galt die Lehrmeinung, dass der für aerobes Leben auf unserem Planeten unabdingbare molekulare Sauerstoff via Photosynthese von Pflanzen, Algen und bestimmten Bakterien an Land und in der obersten Schichte des Ozeans erzeugt wird. Im Ozean, so dachte man, würde der Sauerstoff dann durch Diffusion bis in die Meerestiefen gelangen und dort den Lebensraum für aerobe Organismen ermöglichen.

Von dieser Meinung ging auch der schottische Meeresforscher Andrew Sweetman aus, als er vor 11 Jahren eine Expedition in der Clarion-Clippertone-Zone leitete. Mit dem Ziel möglichst bald mit dem Abbau der Manganknollen beginnen zu können, sollte die von einer Tochtergesellschaft der The Metals Company finanzierte exploratorische Studie etwaige ökologische Auswirkungen eines Tiefseebergbaus in den entsprechenden Lizenzgebieten evaluieren (dies war also noch vor den Ergebnissen der oben zitierten MiningImpact Studie).

In speziellen Tiefsee-Probenkammern untersuchten die Forscher vor Ort vorerst den Sauerstoffverbrauch des darin eingeschlossenen Systems aus Meerwasser, Manganknollen, Sediment und Organismen unter verschiedenen Bedingungen. In einem kurzen, ebenfalls am 22. Juli veröffentlichten Video beschreibt Sweetman die anfangs bezweifelten Daten, die schlussendlich zu der sensationellen Entdeckung eines anorganisch basierten, zweiten Sauerstoff produzierenden Systems führten [5].

Abbildung 4. Untersuchungen der Sauerstoffproduktion in abgeschlossenen Tiefsee-Probenkammern 2015 in Lizenzbereichen (OMS und UK1) und 2018 in 4 Abbau-geschützten Bereichen (APEI's) der Clarion-Clppertone-Zone. (Bild aus Extended Data, Figure 3; Sweetman et al., 2024 [1]. Lizenz cc-by.)

" Wenn sich Tiere und Mikroben in den Sedimenten bewegen und organisches Material verzehren, verbrauchen sie normalerweise auch Sauerstoff. Wenn man also einen definierten Bereich des Meeresbodens einschließt, kann man sehen, wie der Sauerstoff mit der Zeit langsam abnimmt. Wir haben aber festgestellt, dass der Sauerstoff mit der Zeit sogar zunimmt. Ich dachte, die von uns verwendeten Sensoren seien defekt, also schickte ich sie zur Neukalibrierung und Prüfung an den Hersteller zurück, der sie mir dann zurückschickte und mir mitteilte, dass alles funktioniere. Ich fuhr mit diesen also wieder aufs Meer hinaus und stellte dasselbe fest: Die Sauerstoffkonzentration in diesen verkleinerten Ökosystemen stieg mit der Zeit an. Über einen Zeitraum von etwa 8 oder 9 Jahren erhielt ich immer wieder diese "fehlerhaften" Messwerte meiner Sensoren. Als ich dann 2021 das nächste Mal rausfuhr, beschloss ich, die Sauerstoff-Konzentration mit einer anderen Methode zu messen. Und als das Instrument vom Meeresboden hochkam und wir die Daten von den Sensoren herunterluden, war - was ich bis dahin für unmöglich gehalten hatte - der O2-Wert am Meeresboden wieder angestiegen. Abbildung 4. Wir hatten also bislang einen Mechanismus der Sauerstoffproduktion ignoriert, den wir nun in den letzten 2 - 3 Jahren aufzuklären versuchten."

Tatsächlich lag die Netto-Sauerstoffproduktion in den Probenkammern im Durchschnitt bei 1,7 bis 18 Millimol Sauerstoff pro Quadratmeter und Tag. Das sind keine geringen Mengen - es werden damit höhere Konzentrationen erreicht als in algenreichen Oberflächengewässern, so Sweetman.

Wie wird Sauerstoff produziert?

Penibel nach Ursachen für die massive Sauerstoffproduktion suchend konnten die Forscher Prozesse wie Radiolyse durch radioaktive Isotope (von Uran, Thorium, Kalium) im Sediment und diverse Kontaminationen weitestgehend ausschließen. Auch biologische Mechanismen erschienen unwahrscheinlich, da Ex-situ-Experimente im Labor in Gegenwart des Zellgifts Quecksilberchlorid keinen Einfluss auf die Sauerstoffproduktion hatten.

Schließlich gelangten die Manganknollen selbst ins Zentrum der Untersuchungen: In Kontrolluntersuchungen ex-situ am Bord des Schiffs hatten die Knollen allein auch Sauerstoff produziert. Die Forscher führten nun elektrische Messungen an den Oberflächen der Manganknollen durch, und beobachteten, dass überraschend hohe elektrische Spannungen erzeugt wurden. Sweetman: "Wir haben das elektrische Potenzial zwischen 2 Platin-Elektroden an 153 Stellen auf der Oberfläche von 12 Knollen …. getestet. Die Potenziale zwischen verschiedenen Positionen auf den Knollen waren sehr unterschiedlich und es wurden Potenziale bis zu 0,95 Volt gemessen." Abbildung 5. Sweetman weiter: "Plötzlich wurde uns klar, dass hier möglicherweise dasselbe passiert, wie wenn man eine Batterie ins Meerwasser wirft. Es beginnt zu zischen, weil der erzeugte elektrische Strom das Wasser in Sauerstoff und Wasserstoff spaltet."

Abbildung 5. Abbildung 5. Background korrigierte Potentiale [V] auf der Oberfläche von 12 Manganknollen (Box-Whisker-Plot). Die aus 3 Lizenzgebieten stammenden Knollen wurden bei 21oC an jeweils 153 Stellen der Oberflächen getestet, Knollen 6 und 7 auch bei 5oC. (Bild: Figure 2 aus: Sweetman etal., 2024 [1]. Lizenz cc-by.)

Der Strom aus den Knollen kann - so schlussfolgern die Forscher - zur elektrolytischen Aufspaltung des Meereswasser führen, "wobei die notwendige Energie aus der Potentialdifferenz zwischen den Metallionen in den Schichten der Knollen kommt, die zu einer internen Umverteilung von Elektronen führt." Zur Elektrolyse von Wasser werden zwar 1,5 V benötigt, die aber erreicht werden können, wenn mehrere Manganknollen, ähnlich wie bei in Serie geschalteten Batterien, dicht beieinanderliegen.

Sind Manganknollen also als Geobatterien zu betrachten? Diese Hypothese wird durch die Korrelation von Knollenoberfläche und Sauerstoffproduktion gestützt. Auf Grund der Zusammensetzung der Knollen aus vielen Übergangsmetallen und deren katalytischen Eigenschaften, kann Katalyse zur Wasserspaltung beitragen.

Welche Bedeutung hat die Entdeckung der Sauerstoffquelle am Meeresboden?

Für die angestrebte Ökonomie der grünen Energiegewinnung benötigen wir diverse Metalle, die wir unter limitierenden Bedingungen aus dem Boden oder aus den reichen Vorkommen der Tiefsee gewinnen müssen. Der Abbau der Manganknollen dürfte die Sauerstoffquelle entfernen, ohne die das reiche Ökosystem in der Tiefe nicht atmen, nicht überleben kann. Der Abbau dürfte somit mit irreversiblen Schäden des Ökosystems einhergehen.

Nicht erwähnt/untersucht in [1] wurde die Frage inwieweit die weiteren marinen Mineralquellen - Kobaltkrusten und Massivsulfide an Schwarzen Rauchern - in ähnlicher Weise wie Manganknollen Sauerstoff produzieren können und damit die Biodiversität an diesen Orten (siehe Abbildung 1) fördern/erhalten.

Die Entdeckung einer anorganischen Sauerstoffquelle, die schon lange vor der Entwicklung der biochemischen Photosynthese bestanden haben kann, wirft auch Fragen nach dem wann, wo und wie des Ursprungs des Lebens und der Evolution der Arten auf. Aerobes Leben konnte sich also schon früher als angenommen entwickelt haben. Wie muss man sich dann den hypothetischen Vorfahren LUCA - last univeral common ancestor - vorstellen und wo ist er entstanden? Die Hypothese einer Entstehung an den Schwarzen Rauchern gewinnt hier möglicherweise wieder an Bedeutung.


 [1] Andrew K. Sweetman et al., Evidence of dark oxygen production at the abyssal seafloor. Nat. Geosci. (22. 07. 2024). https://doi.org/10.1038/s41561-024-01480-8

[2] Davide Castelvecchi. Mystery oxygen source discovered on the sea floor — bewildering scientists. Nat. Geosci. (22. 07. 2024). doi: https://doi.org/10.1038/d41586-024-02393-7

[3] Rabone et al., 2023, How many metazoan species live in the world’s largest mineral exploration region? Current Biology 33, 2383–2396. June 19, 2023. hhttps://doi.org/10.1016/j.cub.2023.04.052. Lizenz cc-by

[4] GEOmar.de: Miningimpact - Umweltmonitoring zu Auswirkungen des Tiefseebergbaus https://www.geomar.de/entdecken/miningimpact

[5] Andrew K. Sweetman: Discovering Dark Oxygen - How oxygen is produced in the deep sea. 22.7.2024. Video 5:12 min. https://www.youtube.com/watch?v=uP3RPDTgfa4


 Weitere Informationen

GEOMAR Helmholtz-Zentrum für Ozeanforschung: Manganknollen – Reiche Rohstofffelder am Meeresboden und Factsheet (2019): https://www.geomar.de/entdecken/rohstoffe-aus-dem-ozean/manganknollen

CR Smith et al., Editorial: Biodiversity, Connectivity and Ecosystem Function Across the Clarion-Clipperton Zone: A Regional Synthesis for an Area Targeted for Nodule Mining. Front. Mar. Sci., 03 December 2021. https://doi.org/10.3389/fmars.2021.797516

Geomar (Kiel): Impact and Risks of deep sea mining (2020) Video 8:24 min. https://www.youtube.com/watch?v=RTVzMtuHeoE&t=11s

Deep-Sea Mining Science Statement . Marine Expert Statement Calling for a Pause to Deep-Sea Mining . Signed by 827 marine science & policy experts from over 44 countries. https://seabedminingsciencestatement.org/


 

inge Sun, 28.07.2024 - 12:15

Trotz massiver regionaler Schädigungen ist der Beitrag der Wälder zur terrestrischen CO2-Aufnahme in den letzten Jahrzehnten gleich hoch geblieben

Trotz massiver regionaler Schädigungen ist der Beitrag der Wälder zur terrestrischen CO2-Aufnahme in den letzten Jahrzehnten gleich hoch geblieben

Do, 18.07.2024 — IIASA IIASA

Icon Wald

Die Aufnahme von Kohlendioxid (CO2) durch terrestrische Ökosysteme wirkt entscheidend auf die Abschwächung des Klimawandels; Wälder sind lebenswichtige Ökosysteme und stellen weiterhin eine starke Waffe im Kampf gegen die globale Erwärmung dar. Eine neue Studie zeigt ein überraschendes Ergebnis: Trotz enormer Gefährdungen infolge von regionalen Abholzungen und Waldbränden, haben Wälder aus globaler Sicht in den letzten drei Jahrzehnten in nahezu unverändertem Ausmaß Kohlendioxid absorbiert.*

In einer soeben in der Fachzeitschrift Nature veröffentlichten Studie unterstreichen die Autoren die entscheidende Rolle. die Wälder bei der Abschwächung des Klimawandels spielen [1]. Wie die Studie zeigt, bedrohen die Abholzung der Wälder und Störungen wie Waldbrände diese wichtige Kohlenstoffsenke.

"Wenn auch das globale Gesamtbild ermutigend ist, gibt es große Gebiete mit problematischen Trends und Prognosen. Dies betrifft in erster Linie die zentralen und östlichen Teile im nördlichen eurasischen Kontinent, wo die globale Erwärmung bereits zu einer beispiellosen Ausbreitung von Waldbränden und dem Absterben von 33 Millionen Hektar Wald allein in Russland zwischen 2010 und 2019 geführt hat. Im südlichen Teil dieser riesigen Region erwartet man kritischen Mangel an Feuchtigkeit, der die Existenz der bestehenden Wälder in den gemäßigten Wald- und Waldsteppenzonen in Kasachstan, der Mongolei, Südrußland und der Ukraine in Frage stellen könnte. Das bedeutet, dass wir dringend spezifische Anpassungsstrategien für die Wälder benötigen", erklärt Anatoly Shvidenko, ein Koautor der Studie.

Das Team, dem Forscher aus 11 Ländern angehörten, hat sich bei seiner Arbeit auf langfristige Bodenmessungen in Kombination mit Fernerkundungsdaten gestützt und herausgefunden, dass Wälder durchschnittlich 3,5 Milliarden Tonnen Kohlenstoff pro Jahr aufnehmen, was fast der Hälfte der Kohlendioxidemissionen aus der Verbrennung fossiler Brennstoffe zwischen 1990 und 2019 entspricht.

"Unser Forschungsteam hat Daten von Millionen von Waldparzellen rund um den Globus analysiert", erklärt Yude Pan, Senior Research Scientist der Northern Research Station des US-Landwirtschaftsministeriums (USDA) und einer der Studienleiter. "Das Besondere an dieser Studie ist, dass sie sich auf umfangreiche Bodenmessungen stützt - im Wesentlichen eine Baum für Baum Bewertung von Größe, Art und Biomasse. Obwohl die Studie auch Fernerkundungsdaten einbezieht, ein übliches Instrument bei nationalen Waldinventuren und Landvermessungen, liegt unsere einzigartige Stärke in der detaillierten Datenerfassung vor Ort."

Die Ergebnisse zeigen, dass die borealen Wälder in der nördlichen Hemisphäre, die sich über Regionen wie Alaska, Kanada und Russland erstrecken, einen erheblichen Rückgang ihrer Kapazität der Kohlenstoffspeicherung erfahren haben; diese ist um 36 % gesunken aufgrund von Faktoren wie zunehmenden Störungen durch Waldbrände, Insektenbefall und Bodenerwärmung. Auch in den Tropenwäldern ist ein Rückgang zu verzeichnen, wobei die Abholzung der Wälder ihre Fähigkeit zur Kohlenstoffaufnahme um 31 % verringert hat. Das Nachwachsen von Wäldern auf zuvor aufgegebenen landwirtschaftlichen Flächen und in gerodeten Gebieten hat diese Verluste jedoch teilweise ausgeglichen, so dass der Nettokohlenstofffluss in den Tropen nahezu neutral ist. In den Wäldern der gemäßigten Zonen hingegen hat sich die Kapazität der Kohlenstoffsenke um 30 % erhöht. Den Autoren zufolge ist dieser Anstieg größtenteils auf umfangreiche Maßnahmen der Wiederaufforstung, insbesondere in China, zurückzuführen.

"Die global gleichbleibende Kohlenstoffsenke der Wälder war angesichts der weltweiten Zunahme von Waldbränden, Dürren, Abholzung und anderen Stressfaktoren eine Überraschung", erklärt Richard Birdsey, leitender Wissenschaftler am Woodwell Climate Research Center in den USA, ein weiterer Studienleiter. "Es stellt sich jedoch heraus, dass die zunehmenden Emissionen in einigen Regionen durch zunehmende Aufnahmen in anderen Regionen ausgeglichen wurden, vor allem durch das Nachwachsen tropischer Wälder und die Wiederaufforstung von Wäldern der gemäßigten Zonen. Diese Ergebnisse untermauern das Potenzial, welches ein besserer Schutz und eine bessere Bewirtschaftung der Wälder als wirksame natürliche Lösungen für das Klima hat".

Die Studie beschreibt, wie bestimmte Maßnahmen und Praktiken der Landbewirtschaftung zur Erhaltung dieser globalen Kohlenstoffsenke beitragen können. Die Ergebnisse sprechen dafür, den Schwerpunkt auf die Eindämmung der Entwaldung in allen Waldbiomen zu legen, z. B. durch die Förderung der Wiederaufforstung von Flächen, die für die Landwirtschaft ungeeignet sind, und die Verbesserung der Holzerntepraktiken, um die Emissionen aus dem Holzschlag und damit verbundenen Aktivitäten zu minimieren. Die Autoren betonen jedoch auch die Einschränkungen bei der Datenerfassung, insbesondere in tropischen Regionen, und fordern eine verstärkte Forschung und die Schaffung weiterer Flächen für Bodenproben in diesen Gebieten, um die Unsicherheiten bei den Kohlenstoffschätzungen zu verringern und das Verständnis des globalen Kohlenstoffhaushalts zu verbessern.

"Die globalen Wälder können weiterhin effizient Kohlenstoff binden und speichern und gleichzeitig zahlreiche andere Vorteile bieten, die die Menschen aus der natürlichen Umwelt und gut funktionierenden Ökosystemen ziehen. Angesichts des zunehmenden menschlichen Drucks und des sich rasch verändernden Klimas ist eine anpassungsfähige und regionalisierte Waldbewirtschaftung jedoch notwendiger denn je", schließt Dmitry Schepaschenko, Koautor der Studie und Senior Research Scholar des IIASA.


 [1] Pan, Y., Birdsey, R.A., Phillips, O.L., Houghton, R.A., Fang, J., Kauppi, P.E., Keith, H., Kurz, W.A., Ito, A., Lewis, S.L., Nabuurs, G., Shvidenko, A., Hashimoto, S., Lerink, B., Schepaschenko, D., Castanho, A., & Murdiyarso, D. (2024). The enduring world forest carbon sink. Nature DOI: 10.1038/s41586-024-07602-x


*Der Artikel "Forests endure as carbon sink despite regional pressures" ist am 17. Juli 2024 als Pressemeldung auf der IIASA-Website erschienen (https://iiasa.ac.at/news/jul-2024/forests-endure-as-carbon-sink-despite-regional-pressures). Der unter einer cc-by-nc Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weitere Artikel im ScienceBlog

IIASA, 10.1.2019;Die Wälder unserer Welt sind in Gefahr.

IIASA, 15.8.2019: Wieviel CO₂ können tropische Regenwälder aufnehmen?


 

inge Thu, 18.07.2024 - 23:47

Bärtierchen können extreme ionisierende Strahlung überleben

Bärtierchen können extreme ionisierende Strahlung überleben

Do, 11.07.2024 — Redaktion

Redaktion

Icon Biologie

Bärtierchen sind mikroskopisch kleine Tiere, die im Meer, im Süßwasser und in feuchten terrestrischen Lebensräumen wie Moos, Flechten und Laubstreu vorkommen. Sie sind bekannt für ihre Widerstandsfähigkeit gegen extreme Umweltbedingungen, u.a. gegenüber der Exposition mit hoher ionisierender Strahlung. Um die Mechanismen dieser außergewöhnlichen Widerstandsfähigkeit zu enträtseln, hat ein französisch-italienisches Forscherteam untersucht, welche Gene unter hoher Strahlenbelastung der Tiere geschaltet werden. Offensichtlich nutzen die Tiere eine Kombination aus DNA-Reparaturmaschinen und einem bisher unbekannten Protein - TDR1 -, um ihr Genom nach intensiver ionisierender Strahlung zu reparieren. Das Verstehen dieses Procedere kann zu neuen Strategien zum Schutz menschlicher Zellen vor Strahlenschäden - von der Krebstherapie bis hin zur Weltraumforschung - führen.*

Wenn man an das robusteste Tier der Welt denkt, so hat man vielleicht einen Löwen oder einen Tiger vor Augen. Aber ein wesentlich weniger bekannter Anwärter auf diesen Titel ist das sogenannte Bärtierchen (Tardigrada), ein winziges Tier, das dafür bekannt ist, extreme Bedingungen zu überleben. Abbildung 1. Das Tier kann eingefroren werden, es hält Temperaturen über dem Siedepunkt von Wasser aus, es kann völlig austrocknen, dem Vakuum des Weltraums ausgesetzt werden und sogar ein Bombardement mit extrem hoher ionisierender Strahlung ertragen.

Abbildung 1: Das Bärtierchen Milnesium tardigradum in aktivem Zustand. Rasterelektronenmikrosopische Aufnahme. (Quelle: SEM image of Milnesium tardigradum in active state. doi:10.1371/journal.pone.0045682.g001, Lizenz cc-by.)

Wie Bärtierchen diese extremen Bedingungen überstehen, gehört zu den größten Rätseln der Physiologie. Jetzt hat ein französisch-italienisches Forscherteam unter Jean-Paul Concordet und Anne de Cian (vom Muséum National d'Histoire Naturelle) im online Journal eLife über neue Erkenntnisse berichtet, wie Bärtierchen die Exposition gegenüber ionisierender Strahlung überleben (Anoud etal., 2024 [1]).

Ionisierende Strahlung schädigt Zellen in charakteristischer Weise, indem sie deren DNA fragmentiert. In der Vergangenheit hat man gedacht, dass Organismen - wie Bärtierchen - in der Lage sind extreme Strahlungsdosen zu überleben, weil sie die Strahlung blockieren und so verhindern, dass ihre DNA geschädigt wird. Ein früherer Bericht legt nahe, dass Bärtierchen ein sogenanntes Dsup (Damage Suppressor) Protein nutzen, um DNA-Schäden während der Strahlenbelastung zu verhindern. Anoud et al. fanden jedoch heraus, dass Bärtierchen die gleiche Menge an DNA-Schäden anhäufen wie Organismen und Zellen, die gegenüber Strahlung intolerant sind, wie etwa menschliche Zellen, die in Kulturschalen gezüchtet werden.

Wenn also Bärtierchen ionisierende Strahlung nicht deshalb überleben, weil sie die DNA-Fragmentierung direkt blockieren, wie überstehen sie dann eine solche Schädigung?

Um dies heraus zu finden, hat das Forscherteam drei Bärtierchenarten mittels  RNA-Sequenzierung untersucht, um festzustellen, welche Gene eingeschaltet werden, wenn die Tiere ionisierender Strahlung ausgesetzt sind. Zusätzlich haben sie auch Bärtierchen getestet, die Bleomycin ausgesetzt waren - einem in der Tumortherapie angewandten Medikament, das die Auswirkungen von Strahlung nachahmt, indem es Doppelstrangbrüche in der DNA verursacht.

Anoud et al. fanden heraus, dass die Bärtierchen die Expression von Genen hochregulierten, die an der DNA-Reparaturmaschinerie beteiligt sind, welche in vielen Lebensformen - von Einzellern bis hin zum Menschen - anzutreffen ist. Die DNA-Schäden, die die Bärtierchen nach dem Bombardement mit ionisierender Strahlung oder nach Behandlung mit Bleomycin zunächst anhäuften, verschwanden sukzessive nach der Exposition. Insgesamt weisen diese Ergebnisse stark darauf hin, dass Bärtierchen zur Bewältigung der durch ionisierende Strahlung verursachten DNA-Schäden eine Reihe von robusten Reparaturmechanismen einsetzen, die ihnen helfen, ihr zerbrochenes Genom wieder zusammenzuflicken.

Abbildung 2: Die Expression des Bärtierchenproteins TDR1 in menschlichen Zellen steigertdie Reparatur von DNA-Schäden. A) Werden Bärtierchen ionisierender Strahlung oder dem Medikament Bleomycin ausgesetzt, so führt dies zu DNA-Schäden wie Doppelstrangbrüchen (Kreis im Bild). Dadurch werden verschiedene Gene (Dreiecke) aktiviert, die das Genom reparieren, darunter auch das Gen, das für ein Protein namens TDR1 kodiert (rotes Dreieck). (B) Eine Bleomycin-Behandlung (dargestellt als Blitze) verursacht in menschlichen Zellen ebenfalls Doppelstrangbrüche der DNA. Diese können jedoch nicht effizient repariert werden, was zum Zelltod führt. (C) Anoud et al. fanden heraus, dass die Einführung des Gens für TDR1 in das Genom menschlicher Zellen deren Fähigkeit zur Reparatur von DNA-Schäden steigert und ihre Überlebenschancen erhöht. (Bild: https://doi.org/10.7554/eLife.100219, Lizenz ccc-by.)

Anoud et al. stellten nicht nur fest, dass die DNA-Reparaturmaschinerie nach ionisierender Strahlung hochreguliert wird, sie identifizierten auch ein neues, nur bei Bärtierchen vorkommendes Gen, das für ein Protein namens TDR1 (Abkürzung für Tardigrade DNA Repair Protein 1) kodiert. Weitere Experimente zeigten, dass TDR1 in den Zellkern eindringen und an die DNA binden kann. Dies könnte darauf zurückzuführen sein, dass konservierte, größtenteils positiv geladene Teile von TDR1 elektrostatisch mit negativ geladener DNA wechselwirken. Liegt TDR1 in hohen Konzentrationen vor, so bindet es nicht nur an die DNA, sondern bildet auch in zunehmendem Maße Aggregate. Schließlich fanden Anoud et al. heraus, dass durch das Einbringen des TDR1-Gens in gesunde menschliche Zellen die Menge der dort durch Bleomycin verursachten DNA-Schäden reduziert wurde - ein Hinweis, dass das TDR1-Protein bei der DNA-Reparatur hilft (Abbildung 2).

Es ist zwar noch unklar, wie Bärtierchen DNA-Schäden beheben, aber diese Studie legt nahe, dass ihre Fähigkeit, extreme Strahlung zu überleben, mit ihrer hohen Fähigkeit DNA zu reparieren zusammenhängt, bei der TDR1 anscheinend eine entscheidende Rolle spielt. Anoud et al. fanden heraus, dass sich TDR1 nicht wie einige andere Reparaturproteine an DNA-Schadstellen anreichert. Stattdessen schlagen sie vor, dass das Protein die DNA repariert, indem es an sie bindet und Aggregate formt, welche die fragmentierte DNA zusammenhalten und dazu beitragen, die Organisation des beschädigten Genoms zu bewahren.

Um den Mechanismus, der dafür verantwortlich ist, dass TDR1 und andere Proteine den Bärtierchen helfen ionisierende Strahlung zu überleben, vollständig zu verstehen, sind jedoch weitere Forschungsarbeiten erforderlich. Letztlich könnte das Wissen darüber, wie diese winzigen Organismen ihre DNA effizient reparieren, zu neuen Strategien für den Schutz menschlicher Zellen vor Strahlenschäden führen, was der Krebsbehandlung und der Weltraumforschung zugutekommen könnte.


 [1] M. Arnaud et al., Comparative transcriptomics reveal a novel tardigrade-specific DNA-binding protein induced in response to ionizing radiation. elife. Jul 9, 2024. https://doi.org/10.7554/eLife.92621.3


* Eine Zusammenfassung des Artikels von M. Arnaud, et al., 2024, [1] verfasst von Chaitra Shree Udugere Shivakumara Swamy und Thomas C Boothby ist am 04.07.2024 unter dem Titel "Tardigrades: Surviving extreme radiation" im eLife-Magazin erschienen:https://doi.org/10.7554/eLife.100219. Der Text wurde von der Redaktion möglichst wortgetreu ins Deutsche übersetzt, durch den Abstract und Abbildung 1 ergänzt, aber ohne die im Originaltext zitierten Literaturstellen wiedergegeben. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.


Video:

Bärtierchen: Die Kleinsten Und Härtesten Tiere Der Welt | Tierdokumentation | Dokumentarfilm, (2023). Video 6:37 min. https://www.youtube.com/watch?v=k2v6eIDb66Q.

inge Thu, 11.07.2024 - 23:16

Stimulation des Vagusnervs - eine Revolution in der Therapie physischer und psychischer Erkrankungen?

Stimulation des Vagusnervs - eine Revolution in der Therapie physischer und psychischer Erkrankungen?

Fr, 05.07.2024— Inge Schuster

Inge Schuster

Icon Gehirn

 

Der Vagusnerv erlebt derzeit einen Hype in Medien und auf sozialen Plattformen. Das Interesse hat guten Grund, verbindet der Vagus doch das Gehirn mit dem Großteil unserer Organe im Brust- und Bauchraum, leitet sensorische Informationen über deren internen physiologischen Zustand an das Gehirn und von dort Antworten an die Organe. Der Vagus spielt so eine Schlüsselrolle in der Regulierung unserer Körperfunktionen. Viele physische und psychische Krankheitsbilder können offensichtlich auf Funktionsstörungen des Vagus zurück geführt werden und lassen sich mit einer gezielten Stimulierung des Nervs positiv beeinflussen. Das therapeutische Potential der Vagusstimulation ist enorm und wird die moderne Medizin revolutionieren können.

Was ist der Vagusnerv?

Das autonome (vegetative) Nervensystem steuert ohne äußeres oder bewusstes Einwirken die Funktion zahlreicher Organe, Drüsen und unwillkürlicher Muskeln im gesamten Körper - Vitalfunktionen wie Atmung, Herzschlag, Verdauung und u.a. müssen schließlich auch reguliert werden, wenn man schläft oder bewusstlos ist. Die Steuerung erfolgt - vereinfacht ausgedrückt - über die Balance zwischen dem Nervensystem des Sympathikus, der für Leistungssteigerung ("fight and flight") sorgt und seinen Gegenspieler Parasympathikus, der für Entspannung und Regeneration ("rest and digest") steht.

Der Hauptnerv des Parasympathikus ist der Vagusnerv ("vagabundierender" Nerv), der zehnte und längste der Hirnnerven, zusammengesetzt aus mehr als 100 000 Nervenfasern, die vom Hirnstamm in zwei Bündeln an beiden Seiten des Halses in den Torso laufen und sich weit verästeln. Die langen Zweige erreichen nahezu alle peripheren Organe und Gewebe (siehe Abbildung 1; dazu auch Video: [1]) - vom Herzen über Lunge, Magen-Darm-Trakt, Leber, Nieren bis zu Geschlechtsorganen - und leiten (via afferente Nervenfasern) sensorische Informationen über deren internen physiologischen Zustand an das Gehirn. Das Gehirn interpretiert die Signale und sendet (via efferente Nervenfasern) passende Antworten an die Organe/Gewebe. Neben den inneren Organen versorgt der Vagus auch die Muskeln des weichen Gaumens und des inneren Kehlkopfs, die Haut der Innenseite der Ohrmuschel und des äußeren Gehörgangs sowie einen Teil des Trommelfells.

Abbildung 1. Der "umhervagabundierende"Vagusnerv (gelb) im Körper. Der zehnte Hirnnerv und Hauptnerv des Parasympathikus "wandert" weit herum im Körper, hat sowohl motorische als auch sensorische Funktionen und wirkt auf Organsysteme und Körperregionen, wie Zunge, Rachen, Teile des Ohrs, Lunge, Herz, Leber und Magen-Darm-System. Orange: 4 Gesichtsnerven. (Bild: B.Bordoni in Neuroanatomy, Cranial Nerve 10Vagus Nerve. StatPearls [Internet]. Lizenz: CC BY-NC-ND)

Der Vagus spielt somit eine zentrale Rolle in unserem internen Kommunikationssystem und ist an der Regulierung des autonomen kardiovaskulären, gastrointestinalen, respiratorischen, immunologischen und endokrinen Systems beteiligt. In anderen Worten: der Vagus ist ein Garant für unsere innere Balance.

Ist die Balance gestört, so handelt es sich im Allgemeinen um eine relativ hohe Aktivität des Sympathikus, die mit einer (zu) geringen Aktivität des Parasympathikus, des Vagus, einhergeht.

Funktionsstörungen des Vagusnervs

Es gibt dafür zwei Hauptursachen: vorangegangene Infektionen oder Entzündungen und physischer oder psychischer Stress.

Wenn der Vagus nicht richtig funktioniert, können die Informationen, die er an das Gehirn sendet, falsch sein, auch wenn in einem betreffenden Organ selbst kein Problem vorliegt. Beispiele wie das Reizdarmsyndrom, Migräne, Fibromyalgie und funktionelle Herzrhythmusstörungen können zum Teil auf Funktionsstörungen des Vagusnerv zurückzuführen sein, ebenso Übelkeit, Schluckbeschwerden, Hustenreiz, Schwindel/Gleichgewichtsstörungen, Hörstörungen, Schlafstörungen u.v.a. m. Neuere Forschungsergebnisse legen nahe, dass die Funktionen des Vagus weit über das ursprünglich angenommene "rest and digest" hinausgehen dürften und in umfassender Weise physiologische Prozesse und Verhaltensweisen kontrollieren.

Zur Bestimmung der Aktivität des Vagus wird häufig aus dem EKG die Variabilität der Herzschlagsrate (Herzfrequenzvariabilität, HRV) analysiert, d.i. wie gut die Anpassung der Herztätigkeit an die jeweiligen momentanen Erfordernisse erfolgt (siehe auch [1]). Eine niedrige HRV tritt bei vielen Erkrankungen auf - von Epilepsie über rheumatoide Arthritis, Atherosklerose, Herz-Kreislauf Erkrankungen, Crohn's Disease, bis hin zu Diabetes u.a.m.

Stimulierung des Vagusnervs

kann die Balance des autonomen Nervensystems in Richtung Dominanz des Parasympathikus verschieben. Die ersten Versuche dazu datieren bereits 140 Jahre zurück.

Am Beginn stand der Versuch epileptische Anfälle zu stoppen. Einem amerikanischen Neurologen gelang dies in 1880er Jahren, indem er den Nerv im Nacken manuell zusammendrückte (und nicht - wie er glaubte - die Halsschlagader, weil er damit die Blutversorgung des Gehirns reduzieren wollte).

Elektrische Stimulierung

Die nur wenig erfolgreiche Strategie wurde erst in den 1930-Jahren reaktiviert, von nun an durch elektrische Stimulierung des Nervs. Viele Studien an Tiermodellen und schlussendlich am Menschen folgten und bestätigten die Wirksamkeit dieser Vagus-Stimulierung für die Behandlung (nicht nur) der Epilepsie. 1994 erfolgte die Zulassung in der Indikation therapieresistente Epilepsie in der EU, 1997 in den US durch die FDA.

Invasive Stimulierung

Die Vagus Stimulierung setzt dabei aber einen chirurgischen (invasiven) Eingriff voraus, wobei am Hals auf der linken Seite 2 Elektroden um den an der Hauptschlagader anliegenden Vagus herum gewickelt werden, die über einen, im Brustbereich implantierten Stimulator schwache elektrische Impulse an den Vagus abgeben. Die an das Hirn weitergeleiteten Impulse können offensichtlich epileptische Anfälle hemmen, aber auch andere Erkrankungen/Zustände positiv beeinflussen (wie dies im Detail geschieht ist noch nicht ganz verstanden). In der Folge wurde die invasive Vagus Stimulation (VNS) für weitere Indikationen wie therapieresistente Depression, Migräne und Clusterkopfschmerzen, Adipositas im Bauchraum und 2021 für Rehabilition nach einem Schlaganfall von der FDA zugelassen. Eine Reihe unerwünschter Nebenwirkungen schränken allerdings die Anwendung auf Personen ein, die sich gegen herkömmliche Therapien resistent erweisen. Dennoch sind bis 2020 bereits rund 125 000 Stimulatoren implantiert worden.

Abbildung 2 . Transaurikuläre Vagusnerv Stimulation (taVNS): Im Bereich des aurikulären Asts des Vagusnervs kann an 3 Stellen (Cymba conchae, Cavum conchae, Tragus) stimuliert werden. (Quelle;AA Ruiz, Biomedicines 2024, 12, 407. https://doi.org/10.3390/biomedicines12020407. Lizenz cc-by))

Nicht-invasive Stimulierung

Neuere nicht-invasive Methoden stimulieren den Vagusnerv von außen, an Stellen an denen er knapp unter der Haut verläuft. Diese Stimulation über die Haut (transkutan- tVNS) erfolgt im Wesentlichen über einen an der Ohrmuschel (transaurikulär- taVNS; Abbildung 2) oder am Hals angelegten Impulsgenerator, der wie ein Handy aussehen kann. Präklinische und auch klinische Studien insbesondere an der Ohrmuschel haben gezeigt, dass die transkutane elektrische Stimulation ähnliche therapeutische Wirkungen haben kann, wie die invasive Methode.

Transkutane Stimulatoren sind in einigen Ländern zugelassen. Beispielsweise ist das deutsche tVNS-Gerät (https://t-vns.com/de/#was-ist-tvns) als Medizinprodukt gemäß der Europäischen Medizinprodukteverordnung (EU-MDR) für die Behandlung der folgenden Erkrankungen zugelassen (in alphabet. Reihenfolge):

Angststörungen, Autismus, Chronisch-Entzündliche Darmerkrankungen, Depression, Epilepsie, Kognitive Beeinträchtigung, Migräne, Parkinson, Prader-Willi-Syndrom, Reizdarmsyndrom, Schlafstörungen, Systemische Sklerose, Tinnitus, Vorhofflimmern.

Eine Zusammenfassung der Erkrankungen, die in klinischen Untersuchungen erfolgreich mit invasiven und nicht-invasiven Vagusstimulierungen behandelt werden konnten, zeigt Abbildung 3.

Abbildung 3 . Signifikante Wirksamkeit der Vagusstimulation in klinischen Untersuchungen bei diversen Erkrankungen (Rot: Zulassung durch die FDA.) Zusammenstellung aus Y-T Fang et al., (2023) [2]. Fotos: Links: Manu5 - http://www.scientificanimations.com/wiki-images/; Lizenz: CC BY-SA 4.0. Mitte (Electrocore gammaCore) und rechts (Kontrolle vs Cymba cocha): J.Y.Y.Yap et al., (2020). https://doi.org/10.3389/fnins.2020.00284; Lizenz: CC-BY.

Enormes therapeutisches Potential .............

Insgesamt ist das Gebiet der Vagus Stimulierung zu einem, von vielen öffentlichen Einrichtungen geförderten, medizinischen "Eldorado" geworden: Im letzten Jahrzehnt sind dazu jährlich rund 600 Publikationen in "peer reviewed" Journalen erschienen und zahlreiche klinische Studien wurden und werden dazu ausgeführt. Auf der Website klinischer Untersuchungen clinicaltrials.gov sind derzeit unter "vagus nerve stimulation" insgesamt 410 Studien gelistet, beschränkt auf nur "transcutaneous vagus stimulation" sind es 149; 52 davon bereits fertiggestellt, 68 angekündigt/im Rekrutierungsstadium (abgerufen am 4.Juli 2024).

Klinische Studien und bereits zugelassene therapeutische Anwendungen untermauern die Wirksamkeit und Sicherheit der VNS bei diversen Erkrankungen und bewirken eine zunehmende Akzeptanz durch Ärzte und Patienten. fasst Die leicht anwendbare und praktisch nebenwirkungsfreie transkutane Stimulation lässt auf eine nutzbare Anwendung bei einer noch wesentlich breiteren Palette von Krankheiten schließen, darunter finden sich Alzheimer, Fibromyalgie, Infektionen, rheumatische Erkrankungen bis hin zu long COVID.

Die Ausweitung der klinischen Anwendungen, die Entwicklung verbesserter, zielgerichteter Geräte und die positive Einstellung der Zulassungsbehörden wirken sich auch auf das Wachstum des VNS Marktes aus: Laut rezenter Prognose wird bei einem jährlichen Wachstum von 11,4 % ein Marktwert von rund 2,3 Mrd US $ im Jahr 2032 geschätzt https://www.wicz.com/story/50919580/vagus-nerve-stimulation-marketa-new-frontier-in-neuromodulation-for-neurological-disorders).

........ wissenschaftlich noch eine Black Box

Vagus Stimulierung ist aber noch immer eine Black Box geblieben, sowohl was die zur Stimulierung angewandten Techniken und Geräte betrifft als auch die in einzelnen Hirnzentren hervorgerufenen Signale und die Mechanismen ihrer Verarbeitung. Die derzeitigen zugelassenen VNS-Technologien stimulieren ja den gesamten Nerv und wirken auf alle Fasern in der Hoffnung dabei auch die richtigen Fasern zu treffen. Dies führt zu einer wahllosen Stimulation und zu unerwünschten Nebeneffekten.

Was sind aber die richtigen Fasern, um die gewünschte Wirkung auf ein Organ auszuüben und wie können diese selektiv stimuliert werden? In jüngster Zeit gibt es nun erste Untersuchungen, wie im menschlichen Vagusnerv die Nervenbündel auf der Höhe der Halswirbelsäule entsprechend ihrer Versorgung der einzelnen Organe und spezifischen Funktionen angeordnet sein könnten. Zweifellos sollten solche Kenntnisse die Wirksamkeit und Sicherheit der therapeutischen Anwendungen revolutionieren!

Um dieses Ziel zu erreichen, haben die US-National Institutes of Health (NIH) vor 10 Jahren ein Hunderte Millionen Dollar schweres Förderprogramm Stimulating Peripheral Activity to Relieve Conditions (SPARC) gestartet. Dabei soll das Netzwerk der neuronalen Schaltkreise des Körpers funktionell und anatomisch kartiert werden und die Mechanismen ihrer Signalübertragung besser verstanden werden. Basierend auf dieser Kartierung sollen dann neuartige Instrumente und Protokolle zur Stimulierung entwickelt und erprobt werden. In einer Partnerschaft zwischen Wissenschaftern aus Hochschulforschung, Industrie und FDA sollen schlussendlich Humandatensätze erstellt und der Nutzen bestehender Geräte für neue Indikationen untersucht werden. (Details unter [3], https://commonfund.nih.gov/sparc/public).

Kann Vagus-Stimulierung auch mit Alltags-Methoden erfolgen?

Dass der Vagusnerv auch mit anderen Methoden als über elektrische Stimulierung aktiviert werden kann, geht schon aus der eingangs erwähnten, manuellen Kompression des Nervs in den 1880er Jahren hervor. Ganz allgemein kann eine Reihe von Übungen zur Aktivierung und Entspannung des Vagus führen, die für jedermann leicht zugänglich sind (dazu [4],[5]). Vor allem sind dies:

  • Techniken des Ein-und Ausatmens
  • Singen und Summen zur Vagusnerv-Massage
  • Kältereize für den Vagusnerv
  • Zunge herausstrecken zur Vagusnerv-Massage
  • Lachen als Vagusnerv-Therapie
  • Selbstmassage des Vagusnervs, Vagusnerv-Massage am Ohr
  • Vagusnerv stimulieren durch Akkommodation (d.i. Anpassung des Auges an verschiedene Entfernungen)
  • Gurgeln zur Stimulation des Vagusnervs

Dass es sich dabei nicht nur um Folklore handelt, zeigen einige klinische Studien - allerdings zumeist an einer nur kleinen Zahl von Probanden -, die bei den genannten Übungen zur Stimulierung des Vagusnervs führen. Hervorzuheben sind hier u.a.

  • tiefes Atmen: In einer rezenten Studie (2022) an insgesamt 94 Personen (42 Gesunde, 52 an entzündlichen Autoimmunerkrankungen Leidende) konnte tiefes Atmen (30 min lang: 4 s Einatmen/4 s Luft anhalten/6 s Ausatmen) den Vagus vergleichbar stimulieren wie eine elektrische Stimulation über das Ohr.
  • Musik hören/ausüben: Vielfach untersucht und wirksam (z.B. gegen epileptische Anfälle bei Kindern) haben sich Mozarts KV 448 und KV 545 erwiesen [6,7], daneben auch unterschiedliche Arten des Musik-Ausübens (z.B.: Singen, Summen).
  • Massage Techniken: Eine kürzlich publizierte Studie zeigte hohes Ansprechen des Vagus auf viszeral-osteopathische (= Bauch-) Massage bei Gesunden und bei Epileptikern. Besonders interessant ist die manuelle Vagus-Stimulierung im Ohr: Es handelt sich dabei um sanftes, wenige Minuten dauerndes Massieren mit den Fingerspitzen in den Bereichen, wo sich der Vagusnerv befindet (an den in Abbildung 2 gezeigten Stellen Ohrmuschel und Tragus). ------------------------------------------------------------------------------------------------------------------

Alles in Allem: Der Vagusnerv spielt eine Schlüsselrolle in der Regulierung unserer Körperfunktionen und diese können mit seiner gezielten Stimulierung positiv beeinflusst werden. Das therapeutische Potential ist enorm und wird laufend durch vielversprechende neue Informationen ergänzt, an die man nicht einmal im Traum gedacht hätte und die die moderne Medizin revolutionieren können.


[1] The internet of the body: the vagus nerve explained - Online interview. Video 21:34 min (18.3.2022). https://www.youtube.com/watch?v=n066VkD608I

[2] Y-T Fang et al., (06.07.2023) Neuroimmunomodulation of vagus nerve stimulation and the therapeutic implications. Front. Aging Neurosci., Volume 15 - 2023 |https://doi.org/10.3389/fnagi.2023.1173987

[3] NIH Common Fund's SPARC Program Overview and Introduction to the Program's Second Phase. (10.2022) Video 3:18 min. https://www.youtube.com/watch?v=wqjap_MdQFw

[4] Schnelle Übung zur Vagusstimulation (unglaublich effektiv!). U. Walter: Tinnitus Experte. Video 9:00 min. https://www.youtube.com/watch?v=ZBfypj7FSag

[5] Vagus nerve stimulation points: ears and gentle acupressure. Dr. Arielle Schwartz, klinische Psychologin. Video 5,34 min. (1.9.2021). https://www.youtube.com/watch?v=dPM7eZiw7ZE

[6] Mozart: Sonata for Two Pianos in D, KV 448 - Lucas & Arthur Jussen (2019) 21:03 min. https://www.youtube.com/watch?v=VIItKRaP2vc

[7] Mozart: Sonata in C major, K. 545 (complete) | Cory Hall, pianist-composer (2010), 11:23 min. https://www.youtube.com/watch?v=XqwMT5tCu7E


Weitere Informationen

Susanne Donner, 1.12.2022: Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren. https://scienceblog.at/hirn-herz-connections

Vagus Nerve Stimulation Explained! (VNS/tVNS) | Neuroscience Methods 101 . Video (2023) 4.25 min. https://www.youtube.com/watch?v=PVw-kJkb5BY

Was bringt eine Vagusnerv-Stimulation? 26.5.2023 https://www.apotheken-umschau.de/krankheiten-symptome/neurologische-erkrankungen/was-bringt-eine-vagusnerv-stimulation-963947.html

NIH Common Fund Stimulating Peripheral Activity to Relieve Conditions (SPARC) Program Overview, 2019, Video 3:02 min. https://www.youtube.com/watch?v=2zL2E50oRr8

NIH Common Fund's Stimulating Peripheral Activity to Relieve Conditions (SPARC) Stage 2 Concept. Video 38:14 min. 18.02.2021. https://www.youtube.com/watch?v=5zMPVznYHdo


 

inge Fri, 05.07.2024 - 18:20

Umprogrammierte Tabakpflanzen produzieren für Säuglingsnahrung wichtige bioaktive Milchzucker der Muttermilch

Umprogrammierte Tabakpflanzen produzieren für Säuglingsnahrung wichtige bioaktive Milchzucker der Muttermilch

Fr, 28.06.2024 — Ricki Lewis

Ricki Lewis Icon Molekularbiologie Muttermilch ist nicht nur vollständige und reichhaltige Nahrung für Säuglinge, sondern hat auch deutliche bioaktive Eigenschaften, welche die Gesundheit und Entwicklung der Kinder fördern. Eine Schlüsselrolle spielen dabei etwa 200 strukturell unterschiedliche Oligosaccharide (kurzkettige Zuckermoleküle), die u.a. den Aufbau der Darmflora bewirken. In künstlicher Säuglingsnahrung ("Formula") fehlen die meisten dieser Zucker, da deren Massenproduktion (derzeit auf mikrobieller Basis) sich als schwierig erweist. Nun beschreiben Forscher der Universität von Kalifornien in Berkeley und Davis, wie sie mit Hilfe von transgener Technologie die Zellen einer Tabakart so umrüsten, dass sie Enzyme produzieren, die zur Synthese der in der Muttermilch vorkommenden kurzen Zucker erforderlich sind. Die Genetikerin berichtet über die richtungsweisenden Ergebnisse, die in Nature Food [1] erschienen sind. *

Transgene Technologie

Seit den 1980er Jahren werden Pflanzen gentechnisch verändert und so programmiert, dass sie Moleküle produzieren, die für uns von Nutzen sind. Im Gegensatz zur kontrollierten Züchtung in der konventionellen Landwirtschaft werden bei der gentechnischen Veränderung bestimmte Gene eingefügt oder entfernt, um eine Pflanzenvariante mit einem bestimmten Nutzen für uns zu schaffen.

Pflanzen werden nicht nur gentechnisch verändert, um Obst und Gemüse zu züchten oder zu verbessern, sie leichter anzubauen oder vor Schädlingen und Krankheitserregern zu schützen, sondern auch, um die Enzyme herzustellen, die zur Katalyse der biochemischen Reaktionen benötigt werden, die der Synthese von Zutaten wie Maissirup, Maisstärke, Maisöl, Sojaöl, Rapsöl und sogar Zucker zugrunde liegen.

Es sind dies indirekte Veränderungen, denn die Gene kodieren für Proteine, nicht für Kohlenhydrate oder Öle. Stattdessen erhalten die Genome der im Labor gezüchteten Pflanzenzellen die DNA-Sequenzen - Gene -, die sie in die Lage versetzen, spezifische Enzyme herzustellen, die für die biochemischen Wege zur Produktion bestimmter für uns wertvoller Moleküle erforderlich sind. Um ausgewählte Gene in Pflanzenblätter einzuschleusen, haben die Forscher ein häufig verwendetes Bodenbakterium, Agrobacterium tumefaciens, eingesetzt,

Ein Organismus, der die DNA einer anderen Spezies in sich trägt, wird als transgen bezeichnet, wobei rekombinante DNA-Tools in einem mehrzelligen Organismus angewandt werden. Menschliches Interferon-α war das erste rekombinante, aus Pflanzen gewonnene pharmazeutische Protein, das 1989 in Rüben hergestellt wurde.

Transgene Pflanzen habe verschiedenartige Anwendungen. Hergestellt werden u.a:

  • Menschliches Wachstumshormon aus Tabak
  • Proteinantigene, die als Impfstoffe gegen HIV (aus Tabak) und Hepatitis B (aus Kopfsalat) verwendet werden
  • Koloniestimulierender Faktor (aus Reis)
  • Proteaseinhibitor gegen HIV-Infektionen (aus Mais)
  • Enzyme wie Lysozym und Trypsin
  • Interferon und Interleukine (aus Kartoffeln)
  • Impfstoffe und Antikörper gegen COVID-19

Nachahmung der Milch

Die Forscher bezeichnen ihre umgerüsteten Zellen von Nicotiana benthamiana (auch bekannt als benth oder benthi), einer nahen Verwandten der Tabakpflanze aus Australien, als "photosynthetische Plattform für die Produktion verschiedenartiger menschlicher Milch-Oligosaccharide" [1]. Abbildung 1.  Ziel ist es, die schwer zu synthetisierende einzigartige Zuckermischung nachzuahmen, die für kommerzielle Säuglingsnahrung benötigt wird, um ernährungsphysiologisch so nah wie möglich an die echte Muttermilch heran zu kommen. [1]

Abbildung 1 Nicotiana benthamiana, eine in Australien beheimatete , nahe Verwandte des Tabaks kann für „Molecular Farming“ , d.i zur Produktion von ansonsten nur schwer und kostspielig herstellbaren Substanzen herangezogen werden. Im konkreten Fall wurden die Zellen so umprogrammiert, dass sie die Enzyme produzieren, die zur Herstellung der Zucker in der menschlichen Muttermilch erforderlich sind. (Bild:Chandres in https://commons.wikimedia.org/wiki/File:Nicotiana_benthamiana.jpg. Lizenz: cc-by-sa)

Weltweit trinken etwa 75 % der Babys in den ersten sechs Monaten Säuglingsnahrung, entweder als einzige Nahrungsquelle oder als Ergänzung zum Stillen. Aber Molekül für Molekül ist die Säuglingsanfangsnahrung nicht genau das Gleiche wie die echte Muttermilch. Die etwa 200 kurzen Zuckermoleküle in der menschlichen Muttermilch sind Vorläufer von Molekülen, die den Aufbau und die Erhaltung eines Darmmikrobioms unterstützen, das die Verdauung erleichtert und gleichzeitig Krankheiten vorbeugt. Aber dieselben Zucker, die eine Pflanzenzelle leicht produziert, sind für Lebensmittelchemiker und Mikrobiologen schwierig, manchmal sogar unmöglich, im Labor zu synthetisieren.

Auf in die transgene Technologie

Die Zusammensetzung der Milch mit Hilfe von gentechnischer Veränderung zu kontrollieren kann nicht nur zu verbesserter Säuglingsnahrung, sondern auch zu verbesserter Pflanzen-basierter Milch führen.

"Pflanzen sind phänomenale Organismen, die Sonnenlicht und Kohlendioxid aus unserer Atmosphäre aufnehmen und daraus Zucker herstellen. Und sie stellen nicht nur einen Zucker her, sondern eine ganze Vielfalt von einfachen und komplexen Zuckern. Da Pflanzen bereits über diesen grundlegenden Zuckerstoffwechsel verfügen, dachten wir uns, warum versuchen wir nicht, ihn umzuleiten, um in Muttermilch vorkommende Oligosaccharide herzustellen", so der Hauptautor der Studie, Patrick Shih.

Die komplexen Milchzucker - Oligosaccharide - sind aus einfachen Monosacchariden (Anm. Redn.: D-Glucose, D-Galaktose, L-Fucose, N-Acetylglucosamin und/oder N-Acetylneuraminsäure) hergestellt, die zu geraden und verzweigten Ketten verbunden sind. Abbildung 2a, b. Enzyme katalysieren die Reaktionen, welche die einfachen Zucker der Muttermilch miteinander verbinden - diese sind komplex genug, um die synthetischen Fähigkeiten von Chemikern herauszufordern - aber nicht die von Pflanzen. Abbildung 2c.

Die Zellen der transgenen Tabakpflanzen sind mit den Genen ausgestattet, die für die Enzyme kodieren, die zur Herstellung von 11 Oligosacchariden der menschlichen Milch und anderen komplexen Zuckern erforderlich sind. Abbildung 2.

Abbildung 2. Die umprogrammierten Pflanzen produzieren alle Klassen von Oligosacchariden.

Das ist eine beachtliche Leistung. "Wir haben alle drei Hauptgruppen der Oligosaccharide der Muttermilch hergestellt. Meines Wissens hat noch nie jemand gezeigt, dass man alle drei Gruppen gleichzeitig in einem einzigen Organismus herstellen kann", so Shih.

Ein Milchzucker ist ganz besonders wertvoll: LNFP1 (Lacto-N-fucopentaose, Anm. Redn.). "LNFP1 ist ein in menschlicher Milch vorkommendes fünf Monosaccharide langes Oligosaccharid, das sehr nützlich sein soll, aber bisher mit herkömmlichen Methoden der mikrobiellen Fermentation nicht in großem Maßstab hergestellt werden kann. Wir dachten, wenn wir mit der Herstellung dieser größeren, komplexeren Oligosaccharide der menschlichen Milch beginnen könnten, könnten wir ein Problem lösen, das die Industrie derzeit nicht lösen kann", so der Hauptautor Collin R. Barnum, der an der UC Davis graduiert hat.

Es ist zwar möglich, einige wenige Zucker der menschlichen Milch in Bakterien herzustellen, aber es ist kostspielig, sie von toxischen Nebenprodukten zu isolieren. Daher lassen die meisten Hersteller von Säuglingsnahrung diese wertvollen Zucker in ihren Rezepturen weg.

Der transgene Ansatz zur Herstellung von menschlichem Milchzucker in Tabakpflanzen ist außerdem skalierbar - ein wichtiger Aspekt bei Produkten, die von Millionen Menschen konsumiert werden.. Laut Schätzung von Kooperationspartner Minliang Yang (North Carolina State University) kommt die Produktion von Milchzucker aus gentechnisch veränderten Pflanzen im industriellen Maßstab vermutlich billiger als die Verwendung herkömmlicher Verfahren.

Shih fasst zusammen: "Stellen Sie sich vor, Sie könnten alle Oligosaccharide der menschlichen Milch in einer einzigen Pflanze herstellen. Dann könnte man diese Pflanze einfach zerkleinern, alle Oligosaccharide gleichzeitig extrahieren und sie direkt der Säuglingsnahrung zufügen. Bei der Umsetzung und Kommerzialisierung wird es wohl eine Menge Herausforderungen geben, aber das ist das große Ziel, auf das wir zusteuern wollen."

Ich frage mich, was das für die Herstellung von Speiseeis bedeutet.


 [1] Barnum, C.R., Paviani, B., Couture, G. et al. Engineered plants provide a photosynthetic platform for the production of diverse human milk oligosaccharides. Nat Food 5, 480–490. (2024). https://doi.org/10.1038/s43016-024-00996-x. (open access, Lizenz cc-by.)


* Der Artikel ist erstmals am 20. Juni 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " Can Engineered Tobacco Plants that Make Human Sugars Improve Infant Formula and Plant-Based Milks?"https://dnascience.plos.org/2024/06/20/can-engineered-tobacco-plants-that-make-human-sugars-improve-infant-formula-and-plant-based-milks/erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Abbildung 2 plus Text wurden von der Redaktion aus der zitierten Publikation [1] eingefügt.


 Anmerkung der Redaktion: Wie hoch ist der Milchzuckeranteil in der Muttermilch?

Abbildung. Von den rund 200 identifizierten Oligosacchariden machen die 10 am häufigsten vorkommenden - darunter LNFP-1 rund 70 % der Gesamtkonzentration aus. (Quelle: Figure 4, modifiziert aus Buket Soyyılmaz et al., The Mean of Milk: A Review of Human Milk Oligosaccharide Concentrations throughout Lactation . Nutrients 2021, 13(8), 2737; https://doi.org/10.3390/nu13082737 . Lizenz cc-by.)

Laut Netdoktor.de enthält reife Muttermilch mit 60 g/l mehr Kohlehydrate als Protein (13 g/l) und Fette (40 g/l) (https://www.netdoktor.de/baby-kleinkind/muttermilch/) . Lactose ist die bei weitem überwiegende Komponente der Kohlehydrate und Ausgangspunkt für die Biosynthese aller Oligosaccharide.

Basierend auf publizierten Messdaten in 57 Artikeln aus 37 Ländern, gibt ein 2021 erschienener Übersichtsartikel eine Abschätzung der Gesamtkonzentration der Oligosaccharide (11,3 g/ l ) und der am häufigsten vorkommenden Komponenten in reifer Muttermilch.


Video

Biotech-Tabak & der sauberste Blattsalat: Hinter den Kulissen der "Molekularen & Vertikalen Farmer" Video 9:43 min.  https://www.youtube.com/watch?v=q3qrCZS9FHw&t=74s


 

inge Fri, 28.06.2024 - 12:48

Einstellung der EU-Bürger zur Umwelt - Special Eurobarometer 550 Report

Einstellung der EU-Bürger zur Umwelt - Special Eurobarometer 550 Report

So, 23.06.2024 — Redaktion

Redaktion

Icon Politik & Gesellschaft Im Abstand von wenigen Jahren gibt die EU-Kommission repräsentative Umfragen in Auftrag, welche die Einstellung der EU-Bürger zur Umwelt ermitteln sollen. Die jüngste Umfrage wurde im Frühjahr 2024 durchgeführt; deren Ergebnisse sind nun im Report "Special Eurobarometer 550"am 29. Mai 2024 erschienen. Wie auch in den vergangenen Jahren ist dem überwiegenden Großteil der Bürger bewusst, dass Umweltprobleme direkte Auswirkungen auf das tägliche Leben und die Gesundheit haben, die einzelnen Länder differieren aber in ihren Ansichten über die die prioritären Maßnahmen zur Bewältigung der Umweltprobleme, über die problematischsten Schadstoffe und Abfallprodukte in ihren Regionen und deren Vermeidung und über die Rolle der EU und der einzelnen Staaten in der Umweltpolitik. In diesem Überblick werden den Ergebnissen über die EU-Bürger (im EU27- Mittel) die über die Österreicher (und auch die Deutschen) erhobenen Daten gegenüber gestellt.

Die jüngste Umfrage zur Einstellung der EU-Bürger gegenüber der Umwelt wurde im Zeitraum 6. März bis 8. April 2024 abgehalten, wobei insgesamt 26 346 Personen aus allen 27 EU-Mitgliedstaaten - rund 1000 Personen je Mitgliedsland - befragt wurden [1]. Wie üblich waren dies vorwiegend persönliche (face to face) Interviews mit Personen ab 15 Jahren aus unterschiedlichen sozialen und demographischen Gruppen, die in deren Heim und in ihrer Muttersprache stattfanden. Insgesamt 17 Fragen (QB1 - QB17; einige davon auch schon zum wiederholten Male) wurden zu folgenden Themen gestellt:

  • Generelle Ansichten zu Umweltfragen und zu effektiven Wegen Umweltprobleme in den Griff zu bekommen.
  • Einstellung zu Umweltpolitik und Gesetzgebung (Rolle der EU und der öffentlichen Hand).
  • Grüne- und Kreislaufwirtschaft (Abfall, Abfallvermeidung, Nachhaltigkeit).
  • Gefährliche Chemikalien (mit Fokus auf "Ewigkeitschemikalien" - PFAS).
  • Gefahren, die in Zusammenhang mit dem Wasser in den jeweiligen Ländern stehen.

Generelle Einstellungen zu Umweltproblemen und zu ihrer Lösung

Abbildung 1. Der überwiegende Anteil der EU-Bürger fühlt sich durch die Auswirkungen von Umweltproblemen bedroht. (Quelle: QB1 in Report Special Eurobarometer 550 [1]).

Wie auch schon in vorhergegangenen Umfragen zeigte sich eine überwältigende Mehrheit der EU-Bürger - im EU27 Schnitt 78 % - besorgt über die zunehmenden Umweltprobleme und deren Auswirkungen auf Leben und Gesundheit. Abbildung 1.

Auffällig dabei ist ein starkes Nord-Süd-Gefälle: die südeuropäischen Länder fühlen sich ungleich stärker bedroht als die nordeuropäischen Staaten. (Siehe dazu im Vergleich die Ergebnisse aus 2017 [2].)

Lösung von Umweltproblemen: In der Frage, wie man diese am effektivsten lösen kann, differieren die EU-Bürger in der Wahl der Vorgehensweisen. Zur Auswahl wurden 8 Alternativen gestellt, die nach der  Reihung der EU27-Ergebnisse  angeführt sind:

  1. Förderung der Kreislaufwirtschaft durch Reduzierung/Vermeidung von Abfall und Wiederverwendung oder Recycling von Produkten (Nummer 1 in 14 Mitgliedsstaaten - darunter Österreich und Deutschland  (17 %)
  2. Wiederherstellung der Natur - Renaturierung (wurde in 6 Staaten als prioritär angesehen)
  3. Einhaltung des Umweltrechts (prioritär in 4 Staaten)
  4. Erhöhte Garantie, dass auf dem EU-Markt verkaufte Produkte nicht zur Schädigung der Umwelt beitragen (prioritär in 3 Staaten)
  5. Ivestitionen in Forschung und Entwicklung, um beste technische Lösungen zu finden (Nummer 1 in Schweden und Dänemark)
  6. Bereitstellung von mehr Informationen/Bildung zu Umweltfreundlichkeit (Nummer 1 in Luxemburg).
  7. Höhere Besteuerung umweltschädlicher Aktivitäten
  8. Abschaffung staatlicher Subventionen für Umwelt verschmutzende Aktivitäten.

Abbildung 2. Maßnahmen zur Bewältigung von Umweltproblemen. Zustimmung in Österreich und Deutschland im Vergleich zum EU27-Schnitt. Die ausführliche Bezeichnungen der Maßnahmen sind im Text oben nachzulesen. (Grafik erstellt aus den Daten von QB2a in Report Special Eurobarometer 550 [1]).

Die Akzeptanz der Vorgehensweisen ist für Österreich und Deutschland im Vergleich zu den EU27 in Abbildung 2 dargestellt.

In beiden Ländern ist mit 20 % die Zustimmung zur Kreislaufwirtschaft höher als im EU27-Schnitt. Die Renaturierung liegt in Deutschland mit 19 % knapp dahinter, in Österreich mit 13 % erst an dritter Stelle. Interessanterweise halten 17 EU-Länder Renaturierung für eine wirksamere Maßnahme als Österreich. Noch weniger Zuspruch als in Österreich  gibt es in Schweden (6 %), Finnland (6 %), Polen (8 %) und Italien (10 %) - Länder, die am 19, Juni gegen das EU-Renaturierungsgesetz gestimmt haben.

Einstellungen zur Umweltpolitik

EU-Umweltgesetze (QB3): Nahezu identisch mit den Umfrageergebnissen der letzten Jahre stimmt auch nun der überwiegende Teil der EU-Bürger zu, dass EU-Umweltgesetze für den Umweltschutz in ihrem Land notwendig sind: im EU27-Schnitt und ebenso in Deutschland sind 84 % dafür, 13 % dagegen, in Österreich ist die Zustimmung mit 76 % niedriger, die Ablehnung mit 21 % höher.

Auch die Frage, ob die EU Nicht-EU-Ländern helfen sollte deren Umweltstandards zu erhöhen, stößt auf breite Zustimmung: 80 % im EU27-Schnitt und praktisch gleich viel in Österreich und Deutschland. (Siehe dazu auch [3]).

Welche Rolle kommt nun der EU im Schutz der Natur zu - welche Maßnahmen werden als prioritär erachtet (QB13)? Die Zustimmung im EU27-Schnitt zu den 5 zur Auswahl stehenden Maßnahmen hat zu folgender Reihung geführt:

  1. Stärkung der Naturschutzbestimmungen und Sicherstellung, dass sie beachtet werden (24%)
  2. Sicherstellung des Naturschutzes bei der Planung von neuen Entwicklungen oder Infrastrukturen (22 %) ex aequo mit: Wiederherstellung der Natur - Kompensation von durch menschliche Aktivitäten verursachten Schäden (22 %)
  3. Bessere Information der Bürger über die Bedeutung der Natur (16%)
  4. Ausdehnung der Naturschutzgebiete (15 %)

Wer kommt für die Beseitigung von Umweltverschmutzung auf (QB4)? Wer trägt die Kosten? Wird die Frage in Zusammenhang mit der Industrie gestellt, so sind in fast allen EU-Ländern mehr als 90 % der Befragten der Meinung, dass diese für die Beseitigung der von ihr verursachten Verschmutzung aufkommen muss.

Wird die Frage generell gestellt, so gehen die Meinungen weit auseinander. Im EU27-Mittel befürworten 74 %, dass die öffentliche Hand dies tun sollte, dabei variiert die Zustimmung von 89 % (Kroatien, Malta) bis 44 % (Finnland); in Österreich sind es 71 %, in Deutschland 56 %.

Der Weg zu einer nachhaltigen Wirtschaft

Abbildung 3. QB8. Sind Sie bereit beim Kauf von Produkten wie Möbel, Textilien, Elektronik-Geräten mehr zu bezahlen, wenn diese leichter reparierbar, recycelbar und/oder umweltverträglicher hergestellt werden? (Grafik aus Infographic zu Report Special Eurobarometer 550 [1]).

Generell besteht die Bereitschaft zu einem nachhaltigeren Verbraucherverhalten (QB8), wobei im EU27-Schnitt 59 % (in Deutschland 68 %, in Österreich 52 %) der Befragten bereit sind, mehr für nachhaltige Produkte zu zahlen, die leichter zu reparieren, recycelbar und/oder auf umweltverträgliche Weise hergestellt sind. Am höchsten ist die Zustimmung in den Skandinavischen Ländern (77 -86 %), am niedrigsten in osteuropäischen Ländern und insbesondere Portugal (41 %). Abbildung 3.

Im Rahmen einer stärker kreislauforientierten Wirtschaft unterstützen die EU-Bürger die Verringerung der Abfallmenge, indem sie ihre Abfälle für das Recycling richtig sortieren und wiederverwendbare Verpackungen verwenden (QB6). Darüber hinaus würde fast die Hälfte der Befragten zur Verringerung des Abfalls in erster Linie Produkte kaufen, die nicht mehr Verpackung als nötig haben, und über 40 % würden in erster Linie Produkte in recycelten Verpackungen kaufen.

Welche Abfälle werden als besonders problematisch gesehen? (QB7a) In allen EU-Ländern werden Kunststoff- und Chemieabfälle als die problematischsten Abfälle angesehen. In keinem EU-Land werden die anderen Arten von Müll an erster Stelle genannt. Am Wenigsten werden Textilabfälle als Problem gesehen. Abbildung 4.

Abbildung 4. Problematischster Abfall in Österreich und Deutschland im Vergleich zum EU27-Schnitt. (Grafik erstellt aus den Daten von QB7a in Report Special Eurobarometer 550 [1]).

Bewusstsein für die Auswirkungen von schädlichen Chemikalien

Rund vier von fünf Befragten (EU-weit: 84 %, Österreich 79 %, Deutschland 82 %) machen sich Sorgen über die Auswirkungen schädlicher Chemikalien in Alltagsprodukten - beispielsweise in Pfannen, Spielsachen, Reinigungsmitteln - auf ihre Gesundheit; ein etwa gleicher Anteil (EU-weit: 84 %, Österreich 80 %, Deutschland 83 %)macht sich Sorgen über die Auswirkungen solcher Chemikalien auf die Umwelt (QB10). Seit der Umfrage von 2019 sind diese Sorgen fast unverändert hoch geblieben.

Sowohl in Hinblick auf die Auswirkungen auf die Gesundheit als auch auf die Umwelt ist die Mehrzahl der Befragten (EU-weit 52 %, Österreich 42 %, Deutschland 59 %) der Ansicht, dass der Schutz vor gefährlichen Chemikalien in der EU zu gering ist und verbessert werden sollte (QB9). EU-weit sagen 72 % der Europäer (76 % der Österreicher und 75 % der Deutschen), dass sie beim Kauf von Produkten auf deren chemische Sicherheit achten.

Besonderer Fokus auf Ewigkeitsmoleküle PFAS (per-und polyfluorierte Kohlenstoffverbindungen) QB11. QB12. Auf Grund ihrer Widerstandsfähigkeit gegenüber chemischen Verbindungen aller Art, Hitze und Wasser sind PFAS in industriellen Anwendungen nahezu unentbehrlich geworden- die Kehrseite ist eine enorm hohe Persistenz gegenüber natürlichen Abbaumechanismen und damit eine fortschreitende Akkumulation in Umwelt und auch in unseren Körpern und als Folge gravierende Auswirkungen auf Natur und Gesundheit. Trotz der stark zunehmenden Information über diese Chemikalien geben im EU27 Schnitt nur 29 % der Befragten (25 % der Österreicher, 29 % der Deutschen) an bereits von PFAS gehört zu haben - nur nordeuropäische Staaten sind offensichtlich gut informiert (Schweden, Dänemark, Niederlande > 80 %).

Nachdem ihnen die Bedeutung von PFAS erläutert worden war, äußerten die Befragten große Besorgnis über die Auswirkungen dieser Verbindungen auf die Gesundheit (EU27: 88 %, Österreich 92 %, Deutschland 88 %) und auf die Umwelt (EU27: 92 %. Österreich 92 %, Deutschland 93 %).

Vom Wassser ausgehende Probleme in den jeweiligen Ländern

Wie hoch ist das Bewusstsein der EU-Bürger für Bedrohungen, die in ihren Ländern vom Wasser ausgehen? (QB14). In dieser Frage fühlen sich EU-weit 51 % der Bürger (56 % Österreich, 48 % Deutschland) gut informiert was Probleme wie Verschmutzung, Überflutungen, Trockenheit und ineffiziente Wassernutzung in ihren Ländern betrifft. Ein fast gleich hoher Anteil (EU27: 48 %) fühlt sich dagegen schlecht informiert.

Abbildung 5. Größte vom Wasser ausgehende Bedrohungen im EU27-Schnitt und in Österreich und Deutschland Problematischster Abfall in Österreich und Deutschland im Vergleich zum EU27-Schnitt. (Grafik erstellt aus den Daten von QB15a in Report Special Eurobarometer 550 [1]).

QB15a. Was sind die größten vom Wasser ausgehenden Bedrohungen im eigenen Land? Insgesamt gesehen nannten EU27-weit die Befragten in erster Linie die Verschmutzung, gefolgt von übermäßigem Verbrauch und Wasserverschwendung (Abbildung 5). In weiterer Folge zeigten sich aber Regionen -spezifische Unterschide - Trockenheit in Spanien, Portugal, Zypern; Hochwässer in Belgien, Dänemark; Algen in Finnland.

QB16. Die Frage, ob die nationalen Akteure in Industrie, Energieerzeugung, Tourismus, öffentlicher Verwaltung, Haushalten, Landwirtschaft und Fischereibetrieben derzeit genug tun, um Wasser effizient zu nutzen, verneinte die Mehrheit der Befragten - keiner der Akteure würde genügend tun.

QB17.Die Frage, ob die EU zusätzliche Maßnahmen vorschlagen sollte, um wasserbezogene Probleme in Europa zu lösen, bejahten imEU27-Schnitt mehr als drei Viertel (78 %) der Europäer, wobei die Zustimmungen zwischen 57 % (Estland) und 91 % (Malta) variierten. In Österreich gab es 62 % Ja-Stimmen in Deutschland 81 %.

---------------------------------------------------

Fazit

Fazit Gegenüber den vorhergegangenen Reports ist der aktuelle Report (nicht nur in Hinblick auf das Volumen) mager ausgefallen. Viele Fragen wurden - ident oder leicht verändert - schon wiederholt gestellt und haben zu ähnlichen Ergebnissen geführt.

In den Maßnahmen zur Lösung von Umweltproblemen steht nun neu die Wiederherstellung der Natur. Trotz ihrer breiten Publicity haben die EU-Bürger diese Maßnahme nicht als First Choice gereiht (diese blieb - wie schon in der letzten Umfrage die Kreislaufwirtschaft). In Österreich steht die Renaturierung an dritter Stelle, in Ländern wie Schweden, Finnland, Italien und Polen an letzter/vorletzter Stelle.

Neu hinzu gekommen zu den Umwelt/Gesundheit schädigenden Chemikalien sind die "Ewigkeitsmoleküle " PFAS. Hier ist noch massive Aufklärung notwendig: im EU27 Schnitt geben nur 29 % der Befragten bereits von PFAS gehört zu haben und sind dann - nach Aufklärung - über deren Auswirkungen schwer betroffen.

Mehr Information ist vor allem aber auch bei den Bedrohungen erforderlich, die in den einzelnen Ländern vom Wasser ausgehen - 48 % der EU-27 fühlen sich über die Situation im eigenen Land schlecht informiert. Ein weiterer wichtiger Kritikpunkt. Auf nationaler Ebene macht der Großteil der heimischen Akteure - von Industrie über Verwaltung bis hin zu den Haushalten - zu wenig um Wasser effizient zu nutzen.


[1]  Special Eurobarometer 550: Attitudes of Europeans towards Environment SP550 Report_en-3.pdf. 29. Mai 2024. https://europa.eu/eurobarometer/surveys/detail/3173 . Plus Links zu Infographics:

  • Attitudes of Europeans towards the Environment - Infographics
  • Attitudes of Europeans towards the Environment - What EU citizens have to say about water - Infographics.

[2] Inge Schuster, 16.11.2017.: Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage.

[3] Inge Schuster, 23.11.2027: EU-Bürger, Industrien, Regierungen und die Europäische Union in SachenUmweltschutz - Ergebnisse der Special Eurobarometer 468 Umfrage (Teil 2)


PFAS im ScienceBlog:

Inge Schuster, 04.04.2024: Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen.


 

inge Mon, 24.06.2024 - 00:01

Die Emissionen von Distickstoffmonoxid (Lachgas) steigen beschleunigt an - Eine umfassende globale Quantifizierung dieses besonders starken Treibhausgases

Die Emissionen von Distickstoffmonoxid (Lachgas) steigen beschleunigt an - Eine umfassende globale Quantifizierung dieses besonders starken Treibhausgases

Do, 13.06.2024 — IIASA

IIASA Logo

Icon Klima

Distickstoffmonoxid (N2O, Lachgas) ist ein langlebiges Treibhausgas, dessen Treibhauspotential rund 300 Mal höher als das von CO2 ist und das auch zum Abbau der Ozonschicht in der Stratosphäre führt. Seit der vorindustriellen Zeit reichert sich N2O in der Atmosphäre an und trägt zum gesamten effektiven Strahlungsantrieb der Treibhausgase rund 6,4 % bei. Eine neue Studie bringt eine umfassende Quantifizierung der globalen N2O-Quellen und -Senken in 21 Kategorien von natürlich-erzeugtem und anthropogenem N2O und 18 Regionen zwischen 1980 und 2020: In diesem Zeitraum sind die N2O-Emissionen weiterhin angestiegen, wobei die vom Menschen verursachten Emissionen um 40 % zugenommen haben.*

Eine neue Studie des Global Carbon Project [1] ist vorgestern unter dem Titel "Global Nitrous Oxide Budget (1980-2020)" in der Fachzeitschrift Earth System Science Data erschienen [2]. An ihr waren 58 Forscher aus 55 Organisationen in 15 Ländern beteiligt, darunter auch Forscher aus dem Energy, Climate, and Environment Program des IIASA (Laxenburg bei Wien). Die Studie zeigt auf, dass die Emissionen von Distickstoffmonoxid (N2O) zwischen 1980 und 2020 unvermindert angestiegen sind. Abbildung 1.

N2O ist ein Treibhausgas, das stärker wirkt als Kohlendioxid (rund 300 Mal stärker) oder als Methan (rund 12 Mal stärker). Es ist Feuer am Dach, so die Autoren, wenn in einer Zeit, in der zur Begrenzung der globalen Erwärmung die Treibhausgasemissionen zurückgehen müssen, in den Jahren 2021 und 2022 N2O schneller in die Atmosphäre gespült wird als zu jedem anderen Zeitpunkt in der Vergangenheit (Abbildung 1, Insert).

Abbildung 1. Globale mittlere N2O-Konzentration in der Atmosphäre in ppb [nmol pro mol]; Zeitraum 1980 - 2022. Insert: die jährliche Anstiegsrate in ppb/Jahr von 1995 bis 2022. Die Daten stammen von den Beobachtungs-Netzwerken "Advanced Global Atmospheric Gases Experiment" (AGAGE), "National Ocean and Atmospheric Administration" (NOAA) und "Commonwealth Scientific and Industrial Research Organization" (CSIRO). (Bild und Legende von Redn. eingefügt aus: Figure 2, Tian et al., 2024 [2]; Lizenz cc-by.)

"Die durch menschliche Aktivitäten verursachten N2O-Emissionen müssen sinken, um - wie im Pariser Abkommen festgelegt - den globalen Temperaturanstieg auf 2°C zu begrenzen,", erklärt der Erstautor der Studie, Hanqin Tian, Professor für Globale Nachhaltigkeit am Schiller Institute des Boston College. "Da derzeit keine Technologien vorhanden sind, um N2O aus der Atmosphäre zu entfernen, besteht die einzige Lösung darin die N2O-Emissionen zu senken."

Aus der Studie geht hervor, dass im Jahr 2022 die N2O-Konzentration in der Atmosphäre 336 ppb (Teilchen pro Milliarde Teilchen - nmol N2O/mol) erreicht hat, was einem Anstieg von 25 % gegenüber dem vorindustriellen Niveau entspricht und weit über den Prognosen liegt, die das Intergovernmental Panel on Climate Change (IPCC) erstellt hat. Dieser Emissionsanstieg findet zu einer Zeit statt, in der die globalen Treibhausgase rasch in Richtung Null sinken sollten, wenn wir irgendeine Chance haben möchten, die schlimmsten Auswirkungen des Klimawandels zu vermeiden. Den Autoren zufolge bringt der ungebremste Anstieg eines Treibhausgases, dessen Erderwärmungspotenzial etwa 300 Mal größer ist als das von Kohlendioxid, gravierende strategische Auswirkungen mit sich.

Eine umfassende Abschätzung des globalen N2O

Auf der Basis millionenfacher N2O-Messungen, die in den letzten vier Jahrzehnten an Land, in der Atmosphäre, in Süßwassersystemen und im Ozean durchgeführt wurden, haben die Forscher die bisher umfassendste Abschätzung des globalen N2O erstellt. Sie haben auch die weltweit gesammelten Daten in Hinblick auf alle wichtigen wirtschaftlichen Aktivitäten untersucht, die zu N2O-Emissionen führen und berichten über 18 anthropogene (vom Menschen erzeugte) und natürliche Quellen sowie drei absorbierende "Senken" für N2O weltweit. Abbildung 2. Die landwirtschaftliche Produktion war in den 2010er Jahren für 74 % der vom Menschen verursachten Lachgasemissionen verantwortlich, was vor allem auf den Einsatz von kommerziellen Düngemitteln und tierischem Dünger auf Ackerflächen zurückzuführen ist.

Abbildung 2. Globales N2O-Budget im Zeitraum 2010-2019. Die farbigen Pfeile stellen die N2O-Flüsse in Teragramm Stickstoff pro Jahr (Tg N yr-1) dar: rot - direkte Emissionen aus Stickstoffeinträgen im Agrarsektor (Landwirtschaft); orange - Emissionen aus anderen direkten anthropogenen Quellen; kastanienbraun - indirekte Emissionen aus anthropogenen Stickstoffeinträgen; braun - gestörte Flüsse aufgrund von Veränderungen des Klimas, des CO2 oder der Bodenbedeckung, grün - Emissionen aus natürlichen Quellen. Die anthropogenen und natürlichen N2O-Quellen sind aus Bottom-up-Schätzungen abgeleitet. Die blauen Pfeile stellen die Oberflächensenke und die beobachtete atmosphärische chemische Senke dar, von der etwa 1 % in der Troposphäre stattfindet.(Bild und Legende von Redn. eingefügt aus: Figure 1, Tian et al., 2024 [2]; Lizenz cc-by.)

 

Reduzierung der N2O-Emissionen

"Während es in verschiedenen Regionen einige erfolgreiche Initiativen zur Stickstoffreduzierung gab, haben wir festgestellt, dass sich in diesem Jahrzehnt die Lachgasakkumulation in der Atmosphäre beschleunigt hat", so Josep Canadell, Executive Director des Global Carbon Project und Wissenschaftler bei der australischen CSIRO Marine and Atmospheric Research. Abbildung 3.

Zu den erfolgreichen Initiativen zur Stickstoffreduzierung gehören die Verlangsamung der Emissionen in China seit Mitte der 2010er Jahre sowie in Europa in den letzten Jahrzehnten - es bleibt jedoch noch viel zu tun, um sicherzustellen, dass die Emissionen dieses starken Treibhausgases deutlich reduziert werden. Häufigere Abschätzungen und eine verbesserte Bestandsaufnahme der Quellen und Senken werden entscheidend sein, um die Minderungsbemühungen gezielt einzusetzen und die Ziele des Pariser Abkommens zu erreichen.

Abbildung 3. Veränderungen der regionalen anthropogenen N2O-Emissionen im Zeitraum 1980-2020. Das Balkendiagramm in der Mitte zeigt die gesamten Änderungen der regionalen und globalen N2O-Emissionen während des Untersuchungszeitraums (*: Signifikanz P <0,05). Änderungsrate in Tg Stickstoff/Jahr. Die 18 Regionen: USA (US), Canada (CAN), Central Amerika (CAM), Brasilien (BRA),Nördl. Südamerika (NSA), SW-Südamerika (SSA), Europa (EU), Norfrika (NAF), Äquator.Afrika (EQAF), Südafrika (SAF), Rusland (RUS), Zentralasien (CAS), Mittlerer Osten (MEDE), China CHN), Korea, Japan (KAJ), Südasien (SAS), Südostsasien (SEAS), Australasia (AUS). (Bild und Legende von Redn. eingefügt aus: Figure 14, Tian et al., 2024 [2]; Lizenz cc-by.)

 

"Die sich beschleunigenden Lachgasemissionen unterstreichen die Dringlichkeit innovativer landwirtschaftlicher Praktiken sowie die Notwendigkeit, Emissionen aus anderen Quellen wie Industrie, Verbrennung oder Abfallbehandlung zu bekämpfen", erklärt Wilfried Winiwarter, Mitautor der Studie und leitender Forscher in der IIASA-Forschungsgruppe für Umweltmanagement. "Die Umsetzung von Maßnahmen durch wirksame Politik ist entscheidend, um unsere Klimaziele zu erreichen und unseren Planeten zu schützen."


 [1] The Global Carbon Project. The Global Carbon Project (GCP) integrates knowledge of greenhouse gases for human activities and the Earth system. Our projects include global budgets for three dominant greenhouse gases — carbon dioxide, methane, and nitrous oxide — and complementary efforts in urban, regional, cumulative, and negative emissions. https://www.globalcarbonproject.org/

[2] Tian, H., Pan, N., et al.,(2024). Global Nitrous Oxide Budget (1980–2020). Earth System Science Data. 10.5194/essd-16-2543-2024


 *Der Artikel "The Global Nitrous Oxide Budget 2024" ist am 12. Juni 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/jun-2024/global-nitrous-oxide-budget-2024). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 3 Abbildungen plus Legenden aus der, dem Artikel zugrundeliegenden Veröffentlichung [2] und mit Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Thu, 13.06.2024 - 18:01

Aurora - mit Künstlicher Intelligenz zu einem Grundmodell der Erdatmosphäre

Aurora - mit Künstlicher Intelligenz zu einem Grundmodell der Erdatmosphäre

Sa, 08.06.2024 — Redaktion

Redaktion

Icon Künstliche Intelligenz

Extremwetter-Ereignisse haben in den letzten Jahrzehnten in erschreckendem Maße zugenommen. Für geeignete Anpassungs- und Abschwächungsstrategien sind verlässliche Wettervorhersagen dringend erforderlich. Neben den herkömmlichen Supercomputer-basierten Systemen, die riesige Datensätze mit komplexen mathematischen Modellen verarbeiten, gibt es seit Kurzem mehrere Prognosemodelle, die künstliche Intelligenz nutzen, um schnelle und genaue Vorhersagen zu liefern. Das von Microsoft entwickelte "Aurora"-System zeichnet sich durch besondere Schnelligkeit und Effizienz aus; es ist ein Grundmodell, das hochauflösende globale Wetter- und Luftqualitätsvorhersagen bis zu 10 Tage im Voraus für jeden Ort der Welt liefert und auch auf eine Vielzahl von nachgelagerten Aufgaben angepasst werden kann.

Waren Wetterprognosen in den 1950 - 1960er Jahren oft Anlass zu Ärger und flachen Witzen, so sind sie inzwischen bedeutend treffsicherer geworden; eine 7-Tage-Vorhersage ist nun ungefähr ebenso zuverlässig wie eine 1-Tages-Vorhersage in den 1960er Jahren.

Numerische Modelle

Die Vorhersagen basieren heute auf numerischen Modellen, deren Berechnungen auf Grund der riesigen eingesetzten Datenmengen besonders schnelle, enorm leistungsstarke Super-Computer erfordern. Ausgehend von Millionen Messwerten von Tausenden Wetterstationen und immer umfangreicheren und genaueren Satellitendaten wird der aktuelle dynamische Zustand der Atmosphäre ermittelt und dessen Veränderung mit Hilfe von physikalischen Gleichungen (nichtlinearen Differentialgleichungen) für verschiedene Szenarios berechnet. Die Voraussagen für das zukünftige Wetter betreffen Luftdichte und Temperatur und daraus abgeleitet Luftdruck, Windkomponenten, Wasserdampf, Wolkenwasser, Wolkeneis, Regen und Schnee in der Atmosphäre vom Boden bis in 75 km Höhe.

Abbildung 1. Die Häufigkeit von Extremwetter-Ereignissen, die Kosten der dadurch verursachten Schäden (oben) und die Zahl der Toten (unten).(Quelle: World Meteorological Organization, Lizenz: cc-by-nc-nd)

Global führend in der Vorhersagequalität ist das seit fast 50 Jahren bestehende "European Centre for Medium-Range Weather Forecasts" (ECMRF), das über eine der weltweit größten Computeranlagen und über riesige Archive von meteorologischen Daten verfügt. Mit einer geografischen Auflösung von 9 km werden täglich Wettervorhersagen für mehr als 900 Millionen Orte auf der ganzen Welt und bis zu 15 Tagen in die Zukunft erstellt. Für diese, mit erheblichen Rechenkosten verbundenen Vorhersagen wird rund 1 Stunde benötigt. Der Output des ECMRF gilt als Goldstandard für die globale Wettervorhersage, seine Daten dienen als Grundlage für viele andere Wettermodelle (darunter auch die unten beschriebenen KI-Modelle).

Vorhersagbarkeit

Manche Wetterlagen sind in dem dynamischen, hochkomplexen System der Erdatmosphäre nur schwer vorhersagbar. Dies schafft vor allem bei Extremwetter-Ereignissen (sogenannten "1 in 100 Jahren" Ereignissen) Probleme, da diese ja noch schwieriger zu modellieren sind und - da sie seltener auftreten als häufige Ereignisse und damit weniger Datenmaterial zur Verfügung steht - die statistische Vorhersage mit größeren Unsicherheiten verbunden ist.

Als Folge von steigenden Temperaturen und anderen Auswirkungen des Klimawandels hat in den letzten Jahrzehnten allerdings die Zahl der Extremwetter-Ereignisse - Hitzewellen, Flutkatastrophen, Tropenstürme - in erschreckendem Maße zugenommen und damit ist die Notwendigkeit von effizienten Frühwarnsystemen gestiegen. Die Häufigkeit dieser Extrema ist von 800 in der 1970er Dekade auf das rund Vierfache gestiegen, die durch diese verursachten Schäden haben Kosten von 187 Mrd $ auf das Siebenfache (1,3 Billionen $) steigen lassen. Abbildung 1.

Die Zahl der Todesopfer ist jedoch stark zurückgegangen - laut Weltorganisation für Meteorologie ist das auf verbessertes Katastrophenmanagement und Frühwarnsysteme zurückzuführen.

Die Präzision der Wettervorhersagen und damit der Einsatz von Frühwarnsystemen stoßen auf Grenzen. Dies war offensichtlich der Fall als der Orkan Emir (Ciarán) im Herbst 2023 mit unerwarteter Intensität über Europa hereinbrach und eine Spur der Verwüstung hinterließ. Abbildung 2. Verbesserte Wettervorhersagen hätten hier Leben retten, enorme Sachschäden reduzieren und katastrophale ökonomische Verluste verhindern können.

Abbildung 2. Der Orkan Emir (Ciarán) über Westeuropa am 2. November 2023.(Bild: vom Aqua-Satelliten der Nasa mit dem MODIS Spectroradiometer aufgenommen. https://worldview.earthdata.nasa.gov/. Lizenz: cc 0)

Präzisere Wettervorhersagen werden  mit den häufiger auftretenden Wetterextremen immer dringlicher: "Mehr denn je ist die Gesellschaft auf genaue Wetter- und Klimainformationen angewiesen. Eine verlässliche Vorwarnung vor Wetterereignissen ist der Schlüssel zum Schutz von Leben und Eigentum, viele Wirtschaftszweige sind von den Wetterbedingungen abhängig, und die Klimaüberwachung ist für die Gesellschaft von entscheidender Bedeutung, um geeignete Anpassungs- und Abschwächungsstrategien zu finden." (ECMWF Strategy 2021 -2030. [1])

Künstliche Intelligenz im Einsatz

Nach den Erfolgen der KI in diversen Disziplinen wie u.a. der Sprachverarbeitung, Computer Vision, Arzneimittelforschung und Vorhersage von Proteinstrukturen gibt es seit Kurzem auch mehrere KI-Wettermodelle, deren Genauigkeit den besten mittelfristigen Prognosemodellen entspricht, die aber Tausende Male schneller arbeiten, ungleich weniger Computerleistung erfordern und diese Wissenschaft grundlegend verändern können.

Die ersten Prognosemodelle wurden 2023 vorgestellt:

  • "Pangu-Weather" - eine Entwicklung des chinesischen Technologiekonzerns Huawei [2]; trainiert mit globalen Wetterdaten aus 39 Jahren, kann das Modell u.a. Temperatur, Luftdruck, und Windstärke für die nächste Woche 10 000 x schneller als vorhersagen. Laut Huawei sagt der Deep-Learning-Algorithmus "extreme Regenfälle genau voraus und liefert Vorwarnungen, mit denen er bestehende Systeme in Tests in 70 % der Fälle übertrifft. Die Kombination dieser KI-Modelle mit herkömmlichen Methoden kann die Fähigkeit der Behörden, sich auf extreme Wetterbedingungen vorzubereiten, erheblich verbessern.“
  • NowcastNet entwickelt von einem chinesisch- US-amerikanischen Forscherteam [3]; das Tool wurde mit Radardaten aus den USA und China trainiert und dann mit numerischen Modellen kombiniert. Besonders treffsicher waren die Prognosen für Starkregenereignisse.
  • "FourCastNet" (Fourier Forecasting Neural Network) von NVIDIA in Zusammenarbeit mit Forschern von mehreren US-Universitäten [4]. Es wurde auf 10 TB Erdsystemdaten trainiert und liefert kurz- bis mittelfristige globale Vorhersagen (20 Tage) mit einer geographischen Auflösung von ca. 25 km. Für 7-Tage-Vorhersagen braucht es weniger als 2 Sekunden.
  • "GraphCast" ist ein von Google DeepMind entwickeltes Open-Source Projekt, das verbesserte Wetterprognosen leichter zugänglich machen soll [5]. Es bietet Wettervorhersagen mit mittlerer Reichweite (20 Tage) und einer geographischen Auflösung von ca. 25 km. GraphCast erstellt eine 10-Tage-Vorhersage in weniger als einer Minute und benötigt dazu nur einen einzigen Google TPU v4 Rechner.

2024 folgte mit "Aurora" von Microsoft [6] ein weiterer Meilenstein in der Wetter/Klimawissenschaft.

Aurora, das erste große Grundmodell der Erdatmosphäre

Ein Team von Computerwissenschaftlern bei Microsoft Research AI for Science hat in Zusammenarbeit mit Forschungspartnern das System Aurora entwickelt, das schneller als herkömmliche Systeme zur Vorhersage des globalen Wetters und der Luftverschmutzung eingesetzt werden kann. Aurora verwendet 1,3 Milliarden Parameter und wurde auf mehr als einer Million Stunden an Daten-Output von sechs Klima- und Wettermodellen trainiert.

Mit Aurora wurde damit ein Grundmodell geschaffen, d.i. es wurde auf einer riesigen Menge von Daten derart trainiert, dass es auf eine Vielzahl von nachgelagerten Aufgaben angepasst werden kann, wie auf eine Vielzahl von atmosphärischen Vorhersageproblemen, einschließlich solcher mit begrenzten Trainingsdaten, heterogenen Variablen und extremen Ereignissen. Aurora kann Vorhersagen für 10 Tage für jeden beliebigen Teil der Welt treffen. Es kann auch zur Vorhersage des Ausmaßes und der Schwere einzelner Wetterereignisse, wie z. B. von Wirbelstürmen, verwendet werden. Einzigartig ist die Fähigkeit von Aurora, die Luftverschmutzungswerte wesentlicher Schadstoffe - d.i. von Kohlenmonoxid, Stickoxid, Stickstoffdioxid, Schwefeldioxid, Ozon und Feinstaub - für jedes beliebige Stadtgebiet auf der ganzen Welt vorherzusagen - und zwar so schnell, dass es als Frühwarnsystem für Orte dienen kann, an denen gefährliche Schadstoffwerte auftreten werden.

Aurora kann als Blaupause für Grundmodelle von anderen Teilsystemen der Erde dienen und als Meilenstein auf dem Weg ein einziges umfassendes Grundmodell zu entwickeln, das in der Lage ist, ein breites Spektrum von Umweltvorhersageaufgaben zu bewältigen.


[1] ECMWF Strategy 2021 -2030. https://www.ecmwf.int/sites/default/files/elibrary/2021/ecmwf-strategy-2021-2030-en.pdf

[2] K.Bi et al., Accurate medium-range global weather forecasting with 3D neural networks. Nature 619, 533–538 (2023). https://doi.org/10.1038/s41586-023-06185-3

[3] Y.Zhang et al., Skilful nowcasting of extreme precipitation with NowcastNet. Nature 619, 526–532 (2023). https://doi.org/10.1038/s41586-023-06184-4

[4] Thorsten Kurt et al., FourCastNet: Accelerating Global High-Resolution Weather Forecasting Using Adaptive Fourier Neural Operators. PASC '23: Proceedings of the Platform for Advanced Scientific Computing Conference. June 2023 Article No.: 13Pages 1–11 https://doi.org/10.1145/3592979.3593412

[5] R.Lam et al., Learning skillful medium-range global weather forecasting. Scienc 382,6677, 1416-1421. DOI: 10.1126/science.adi2336

[6] Superfast Microsoft AI is the first to predict air pollution for the whole world. https://www.nature.com/articles/d41586-024-01677-2


 

inge Sat, 08.06.2024 - 22:58

Künstliche Intelligenz: Wie Maschinen Bilder verstehen und erzeugen

Künstliche Intelligenz: Wie Maschinen Bilder verstehen und erzeugen

Do, 30.05.2024 — Andreas Merian

Andreas Merian

Icon Künstliche Intelligenz

Bilder, die nicht der Wirklichkeit entsprechen, sind allgegenwärtig, zum Beispiel in Kinofilmen, auf Werbeplakaten oder im Internet. Zunehmend bearbeiten oder erzeugen künstliche Intelligenzen Bilder – mit Chancen und Risiken. Der Arbeitsgruppe von Christian Theobalt am Max-Planck-Institut für Informatik gelingt es so beispielsweise, den Gesichtsausdruck einer Person in einem Quellvideo auf eine Person in einem Zielvideo zu übertragen. Der Nutzen solcher Techniken für die Filmindustrie oder für virtuelle Treffen liegt auf der Hand. Die Risiken aber auch: gefälschte Medieninhalte (Deepfakes) können für einzelne Personen oder für die ganze Gesellschaft gefährlich werden.*

Der Avatar folgt den Bewegungen Theobalts exakt, und das in Echtzeit. Während der Wissenschaftler seinen Vortrag hält, spricht, gestikuliert und bewegt sich auch sein virtueller Doppelgänger. Neben dem realistischen Abbild des Wissenschaftlers zeigt der Bildschirm parallel auch zwei einfache Modelle (Abbildung 1). Diese sind üblicherweise nicht zu sehen, verdeutlichen aber, auf welcher Grundlage die Bewegungen des aus vier Blickwinkeln durch Kameras aufgezeichneten Wissenschaftlers auf den Avatar übertragen werden. Christian Theobalt spricht von holoportierten Charakteren, die in virtuellen Räumen zum Einsatz kommen können. Er sagt: „So könnte in Zukunft beispielsweise eine virtuelle Telepräsenz möglich sein, die es erlaubt, über große Distanzen mit Personen realistisch zu kommunizieren, ohne reisen zu müssen.

Abbildung 1. Ein Avatar entsteht. Das von Theobalts Team erstellte und trainierte KI-Programm kann anhand von Kamerabildern, die aus vier Blickwinkeln aufgenommen werden (links), ein virtuelles 3D-Abbild einer Person erschaffen (rechts). Dieses lässt sich dann aus jedem beliebigen Blickwinkel betrachten bzw. darstellen und in virtuellen Treffen oder Computerspielen einsetzen. Damit der Avatar realistisch und detailgetreu ist, extrahiert das Programm zunächst die 3D-Skelettpose aus den Kamerabildern. Anschließend wird eine dynamische Textur bzw. Oberfläche erstellt und schließlich der hochaufgelöste Avatar erzeugt. © MPI für Informatik, Universität Saarbrücken, Via Research Center; arXiv:2312.07423

Anhand des holoportierten Wissenschaftlers erklärt Christian Theobalt viele Facetten seiner Arbeit. Sein Ziel ist es, neue Wege zu entwickeln, die bewegte, reale Welt technisch zu erfassen und so detailgetreue virtuelle Modelle zu erstellen. Diese Modelle sollen es Computern und zukünftigen intelligenten Maschinen ermöglichen, die reale Welt zu verstehen, sicher mit ihr zu interagieren oder sie auch zu simulieren.

Bislang ist es sehr aufwendig, Bewegungen technisch aufzuzeichnen und in allen Einzelheiten mittels Computergrafik wiederzugeben. Für die technische Erfassung von Bewegungen, Motion Capture genannt, werden meist viele Kameras und Marker kombiniert oder eine Tiefenkamera verwendet. Bei der digitalen Erzeugung von Bildern wird außerdem viel Aufwand betrieben, damit Bewegungen natürlich erscheinen oder Details wie Lichtreflexionen, Falten in der Kleidung oder die Mimik von Menschen möglichst realistisch wiedergegeben werden. Für Filme erstellen und bearbeiten Spezialisten die computergenerierten Bilder, kurz CGI (engl. Computer Generated Imagery) in aufwendiger Handarbeit.

Christian Theobalt will das alles wesentlich vereinfachen: „Ziel ist es, dass eine einzige Kamera ausreicht, um Bewegungen exakt zu erfassen.“ Und auch Bilder zu erzeugen oder zu verändern soll wesentlich einfacher werden. Dazu forscht Theobalts Abteilung „Visual Computing and Artificial Intelligence“ an der Schnittstelle von Computergrafik, Computer Vision und künstlicher Intelligenz. Der erwünschte Fortschritt soll durch die Kombination künstlicher Intelligenz und etablierter Ansätze der Computergrafik, wie beispielsweise der Nutzung geometrischer Modelle, erreicht werden.

Maschinen werden intelligent

Der Begriff künstliche Intelligenz beschreibt Algorithmen, die dazu dienen, Maschinen intelligent zu machen. In vielen Fällen ahmen diese Algorithmen die kognitiven Fähigkeiten von Menschen nach. Ziel der Forschung und Entwicklung im Bereich der künstlichen Intelligenz ist es, Maschinen zu schaffen, die in bestimmten Bereichen der Intelligenz an den Menschen heranreichen oder diesen sogar übertreffen. Eine gebräuchliche Abkürzung für künstliche Intelligenz ist KI. Im englischsprachigen Raum wird von „artificial intelligence“ gesprochen und manchmal wird die daraus folgende Abkürzung AI auch im Deutschen verwendet.

Die menschliche Intelligenz zeichnet sich dadurch aus, dass das Gehirn unseren Körper steuert, Sinneseindrücke verarbeitet und neue Informationen mit bekannten verbindet. Dadurch können wir Geschehnisse in unserer Umwelt einordnen und vorausschauend denken und handeln.

Bekannte Bereiche der künstlichen Intelligenz sind die Robotik, also die Steuerung komplexer Bewegungen, und Computerprogramme, die komplexe Spiele wie Schach oder Go meistern und dafür Informationen verarbeiten und vorausschauend agieren müssen.

Eine weitere Komponente der Intelligenz ist das Sprachverständnis. Das Ziel des Forschungsbereichs der Computerlinguistik ist es, Maschinen zu entwickeln, die Sprache möglichst umfassend verstehen. Zuletzt machten auf diesem Feld sogenannte Chatbots wie ChatGPT oder Bard Schlagzeilen, aber auch Übersetzungsprogramme wie DeepL gehören zu den vielfältigen Anwendungen von KI im Bereich Sprache.

Der Aspekt an künstlicher Intelligenz, der Christian Theobalt am meisten interessiert, ist das Visual Computing. Darunter fallen alle digitalen Methoden, die Bilder verarbeiten, analysieren, modifizieren und erzeugen. Seine Arbeit geht also über die Computer Vision hinaus, die aus visuellen Daten wie Bildern und Videos Informationen gewinnt und beispielsweise in selbstfahrenden Fahrzeugen zum Einsatz kommt.

In seiner Forschung setzt Theobalt auf maschinelles Lernen. Diese Art des Lernens produziert künstliche Intelligenz, die nicht auf vorab formulierten Regeln basiert, sondern aus Beispielen lernt, wie eine Entscheidung zu treffen ist. Stehen der selbstlernenden Maschine hunderte oder besser tausende Beispiele zum Training zur Verfügung, entwickelt sie selbstständig einen Entscheidungsprozess, der verallgemeinert werden kann. Somit ist dieser anschließend auch auf unbekannte Datensätze anwendbar. Dazu nutzt Theobalts Forschungsteam das Deep-Learning-Verfahren. Dieses imitiert das menschliche Lernverhalten und basiert auf einem neuronalen Netz. Das Netz besteht aus künstlichen Neuronen, die in mehreren Schichten den Entscheidungsprozess gestalten (Abbildung 2). Jedes Neuron verarbeitet die eingehenden Daten, indem es die einzelnen Eingabegrößen gewichtet und gemäß bestimmter Regeln an die Neuronen der nächsten Schicht weitergibt. Nachdem moderne neuronale Netze oftmals aus vielen Schichten bestehen und damit tief sind, spricht man von Deep Learning.

Abbildung 2. Neuronales Netz. Ein einfaches Modell eines neuronalen Netztes, das für Deep Learning genutzt wird, besteht aus mehreren Schichten künstlicher Neuronen (Kugeln). Die Eingabeschicht (blaue Kugeln) nimmt die eingehenden Daten auf. Diese werden anschließend von den Neuronen in den verborgenen Schichten (hier nur eine Schicht, gelbe Kugeln) verarbeitet. Dazu werden die Daten von einem künstlichen Neuron gewichtet (Gewicht wxx) und an weitere Neuronen in der nächsten Schicht weitergegeben. Das Ergebnis des Programms in der Ausgabeschicht hängt somit von vielen verschiedenen Neuronen und Gewichten ab (rote Linien). © Grafik: HNBM, CC BY-NC-SA 4.0

Selbstlernende Programme

Der rasante Fortschritt der letzten Jahre auf dem Gebiet der KI basiert auf solchen selbstlernenden Programmen. Ausgelöst wurde diese Entwicklung durch Forschungserfolge im Deep Learning ab 2009 sowie immer größere verfügbare Rechenleistung und Datenmengen (Big Data), die es möglich machen, eine KI umfassend zu trainieren. So konnten Programmierende die Fähigkeiten von KI-Programmen rasch verbessern und erweitern. Beispielsweise erzielte 2015 das Deep-Learning-basierte Programm AlphaGo die ersten Erfolge einer KI gegen Weltklassespieler beim Brettspiel Go. Im weniger komplexen Schach schaffte es dagegen schon 1997 der Schachcomputer Deep Blue, den amtierenden Weltmeister zu schlagen. Deep Blue war eine regelbasierte, sogenannte symbolische KI. Diese Art der KI ist nicht selbstlernend, sondern kommt zu Entscheidungen, indem sie anhand klarer, vorab im Programmcode festgelegter Regeln Symbole wie z. B. Wörter oder Ziffern kombiniert. Die rein regelbasierte KI ist allerdings stark limitiert. Denn abgesehen von Spielen wie Schach, in denen die Umgebung eindeutig definiert ist, versagt sie, da es kaum möglich ist, alle möglichen Fälle vorab durch Regeln abzudecken.

Der Vorteil symbolischer KI ist, dass sie durch die Regeln und Symbole in der menschlichen Realität verankert ist und ihre Entscheidungen somit nachvollziehbar und interpretierbar sind. Im Gegensatz dazu sind die Entscheidungen selbstlernender Programme nicht per se nachvollziehbar. Christian Theobalt kombiniert in seiner Forschung regelbasierte und selbstlernende KI im sogenannten neuro-expliziten Verfahren. Wenn die KI etwa lernen soll, menschliche Bewegungen aus Kamerabildern zu rekonstruieren, nutzt sein Team ein vereinfachtes Skelett mit erlaubten Bewegungsrichtungen und -winkeln, um die Entscheidungen des Programms in realistische Bahnen zu lenken.

Effizientes Training

Damit die KI später gute Entscheidungen trifft, sind die Trainingsdaten entscheidend. Dabei ist es sowohl wichtig, dass eine große Datenmenge verfügbar ist, als auch, dass diese Daten von hoher Qualität sind. Damit der Avatar von Theobalt erzeugt werden kann, posierte der Wissenschaftler vorab in einem speziellen Labor vor mehr als einhundert hochauflösenden Kameras. Für das Trainingsdatenset der neuro-expliziten KI wird einerseits ein statischer 3D-Scan von Theobalt mit dem vereinfachten Skelett versehen und andererseits Videomaterial aufgezeichnet, das die unterschiedlichsten Bewegungen und Körperhaltungen aus allen Blickwinkeln umfasst. Ein Teil des Videomaterials dient außerdem als Testdatenset. Die trainierte KI kann anschließend auf der Grundlage von Videomaterial aus nur vier Blickwinkeln den detailgetreuen, bewegten Avatar erstellen. „Der Avatar kann Bewegungen darstellen und Haltungen annehmen, die nicht im Trainingsdatenset enthalten sind. Und er kann aus jedem Blickwinkel betrachtet werden, also nicht nur aus den vier Kameraperspektiven der Eingangsdaten“, sagt Christian Theobalt.

Dazu startet das Programm mit den vier Kamerabildern, der extrahierten 3D-Skelett-Pose und den Kameraparametern (Abbildung 1). Das auf Basis des Trainingsdatensets erstellte neuronale Netz für das Charaktermodell nimmt die Skelett-Bewegung als Eingabe und sagt eine positionsabhängige Verformung des Gitters voraus, das die Oberfläche des Charaktermodells bildet. Anschließend wird die Textur der Person soweit möglich aus den vier Kamerabildern gewonnen. Die Textur umfasst die Oberflächenbeschaffenheit und Farbe, etwa von Haut, Haaren und Kleidung. Im nächsten Schritt erstellt ein weiteres neuronales Netz aus diesen Texturinformationen eine blickwinkelabhängige, dynamische Textur. Zu guter Letzt erzeugt ein weiteres neuronales Netz aus den gesamten, niedrig aufgelösten Merkmalen die hochaufgelösten Bilder des Avatars. Das ganze Programm aus mehreren zusammenspielenden neuronalen Netzwerken arbeitet so schnell, dass der Avatar in Echtzeit entsteht und keine Verzögerung zwischen den Bewegungen der realen Person und dem holoportierten Charakter festzustellen ist.

Der Lernprozess der neuronalen Netze, die Theobalts Team dazu nutzt, läuft überwacht ab. Beim überwachten Lernen hat der Algorithmus eine klare Zielvorgabe und nutzt das Trainingsdatenset, um diesem Ziel immer näher zu kommen. Im Fall des Avatars werden die Ergebnisse der neuronalen Netze mit den zugrundeliegenden Kamerabildern verglichen, um eine möglichst fotorealistische Darstellung zu erreichen. Weitere wichtige Formen des maschinellen Lernens sind das unüberwachte Lernen und das bestärkende Lernen.

Künstliches Lächeln

Das Gesicht und die Hände sind die Körperpartien, die am schwierigsten technisch nachzustellen sind. Doch gerade Mimik und Handgesten werden in Zukunft wichtig für die Interaktion von Menschen mit Computer- und Robotersystemen sein. Daher liegt hier auch ein Schwerpunkt von Theobalts Forschung: Sein Team arbeitet daran, mit nur einer Kamera die Bewegung von Händen oder die Details eines Gesichts erfassen zu können. Ihre Forschung zu Gesichtern zeigt, dass sich der Gesichtsausdruck einer Person in einem Quellvideo auf eine Person in einem Zielvideo übertragen lässt. Die Forschenden entwickelten beispielsweise ein Programm, das die detaillierten Bewegungen der Augenbrauen, des Mundes, der Nase und der Kopfposition aufzeichnet. Dadurch kann etwa der ganze Ausdruck eines Synchronsprechers auf den eigentlichen Schauspieler im Film übertragen werden, wodurch die Synchronisation eines Films in einer anderen Sprache wesentlich vereinfacht wird. Noch realistischer wirkt die Synchronisation durch eine weitere Entwicklung des Forschungsteams: Die stilbewahrende Lippensynchronisation überträgt die Mimik der Quellperson (Synchronsprecherin) auf den charakteristischen Stil der Zielperson (Schauspielerin) (Abbildung 3). Dadurch passen die Lippenbewegungen zur neuen Tonspur, während die Eigenheiten, die die Schauspielerin ausmachen, erhalten bleiben. Dazu nutzen die Forschenden einen ähnlichen Ansatz wie für den holoportierten Charakter. Die neuro-explizite KI stützt sich in diesem Fall auf ein Gesichtsmodell und neuronale Netze.

Abbildung 3: Realistische Mimik. Die KI-gestützte visuelle Synchronisation kann die Lippen stilbewahrend an eine neue Tonspur anpassen, indem sie die Mimik der Quellperson auf den charakteristischen Stil der Zielperson überträgt. Wird der Gesichtsausdruck dagegen direkt übertragen, gehen die Eigenheiten, die die Zielperson ausmachen, verloren. Dies wird hier beispielsweise an der Mundpartie deutlich. © H. Kim et al.: Neural Style-Preserving Visual Dubbing (2019)

KI verantwortungsvoll nutzen

Neben vielen zukunftsträchtigen Anwendungen, die solche Forschung erschließt, birgt diese Technik auch Gefahren. Mithilfe derartiger Programme ist es möglich, Medieninhalte zu fälschen, die für einzelne Personen, aber auch ganze Gesellschaften zur Gefahr werden können. Diese durch Deep Learning erzeugten Fälschungen werden Deepfakes genannt und sind ein echtes Problem: gerade in niedrig aufgelösten Videos, die in sozialen Medien kursieren, sind Fälschungen mit bloßem Auge kaum zu identifizieren. So können falsche Informationen schnell und durchaus glaubhaft verbreitet werden. Politikern oder Politikerinnen können zu Propagandazwecken falsche Aussagen in den Mund gelegt und Prominenten kann ein künstlicher Skandal angehängt werden. Letztlich kann prinzipiell jeder Mensch, von dem Video- oder Bildmaterial zugänglich ist, Opfer eines Deepfakes werden. Theobalt plädiert dafür, dass Forschende die Ausgabe ihrer Programme mit einem Wasserzeichen versehen, das es später ermöglicht, damit erzeugte Deepfakes leicht zu identifizieren. Außerdem sagt er: „Es wird immer Menschen geben, die Technik missbrauchen. Der beste Weg, um dagegen vorzugehen, ist mit dem Fortschritt Schritt zu halten und KI-basierte Programme auch dafür zu nutzen, gefälschte Bilder oder Videos aufzuspüren. Wir entwickeln mit unserer Forschung auch das mathematische Verständnis, das dazu nötig ist, Fälschungen zu detektieren.“

Aktuell ist es meist noch möglich, Deepfake-Videos selbst zu identifizieren. Doch dazu muss man sehr aufmerksam sein und auf Details wie Lippenbewegungen, Zähne und Mundinnenraum, Augenpartie oder Schattenwurf und Reflexionen achten. Allerdings werden die Algorithmen immer besser und gefälschte Videos immer schwerer von der Wirklichkeit zu unterscheiden. Forschende entwickeln daher Programme, die Deepfakes verlässlich aufdecken sollen. Diese können allerdings wiederum dazu genutzt werden, die erzeugenden KI-Programme noch besser zu machen. Ein Wettrüsten findet statt. Entsprechend ist es nach Ansicht vieler Experten entscheidend, den Einsatz von KI umfassend gesetzlich zu regulieren, damit diese Technologie sicher und zum Wohl der Menschen eingesetzt wird.

Roboter im Atelier ([AI] Midjourney/MPG); Vitruvianischer Mensch (Leonardo da Vinci, Foto: Luc Viatour/ucnix.) © [M] MPG.

 * Der Artikel von Andreas Merian ist unter dem Titel: "Im Auge der künstlichen Intelligenz - Wie Maschinen Bilder verstehen und erzeugen"  https://www.max-wissen.de/max-hefte/kuenstliche-intelligenz/ im Techmax 34-Heft der Max-Planck-Gesellschaft im Frühjahr 2024 erschienen. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


 Zum Thema:

Ashwath Shetty et al.,: Holoported Characters: Real-time Free-viewpoint Rendering of Humans from Sparse RGB Cameras. (2023) Overview Video 0,29 min. , Main Video Video 7:55 min. https://vcai.mpi-inf.mpg.de/projects/holochar/#main_video


Künstliche Intelligenz im ScienceBlog

Roland Wengenmayr, 02.12.2023: Roboter lernen die Welt entdecken

Paul Rainey, 2.11.2023: Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Ricki Lewis, 08.09.2023: Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird

Redaktion, 30.03.2023: Decodierung des Gehirns: basierend auf Gehirnscans kann künstliche Intelligenz rekonstruieren, was wir sehen

Inge Schuster, 27.02.2020: Neue Anwendungen für existierende Wirkstoffe: Künstliche Intelligenz entdeckt potentielle Breitbandantibiotika

Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution

Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrang

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen".

Gerhard Weikum, 20.06.2014: Der digitale Zauberlehrling.


 

inge Thu, 30.05.2024 - 22:48

Riesige Speicher von anorganischem Kohlenstoff im Boden, die anfällig für Umweltveränderungen sind und freigesetzt werden

Riesige Speicher von anorganischem Kohlenstoff im Boden, die anfällig für Umweltveränderungen sind und freigesetzt werden

Fr, 24.05.2024 — IIASA

IIASA Logo

Geowissenschaften Wenn bislang über den Kohlenstoff im Boden diskutiert wurde, hat es sich üblicherweise um organisches Material gehandelt und der wesentliche Beitrag von anorganischem Kohlenstoff im Boden wurde übersehen. Eine kürzlich in der Zeitschrift Science veröffentlichte Studie eines internationalen Forscherteams, an dem auch IIASA-Wissenschafter beteiligt waren, spricht nun diese Vernachlässigung an. Unter Verwendung von Machine-Learning Modellen haben die Forscher eine große Datenbank mit insgesamt 223 593 weltweiten, feldbasierten Bestimmungen von anorganischem Kohlenstoff analysiert: in den oberen 2 Metern Tiefe der Böden liegen global demnach über 2,3 Billionen Tonnen anorganischer Kohlenstoff vor, von dem in den nächsten 30 Jahren unter Umweltveränderungen bis zu 23 Milliarden Tonnen freigesetzt werden könnten.*

Der Begriff Bodenkohlenstoff bezieht sich in der Regel nur auf die organische Komponente des Bodens, den so genannten organischen Bodenkohlenstoff. Der Bodenkohlenstoff hat jedoch auch eine anorganische Komponente, den so genannten anorganischen Bodenkohlenstoff. Abbildung.

Abbildung 1. Querschnitt durch einen Boden. Unter den von organischen Kohlenstoffverbindungen geprägten oberen Bodenschichten liegen dem Ausgangsgestein entsprechende, anorganischen Kohlenstoff enthaltende Schichten. Schichten: A - Organischer Auflagehorizont, B - Mutterboden, C - Mineralischer Bodenhorizontaus verwittertem, zermahlenen Gestein, Mineralischer Bodenhorizont, darunter:-unverwittertes Ausgangsgestein. (Bilder und Legende von Redn. eingefügt. Bild links aus: Wilsonbiggs, http://soils.usda.gov/education/resources/lessons/profile/profile.jpg.Bild Rechts: Radosław Drożdżewski, https://de.wikipedia.org/wiki/Bodenprofil. Beide Bilder stehen unter einer cc-by-sa-Lizenz.)

Fester anorganischer Bodenkohlenstoff, häufig Kalziumkarbonat, sammelt sich eher in trockenen Regionen mit unfruchtbaren Böden an, was viele zu der Annahme veranlasst hat, er sei nicht von Bedeutung.

Erstmalige Quantifizierung von anorganischem Kohlenstoff im Boden

In einer im Fachjournal Science kürzlich erschienenen Studie haben Huang Yuanyuan vom Institute of Geographic Sciences and Natural Resources Research der Chinesischen Akademie der Wissenschaften (CAS) und Zhang Ganlin vom Institute of Soil Science der CAS mit weiteren 25 Kollegen aus mehreren anderen Institutionen, darunter auch vom IIASA, den globalen Bestand an anorganischem Kohlenstoff im Boden quantifiziert und damit die lange Zeit vorherrschende Ansicht in Frage gestellt (H. Yuangyuan et al., 2024).

Mithilfe einer Berechnungsmethode, die wesentlich robuster ist als frühere Ansätze, fanden die Forscher heraus, dass in den obersten zwei Metern des Bodens riesige Mengen von weltweit 2 305 Milliarden Tonnen Kohlenstoff als anorganischer Kohlenstoff im Boden gespeichert sind - das ist mehr als das Fünffache des Kohlenstoffs, der in der gesamten Vegetation der Welt enthalten ist. Dieser verborgene Pool an Bodenkohlenstoff dürfte der Schlüssel zum Verstehen des globalen Kohlenstoffkreislaufs sein.

Anfälligkeit für Umweltveränderungen

"Dieser riesige Kohlenstoffspeicher ist anfällig für Umweltveränderungen, insbesondere für die Versauerung des Bodens. Säuren lösen Kalziumkarbonat auf und geben Kohlendioxid entweder als Gas oder gelöst direkt ins Wasser ab", erklärt Huang. "Viele Regionen in Ländern wie China und Indien sind von der Versauerung der Böden betroffen, die durch industrielle Aktivitäten und intensive Landwirtschaft verursacht wird. Ohne Maßnahmen zur Abhilfe und bessere Bodenpraktiken wird die Welt in den nächsten dreißig Jahren wahrscheinlich mit einer Beeinträchtigung des anorganischen Kohlenstoffs im Boden konfrontiert sein."

Veränderungen des im Laufe der Erdgeschichte gespeicherten anorganischen Kohlenstoffs im Boden haben tiefgreifende Auswirkungen auf die Gesundheit des Bodens. Sie beeinträchtigen die Fähigkeit des Bodens, den Säuregehalt zu neutralisieren, den Nährstoffgehalt zu regulieren, das Pflanzenwachstum zu fördern und den organischen Kohlenstoff zu stabilisieren. In der Hauptsache spielt der anorganische Bodenkohlenstoff eine Doppelrolle, die entscheidend für die Speicherung von Kohlenstoff ist und für die Unterstützung von Ökosystemfunktionen, die von ihm abhängen.

Die Forscher fanden heraus, dass jedes Jahr etwa 1,13 Milliarden Tonnen anorganischer Kohlenstoff aus den Böden in die Binnengewässer gelangen. Dieser Verlust hat tiefgreifende, aber oft übersehene Auswirkungen auf den Kohlenstofftransport zwischen Land, Atmosphäre, Süßwasser und Ozean.

Wenn auch die Gesellschaft die Bedeutung der Böden als grundlegenden Bestandteil naturbasierter Lösungen im Kampf gegen den Klimawandel erkannt hat, so lag der Schwerpunkt auf dem organischen Kohlenstoff im Boden. Inzwischen ist klar, dass der anorganische Kohlenstoff die gleiche Aufmerksamkeit verdient.

"Obwohl die Mengen an organischem und anorganischem Kohlenstoff im Boden ungefähr gleich groß sind, wurden dem anorganischen Kohlenstoff deutlich weniger Forschungsaktivitäten gewidmet. Man ist davon ausgegangen, dass anorganischer Kohlenstoff viel stabiler ist. Mit dem Klimawandel wird er jedoch zum einen dynamischer und zum anderen kann er bei Technologien zur Sequestrierung (d.i. Abscheidung, Redn.) von Kohlenstoff eine Rolle spielen, z. B. eine verstärkte Verwitterung", erklärt der Mitautor der Studie, Dmitry Shchepashchenko, ein leitender Wissenschaftler am IIASA.

Relevanz für den Klimaschutz

Diese Studie unterstreicht die Dringlichkeit, anorganischen Kohlenstoff als zusätzlichen Hebel zur Erhaltung und Verbesserung der Kohlenstoffsequestrierung in Strategien zur Eindämmung des Klimawandels einzubeziehen. Internationale Programme wie die "4 pro 1000" Initiative, die darauf abzielt, den (hauptsächlich) organischen Kohlenstoff im Boden jährlich um 0,4 % zu erhöhen, sollten ebenfalls die entscheidende Rolle des anorganischen Kohlenstoffs bei der Erreichung der Ziele für eine nachhaltige Bodenbewirtschaftung und den Klimaschutz berücksichtigen.

Durch ein besseres Verstehen der Dynamik des Bodenkohlenstoffs, der beide Formen organischen und anorganischen Kohlenstoff einschließt, hoffen die Forscher, wirksamere Strategien zur Erhaltung der Bodengesundheit, zur Verbesserung der Ökosystemleistungen und zur Abschwächung des Klimawandels entwickeln zu können.


 Huang, Y., Song, X., Wang, Y.-P., Canadell, J.G., Luo, Y., Ciais, P., Chen, A., Hong, S., et al. (2024). Size, distribution, and vulnerability of the global soil inorganic carbon. Science 384 (6692) 233-239. DOI: 10.1126/science.adi7918 [pure.iiasa.ac.at/19612] -


 *Der Artikel "Study confirms giant store of global soil carbon and highlights its dynamic nature" ist am 14.Mai 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/may-2024/study-confirms-giant-store-of-global-soil-carbon-and-highlights-its-dynamic-nature). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 1 Abbildung plus Legende und Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Fri, 24.05.2024 - 13:03

Wie unsere inneren Uhren ticken

Wie unsere inneren Uhren ticken

Do, 09.05.2024— Michael Simm

Michael SimmIcon Gehirn

Von der Millisekunde bis zur Jahreszeit – das Nervensystem und die Organe des Körpers bestimmen die Rhythmen unseres Lebens. Sie folgen dem Wechsel von Tag und Nacht, können aber durch viele Faktoren beeinflusst werden. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm berichtet über das hochkomplexe System von inneren Uhren, Taktgebern und Korrekturmechanismen mit denen unser Organismus die Zeit misst und im Takt bleibt.*

Wer im Leben erfolgreich sein will, sollte seine Prioritäten kennen und zur rechten Zeit am rechten Ort sein. Heute werden derartige Weisheiten gerne auf Fortbildungen für Manager gelehrt, doch die Voraussetzungen dafür trägt der Mensch schon seit Jahrmillionen in sich: Es ist unsere innere Uhr, die uns am Morgen aufstehen lässt, von der Wiege bis ins Grab durch jeden Tag leitet und in der Nacht für die nötigen Ruhepausen sorgt.

Abbildung 1. . Genau getaktet: ein hochkomplexes System von inneren Uhren, Taktgebern und Korrekturmechanismen bestimmt die Rhythmen unseres Lebens. Lizenz: cc-by-nc-sa.

Von dieser inneren Uhr hängen nicht nur der Schlaf-Wach-Rhythmus und die Anpassungen an die Jahreszeit ab, sondern auch Lernen und Gedächtnis, sowie fast alle physiologischen Tagesrhythmen wie die Schwankungen des Blutdrucks, des Herzschlages, von Hormonspiegeln, der Atemfrequenz und sogar der Blutgerinnung.

Tatsächlich gibt es nicht die eine innere Uhr. Stattdessen herrscht ein hochkomplexes, hierarchisches System von miteinander verbundenen Zeitgebern, Taktgebern und Korrekturmechanismen über unsere Zeit. Abbildung 1. Es besteht aus spezifischen Regionen des Nervensystems, aus spezialisierten Zellen, Hormonen, Botenstoffen, Proteinen und Nukleinsäuren. Letztlich hat sogar jede einzelne Zelle ihre eigene innere Uhr. „Wir verfügen über einen regelrechten Uhrenladen“, erklärt Gregor Eichele, der am Max-Planck-Institut für biophysikalische Chemie in Göttingen die Abteilung „Gene und Verhalten“ leitet.

Gekoppelt an den Wechsel von Tag und Nacht

Erstaunlich klein ist die oberste Zeitgeberinstanz des Nervensystems: Der beidseitig angelegte Hirnkern Nucleus suprachiasmaticus (SCN) ist Teil des Hypothalamus und liegt oberhalb der Kreuzung der Sehnerven (Abbildung 2). Er enthält nur etwa 50.000 Neuronen – also weniger als drei Millionstel der Gesamtzahl unserer 65 Milliarden Nervenzellen. Darunter befinden sich auch die circadianen Schrittmacher-Neuronen. Kennzeichnend sind starke Schwankungen zwischen Tag und Nacht bei der Häufigkeit ihrer spontanen Entladungen. Sowohl die anregenden als auch die hemmenden Signale für einen robusten Tagesrhythmus erwachsen aus der zeitlich abgestimmten Aktivität, mit der Natrium- und Kaliumionen durch die Membranen der Schrittmacher-Neuronen strömen, und aus der spezifischen Veränderung der Ionenleitfähigkeit während der Aktionspotenziale. Die Schrittmacher-Neuronen im SCN sind nicht nur notwendig, sondern tatsächlich auch ausreichend, um den circadianen Rhythmus anzutreiben. Außerdem wirken sie Abweichungen vom 24-stündigen Tag-Nacht-Rhythmus entgegen und koppeln unsere Tätigkeiten an die sich drehende Erde.

Abbildung 2. Erstaunlich klein: Die Oberste Instanz der inneren Uhr ist der Nucleus suprachiasmaticus (SCN, grün), derTeil des Hypothalamus(blau)ist und mit zusammen etwa 50.000 Nervenzellen oberhalb des Chiasma opticum (rot), der Kreuzung der Sehnerven liegt. (Bild leicht modifiziert aus: https://commons.wikimedia.org/wiki/File:Suprachiasmatic_Nucleus.jpg. Lizenz: cc-by-sa)

Eigentlich hätte die circadiane Uhr des Menschen nämlich einen Rhythmus von knapp 25 Stunden, wie man aus Versuchen mit Freiwilligen weiß, die über mehrere Wochen in gleichmäßig beleuchteten Räumen lebten. Dem Abgleich mit dem echten Tageslicht durch den SCN ist es zu verdanken, dass diese Probanden nach Versuchsende schnell wieder ihren Rhythmus fanden. So bewahrt der SCN uns auch im Zeitalter der künstlichen Beleuchtung davor, nach einer durchgefeierten Nacht das Zeitgefühl zu verlieren und zum Zombie zu werden.

Wie aber gelangen die Informationen zur Tageslänge zum SCN?

Wenig überraschend spielt das Auge dabei eine entscheidende Rolle. Dort sitzen in der Netzhaut zwischen Zapfen und Stäbchen die spezialisierten Ganglionzellen (RGCs), die neben Zapfen und Stäbchen quasi eine dritte Klasse retinaler Photorezeptoren bilden. Sie sind mit dem Photopigment Melanopsin ausgestattet, und können damit einfallendes Licht registrieren. Die Fasern der RGC laufen dann zum SCN und in andere Hirnregionen – einschließlich solcher, die die Stimmung regulieren. Sogar bei Personen, die wegen eines Schadens im Sehzentrum der Hirnrinde erblindet sind, funktioniert dieses Einstellen der inneren Uhr über den Weg von den RCGs zum SCN – solange die Netzhaut und die von dort abgehenden Nervenbahnen noch intakt sind.

Von der Natur nicht vorgesehen war allerdings die Erfindung des Kunstlichtes durch den Menschen und insbesondere von Handys, Tablets und ähnlichen Geräten. Diese strahlen – ähnlich dem normalen Tageslicht – reichlich blaues Licht ab, auf das Melanopsin empfindlich reagiert. Das Problem: Abends ist die innere Uhr besonders empfindlich für Lichteffekte. Gehen die elektrischen Geräte abends nicht aus, besteht das Risiko einer Verzögerung der inneren Uhr und es erhöht sich die Gefahr von Schlafstörungen.

Ein Uhren-Gen kontrolliert sich selbst

Aus dem Sezieren der Schaltkreise haben die Chronobiologen viel gelernt. Was die Uhr ticken lässt, haben dagegen überwiegend Molekularbiologen herausgefunden. Sie stellten fest, dass auch im Inneren der meisten Zellen unseres Körpers ein annähernd 24-stündiger Zyklus abläuft. Dies wurde zwar überwiegend bei Fruchtfliegen und Mäusen erforscht, und die Details sowie die Namensgebung der Komponenten unterscheiden sich teilweise zwischen den verschiedenen Versuchsorganismen. Die Bauweise dieses Uhrwerks ist aber offenbar im ganzen Tierreich sehr ähnlich und findet sich sogar bei der einzelligen Bäckerhefe.

Erreicht wird die Periodizität durch das Prinzip der negativen Rückkoppelung: Ein „Uhren-Gen“, („clock“) wird von der Maschinerie der Zellen abgelesen und aus dieser Information eine Boten-RNA (mRNA) erstellt, die wiederum in ein spezifisches Protein übersetzt wird. Dieses CLOCK-Protein aktiviert tagsüber ein weiteres Uhren-Gen namens „per“ (für Periode). Über die entsprechende per-mRNA wird so PER-Protein synthetisiert. Zusammen mit anderen gewebespezifischen Proteinen bildet das Eiweißmolekül PER einen Komplex, der das CLOCK-Protein bindet und es damit blockiert. Die Folge ist, dass keine neue per-mRNA mehr gebildet wird, das verbleibende PER-Eiweiß allmählich zerfällt und dadurch auch die Blockade des CLOCK-Proteins wieder gelöst wird. Damit beginnt der Zyklus von vorne. Im Detail ist dieses System noch weitaus komplizierter: Mit seinen schwankenden Konzentrationen, unterschiedlichen Bindungspartnern und durch Gleichgewichtsreaktionen mit anderen Zellbestandteilen kann per zum Beispiel indirekt die Energiezufuhr der Zelle erspüren, den Stoffwechsel beeinflussen, oder Stressreaktionen modulieren.

Als oberste Kontrollinstanz, der die zeitlichen Abläufe der Körperfunktionen regelt, fungiert zwar der SCN. Die meisten Organe und Gewebe können jedoch Dank des clock/per-Systems auch alleine ihren Rhythmus bewahren, wie man an isolierten Zellen der Leber, Lunge oder Niere in Kulturschalen beobachten kann.

Die Rhythmen des Körpers

Dass viele innere Organe, aber auch Muskeln, Fettgewebe und Blutgefäße eine gewisse Unabhängigkeit vom SCN haben, ist durchaus sinnvoll. So können sie sich dank eigener molekularer Uhren besser auf die wechselnden Umwelteinflüsse im Verlauf des Tages einstellen. Beispielsweise bereitet uns eine steigende Körpertemperatur bereits vor dem Aufwachen auf den Tag vor, und am Morgen wird vermehrt das Stresshormon Cortisol ausgeschüttet. Dadurch steigen sowohl die körperliche wie auch die geistige Leistungsfähigkeit.

Vom SCN aus werden diese Oszillationen falls nötig nachjustiert, damit sie einen 24-Stunden-Rhythmus beibehalten. Offensichtlich gibt es viele Querverbindungen zwischen den Systemen, deren Details aber noch nicht vollständig erforscht sind. Erst kürzlich hat man eine schnelle Datenleitung entdeckt , dank derer die sogenannten Mitralzellen im Riechzentrum des Gehirns rhythmische Veränderungen der Blutgefäße registrieren, wie sie durch den Herzschlag verursacht werden. Weil weitere dieser „Herzschlagsensoren“ über das gesamte Hirn verteilt sind, spekulieren die Forscher um Luna Jammal Salahmeh vom Zoologischen Institut der Universität Regensburg, hier eine Schnittstelle gefunden zu haben, über die der Herzschlag sich unmittelbar auf unsere Gedanken auswirken könnte.

Choreografie der Hirnwellen

Einen ganz anderen Rhythmus geben Neurone an, die sich unter der Schädeldecke im Neocortex befinden. Zellen unterschiedlicher Regionen können dabei zusammenarbeiten, und verraten dies in Form von „Hirnwellen“, die sich Mithilfe des Elektroenzephalogramms (EEG) sichtbar machen lassen. Seit den 1920er Jahren ist das EEG daher zu einem wichtigen Instrument der Forschung geworden, und mittlerweile dient es auch zur Diagnose neurologischer und psychiatrischer Erkrankungen.

Generell unterscheidet man, sortiert nach dem Ausmaß der Aktivität, die folgenden Wellenformen:

  • Gamma-Wellen mit einer Frequenz zwischen 30 – 100 Schwingungen pro Sekunde (Hertz) im Zustand der Konzentration oder beim Lernen,
  • Beta-Wellen von 12 bis 30 Hertz, die im normalen Wachzustand erzeugt werden,
  • Alpha-Wellen mit 8 bis 13 Hertz, wenn das Versuchsobjekt entspannt mit geschlossenen Augen daliegt,
  • Theta-Wellen mit 4 bis 7 Hertz, die im Traum erzeugt werden, aber auch von Gedächtnisaktivitäten zeugen, sowie
  • Delta-Wellen von weniger als 1 bis zu 4 Hertz, die im Tiefschlaf entstehen.

Zwischen Wachzustand und Schlaf lösen sich diese Hirnwellen gemäß einer recht übersichtlichen und einheitlichen Choreografie gegenseitig ab. Die vor dem Einschlafen noch eher „zappeligen“ Kurven im EEG scheinen sich beim schlafenden Menschen in der ersten Stunde stufenweise zu beruhigen. Die Muskeln und Augen entspannen sich, Herzschlag, Blutdruck und Körpertemperatur sinken, und im EEG sind charakteristische langsame Wellen mit hoher Amplitude zu sehen – daher auch der Begriff „Slow Wave".

Nachdem der Schläfer etwa eine halbe Stunde am Tiefpunkt dieses Abstiegs verharrt, werden die EEG-Wellen ebenfalls stufenweise wieder schneller. Ähnlich wie beim Aufwachen beginnen die Augen sich zu bewegen, was dieser Schlafphase den Namen REM-Schlaf eingebracht hat (eng.: Rapid Eye Movement). Die Muskeln bleiben gelähmt, aber eine starke Variabilität von Herzschlag, Blutdruck, und Körpertemperatur verrät, dass nun eine Traumphase stattfindet. Etwa 10 bis 15 Minuten dauert diese erste Traumphase, in der Männer übrigens häufig eine Erektion haben.

Diese alternativen Zyklen von Langwellenschlaf und REM-Schlaf wiederholen sich typischerweise im Rest der Nacht noch etwa vier Mal. Dabei werden bis zum Aufwachen die Tiefschlafphasen in der Regel kürzer und die REM-Phasen länger. Wir wissen also schon eine ganze Menge über das Phänomen – allerdings ist noch immer nicht eindeutig geklärt ist, wozu diese Phase überhaupt gebraucht wird!

Vorher, nachher, gleichzeitig?

Ohne innere Uhr wäre eine Anpassung des Lebens an täglich und saisonal schwankende Einflüsse nicht denkbar. Weniger offensichtlich, aber genauso wichtig für das Überleben, ist eine weitere Art der Zeitmessung, die das Nervensystem bewältigt: Es erkennt, welche Ereignisse mehr oder weniger gleichzeitig passieren. Es konstruiert aus den Meldungen der Sinnesorgane ein „vorher“ und ein „nachher“ und es trennt zufällige Begebenheiten von solchen, die als Ursache und Wirkung miteinander verknüpft sind.

Dahinter steht eine der wohl genialsten „Erfindungen“ der Evolution: der Mechanismus der synaptischen Integration. Dieser hilft uns – sehr grob vereinfacht – zu erkennen, was zusammengehört. Die meisten Neuronen des Nervensystems erhalten nämlich über ihre Synapsen tausende von Signalen und integrieren diese derart, dass ein einziges Ausgangssignal entsteht: das Aktionspotenzial. In jeder Sekunde absolviert das Gehirn Milliarden solcher Berechnungen. Signale, die innerhalb kurzer Zeit von einem einzelnen Neuron gesendet werden, können dabei ebenso aufaddiert werden, wie solche, die von verschiedenen Nervenzellen stammen, und (fast) zur gleichen Zeit eintreffen. Diese Reize werden aber nur dann weitergeleitet, wenn eine bestimmte Schwelle überschritten wird. So können zum Beispiel Ereignisse, die von verschiedenen Sinnesorganen fast gleichzeitig registriert werden, wie ein Blitz und der darauffolgende Donner, oder ein Sturz aufs Knie und der nachfolgende Schmerz „zusammengebunden“ werden.

Kommen die Reize in zu großen Abständen oder sind sie nicht stark genug, so werden sie „aussortiert“: Sie haben offenbar nichts miteinander zu tun. Sie sind so unbedeutend, wie unsere Frisur während des Gewitters oder die Tatsache, dass wir an einem Dienstag gestürzt sind. Ganz anders ist die Situation, wenn man die gleiche Reiz-Kombination mehrfach erlebt. Hierauf kann sich das Nervensystem nämlich „einstellen“, indem es das Erlebte abspeichert und seine Reaktionen darauf anpasst – kurz: indem es lernt.

Die Wissenschaftler, die unsere innere Uhr erforschen, haben mittlerweile einen Großteil des Räderwerks freigelegt und begonnen, deren komplexes Wechselspiel zu verstehen. Sie haben dabei unverhoffte Einblicke gewonnen, die weit über das Mechanistische hinausweisen. Mit ihren Antworten berühren sie inzwischen sogar philosophische Fragestellungen nach dem Wesen der Zeit. Und auch die schnöde Frage nach dem Nutzwert können sie guten Gewissens beantworten. Schließlich waren sie es, die mit ihrer Arbeit das Fundament gestärkt haben für ein besseres Verständnis und für zukünftige Therapien vieler neurologisch-psychiatrischer wie auch organischer Erkrankungen, bei denen die innere Uhr aus dem Takt geraten ist.


* Der vorliegende Artikel ist unter dem Titel "Genau getaktet" zum Thema "Zeit" auf der Webseite www.dasGehirn.info am 2.Mai 2024 erschienen (https://www.dasgehirn.info/grundlagen/zeit/genau-getaktet). Der Artikel steht unter einer cc-by-nc-nd Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert übernommen; zur Visualisierung wurde Abbildung 2 eingefügt.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Zum Weiterlesen

Vaas, Rüdiger. Zeit und Gehirn. Lexikon der Neurowissenschaft (online). URLhttps://www.spektrum.de/lexikon/neurowissenschaft/zeit-und-gehirn/14651 ? [Stand 25.3.2024]

Wilhelm, Klaus. Chronobiologie: Innere Uhren im Takt. Max-Plack-Gesellschaft (online). URL: https://www.mpg.de/10778204/chronobiologie[Stand 25.3.2024]


 

inge Thu, 09.05.2024 - 22:30

Schützende Genvarianten bei Alzheimer

Schützende Genvarianten bei Alzheimer

Fr, 03.05.2024 — Ricki Lewis

Ricki Lewis Icon MolekularbiologieHinweise auf die Bekämpfung einer verheerenden Krankheit können sich aus der Identifizierung von Menschen ergeben, die Genvarianten - Mutationen - haben, die sie schützen, indem sie die Krankheit verlangsamen oder überhaupt das Risiko ihrer Entstehung verringern. Wenn wir verstehen, wie sie dies tun, können wir Behandlungsstrategien für die gesamte Patientenpopulation entwickeln. Die Genetikerin Ricki Lewis berichtet über seltene Varianten von drei bereits gut untersuchten Genen - APOE-Cristchurch, Reelin und Fibronektin -, die vererbte Formen der Alzheimer-Krankheit zu verzögern scheinen - und zwar um Jahrzehnte. *

Gen Nr. 1: Der berühmte Fall der aus einer kolumbianischen Familie stammenden Aliria

Im Jahr 2019 berichteten Forscher über die Patientin Aliria Rosa Piedrahita de Villegas, die dank einer Variante eines zweiten, offenbar schützenden Gens die früh einsetzende familiäre Alzheimer-Krankheit abgewehrt zu haben schien. Der Bericht erschien in Nature Medicine [1].

Aliria gehört zu einer 6 000 Mitglieder zählenden Familie in Kolumbien, die dafür bekannt ist, dass viele Menschen im Alter von etwa 44 Jahren Symptome von Alzheimer zeigen, die verdächtige Anhäufung von Amyloid-Beta-Protein aber bereits in ihren Zwanzigern auftrat. Etwa die Hälfte der Familie ist davon betroffen. Sie haben eine Variante des Presenilin-1-Gens (PSEN1 E280A), die für etwa 70 Prozent der Fälle von früh einsetzender Alzheimer-Krankheit verantwortlich ist. Aliria hat die Variante geerbt, doch bei ihr setzte der kognitive Abbau erst im Alter von 72 Jahren ein.

"Unsere Arbeit mit dieser Familie ermöglicht es uns, die frühesten Veränderungen, die mit der Alzheimer-Krankheit in Verbindung gebracht werden, zu verfolgen und festzustellen, wie diese Veränderungen im Laufe der Zeit ablaufen. Dies wird uns helfen, über die Menschen in Kolumbien hinaus festzustellen, wer gefährdet und wer resistenter gegen Alzheimer ist, und zu lernen, welche Biomarker das Fortschreiten der Krankheit besser vorhersagen können", erklärte Dr. Yakeel T. Quiroz vom Massachusetts General Hospital gegenüber der Alzheimer's Association. Dort wurden bei dieser speziellen Patientin Hirnscans durchgeführt, die die für die Krankheit charakteristischen sehr hohen Konzentrationen von Amyloid-Beta-Protein-Plaques aufzeigten.

Aber was genau hat Aliria geschützt?

Sie hatte auch zwei Kopien der Christchurch-Mutation geerbt, einer seltenen Variante desApolipoprotein E (APOE)-Gens, benannt nach dem Ort, an dem es in Neuseeland entdeckt wurde. Die Christchurch-Genvariante verringert die Dichte der Tau-Fibrillen (Tangles), der anderen Art von Protein, das im Alzheimer-Gehirn aggregiert. Abbildung 1.

Abbildung 1 Stliisierte Darstellung der Amyloid-beta-Plaques (braun) im extrazellulären Raum zwischen den Neuronen und den Tau-Protein Knäueln (blau) in den Neuronen.

Kürzlich haben Forscher der Washington University School of Medicine mit genetisch veränderten "humanisierten" Mäusen gezeigt, dass die Christchurch-Mutation die Wechselwirkung zwischen Amyloid-Beta und Tau unterbindet.

"Wenn Menschen altern, beginnen viele eine Amyloid-Anhäufung im Gehirn zu entwickeln. Anfangs bleiben sie kognitiv unauffällig. Nach vielen Jahren jedoch beginnt die Amyloidablagerung zu einer Anhäufung des Tau-Proteins zu führen. Wenn dies geschieht, kommt es bald zu kognitiven Beeinträchtigungen. Wenn wir einen Weg finden, die Auswirkungen der APOE-Christchurch-Mutation zu imitieren, können wir vielleicht verhindern, dass Menschen, die bereits auf dem Weg zur Alzheimer-Demenz sind, diesen Weg weiter fortsetzen", erklärt Dr. David M. Holtzman von der Universität Washington.

Könnte auf therapeutischem Weg die Bildung von Amyloid-Beta-Plaques von der Ablagerung von Tau-Fibrillen entkoppelt werden?

Das war's, was die Forscher herausfinden wollten, die nun ihre Ergebnisse im Januar 2024 in der Zeitschrift Cell veröffentlichten [2]. Der Übergang von der Amyloidbildung zur Wechselwirkung mit Tau-Protein ist kritisch und noch wenig verstanden. Der Fall von Aliria könnte hier zur Klöärung beitragen.

"Der Fall dieser Frau war sehr, sehr ungewöhnlich, da sie die Amyloid-Pathologie aufwies, aber kaum eine Tau-Pathologie und nur sehr leichte kognitive Symptome, die erst spät auftraten. Das legte uns nahe, dass sie Hinweise auf die Verbindung zwischen Amyloid und Tau bieten könnte", so Holtzman.

Allerdings: Aliria ist ein Einzelfall; weltweit die einzige Person, von der man weiß, dass sie die beiden Mutationen aufweist. Haben diese tatsächlich zusammengewirkt, oder ist ihr ungewöhnlicher , offensichtlich vor Alzheimer schützender Genotyp nur ein Zufall?

Um dieses Rätsel zu lösen, setzte das Team um Holtzman genetisch manipulierte Mäuse ein, die übermäßig viel Amyloid produzierten und dazu auch die menschliche Christchurch-Mutation aufwiesen. Dann injizierten sie menschliches Tau-Protein in die Gehirne der Mäuse. Da die Gehirne der Mäuse bereits voller Amyloid-"Keime" waren, hätten sich die Tau-Knäuel an den Injektionsstellen festsetzen und dann auf andere Hirnregionen ausbreiten müssen - aber das taten sie nicht. Es wurde nur sehr wenig Tau inmitten des reichlich vorhandenen Amyloids gefunden, das die Gehirne erstickte - es war ein Modell für Alirias zufällige Doppelmutation.

Die Mäuse zeigten auf, wie die Christchurch-Mutation schützend wirkte, nämlich durch die Aktivität der Mikroglia, die als Abfallbeseitigungszellen des Gehirns fungieren. Mikroglia sammeln sich um Amyloid-Plaques auf Gehirnzellen. Bei Alzheimer-Mäusen mit der APOE-Christchurch-Mutation liefen die Mikroglia, die die Amyloid-Plaques umgaben, auf Hochtouren, um die Tau-Aggregate zu verschlingen und zu zerstören.

"Diese Mikroglia nehmen das Tau auf und bauen es ab, bevor sich die Tau-Pathologie wirksam auf die nächste Zelle ausbreiten kann. Ohne Tau-Pathologie kommt es nicht zu Neurodegeneration, Atrophie und kognitiven Problemen. Wenn wir die Wirkung der Mutation nachahmen können, könnten wir die Amyloid-Ansammlung unschädlich machen oder zumindest viel weniger schädlich machen und die Menschen vor der Entwicklung kognitiver Beeinträchtigungen schützen", so Holtzman.

Gen Nr. 2: Reelin

Die Forscher, die die große kolumbianische Familie untersuchten, zu der auch Aliria gehört, beschrieben in der Zeitschrift Nature Medicine vom 15. Mai 2023 "den weltweit zweiten Fall mit nachgewiesener extremer Resilienz gegenüber der autosomal dominanten Alzheimer-Krankheit". Wie Aliria behielt der Mann seine kognitiven Fähigkeiten bis zum Alter von 67 Jahren, obwohl er die starke PSEN1 E280A-Mutation hatte, die eine sehr früh einsetzende Alzheimer-Krankheit verursacht.

Im Alter von 73 Jahren zeigten Neuroimaging-Untersuchungen höhere Werte von Amyloid-Beta-Plaques als bei anderen Familienmitgliedern mit der Alzheimer-Mutation. Und obwohl sein Gehirn auch Tau-Knäuel aufwies, war der entorhinale Kortex - ein Gedächtniszentrum - vergleichsweise frei von Tau. Vielleicht ermöglichte diese ungewöhnliche Verteilung, dass seine kognitiven Fähigkeiten trotz des Ertränkens in Amyloid-Beta erhalten blieben.

Aber er hatte nicht die Christchurch-Mutation von Aliria.

Stattdessen wurde der Mann offenbar durch eine seltene Variante eines anderen Gens, RELN, geschützt, das für das Protein Reelin kodiert. Dabei handelt es sich um ein gut untersuchtes Signalprotein, das bei verschiedenen neurologischen und psychiatrischen Erkrankungen wie Schizophrenie, bipolarer Störung und Autismus-Spektrum-Störung eine Rolle spielt.

In Experimenten mit Mäusen zeigten die Forscher, dass diese Form von Reelin eine Gain-of-Function-Mutation ist, d.i. eine verbesserte Funktion im Vergleich zur häufigeren Variante des Gens besitzt. Wie Apolipoprotein E (APOE) bindet Reelin an Rezeptoren auf bestimmten Lipoproteinen, die Cholesterin transportieren. Dadurch wird die Aktivierung von Tau verringert, was offenbar das empfindliche Gleichgewicht zwischen Amyloid-Beta und Tau auf eine Weise stört, die die Alzheimer-Krankheit verlangsamt.

Gen Nr. 3: Veränderung von Fibronektin an der Blut-Hirn-Schranke

In jüngster Zeit haben sich Forscher der Columbia University auf eine andere, offenbar schützende Variante eins Gens konzentriert, das für das Protein Fibronektin kodiert. Es ist im gesunden Gehirn in nur sehr geringen Mengen vorhanden, eine hohe Konzentration wird aber mit einem erhöhten Risiko für die Entstehung von Alzheimer in Verbindung gebracht.

Fibronektin ist in die Blut-Hirn-Schranke eingebettet. Dieses 400 Meilen lange Labyrinth aus Kapillaren, den kleinsten Blutgefäßen, windet sich durch die Neuronen und Gliazellen, die die empfindliche Hirnsubstanz bilden.

Die aus einer einzelnen Zellschichte bestehenden Kapillarwände, das so genannte Endothel, bilden eine Auskleidung, die normalerweise so dicht gepackt ist, dass sie Giftstoffe aus dem Blutkreislauf fernhält, aber lebenswichtige Stoffe wie Sauerstoff ins Gehirn eintreten lässt. Die Schranke mildert auch biochemische Fluktuationen, die das Gehirn überfordern würden, wenn es ständig reagieren müsste, und überwacht den Gehalt an Neurotransmittern.

Zu verstehen, wie die Blut-Hirn-Schranke funktioniert, ist zentrales Thema der Arzneimittel-Forschung bei neurologischen Erkrankungen.

Aus Untersuchungen an Zebrafischen und Mausmodellen der Alzheimer-Krankheit haben die Forscher entdeckt, dass eine Variante des Fibronektin-Gens die Anhäufung von Fibronektin an der Blut-Hirn-Schranke verhindert. Überschüssiges Amyloid-Beta kann dann aus dem Gehirn in den Blutkreislauf eintreten, was das Risiko, an Alzheimer zu erkranken, verringert, so die Forscher. Ihre Forschungsergebnisse sind in Acta Neuropathologica [4] veröffentlicht.

Caghan Kizil, PhD, erklärt die Ergebnisse: "Die Alzheimer-Krankheit beginnt zwar mit Amyloid-Ablagerungen im Gehirn, aber die Krankheitsmanifestationen sind das Ergebnis von Veränderungen, die nach dem Auftreten der Ablagerungen stattfinden. Überschüssiges Fibronektin könnte die Beseitigung von Amyloidablagerungen im Gehirn verhindern. Unsere Ergebnisse deuten darauf hin, dass einige dieser Veränderungen in den Blutgefäßen des Gehirns stattfinden und dass wir in der Lage sein könnten, neue Arten von Therapien zu entwickeln, die die schützende Wirkung des Gens nachahmen, um die Krankheit zu verhindern oder zu behandeln."

Diese Strategie unterscheidet sich von einem direkten Angriff auf die Amyloid-Ablagerungen und einer verbesserten Beseitigung, die zu gering ausfallen und zu spät kommen dürften. "Wir müssen möglicherweise viel früher mit der Beseitigung von Amyloid beginnen, und wir glauben, dass dies über den Blutkreislauf geschehen kann. Deshalb freuen wir uns über die Entdeckung dieser Fibronektin-Variante, die ein gutes Target für die Entwicklung von Medikamenten sein könnte", so Richard Mayeux, Koautor der Studie.

Nachdem die Forscher die Folgen einer Senkung des Fibronektins in Zebrafischen und Mäusen nachgewiesen hatten, haben sie das Protein bei Menschen untersucht, die eine Variante des APOE-Gens, das mit Alzheimer assoziierte APOEε4 geerbt haben, aber lange leben. Hat eine Variante des Fibronektin-Gens sie geschützt?

Um das herauszufinden, haben die Columbia-Forscher die Genome von mehreren hundert Personen mit APOEε4 untersucht, die älter als 70 Jahre und unterschiedlicher Herkunft waren. Einige von ihnen waren bereits an Alzheimer erkankt.

Abbildung 2 Die funktionell inaktive Fibronektin1-Variante schützt vor Alzheimer - Schematische Darstellung. Links: Situation im "normalen" Gehirn. Mit Apolipoprotein Eε4 (APOEε4 ) und nur geringen Mengen an Fibronektin werden Amyloid-Aggregate (Plaques) effizient von Microglia-Zellen abgebaut und die entstandenen Produkte über die Blut-Hirn-Schranke eliminiert ("Clearance"). Mitte: Situation bei Alzheimer - Genotyp APOEε4 zusammen mit einem Zuviel an Fibronektin. Fibronektin lagert sich in der Blut-Hirnschranke an und führt zu deren Verdickung. Abbau von Plaques und Eliminierung von Amyloidprodukten brechen zusammen, Neuronen werden geschädigt ("Synaptic Degeneration"). Rechts: Die funktionell inaktive ("Loss of Function") Fibronektin-Variante lagert sich nicht an der Blut-Hirn-Schranke ab. Die Eliminierung von Amyloidprodukten kann erfolgen. Die Bildung von Amyloid-Plaques erfolgt in reduziertem Ausmaß/verzögert. (Bild von der Redaktion eingefügt aus: Bhattarai, P et al., [4], https://doi.org/10.1007/s00401-024-02721-1 und leicht modifiziert. Lizenz: cc-by.)

"Von den noch nicht erkrankten (resiliente)n Menschen können wir viel über die Krankheit erfahren und darüber, welche genetischen und nicht-genetischen Faktoren einen Schutz davor bieten könnten", sagt Badri N. Vardarajan, PhD, ein Coautor der Studie. Offensichtlich wirkt eine Variante des Fibronektin-Gens schützend.

Als die Forscher den Preprint ihrer Ergebnisse veröffentlichten, haben andere Teams Daten aus anderen Bevölkerungsgruppen hinzugefügt, die diesen Zusammenhang stützten: Fibronektin schützt. Die Daten von mehr als 11 000 Personen zeigten, dass die Mutation die Wahrscheinlichkeit, an Alzheimer zu erkranken, bei APOEε4 -Trägern um 71 % verringert und den Ausbruch der Krankheit bei denjenigen, die sie entwickeln, um etwa vier Jahre verzögert. Abbildung 2.

Nur etwa 1 bis 3 Prozent der APOEε4 -Träger in den USA besitzen auch die schützende Fibronektin-Mutation, das sind immerhin 200.000 bis 620.000 Menschen, schätzen die Forscher. Dieser angeborene Schutzschild könnte die Forschung inspirieren und zur Entwicklung neuer Medikamente führen, die noch viel mehr Menschen helfen könnten.

Kizil fasst zusammen: "Es gibt einen signifikanten Unterschied im Fibronektinspiegel in der Blut-Hirn-Schranke zwischen kognitiv gesunden Menschen und Alzheimer-Patienten, unabhängig von ihrem APOEε4 -Status. Alles, was überschüssiges Fibronektin reduziert, sollte einen gewissen Schutz bieten, und ein Medikament, das dies tut, könnte ein bedeutender Fortschritt im Kampf gegen diese zehrende Krankheit sein."


[1] Arboleda-Velasquez JF et al., Resistance to autosomal dominant Alzheimer's disease in an APOE3 Christchurch homozygote: a case report. Nat Med. 2019 Nov;25(11):1680-1683. DOI: 10.1038/s41591-019-0611-3

[2] Chen Y et al., APOE3ch alters microglial response and suppresses Aβ-induced tau seeding and spread. Cell. 2024 Jan 18;187(2):428-445.e20. doi: 10.1016/j.cell.2023.11.029

[3] Lopera F. et al., Resilience to autosomal dominant Alzheimer’s disease in a Reelin-COLBOS heterozygous man. Nat Med 29, 1243–1252 (2023). https://doi.org/10.1038/s41591-023-02318-3

[4] Bhattarai, P., Gunasekaran, T.I., Belloy, M.E. et al. Rare genetic variation in fibronectin 1 (FN1) protects against APOEε4 in Alzheimer’s disease. Acta Neuropathol 147, 70 (2024). https://doi.org/10.1007/s00401-024-02721-1.


 * Der Artikel ist erstmals am 18. April 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "Mutations in Three Genes Protect Against Alzheimer’s"  https://dnascience.plos.org/2024/04/18/mutations-in-three-genes-protect-against-alzheimers/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Abbildung 2 plus Text wurden von der Redaktion aus der zitierten Publikation [4] eingefügt.


Im ScienceBlog: Zur Blut-Hirn-Schranke

Inge Schuster, 12.02.2024: Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Redaktion, 06.02.2020:Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?

Redaktion, 10.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.


 

inge Fri, 03.05.2024 - 13:18

In den Bergen von Europas Metallabfällen lagern Reichtümer

In den Bergen von Europas Metallabfällen lagern Reichtümer

Do,18.04.2024 — Redaktion

Redaktion

Icon Chemie

Metalle sind für neue Technologien unverzichtbar, doch ihre Gewinnung hinterlässt Berge von Abfällen, die eine potenziell gefährliche Umweltbelastung darstellen aber auch Rohmaterial für das Recycling dieser Metalle und die Schaffung wertvoller Industriematerialien bieten. 2 EU-finanzierte Projekte haben sich mit diesem Problemkreis befasst mit dem Ziel eine weitestgehende Wiederverwendung/Verwertung der Abfallberge zu erreichen und nahezu kostendeckend vorzugehen: In "MoveAL" wurden Technologien zur Aufwertung von Bauxitrückständen – dem Nebenprodukt der Aluminiumherstellung - vorgestellt. In "NEMO" ging es um die Gewinnung von Metallen aus sulfidischen Bergbauabfällen mittels modernster Technologien der Biolaugung.*

In der westirischen Stadt Limerick wird auf dem Gelände einer Aluminiumhütte eine 500 Meter lange gepflasterte Straße gebaut, basierend auf einem Experiment, das Europa helfen könnte, Industrieabfälle zu reduzieren. Die Betonstraße auf dem Gelände der Aughinish-Hütte hat einen Unterbau aus Materialien, die Bauxitrückstände enthalten, die auch als Rotschlamm bekannt sind.

Schlammige Materialien

Rotschlamm ist das, was bei der Produktion von Aluminium übrig bleibt - dem Metall, das in allem und jedem - von Küchenfolie und Bierdosen bis hin zu Elektroautos und Flugzeugrümpfen - Anwendung findet. Aluminium wird aus Bauxit gewonnen, einem aluminiumhaltigen Gestein, das aus einem rötlichen Lehmboden entsteht. Während Aluminium im modernen Leben unzählige kommerzielle Verwendungsmöglichkeiten findet, ist dies bei Bauxitrückständen nicht der Fall. Der Schlamm landet in der Regel auf Mülldeponien, nimmt immer mehr Platz ein und stellt eine verpasste Recyclingmöglichkeit dar. Abbildung 1.

Abbildung 1. Rotschlamm, der bei der Aluminiumproduktion anfällt. EU-Forscher suchen nach industriellen Verwendungsmöglichkeiten. © Igor Grochev, Shutterstock.com

Eine Gruppe von Forschern erhielt EU-Mittel, um diese Herausforderungen zu bewältigen, und kam auf die Idee, Bauxitrückstände für die Straße in der Aluminium-Hütte Aughinish zu verwenden. Ihr Projekt mit der Bezeichnung RemovAL (https://cordis.europa.eu/project/id/776469) hatte eine Laufzeit von fünf Jahren und lief bis April 2023.

"Deponierung ist eine Praxis, von der wir uns verabschieden wollen", sagte Dr. Efthymios Balomenos, der das Projekt koordinierte. "Selbst wenn die Umwelt nicht geschädigt wird, verbraucht man immer noch viel Platz und wirft die Hälfte des Materials weg."

Einfache Zahlen verdeutlichen die Problematik für Industrie und Gesellschaft:

Für jede Tonne Aluminium, die produziert wird, fallen etwa zwei Tonnen Bauxitrückstände an. Weltweit fallen jedes Jahr etwa 150 Millionen Tonnen Rotschlamm aus der Aluminiumproduktion an - das sind 20 Kilogramm pro Person weltweit. Davon werden nicht mehr als 3 % recycelt, der Rest kommt auf die Deponien. Weltweit lagern mehr als 4 Milliarden Tonnen Bauxitrückstände, und diese Zahl könnte sich bis 2050 auf 10 Milliarden Tonnen mehr als verdoppeln, so die Aluminium Stewardship Initiative (https://aluminium-stewardship.org/bauxite-residue-management-risks-opportunities-and-asis-role), eine standardsetzende Organisation, die auf "bahnbrechende Lösungen" für den Rotschlamm drängt.

Ideenlabors

Bauxit ist nach der französischen Stadt Les Baux benannt, in der das Erz 1821 entdeckt wurde.

In Europa fallen jährlich etwa 7 Millionen Tonnen Bauxitrückstände an. Der Rotschlamm wird zu künstlichen Hügeln aufgeschüttet, die der EU die Möglichkeit bieten, ihr Ziel einer Kreislaufwirtschaft mit mehr Recycling und weniger Abfall zu erreichen.

Am Projekt RemovAL waren eine Reihe akademischer und industrieller Teilnehmer beteiligt, darunter Aughinish Alumina, Rio Tinto in Frankreich und das griechische Bergbau- und Metallurgieunternehmen Mytilineos. Um Ideen für potenzielle kommerzielle Verwendungen von Bauxitrückständen zu testen, wurden Demonstrationsprojekte an Industriestandorten in Deutschland, Griechenland und Irland durchgeführt. Das primäre Ziel bestand darin, die Abfallmengen zu verringern und dies unter Vermeidung großer zusätzlicher Kosten.

"Unser Ziel war es, fast kostendeckend zu arbeiten und nahezu keine Abfälle zu erzeugen", so Balomenos, der als Berater bei Mytilineos tätig ist.

Straßen vorneweg

Das RemovAL-Team hat gezeigt, dass Bauxitrückstände als erste Fundamentschicht oder Unterbau für Straßen verwendet werden können. Der Unterbau einer Straße besteht in der Regel aus minderwertigem Schotter, liegt auf dem Boden auf und bildet einen stabilen Unterbau für die nächste, höherwertige Fundamentschicht.

Typischerweise bestehen Bauxitrückstände zu etwa zwei Fünfteln aus Eisenoxid, zu einem Fünftel aus Aluminiumoxid, zu 6 % aus Kieselsäure und zu 5 % aus Titan. Rotschlamm enthält sogar Seltene Erden - eine Gruppe von 17 Metallelementen mit besonderen Eigenschaften, die technologische Fortschritte in einer Reihe von Branchen ermöglichen.

"Das ist eine ganze Menge Material, selbst wenn man es nur als potenzielle Eisenquelle betrachtet", so Balomenos.

An den Standorten in Griechenland und Norwegen wurden im Rahmen des Projekts Bauxitrückstände in einem elektrischen Lichtbogenofen geschmolzen, um eine Eisenlegierung herzustellen, die sich für die Stahlherstellung eignet. RemovAL extrahierte auch die seltene Erde Scandium, die in der Luft- und Raumfahrtindustrie verwendet wird, um Festigkeit und Korrosionsbeständigkeit von Bauteilen sicherzustellen Anschließend wurde der verbleibende Rückstand zur Herstellung von Material verwendet, das der Zementmischung zugesetzt werden kann.

Die Vorführungen waren zwar ein technischer Erfolg, doch laut Balomenos gibt es noch immer Kostenhürden - vor allem, weil die Möglichkeiten zur Wiederverwendung von Bauxitrückständen weniger rentabel sind als die Verwendung von lokal beschafften "neuen" Rohstoffen.

"Letzten Endes ist die Deponierung die einzige finanziell tragfähige Option für die Industrie", sagt er.

Um den Aluminiumsektor umweltfreundlicher zu gestalten, müsse Europa Anreize wie Subventionen oder Vorschriften bieten, um die Verwendung von Bauxitrückständen und anderen metallurgischen Nebenprodukten gegenüber neu abgebauten Rohstoffen zu fördern, so Balomenos.

Weitere Metalle

Das Problem der Metallabfälle geht in Europa weit über das von Aluminium hinaus.

Andere von der EU unterstützte Forscher, zusammengeschlossen in einem Projekt namens NEMO (https://cordis.europa.eu/project/id/776846), haben versucht kommerzielle Verwendungsmöglichkeiten für Abfallhalden zu finden, die beim Abbau von Kupfer, Zink, Blei und Nickel anfallen.

In Europa gibt es schätzungsweise 28 Milliarden Tonnen Erzrückstände, so genannte Tailings, aus der früheren Produktion dieser Metalle, und jedes Jahr fallen weitere 600 Millionen Tonnen an.

Kupfer, Zink, Blei und Nickel sind für die Energiewende in Europa unerlässlich. Ohne sie wären Windturbinen, Elektrofahrzeuge und viele andere saubere Technologien nicht möglich. Doch die Abraumhalden haben einen eigenen ökologischen Fußabdruck. Diese Abfälle werden häufig in Absetzteichen gelagert, enthalten Schwefel und erzeugen bei Regen Schwefelsäure.

"Diese Schwefelsäure kann potenziell gefährliche Elemente in die Umwelt, den Boden und das Wasser auswaschen", so Dr. Peter Tom Jones, Direktor des KU Leuven Institute for Sustainable Metals and Minerals in Belgien. "Die saure Drainage von Minen ist eines der größten Probleme der Bergbauindustrie beim Umgang mit sulfidischen Erzen".

Vielversprechende Technik

Jones war Teilnehmer von NEMO, das im November 2022 nach viereinhalb Jahren endete.

Die Forscher haben Standorte in Finnland und Irland genutzt, um die Durchführbarkeit einer als Biolaugung bekannten Technik zu testen, mit der wertvolle Metalle aus Bergwerksabfällen entfernt und die verbleibenden Abfälle in ein Material umgewandelt werden können, das nicht nur sicherer ist, sondern auch als Zusatzstoff bei der Zementherstellung dienen könnte. Abbildung 2.

Abbildung 2. Das NEMO-Konzept. Sulfidhaltige Bergbaurückstände werden derzeit in der Regel in Haldenlagern abgelagert. NEMO zielt auf die weitere Behandlung dieser Rückstände ab, um wertvolle Metalle und Mineralien zu gewinnen, während gefährliche Elemente konzentriert und die Restmatrix in Zement und Baumaterialien verwendet werden. (Bild von Redn. Eingefügt. Quelle: https://h2020-nemo.eu/project-2/)

Wertvolle Metalle können bereits durch ein Verfahren namens Auslaugung aus Abfällen zurückgewonnen werden. Dabei werden Chemikalien, in der Regel Säuren, eingesetzt, um die Metalle aufzulösen und aus dem Abfall herauszulösen, so dass sie zurückgewonnen werden können.

Die Biolaugung ähnelt zwar der chemischen Auslaugung, lässt aber lebende Organismen die Arbeit erledigen. Mikroben zehren von den Elementen in den Minenabfällen und schaffen dann eine saure Umgebung, die die Metalle auflöst. Das Verfahren hat das Potenzial, billiger und effektiver zu sein als die chemische Laugung.

Die Forscher haben gezeigt, dass die Biolaugung ein gangbarer Weg ist, um Metalle wie Nickel aus Abraum zu gewinnen. Die Qualität der Metalle wäre gut genug, um beispielsweise Batterien herzustellen. Sie fanden auch heraus, dass die Biolaugung mit zusätzlichen Rückgewinnungsverfahren wertvolle seltene Erden aus bestimmten Bergbauabfällen extrahieren könnte. Außerdem waren die Abfälle nach der Biolaugung weniger sauer und konnten zu einem Zusatzstoff für Zementmischungen verarbeitet werden.

Kostenfragen

Wie auch das RemovAL-Team stellten die NEMO-Forscher jedoch fest, dass diese Verfahren derzeit zu kostspielig sind, um kommerziell interessant zu sein.

"Es ist eine Sache, die Technologie zur Umwandlung von Abraum in wiedergewonnene Metalle und Baumaterialien zu entwickeln", so Jones. "Es ist etwas ganz anderes, dies auf eine Weise zu tun, die wirtschaftlich machbar ist."

Er sagt, dass die relativ geringen Mengen an kritischen Metallen in den Abgängen bedeuten, dass die Betriebskosten tendenziell höher sind als die potenziellen Einnahmen und dass daher der Abbau von Rohstoffen oft eine billigere Option ist, insbesondere wenn er in Niedriglohnländern erfolgt, in denen die Standards für Umwelt, Soziales und Unternehmensführung (ESG) niedriger sind.

Dennoch hat NEMO dazu beigetragen, Technologien zu entwickeln, die den Weg zu einer effizienten Rückgewinnung von Metallen aus abgebauten Materialien weisen und die Abfälle reinigen.

Mit dem richtigen Rechtsrahmen und den richtigen Anreizen könnten die Biolaugung und ähnliche neue Technologien wirtschaftlicher werden. In der Zwischenzeit können diese Verfahren Europa helfen, sein Ziel zu erreichen, die Versorgung mit kritischen Rohstoffen zu erweitern, indem Abraumhalden beseitigt und die Erzförderung verbessert wird.


 *Dieser Artikel wurde ursprünglich am 12. April 2024 von Michael Allen in Horizon, the EU Research and Innovation Magazine unter dem Titel "The riches in Europe’s mountains of metals waste"  https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/riches-europes-mountains-metals-waste publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 wurde von der Redaktion aus https://h2020-nemo.eu/project-2/ eingefügt.


Zur Verwertung der Abfallberge

EU-Research:

HORIZON: the EU Research & Innovation magazine: The riches in Europe’s mountains of metals waste (April 2024). Video 0:59 min. https://www.youtube.com/watch?v=gwiNoOPnf4E

Aus der Max-Planck-Gesellschaft:

MPG: Grüner Stahl aus giftigem Rotschlamm (Jänner 2024). https://www.mpg.de/21440660/rotschlamm-aluminiumindustrie-gruener-stahl

Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min. https://www.youtube.com/watch?v=a_yUKX8zQfI


 

inge Thu, 18.04.2024 - 22:56

Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der Erderwärmung

Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der Erderwärmung

Do, 11.04.2024 — Roland Wengenmayr

Icon Klima

Roland Wengenmayr Tropische Passatwolken wirken wie ein Kühlelement im Klimasystem: In der Äquatorzone dienen sie als Schutzschirm gegen die wärmende Sonnenstrahlung. Doch reduziert der menschengemachte Klimawandel möglicherweise ihre Dichte, sodass sich die Erderwärmung verstärkt? Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Eurec4a-Feldstudie, die Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, mitinitiiert hat. Diese Studie hat mit vier Forschungsschiffen, fünf Flugzeugen und weiteren Instrumenten die tropischen Passatwolken untersucht und einen bislang unbekannten Feuchtigkeitskreislauf - die Flache Mesoskalige Umwälzzirkulation - entdeckt. Ein besseres Verständnis davon, wie sich in Passatwolken Niederschlag bildet und warum die Passatwolken verschiedene Formen annehmen, hilft Klimamodelle und ihre Prognosen zu präzisieren.*

Anfang 2020 versammelte die Klimaforschung vor Barbados eine See- und Luftflotte, wie sie vorher nur selten an den Start gegangen war: Vier Forschungsschiffe, darunter die beiden deutschen Schiffe Meteor und Maria S. Merian, und fünf Forschungsflugzeuge, darunter der Jet Halo des Deutschen Zentrums für Luft- und Raumfahrt (DLR), eine französische ATR -42 und eine US-amerikanische Lockheed WP-3D Orion Hurricane Hunter, gingen in den Tropen auf Wolkenjagd. Auf Barbados nahm das große Wolkenradar Poldirad des DLR seinen Betrieb auf. Abbildung 1. Mehr als 300 Forschende aus 20 Nationen beteiligten sich an dieser Großoperation. Das Untersuchungsobjekt: die kleinen, niedrigen Passatwolken.

Abbildung 1: Aufbau des Wolkenradars Poldirad (Polarisations-Doppler-Radar) auf Barbados. © MPI-M

Eurec4a hieß die vierwöchige Kampagne, das steht für „Elucidating the role of clouds-circulation coupling in climate“, also „Klärung der Rolle der Wolken-Zirkulations-Kopplung für das Klima“. Natürlich spielt der Name auch auf Archimedes an; der soll beim Baden das Gesetz des Auftriebs entdeckt und gerufen haben: „Heureka!“ - „Ich habs gefunden!“ Darauf weist Bjorn Stevens hin, denn: „Bei Wolken geht es wirklich um Auftrieb!“ Der Direktor am Max-Planck-Institut für Meteorologie in Hamburg hat die Eurec4a -Kampagne gemeinsam mit seiner französischen Kollegin Sandrine Bony, Direktorin am Centre National de la Recherche Scientifique in Paris, konzipiert und geleitet. Unterstützt wurden sie vor Ort durch David Farrell, Leiter des Caribbean Institute for Meteorology und Hydrology. Stevens hat auch gemeinsam mit Farrell das Barbados Cloud Observatory am östlichsten Punkt der Insel aufgebaut, das 2010 in Betrieb ging.

Aber warum treibt die Klimaforschung einen solchen Aufwand um kleine Wölkchen in den Tropen?

Passatwolken sind niedrige Wolken, sie bilden sich schon in etwa 700 Metern Höhe und dehnen sich – meist – nur bis in zwei Kilometer Höhe aus. Dennoch stellen sie ein Schwergewicht im Klimasystem dar, weil sie so viele sind. Sie sind gesellig wie eine Schafherde und bedecken mehr als 30 Prozent der Gesamtfläche der Passatwindzone, die wie ein Gürtel ein Fünftel der Erde in den Tropen und Subtropen umspannt. Damit bilden die Wolken zusammen einen großen Spiegel, der einen beträchtlichen Teil der Sonnenstrahlung ins All reflektiert und somit die Erde kühlt. Da die Passatwolken eine viel größere Fläche bedecken als das Polareis und zudem fast senkrechter Sonneneinstrahlung ausgesetzt sind, ist ihre Spiegelwirkung für die Wärmestrahlung viel gewichtiger als die der großen Eisflächen in der Arktis und der Antarktis.

Würde nun die Dichte der Passatwolken mit dem Klimawandel abnehmen, dann hätte das erhebliche Auswirkungen auf das Erdklima. Diese Besorgnis lösten die Ergebnisse einiger Klimastudien aus, insbesondere eine wissenschaftliche Arbeit, die 2014 in der britischen Fachzeitschrift Nature erschien. Zugespitzt gesagt, war das Ergebnis dieser Klimasimulationen, dass die Erderwärmung die Passatwolken teilweise wegtrocknen könnte. Die Folge wäre also eine Verstärkung der Erwärmung, was wiederum die Passatwolken-Bedeckung reduzieren würde. „Positive Rückkopplung“ ist der Fachbegriff für einen solchen Teufelskreis.

Nun ist es so, dass die großen, erdumspannenden Klimamodelle zwar sehr zuverlässig geworden sind, wenn es um die Simulation globaler Trends geht: Dass die Menschheit durch ihre Emissionen von Treibhausgasen die Erde erwärmt, steht wissenschaftlich außer Zweifel. Aber mit der Simulation der Wolkenbildung und folglich mit der Frage, wie Wolken auf die Erderwärmung antworten werden, tun sich heutige Klimamodelle recht schwer. Sie konnten die kleinteiligeren Prozesse, die dabei eine Rolle spielen, nicht erfassen. Und es gibt immer noch Wissenslücken, wenn es um ein genaueres Verständnis geht, wie Wolken entstehen und wie sie sich verhalten. Deshalb sollte Eurec4a die Passatwolken vor Ort durchleuchten. Die vierwöchige Kampagne sollte Daten über ihr Entstehen und Vergehen sammeln, über ihre Reaktion auf wärmere, kältere, trockenere und feuchtere Wetteränderungen. Dazu liefen diverse Forschungsaktivitäten parallel, eng aufeinander abgestimmt. Den Kern dieser Wolkenforschung bildete ein zylinderförmiges Volumen von rund 10 Kilometern Höhe und circa 220 Kilometern Durchmesser. In diesem Volumen versuchte das Team vor allem die Luftbewegungen möglichst lückenlos zu erfassen, zusammen mit der transportierten Feuchtigkeit. Grundsätzlich entstehen Kumuluswolken, umgangssprachlich: Quellwolken, aus Luft, die wärmer ist als ihre Umgebung und mehr verdunstendes Wasser aufnehmen kann. Da Wassermoleküle leichter als Sauerstoffmoleküle sind, sorgt ein höherer Feuchtegehalt sogar für mehr Auftrieb als eine höhere Temperatur. Die Luft steigt auf, Konvektion entsteht.

In etwa 700 Metern Höhe kondensiere dann der mittransportierte Wasserdampf zu Wolkentröpfchen, erklärt Raphaela Vogel. Sie hat an Eurec4a teilgenommen und ist heute wissenschaftliche Mitarbeiterin der Universität Hamburg. „Deshalb haben diese Kumuluswolken unten an der Basis so eine messerscharfe Kante“, erklärt sie. Das kann man auch in Europa bei schönem Sommerwetter gut beobachten. Vogel hat am Max-Planck-Institut für Meteorologie promoviert und war als Postdoktorandin in Bonys Gruppe auf Barbados dabei. Ihre Aufgabe war es damals, das Flugprogramm als leitende Wissenschaftlerin zu koordinieren. Dazu flog sie meist auf der französischen ATR -42 mit, gelegentlich auch auf der deutschen Halo. Es sei eine sehr aufregende Zeit gewesen, erzählt sie begeistert, die Kampagne habe das internationale Team zusammengeschweißt.

Flugzeuge für jedes Wolkenstockwerk

Der deutsche Jet Halo war zuständig für das höchste Stockwerk. Er flog den oberen Kreisabschnitt des Zylinders im Lauf der vier Wochen 72-mal ab, hinzu kamen 13 solcher Rundflüge mit der amerikanischen WP-3D. Und jedes Mal saß Geet George im Heck, damals Doktorand in Stevens’ Gruppe und heute Assistenzprofessor an der Technischen Universität Delft. Er kümmerte sich um eine zentrale Messung: Auf exakt zwölf Positionen des 360-Grad-Rundkurses, wie die Fünfminutenstriche auf einem Uhrenziffernblatt, schoss er Wurfsonden aus dem Flugzeug. Diese schwebten dann an Fallschirmen die zehn Kilometer hinunter zur Meeresoberfläche. Ihre Pappröhren enthielten einen Sender, drei Sensoren für Druck, Temperatur und den relativen Feuchtegehalt der Umgebungsluft sowie einen GPS-Empfänger. Auf ihrem etwa zwölfminütigen Weg nach unten sendeten zwei- bis viermal pro Sekunde ihre Messwerte und Positionen an Halo. Besonders wichtig waren die GPS-Daten, denn sie lieferten die Information, wie weit der auf der jeweiligen Höhe herrschende Wind die Sonden zur Seite blies. Aus diesen Daten errechnete George, welche Luftmassen durch die gedachte Wand in das umzirkelte Messvolumen hineinflossen – oder hinaus. Da die Erhaltungssätze der Physik verbieten, dass Luft einfach verschwindet oder hinzukommt, lässt sich daraus errechnen, wie sich die Konvektion innerhalb des Zylinders verhält.

Abbildung 2: Mit einem Laser werden Eigenschaften der Wolken gemessen und daraus Temperatur und Feuchtigkeitsprofile abgeleitet. (Foto: MPI-M, F. Batier; © MPI-M )

Die französische ATR -42 hatte die Aufgabe, innerhalb des gedachten Messzylinders viel tiefer, auf Höhe der Wolkenbasis, zu fliegen. Besonders wichtig waren dabei Instrumente, die die Wolken seitlich mit Radar und Lidar, eine Art Laserscanner, abtasteten. Abbildung 2. Sie lieferten vor allem Informationen über die Wolkentröpfchen und deren Bewegungen. Damit diese Instrumente möglichst horizontal blickten, musste das Flugzeug waagerecht im Geradeausflug ausgerichtet sein. Daher flog die ATR -42 immer wieder einen Kurs ab, der wie bei einem römischen Wagenrennen aus zwei engen Kurven und langen geraden Streckenabschnitten bestand. Auch hier war Disziplin gefordert, selbst wenn es kaum Wolken gab, um in den vier Wochen ein Gesamtbild bei allen Wetterlagen zu erhalten. „Das war nicht immer leicht durchzusetzen“, erzählt Raphaela Vogel lachend, „wenn etwas weiter weg ein schönes Gewitter lockte.“ Im Nachhinein ist sie vor allem beeindruckt davon, wie zuverlässig die Eurec4a -Daten sind.

Aber was kam nun dabei heraus?

Dazu erklärt die Forscherin zunächst, was bei der Wolkenbildung grundsätzlich geschieht: Feuchte, von der Sonne erwärmte Luft steigt über dem Wasser auf, zum Ausgleich muss kühlere, trockene Luft aus größerer Höhe absinken. Wenn die feuchte Luft in diesem Konvektionsaufzug in die Höhe fährt, sinkt ihre Temperatur, und so kondensiert ein Teil des Dampfs zu Wolkentröpfchen. Diese feuchten, tröpfchenhaltigen Luftmassen vermischen sich mit den von oben kommenden trockeneren Luftmassen. Das lässt wieder einen Teil der Tropfen verdunsten. Dabei verschwindet das Wasser nicht, es wird nur wieder gasförmig und trägt so nicht zur Wolke bei. Ein wärmeres Klima allerdings könnte nun bewirken, dass sich weniger Wolkentröpfchen bilden, weil die von oben kommende Luft durch die Erderwärmung mehr Wasserdampf aufnehmen kann. Die Folge wäre, dass immer weniger Passatwolken entstehen, was wiederum – wegen der abnehmenden Spiegelwirkung – die Erderwärmung beschleunigen würde. Das wäre die bereits erwähnte positive Rückkopplung.

Abbildung 3. Quellwolken bilden sich dort, wo warme, feuchte Luft aufsteigt; zwischen den Wolken sinkt kühlere, trockene Luft hinab. Diese konvektive Strömung ist seit Langem bekannt. Im Eurec4a-Projekt haben Forschende nun eine mesoskalige Luftzirkulation über 100 bis 200 Kilometer entdeckt, die Feuchtigkeit dorthin bringt, wo die Wolken entstehen. Es ist daher nicht zu befürchten, dass die Passatwolken infolge der Erderwärmung wegtrocknen. © MPG

Den Ergebnissen der Eurec4a -Kampagne zufolge ist diese Rückkopplung bei Weitem nicht so stark, wie einige Klimamodelle befürchten ließen. Abbildung 3. Das zeigte ein Team um Raphaela Vogel, zu dem auch Bjorn Stevens und Sandrine Bony gehörten, in einer Publikation über die wichtigsten Resultate der Feldstudie im Fachblatt Nature im Dezember 2022. „Das sind doch mal gute Neuigkeiten für uns Menschen“, sagt Raphaela Vogel. Warum das so ist, erklärt Geet George. Er war maßgeblich an einer zweiten wichtigen Veröffentlichung zu den Ergebnissen beteiligt, die im Juli 2023 in Nature Geoscience erschien. Entscheidend seien atmosphärische Zirkulationen, erklärt der Wissenschaftler, die so klein sind, dass sie durch das Raster bisheriger globaler Klimamodelle fallen.

Genug Nachschub an Feuchtigkeit

Diese „flachen mesoskaligen Umwälzzirkulationen“, englisch shallow mesoscale overturning circulations, erstrecken sich über Flächen in der Größenordnung des von Halo umflogenen Gebiets und reichen bis in etwa 1,5 Kilometer Höhe. „Mesoskalig“ bedeutet, dass es um Prozesse in mittelgroßen Räumen des Klimasystems von grob 100 bis 200 Kilometer Ausdehnung geht. Und diese Zirkulation durchmischt feuchte und trockene Luftmassen kräftiger, als einige globale Klimamodelle dies erwarten ließen. Grundsätzlich funktioniert sie wie die Konvektion, die Wolken entstehen lässt, nur dass sie sich genau in diesen mittelgroßen Räumen abspielt, die bei Barbados umflogen wurden. Sie liefert genügend Nachschub an Feuchtigkeit, um das Wegtrocknen der Wolkentröpfchen in einer wärmeren Umgebung weitgehend auszugleichen. Die aufsteigende, feuchte Luft und die fallende, trockene Luft bilden zusammen die aufsteigenden und absteigenden Teile der flachen, mesoskaligen Zirkulation – wie bei einem altmodischen Paternosteraufzug, der mit unterschiedlich besetzten Kabinen auf einer Seite hinauf- und daneben hinunterfährt.

Wir haben ein neues Zirkulationssystem identifiziert, das die Variabilität in der Wolkenbedeckung beeinflusst“, bilanziert Bjorn Stevens. „Und dieser Mechanismus existiert in unseren bisherigen Klimamodellen nicht!“ Die Entdeckung, wie bedeutend diese flache Zirkulation in Räumen von etwa 100 bis 200 Kilometern für die heutige und zukünftige Existenz der Passatwolken ist, war die wichtigste Erkenntnis von Eurec4a.

Darüber hinausgab es noch andere neue Einsichten ins Wolkengeschehen, zum Beispiel wie Bewegung und Organisation der Passatwindwolken den Niederschlag aus ihnen beeinflussen. Unter welchen Bedingungen aus Wolkentröpfchen Regen, Schnee oder Hagel wird, kann die Klimaforschung noch nicht genau erklären, dies ist aber für Wettervorhersagen und Simulationen regionaler Klimaveränderungen relevant. Um die Niederschlagsbildung in Passatwolken besser zu verstehen, hat Jule Radtke als Doktorandin am Max-Planck-Institut für Meteorologie die Messungen von Poldirad auf Barbados ausgewertet. „Poldirad“ steht für Polarisations-Doppler-Radar. Dieser technische Terminus besagt im Kern, dass das Großgerät über das Radarecho sehr genau die Bewegungen der Tröpfchen in einer Wolke verfolgen kann. Normalerweise steht Poldirad am DLR-Standort in Oberpfaffenhofen. Mit finanzieller Unterstützung der Max-Planck-Förderstiftung wurde die Anlage für Eurec4a demontiert und auf einem Schiff über den Atlantik geschickt. Nach mehreren Monaten kam sie in Barbados an und blieb erst einmal in den Zollformalitäten stecken. Doch trotz aller Hindernisse gelang es dem Team, das Radargerät rechtzeitig in der Nähe des Barbados Cloud Observatory in Betrieb zu nehmen.

Blumen und Fische am Himmel

Abbildung 4. In den Tropen und Subtropen bilden sich in einem Gürtel, in dem der Passatwind vorherrscht, zahllose vielgestaltige Wolken, die das Klima kühlen, da sie Sonnenlicht reflektieren. Die hier gezeigten Formen werden als Blume bezeichnet. (Foto: MPI für Meteorologie / NASA World view.)

Radtke untersuchte mit Daten von Poldirad, welchen Einfluss das Herdenverhalten der Passatwolken auf ihren Niederschlag hat. „Früher hieß es immer, dass diese kleinen Passatwindwolken Schönwetterwolken sind, die nicht hoch wachsen und daher auch nicht regnen“, sagt die Klimaforscherin, „und dass sie sich eher zufällig verteilen.“ Schon vor Eurec4a war aber klar, dass dieses Bild nicht stimmt. Radtke kam zu dem Ergebnis, dass der Herdentrieb einen deutlichen Einfluss auf das Regenverhalten der Wolken hat. Drängen sich die Wolken stärker zusammen, regnet es aus ihnen öfter. Denn offenbar schützen sie sich gegenseitig vor der Sonne. Das bewirkt eine feuchtere Atmosphäre und verhindert, dass Regentropfen wieder verdunsten, bevor sie den Boden erreichen. Dafür regnet es aus den Wolken in der Herde schwächer, weil in ihnen weniger Regen gebildet wird. „Das könnte daran liegen, dass da auch jüngere oder ältere Wolken mit herumhängen“, sagt Radtke lachend,„die noch nicht oder nicht mehr zum Niederschlag beitragen.“

Dass die Selbstorganisation der Wolken sehr komplex ist, hatte Bjorn Stevens’ Team schon in der Vorbereitungsphase zu Eurec4a entdeckt. Mithilfe von Maschinenlernen und Mustererkennung hatten die Hamburger in Satellitenbildern vier verschiedene Herdenmuster identifiziert, die sie „Zucker (Sugar)“, „Kies (Gravel)“, „Blumen (Flowers)“ und „Fisch (Fish)“ tauften. Letztere Struktur erinnert tatsächlich an ein Fischskelett. Gemeinsam mit Hauke Schulz, der heute an der University of Washington in Seattle forscht, untersuchte Stevens unter anderem, ob ein hochauflösendes Klimamodell, das auf ein kleineres Gebiet beschränkt ist, um Rechenleistung zu sparen, mit den Eurec4a -Daten diese Muster simulieren kann. Für „Fisch“ und „Kies“ gelang die Simulation schon recht gut, für „Blumen“ nicht. Wie wichtig es ist, dass zukünftige Klimamodelle diese Strukturen ganz genau simulieren können, das sei noch offen, betont Stevens. Zumindest die durchschnittliche Wolkenbedeckung müssen die Modelle jedenfalls möglichst genau berechnen, die Wolkenform könnte dabei ein relevanter Faktor sein. Abbildung 4. Die Lehre aus Eurec4a sei, dass Klimamodelle grundsätzlich viel feiner gestrickt sein müssen, um solche mesoskaligen Vorgänge auch in einem künftigen, wärmeren Klima simulieren zu können.

Bjorn Stevens ist optimistisch, dass die hochauflösenden Klimamodelle der Zukunft wesentlich genauere Vorhersagen für kleinräumige Vorgänge ermöglichen werden. Erst wenn Klimamodelle die Prozesse in der Atmosphäre noch besser erfassen, können sie etwa regionale Klimaveränderungen genauer prognostizieren. Dabei hilft sicher auch, dass der Klimaforschung immer leistungsfähigere Supercomputer zur Verfügung stehen. Die Feldforschung in der Natur werden aber auch diese Computer nicht ersetzen können. Im August und September 2024 läuft die Nachfolge-Feldstudie Orcestra, und wieder wird Barbados die Basis sein.


 Vogel, R., Albright, A.L., Vial, J. et al. Strong cloud–circulation coupling explains weak trade cumulus feedback. Nature 612, 696–700 (2022).https://doi.org/10.1038/s41586-022-05364-y

George, G., Stevens, B., Bony, S. et al. Widespread shallow mesoscale circulations observed in the trades. Nat. Geosci. 16, 584–589 (2023). https://doi.org/10.1038/s41561-023-01215-1


 * Der Artikel ist erstmals im Forschungsmagazin 1/2024 der Max-Planck-Gesellschaft unter dem Titel "Ein Schirm aus Blumenwolken"https://www.mpg.de/21738713/W004_Umwelt-Klima_052-057.pdf erschienen und wird mit Ausnahme des Titels und des Abstracts in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


 Klima/Klimawandel im ScienceBlog

ist ein Themenschwerpunkt, zu dem bis jetzt 52 Artikel erschienen sind.

Das Spektrum reicht von den Folgen des Klimawandels über Strategien der Eindämmung bis hin zu Klimamodellen: Klima & Klimawandel


 

inge Thu, 11.04.2024 - 12:21

Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen

Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen

Do, 04.04.2024 — Inge Schuster

Inge Schuster

Icon Chemie

Obwohl Fluor zu den am häufigsten vorkommenden Elementen der Erdkruste zählt, hat die belebte Natur von der Schaffung fluorierter organischer Verbindungen abgesehen, da sie offensichtlich mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen inkompatibel sind. Vor 70 Jahren haben synthetisch hergestellte fluororganische Verbindungen, insbesondere per- und polyfluorierte Alkylverbindungen (PFAS) ihren Siegeszug durch die Welt angetreten. Deren herausragende Eigenschaften - Widerstandsfähigkeit gegenüber chemischen Verbindungen aller Art, Hitze und Wasser - haben sich leider auch als enorm hohe Persistenz gegenüber natürlich entstandenen Abbaumechanismen erwiesen. Dass PFAS in Umwelt und Organismen akkumulieren, war den führenden Industrieunternehmen schon länger bekannt, im Bewusstsein der akademischen Welt und der Bevölkerung samt ihren zögerlich agierenden Vertretern ist das Problem erst im Jahr 2000 angekommen.

Fluor, das leichteste Element aus der Grupe der Halogene (7. Hauptgruppe im Periodensystem, die auch Chlor, Brom und Jod enthält) ist extrem reaktiv und bildet mit nahezu allen Elementen des Periodensystems enorm feste Verbindungen. In der Erdkruste gehört Fluor zu den am häufigsten vorkommenden Elementen und liegt hier in Form von anorganischen Verbindungen - in Mineralien wie u.a. Flussspat, Fluorapatit und Kryolith - vor. Von minimalen Ausnahmen abgesehen hat die belebte Natur allerdings für Fluor keine Verwendung gefunden: Seitdem vor rund 80 Jahren die erste natürlich entstandene Fluorkohlenstoff-Verbindung, die Fluoressigsäure (CH2FCO2H, Abbildung 1), entdeckt wurde, hat man trotz immer besser werdender Analysemethoden und einer immer größeren Fülle an untersuchbarer Spezies erst um die 30 natürlich entstandene Fluorkohlenstoff-(fluororganische)-Verbindungen gefunden, zumeist von der Fluoressigsäure abgeleitete Fluor-Fettsäuren und Fluoraminosäuren. Deren Vorkommen ist auf einige wenige Pflanzenarten, Bakterienstämme (Streptomyces) und eine Meeresschwammart beschränkt. Die bereits erwähnte Fluoressigsäure wird u.a. vom südafrikanischen Strauch Gifblaar synthetisiert und - offensichtlich zur Abwehr von Fressfeinden - in dessen Blättern gespeichert: es ist eine hochgiftige Verbindung, es heißt: "ein Blatt reicht um eine Kuh zu töten". Die Toxizität beruht auf der strukturellen Ähnlichkeit mit der Essigsäure, die eine zentrale Rolle im Stoffwechsel aller aerober Organismen spielt: Fluoressigsäure wird an deren Stelle in den Citratzyklus eingeschleust und bringt diesen zum Erliegen.

Abbildung 1: Fluororganische Verbindungen werden nahezu ausschließlich synthetisch durch Menschenhand hergestellt. Beschreibung der abgebildeten Substanzen im Text.

Die Natur verzichtet auf fluororganische Verbindungen

Die Bindung von Fluor an Kohlenstoff ist die stärkste Einfachbindung in der organischen Chemie, bei weitem stärker als dessen Bindung zu den anderen Elementen Wasserstoff, Sauerstoff, Stickstoff, Schwefel und Phosphor und sie nimmt an Stärke noch zu, wenn mehrere Fluoratome am selben Kohlenstoff gebunden sind, wie beispielsweise im Tetrafluorkohlenstoff (CF4) mit einer Dissoziationsenergie von 130 kcal/mol oder in den künstlich hergestellten Per- und Polyfluoralkyl Stoffen.

Wird in einer Kohlenstoff-Wasserstoffbindung der Wasserstoff durch ein Fluoratom ersetzt, so ändert sich die Größe des gesamten Moleküls nur wenig, da der Atomradius von Fluor nicht viel größer als der von Wasserstoff ist. Das modifizierte Molekül wird meistens noch in die Bindungsstelle seines vormaligen Enzyms, seines vormaligen Rezeptors passen; allerdings haben sich seine Gesamteigenschaften verändert und damit die Spezifität und Stärke der Bindung und damit die Auswirkungen auf den vormaligen Rezeptor/das Enzym und dessen Funktion im Stoffwechsel verändert: i) Der Ersatz von Wasserstoff kann aber zu einer anderen Stereochemie des Moleküls geführt haben, wenn ein asymmetrisches (im Spiegelbild nicht deckungsgleiches - chirales) C-Atom entstanden ist. ii) Da Fluor das elektronegativste, d.i. das am stärksten Elektronen anziehende Element ist, weist die Kohlenstoff-Fluorbindung ein Dipolmoment (δ+C–δ−F) mit negativer Teilladung am Fluor auf. Fluor kann so mit (partiell) positiv geladenen Atomen wie dem an Sauerstoff oder Stickstoff gebundenen Wasserstoff Bindungen - Wasserstoffbrücken - ausbilden. (Auswirkungen eines teilweisen Einbaus von Fluor auf die Basenpaarungen der DNA oder auf die Wechselwirkungen zwischen Proteinen? Undenkbar) iii) Mit der Einführung von Fluor hat die Lipophilie der Verbindung und damit die Löslichkeit in und der Durchtritt durch Membranen zugenommen. iv) Wenn es vor allem um den Abbau/das Recyceln der fluorierten Verbindung geht - die Kohlenstoff-Fluor-Bindung lässt sich durch bereits entwickelte Enzymsysteme nicht so leicht wie eine Kohlenstoff- Wasserstoff-Bindung auflösen.

In Summe: fluorierte organische Verbindungen erweisen sich als nur wenig kompatibel mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen.

Fluororganische Verbindungen sind also anthropogen

Die Produktion derartiger Stoffe begann vor 90 Jahren mit dem Halogenkohlenwasserstoff Freon-12 (Dichlordifluormethan - CCl2F2; Abbildung 1), einem ungiftigen, verflüssigbaren Gas, das als Kältemittel in Kühlsystemen und später auch als Treibgas in Sprühdosen eingesetzt wurde. Als erkannt wurde, dass Freon und weitere Halogenkohlenwasserstoffe auf die schützende Ozonschicht der Erde zerstörend wirken, wurde deren Herstellung und Verwendung ab 1987 über das Montreal Protokoll verboten.

Zwei Entwicklungen haben dann einen ungeahnten Boom an synthetisch produzierten Fluorverbindungen ausgelöst.

In der medizinischen Chemie

wurde 1954 mit dem Aldosteronderivat Fludrocortison (Abbildung 1) erstmals ein fluoriertes Pharmazeutikum erfolgreich auf den Markt gebracht, das von der WHO in die Liste der essentiellen Arzneimittel aufgenommen wurde. Die gezielte Einführung von Fluor gehörte bald zu den aussichtsreichsten Strategien der medizinischen Chemie, um die Wirkdauer und insgesamt die Wirksamkeit von Entwicklungssubstanzen zu optimieren. Zwei Fluor-Effekte sind dabei von besonderer Bedeutung: i) Fluorierung an Schwachstellen, d.i. an leicht metabolisierbaren Stellen eines Moleküls soll diese Reaktionen erschweren/verhindern und damit die biologische Stabilität der Verbindung und dadurch deren Blutspiegel und Wirkdauer erhöhen. ii) Fluorierung erhöht den lipophilen Charakter von Molekülen und soll so deren Durchtritt durch Lipidmembranen und damit deren Aufnahme in den Organismus und in seine Zellen erleichtern.

In den letzten 3 Jahrzehnten hat der Anteil der fluorierten Wirkstoffe besonders stark zugenommen - bis zu 50 % der neu registrierten synthetischen Pharmaka enthalten heute ein oder mehrere Fluorgruppen und insgesamt über 20 % aller derzeit im Handel erhältlichen Arzneimittel sind bereits Fluorpharmazeutika.

Neue Untersuchungen weisen allerdings auch auf eine Kehrseite der Fluorierung hin: In chemisch instabilen Molekülen und im Verlauf von enzymatischen Reaktionen kann auch die sehr feste Kohlenstof-Fluor-Bindung heterolytisch gespalten werden (d.i. die Bindungselektronen bleiben am Fluor) und Fluorid (F-) wird freigesetzt [Yue Pan, 2019]. Diese Freisetzung lässt sich sehr gut an verschiedenen, mit dem 18Fluor-Isotop markierten Verbindungen verfolgen, die zur Diagnose und auch zur Therapie diverser Tumoren in der Positron-Emissionstomographie (PET) eingesetzt werden (beispielsweise: [Ying-Cheng Huang et al.2016]).

Chronisch anhaltende Fluorid-Zufuhr von täglich mehr als 10 mg Fluorid kann zu schmerzhaften Veränderungen in Knochen und Gelenken (Skelettfluorose) führen. Ein klinisch belegtes Beispiel für die Freisetzung von Fluorid und dessen Folgen bietet das Antimykotikum Voriconazol, das bei Langzeittherapie zu erhöhten Fluoridspiegeln im Plasma und als Folge zu schmerzhaften Beinhautentzündungen und Knochenwucherungen führen kann.

In industriellen Anwendungen

hat die Entdeckung von Teflon (Polytetrafluorethylen, Abbildung 1) und seinen herausragenden Eigenschaften seit den 1950er Jahren zur Entwicklung von mehr als 10 000 unterschiedlichen Stoffen aus der Kategorie der per- und polyfluorierten Alkylverbindungen (PFAS) geführt; dies sind Verbindungen an denen die Wasserstoffatome an den Kohlenstoffatomen ganz oder teilweise durch Fluoratome ersetzt sind (Abbildung 1). Aufgrund der Chemikalienbeständigkeit und wasser-, hitze-, und schmutzabweisenden Eigenschaften wurden und werden PFAS in diversesten Artikeln eingesetzt. Das Spektrum reicht von Feuerlöschschaum bis hin zu wasserdichter Bekleidung, von schmutzabweisenden Beschichtungen bis zu antihaftbeschichtetem Kochgeschirr, von Dichtungsmaterial bis hin zu in Chemielabors und in der Medizintechnik verwendeten inerten Materialien. Zwei der in verschiedenen Anwendungen am häufigsten verwendeten PFAS-Verbindungen sind Perfluoroctansäure (PFOA) und Perfluoroctansulfonsäure (PFOS) (Abbildung 1). Diese langkettigen Stoffe entstehen durch Umweltprozesse auch aus anderen instabileren PFAS.

Die Widerstandsfähigkeit dieser ungemein nützlichen Stoffe ist leider auch die Basis ihrer negativen Auswirkungen auf Mensch und Umwelt: Geschützt durch die dichte Hülle aus Fluoratomen ist das Kohlenstoffskelett praktisch nicht abbaubar; die "Ewigkeitschemikalien" akkumulieren in Boden und Grundwasser und gelangen über Wasser und Nahrungsketten in Mensch und Tier.

Abbildung 2: Die weit verbreitete Verwendung von PFAS hat dazu geführt, dass diese in der Umwelt nun allgegenwärtig sind. Das Vorhandensein von PFAS im Ökosystem bedeutet, dass sie in verschiedene terrestrische und aquatische Nahrungsketten und -netze gelangen und schließlich den Menschen als Endverbraucher erreichen (Quelle: Figure 3 in Wee, S.Y., Aris, A.Z. (2023). https://doi.org/10.1038/s41545-023-00274-6.. Lizenz: cc-by)

Für den Haushalt war es eine großartige Erneuerung: Ab den 1960er Jahren konnten Stoffe, Teppiche, Polstermöbel u.a. mit dem Fleckenschutzmittel Scotchgard der US-amerikanischen Firma 3M imprägniert werden. Erst als sich im Jahr 2000 herausstellte, dass der Hauptbestandteil von Scotchgard, das langkettige Perfluoroctanylsulfonat (PFOS; Abbildung 1), bereits in der Umwelt und in der menschlichen Bevölkerung nachweisbar geworden war, hat eine hektische Forschung zu möglichen Konsequenzen von PFAS, insbesondere von PFOS und PFOA, auf Mensch und Umwelt begonnen. Seit 2000 sind In der Datenbank PubMed (https://pubmed.ncbi.nlm.nih.gov//; abgerufen am 2.4.2024) jeweils rund 5000 Untersuchungen über PFOS und ebenso viele über PFOA erschienen, darunter rund 1300 zur Toxizität, etwa 1700 zur Exposition des Menschen gegenüber PFOS und PFOA und rund 300 zur Schaffung von unproblematischeren Alternativen. Eine kürzlich erschienene Arbeit gibt einen umfassenden Überblick über die Freisetzung von PFAS aus diversen Produkten und die Wege, die zur Exposition des Menschen führen ([Wee, S.Y., Aris, A.Z. (2023)]; graphisch zusammengefasst in Abbildung 2).

Die wachsende Sorge über die Umweltverschmutzung mit PFAS und die gesundheitlichen Auswirkungen von langkettigen PFAS, insbesondere PFOA und PFOS, haben zu Bemühungen geführt, die Produktionsmethoden zu regulieren und Richtlinien zur Überwachung festzulegen (im Stockholmer Übereinkommen über persistente organische Schadstoffe, https://www.pops.int/). Der größte PFAS-Produzent, die 3M Company und auch der globale Player DuPont haben die Produktion und Verwendung von PFOA uns PFOS bereits eingestellt und andere Unternehmen folgen. Allerdings gibt es - vor allem in Kontinentalasien - neue Hersteller von langkettigen PFAS.

Die Europäische Chemikalienagentur (ECHA) hat im März 2024 die nächsten Schritte für die wissenschaftliche Bewertung des Beschränkungsdossiers für PFAS vorgestellt. Der Vorschlag sieht vor, dass PFAS nur noch in Bereichen zum Einsatz kommen dürfen, in denen es auf absehbare Zeit keine geeigneten sicheren Alternativen geben wird bzw. wo die sozioökonomischen Vorteile die Nachteile für Mensch und Umwelt überwiegen. Tatsächlich gibt es ja für viele dieser Stoffe - u.a. in den Chemielabors (Schläuche, inerte Gefäße) und in der medizinischen Anwendung (Stents, Prothesen) keine offensichtlichen Alternativen.

Die Problematik der Abwägung von Risiko und alternativlosem Inverkehrbringen bestimmter PFAS-Produkte und die hohe Persistenz dieser Produkte lassen befürchten, dass PFAS noch lange Zeit unsere Böden und Gewässer kontaminieren werden.

Die PFAS- Exposition

Menschen und Tiere sind permanent PFAS-Kontaminationen ausgesetzt, viele davon sind es bereits seit Jahrzehnten. PFAS gelangen in unsere Organismen durch direkten Kontakt über die Haut oder durch Inhalation oder über den Verdauungstrakt, d.i. über kontaminierte Nahrung und Trinkwasser. Im Organismus angelangt sind langkettige PFAS praktisch nicht abbaubar, zirkulieren, werden nur sehr langsam ausgeschieden und akkumulieren, solange die Aufnahme aus kontaminierten Quellen weiter besteht. Angaben über die Verweildauer im Organismus beruhen häufig auf Schätzungen und gehen weit auseinander.

Konkretere Zahlen hat eine Studie an 106 Personen aus Ronneby (Schweden) geliefert, deren Trinkwasser von der Mitte der 1980er Jahre an mit PFAS kontaminiert war (Quelle: Löschschaum von einem nahegelegenen Flugfeld). Nach Bereitstellung von sauberem Wasser Ende 2013 wurden über 33 Monate lang die PFAS-Spiegel im Blutserum und daraus die Halbwertszeiten des Absinkens bestimmt: die Mittelwerte lagen für PFOA bei 2,7 Jahren, für PFOS bei 3,5 Jahren und für das kürzerkettige PFHxS (Perfluorohexane sulfonate) bei 5,3 Jahren.

Erschreckend hoch waren die anfänglichen Serumspiegel, die im Mittel für PFHxS bei 277 ng/ml (12 - 1 660), für PFOS bei 345 ng/ml (24 - 1 500) und für PFOA bei 18 ng/ml (2,4 - 9,2) lagen [Li Y, Fletcher T, Mucs D, et al., 2019].

Diese Serumwerte sind vor dem Hintergrund des Leitfadens der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/ zu sehen:

a) < 2 ng / mL , gesundheitsschädliche Wirkungen sind nicht zu erwarten;

b) 2 - 20 ng / mL , mögliche schädliche Wirkungen, insbesondere bei empfindlichen Bevölkerungsgruppen; und

c) > 20 ng / mL , erhöhtes Risiko für schädliche Wirkungen. Säuglinge und Kleinkinder gelten als besonders empfindlich gegenüber PFAS-Exposition.

Wie groß das Problem der menschlichen Exposition bereits ist, wird aus der Kontamination des Trinkwassers mit den sehr häufig verwendeten PFOA und PFOS ersichtlich, die bereits weltweit detektierbar sind. Abbildung 3 zeigt Höchstwerte, die in einzelnen Regionen gemessen wurden, wobei die US und Schweden mit ihrer umfangreichen Produktion und Konsum von PFAS Hotspots bilden [Wee S.Y., Aris, A.Z. (2023)]. Die Produktion von PFAS in diesen Ländern wurde zwar eingestellt und hat dort zu einem Absinken der Blutspiegel geführt. Dafür hat die Produktion in den Entwicklungsländern erheblich zugenommen. Emission von PFAS und Kontamination werden auch vom Wohlstand (dem BIP) der einzelnen Gebiete beeinflusst, der unmittelbar mit Produktion, Verbrauch und Entsorgung von PFAS-Produkten zusammen hängt.

Abbildung 3: Produktion und globale Verbreitung/Verwendung von PFOA und PFOS spiegeln sich in der Kontamination des Trinkwassers wieder. Konzentrationen in Oberflächen- und Grundwasser, in Leitungswasser und in abgefülltem Wasser sind gemessene Maximalwerte in den einzelnen Staaten und sind in erster Linie auf die anhaltende Verschmutzung durch verschiedene Erzeuger, unvollständige Beseitigungsmethoden und unzureichende Überwachung- und Managementpraktiken erklärbar. NA: keine Angaben.(Quelle: Figure 4 in Wee S.Y., Aris, A.Z. (2023) https://doi.org/10.1038/s41545-023-00274-6. Lizenz: cc-by. Grundkarte mit freundlicher Genehmigung von https://www.mapchart.net/; Lizenz cc-by-sa.)

Die am häufigsten verwendeten PFAS werden wohl noch viele Jahre in der Umwelt gemessen werden können (insbesondere in der Nähe von Flughäfen und Militärstützpunkten), zu der Vielfalt der bereits produzierten und angewandten Tausenden anderen PFAS mit unterschiedlichen Eigenschaften fehlen ausreichend Informationen über Kontaminierungen, Expositionen und mögliche Gesundheitsrisiken und das gilt auch für die neu eingeführten PFAS-Ersatzstoffe.

Ein globales Gesundheitsproblem

Dass akkumulierende PFAS unserer Gesundheit schaden, ist unbestritten auch, wenn die Mechanismen wie und wo PFAS was bewirken noch ziemlich unbekannt sind.

PFAS sind stark lipophile Moleküle, die sich mehr und mehr in Membranen einlagern (und dort wie und was stören). Enzyme (vor allem aus den Cytochrom P450-Familien) scheitern am Versuch PFAS mittels aktiviertem Sauerstoff abzubauen. Sie setzen bloß den aktivierten Sauerstsoff (ROS) frei, der dann Entzündungsreaktionen auslöst, während PFAS-Moleküle weiter unbehelligt für Jahre im Organismus zirkulieren können und immer mehr werden.

Eine Fülle an gesundheitlichen Beeinträchtigungen wurde mit PFAS in Verbindung gebracht - vor allem Leberschäden, Krebserkrankungen im Umfeld von Produktionsstandorten mit sehr hoher Exposition, Nierenerkrankungen, Schilddrüsenerkrankungen, neurodegenerative Erkrankungen und der gesamte Komplex der Fettstoffwechselstörungen und damit verbundene Herz-Kreislauferkrankungen [Sunderland et al., 2019].

Ausreichende Evidenz für einen Zusammenhang mit der PFAS-Exposition gibt es bislang erst für wenige Krankheiten/Auswirkungen auf die Gesundheit. Die oben erwähnten "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" hat diese 2022 zusammengefasst. Es sind dies:

  •  verminderte Antikörperreaktion (bei Erwachsenen und Kindern),
  • Fettstoffwechselstörung (Dyslipoproteinämie; bei Erwachsenen und Kindern), 
  • vermindertes Wachstum von Säuglingen und Föten und
  • erhöhtes Risiko für Nierenkrebs (bei Erwachsenen).

Seit der Einführung der PFAS-Materialien und dem Bekanntwerden der damit für Umwelt und Gesundheit verbundenen Probleme sind Jahrzehnte ungenützt verstrichen. Dass sich die Industrie bereits viel früher über diese Risiken ihrer Erfindungen im Klaren war, ist in höchstem Maße erschreckend. Der für seine lebenslangen Forschungen über Umwelt verschmutzende Chemikalien berühmte Umweltmediziner Philippe Grandjean fasst diesen skandalösen Umstand und die zögerlichen Reaktionen der Entscheidungsträger in einem überaus kritischen, 2018 publizierten Artikel zusammen (Übersetzt aus [P. Grandjean, 2018]):

"Frühe Forschungsergebnisse über die Exposition gegenüber PFAS in der Umwelt und ihre Auswirkungen auf die Gesundheit wurden erst mit erheblicher Verzögerung verfügbar und bei den ersten Regulierungsentscheidungen zur Verringerung der Exposition nicht berücksichtigt. Erst in den letzten zehn Jahren hat sich die umweltmedizinische Forschung auf die PFAS konzentriert und wichtige Risiken für die menschliche Gesundheit, z. B. für das Immunsystem, aufgedeckt. Obwohl die Richtwerte für PFAS im Trinkwasser im Laufe der Zeit gesunken sind, sind sie immer noch zu hoch, um vor einer solchen Toxizität zu schützen. Während die am häufigsten verwendeten PFAS noch viele Jahre in der Umwelt verbleiben werden, werden neue PFAS-Ersatzstoffe eingeführt, obwohl nur wenige Informationen über negative Gesundheitsrisiken verfügbar sind. In Anbetracht der gravierenden Verzögerungen bei der Entdeckung der Toxizität von PFAS, ihrer Persistenz in der Umwelt und ihrer Auswirkungen auf die öffentliche Gesundheit sollten PFAS-Ersatzstoffe und andere persistente Industriechemikalien vor einer weit verbreiteten Verwendung einer eingehenden Forschungsprüfung unterzogen werden."

Grandjean tritt auch als Topexperte in einer 2023 erschienenen Dokumentation auf, die enthüllt, was die PFAS-Produzenten Dupont und 3M schon früh über die Risiken ihrer Verbindingen wussten. [Zembla - The PFAS Cover-up; 2023].


Zitierte Literatur:

Grandjean P. Delayed discovery, dissemination, and decisions on intervention in environmental health: a case study on immunotoxicity of perfluorinated alkylate substances. Environ Health. 2018 Jul 31;17(1):62. DOI: 10.1186/s12940-018-0405-y

Leitfaden der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/

Sunderland EM, Hu XC, Dassuncao C, Tokranov AK, Wagner CC, Allen JG. A review of the pathways of human exposure to poly- and perfluoroalkyl substances (PFASs) and present understanding of health effects. J Expo Sci Environ Epidemiol. 2019 Mar;29(2):131-147. DOI: 10.1038/s41370-018-0094-1

Wee, S.Y., Aris, A.Z. Revisiting the “forever chemicals”, PFOA and PFOS exposure in drinking water. npj Clean Water 6, 57 (2023). https://doi.org/10.1038/s41545-023-00274-6

Li Y, Fletcher T, Mucs D, et al. Half-lives of PFOS, PFHxS and PFOA after end of exposure to contaminated drinking water. Occup Environ Med 2018;75:46–51. doi: DOI: 10.1136/oemed-2017-104651

Ying-Cheng Huang et al., Synthesis and Biological Evaluation of an 18Fluorine-Labeled COX Inhibitor—[18F]Fluorooctyl Fenbufen Amide—For Imaging of Brain Tumors. Molecules 2016, 21, 387; doi: 10.3390/molecules21030387

Yue Pan, The Dark Side of Fluorine. ACS Med. Chem. Lett. 2019, 10, 1016−1019. DOI: 10.1021/acsmedchemlett.9b00235

Zembla - The PFAS Cover-up. Video 51.03 min. https://www.youtube.com/watch?v=y3kzHc-eV88


Verwandte Themen imScienceBlog

Redaktion, 21.03.2024: Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Roland Wengenmayr, 11.03.2021: Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?


 

inge Thu, 04.04.2024 - 12:03

Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Do,21.03.2024 — Redaktion

Redaktion

Icon Chemie

Ein bestürzender Report ist vergangene Woche erschienen (M.Wagner et al., 2024): Wissenschafter aus Norwegen und der Schweiz haben einen umfassenden Überblick über mehr als 16 000 Chemikalien gegeben, die zur Produktion von Kunststoffen verwendet werden, in diesen potentiell enthalten sind und von diesen freigesetzt werden können. Von mehr als 9000 dieser Substanzen fehlen Angaben wo und wie sie eingesetzt werden, bei mehr als 10 000 Substanzen gibt es keine Informationen zum Gefährdungsrisiko. Über 4 200 Kunststoffchemikalien werden als bedenklich betrachtet, da sie persistent sind und/oder sich in der Biosphäre anreichern und/oder toxisch sind, davon unterliegen 3 600 weltweit keinen Regulierungen. Eine Schlussfolgerung der Forscher: bedenkliche Chemikalien können in allen Kunststoffarten vorkommen.Um zu besserer Chemikaliensicherheit und Nachhaltigkeit zu gelangen, empfehlen sie ein Bündel an Maßnahmen zur politischen Umsetzung.

Die wichtigsten Aussagen der Forscher werden im folgenden Artikel ungefiltert aufgezeigt: in Form der "Executive Summary" des Reports, die hier in deutscher Übersetzung und ergänzt mit einigen Abbildungen aus dem Report vorliegt.

Das Ausmaß der Chemikalien bei Kunststoffen

Chemikalien sind ein essentielles Merkmal aller Materialien und Produkte aus Kunststoff und der Schlüssel, um deren Vorzüge zu erzielen. Allerdings werfen Kunststoffchemikalien erhebliche Bedenken zu Umwelt und Gesundheit auf. Die Vielfalt der Kunststoffchemikalien und ihre problematischen Eigenschaften machen eine umfassende Analyse zum Schutz der menschlichen Gesundheit und der Umwelt während des gesamten Lebenszyklus von Kunststoffen erforderlich. Der PlastChem-Bericht "State-of-the-science on plastic chemicals" gibt einen sorgfältigen und umfassenden Überblick über den aktuellen wissenschaftlichen Kenntnisstand der chemischen Dimension von Kunststoffen, einschließlich der Gefahren, Funktionen, Verwendungen, Produktionsmengen und des rechtlichen Status von Kunststoffchemikalien [1].

Warum spielen Kunststoffchemikalien eine Rolle?

Abbildung 1. Anzahl der Chemikalien von denen die Verwendung bei der Kunststoffproduktion, das Vorhandenseins in den Kunststoffen und die Freisetzung aus Kunststoffen nachgewiesen ist. Chemikalien mit unschlüssigen Ergebnissen sind ebenfalls angeführt. Bei den Informationen über Verwendung, Vorhandensein und Freisetzung gibt es erhebliche Überschneidungen, so dass hier für jede Chemikalie der höchste Beweisgrad angegeben wird. (Quelle: Figure 7 in M. Wagner et al., 2024,[1]. von Redn. deutsch übersetzt. Lizenz cc-by-sa-nc-4.0.)

Die weltweite Kunststoffindustrie verwendet eine Vielzahl von Chemikalien, von denen viele nachweislich die Umwelt verschmutzen und schädliche Auswirkungen auf Wildtiere, Menschen und Ökosysteme haben. Viele andere Kunststoffchemikalien sind noch unzureichend untersucht (Abbildung 1).

Die bekannten nachteiligen Auswirkungen in Verbindung mit Datenlücken und bruchstückhaften wissenschaftlichen Erkenntnissen stellen ein gewaltiges Hindernis für die Bewältigung der Risiken dar, die durch die Belastung mit Chemikalien während des gesamten Lebenszyklus von Kunststoffen entstehen. Darüber hinaus verhindert dies auch den Übergang zu einer schadstofffreien Zukunft, indem es Innovationen im Hinblick auf sicherere und nachhaltigere Materialien und Produkte behindert.

Was ist über Kunststoffchemikalien bekannt?

Abbildung 2. Anzahl der Kunststoffchemikalien nach ihrem jährlichen Produktionsvolumen. Die Zahlen sind kumuliert, d. h. die Anzahl der Chemikalien mit ≥10 Tonnen umfasst alle Chemikalien mit einem höheren Produktionsvolumen. (Quelle: Figure 5 in M. Wagner et al., 2024,[1].Lizenz cc-by-sa-nc-4.0.)

Der Bericht über den Stand der Wissenschaft fasst die Erkenntnisse über mehr als 16 000 Chemikalien zusammen, die potentiell in Kunststoffmaterialien und -produkten verwendet werden oder enthalten sind. Nur 6 % dieser Chemikalien unterliegen derzeit internationalen Regulierungen, obwohl eine weitaus größere Zahl in großen Mengen hergestellt wird und ein hohes Expositionspotenzial aufweist. Abbildung 2 gibt einen Überblick über Zahl und Produktionsvolumina von Kunststoffchemikalien.

Mehr als 4200 Kunststoffchemikalien sind bedenklich, weil sie persistieren, in der Biosphäre akkumulieren, mobil und/oder toxisch (PBMT) sind. Was unter diesen Gefährdungskriterien zu verstehen ist, zeigt Abbildung 3.

Abbildung 3. Abbildung 3. Die 4 Gefährdungskriterien Persistenz, Bioakkumulation, Mobiliät und Toxizität - PBMT. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; von Redn. deutsch übersetzt.Lizenz cc-by-nc-sa-4.0.),

Über 1300 der bedenklichen Chemikalien sind zur Verwendung in Kunststoffen auf dem Markt, und 29 - 66 % der verwendeten oder in gut untersuchten Kunststoffarten gefundenen Chemikalien sind bedenklich.

Dies bedeutet, dass bedenkliche Chemikalien in allen Kunststoffarten vorkommen können.

Der Bericht zeigt auch eklatante Datenlücken auf: Bei mehr als einem Viertel der bekannten Kunststoffchemikalien fehlen grundlegende Informationen über ihre Identität, und bei mehr als der Hälfte sind die Informationen über ihre Funktionen und Anwendungen in der Öffentlichkeit unklar oder fehlen ganz (siehe Abbildung 1). Darüber hinaus sind die Daten zum Produktionsvolumen nicht weltweit repräsentativ und auf bestimmte Länder beschränkt.

Abbildung 4. Übersicht über Kunststoffchemikalien, die als gefährlich, weniger gefährlich und ungefährlich eingestuft sind und von denen keine Gefährdungsdaten vorliegen. Die rechte Seite zeigt, welche Gefahrenkriterien (PBMT: siehe Abb.3) und Eigenschaften die betreffenden Chemikalien erfüllen. Abkürzungen: STOT: spezifische Organ-Toxizität; CMR: carcinogen, mutagen, reproduktionsschädigend; EDC: endokriner Disruptor; POP: persistierende organische Pollution; PBT: persistent, bioakkumulierend, toxisch; PMT: persistent, mobil, toxisch; vPvB: sehr persistent, sehr bioakkumulierend; vPvM: sehr persistent, sehr mobil. (Quelle: Figure 11 in M. Wagner et al., 2024,[1]. von Redn. modifiziert und deutsch übersetzt. Lizenz cc-by-nc-sa-4.0.)

Besonders wichtig ist, dass für mehr als 10 000 Chemikalien keine Informationen über die Gefahren vorliegen, obwohl diese Informationen für eine ordnungsgemäße Bewertung und Handhabung dieser Chemikalien unerlässlich sind (Abbildung 4). Dies unterstreicht den Bedarf an transparenteren Informationen über die Identität, die Gefahren, die Funktionen, die Produktionsmengen und das Vorkommen von Kunststoffchemikalien in Kunststoffen.

Auf welche Kunststoffchemikalien kommt es besonders an?

Der Bericht skizziert einen systematischen Ansatz zur Identifizierung und Prioritätensetzung von besorgniserregenden Chemikalien, wobei ein gefahren- und gruppenbasierter Rahmen verwendet wird, der auf vier entscheidenden Gefährdungskriterien (PBMT; Abbildung 3) basiert. Diese Methode ermöglicht eine effiziente Identifizierung von Chemikalien, die weitere politische Maßnahmen erfordern. Ein solcher Ansatz löst auch die großen Herausforderungen, die mit der Risikobewertung von mehr als 16.000 Kunststoffchemikalien verbunden sind, einschließlich des immensen Ressourcenbedarfs, der Investitionen und der technischen Herausforderungen zur Ermittlung zuverlässiger Expositionsdaten (d. h. der Konzentration von Kunststoffchemikalien in der Umwelt, in der Tierwelt und beim Menschen).

Unter Anwendung eines strengen und umfassenden gefahren- und gruppenbasierten Ansatzes werden in dem Bericht 15 prioritäre Substanzgruppen bedenklicher Kunststoffchemikalien identifiziert (Abbildung 5) und über 4200 bedenkliche Chemikalien, von denen ca. 3600 derzeit weltweit nicht reguliert sind. Außerdem werden zusätzliche Strategien zur weiteren Priorisierung von Kunststoffchemikalien für politische Maßnahmen vorgestellt und Ansätze zur Identifizierung bedenklicher Polymere aufgezeigt

Abbildung 5. Prioritäre 15 Substanzgruppen von Kunststoffchemikalien, die Anlass zu Besorgnis sind. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.),

Wie kann diese Evidenz in politische Maßnahmen umgesetzt werden?

Empfehlung 1: Umfassende und effiziente Regulierung von Kunststoffchemikalien

Die große Zahl und die vielfältigen bekannten Gefahren erfordern neue Ansätze, um Kunststoffchemikalien umfassend und effizient zu regeln. Dies kann durch die Umsetzung eines gefahren- und gruppenbasierten Ansatzes zur Ermittlung bedenklicher Kunststoffchemikalien erreicht werden. Eine solche Strategie ist von entscheidender Bedeutung, um die Grenzen der derzeitigen Bewertungssysteme zu überwinden und die Innovation hin zu sichereren Kunststoffchemikalien zu fördern.

Dementsprechend sollten die politischen Entscheidungsträger die PBMT-Kriterien übernehmen und den 15 Gruppen und 3600 bedenklichen Chemikalien Vorrang bei der Regulierung einräumen, da sie derzeit auf globaler Ebene nicht reguliert sind.

Empfehlung 2: Transparenz bei Kunststoffchemikalien fordern

Mehr Transparenz bei der chemischen Zusammensetzung von Kunststoffen ist unerlässlich, um Datenlücken zu schließen, ein umfassendes Management von Kunststoffchemikalien zu fördern und Rechenschaftspflicht über die gesamte Wertschöpfungskette von Kunststoffen zu schaffen. Eine einheitliche Berichterstattung, die Offenlegung der chemischen Zusammensetzung von Kunststoffmaterialien und -produkten sowie ein "Keine Daten, kein Markt"-Ansatz werden empfohlen, um sicherzustellen, dass wesentliche Informationen über Kunststoffchemikalien öffentlich zugänglich werden. Dies dient dem doppelten Zweck, Sicherheitsbewertungen und Entwicklung von sichereren Kunststoffen zu erleichtern.

Empfehlung 3: Vereinfachung von Kunststoffen in Richtung Sicherheit und Nachhaltigkeit

Die vielen auf dem Markt befindlichen Kunststoffchemikalien erfüllen oft ähnliche und manchmal unwesentliche Funktionen. Diese Komplexität und Redundanz stellen ein großes Hindernis für Governance und Kreislaufwirtschaft dar. Das Konzept der chemischen Vereinfachung bietet die Möglichkeit, die Auswirkungen von Kunststoffen zu verringern, indem ein innovationsfreundlicher und evidenzbasierter Weg in die Zukunft eingeschlagen wird. Die Vereinfachung kann durch die Förderung von Maßnahmen erreicht werden, die die Verwendung von weniger und sichereren Chemikalien begünstigen, sowie durch die Annahme von Konzepten für die erforderliche Verwendung und die sichere Gestaltung, um Innovationen zu lenken.

Empfehlung 4: Aufbau von Kapazitäten zur Entwicklung sichererer und nachhaltigerer Kunststoffe

Um Kunststoffchemikalien wirksam zu handhaben und Innovationen in Richtung sicherer und nachhaltiger Kunststoffe zu fördern, sollten im öffentlichen und privaten Sektor technische, institutionelle und kommunikative Kapazitäten aufgebaut werden. Dazu gehört die Förderung des globalen Wissensaustauschs, die Schaffung eines gleichberechtigten Zugangs zu technischen Fähigkeiten und die Verbesserung der institutionellen Ressourcen für ein effektives Management von Kunststoffchemikalien. Durch die Einrichtung einer Plattform für den Wissensaustausch, die internationale Zusammenarbeit und die Zuteilung von Ressourcen regt der Bericht zu kollektiven Anstrengungen an, um gemeinsame Lösungen zu entwickeln und sicherzustellen, dass Wissen, Technologie und Infrastruktur auf offene, faire und gerechte Weise verfügbar sind.

Abbildung 6. Kunststoffchemikalien: Stand der Wissenschaft und empfohlene Maßnahmen zur politischen Umsetzung. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.),

Abbildung 6. fasst den derzeitigen wissenschaftlichen Stand über Kunststoffchemikalien und die empfohlenen Maßnahmen zur politischen Umsetzung zusammen.

Welche positiven Auswirkungen hat es sich mit Kunststoffchemikalien zu befassen?

Eine umfassende Auseinandersetzung mit besorgniserregenden Kunststoffchemikalien und -polymeren wird erheblichen Nutzen für Umwelt und menschliche Gesundheit mit sich bringen, Innovationen zu sichereren Kunststoffchemikalien, -materialien und -produkten fördern und den Übergang zu einer untoxischen Kreislaufwirtschaft unterstützen. Die vorgeschlagenen Konzepte für Kunststoffchemikalien und Polymere sollen den Stand der Wissenschaft mit den politischen und rechtlichen Rahmenbedingungen in Einklang bringen und so eine fundierte Entscheidungsfindung und verantwortungsvolle Innovationen in allen Sektoren erleichtern.

Da kein Land in der Lage ist, das grenzüberschreitende Problem der Kunststoffchemikalien und -polymere allein anzugehen, ist dem Stand der Wissenschaft entsprechend eine kollektive globale Reaktion am besten geeignet, um die Auswirkungen auf Umwelt und Gesundheit zu mindern. Eine evidenzbasierte Politik, die der Chemikaliensicherheit und Nachhaltigkeit Vorrang einräumt, wird einen Weg zu einer sicheren und nachhaltigen Zukunft bieten.


Der PlastChem-Bericht:

Martin Wagner, Laura Monclús, Hans Peter H. Arp, Ksenia J. Groh, Mari E. Løseth, Jane Muncke, Zhanyun Wang, Raoul Wolf, Lisa Zimmermann (14.03.2024) State of the science on plastic chemicals - Identifying and addressing chemicals and polymers of concern. http://dx.doi.org/10.5281/zenodo.10701706.  Lizenz: cc-by-sa-4.0.

Der Bericht

  • wird von einer öffentlich zugänglichen, umfassenden Zusammenstellung von Informationen über bekannte Kunststoffchemikalien begleitet, der PlastChem-Datenbank: plastchem_db_v1.0.xlsx
  • wurde am 14. März 2024 im Rahmen einer Online-Veranstaltung des Geneva Environment Network vorgestellt: Launch and Panel Discussion: State of the Science on Plastic Chemicals. Video 1:30:25 (mit Transkript) https://www.youtube.com/watch?v=zM-xbq_QyG8
  • ist im Vorfeld der April-Sitzung des Fourth Intergovernmental Negotiating Committee on Plastic Pollution (INC-4, in Ottawa, Ontario) erschienen, eines Ausschusses des Umweltprogramms der Vereinten Nationen, der bis Ende des Jahres ein globales Plastikabkommen mit 175 Ländern ausarbeiten soll.

 

inge Fri, 22.03.2024 - 00:40

Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?

Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?

Fr, 15.03.2024 — Ricki Lewis

Ricki Lewis

Icon Nahrung

Im Labor aus tierischen Zellen gezüchtetes Fleisch ist bislang ein Fehlschlag geblieben. Schlangen könnten eine neue Quelle für die Fleischzucht darstellen. Eine australische Forschergruppe hat mehr als 4600 Tiere von zwei großen Pythonarten über 12 Monate hinweg auf Farmen in Thailand und Vietnam - wo Schlangenfleisch als Delikatesse gilt - untersucht. Sie haben festgestellt, dass Pythons hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit sind und in der Lage Proteine weitaus effizienter als alle anderen bisher untersuchten Arten zu produzieren. Die Genetikerin Rick Lewis berichtet über Pythonzucht als eine der Antworten auf eine Klimawandel-bedingte, weltweite Ernährungsunsicherheit.*

Die Biotechnologie hat viele Probleme gelöst, von rekombinanter DNA und monoklonalen Antikörpern über Gentherapie und Transplantation von Stammzellen bis hin zu Impfstoffen auf RNA-Basis und gentechnisch veränderten Pflanzen, die Krankheiten und Pestiziden widerstehen.

Im Gegensatz dazu ist das so genannte kultivierte Fleisch bisher ein Fehlschlag geblieben.

Eine ausführliche Stellungnahme dazu von Joe Fassler ist in der New York Times vom 9. Februar unter dem Titel Die Revolution, die auf dem Weg zur Mahlzeit verkommen ist (The Revolution That Died on Its Way to Dinner ) erschienen. Der Autor setzt sich darin mit den unrealistischen Erwartungen, Verkettungen und Pannen auseinander, die verhindert haben, was er sich unter "einer Hightech-Fabrik mit Stahltanks" vorstellt, "die so hoch sind wie Wohnhäuser, und Fließbändern, die jeden Tag Millionen Kilo fertig geformter Steaks ausrollen - genug, um eine ganze Nation zu ernähren."

Die Herstellung von Fleisch

Gezüchtetes Fleisch zielt darauf ab, Fleisch außerhalb von Körpern nachzubauen. Es handelt sich dabei nicht um einen mit Erbsenprotein voll gepackten Beyond Burger oder einen raffiniert auf Hämoglobin basierenden Impossible Burger, sondern um tierische Zellen, die in einer Suppe aus Nährstoffen gebraut werden, unter Zusatz von Hormonen, welche die Entwicklung in Richtung Muskel-, Fett- und Bindegewebe lenken, um das Ergebnis dann in Formen zu bringen, die Restaurantgerichten ähneln.

Wenn wir so geheimnisvolle Lebensmittel wie Hot Dogs, Fischstäbchen, Gyros und Chicken Nuggets essen können, warum dann nicht auch einen gezüchteten Fleischklumpen?

Das Mantra für Fleischesser besagt, dass bei den im Labor gezüchteten Sorten keine Tiere getötet werden und der Zerstörung von Wäldern zwecks Schaffung von Weideflächen entgegen gewirkt werden könne. Seit 2016 sind Milliarden in die Erforschung von kultiviertem Fleisch investiert worden, entstanden sind aber nur eine Handvoll Produkte, in Singapur, den Vereinigten Staaten und Israel.

Als Biologin kann ich mir nicht vorstellen, wie man geschmackvolle Teile eines Tierkörpers reproduzieren kann, die im Laufe der Jahrtausende von der Evolution immer mehr verfeinert wurden. Würden die Züchter Aktin- und Myosinfasern dazu bringen, sich zu Skelettmuskelfasern zu verflechten, welche der Form nach einem Ribeye-Steak oder einem Kronfleisch entsprechen? Wie genau reproduziert das Gebräu aus Nährstoffen und Hormonen die biochemischen Kaskaden, welche Zellteilung und Zelldifferenzierung bei der Bildung von Organen aus nicht-spezialisierten Vorläuferzellen organisieren? Würden die Versuche stattdessen zu einem Mischmasch von Zelltypen führen?

Und dann ist da noch die Frage des Scale-ups. Ein Prototyp für 10.000 Dollar ist nicht gerade ermutigend.

Als ob diese Herausforderungen nicht schon entmutigend genug wären, haben einige Versuche, Fleisch zu züchten, zu Produkten geführt, die Zellen von Mäusen oder Ratten enthalten. Huch! Nun, das sind auch Säugetiere.

Fleischzüchter - die Unternehmen

Mehr als 20 Unternehmen forschen an kultiviertem Fleisch, darunter Upside Foods, New Age Eats, BlueNalu, das zellgezüchteten" Blauflossenthunfisch anbietet und Shiok Meats aus Singapur mit kultivierten Krustentiere (sogenannten Meeresfrüchten).

Auf der Website von Vow (Sidney, Australien) werden die einzelnen Schritte der Fleischzüchtung sobeschrieben (https://www.vowfood.com/what-we-do):

  • "Zellkuration: Wir züchten die perfekte Kombination von Zellen hinsichtlich ihrer Fähigkeit zur Selbsterneuerung und für idealen Geschmack, Textur und Aromen.
  • Vorbereiten und nähren: Wir fügen essenzielle Mikronährstoffe zu, die dazu beitragen, ein schmackhaftes, strukturiertes Fleischprofil zu erzeugen. Es ist wie Ihre bevorzugte Rezeptur, aber auf molekularer Ebene, und bietet Qualität, Reinheit und Konsistenz besser als jedes andere Fleisch. Immer.
  • Purer Nährwert: Wir setzen die Zellen in unsere klimatisierten Kultivatoren und sorgen so für einen natürlichen Verlauf der Bildung von Muskel-, Fett- und Bindegewebe auf die sicherste Art und Weise.
  •  Wir verpacken sie zu einer Reihe von Markenprodukten für den Verbraucher."

Warum sind Schlangen interessant?

Ökonomischer als der Versuch, die Natur nachzubilden und zu verändern, um Steaks und Sushi zu züchten, könnte es sein, neue Quellen für die Fleischzucht zu finden. Diesbezüglich ist kürzlich unter dem Titel "Pythonzucht als flexible und effiziente Form der landwirtschaftlichen Nahrungsmittel-sicherheit (Python Farming as a flexible and efficient form of agricultural food security) eine Arbeit in Scientific Report erschienen [1]. Darin untersuchen Daniel Natusch und seine Kollegen von der Macquarie University in Sydney die Möglichkeit, Reptilien zu züchten, die ja in Asien bereits ein Grundnahrungsmittel sind.

Abbildung 1. Netzpython (links) und Burmesischer Python (rechts). Die beiden Arten leben hauptsächlich in den Tropen Südostasiens und gehören zu größten Schlangen der Welt. Ausgewachsene weibliche Netzpythons werden bis zu 7 m lang und bis zu 75 kg schwer. Burmesische Pythons sind etwas kleiner. Die Tiere sind Fleischfresser, verzehren u.a. Nagetiere aber auch mache Insekten (Grillen). (Quellen: Links: Rushenby, Malayopython reticulatus, Reticulated python - Kaeng Krachan District, Phetchaburi Province (47924282891) cc-by-sa. Rechts: gemeinfrei.)

Die Forscher haben die Wachstumsraten von 4.601 Netzpythons und burmesischen Pythons in zwei Farmen in Thailand und Vietnam analysiert. Abbildung 1.Die Tiere wurden wöchentlich mit wild gefangenen Nagetieren und Fischmehl gefüttert und ein Jahr lang wöchentlich gewogen und gemessen.

Wie die Forscher berichten, sind Schlangen eine gute Nahrungsquelle. Im Vergleich zu Hühnern, Kühen und Ziegen fressen sie nicht oft. Und 82 % der Masse einer lebenden Schlange können zu "verwertbaren Produkten" werden, schreiben die Forscher.

Beide Arten sind schnell gewachsen - bis zu 46 Gramm pro Tag, wobei die Weibchen schneller wuchsen als die Männchen. Die Wachstumsrate in den ersten beiden Lebensmonaten sagte am besten die spätere Körpergröße voraus.

Die Forscher wählten außerdem 58 Schlangen auf der Farm in Ho Chi Minh Stadt (Vietnam) aus und fütterten sie mit unterschiedlicher proteinreicher Kost, u.a. mit Huhn, Schweinefleischabfällen, Nagetieren und Fischmehl. Für je 4,1 Gramm verzehrter Nahrung konnten die Forscher 1 Gramm Pythonfleisch ernten. "Hinsichtlich des Verhältnisses von Nahrung und Proteinverwertung übertreffen Pythons alle bisher untersuchten landwirtschaftlichen Arten", schreiben die Forscher.

Ein weiteres positives Ergebnis: die Reptilien konnten über lange Zeiträume (20 bis zu 127 Tage) fasten, ohne viel an Körpermasse zu verlieren - rein theoretisch könnte man das Füttern für ein Jahr aussetzen - was bedeutet, dass sie weniger Arbeit für die Fütterung benötigten als herkömmliche Zuchttiere.

Und ja, Schlangenfleisch schmeckt wie Huhn aber geschmackvoller.


Anmerkung der Redaktion

Die Washington Post hat den Artikel von Natusch et al., [1] gestern unter dem Titel "Want a more sustainable meat for the grill? Try a 13-foot python steak." kommentiert https://www.washingtonpost.com/climate-solutions/2024/03/14/snake-meat-food-sustainability-python/:

Wenn auch Schlangen in absehbarer Zeit wohl kaum einen großen Teil der westlichen Ernährung ausmachen werden, so spricht dennoch Einiges für eine Pythonzucht als Antwort auf eine weltweite Ernährungsunsicherheit infolge des Klimawandels. 

     Pythons sind recht einfach zu halten -sie sind von Natur aus sesshaft und koexistieren problemlos mit anderen Schlangen. Es gibt nur wenige der komplexen Tierschutzprobleme, die bei Vögeln und Säugetieren in Käfigen auftreten.

    Pythons sind hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren. Sie brauchen sehr wenig Wasser. Ein Python kann von dem Tau leben, der sich auf seinen Schuppen bildet. Theoretisch könnte man einfach ein Jahr lang aufhören, sie zu füttern.

In einer Welt, in der Prognosen zufolge der Klimawandel zu extremeren Wetter- und Umweltkatastrophen führen wird, ist eine Art, die hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit ist und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren, "fast ein wahr gewordener Traum".


 [1] Natusch, D., Aust, P.W., Caraguel, C. et al. Python farming as a flexible and efficient form of agricultural food security. Sci Rep 14, 5419 (2024). https://doi.org/10.1038/s41598-024-54874-4


* Der Artikel ist erstmals am 14. März 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "Cultivated Meat? Let Them Eat Snake" https://dnascience.plos.org/2024/03/14/cultivated-meat-let-them-eat-snake/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


Artikel in ScienceBlog.at

I. Schuster, 11.09.2021: Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?


 

inge Fri, 15.03.2024 - 18:14

Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden Eizelle

Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden Eizelle

Do, 07.03.2024 — Christina Beck

Christina Beck

Icon Molekularbiologie

Laut einer 2023 veröffentlichten Studie der Weltgesundheitsorganisation ist jeder sechste Mensch im gebärfähigen Alter zumindest zeitweise unfruchtbar. Prof. Dr. Melina Schuh, Direktorin am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen) und ihr Team erforschen den Reifungsprozess der Eizelle und zeigen, dass und warum dieser sehr fehleranfällig ist und zu falscher Chromosomenverteilung (Aneuploidie) in der Eizelle führen kann: Diesen Eizellen dürfte ein wichtiges Motor-Protein (KIFC1) zur Stabilisierung der Maschine fehlen, welche die Chromosomen während der Zellteilung korrekt trennen sollte. Das Einbringen dieses Motor-Proteins in menschliche Oozyten stellt somit einen möglichen neuen Ansatz dar, um Kinderwunsch erfolgreicher behandeln zu können. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, berichtet darüber und über den bislang noch nicht völlig verstandenen Prozess, der am Anfang unseres Lebens steht.*

Global sind 17,5 Prozent aller Männer und Frauen demnach an einem Punkt in ihrem Leben davon betroffen, kein Kind zeugen zu können. Ausgewählt und ausgewertet wurden dazu 133 aus weltweit mehr als 12.000 Studien, die zwischen 1990 und 2021 entstanden sind. In Deutschland ist fast jedes zehnte Paar zwischen 25 und 59 Jahren ungewollt kinderlos. Die Gründe dafür sind vielfältig und – das ist wichtig zu wissen – betreffen beide Geschlechter. Tatsächlich sind die medizinischen Ursachen für Unfruchtbarkeit bei Männern und Frauen gleichverteilt (Abbildung 1). Die Hauptursache für ungewollte Kinderlosigkeit liegt hierzulande vor allem darin, dass die Menschen sich immer später für eine Elternschaft entscheiden. Das betrifft Männer wie Frauen gleichermaßen. Das Alter der Erstgebärenden ist in den vergangenen Jahrzehnten stetig gestiegen, ebenso wie das der Väter.

Abbildung 1: Verteilung der Unfruchtbarkeit: Verschiedene physiologische Faktoren können zur Unfruchtbarkeit beitragen und betreffen die Frau, den Mann oder beide Partner. Die prozentualen Anteile unterscheiden sich je nach Studie und untersuchten Kriterien. Die Angaben in der Abbildung stellen ungefähre Werte dar. (© Zahlen nach Forti, G. (1998), doi: 10.1210/jcem.83.12.5296 // Grafik: HNBM CC BY-NC-SA 4.0)

So waren einer Studie des Max-Planck-Instituts für demografische Forschung in Rostock zufolge schon 2013 sechs Prozent aller Neuväter in Deutschland 45 Jahre oder älter und damit fast drei Mal so viele wie noch 1995. Es ist zwar richtig, dass Männer im Durchschnitt deutlich länger fruchtbar sind als Frauen. Etwa ab 40 bis 50 Jahren verschlechtert sich jedoch die Funktion der Spermien, weil sich genetische Defekte in den Samenzellen häufen. Wenn es insgesamt mehr Spermien mit Chromosomenstörungen gibt, dann dauert es länger, bis die Frau schwanger wird. Und abgesehen vom Alter gibt es weitere Faktoren, die die Zeugungsfähigkeit von Männern einschränken können – medizinische ebenso wie durch den Lebensstil implizierte wie Alkohol, Rauchen oder Übergewicht.

Keine lebenslange Reserve

Bei Frauen enden die fruchtbaren Jahre deutlich früher. Im Alter zwischen 20 und 24 Jahren haben sie ihre höchste Fruchtbarkeit. Je älter Frauen werden, desto mehr sinkt jedoch die Wahrscheinlichkeit, schwanger zu werden, während die Wahrscheinlichkeit einer Unfruchtbarkeit ansteigt (Abbildung 2). Und das hängt ganz maßgeblich mit den Eizellen zusammen. So wird eine Frau bereits mit ihrer gesamten Reserve an Eizellen geboren. Im Laufe des Lebens entstehen keine neuen Eizellen mehr. Bei Geburt sind rund eine Million unreife Eizellen (Oozyten) angelegt. Die meisten sterben ab – zu Beginn der Pubertät sind noch etwa 300.000 übrig. Ihre Zahl nimmt dann weiter kontinuierlich ab. Bei einer von 100 Frauen ist die Eizellreserve bereits vor dem 40. Lebensjahr komplett erschöpft. Auch die Qualität der Eizellen sinkt ab dem 35. Lebensjahr deutlich. So steigt der Anteil jener Eizellen, die eine von der Norm abweichende Anzahl an Chromosomen aufweisen (man bezeichnet diese Eizellen als aneuploid). Bei Frauen ab 35 Jahren treten bei mehr als 50 Prozent der Eizellen Aneuploidien auf. Man spricht hier vom „maternal age effect“ (mütterlicher Alterseffekt).

Abbildung 2: Die biologische Uhr tickt © Quellen: Carcio, H. A.: Management of the Infertile Woman; Rosenthal, M. S.: The Fertility Sourcebook (1998) // Grafik: HNBM

Am Max-Planck-Institut für Multidisziplinäre Naturwissenschaften in Göttingen erforscht das Team um Melina Schuh die Entwicklung von Eizellen – und was dabei alles schief gehen kann. Denn tatsächlich sind bereits bei jungen Frauen im Alter von 20 bis Anfang 30 mehr als 20 Prozent der Eizellen aneuploid. „Im Gegensatz dazu sind nur ein bis zwei Prozent der Spermien und weniger als ein Prozent der meisten somatischen Zelltypen aneuploid“, erklärt Schuh. Wenn diese fehlerhaften Eizellen befruchtet werden, dann führt das typischerweise zu Fehlgeburten oder auch zu Unfruchtbarkeit. Statistisch führt nur jede dritte Befruchtung bei Frauen zu einer erfolgreichen Schwangerschaft.

Falsch aussortiert

Eine reife Eizelle entwickelt sich aus einer Oozyte, die noch jeweils zwei Kopien von jedem Chromosom besitzt, also diploid ist. Um ein befruchtungsfähiges Ei zu werden, muss sie daher die Hälfte ihrer 46 Chromosomen ausschleusen. Dies geschieht einmal pro Menstruationszyklus in einer spezialisierten Zellteilung, der Reifeteilung I. Dabei werden die homologen Chromosomen der Oozyten mithilfe einer komplexen Maschinerie – dem Spindelapparat – getrennt. Er besteht aus Spindelfasern, die sich während der Meiose an die Chromosomen anheften. Die Fasern ziehen dann jeweils eines der homologen Chromosomen zu den gegenüberliegenden Polen der Spindel. Die Oozyte teilt sich dazwischen in eine große, nun haploide Eizelle und eine deutlich kleinere „Abfallzelle“, den sog. Polkörper. Abbildung 3.

 

Abbildung 3: . Reifeteilung einer menschlichen Oozyte. Diese Vorläuferzelle der Eizelle ist diploid, d.i. sie besitzt noch zwei Kopien eines jeden Chromosoms. Während der Reifeteilung halbiert der Spindelapparat (grün) den Chromosomensatz, indem er die Chromosomenpaare (magenta) voneinander trennt. (Quelle: © Chun So / MPI für Multidisziplinäre Naturwissenschaften.)

„Genau das klappt jedoch oftmals nicht zuverlässig, sodass eine Eizelle mit falscher Chromosomenzahl entsteht“, erklärt Melina Schuh. Das Max-Planck-Forschungsteam will daher verstehen, wie die Zelle die Chromosomen vorbereitet, um sie in den Polkörper zu entsorgen, und wie die Maschinerie im Detail funktioniert, die die Chromosomen zwischen Eizelle und Polkörper verteilt. Die große Herausforderung dabei: Bei Säugetieren entwickeln sich die Oozyten im Inneren des Körpers. Um diesen Vorgang überhaupt untersuchen zu können, musste Schuh einen Weg finden, die Zellen außerhalb des Körpers zu kultivieren, und zwar so, dass sie diese über viele Stunden hinweg unter einem hochauflösenden Mikroskop untersuchen kann – eine Pionierleistung, die ihr schon während ihrer Promotion gelang.

Wichtiger Brückenbauer

„Was wir bereits wussten ist, dass menschliche Eizellen häufig Spindeln mit instabilen Polen bilden. Solche labilen Spindeln ordnen die Chromosomen bei der Zellteilung falsch an oder bringen sie durcheinander“, berichtet Schuh. Damit sind menschliche Oozyten im Tierreich eher eine Ausnahme. „Die Spindeln anderer Säugetier-Oozyten waren in unseren Experimenten sehr stabil“, so die Max-Planck-Direktorin. Um herauszufinden, was menschliche Spindeln derart labil macht, verglich das Team das molekulare Inventar an Proteinen, das für die Spindelstabilität erforderlich ist, in verschiedenen Säugetier-Oozyten. Für diese Versuche nutzten die Forschenden auch unbefruchtete unreife menschliche Eizellen, die nicht für die Kinderwunschbehandlung verwendet werden konnten und von den Patientinnen gespendet wurden. Ein Motorprotein (Motorproteine erzeugen Bewegungen innerhalb der Zelle) mit dem Namen KIFC1 weckte besondere Aufmerksamkeit: Es baut Brücken zwischen den Spindelfasern, hilft so, die Fasern richtig auszurichten, und verhindert, dass sie auseinanderfallen. Interessanterweise enthalten Oozyten von Mäusen und Rindern im Vergleich zu menschlichen Oozyten deutlich mehr von diesem Protein. Beeinflusst die Menge des Proteins somit möglicherweise die Stabilität der Spindeln?

Abbildung 4: Instabile Spindeln. Oben: Entfernt man den molekularen Motor KIFC1 aus Mäuse- und Rinder-Oozyten, entstehen multipolare Spindeln und Fehler bei der Chromosomentrennung, wie sie auch bei menschlichen Oozyten mit instabilen Spindeln beobachtbar sind. Die gelben Pfeile weisen auf die instabilen Spindelpole. Unten: Menschliche Eizellen bilden oft Spindeln mit mehreren Polen (blaue Kreise). Wird zusätzliches KIFC1 in die Eizelle eingebracht, verbessert es die Stabilität der bipolaren Spindel, indem es deren Mikrotubuli (blau) vernetzt. Die homologen Chromosomen (magenta) werden korrekt getrennt. © Foto: Chun So / MPI für Multidisziplinäre Naturwissenschaften; Grafik: HNBM / CC BY NC-SA 4.0

Um das herauszufinden, entfernten die Forschenden KIFC1 aus den Oozyten von Mäusen und Rindern. Das Ergebnis: Ohne das Protein bildeten auch Mäuse- und Rinder-Oozyten instabile Spindeln und es kam zu mehr Fehlern bei der Chromosomentrennung (Abbildung 4). „Unsere Versuche legen tatsächlich nahe, dass KIFC1 entscheidend dazu beiträgt, Chromosomen bei der Meiose fehlerfrei zu verteilen“, erklärt Schuh. Könnte das Protein daher ein Ansatzpunkt sein, um Fehler bei der Chromosomentrennung in menschlichen Eizellen zu reduzieren? „Für uns war die spannende Frage, ob die Spindel stabiler wird, wenn wir zusätzliches KIFC1 in menschliche Oozyten einbringen“, erklärt Schuh. Unter dem Mikroskop waren in den Zellen, die zusätzliche Mengen des Motorproteins enthielten, die Spindeln deutlich intakter und es traten weniger Fehler beim Trennen der Chromosomen auf. „Das Einbringen von KIFC1 in menschliche Oozyten ist somit ein möglicher Ansatz, um Fehler in Eizellen zu reduzieren“, hofft die Max-Planck-Forscherin.

Aber das ist nicht der einzige Entwicklungsschritt, der fehlerbehaftet ist (Abbildung 5). Das Göttinger Team hat sich insbesondere gefragt, warum das Risiko, aneuploide Eizellen zu erzeugen, für Frauen in fortgeschrittenem Alter deutlich höher ist und dabei das sogenannte Zygoten-Stadium in den Blick genommen, also die Phase direkt nach der Vereinigung von Spermium und Eizelle. Während nämlich in der Reifeteilung I die homologen Chromosomen auf Eizelle und Polkörper verteilt werden, werden in der Reifeteilung II nach der Befruchtung die Schwesterchromatiden eines jeden homologen Chromosoms voneinander getrennt und auf die Zygote und einen zweiten Polkörper verteilt.

Abbildung 5: Was alles bei der Verteilung schief gehen kann. Reifeteilung I: Während der Reifeteilung I kann es zu einer fehlerhaften Trennung kommen, bei der die homologen Chromosomen falsch verteilt werden (Ia). Es kann auch ein einzelnes Chromatid falsch zugeordnet werden (Ib) oder beide Schwesterchromatiden verteilen sich umgekehrt (Ic). Durch diese inverse Verteilung besitzt die Eizelle zwar die richtige Chromosomenzahl, doch die Chromatiden stammen von verschiedenen homologen Chromosomen und sind nicht mehr durch Kohäsin verbunden, was die Ausrichtung und Trennung in der Reifeteilung II beeinträchtigen kann.

Reifeteilung II: In der Reifeteilung II kann es zu einer fehlerhaften Trennung kommen, bei der beide Schwesterchromatiden entweder in der Zygote verbleiben (IIa) oder im zweiten Polkörper entsorgt werden (IIb). © MPI für Multidisziplinäre Naturwissenschaften / Grafik: HNBM / CC BY-NC-SA 4.0

Alter Chromosomen-Kleber

Ringförmige Proteinstrukturen, sogenannte Kohäsin-Komplexe, halten die Schwesterchromatiden zusammen. Sie werden im weiblichen Embryo sehr früh während der DNA-Verdopplung installiert. Studien an Maus-Oozyten zeigen, dass Kohäsin-Komplexe später im Leben nicht mehr neu installiert werden können. „Wenn dies auch für menschliche Oozyten gilt, dann müssen Kohäsin-Komplexe die Chromosomen mehrere Jahrzehnte des Lebens zusammenhalten, bevor sie bei einem Ovulationszyklus zur korrekten Chromosomentrennung beitragen“, erklärt Schuh. Mit fortschreitendem Alter geht das Kohäsin jedoch verloren – zumindest bei der Maus –, was zu einer vorzeitigen Trennung der Schwesterchromatiden während der Reifeteilung I führt. „Wenn die Schwesterchromatiden bereits getrennt sind, dann werden sie zufällig und somit gegebenenfalls eben fehlerhaft zwischen den beiden Spindelpolen verteilt“, erklärt die Wissenschaftlerin. Ob Kohäsin auch in menschlichen Eizellen aus den Chromosomen verloren geht, ist noch nicht klar. Allerdings erfahren Chromosomen in menschlichen Oozyten während der Alterung ähnliche Strukturveränderungen wie die Forschenden sie in Oozyten älterer Mäuse beobachten.

Kinderwunsch erfüllen

Es besteht also weiterhin Forschungsbedarf und somit viel Arbeit für Melina Schuh und ihr Team in Göttingen. Für die Durchführung entsprechender Studien bedarf es immer wieder auch neuer Methoden, die in Schuhs Abteilung in den vergangenen Jahren entwickelt wurden, wie beispielsweise jene, mit der Proteine aus Eizellen funktional untersucht werden können. Ihr erklärtes Ziel dabei: „Wir möchten mehr Paaren helfen, ihren Kinderwunsch zu erfüllen und auch dazu beitragen, dass es mehr Geburten mit weniger In-vitro-Fertilisationszyklen gibt, dass also Kinderwunschbehandlung effizienter ablaufen kann“, so die Forscherin.


 *Der Artikel ist erstmals unter dem Titel: "Chromosomen-Durcheinander in der Eizelle" https://www.max-wissen.de/max-hefte/meiose/ in BIOMAX 39, Frühjahr 2024 erschienen und wurde mit Ausnahme des Abstracts und der Legende zu Abbildung 3 unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links

Meiose-Forschung am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen): https://www.mpinat.mpg.de/de/mschuh

Von der Erforschung der Eizelle bis zum Kinderwunsch | Prof. Dr. Melina Schuh. Video (12.2023) 1:01:55. https://www.youtube.com/watch?v=em-C4OMwEYc


 

inge Thu, 07.03.2024 - 14:52

Eine Abschätzung der durch den Krieg in der Ukraine verursachten Treibhausgasemissionen

Eine Abschätzung der durch den Krieg in der Ukraine verursachten Treibhausgasemissionen

Do, 29.02.2024 — IIASA

IIASA Logo

Icon Klima

Während eines Krieges können aufgrund militärischer Aktionen die Treibhausgasemissionen erheblich ansteigen; die Leitlinien des Weltklimarats (IPCC) zur Emissionsberichterstattung sind allerdings ausschließlich auf Friedensszenarien zugeschnitten. Eine kürzlich veröffentlichte Studie bringt nun erstmals etwas Licht in die mit Krieg verbundenen Treibhausgasemissionen. Mit dem Hauptaugenmerk auf diese hat ein internationales Team von Wissenschaftlern, darunter mehrere Forscher vom Internationalen Institut für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) die ersten 18 Monate seit Beginn des Krieges in der Ukraine und dessen Folgen untersucht [1]. Die Ergebnisse zeigen die Grenzen des derzeitigen Rahmens für die Emissionsberichterstattung im Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen (UNFCCC) auf.*

Bewaffnete Konflikte auf der ganzen Welt lasten am schwersten auf den Schultern der einfachen Bevölkerung und führen zu erhöhter Verwundbarkeit, Sterblichkeit und Morbidität sowie zu politischer Instabilität und Zerstörung der Infrastruktur. Abgesehen von den sozialen, wirtschaftlichen und politischen Folgen haben bewaffnete Konflikte jedoch auch schwerwiegende Auswirkungen auf die Umwelt und führen zu deren verstärkter Zerstörung und Verschmutzung. Abbildung 1. Schlussendlich bringen sie zusätzliche Belastungen für den internationalen politischen Rahmen und zeigen Herausforderungen auf, die man bis dahin möglicherweise noch nicht berücksichtigt hatte.

Abbildung 1. Veranschaulichung der durch militärische Aktionen in der Ukraine verursachten Treibhausgasemissionen, die in der offiziellen nationalen Berichterstattung und den globalen Schätzungen möglicherweise nicht berücksichtigt werden: Einsatz von Bomben, Raketen, Artilleriegeschossen, Minen und Kleinwaffen (a); Verwendung von Erdölprodukten für militärische Zwecke (b); Emissionen aus Bränden von Erdölprodukten in Erdöllagern (c); Emissionen aus Bränden von Gebäuden und Infrastruktureinrichtungen (d); Emissionen aus Waldbränden und Bränden auf landwirtschaftlichen Flächen (e); Emissionen aus Müll/Abfall (f).(Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd).

Im Rahmen des Pariser Abkommens sind die Unterzeichnerstaaten verpflichtet, ihre Treibhausgas-emissionen an das UNFCCC zu melden, um die Bemühungen zur Emissionsreduzierung zu evaluieren und strengere Ziele zur Begrenzung des globalen Temperaturanstiegs festzulegen.

In einer Studie, die in der Fachzeitschrift Science of the Total Environment veröffentlicht wurde, zeigen die Autoren, dass eine genaue Erfassung der in die Atmosphäre abgegebenen Treibhausgas-emissionen notwendig ist [1].

"Unsere Ergebnisse zeigen, dass militärische Emissionen eine ungewöhnliche Herausforderung darstellen, da sie in den derzeitigen Berichterstattungsrahmen nicht explizit berücksichtigt werden; THG-Emissionen, insbesondere solche aus menschlichen Aktivitäten, werden in der Regel anhand sogenannter "Aktivitätsdaten" wie Kraftstoffverbrauch, Verkehrszählungen und anderen sozioökonomischen Daten geschätzt", erklärt Linda See, Studienautorin und Mitglied der Forschungsgruppe Novel Data Ecosystems for Sustainability des IIASA Advancing Systems Analysis Program.

Der Hauptautor der Studie, Rostyslav Bun, Professor an der Lviv (Lemberg) Polytechnic National University in der Ukraine und der WBS University in Polen, hat die Auswirkungen des Krieges auf die Fähigkeit der Ukraine kommentiert, seit 2022 grundlegende Aktivitätsdaten zu sammeln; er hat darauf hingewiesen, dass infolge des Kriegs die Infrastruktur des Landes, einschließlich der Möglichkeiten der Datenerhebung, erheblich beeinträchtigt und zerstört wurde. Darüber hinaus betont Bun, dass bei Befolgung der aktuellen UN-Konvention alle Emissionen der Ukraine zugerechnet würden, einschließlich derjenigen, die aus kriegsbedingten Schäden resultieren.

"Auch wenn die Verfolgung von kriegsverursachten Emissionen aufgrund der Art der militärischen Aktivitäten und des Mangels an Informationen eine Herausforderung darstellt, schätzt unsere Studie die Treibhausgasemissionen anhand der besten verfügbaren Daten", erklärt Matthias Jonas, Mitautor der Studie und Gastwissenschaftler im IIASA Advancing Systems Analysis Program. "Die internationalen politischen Rahmenwerke sind auf eine derartige Situation nicht vorbereitet und dies zeigt eine wichtige Einschränkung unseres derzeitigen Ansatzes für das Netto-Null-Emissionen Ziel auf. Dieses geht von einer Welt ohne Konflikte aus und entspricht leider nicht der Realität, mit der wir heute konfrontiert sind. Wenn auch bewaffnete Konflikte zweifellos die lokale Bevölkerung am härtesten treffen, ist es wichtig, dass wir auch die Auswirkungen analysieren, die sie auf unsere Umwelt auf globaler Ebene haben können."

Abbildung 2. Treibhausgasemissionen in Friedenszeiten versus Kriegszeiten. Eine Analyse der öffentlich zugänglichen Daten gestützt auf das Urteil von Experten, um Emissionen aus (1) dem Einsatz von Bomben, Raketen, Artilleriegeschossen und Minen, (2) dem Verbrauch von Erdölprodukten für militärische Operationen, (3) Bränden in Erdöllagern und Raffinerien, (4) Bränden in Gebäuden und Infrastruktureinrichtungen, (5) Bränden auf Wald- und landwirtschaftlichen Flächen und (6) der Zersetzung von kriegsbedingtem Müll zu schätzen. Die Schätzung dieser kriegsbedingten Emissionen von Kohlendioxid, Methan und Lachgas für die ersten 18 Monate des Krieges in der Ukraine beläuft sich auf 77 MtCO2-eq. mit einer relativen Unsicherheit von +/-22 % (95 % Vertrauensintervall)). (Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd).

Die Studie konzentriert sich auf Emissionen, die aus kriegsbedingten Aktivitäten resultieren und in den offiziellen nationalen Berichten  nicht erfasst sein dürften. Sie legt nahe, dass die Summe dieser "nicht erfassten" Emissionen von Kohlendioxid, Methan und Lachgas in den 18 Monaten des Krieges die jährlichen Emissionen einiger europäischer Länder wie Österreich, Ungarn und Portugal überstiegen hat. Abbildung 2.

"Der Krieg beeinträchtigt unsere Befähigung, Emissionen über die auf Aktivitätsdaten basierende Berichterstattung global und nicht nur regional zu überwachen, wie dies bei der globalen Ernährungssicherheit und bei humanitären Fragen der Fall ist", fügt Tomohiro Oda, leitender Wissenschaftler bei der Universities Space Research Association in den USA, hinzu und unterstreicht damit die Bedeutung der Emissionsüberwachung durch Atmosphärenbeobachtung, die unabhängig von Aktivitätsdaten ist.

Die Ergebnisse der Studie werden auf der Generalversammlung 2024 der Europäischen Geowissenschaftlichen Union (EGU) in Wien, Österreich, im April 2024 vorgestellt und weiter diskutiert.


[1] Bun, R., Marland, G., Oda, T., See, L. et al. (2024). Tracking unaccounted greenhouse gas emissions due to the war in Ukraine since 2022. Science of the Total Environment, 914. https://doi.org/10.1016/j.scitotenv.2024.169879https://www.sciencedirect.com/science/article/pii/S0048969724000135


*Der Artikel " Significant greenhouse gas emissions resulting from conflict in Ukraine" ist am 15.Feber 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/feb-2024/significant-greenhouse-gas-emissions-resulting-from-conflict-in-ukraine). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 2 Abbildungen aus der Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Fri, 01.03.2024 - 00:08

Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei Jahren

Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei Jahren

Do,22.02.2024 — Redaktion

RedaktionIcon Friede

Der durch nichts zu rechtfertigende russische Überfall auf die Ukraine am 24.Feber 2022 hat damals in Russland einen sofortigen Tsunami des Protests ausgelöst: Bis zum 4. März haben über 1,18 Millionen Russen Petitionen gegen den Krieg mit der Ukraine unterschrieben. Wissenschaftler und Lehrer, Architekten und Designer, Ärzte und IT-Spezialisten, Journalisten und Schriftsteller, Werbefachleute und Psychologen, Kulturschaffende und Vertreter des Klerus, und andere haben darin den Krieg als ungerechtfertigt, schändlich und kriminell bezeichnet. Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher "Falschinformationen" über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben die Initiatoren der Aufrufe diese gelöscht. Um den mutigen Protest der Russen in Erinnerung zu rufen, stellen wir den Blogartikel vom 4.3.2022 nochmals online.

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben (Blogartikel vom 4.3.2022):

Wenn man Presse und Medien verfolgt, gewinnt man den Eindruck, dass die Menschen in Russland kaum erfahren, was sich derzeit in der Ukraine abspielt und/oder dass sehr viele den Lügen der Regierung Glauben schenken. Diejenigen, von denen man annimmt, dass sie Bescheid wissen, hält man aber für zu apathisch und vor allem zu mutlos, um gegen die kriminellen Militäraktionen ihrer Machthaber die Stimme zu erheben. Dass bereits 6440 Anti-Kriegs Demonstranten in brutaler Weise von den russischen Sicherheitskräften festgenommen wurden, zeigt ja, dass solche Proteste mit einem nicht zu unterschätzenden Risiko für Leib und Leben verbunden sind.

Nun, viele Russen sind nicht apathisch, viele Russen zeigen Mut offen den Krieg mit der Ukraine zu verurteilen, den sie ebenso wie nahezu alle Staaten der Welt als ungerechtfertigt, schändlich und kriminell sehen. Seit dem Tag des Einmarsches in die Ukraine wurden von unterschiedlichsten russischen Bevölkerungsgruppen "Offene Briefe" gegen den Krieg verfasst und unterzeichnet. Einer dieser, von russischen Wissenschaftlern und - Journalisten verfassten "offenen Briefe" wurde bereits von über 7 000 Russen unterzeichnet; er ist im ScienceBlog unter Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg nachzulesen.

Lew Ponomarjow: Gegen den Krieg - Net Voyne

Der russische Physiker und Mathematiker Lew Ponomarjow , ein bekannter Politiker und Menschenrechtsaktivist hat auf dem Portal www.change.org/ eine Petion gestartet, in der er gegen den Krieg in der Ukraine aufruft und klare Worte spricht:

Abbildung 1. Der Aufruf von Lew Ponomarjow Njet Woynje wurde bereits von mehr als 1,18 Mio Menschen unterzeichnet. (Grafik nach den Zahlen auf www.change.org/ (https://rb.gy/ctnvxk) von der Redaktion erstellt.)

"Wir betrachten alle als Kriegsverbrecher, die die Entscheidung für kriegerische Aktionen im Osten der Ukraine und für die von den Machthabern abhängige kriegsauslösende Propaganda in den russischen Medien rechtfertigen. Wir werden versuchen, sie für ihre Taten zur Rechenschaft zu ziehen.

Wir appellieren an alle vernünftigen Menschen in Russland, von deren Taten und Worten etwas abhängt. Werden Sie Teil der Antikriegsbewegung, stellen Sie sich gegen den Krieg. Tun Sie dies zumindest, um der ganzen Welt zu zeigen, dass es in Russland Menschen gab, gibt und geben wird, die die von den Machthabern begangene Niederträchtigkeit nicht akzeptieren werden, die den Staat und die Völker Russlands selbst zu einem Instrument ihrer Verbrechen gemacht haben. "

Am Tag 9 des Krieges um 12:00 h haben bereits 1 175 786 Menscchen ihre Unterschriften unter den Aufruf gesetzt, um 23:00 waren es 1.181.101, Tendenz weiter steigend. Abbildung 1.

Wir sind nicht allein - My ne odni

Die Webseite https://we-are-not-alone.ru/ hat eine Liste der zahlreichen russischen Petitionen gegen den Krieg in der Ukraine erstellt mit Links zu den Originaldokumenten - die meisten auf der Plattform https://docs.google.com/ - und laufend aktualisierten Zahlen der Unterzeichner. Die Seite gibt an:

"Wir möchten, dass Sie wissen, dass Lehrer und Nobelpreisträger, Ärzte und Designer, Journalisten und Architekten, Schriftsteller und Entwickler, Menschen aus dem ganzen Land bei Ihnen sind. Wir sind nicht alleine"

Gestern nachts (3.3.2022) hat diese Webseite noch funktioniert, heute kann sie leider nicht mehr aufgerufen werden. Laut  https://ura.newssind diverse Medienportale - u.a. we are not alone.ru - in der Ukraine einem Cyberangriff zum Opfer gefallen.

Proteste aus ganz Russland

Bis gestern war es einfach die "offenen Briefe" diverser Berufsgruppen/Institutionen von der Seite https://we-are-not-alone.ru/ abzurufen. Einige dieser Texte sollen als Beispiele für den furchtlosen Protest russischer Bürger dienen (s. unten). Mit Stand 3.3.2022 hatten bereits mehr als 156 000 Mitglieder einzelner Berufsgruppen Aufrufe gegen den Krieg mit der Ukraine unterschrieben; die Tendenz war stark steigend. Zur Veranschaulichung ist eine kleine Auswahl von Berufsgruppen in Abbildung 2. dargestellt.

Abbildung 2: Aufrufe "Gegen den Krieg in der Ukraine" von Migliedern der IT-Branche und der Wirtschaft und von Vertretern aus Politik, Recht und Gesellschaft. Berufsgruppen und deren Aufrufe konnten von der nun nicht mehr einsehbaren Seite https://we-are-not-alone.ru/ entnommen werden. Die Zahlen der jeweiligen Unterschriften wurden am 3.3.2022 erhoben.

Zweifellos beweisen zahlreiche Vertreter politischer Parteien, Anwälte aber auch Mitglieder des Klerus den Mut namentlich gegen den Krieg Stellung zu beziehen!

Auch Ärzte und andere im Gesundheitssektor Beschäftigte, Kunst- und Kulturschaffende, Sportler und Vertreter der Freizeitindustrie, Architekten und Designer, Vertreter in allen möglichen Branchen von Industrie, und, und, und,..... wurden aufgerufen die Protestnoten gegen den Krieg zu unterzeichnen und die Zahl der Unterschriften steigt und steigt.

Eine Auswahl von Institutionen und Vertretern aus Wissenschaft und Bildung findet sich in Abbildung 3. Hier sind vor allem Aufrufe von verschiedenen Fakultäten der berühmtesten russischen Universität, der Lomonosow Universiät hervorzuheben.

Abbildung 3: Aufrufe "Gegen den Krieg in der Ukraine" von Vertretern aus Wissenschaft und Bildungssektor. Links zu den einzelnen Aufrufen wurden der nun nicht mehr aufrufbaren Seite https://we-are-not-alone.ru/. entnommen, Die Zahl der jeweiligen Unterschriftenwurde am 3.3.2022 erhoben.

Um einen Eindruck von den Protestschreiben zu gewinnen , sind im Folgenden einige dieser Texte wiedergegeben. (Siehe auch Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg)

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

https://msualumniagainstwar.notion.site/0378ab0a0719486181781e8e2b360180

(Bis jetzt : 5795 Unterschriften)

Wir, Studenten, Doktoranden, Lehrer, Mitarbeiter und Absolventen der ältesten, nach M.V. Lomonosov benannten Universität Russlands, verurteilen kategorisch den Krieg, den unser Land in der Ukraine entfesselt hat.

Russland und unsere Eltern haben uns eine fundierte Ausbildung vermittelt, deren wahrer Wert darin liegt, das Geschehen um uns herum kritisch zu bewerten, Argumente abzuwägen, einander zuzuhören und der Wahrheit treu zu bleiben – wissenschaftlich und humanistisch. Wir wissen, wie man die Dinge beim richtigen Namen nennt und wir können uns nicht absentieren.

Das was die Führung der Russischen Föderation in deren Namen als „militärische Spezialoperation“ bezeichnet, ist Krieg, und in dieser Situation ist kein Platz für Euphemismen oder Ausreden. Krieg ist Gewalt, Grausamkeit, Tod, Verlust geliebter Menschen, Ohnmacht und Angst, die durch kein Ziel zu rechtfertigen sind. Krieg ist der grausamste Akt der Entmenschlichung, der, wie wir innerhalb der Mauern von Schulen und Universität gelernt haben, niemals wiederholt werden sollte. Die absoluten Werte des menschlichen Lebens, des Humanismus, der Diplomatie und der friedlichen Lösung von Widersprüchen, wie wir sie an der Universität erfahren durften, wurden sofort mit Füßen getreten und weggeworfen, als Russland auf verräterische Weise in das Territorium der Ukraine eindrang. Seit dem Einmarsch der Streitkräfte der Russischen Föderation in die Ukraine ist das Leben von Millionen Ukrainern stündlich bedroht.

Wir bringen dem ukrainischen Volk unsere Unterstützung zum Ausdruck und verurteilen kategorisch den Krieg, den Russland gegen die Ukraine entfesselt hat.

Als Absolventen der ältesten Universität Russlands wissen wir, dass die Verluste, die in den sechs Tagen eines blutigen Krieges angerichtet wurden – vor allem menschliche, aber auch soziale, wirtschaftliche und kulturelle – irreparabel sind. Wir wissen auch, dass Krieg eine humanitäre Katastrophe ist, aber wir können uns nicht ausmalen, wie tief die Wunde ist, die wir als Volk Russlands dem Volk der Ukraine und uns selbst gerade jetzt zufügen.

Wir fordern, dass die Führung Russlands sofort das Feuer einstellt, das Territorium des souveränen Staates Ukraine verlässt und diesen schändlichen Krieg beendet.

Wir bitten alle russischen Bürger, denen ihre Zukunft am Herzen liegt, sich der Friedensbewegung anzuschließen.

Wir sind gegen Krieg!


Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

https://rb.gy/ppxx09

(Bis jetzt : 1 071 Unterschriften)

Wir Absolventen der Philologiefakultät der Staatlichen Universität Moskau fordern ein sofortiges Ende des Krieges in der Ukraine.

Der Krieg wurde unter Verletzung aller denkbaren internationalen und russischen Gesetze begonnen.

Der Krieg hat bereits zahlreiche Opfer, darunter auch Zivilisten, gefordert und wird zweifellos weitere Opfer fordern.

Der Krieg spiegelt die Entwicklung einer Welt wider, wie sie vor vielen Jahren bestand.

Der Krieg führt zur internationalen Isolation Russlands, die gigantische wirtschaftliche und soziale Folgen haben wird und auch einen verheerenden Schlag der russischen Wissenschaft und Kultur versetzen wird.

Uns wurde beigebracht, Konflikte mit Worten zu lösen, nicht mit Waffen. Vor unseren Augen beginnt die russische Sprache weltweit als Sprache des Aggressors wahrgenommen zu werden, und wir wollen dies nicht auf uns nehmen.

Wir fordern eine sofortige Waffenruhe und eine diplomatische Lösung aller Probleme.


Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine

https://rb.gy/fphkqs

 (Bis jetzt : 3 321 Unterschriften)

Wir, Absolventen, Mitarbeiter und Studenten des Moskauer Instituts für Physik und Technologie, sind gegen den Krieg in der Ukraine und möchten an die Absolventen, Mitarbeiter und das Management des MIPT appellieren.

Seit vielen Jahren wird uns beigebracht, dass unser Institut eine Gemeinschaft ist, in der sich Physiker gegenseitig zu Hilfe kommen. Jetzt ist genau so ein Moment. Wir bitten Sie, Ihre Meinung offen zu äußern und nicht zu schweigen. Wir sind sicher, dass das MIPT diesen sinnlosen und empörenden Krieg nicht unterstützt. Einen Krieg auch gegen ehemalige und jetzige Studenten, MIPT-Mitarbeiter, deren Verwandte und Freunde.

Uns wurde gesagt, dass Physik- und Technologieabteilungen beispielgebend sind. Und wir fordern unser Institut auf, ein Beispiel für andere Universitäten und Organisationen zu werden und das Vorgehen der Führung des Landes und von Präsident Putin öffentlich zu verurteilen. Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Folgen einer Militärinvasion sind katastrophal für die Ukraine, für Russland und möglicherweise für die ganze Welt.

Wir bitten Sie, haben Sie keine Angst sich gegen einen schrecklichen Krieg auszusprechen und alles zu tun, um ihn zu stoppen.

Wir warten auf eine offene Stellungnahme des Managements und der offiziellen Vertreter.

Mit Hoffnung für die Welt


Ein offener Brief russischer Geographen gegen Militäroperationen in der Ukraine

https://rb.gy/cxml9v

  (Bis jetzt : 1 818 Unterschriften)

An Wladimir Putin, Präsident der Russischen Föderation

Wir, Bürger der Russischen Föderation, Geographen, Lehrer, Wissenschaftler, Studenten, Doktoranden und Absolventen, die diesen Appell unterzeichnet haben, sind uns unserer Verantwortung für das Schicksal unseres Landes bewusst und lehnen militärische Operationen auf dem Territorium des souveränen Staates Ukraine kategorisch ab. Wir fordern von allen Seiten einen sofortigen Waffenstillstand und den Abzug russischer Truppen auf russisches Territorium.

Wir halten es für unmoralisch, jetzt zu schweigen, wo jeden Tag und jede Stunde Menschen infolge von Feindseligkeiten sterben. Die Feindseligkeiten bedrohen so gefährdete Standorte wie das Kernkraftwerk Tschernobyl, Wasserkraftwerke am Dnjepr und die einzigartigen Biosphärenreservate der Ukraine. Im 21. Jahrhundert ist es nicht akzeptabel, politische Konflikte mit Waffen in der Hand zu lösen; alle Widersprüche innerhalb der Ukraine und zwischen unseren Staaten sollten nur durch Verhandlungen gelöst werden. Egal, was die Invasion russischer Truppen rechtfertigt, alle Russen und zukünftige Generationen von Russen werden dafür bezahlen.

Die Militäroperation macht die langjährigen Bemühungen von Geographen und anderen Experten zur Erhaltung von Landschaften, zur Bekämpfung des Klimawandels, zur Schaffung besonders geschützter Naturgebiete, zur Analyse und Planung der friedlichen territorialen Entwicklung der Volkswirtschaften Russlands und der Ukraine und ihrer grenzüberschreitenden Zusammenarbeit sinnlos . Wir können die Mission der Fortsetzung der friedlichen und harmonischen Entwicklung unseres Landes, seiner Integration in die Weltwirtschaft nicht aufgeben.

Wir wollen unter einem friedlichen Himmel leben, in einem weltoffenen Land und einer weltoffenen Welt, um die wissenschaftliche Forschung für den Frieden und das Wohlergehen unseres Landes und der ganzen Menschheit fortzusetzen.

Die Kämpfe müssen sofort eingestellt werden!


Lehrer gegen Krieg. Ein offener Brief russischer Lehrer gegen den Krieg auf dem Territorium der Ukraine

https://rb.gy/pogi8f

(Bis jetzt rund 4600 Unterschriften)

Jeder Krieg bedeutet Menschenopfer und Zerstörung. Er führt unweigerlich zu massiven Verletzungen der Menschenrechte. Krieg ist eine Katastrophe.

Der Krieg mit der Ukraine, der in der Nacht vom 23. Februar auf den 24. Februar begann, ist nicht unser Krieg. Die Invasion des ukrainischen Territoriums begann für russische Bürger, aber gegen unseren Willen.

Wir sind Lehrer und Gewalt widerspricht dem Wesen unseres Berufs. Unsere Studenten werden in der Hölle des Krieges sterben. Krieg wird unweigerlich zu einer Verschlimmerung der sozialen Probleme in unserem Land führen.

Wir unterstützen Anti-Kriegsproteste und fordern eine sofortige Waffenruhe.


Nachsatz 22.2.2024

Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher Falschinformationen über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. (https://orf.at/stories/3251037/) Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben wenige Stunden nach Erscheinen von einigen der zahlreichen Aufrufe im Blog sind diese bereits gelöscht oder blockiert:

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

Der Appell wurde (um 00:10, 5. März 2022) von mehr als 7.500 Absolventen, Mitarbeitern und Studenten der Staatlichen Universität Moskau unterzeichnet. Namensunterschriften werden vorübergehend ausgeblendet, stehen aber den Beschwerdeführern zur Verfügung.

------------------------------

Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

UPDATE VOM 03.05.2022 (21.43 Uhr Moskauer Zeit): Aus Angst, dass die Unterzeichner des Schreibens von den russischen Behörden verfolgt würden, habe ich als Initiator der Unterschriftensammlung beschlossen, sie zu verbergen. Alexander Berdichevsky, PhD, Jahrgang 2007.

-----------------------------------------

Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine https://rb.gy/fphkqs

Wir sind in Sorge um die Sicherheit derer, die diesen Brief unterzeichnet haben. Sie laufen Gefahr, unter ein neues Gesetz zu fallen, das die Diskreditierung des russischen Militärs und die Behinderung seines Einsatzes bestraft. Seine Verletzung ist mit Geld- und Freiheitsstrafen von bis zu 15 Jahren Gefängnis verbunden. Daher haben wir den Text des Schreibens gelöscht und das Aufnahmeformular geschlossen.

----------------------------------

Ein offener Brief gegen den Krieg [jetzt können wir nicht genau sagen, welcher] wurde von 5.000 russischen Lehrern unterzeichnet

Wir haben den vollständigen Text des Appells von russischen Lehrern entfernt, da am 4. März ein neues Gesetz verabschiedet wurde. Jetzt kann eine Person für Antikriegsappelle verwaltungs- oder strafrechtlich bestraft werden. Aber wir sind sicher, dass der Krieg eine Katastrophe ist und beendet werden muss.


 

inge Thu, 22.02.2024 - 17:03

Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt

Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt

Fr, 16.02.2024 — Redaktion

Redaktion

Icon Nahrung

Eine kürzlich publizierte Studie, die an den US-National Intitutes of Health (NIH) unter streng kontrollierten klinischen Bedingungen durchgeführt wurde, zeigt signifikante Auswirkungen einer Umstellung auf zwei gegensätzliche Ernährungsformen, auf die vegane oder die ketogene Diät. Neben einer Veränderung des Stoffwechsels und der Darmflora reagiert vor allem das Immunsystem schnell und unterschiedlich auf die veränderte Kost. So verstärkte die vegane Ernährung die Reaktionen der ersten unspezifischen Abwehr von Krankheitserregern - der angeborenen Immunantwort -, während die ketogene Ernährung eine Hochregulierung von Signalwegen und Zellen der später einsetzenden, erregerspezifischen adaptiven Immunantwort auslöste.

Unsere Ernährung hat weitreichende direkte Auswirkungen auf unsere Physiologie und auch indirekte infolge der unterschiedlichen Zusammensetzung des mit uns in Symbiose lebenden Mikrobioms und seiner Stoffwechselprodukte. Welche Ernährungsform aber welche Auswirkungen auf welche Vorgänge - beispielsweise auf unsere Immunantwort - hat, ist jedoch noch weitgehend unbekannt. Zu vielfältig sind die Ernährungsweisen, zu unterschiedlich die individuellen Reaktionen. Trotz einer im letzten Jahrzehnt ungemein boomenden Forschung - die US-Datenbank PubMed verzeichnet zu "diet & health" fast 130 000 Publikationen, davon rund 10 100 zu "diet & immune system" - mangelt es an qualitativ hochwertigen Studien, vor allem an rigoros konzipierten klinischen Studien zu den Auswirkungen einzelner Diäten und noch viel mehr zum Vergleich von Diäten.

Welche Folgen kann aber der nun weltweit steigende Trend zu einer pflanzenbasiertetn Ernährungsform haben?

Eine randomisierte klinische Studie zum Vergleich zweier Diäten ....

Ein Forscherteam um Yasmine Belkaid vom National Institute of Allergy and Infectious Diseases (NIAID, NIH)) in Bethesda/Maryland hat nun in einer randomisierten klinischen Studie die Auswirkungen von zwei gegensätzlichen Ernährungsformen - einer ketogenen Diät und einer veganen Diät auf Immunsystem, Mikrobiom und Stoffwechsel untersucht. Erstmals konnte mit Hilfe eines Multiomics-Ansatzes (d.i . der Analyse von Transcriptom, Proteom, Metabolom und Mikrobiom; siehe weiter unten) ein detailliertes Bild von den mit den Diätumstellungen verbundenen Veränderungen auf menschliche und mikrobielle Systeme gegeben werden. Die wesentlichen Ergebnisse sind zusammen mit einem ausführlichen Datenmaterial kürzlich im Fachjournal Nature Medicine erschienen [1].

Beide Arten der Ernährung wurden in der Vergangenheit mit unterschiedlichen gesundheitlichen Vorteilen assoziiert: vegane Kost mit weniger Entzündungserkrankungen, einem reduziertem Risiko für Herz-Kreislauferkrankungen und einer insgesamt höheren Lebenserwartung; ketogene Kost mit positiven Effekten auf das Zentralnervensystem (niedrigere Neuroinflammation und anti-epileptisch wirksam).

Die klinische Studie wurde an einer heterogen zusammengesetzten Gruppe von 20 Teilnehmern ausgeführt. Es handelte sich dabei um gesunde Männer und Frauen im Alter von 18 - 50 Jahren mit konstantem Körpergewicht, die über die Versuchsdauer von 4 Wochen stationär in der Klinik (Metabolic Clinical Research Unit at the NIH Clinical Center) aufgenommen waren; dies ermöglichte den Forschern genau zu verfolgen, was die Probanden konsumierten.

Aufgeteilt auf 2 Gruppen begann die erste Gruppe mit einer zweiwöchigen veganen Diät und stieg dann sofort auf eine ketogene Diät um, während die zweite Gruppe mit einer ketogenen Diät anfing und auf eine vegane Diät umstieg. Abbildung 1. Die ketogene kohlenhydratarme Diät bestand zu 75.8% aus Fett, zu 10.0% aus Kohlenhydraten, die vegane, fettarme Diät zu 10.3% aus Fett und zu 75.2% aus Kohlenhydraten. Die ketogene Diät enthielt Produkte tierischen Ursprungs, einschließlich Fleisch, Geflügel, Fisch, Eier, Milchprodukten und Nüssen, die vegane Diät Hülsenfrüchte, Reis, Wurzelgemüse, Sojaprodukte, Mais, Linsen, Erbsen, Vollkornprodukte, Brot und Obst. Beide Diäten enthielten nicht-stärkehaltiges Gemüse (1 kg/Tag) und nur minimale Anteile an hochverarbeiteten Lebensmitteln; die vegane Kost war ballaststoffreicher und zuckerärmer als die ketogene Kost. Den Studienteilnehmern stand es frei so viel von den Speisen zu essen, wie sie wollten (nebenbei: von der ketogenen Kost wurde mehr konsumiert).

....mit Hilfe eines Multiomics Ansatzes .....

Die Auswirkungen der beiden Diäten wurden mit Hilfe eines "Multiomics"-Ansatzes untersucht. Dazu wurden Blut-, Urin- und Kotproben analysiert um die Gesamtheit der darin ersichtlichen Reaktionen des Körpers sowie des im Darm ansässigen/sezernierten Mikrobioms zu erfassen:

  • die biochemischen Reaktionen im Transkriptom (der mittels RNA-Sequenzierung erhaltenen Genexpression) und im Proteom (der Gesamtheit der in den Proben vorliegenden Proteine),
  • die Zusammensetzung der Blutkörperchen und des Mikrobioms und deren zelluläre Reaktionen,
  • die Reaktionen des Stoffwechsels im Metabolom (der Gesamtheit der Stoffwechselprodukte in den Proben) . Abbildung 1.

Abbildung 1: Schematische Darstellung des Versuchsaufbaus. Zwanzig Teilnehmer (Frauen pink, Männer blau) wurden in zwei Gruppen aufgeteilt , wobei Gruppe A mit einer zweiwöchigen veganen Diät begann und dann sofort auf eine ketogene Diät umstieg, während Gruppe B mit einer ketogenen Diät begann und auf eine vegane Diät umstieg. Blut-und Urinproben wurden unmittelbar vor der ersten Diät als Ausgangswert und am Ende der ersten und zweiten Diät entnommen. Im Blut erfolgten Analysen zur Proteinzusammensetzung (SomatLogic), Genexpression mittels RNA-Sequenzierung (RNA-seq), Zusammensetzung der Zellpopulation (Flow Cytometry) und Spiegel von Metaboliten (Metabolomics), Metabolitenspiegel wurden auch im Harn bestimmt. Für die Kot-Proben zur mikrobiologischen Metagenom-Sequenzierung (Microbiome) wurden die Daten an verschiedenen Tagen erhoben. (Quelle: Fig. 1a in Link, V.M. et al., Nat Med (2024) [1].Lizenz: cc-by. https://doi.org/10.1038/s41591-023-02761-2)

.....ermöglicht erstmals einen Blick auf das Gesamtbild der Auswirkungen

Das erstaunliche Ergebnis: Trotz der geringen Zahl der Teilnehmer, deren Verschiedenheit und der kurzen Beobachtungszeit hat die 2-wöchige kontrollierte Ernährungsintervention ausgereicht, um die Immunität des Wirts und die Zusammensetzung des Mikrobioms signifikant und - abhängig von der Diät - unterschiedlich zu beeinflussen.

Auswirkungen auf das Immunsystem

Die vegane Diät hat sich vor allem auf das angeborene Immunsystem ausgewirkt und Leukozyten und Signalwege (über Interferone) hochreguliert, die mit der antiviralen Immunität assoziiert sind. (Angeborene Immunität: die rasch einsetzende, unspezifisch wirkende erste Abwehrlinie, die in Form von Makrophagen, Granulozyten, dem Komplement und freigesetzten Signalmolekülen gegen Krankheitserreger vorgeht.)

Auch rote Blutkörperchen (Erythrocyten) gehören zu den wichtigen Modulatoren der angeborenen Immunität. Die vegane Ernährung hat deren Bildung (Erythropoiese) und den Stoffwechsel des Häm (dem Sauerstoff-transportierenden, farbgebenden Eisen-haltigen Komplex von Hämoglobin) deutlich erhöht (dies könnte auf den höheren Eisengehalt dieser Diät zurückzuführen sein).

Die ketogene Diät führte dagegen zu einem signifikanten Anstieg der biochemischen und zellulären Prozesse, die mit der adaptiven Immunität verbunden sind, einschließlich der Aktivierung von T-Zellen, der Anreicherung von B-Zellen und der Antikörper-produzierenden Plasmazellen. (Adaptive Immunität: die spezifisch wirkende zweite, viel später einsetzenden Abwehrlinie der Immunreaktion, in der B-Zellen Antikörper gegen Erreger freisetzen und T-Zellen diese direkt angreifen und Zytokine gegen diese sezernieren.)

Die beiden Diätformen zeigten unterschiedliche Auswirkungen auf insgesamt 308 mit Krebs assoziierte Signalwege und könnten so den Verlauf von Krebserkrankungen beeinflussen. Vegane Kost aktivierte 242 Signalwege (davon 4 in sehr hohem Ausmaß), ketogene Kost 66 Wege. Erste Hinweise sprechen dafür, dass ketogene Ernährung in Verbindung mit anderen Krebstherapien von Vorteil sein könnten.

Auswirkungen auf die Plasmaproteine

Die ketogene Diät wirkte sich stärker auf den Gehalt von Proteinen im Blutplasma aus als die vegane Diät. Von den rund 1300 im Proteom bestimmten Proteinen zeigten mehr als 100 veränderte Spiegel nach Umstellung von Normalkost auf die ketogene Kost, dagegen nur wenige nach der Umstellung auf vegane Diät. Bei den weiblichen Teilnehmern waren die Veränderungen nach einer ketogenen Diät wesentlich größer, was auf eine mögliche geschlechtsspezifische Reaktion auf die Diät hinweist. Zu diesen geschlechtsspezifischen Unterschieden in der Proteinhäufigkeit gehörten Proteine, die mit dem Glukosestoffwechsel sowie mit der Immunität in Verbindung stehen.

Auswirkungen auf das Mikrobiom

Die Ernährung ist der wichtigste Regulator des Mikrobioms und beeinflusst dessen Zusammensetzung und Funktion.

Beide Diäten haben zu Veränderungen in der Häufigkeit der Darmbakterienarten geführt, vor allem von Actinobacteria, Bacteroidetes, Proteobacteria und am stärksten von Firmicutes; insgesamt waren 26 Arten betroffen, 18 davon kamen bei veganer Diät häufiger vor.

Übereinstimmend mit der Diät waren die meisten, der nach einer veganen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von pflanzlichen Polysacchariden assoziiert, während die nach einer ketogenen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von sowohl pflanzlichen als auch tierischen Polysacchariden zu tun hatten.

Im Vergleich zur Ausgangsdiät und zur veganen Diät führte die ketogene Diät zu einer erheblichen Herunterregulierung des mikrobiellen Genvorkommens und dies spiegelte sich in der Herabregulierung zahlreicher mikrobieller Stoffwechselwege wider, wie der Biosynthese von 12 Aminosäuren (darunter essentielle und verzweigte Aminosäuren) und von 9 Vitaminen (darunter B1. B5 und B12).

Effekte auf die Blut- und Harnspiegel der Stoffwechselprodukte (Metaboliten)

Insgesamt wurden im Metabolom des Plasmas 860 Metabolite erfasst; 54 davon waren bei veganer, 131 bei ketogener Ernährung hochreguliert. Die betroffenen Metabolite und das Ausmaß ihrer geänderten Gehalte bieten zweifellos Raum für Hypothesen/Spekulationen zu Nutzen oder Schaden der einen oder anderen Art der Diät.

Die stärkste Veränderung erfuhren die Lipidspiegel.

Der Lipidstoffwechsel war in der Keto-Diät stark gesteigert, da in dieser kohlenhydratarmen Kost Lipide ja zur Energieversorgung der Zellen herangezogen werden. Im Einklang mit der fettreichen Kost, fanden sich mehr Lipide (81) angereichert im Plasma als bei der veganen Kost mit 22 Lipiden. Erhöht wurden bei der Keto-Diät die Gehalte an Lipiden mit gesättigten Fettsäuren, im Fall der veganen Diät waren es Lipide mit ungesättigten Fettsäuren.

Sowohl die ketogene als auch die vegane Kost war mit einem gesteigerten Stoffwechsel von Aminosäuren korreliert. War es bei der ketogenen Diät vor allem die Steigerung der Stoffwechselwege zur Nutzung der essentiellen Aminosäuren Valin, Leucin und Isoleucin, so war bei der veganen Kost der Metabolismus der Aminosäuren Alanin, Asparaginsäure, Glutaminsäure und Arginin erhöht.

Der Vergleich von Plasma- und Urinproben zeigte insgesamt 4 Signalwege, die in beiden Probenarten verstärkt waren: alle waren mit der Hochregulierung der Aminosäure- und Vitaminbiosynthese bei der ketogenen Ernährung korreliert.

Auswirkungen der beiden Diätformen, zusammengefasst

Abbildung 2: Eine Zusammenfassung der wesentlichen Veränderungen nach der Umstellung auf vegane oder ketogene Kost. Pfeile deuten Zunahme oder Abnahme von Reaktionswegen, Metaboliten und Zelltypen an. (Quelle: Fig. 5d in Link, V.M. et al., Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2. Lizenz cc-by)

Trotz der geringen Zahl an Teilnehmern und der Heterogenität ihrer Zusammensetzung ließen sich aus dem komplexen Datensatz von Proteinen, mikrobiellen Enzymen und Stoffwechselprodukten einige grundlegende Unterschiede in den Auswirkungen von veganer und ketogener Diät erkennen, die in Abbildung 2 zusammengefasst sind.

Von primärer Bedeutung sind die neu beschriebenen Effekte auf das Immunsystem: Bereits eine zwei Wochen dauernde Umstellung auf eine der beiden Diätformen reicht aus, um das angeborene oder das adaptive Immunsystem - also die primäre unspezifische Abwehr von Erregern oder die darauf folgende spezifische, über lange Zeit persistierende Abwehr - anzukurbeln.

Um herauszufinden, wie die Diätformen die Abwehr von Krankheitserregern im realen Leben beeinflussen - ob vegane Kost Ansteckung und Verlauf von Infektionen günstig beeinflussen kann und, ob ketogene Kost die Aussichten in der Krebstherapie verbessert -, sind epidemiologische Studien am Menschen und mechanistische Untersuchungen  an Tiermodellen erforderlich.


  [1) Link, V.M., Subramanian, P., Cheung, F. et al. Differential peripheral immune signatures elicited by vegan versus ketogenic diets in humans. Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2


 

inge Fri, 16.02.2024 - 18:15

Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Mo, 12.02.2024 — Inge Schuster

Inge SchusterIcon Gehirn

Erst vor wenigen Jahren wurden zwei Drainagesysteme entdeckt, die Abfallprodukte des Stoffwechsels aus dem Gehirngewebe ausschleusen können: das glymphatische System und ein Lymphsystem in den Hirnhäuten. Koreanische Forscher um Gou Young Koh haben nun eine wesentliche Komponente des Drainagesystems hinzugefügt: ein verschlungenes Netzwerk von Lymphgefäßen im hinteren Teil der Nase (der nasopharyngeale lymphatische Plexus), das eine entscheidende Rolle auf dem bislang unbekannten Weg des Liquorabflusses aus dem Gehirn spielt. Die Stimulierung des Liquorabflusses und damit der darin gelösten toxischen Proteine könnte eine neue erfolgversprechende Strategie zur Behandlung von bislang nur unzulänglich therapierbaren neurodegenerativen Erkrankungen sein.

"Wir sagen, dass wir Demenz verhindern können, wenn wir viel lachen oder viel reden. Das ist kein Scherz. Lachen und Sprechen stimulieren die Lymphgefäße und fördern den Abfluss des Liquors. Ich möchte ein Medikament oder ein Hilfsmittel entwickeln, das die Verschlimmerung von Demenz verhindern kann, indem ich die Forschungsergebnisse des Zentrums für Gefäßforschung nutze."

Gou Young Koh, Director, Center for Vascular Research, IBS

Eine Balance von Versorgung und Entsorgung

Unsere Organe sind auf die kontinuierliche, über den Blutstrom erfolgende Zufuhr von Nährstoffen angewiesen und ebenso auf den Abtransport von Abfallprodukten über das Lymphsystem. Dieses dichte Netzwerk aus verästelten Lymphgefäßen durchzieht unsere Gewebe und fungiert als Drainagesystem. Es verhindert, dass aus den Blutkapillaren in den extrazellulären Raum der Gewebe (das Interstitium) austretende größere Moleküle (vor allem Plasmaproteine), überschüssige Gewebsflüssigkeit, Immunzellen, Abbauprodukte von Zellen ebenso aber auch Partikel und Mikroorganismen sich dort ansammeln. Diese Stoffe treten durch die durchlässigen Wände in Lymphkapillaren ein und werden in der Lymphflüssigkeit durch die Lymphknoten hindurch wieder dem Blutkreislauf und der Ausscheidung zugeführt.

Wie entsorgt das Gehirn seine Abfallprodukte?

Das Gehirn unterscheidet sich von den peripheren Organen u.a. dadurch, dass eine sogenannte Blut-Hirn-Schranke den unkontrollierten Eintritt von Proteinen, Partikeln und Flüssigkeit in das Organ verhindert. Auf Grund des enorm hohen Stoffwechsels - bei rund 2 % unseres Körpergewichts benötigt das Gehirn 20 % des in den Organismus gepumpten Blutes zu seiner Versorgung - entstehen reichlich Abfallprodukte, die in das Interstitium des Gehirngewebes (des Parenchyms) abgegeben werden. Zu solchen Produkten zählen auch fehlgefaltete/aggregierte Proteine, deren Akkumulierung im Gehirngewebe schwere Schädigungen des Nervensystems auslösen kann. Derartige toxische Produkte sind ein gemeinsames Merkmal von neurodegenerativen Erkrankungen, wie der Alzheimer-Krankheit, Parkinson-Krankheit, Huntington-Erkrankung und der amyotrophen lateralen Sklerose.

Bis vor wenigen Jahren rätselte man, wie Abfallprodukte, insbesondere toxische Proteine, aus dem Gehirn ausgeschleust werden können. Die vorherrschende Lehrmeinung besagte ja, dass das Gehirn über kein Lymphdrainagesystem verfügt. Dass dieses Dogma falsch war, wurde 2012 und 2015 durch Studienbewiesen. Demzufolge verfügt das Gehirn sogar über zwei Systeme zum Transport von Abfallprodukten [1]:

Das glymphatische System ...

bewirkt, dass der Liquor (Cerebrospinalflüssigkeit: CSF) das Gehirn durchströmt und sich mit der interstitiellen Flüssigkeit (ISF) und den darin gelösten Stoffen austauscht.

Abbildung 1: Das glymphatische System. Wie Liquor, interstitielle Flüssigkeit und darin gelöste Abfallprodukte im Hirn zirkulieren. A. Liquor fließt über periarterielle Räume, gebildet von den Endfortsätzen von Gliazellen (Astrozyten) ins Gehirn; Wasserkanäle (Aquaporin 4) der Gliazellen regen hier den Austausch von Liquor und interstitieller Flüssigkeit mit den darin gelösten Abfallprodukten an und treiben diese in den abfließenden perivenösen Raum. B. Die perivenöse Flüssigkeit und die gelösten Stoffe fließen dann über große Venen aus dem Gehirn ab, dargestellt am Beispiel eines Mäusehirns . Aus dem subarachnoidalen Liquor können gelöste Stoffe (wie Amyloid-β) den Schädel u.a. über Lymphgefäße der Hirnhäute verlassen. (Abbildung unverändert übernommen aus: Leveaux et al., 2017 [1]. Lizenz cc-by)

Liquor wird kontinuierlich in den Hirnkammern (Ventrikeln) gebildet (etwa 500 ml/Tag), füllt diese und ein Teil gelangt auch in den spaltförmigen Subarachnoidalraum, der zwischen der mittleren Hirnhaut (Arachnoidea mater) und der inneren Hirnhaut (Pia mater) liegt.

Von hier durchfließt der Liquor perivaskulär - d.i. in einem engen, durch die Endfüßchen von Gliazellen (Astrozyten) um die arteriellen Blutgefäße gebildeten Transportraum - das Gehirn (Abbildung 1 A).

Der Austausch von gelösten Stoffen zwischen Liquor und ISF wird in erster Linie durch den arteriellen Pulsschlag gesteuert, wobei die von Gliazellen in den Endfortsätzen exprimierten Wasserkanäle (Aquaporine) essentiell involviert sind. Das Pulsen von Liquor in das Gehirngewebe treibt die Flüssigkeit und die darin gelösten Stoffe in Wellen durch den extrazellulären Raum in die perivenösen Räume. Von hier gelangen sie in wieder in den subarachnoidalen Liquor, können in Lymphgefäße in den Hirnhäuten eintreten und über diese den Schädel verlassen (Abbildung 1 B).

... aktiviert "Gehirnwäsche" im Schlafzustand

Eine besonders wichtige Entdeckung im Jahr 2013 zeigt, dass das glymphatische Transportsystem im Schlafzusstand aktiviert ist [2]: während des Schlafens dehnt sich der extrazelluläre Raum im Hirngewebe um 60 % aus. Dies führt zu einem stark gesteigerten Austausch von Liquor - ISF Austausches und damit zu einer erhöhten Rate der Beseitigung von Abfallprodukten - beispielsweise von Beta-Amyloid, Tau-Protein oder alpha Synuclein - gegenüber dem Wachzustand gesteigert.

Das in den Hirnhäuten lokalisierte Lymphsystem

Abbildung 2: 3D-Darstellung des humanen Lymphsystems (dkl.blau) in der Dura mater. Erstellt aus MRI-Aufnahmen an einer gesunden, 47 Jahre alten Frau (Quelle: Kopie aus [3]; das Bild stammt aus https://elifesciences.org/articles/29738. Lizenz cc-by)

Erst 2015 gelang erstmals der Nachweis von Lymphgefäßen in der äußeren Hirnhaut - der Dura Mater - von Mäusehirnen; diese sehr schwer detektierbaren Gefäße wurden mit ausgeklügelten MRT-Techniken nicht-invasiv zwei Jahre später auch in der Dura Mater des Menschen festgestellt (dazu eine ausführlichere Darstellung im ScienceBlog [3]).

Ebenso wie im peripheren Lymphsystem verlaufen die meningealen (Meninges = Hirnhäute) Lymphgefäße entlang der Blutgefäße, sind aber weniger dicht und verästelt angelegt. Abbildung 2.

Die Lymphgefäße drainieren überschüssige Flüssigkeit und Stoffwechselprodukte der Hirnhäute, transportieren ebenso Immunzellen und dazu - im Anschluss an das glymphatische System - die Mischung aus Liquor und ISF mit den darin gelösten Abfallprodukten des Hirngewebes.

Der nasopharyngeale lymphatische Plexus

Dass das meningeale Lymphsystem schlussendlich zu den tiefen Halslymphknoten außerhalb des Schädels drainiert, ist evident, nicht klar war aber auf welchen Wegen der Abfluss stattfindet und wie er reguliert wird . Ein Team um Gou Young Koh, einem Pionier der Gefäßforschung, Gründungsdirektor und Direktor des Zentrums für Gefäßforschung am Institute for Basic Schiene (IBS) in Daejeon, Korea, hat nun eine entscheidende Schaltstelle auf diesem Weg entdeckt [4].

Das Forscherteam hat dazu transgene Mäuse mit fluoreszierenden Markern zur Sichtbarmachung der Lymphgefäße eingesetzt und die Liquor-/Lymphwege mittels ausgefeilten histologischen, biochemischen und bildgebendern Verfahren untersucht. Um festzustellen, ob die Ergebnisse an der Maus auch für Primaten Relevanz haben, wurden auch einige Versuche am Nasopharynx von Affen (Macaca fascicularis) angestellt.

Die Studie wurde kürzlich im Fachjournal Nature publiziert, die Bedeutung der Ergebnisse ist am Titelblatt des Journals durch ein ganzseitiges Bild zum "Brain Drain" hervorgehoben [4].

Abbildung 3: Schematische Darstellung der Lymphregionen 1, 2 und 3, die über den nasopharyngealen Lymphgefäßplexus (NPLP) zu den medialen tiefen Halslymphgefäßen und den tiefen Halslymphknoten drainieren, Oben: Versuche an Mäusen. Die in den NPLP drainierende Lymphregion 1 umfasst Lymphgefäße in der Nähe der Hypophyse und des Sinus cavernosus liegen. Lymphregion Nr. 2 umfasst Lymphgefäße im vorderen Bereich der basolateralen Dura in der Nähe der mittleren Meningealarterie und des Sinus petrosquamosus (PSS), die entlang der Arteria pterygopalatina (PPA) zum NPLP verlaufen. Die ableitende Lymphregion 3 umfasst Lymphgefäße in der Nähe des Siebbeins (cribriform plate), die zu Lymphgefäßen in der Riechschleimhaut drainieren und zum NPLP führen. Lymphgefäße in der hinteren Region der basolateralen Dura leiten um den Sinus sigmoideus allerdings nicht in den NPLP, sondern durch das Foramen jugulare über die seitlichen tiefen Halslymphgefäße, zu den tiefen Halslymphknoten.(Quelle: Ausschnitt aus Fig. 3 Nature (2024). DOI: 10.1038/s41586-023-06899-4; Lizenz cc-by) Unten: Basierend auf den Ergebnissen an Mäusen und Makaken ist die angenommene Drainierung von Liquor über das nasopharyngeale Lymphgeflechts beim Menschen zu den tiefen zervikalen Lymphgefäßen und Lymphknoten skizziert. (Credit: Institute of Basic Science)

An Hand von vielen hervorragenden fluoresenzmikroskopischen Bildern zeigt die Studie im hinteren Teil der Nase, dem Nasopharynx (Rachenraum), ein wie ein Spinnennetz verschlungenes Netzwerk von Lymphgefäßen, den nasopharyngealen lymphatischen Plexus (NPLP), der als wesentlicher Knotenpunkt für den Abfluss von Liquor zu den tiefen Halslymphknoten im Nacken fungiert. In dem, sich von der Schädelbasis bis zum weichen Gaumen des Mundes erstreckenden Nasopharynx, reicht das Netzwerk der Lymphgefäße bis zur Gehirnbasis; diese vereinigen sich dann zu einigen wenigen Lymphgefäßsträngen, die mit den Halslymphknoten verbunden sind. Aus drei Regionen des Gehirns wird Liquor über Lymphgefäße in der Dura mater in den NPLP abgeleitet und drainiert von dort über die tiefen Halslymphgefäße in die tiefen Halslymphknoten.

Nur das Lymphgefäß in den Hirnhäuten der seitlichen Schädelbasis entsorg auf einem anderen Weg - über die seitlichen Halslymphgefäße - in den tiefen Halslymphknoten. Abbildung 3 (oben) gibt einen Überblick über die Abflusswege (leider nicht für rasches Überfliegen geeignet).

Die Ähnlichkeit des lymphatischen Netzwerks im Nasopharynx von Maus und Affe und seiner Funktion, lässt auf eine Konservierung dieses Drainagesystem bei den Spezies und damit auch auf sein Vorkommen und seine Rolle in der Entsorgung von Abfallprodukten des Gehirns beim Menschen schließen (Abbildung 3, unten).

Aktivierung der tiefen Halslymphgefäße

Ein sehr wichtiger Befund der Studie: die tiefen Halslymphgefäße sind von glatten Muskelzellen umhüllt, die pharmakologisch moduliert werden können, sodass sie die Gefäße zusammendrücken oder erweitern und damit den Liquorfluss regulieren.

Die Forscher haben dies demonstriert: mit Natriumnitroprussid (das Stickstoffmonoxid - NO -  freisetzt) konnte eine Muskelentspannung und damit eine Gefäßerweiterung bewirkt werden, mit Phenylephrin - einem Adrenalin-Analogon - eine Gefäßkontraktion.

Diese pharmakologischen Auswirkungen blieben auch bei alten Mäusen aufrecht, während das Lymphgeflecht im Nasopharynx geschrumpft war, und die Drainage von Liquor abgenommen hatte.

Die Aktivierung der tiefen Halslymphgefäße könnte somit zu einer erfolgversprechende Strategie werden, um bei neurodegenerativen Erkrankungen den Abfluss von Liquor und damit von toxischen Abfallprodukten zu steigern.


 [1] A. Leveaux et al., Understanding the functions and relationships of the glymphatic system and meningeal lymphatics. Clin Invest. 2017 Sep 1; 127(9): 3210–3219. Published online 2017 Sep 1. doi: 10.1172/JCI90603

[2] L.Xie et al., Sleep Drives Metabolite Clearance from the Adult Brain. Science. 2013 Oct 18; 342(6156): 10.1126/science.1241224. doi: 10.1126/science.1241224

[3] Redaktion, 10.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.

[4] Yoon, JH., et al., Nasopharyngeal lymphatic plexus is a hub for cerebrospinal fluid drainage. Nature 625, 768–777 (2024). https://doi.org/10.1038/s41586-023-06899-4


Aus dem Center for vascular Research (Korea)

Homepage des Center for Vascular Research at the Institute for Basic Science (Korea): https://vascular.ibs.re.kr/

Rezente Artikel im Online Magazin (2023) IBS Research 20th.pdf:

Seon Pyo HONG, Why We Focus on Vessels

Koh Gou Young, The Key to Solving Degenerative Brain Disease: Vessels


 

inge Mon, 12.02.2024 - 17:09

Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm auf

Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm auf

Mo, 05.02.2024 — Inge Schuster

Inge SchusterIcon Gehirn

Nachdem fast 20 Jahre lang keine neuen Alzheimer-Medikamente den Markt erreicht hatten, erhielt 2021 der Anti-Amyloid Antikörper Aduhelm des US-Biotechkonzerns Biogen als erster Vertreter einer neuen Klasse von Therapeutika die Zulassung durch die US-Behörde FDA. Dass die Entscheidung trotz des Fehlens eindeutiger Nachweise der Wirksamkeit und des Auftretens bedenklicher Nebenwirkungen erfolgte, löste enorme Kritik aus und das von skeptischen Ärzten kaum verschriebene Präparat wurde zum Flop. Vor 5 Tagen hat Biogen nun mitgeteilt, dass Entwicklung und Vermarktung von Aduhelm einstellt gestellt wird und freiwerdende Ressourcen nun seunem zweiten (im Juli 2023 registrierten) Anti-Amyloid -Antikörper Leqembi (Lecanemab) gewidmet werden sollen.

Für den US-Biotechkonzern Biogen war Aduhelm die bahnbrechende Entdeckung, die den Weg für eine neue Klasse von Medikamenten in der Alzheimer -Therapie ebnete und Forschung und nötige Investitionen in diesem Bereich wieder möglich machte. Waren die bis jetzt wenigen verfügbaren Therapien bestenfalls geeignet Symptome der Alzheimer-Krankheit etwas abzumildern, so sollte nun erstmals der (?) zugrundeliegende Krankheitsprozess beeinflusst werden.

Beta-Amyloid als Target für Alzheimer-Therapeutika

Ein zentrales Element der Erkrankung ist die massive Ablagerung von unlöslichen Protein-Plaques zwischen den Nervenzellen; diese lösen eine Kaskade von pathophysiologischen Ereignissen aus: Schädigungen von Nervenzellen und deren Funktionen, Unterbindungen der Nervenverbindungen und schlussendlich Absterben der Nervenzellen. Wie heute mittels der nicht-invasiven Positronen-Emissionstomographie (PET) gezeigt werden kann, sind solche Plaques bereits Jahre, bevor noch die ersten Symptome auftreten, nachweisbar.

Die Zusammensetzung der Plaques wurde schon vor 40 Jahren aufgeklärt: Sie bestehen aus aggregierten, etwa 40 Aminosäuren langen Beta-Amyloid- Peptidketten, die aus dem Vorläufer-Protein Amyloid-Precursor -Protein (APP) abgespalten werden, das in vielen Körperzellen, insbesondere an den Synapsen der Nervenzellen exprimiert ist. Abbildung 1.

Abbildung 1: Bildung von Beta-Amyloid-Plaques. Enzyme wirken auf das in den Zellmembranen sitzende Amyloid-Vorläuferprotein ein und zerschneiden es in Fragmente. Zu den Bruchstücken gehören die etwa 40 Aminosäuren langen Beta-Amyloidpeptide (gelb), die im extrazellulären Raum zu unlöslichen Plaques aggregieren können. (Bild: http://www.nia.nih.gov/Alzheimers/Resources/HighRes.htm, gemeinfrei)

Seit mehr als 30 Jahren gehört Hemmung der Bildung von Amyloid-Aggregaten/Auflösung der Amyloid-Plaques zu den wichtigen Strategien in Forschung und Entwicklung von Alzheimer-Therapeutika. Laut der kuratierten Datenbank von Alzforum (https://www.alzforum.org/therapeutics) sind bis jetzt insgesamt 314 unterschiedliche Target-Typen in Tausenden klinischen Studien geprüft worden, 81 dieser Targets beziehen sich auf Beta-Amyloid, 9 davon sind Antikörper gegen Beta-Amyloid.

Die Ausbeute an registrierten Präparaten ist äußerst ernüchternd: seit den 1990-er Jahren wurden insgesamt nur 9 Medikamente zugelassen, davon 2 mit Bezug auf Amyloid-Beta (bei beiden handelt es sich um Antikörper gegen Beta-Amyloid). Abbildung 2.

Die Misserfolgsquote von über 97 % ist damit bedeutend höher als für Pharmaka in anderen Indikationen, wo 5 % (im Tumorgbiet) bis 10 % derer, die in die klinische Phase gelangen, auf dem Markt landen.

Abbildung 2: Alle bisherigen Alzheimer Targets, die in die klinische Entwicklung gelangten (314), etwa ein Viertel davon (81) betreffen die Blockierung/Auflösung der Amyloid-Plaques.(Grafik aus den Daten vom Alzforum erstellt; https://www.alzforum.org/therapeutics.)

Neben der marginalen Erfolgsrate ist auch die Wirksamkeit der registrierten Präparate bescheiden: sie können den fortschreitenden kognitiven Abbau etwas verlangsamen, nicht aber stoppen oder gar rückgängig machen.

Die Aduhelm-Saga

Nachdem fast 20 Jahre lang die Entwicklung von Alzheimer-Therapeutika nur Misserfolge gezeitigt hatte, wurde im Juli 2021 von der US-amerikanischen Food and Drug Administration (FDA) ein neues Präparat - Aduhelm (Aducanumab) - zugelassen, genauer gesagt: Aduhelm erhielt eine beschleunigte Zulassung unter der Voraussetzung, dass eine Phase 4 -Studie die klinische Wirksamkeit des Medikaments bestätigen würde und die Anwendung sich auf Patienten in frühem Krankheitsstadium mit milden Symptomen beschränkte.

Forschung und Entwicklung von Aduhelm

Aduhelm ist eine Entdeckung des Schweizer Biotech-Unternehmens Neurimmune, eines Spin-offs der Universität Zürich, das um das Jahr 2000 schützende Anti-Amyloid-Antikörper bei gesunden älteren Menschen und Patienten mit langsam fortschreitender Demenz entdeckte und daraus den monoklonalen humanen Antikörper Aduhelm entwickelte [1].

Dieser Antikörper bindet spezifisch an eine Stelle (Epitop) des Amyloids in den Geweben der Patienten. Intravenös verabreicht passiert Aduhelm die Blut-Hirn-Schranke, bindet an das Beta-Amyloid im Gehirn und löst damit Immunreaktionen aus, die die Amyloid-Ablagerungen auflösen und beseitigen.

2007 hat Neurimmune den Antikörper an das US-Biotechunternehmen Biogen - einem Pionier in der Alzheimer-Forschung - auslizensiert, der diesen dann - zusammen mit dem japanischen Konzern Eisai - präklinisch und klinisch entwickelte.

In einer Studie im Jahr 2016 konnte mit Hilfe der Positron Emission Tomographie (PET) gezeigt werden, dass der Antikörper dosis- und zeitabhängig die Beta-Amyloid-Ablagerungen auflöste - nicht gezeigt wurde aber, wieweit die Reduktion der Plaques mit einer besseren kognitiven Leistung korrelierte.

Bezüglich der kognitiven Leistung lieferten 2019 zwei große klinische Studien an Patienten mit leichten Symptomen im frühen Stadium der Alzheimer-Krankheit widersprüchliche Ergebnisse: Obwohl die Behandlung mit Aduhelm die Amyloid-Ablagerungen stark reduzierte, konnte in einer der Studien (ENGAGE) keine Verbesserung der Gedächtnisleistungen im Vergleich zur Plazebogruppe gezeigt werden. In der zweiten Studie (EMERGE) war nach Auswertung weiterer Daten ein leichter Unterschied (18 - 22 % verlangsamte Verschlechterung gegenüber der Kontrollgruppe) in der hochdosierten Medikamentengruppe zu sehen. Die Reduktion der Plaques rief bei bis zu einem Drittel der Patienten Nebenwirkungen hervor, die im Gehirnscan als Schwellungen und Mikroblutungen des Gehirns erkennbar waren (sogenannte Amyloid-bedingte Bildgebungsanomalien (ARIA)) und in einigen Fällen schwerwiegende Folgen hatten.

Eine umstrittene Zulassung

2020 haben Biogen/Eisai den Zulassungsantrag bei der FDA eingereicht.

Die wissenschaftlich hochrangigen Mitglieder eines unabhängigen Beratergremiums der FDA haben wegen des Fehlens eindeutiger Wirksamkeitsnachweise und bedenklicher Sicherheitsaspekte gegen die Zulassung gestimmt. Die FDA hat dennoch am 7. Juni 2021 für eine beschleunigte Zulassung entschieden, wobei sie den Nachweis der Plaque-Reduktion durch Aduhelm als Surrogatmarker - Ersatzmesswert - für die wahrscheinliche Wirkung am Patienten akzeptierte. Der FDA schien es wichtig, dass nach fast 20 Jahren von Misserfolgen nun mit Aduhelm der erste Vertreter einer neuen Klasse von Alzheimer-Therapeutika registriert wurde.

Viele Experten haben die Zulassung als eine der schlechtesten Entscheidungen der FDA bezeichnet. Die Zulassung stieß auch auf heftige Kritik vieler Organisationen wie beispielsweis des amerikanischen Konsumentenschutzes ("Die Entscheidung zeigt eine rücksichtslose Missachtung der Wissenschaft und schadet der Glaubwürdigkeit der Behörde"), ebenso wie der Medien (New York Times: "How Aduhelm, an Unproven Alzheimer's Drug, Got Approved").

Angesichts einer fragwürdigen Wirksamkeit und mangelnder Sicherheit verweigerte die Europäische Arzneimittel-Agentur (EMA) jedenfalls die Zulassung.

Aduhelm wird ein Flop...

Biogen hatte anfänglich den Preis des Medikaments auf 56.000 US-Dollar pro Jahr und Patient festgesetzt und später auf die Hälfte reduziert. Der hohe Preis und die Skepsis gegen das Medikament führten zu viel, viel weniger Verschreibungen als Biogen erwartet hatte. Dazu kam, dass dies US-Krankenversicherung Medicare die Erstattung auf Patienten beschränkte, die an klinischen Studien teilnahmen. Biogen konnte damit nur einen Bruchteil der erwarteten Umsätze einfahren.

Die Firma hat nun die klinische Studie ENVISION, mit der sie den von der FDA geforderten Wirksamkeitsnachweis erbringen wollte, weitere Entwicklungsarbeiten und das Marketing gestoppt und die Rechte an Aduhelm dem ursprünglichen Entdecker Neurimmune zurückgegeben.

... Nachfolger Leqembi bereits vorhanden

Dieser Schritt war offensichtlich nicht nur dem schlechten Abschneiden von Aduhelm geschuldet: Zusammen mit Eisai hatte Biogen ja mit Leqembi (Lecanemab) bereits einen Nachfolger mit besseren Erfolgsaussichten entwickelt. Dessen Wirksamkeit - eine bescheidene Verlangsamung des kognitiven Abbaus um 27 % - bei Patienten im frühen Stadium der Erkrankung (Studie CLARITY AD) reichte der FDA, um Leqembi 2023 als zweiten Amyloid-Antikörper zuzulassen - allerdings mit einer Black-Box-Warnung (das bedeutet: das Medikament kann ernste bis lebensbedrohende Nebenwirkungen ausllösen), da auch Leqembi die von Aduhelm bekannten Nebenwirkungen, Amyloid-bedingte Bildgebungsanomalien, hervorruft.

Leqembi gilt als Hoffnungsträger, da derzeit keine Therapie am Markt ist, die den Krankheitsprozess umkehreren/stoppen kann oder zumindest einen günstigeren Verlauf verspricht. Allerdings steht nun offensichtlich ein neuer Amyloid-Antikörper - Donanemab - des Pharmakonzerns Eli Lilly vor der Zulassung. Von Donanemab liegen als ausreichend eingestufte Wirksamkeitsdaten vor; allerdings ruft das Präparat - ebenso wie Aduhelm und Leqembi (und andere bis jetzt untersuchte Amyloid-Antikörper) - die auf Amlyoid-zurückführbaren Nebenerscheinungen - Gehirnschwellung en und Mikroblutungen - hervor.

Um der Konkurrenz zu begegnen, muss sich Biogen anstrengen und nun voll auf die Vermarktung von Leqembi konzentrieren.

Nachsatz

Ob die neuen Präparate die Alzheimer-Therapie revolutionieren werden, ist ungewiss. Das behandelbare Patientenkollektiv beschränkt sich (derzeit) ja nur auf Erkrankte im Frühstadium, die dazu auch u.a. mittels Gehirnscans selektiert und dann überwacht werden müssen, um die Amyloid-bedingten Nebenwirkungen möglichst gering zu halten. Da es derzeit keine Medikamente am Markt gibt, die Alzheimer heilen oder den Verlauf günstig modifizieren können, werden wohl viele dieser Patienten zu dem "Strohhalm" der Anti- Amyloid-Antikörper greifen und hoffen damit das Fortschreiten der Erkrankung längerfristig aufhalten zu können.


[1] Ch. Hock et al., Antibodies against Slow Cognitive Decline in Alzheimer’s Disease. Neuron, Vol. 38, 547–554, May 22, 2003.


Die Alzheimer-Erkrankung im ScienceBlog

Inge Schuster, 14.08.2022: Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Irina Dudanova, 23.09.2021: Wie Eiweißablagerungen das Gehirn verändern

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Inge Schuster, 24.06.2016: Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz, 03-07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich


 

inge Mon, 05.02.2024 - 12:00

Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an

Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an

Do, 25.01.2024 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Krebs im frühen Stadium zu erkennen und zu behandeln kann die Erfolgsaussichten für Patienten bedeutend verbessern. Eine neue Entwicklung zur möglichst frühen Erkennung von möglichst vielen Arten von Krebserkrankungen sind Multi-Cancer-Early-Detection (MCED) Tests, auch als Flüssigbiopsie bezeichnete Tests, die von Krebszellen ins Blut (und andere Körperflüssigkeiten) abgesonderte biologische Substanzen wie Tumor-DNA oder - Proteine messen. Wie großangelegte neue Untersuchungen zeigen, lassen MCED-Testes Rückschlüsse auf mehr als 50 unterschiedliche Tumoren - darunter viele seltene Krebsarten, die oft viel zu lange unentdeckt bleiben - und den Ort ihrer Entstehung zu. Die Genetikerin Rick Lewis berichtet über das vielversprechende Potential dieser neuen Bluttests.*

Eine 52-jährige Frau ist bei ihrer jährlichen ärztlichen Untersuchung. Der Arzthelfer erwähnt, dass er zwei zusätzliche Blutkonserven für neue Krebsfrüherkennungstests benötigt, von denen einer gerade von der FDA zugelassen wurde und der andere im Rahmen einer klinischen Studie verfügbar ist.

"Aber ich bekomme bereits Mammographien und Darmspiegelungen aufgrund der Familienanamnese, und mein Mann wird jedes Jahr auf Prostatakrebs untersucht. Warum brauche ich diese neuen Tests?", fragt die Patientin.

"Diese können Krebserkrankungen viel früher erkennen, und zwar anhand der DNA und der Proteine in Ihrem Plasma, also dem flüssigen Teil des Bluts. Da sind auch Krebsarten dabei, die viel seltener sind als Brust-, Dickdarm- und Prostatakrebs."

"OK", sagt die Patientin und krempelt einen Ärmel hoch. Sie würde zu den Ersten gehören, die sich der "Multi-Krebs-Früherkennung" (MCED) unterziehen - einem Bluttest, der Hinweise darauf findet, dass Krebszellen in den Blutkreislauf gelangt sind. Eine im frühen Stadium begonnene Behandlung hat eine höhere Erfolgswahrscheinlichkeit. Ein MCED-Bluttest könnte ein Gamechanger für Menschen sein, die noch nicht symptomatisch an Krebs erkrankt sind.

Eine Flüssigbiopsie

Krebserkrankungen sind für 1 von 6 Todesfällen verantwortlich; nur etwa 40 Prozent werden früh genug erkannt, um erfolgreich therapiert zu werden. Bei einer Mammographie wurde mein Brustkrebs frühzeitig entdeckt; ein Arzt, der eine Beule in meinem Hals bemerkte, fand Schilddrüsenkrebs.

Für diejenigen, die an Krebs erkrankt waren, kann mittels einer "Flüssigbiopsie" auf ein Rezidiv - die Rückkehr der Erkrankung - geschlossen werden; dabei wird eine Körperflüssigkeit - in der Regel Blut, aber möglicherweise auch Urin, Sputum oder Kot - auf winzige DNA-Stücke untersucht, die krebsverursachende Mutationen enthalten. Die Forschung an solchen Flüssigbiopsien begann vor drei Jahrzehnten.

Die DNA-Schnipsel werden als "zellfrei zirkulierende DNA" oder cfDNA bezeichnet. Durch Überlagerung der Fragmente lässt sich die gesamte Genomsequenz der im Blutkreislauf enthaltenen Krebszellen wieder zusammensetzen und daraus Mutationen identifiziert werden. Darüber hinaus kann die Expression von Krebsgenen (ob es nun eingeschaltete oder ausgeschaltete Gene sind) aus den Methylierungsmustern - Methylgruppen, die an der DNA kleben - abgeleitet werden. Bei Krebs kann ein Tumorsuppressor-Gen mit Methylgruppen umhüllt und stillgelegt (silenced) werden und damit seine Funktion als Tumor-Unterdrücker verlieren. Oder ein Onkogen kann durch den Wegfall von Methylgruppen aktiviert werden und Krebs verursachen.

Eine Flüssigbiopsie - eben nur ein Bluttest - ist viel weniger schmerzhaft und invasiv als eine herkömmliche chirurgisch erhaltene Biopsie, bei der Krebszellen aus einem festen Tumor entnommen werden. Und eine Tumor-DNA ist spezifischer als ein Protein-Biomarker, der auch auf gesunden Zellen vorhanden sein kann, auf Krebszellen aber häufiger vorkommt.

Flüssigbiopsien haben bislang ihren Fokus auf Menschen gerichtet, die bereits an Krebs erkrankt waren, um ein Wiederauftreten des Tumors zu erkennen oder das Ansprechen auf die Behandlung zu überwachen. Der Heilige Gral ist aber der Einsatz bei Menschen, die weder an Krebs erkrankt waren noch sich aufgrund von Risikofaktoren wie Alter oder Familiengeschichte anderen Untersuchungen wie beispielsweise dem PSA-Test unterziehen müssen. Eierstockkrebs ist das klassische Beispiel. Er wird oft erst spät diagnostiziert, weil  Verdacht erweckende Anzeichen - Blähungen und Müdigkeit - vage sind und häufig auftreten und leicht auf etwas Harmloses wie eine Umstellung der Ernährung oder des Sportprogramms zurückgeführt werden.

MCED-Bluttests sind besonders vielversprechend für die vielen seltenen Krebsarten, die oft viel zu lange unentdeckt bleiben. Sie werden wahrscheinlich auch ältere Screening-Methoden in Bezug auf Sensitivität (alle an Krebs Erkrankten werden als krank identifiziert) und Spezifität (alle nicht an Krebs Erkrankten werden als gesund erkannt) übertreffen.

Die neuen MCED-Bluttests - ein Typ ist zugelassen, ein anderer experimentell - weisen DNA oder Proteine nach. Abbildung.

Die MECD- Bluttests weisen im Blutplasma DNA-Stückchen (blau) oder Proteine (grün) nach, die von Tumoren in die Blutbahn abgesondert werden. (credit Jill George, NIH)

Verdächtige DNA

Bereits auf Rezept erhältlich ist die "Multi-Krebs-Früherkennung aus einer einzigen Blutabnahme" des US-Gesundheitsunternehmens GRAIL. Im Oktober 2023 veröffentlichte das Unternehmen die Ergebnisse seiner Pathfinder-Studie im Fachjournal The Lancet. Darin wurden 6 662 Erwachsene im Alter von 50 + ohne Symptome beobachtet, die den Test gemacht hatten [1].

Die Überprüfung von Methylierungsmustern (ob Krebsgene ein- oder ausgeschaltet sind) führte zu mehr als einer Verdopplung der Zahl der neu entdeckten Krebserkrankungen, wobei sich fast die Hälfte davon in frühen Stadien befand. Nach einer Nachuntersuchung auf der Grundlage der spezifischen Krebsarten wurden die meisten Diagnosen in weniger als drei Monaten gestellt, also weitaus schneller als bei herkömmlichen Screening-Tests.

Der DNA-MCED-Test, Galleri genannt, deckt mehr als 50 Krebsarten ab, darunter viele, die derzeit mit den empfohlenen Screening-Tests nicht erkannt werden. So erkennt Galleri drei Arten von Krebs des Gallengangs, sowie Krebsarten des Dünndarms, der Mundhöhle, der Vagina, des Blinddarms, des Penis, des Bauchfells und weitere Arten, sowie die üblichen Krebsarten wie Bauchspeicheldrüsen-, Prostata- und Blasenkrebs.

Maschinelles Lernen wird eingesetzt, um DNA-Methylierungsmuster mit nützlichen klinischen Informationen zu verknüpfen, wie in einem Bericht in der Zeitschrift Cancer Cell erläutert wird. Der Ansatz gibt Aufschluss über die Krebsart und das Ursprungsorgan und unterscheidet Krebszellen von normalen Zellen, die einfach nur alt sind und DNA absondern.

Der Test hat 36 Krebsarten bei 35 Teilnehmern identifiziert, wobei bei einer Person zwei Krebsarten diagnostiziert wurden. Bei den üblichen Krebsuntersuchungen wurden 29 Krebsarten festgestellt.

Untersuchung von Proteinen

Wie bei der DNA in Flüssigbiopsien beruht die Identifizierung von Proteinen im Blutplasma auf der Erfassung von vielen Stückchen an Information.

Bekannt sind Screening-Tests zum Nachweis bestimmter Proteine, die mit einem erhöhten Risiko für bestimmte Krebsarten in Verbindung gebracht werden: PSA steht für Verdacht auf Prostatakrebs, Östrogen- und Progesteronrezeptoren auf Brustkrebszellen sind für die Wahl der Therapie ausschlaggebend, erhöhte Werte von CA125 weisen auf Eierstockkrebs hin.

Dies ist jedoch nur ein winziger Ausschnitt dessen, was durch die Katalogisierung der Konzentrationen vieler Proteine im Blutplasma möglich ist - ein Proteomik- Ansatz (Anm. Redn.: Unter Proteom versteht man die Gesamtheit aller in einer Zelle oder einem Lebewesen unter definierten Bedingungen und zu einem definierten Zeitpunkt vorliegenden Proteine.)

Eine "Proof-of-Concept"-Studie, die eben im BMJ Oncology veröffentlicht wurde, hat Schlagzeilen gemacht: "Ein geschlechtsspezifisches Panel von 10 Proteinen kann 18 verschiedene Krebsarten im Frühstadium erkennen" [2]:

Forscher von Novelna Inc. in Palo Alto haben aus Plasmaproben von 440 Personen, bei denen vor der Behandlung 18 verschiedene Krebsarten diagnostiziert wurden, und von 44 gesunden Blutspendern proteinbasierte "Signaturen solider Tumore" in bestimmten Organen abgeleitet. Sie haben die Häufigkeit von mehr als 3.000 Proteinen gemessen und die mit den Krebsarten assoziierten hohen und niedrigen Spiegel festgestellt. Die Auswahl der zu untersuchenden Proteine erfolgte auf Grund der biochemischen Reaktionswege, an denen diese Proteine beteiligt sind und die bei Krebs gestört sind, wie z. B. Signaltransduktion, Zelladhäsion und Zellteilung.

Ein wichtiger Teil der Studie war die Berücksichtigung des biologischen Geschlechts, da bestimmte Krebsarten bei Männern oder bei Frauen viel häufiger auftreten. Auch hier half künstliche Intelligenz den Ursprungsort des Tumors zu identifizieren sowie innerhalb eines Körperteils abzugrenzen, beispielsweise zwischen medullärem und follikulärem bzw. papillärem Schilddrüsenkrebs sowie zwischen kleinzelligem und nicht-kleinzelligem Lungenkrebs zu unterscheiden.

Niedrige Spiegel von zehn Plasmaproteinen erwiesen sich als aussagekräftige Prädiktoren für 18 Arten von soliden Tumoren, die geschlechtsabhängig sind. Aus den Konzentrationen von 150 Proteinen konnte auf den Entstehungsort des Tumors geschlossen werden, die Proteinsignatur zeigte auch das Stadium an, sogar ein sehr frühes.

In einem Leitartikel, der den Bericht im BMJ Oncology begleitete, weist Holli Loomans-Kropp von der Ohio State University darauf hin, dass "feststellbare geschlechtsspezifische Unterschiede bei Krebs - einschließlich des Alters des Auftretens, der Krebsarten und der genetischen Veränderungen - darauf hindeuten, dass der Ansatz mit MCEDs von Nutzen sein wird.... Kehlkopf-, Rachen- und Blasenkrebs treten bei Männern häufiger auf, Anal- und Schilddrüsenkrebs bei Frauen. Krebserkrankungen, die auf Mutationen im p53-Gen zurückzuführen sind, beginnen bei Frauen früher. Und die akute lymphoblastische Leukämie wird bei Männern und Frauen durch unterschiedliche Arten von Mutationen ausgelöst."

Auch andere genetische Messgrößen unterscheiden sich zwischen den Geschlechtern, z. B. die Anzahl der Mutationen, Kopienzahlveränderungen und Methylierungsmuster. Gene auf dem X-Chromosom unterdrücken das Tumorwachstum, und wir Frauen haben natürlich zwei Xs im Vergleich zu einem bei den Männern.

-------------------------------------------------

In Zukunft wird ein Bluttest zur Früherkennung von Krebs vielleicht so zur Routine werden wie ein Cholesterin-Test. Krebs in einem frühen Stadium, auf eine so einfache Weise zu erkennen, verspricht schlussendlich viele Leben zu retten!


 [1] Nicholson B.D., et al., Multi-cancer early detection test in symptomatic patients referred for cancer investigation in England and Wales (SYMPLIFY): a large-scale, observational cohort study. Lancet Oncology (2023); 24/7: 733-743. https://doi.org/10.1016/S1470-2045(23)00277-2

[2] Budnik B, et al.: Novel proteomics-based plasma test for early detection of multiple cancers in the general population. BMJ Oncology 2024;3:e000073. doi: 10.1136/bmjonc-2023-000073.

[3] Loomans-Kropp H., Multi-cancer early detection tests: a strategy for improvement. BMJ Oncology 2024;3:e000184. doi: 10.1136/bmjonc-2023-000184


* Der Artikel ist erstmals am 11. Jänner 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " Multi-cancer Early Detection Blood Tests (MCED) Debut "https://dnascience.plos.org/2024/01/11/multi-cancer-early-detection-blood-tests-mced-debut/  erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


 

inge Thu, 25.01.2024 - 17:46

PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im Klimawandel

PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im Klimawandel

Do, 18.01.2024 — Redaktion

Redaktion

Icon Astronomie

Die Ozeane und die Atmosphäre der Erde verändern sich mit der Erwärmung des Planeten. Einige Meeresgewässer werden grüner, weil mehr mikroskopisch kleine Organismen blühen. In der Atmosphäre beeinträchtigen Staubstürme, die auf einem Kontinent entstehen, die Luftqualität eines anderen Kontinents, während der Rauch großer Waldbrände ganze Regionen tagelang einhüllen kann. Der neueste Erdbeobachtungssatellit der NASA mit der Bezeichnung PACE (Plankton, Aerosol, Wolken, Ozean-Ökosystem) wird im Februar 2024 gestartet und soll uns helfen, die komplexen Systeme, die diese und andere globale Veränderungen im Zuge der Klimaerwärmung bewirken, besser zu verstehen.*

Mit der fortschreitenden Erwärmung des Klimas, die möglicherweise zu mehr Waldbränden und damit zu einer stärkeren Ablagerung von Asche führt, können wir davon ausgehen, dass sich die Phytoplankton-Gemeinschaften verändern werden. Ivona Cetinić, Oceanographer - Ocean Ecology Lab at NASA Goddard.

"Der Ozean und die Atmosphäre interagieren auf eine Art und Weise, die nur durch kontinuierliche Forschung vollständig verstanden werden kann", sagte Jeremy Werdell, Projektwissenschaftler für die PACE-Mission am Goddard Space Flight Center der NASA in Greenbelt, Maryland, "Mit PACE werden wir unsere Augen für viele neue Aspekte des Klimawandels öffnen". Abbildung 1.

Abbildung 1. . PACE wird dazu beitragen, den Gesundheitszustand der Ozeane zu beurteilen, indem es die Verteilung von Phytoplankton misst - winzige pflanzenähnliche Organismen und Algen, die das marine Nahrungsnetz erhalten. Außerdem wird es die Aufzeichnungen wichtiger atmosphärischer Variablen im Zusammenhang mit der Luftqualität und dem Klima der Erde erweitern. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Der Ozean verändert seine Farbe

Die Auswirkungen des Klimawandels auf den Ozean sind vielfältig und reichen vom Anstieg des Meeresspiegels über marine Hitzewellen bis hin zum Verlust der Artenvielfalt. Mit PACE ((Plankton, Aerosol, Wolken, Ozean-Ökosystem) werden die Forscher in der Lage sein, die Auswirkungen auf das Meeresleben in seinen kleinsten Formen zu untersuchen.

Phytoplankton sind mikroskopisch kleine, pflanzenähnliche Organismen, die nahe der Wasseroberfläche schwimmen und das Zentrum des aquatischen Nahrungsnetzes bilden, das allen möglichen Tieren - von Muscheln über Fische bis hin zu Walen - Nahrung bietet. Es gibt Tausende von Phytoplanktonarten, die jeweils unterschiedliche Nischen im Ozean besetzen.

Abbildung 2. Im Frühjahr und Sommer sind in der Barentssee nördlich von Norwegen und Russland oft blaue und grüne Blüten von Phytoplankton zu sehen. Das Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord des NASA-Satelliten Aqua hat dieses Echtfarbenbild am 15. Juli 2021 aufgenommen. Bildnachweis: NASA Earth Observatory

Während ein einzelnes Phytoplankton in der Regel nicht mit bloßem Auge zu erkennen ist, können Gemeinschaften von Billionen von Phytoplankton, sogenannte Blüten, vom Weltraum aus gesehen werden. Blüten haben oft eine grünliche Färbung, was auf die Chlorophyllmoleküle zurückzuführen ist, die das Phytoplankton- wie die Landpflanzen - zur Energiegewinnung durch Photosynthese nutzt. Abbildung 2.

Laut Ivona Cetinić, einer Ozeanografin im Ocean Ecology Lab der NASA Goddard, reagiert das Phytoplankton auf Veränderungen in seiner Umgebung. Unterschiede in den Meerestemperaturen, den Nährstoffen oder der Verfügbarkeit von Sonnenlicht können dazu führen, dass eine Art aufblüht oder verschwindet.

Aus dem Weltraum lassen sich diese Veränderungen in den Phytoplankton-Populationen als Farbunterschiede erkennen, so dass Wissenschaftler die Abundanz und Vielfalt des Phytoplanktons aus der Ferne und im globalen Maßstab untersuchen können. Und Wissenschaftler haben kürzlich festgestellt, dass der Ozean etwas grüner wird.

In einer im Jahr 2023 veröffentlichten Studie haben die Forscher Daten zur Chlorophyllkonzentration genutzt, die das Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem Aqua-Satelliten der NASA über mehr als 20 Jahre gesammelt hatte, um festzustellen, nicht nur wann und wo Phytoplanktonblüten auftraten, sondern auch, wie gesund und reichlich vorhanden sie waren. Abbildung 3.

Abbildung 3. Analyse von Ozeanfarbdaten des MODIS-Instruments auf dem Aqua-Satelliten der NASA. Die Wissenschaftler stellten fest, dass Teile des Ozeans durch mehr Chlorophyll-tragendes Phytoplankton grüner geworden sind. Kredit: NASA-Erdbeobachtungsstelle

Das Ocean Color Instrument (OCI) von PACE, ein Hyperspektralsensor, wird die Meeresforschung einen Schritt weiterbringen, indem es den Forschern ermöglicht, das Phytoplankton aus der Ferne nach Arten zu unterscheiden. (In der Vergangenheit konnten die Arten nur direkt aus Wasserproben heraus bestimmt werden). Jede Gemeinschaft hat ihre eigene Farbsignatur, die ein Instrument wie OCI identifizieren kann.

Die Identifizierung von Phytoplanktonarten ist von entscheidender Bedeutung, da die verschiedenen Phytoplanktonarten sehr unterschiedliche Funktionen in aquatischen Ökosystemen haben. Sie haben nützliche Funktionen, wie die Versorgung der Nahrungskette oder die Aufnahme von Kohlendioxid aus der Atmosphäre für die Photosynthese. Einige Phytoplanktonpopulationen binden Kohlenstoff, wenn sie sterben und in die Tiefsee sinken; andere geben das Gas wieder an die Atmosphäre ab, wenn sie in der Nähe der Oberfläche zerfallen.

Einige jedoch, wie die in den schädlichen Algenblüten vorkommenden, können sich negativ auf Menschen und aquatische Ökosysteme auswirken. Das Vorhandensein schädlicher Algen kann uns auch etwas über die Qualität der Wasserquellen verraten, z. B. ob zu viele Nährstoffe aus menschlichen Aktivitäten vorhanden sind. Durch die Identifizierung dieser Gemeinschaften im Ozean können Wissenschaftler Informationen darüber gewinnen, wie und wo das Phytoplankton vom Klimawandel betroffen ist, und wie sich Veränderungen bei diesen winzigen Organismen auf andere Lebewesen und die Ökosysteme der Ozeane auswirken können.

Partikel in der Luft ernähren das Phytoplankton im Meer

Neben seiner Rolle als Gras des Meeres spielt das Phytoplankton auch eine Rolle in einem komplexen Tanz zwischen Atmosphäre und Ozean. Und PACE wird beide Partner in diesem Tanz beobachten.

Abbildung 4. Modell, das die Bewegung von Aerosolen über Land und Wasser im Aug. 2017 zeigt. Hurrikane und tropische Stürme zeichnen sich durch große Mengen an Meeressalzpartikeln aus, die von ihren wirbelnden Winden aufgefangen werden. Staub, der aus der Sahara weht, kann von Wassertröpfchen aufgefangen werden und aus der Atmosphäre abregnen. Rauch von massiven Waldbränden im pazifischen Nordwesten Nordamerikas wird über den Atlantik nach Europa getragen. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Mit einem Blick aus dem Weltraum über den gesamten Planeten innerhalb von 2 Tagen, wird PACE sowohl mikroskopisch kleine Organismen im Ozean als auch mikroskopisch kleine Partikel in der Atmosphäre, die so genannten Aerosole, verfolgen. Wie diese beiden interagieren, wird den Wissenschaftlern zusätzliche Erkenntnisse über die Auswirkungen des sich ändernden Klimas liefern. Abbildung 4.

Wenn sich beispielsweise Aerosolpartikel aus der Atmosphäre auf dem Ozean ablagern, können sie wichtige Nährstoffe liefern, die eine Phytoplanktonblüte auslösen. Winde tragen manchmal Asche und Staub von Waldbränden und Staubstürmen über den Ozean. Wenn diese Partikel ins Wasser fallen, können sie als Dünger wirken und Nährstoffe wie Eisen liefern, die das Wachstum der Phytoplanktonpopulationen fördern. Abbildung 5.

Abbildung 5. Visualisierung, die ein Beispiel für einen Waldbrand in den Bergen der Sierra Nevada zeigt. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Während das Farberkennungsinstrument von PACE Veränderungen im Phytoplankton erkennen wird, trägt der Satellit auch zwei als Polarimeter bezeichnete Instrumente - SPEXone und HARP2 - die Eigenschaften des Lichts (Polarisation) nutzen, um Aerosolpartikel und Wolken zu beobachten. Die Wissenschaftler werden in der Lage sein, die Größe, Zusammensetzung und Häufigkeit dieser mikroskopisch kleinen Partikel in unserer Atmosphäre zu messen.

Rauch, Schadstoffe und Staub sind auch der Ursprung der Wolken

Die neuen Daten von PACE zur Charakterisierung atmosphärischer Partikel werden es den Wissenschaftlern ermöglichen, eine der am schwierigsten zu modellierenden Komponenten des Klimawandels zu untersuchen: die Wechselwirkung zwischen Wolken und Aerosolen.

Wolken bilden sich, wenn Wasser auf Luftpartikeln wie Rauch und Asche kondensiert. Ein leicht zu erkennendes Beispiel sind Schiffsspuren, die entstehen, wenn Wasserdampf kondensiert und helle, tiefliegende Wolken auf von Schiffen ausgestoßenen Schadstoffen bildet. Abbildung 6.

Abbildung 6. Schiffsspuren über dem nördlichen Pazifik. NASA-Bild, aufgenommen am 3. Juli 2010 mit dem Satelliten Aqua. Kredit: NASA NASA

Verschiedene Arten von Aerosolen beeinflussen auch die Eigenschaften von Wolken, wie etwa ihre Helligkeit, die von der Größe und Anzahl der Wolkentröpfchen abhängt. Diese Eigenschaften können zu unterschiedlichen Auswirkungen - Erwärmung oder Abkühlung - auf der Erdoberfläche führen.

Eine helle Wolke oder eine Wolke aus Aerosolpartikeln, die tief über einem viel dunkleren Ozean schwebt, reflektiert beispielsweise mehr Licht zurück in den Weltraum, was eine lokale Abkühlung bewirkt. In anderen Fällen haben sowohl Wolken als auch Aerosole eine wärmende Wirkung, die als "Blanketing" bezeichnet wird. Dünne Wolkenfahnen hoch oben in der Atmosphäre absorbieren die Wärme von der Erdoberfläche und strahlen sie dann wieder in Richtung Boden ab.

"Aus der Klimaperspektive ist die Beziehung zwischen Aerosolen und Wolken eine der größten Unsicherheitsquellen in unserem Verständnis des Klimas", sagt Kirk Knobelspiesse, Leiter der Polarimetrie für die PACE-Mission bei der NASA Goddard. Die neuen Erkenntnisse des Satelliten über Aerosolpartikel werden den Wissenschaftlern helfen, Wissenslücken zu schließen und unser Verständnis dieser Beziehung zu vertiefen.


*Der vorliegende Artikel von Erica McNamee (NASA's Goddard Space Flight Center, Greenbelt, Md) ist unter dem Titel "NASA’s PACE To Investigate Oceans, Atmospheres in Changing Climate" am 11. Jänner 2024 auf der Website der NASA erschienen https://science.nasa.gov/earth/nasas-pace-to-investigate-oceans-atmospheres-in-changing-climate/. Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


NASA im ScienceBlog

Redaktion, 29.06.2023: Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt.

Redaktion, 22.06.2023: Gibt es Leben auf dem Saturnmond Enceladus?

Redaktion, 27.04.2023: NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern.

Redaktion, 19.01.2023: NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen.

Redaktion, 05.01.2023: NASA im Wunderland: Zauberhafte Winterlandschaften auf dem Mars.

Redaktion, 03.11.2022: NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan.

Redaktion, 14.07.2022: James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums.

Inge Schuster, 05.09.2019: Pflanzen entfernen Luftschadstoffe in Innenräumen.


 

inge Wed, 17.01.2024 - 23:31

Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum Wasserstoffspeicher

Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum Wasserstoffspeicher

Do, 11.01.2024 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Katalysatoren spielen als Reaktionsbeschleuniger in Natur und Technik eine entscheidende Rolle. Lebensprozesse werden von Enzymen angekurbelt und über neunzig Prozent aller von der Chemieindustrie eingesetzten Reaktionen benötigen einen Katalysator. Dazu zählt die Ammoniaksynthese, der die Menschheit den künstlichen Stickstoffdünger verdankt. Weil Ammoniak viel Wasserstoff enthält, ist es auch als Wasserstoffspeicher für eine zukünftige Energiewirtschaft interessant. Allerdings muss es dazu auch wieder effizient in Wasserstoff und Stickstoff zerlegt werden - der Schlüssel dazu sind neue Feststoffkatalysatoren. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Arbeiten von Prof. Dr. Claudia Weidenthaler, die mit ihrem Team am Max-Planck-Institut für Kohlenforschung in Mülheim an effizienten, preisgünstigen Katalysatoren für die Ammoniakzerlegung forscht.*

Katalysatoren eröffnen einer chemischen Reaktion einen günstigen Pfad durch eine Energielandschaft, der sonst verschlossen wäre. Während einer Reaktion brechen zuerst chemische Bindungen in den Edukten auf, dann bilden sich neue Bindungen. Dabei entstehen die Moleküle der Produkte. Den Reaktionsweg verstellt jedoch oft ein mächtiger Energieberg. Um diesen zu bezwingen, brauchen die Moleküle Energie. Der Katalysator senkt nun diesen hemmenden Energieberg ab. Grundsätzlich gibt es zwei Arten von Katalyse: Bei der homogenen Katalyse befinden sich die reagierenden Stoffe und der Katalysator in der gleichen Phase, etwa in einer Lösung. In der heterogenen Katalyse sind beide in getrennten Phasen. Bei technischen Anwendungen fließen dabei oft Gase über festes Katalysatormaterial, zum Beispiel beim „Autokat“.

Ammoniaksynthese ..............

Einen besonderen Beitrag hat die heterogene Katalyse zur Welternährung geleistet, denn ohne sie gäbe es keine Ammoniaksynthese. Diese bindet den Stickstoff aus der Luft chemisch im Ammoniak, aus dem wiederum Stickstoffdünger produziert wird. 2020 wurden weltweit 183 Millionen Tonnen Ammoniak produziert, was zwei Prozent des globalen Energieverbrauchs der Menschheit erforderte. Da die Energie und der Wasserstoff hauptsächlich aus fossilen Quellen stammten, setzte das 450 Millionen Tonnen CO2 frei. Das entspricht etwa 1,4 Prozent der menschlichen CO2-Emissionen im Jahr 2020. Ohne Katalysator wären allerdings Energieverbrauch und Emissionen ungleich dramatischer: Allein die Produktion von einem Kilogramm Ammoniak würde dann rund 66 Millionen Joule an Energie verbrauchen, was ungefähr der Verbrennungswärme von 1,5 kg Rohöl entspricht.

Als sich Ende des 19. Jahrhunderts der Weltvorrat an natürlichem Salpeter, aus dem Stickstoffdünger produziert wurde, erschöpfte, drohte eine Hungerkatastrophe. Rettung versprach der riesige Stickstoffvorrat in der Luft, denn sie besteht zu 78 Prozent aus Stickstoffmolekülen. Allerdings verschließt die sehr stabile Dreifachbindung des Moleküls den Zugang zu den Stickstoffatomen. An der dreifach harten Nuss scheiterten alle Forschenden – bis Fritz Haber sie 1909 knackte. Er entdeckte, dass Osmium als Katalysator unter hohem Druck die Ammoniaksynthese aus Stickstoff ermöglicht. Leider ist Osmium extrem selten, doch der Chemiker Carl Bosch und sein Assistent Alwin Mittasch fanden Ersatz: Eisen in Form winziger Nanopartikel erwies sich ebenfalls als guter Katalysator. Allerdings benötigte die Reaktion einen Druck von mindestens 200 bar und Temperaturen zwischen 400 °C und 500 °C. Boschs Gruppe konstruierte dafür einen massiven Durchflussreaktor. Schon 1913 startete die industrielle Produktion nach dem Haber-Bosch-Verfahren, das bis heute im Einsatz ist. Haber erhielt 1919 den Nobelpreis für Chemie, Bosch 1931.

Die Reaktionsgleichung der kompletten Ammoniaksynthese lautet

N2 + 3 H2 → 2 NH3

Die Reaktion ist exotherm, in der Bilanz wird Wärmenergie frei: Pro Mol N2 sind es 92,2 Kilojoule, pro Mol NH3 die Hälfte, was auf ein Kilogramm Ammoniak rund 2,7 Megajoule ergibt. So viel Wärmeenergie setzt die Verbrennung von 92 Gramm Steinkohle frei. Der Eisenkatalysator im Haber-Bosch-Verfahren beschleunigt nun diese Reaktion. Aber was sich da genau auf seiner Oberfläche abspielt, konnte die Forschung lange nicht aufdecken. Man ging davon aus, dass die Anlagerung der N2-Moleküle an seiner Oberfläche die Geschwindigkeit der Reaktion bestimmt. Offen blieb aber, ob die N2-Moleküle auf der Fläche zuerst in einzelne Stickstoffatome zerfallen und dann mit dem Wasserstoff reagieren oder ob das komplette N2-Molekül reagiert.

.............und ihr Ablauf im Einkristall

Erst 1975 konnten Gerhard Ertl und sein Team zeigen, dass das N2-Molekül tatsächlich zuerst zerfällt. Der spätere Max-Planck-Direktor setzte die damals neuesten Methoden der Oberflächenforschung ein. Er untersuchte die katalytische Wirkung von perfekt glatten Eisenoberflächen im Ultrahochvakuum. Metalle wie Eisen besitzen eine kristalline Struktur, bei der die Eisenatome ein geordnetes dreidimensionales Gitter ausbilden. Ein perfekter Kristall heißt „Einkristall“. Schneidet man durch ihn hindurch, sind die Eisenatome auf diesen Flächen in einem regelmäßigen Muster angeordnet. Unter solchen Idealbedingungen sollten sich die einzelnen Schritte des Katalyseprozesses leichter entschlüsseln lassen, vermutete Ertl. Tiefer im Kristall ist jedes Atom auf allen Seiten von Nachbaratomen umgeben. An der Oberfläche dagegen liegen die Atome frei. Kommt dort ein H2-Molekül vorbei, dann können sie es deshalb an sich binden. Das passiert allerdings nur etwa einmal in einer Million Fällen. Durch diese Bindung an das Eisen geht der Energiegewinn durch die Dreifachbindung im N2-Molekül verloren. Die Stickstoffatome lösen sich aus dieser Bindung und werden frei. Dem H2-Molekül des gasförmigen Wasserstoffs ergeht es genauso, doch dessen Einfachbindung ist ohnehin recht locker. Die einzelnen Stickstoff- und Wasserstoffatome können nun untereinander chemische Bindungen eingehen (Abbildung 1). Ertls Gruppe schaffte es, den kompletten Ablauf der Ammoniaksynthese zu entschlüsseln und zu zeigen, wie man sie optimiert. Gerhard Ertl führte damit die exakten Methoden der Oberflächenforschung erstmals in die Katalyseforschung ein. Dafür bekam der frühere Direktor am Berliner Fritz- Haber- Institut der Max -Planck- Gesellschaft 2007 den Nobelpreis für Chemie.

 

Abbildung 1: Schritte der Ammoniaksynthese. Die rot gestrichelte Energiekurve zeigt die Reaktion ohne, die durchgezogene grüne mit Katalysator: Die N2– und H2– Moleküle liegen frei vor (1). Das N2-Molekül haftet sich an die Eisenoberfläche (2). Die dort adsorbierten N2– und H2– Moleküle zerfallen zu N- und H- Atomen (3). Es entstehen NH (4), NH2 (5) und NH3 (6). Das fertige Ammoniakmolekül hat sich von der Eisenoberfläche gelöst (7). Die grün und rot gestrichelten Energiekurven enden rechts auf einem tieferen Energieniveau – bei der Reaktion wird Energie frei. © Grafik: R. Wengenmayr nach G. Ertl / CC BY-NC-SA 4.0

Ammoniak – ein guter Wasserstoffspeicher?

Für eine Zukunft ohne fossile Brennstoffe gilt Wasserstoff als wichtiger Energieträger. Zum Beispiel könnten große Solarkraftwerke in sonnenreichen Ländern regenerativen Strom produzieren und in Elektrolyseanlagen Wasser zu Wasserstoff und Sauerstoff zerlegen. Der grüne Wasserstoff würde dann zum Beispiel in Tankschiffen nach Europa verfrachtet werden, wo er in Industrieprozessen oder für die Energieerzeugung, etwa in Brennstoffzellen, verbraucht würde. Allerdings müsste der Wasserstoff dazu entweder gasförmig unter hohem Druck von 200 bar oder verflüssigt unterhalb von -252 °C in Tanks transportiert werden, was teuer und energetisch ineffizient ist.

Im Vergleich dazu bietet Ammoniak als Wasserstoffspeicher einige Vorteile. Der erste Vorteil ist seine hohe Energiedichte von 3,2 Kilowattstunden pro Liter, pro Kilogramm sogar 5,2 Kilowattstunden – zum Vergleich: bei Benzin sind es 9,7 beziehungsweise 12,7 Kilowattstunden. Zweitens wird Ammoniak bei 20 °C schon bei 8,6 bar Druck flüssig, grob dem doppelten Druck eines Fahrradreifens. Damit ist es gut in Tanks transportierbar. Ammoniak könnte die Tankschiffe selbst emissionsfrei antreiben. Die „Viking Energy“ ist das erste Schiff mit einer Hochtemperatur-Brennstoffzelle, die aus Ammoniak elektrischen Strom für den Schiffsantrieb gewinnt.

Allerdings kann Ammoniak nur ein effizienter Wasserstoffspeicher sein, wenn das chemische Binden und Rückgewinnen des Wasserstoffs möglichst wenig Energie verbraucht. Hier kommt die Forschung von Claudia Weidenthaler ins Spiel. Die Professorin erzählt, dass nach besseren Katalysatoren und alternativen industriellen Prozessen gesucht wird, die das traditionelle Haber-Bosch-Verfahren in der Effizienz schlagen können. Ihr Team sucht hingegen Metallkatalysatoren, die Ammoniak in einem „Cracker“-Reaktor möglichst effizient wieder zerlegen. Mit ihren Methoden steht sie in der Tradition des Pioniers Gerhard Ertl. Sie erforscht systematisch verschiedene Metalle, die sich theoretisch gut als Katalysatoren eignen. Und sie räumt auch gleich mit der Vorstellung auf, dass Katalysatoren sich während der Reaktion nicht verändern. Das Gegenteil ist der Fall. Umso wichtiger wäre es, die Vorgänge an ihrer Oberfläche und darunter, im Trägermaterial, bis auf die Ebene einzelner Atome direkt „filmen“ zu können.

Die Katalyse im Blick

Abbildung 2. Ein Röntgen-Pulverdiffraktometer. (© David Bonsen/MPI für Kohlenforschung)

Leider gibt es kein konventionelles Mikroskop, mit dem man einfach bis in die Welt der Atome zoomen und direkt im chemischen Reaktor Videos aufzeichnen kann. Also muss das Team verschiedene Methoden kombinieren, die eines gemeinsam haben: Sie verwenden Wellenlängen, die viel kürzer als die von sichtbarem Licht sind. Röntgenlicht und fliegende Elektronen in Elektronenmikroskopen sind kurzwellig genug, um auch Details bis teilweise hinunter in den Zehntelnanometerbereich erfassen zu können. Herkömmliche Elektronenmikroskope können sehr gut die Strukturen von Oberflächen abbilden, haben aber den Nachteil, dass sie Vakuum benötigen. Damit lassen sich also mit gewöhnlichen Geräten nur Bilder von Katalysatoroberflächen vor und nach der Reaktion aufnehmen. Für die Beobachtung der laufenden katalytischen Reaktion nutzt das Mülheimer Team daher verschiedene Röntgenmethoden. Mit Hilfe eines Röntgen-Pulverdiffraktometers (Abbildung 2) kann das Team das Innere der winzigen Kristalle durchleuchten.

Die Methode ähnelt dem Physikexperiment, in dem Lichtwellen an einem feinen Gitter gebeugt werden. Das dahinter aufgenommene Beugungsbild enthält die genaue Information über die Beschaffenheit des Gitters. Auch die Metallatome im Kristall bilden ein räumliches Gitter mit Abständen im Bereich von Zehntelnanometern. Passt die Wellenlänge des Röntgenlichts, so liefert das Beugungsbild eine genaue Information über den Aufbau des Kristalls – und dessen Veränderungen während der katalysierten Reaktion.

Alternativen zum teuren Edelmetall

Die Reaktionsgleichung beim „Cracken“ von Ammoniak lautet

2 NH3 → N2 + 3 H2

Diese Reaktion benötigt Energie, sie ist endotherm. Pro Mol NH3 sind das die schon bei der Synthese erwähnten 46,1 Kilojoule. Nun hat sich Eisen als relativ guter Katalysator beim Haber-Bosch-Verfahren etabliert. Doch ist es auch ein guter Katalysator für das Cracken? Eigentlich läge das nahe, ein Video kann ja auch einfach rückwärts ablaufen. Doch die Antwort lautet: nein. Für die Ammoniaksynthese und -zerlegung gilt, dass ein guter Katalysator für die eine Reaktionsrichtung nicht automatisch auch für die umgekehrte Richtung funktioniert.

Abbildung 3. Ammoniakzerlegung. Test von vier verschiedenen Proben des Katalysator-Trägermaterials, die entweder bei 550 oder 700 °C hergestellt wurden. Zwei Proben enthielten 4, zwei 8 Gewichtsprozent Cobalt. Untersucht wurde die Zerlegung von NH3 bei Temperaturen von 350 bis 650 °C. Das Katalysator-Trägermaterial, das bei 550 °C hergestellt wurde, ist effektiver, da bei niedrigeren Herstellungstemperaturen weniger Cobalt mit dem Al2O3 im Träger reagiert und als Katalysator inaktiviert wird. Ein höherer Anteil von Cobalt in der Probe wirkt sich positiv auf die NH3-Zerlegung aus, weil mehr Cobalt für die Katalyse zur Verfügung steht. © C. Weidenthaler; verändert nach ChemCatChem, 14/20, 2022, DOI: (10.1002/cctc.202200688) / CC BY 4.0

Der beste metallische Katalysator für das Zerlegen von NH3 ist nach heutigem Kenntnisstand Ruthenium. Da dieses Edelmetall aber selten und teuer ist, sucht Weidenthalers Team nach günstigeren Alternativen. Vor allem sollen sich die neuen Katalysatoren später auch für die Reaktoren in der Industrie eignen. Dabei ist das Zusammenspiel zwischen dem Katalysator und dem Trägermaterial, auf dem er aufgebracht ist, wichtig. Auch das untersucht das Team. Ein Beispiel ist die jüngste Arbeit mit Cobalt als Katalysator auf einem Träger aus Aluminiumoxid-Nanokristallen. Cobalt ist ein vielversprechender Kandidat für die Ammoniakzerlegung. Und Aluminiumoxid versprach ein gutes Trägermaterial: Bei hohen Temperaturen von mehreren hundert Grad verhindert es, dass die feinen Cobaltpartikel auf der Trägeroberfläche „zusammenbacken“. Sintern heißt dieser unerwünschte Effekt, der die gesamte Cobaltoberfläche verkleinern würde, die für die Katalyse noch zur Verfügung stünde.

Das Mühlheimer Team stellte zunächst verschiedene Proben des Katalysator-Trägermaterials mit unterschiedlichen Cobaltanteilen bei Temperaturen von 550 °C und 700 °C her. Diese Proben testete das Team in einem Reaktor, durch den Ammoniakgas floss. Es konnte zeigen, dass sich eine niedrige Herstellungstemperatur und ein hoher Cobaltanteil positiv auf die Ammoniakzerlegung auswirken (Abbildung 3).

Die getesteten Proben sind jedoch für die industrielle Anwendung noch nicht geeignet, da erst bei Temperaturen ab ca. 600 °C eine vollständige Zerlegung des Ammoniaks erreicht wird. Diese hohen Temperaturen benötigen für Industrieprozesse zu viel Energie. Bei niedrigeren Temperaturen wäre der entstehende Wasserstoff noch mit Ammoniak verunreinigt und würde beispielweise Probleme beim Einsatz in Brennstoffzellen verursachen.

Die Forschenden untersuchten auch die Vorgänge bei der Herstellung des Katalysator-Trägermaterials: Auf der Oberfläche des Trägers bilden sich Nanopartikel von elementarem Cobalt, das katalytisch wirksam ist. Ein Teil des Cobalts wandert in das Trägermaterial, bildet mit dem Aluminiumoxid einen Mischkristall und wird dadurch inaktiviert (Abbildung 4).

Abbildung 4: Strukturen im Cobalt-Aluminiumoxid-Träger. Das Trägermaterial besteht aus γ-Aluminiumoxid (links; Sauerstoff: kleine, dunkelrote Kugeln ; Aluminium: große, rosafarbene Kugeln). Auf der Oberfläche des Trägers bildet sich beim Herstellungsprozess elementares Cobalt. Dieses katalysiert die Ammoniakzerlegung. Ein Teil des Cobalts wandert in den Träger und bildet einen Mischkristall (rechts). Das Cobalt ist in dieser Form (blau: CoO4) nicht mehr katalytisch wirksam. © C. Weidenthaler, MPI für Kohlenforschung / CC BY-NC-SA 4.0

Für die industrielle Anwendung ist es auch wichtig zu untersuchen, was passiert, wenn der „Cracker“-Reaktor abgeschaltet wird und das Katalysator-Trägermaterial abkühlt. Dem Team gelang es nicht mehr, Cobalt auf der Oberfläche des Trägermaterials nachzuweisen. Claudia Weidenthaler erklärt: „Wir vermuten, dass die Cobalt-Nanopartikel beim Abkühlen in noch kleinere Partikel zerfallen und deshalb mit der Röntgendiffraktometrie nicht mehr nachweisbar sind. Deshalb setzen wir nun Röntgenspektroskopie-Methoden ein, die eine atomare Auflösung erlauben.“ Damit kommt Claudia Weidenthalers Team dem „Filmen“ von Katalysevorgängen schon sehr nahe.

Optimierte Katalysatoren

Weitere offene Fragen sind: 

- Wohin wandert das Cobalt und in welcher Form liegt es vor?

- Verändert sich das Katalysator-Trägermaterial, wenn es mehrfach erhitzt wird und wieder abkühlt?

Die Suche nach einer geeigneten Kombination geht in Mülheim also weiter. Eine grundsätzliche Herausforderung ist dabei, dass der Katalysator mit dem Trägermaterial keine stabilen Bindungen eingehen darf, die ihn deaktivieren. Die andere Herausforderung: Der Katalysator darf mit den Produkten und Edukten keine Wechselwirkungen eingehen, die die Reaktion behindern.

Findet die Forschung hier gute, energieeffiziente Lösungen, wäre das ein großer Schritt zum Einsatz von Ammoniak als Wasserstoffspeicher.


*Der Artikel ist erstmals unter dem Titel: " Auf dem Weg zum Wasserstoffspeicher - Katalysatoren für die Ammoniakzerlegung"  https://www.max-wissen.de/max-hefte/techmax-10-ammoniakzerlegung-wasserstoffspeicher/   in TECH-Max 10 im Herbst 2023 erschienen und wurde mit Ausnahme von Titel und Abstract und leichten Kürzungen unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz


Ammoniak - Energieträger und Wasserstoffvektor

Max-Planck-Gesellschaft: Mit Ammoniak zu grünem Stahl (24.04.2023). https://www.mpg.de/20212313/gruener-stahl-klimaneutral-ammoniak

Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min.https://www.youtube.com/watch?v=a_yUKX8zQfI&t=128s

Das Campfire Bündnis (BMBF): Wind und Wasser zu Ammoniak. https://wir-campfire.de/

EnergieZukunft (eu): Ammoniak in der Energiewirtschaft - Wasserstoff transportieren (14.11.2023). https://www.energiezukunft.eu/wirtschaft/wasserstoff-transportieren/

Frauenhofer ISE: Ammoniak als Wasserstoff-Vektor: Neue integrierte Reaktortechnologie für die Energiewende (21.9.2022). https://www.ise.fraunhofer.de/de/presse-und-medien/news/2022/ammoniak-als-wasserstoff-vektor-neue-integrierte-reaktortechnologie-fuer-die-energiewende.html

Deutsches Umweltbundesamt :Kurzeinschätzung von Ammoniak als Energieträger und Transportmedium für Wasserstoff - Stärken, Schwächen, Chancen und Risiken (15.02.2023). https://www.umweltbundesamt.de/dokument/kurzeinschaetzung-von-ammoniak-als-energietraeger  

Armin Scheuermann:Flüssiger Wasserstoff, Ammoniak oder LOHC – was spricht für welchen H2-Träger? (28.12.2022). https://www.chemietechnik.de/energie-utilities/wasserstoff/fluessiger-wasserstoff-ammoniak-oder-lohc-was-spricht-fuer-welchen-h2-traeger-381.html


 

inge Thu, 11.01.2024 - 17:52

2023

2023 inge Thu, 05.01.2023 - 16:31

Hämoglobin trägt zur Barrierefunktion unserer Haut bei

Hämoglobin trägt zur Barrierefunktion unserer Haut bei

Fr.29.12.2023  — Inge Schuster

Inge Schuster Icon Medizin

Hämoglobin, der in den Erythrozyten zirkulierende Transporter von Sauerstoff, wird offensichtlich auch in anderen Zelltypen produziert. Eine neue Untersuchung zeigt erstmals, dass Hämoglobin in den obersten Schichten der Epidermis und auch in den Haarfollikeln gebildet wird. Es wird als Antwort auf oxidativen Stress - wie er beispielweise durch UV-Bestrahlung entsteht - in den Keratinozyten hochreguliert und kann dort die Generierung von reaktiven Sauerstoff-Spezies hemmen und die Zellen vor deren Folgen schützen. Die Expression von Hämoglobin ist somit eine neue Facette in der Barrierefunktion der Epidermis.

Mit Hämoglobin verbindet wohl jeder sofort den Blutfarbstoff in den roten Blutkörperchen, den Erythrozyten, der den in der Lunge eingeatmeten Sauerstoff (O2) über den Blutkreislauf zu den Zellen unserer Gewebe und Organe transportiert. Die ununterbrochene Versorgung mit Sauerstoff ist unabdingbar, um die zur Instandhaltung und zum Funktionieren unserer Körperzellen nötige Energie in den Mitochondrien (über Zellatmung und oxydative Phosphorylierung) zu erzeugen; Sauerstoff ist aber auch unentbehrlich, um die zahllosen Oxydationsvorgänge im Stoffwechsel - zu Synthese und Metabolismus von körpereigenen Substanzen und zum Abbau von Fremdstoffen - zu ermöglichen. Für den Sauerstofftransport steht dabei eine sehr hohe Kapazität zur Verfügung: Erythrozyten bestehen zu etwa 90 % (ihres Trockengewichts) aus Hämoglobin und machen bis zu 50 % des Blutvolumens aus; das entspricht 120 bis 180 Gramm Hämoglobin pro Liter (von insgesamt 5 Liter) Blut, wobei ein Gramm Hämoglobin 1,34 ml Sauerstoff binden kann, und ein Erwachsener bei körperlicher Ruhe rund 280 ml Sauerstoff pro Minute einatmet. Im Gegenzug zur Abgabe von Sauerstoff bindet Hämoglobin einen Teil (rund 23 %) des bei der Zellatmung freiwerdenden CO2, das dann über das Blut in die Lunge transportiert und dort abgeatmet wird.

Zur Charakterisierung von Hämoglobin

Seine lebensnotwendige Rolle und hohe Verfügbarkeit haben Hämoglobin zu einem der meistuntersuchten Proteine der letzten 150 Jahre gemacht. Dazu gehört auch, dass die ersten Röntgenkristall-Analysen von 3D-Proteinstrukturen an Hämoglobin (durch Max Perutz) und dem strukturverwandten, einfacher aufgebauten Myoglobin - dem Sauerstoff-Speicher in der Muskulatur - (durch John Kendrew) stattfanden und 1962 mit dem Nobelpreis ausgezeichnet wurden.

Abbildung 1. Hämoglobin A (adulte Form - HbA) als Sauerstofftransporter. Das Bändermodell zeigt ein Tetramer aus je 2 αund 2 β Untereinheiten (Rot- und Blautöne), in die jeweils eine Hämgruppe - ein Protoporphyrin (grün) mit zentralem Eisenatom (rot) - über einen Histidinrest des Globins gebunden vorliegt. Sauerstoff bindet reversibel in der O2-Form an die 6. Koordinationsstelle des Hämeisens. (Bild: Fermi, G., Perutz, M.F. https://www.rcsb.org/structure/3hhb Lizenz: cc-by-sa)

Demnach ist Hämoglobin aus 4 Untereinheiten aufgebaut; beim erwachsenen Menschen sind das jeweils 2 Hb α und 2 Hb β Globine. Jede dieser Untereinheiten besteht aus 142 bis 146 Aminosäuren langen Peptidketten, die jeweils 8 Helices bilden mit einer Tasche, in der das Häm - ein Porphyrin-Molekül mit einem Eisen Fe2+ als Zentralatom - eingebettet ist. Abbildung 1.

An Hämoglobin wurde in den 1960er-Jahren auch erstmals das Phänomen einer kooperativen Bindung entdeckt; im konkreten Fall: Wenn Sauerstoff als O2-Molekül an das Hämeisen einer Untereinheit bindet, induziert es darin eine Konformationsänderung, die sich auf die anderen 3 Untereinheiten überträgt und dort eine erleichterte Bindung der anderen 3 Sauerstoffmolküle zur Folge hat.

Hämoglobin kann auch andere chemische Gruppen binden und transportieren: Direkt an das Hämeisen binden beispielsweise Kohlenmonoxid (CO), Cyanid (CN-) oder Sulfid (S2-), hemmen dadurch die Bindung von Sauerstoff mit schwerwiegenden Folgen. An Aminogruppen der Globine binden Moleküle wie CO2 und das Signalmolekül Stickstoffmonoxid (NO), ein gefäßerweiterndes Gas.

Hämoglobin fungiert nicht nur als Transporter

Es generiert auch reaktive Sauerstoffspezies. Bei der Bindung von Sauerstoff kommt es häufig zur Autooxidation von Hämoglobin: dabei wird das Hämeisen Fe2+ zu Fe3+ oxidiert (Methämoglobin) und gleichzeitig Sauerstoff zum Superoxid-Radikal reduziert, aus dem dann das Hydroperoxid-Radikal und in weiterer Folge Wasserstoffperoxid entstehen. Abbildung 2.

Abbildung 2. Die Bindung von Sauerstoff an das Hämeisen führt häufig zur Generierung von reaktiven Sauerstoffspezies (ROS). Vereinfachte Darstellung.

Die reaktiven Sauerstoffspezies reagieren (nicht nur) mit Hämoglobin und lösen eine Kaskade oxidativer Reaktionen aus, die zum Abbau des Häms, Freisetzung des Hämeisens (das freie Radikalreaktionen katalysiert), irreversiblen Vernetzungen der Globinketten und schlussendlich zum Abbau von Hämoglobin führen. Diese Reaktionen treten auch auf, wenn Hämoglobin oder Erythrocyten mit exogenem Wasserstoffperoxid reagieren, wie er bei anderen metabolischen Vorgängen (beispielsweise in den Mitochondrien) produziert wird und sogar, wenn Erythrozyten gelagert werden. Allerdings - solange Hämoglobin eingeschlossen in den Erythrozyten zirkuliert, schützt ein äußerst wirksames antioxidatives Abwehrsystem aus diversen Enzymen und endogenen niedermolekularen Substanzen wie Glutathion, Vitamin C, Coenzym Q10, etc. vor den kontinuierlich entstehenden reaktiven Sauerstoffspezies. Übersteigt die ROS-Produktion die Kapazität des Abwehrsystems, kommt es zu einer Beeinträchtigung der Sauerstoffzufuhr, Schädigung der Erythrozytenmembran verbunden mit dem Austritt von (geschädigtem) Hämoglobin und anderen Biomolekülen sowie ROS, die Entzündungsprozesse auslösen können.

Die Reaktion von Hämoglobin mit H2O2, die zur Zerstörung des Proteins führt, bedeutet gleichzeitig ein hochwirksame Neutralisierung von ROS und Schutz vor deren schädlichen Auswirkungen.

Hämoglobin wird auch außerhalb der Erythrozyten produziert.....

Dass Hämoglobin außerhalb der im Blutkreislauf zirkulierenden Erythrozyten eine Rolle spielt, war lange unbekannt. Erst in den letzten beiden Jahrzehnten zeigen mehr und mehr Untersuchungen, dass Hämoglobin in vielen, nicht den Erythrozyten oder ihren Vorläuferzellen angehörenden Zelltypen exprimiert wird [1]. Detektiert wurde Hämoglobin oder seine Untereinheiten Hb α und Hb β u.a. in Makrophagen, in Epithelzellen der Alveolen in der Lunge, im Pigmentepithel der Retina, in den Mesangialzellen der Niere, in Leberzellen, in Neuronen und Gliazellen, in der Schleimhaut der Gebärmutter und des Gebärmutterhalses, in den Chondrozyten des Knorpelgewebes und nun kürzlich in den Keratinozyten der obersten Hautschichten der Epidermis [2].

Die Funktion, die Hämoglobin in den einzelnen Zelltypen ausüben dürfte, reicht von Speicherung und Abgabe von Sauerstoff in spärlich durchbluteten Geweben (z.B. durch Hämoglobinkondensate in den Chondrozyten der Knorpelsubstanz [3]) über die Inaktivierung von reaktiven Sauerstoffmolekülen (H2O2, Hydroxyl-Radikal, Superoxid-Anion) bei oxidativem Stress (z.B: in Hepatozyten [1]) und von Stickoxiden (z.B. in der Lunge [4]) bis hin zu antibiotischen und antiviralen Eigenschaften von Peptiden, die durch Proteasen vom Hämoglobin abgespalten werden [5]. Je nach Zellstatus kann das Ausmaß der Hämoglobin-Expression variieren und bei erhöhtem Sauerstoffbedarf oder als Antwort auf oxidativen Stress/Entzündung hochreguliert werden.

... in Keratinozyten trägt es zur epidermalen Barriere gegen Umweltbelastungen bei....

Unsere Haut bildet eine hochwirksame Barriere gegen Umweltbelastungen - von Trockenheit, hoher Sauerstoffbelastung über Fremdstoffe, Mikroorganismen bis hin zur UV-Bestrahlung. Anpassung an diese Gegebenheiten haben im Laufe der Evolution die ausgeprägte mehrschichtige Struktur der obersten Hautschichte, der Epidermis geschaffen. Dieses hauptsächlich aus Keratinozyten bestehende Epithel, das bei uns Menschen unglaublich - im Mittel nur rund 0,1 mm - dünn ist [6], ist die eigentliche Barriere - die epidermale Barriere - gegen die Außenwelt. Die tiefste einzellige Schicht, das Stratum basale, besteht aus Keratinozyten, die sich aus Stammzellen heraus kontinuierlich und rasch teilen. Dadurch werden Zellen laufend nach außen in obere Schichten gedrängt, wobei sie aufhören sich zu teilen und einen Differenzierungsprozess durchlaufen, der sie innerhalb von rund einem Monat von Zellen des Stratum spinosum über Zellen des Stratum granulosum schließlich zu abgestorbenen verhornten Zellen im Stratum corneum umwandelt, die als Schuppen abgeschiefert werden (siehe dazu Abbildung 3 und auch [7]). Seit mehr als 50 Jahren wird über das Differenzierungsprogramm, die darin vom Stratum basale weg bis hin zur Verhornung involvierten Gene und die sich daraus entwickelnden Barrierefunktionen der epidermalen Schichten geforscht - viele Gene sind jedoch noch nicht entdeckt, weil es schwierig war terminal differenzierte Keratinozyten in ausreichender Menge für die Transkriptomanalyse zu erhalten.

Ein japanisches Team um Masayuki Amagai (RIKEN Center for Integrative Medical Sciences, Yokohama) hat kürzlich über eine umfassende Untersuchung der Gene, die in den zunehmend differenzierten Schichten der oberen Epidermis exprimiert werden, berichtet [2]. Die Forscher haben dabei eine vergleichende Analyse der transkribierten Gene in der gesamten Epidermis und in ihren abgetrennten oberen Schichten aus Hautproben von Menschen und Mäusen durchgeführt. Ein unerwartetes Ergebnis war die Expression des Hämoglobin A Gens in der Epidermis, das in der oberen Epidermis im Vergleich zur gesamten Epidermis angereichert war. Mit immunhistochemischen Methoden wurde auch eine hohe, vom Stratum spinosum zum Stratum granulosum zunehmende Konzentration des Hämoglobin Proteins (HbA) bei Mensch und Maus nachgewiesen. Auch in den Keratinozyten von Haarfollikeln wird HbA produziert, insbesondere in der Isthmusregion, nicht aber in der Wulstregion, die Stammzellen (Marker Keratin 15) und prolifierende Keratinozyten enthält. Abbildung 3.

Abbildung 3. Lokalisierung von Hämoglobin A in Keratinozyten der menschlichen Epidermis und des Haarfollikels (Die Haut stammte von der Hüfte einer 62 jährigen Frau).Oben: Das lila angefärbte HbA-Protein wird mit zunehmender Differenzierung in den Zellen der oberen Schichten zunehmend stärker exprimiert, fehlt jedoch in den toten Zellen des verhornten Stratum corneum. Im Vergleich dazu wird Keratin 10 (K10) gezeigt (grün), das als Marker der Differenzierung in allen Zellen ab dem Stratum spinosum (SS) aufscheint und im toten verhornten Stratum corneum akkumuliert. Der weiße Balken entspricht einer Distanz von 0,05 mm. Unten: Im Haarfollikel ist HbA besonders stark in den Keratinozyten der Isthmus Region (d.i, zwischen Talgdrüse und Haarbalgmuskel) exprimiert, dagegen nicht im unteren Bereich der Wulstregion, der Stammzellen und proliferierende Keratinozyten (Indikator Keratin 15, grün) enthält. (Bilder aus Tahara U., et al. 2023; [2. Lizenz cc-by]). Rechts unten: Schematische Darstellung eines Haarfollikels in der Haut (Bild: A. Friedrich, https://de.wikipedia.org/wiki/Haar#/media/Datei:Anatomy_of_the_skin_de.jpg. Lizenz cc-by)

SB, Stratum basale; SS, Stratum spinosum, SG, Stratum granulosum; SC, Stratum corneum.

Wie früher erwähnt können von HbA abgespaltene Peptide antimikrobielle Aktivitäten aufweisen [5]. In Hinblick auf die ausgeprägte HbA-Expression im Isthmus des Haarfollikels könnte dies - nach Meinung der Autoren - auf den Bedarf an Stammzellschutz gegen die Invasion der Hautmikrobiota an der Follikelöffnung zurückzuführen sein.

...... und schützt vor allem gegen durch UV-Strahlung generierte reaktive Sauerstoffspezies

Die auf unsere Haut auftreffende UV-Strahlung des Sonnenlichts, besteht zu etwa 95 % aus UVA (350-400 nm) Strahlung, der Rest aus UVB (290-320 nm) Strahlung. Die energiereichere UVB-Strahlung verursacht direkte DNA-Schäden, UVA kann dagegen in viel stärkerem Maße als UVB ROS erzeugen.

In Primärkulturen menschlicher Keratinozyten und auch in einem 3D-Epidermis Modell haben die Forscher gesehen, das UVA-Bestrahlungen bereits bei der minimalen erythematischen Dosis, aber nicht UVB-Bestrahlungen die Expression von Hämoglobin hochregulierten. Gleichzeitig wurden durch die UVA-Bestrahlung Wasserstoffperoxid und andere ROS generiert, offensichtlich aber zum Großteil von Hämoglobin abgefangen/neutralisiert. Dies ging aus Versuchen hervor, in denen die Expression von Hämoglobin ausgeschaltet (mittels knockdown) war und die UV-induzierten ROS um ein Vielfaches anstiegen.

Diese Ergebnisse deuten darauf hin, dass die epidermale HbA-Expression durch oxidativen Stress induziert wird und als Antioxidans zur Barrierefunktion der Haut beiträgt; nach Meinung der Autoren stellt dies einen körpereigenen Schutzmechanismus gegen Hautalterung und Hautkrebs dar.


  [1] Saha D., et al. Hemoglobin Expression in Nonerythroid Cells: Novel or Ubiquitous? International Journal of Inflammation, vol. 2014, Article ID 803237, https://doi.org/10.1155/2014/803237.

[2] Tahara U., et al. Keratinocytes of the Upper Epidermis and Isthmus of Hair Follicles Express Hemoglobin mRNA and Protein. J Invest. Dermatol. 143 (12) 2023, DOI: https://doi.org/10.1016/j.jid.2023.08.008.

[3] Zhang, F., et al. An extra-erythrocyte role of haemoglobin body in chondrocyte hypoxia adaption. Nature 622, 834–841 (2023). https://doi.org/10.1038/s41586-023-06611-6

[4] M.P.Sumi et al.,Hemoglobin resident in the lung epithelium is protective for smooth muscle soluble guanylate cyclase function. Redox Biology, 07,2023, 63, https://doi.org/10.1016/j.redox.2023.102717

[5] Olari L-R., et al., The C‑terminal 32‑mer fragment of hemoglobin alpha is an amyloidogenic peptide with antimicrobial properties. Cellular and Molecular Life Sciences (2023) 80:151. https://doi.org/10.1007/s00018-023-04795-8

[6] Lintzeri D.A. et al., Epidermal thickness in healthy humans: a systematic review and meta-analysis (2022) J. Eur.Acad.Dermatol. Venereol. 36: 1191 -1200. https://doi.org/10.1111/jdv.18123

[7] Inge Schuster, 17.07.2015: Unsere Haut - mehr als eine Hülle. Ein Überblick.


Verwandte Themen im ScienceBlog

Gottfried Schatz, 23.01.2015: Der besondere Saft

Inge Schuster, 06.09.2018: Freund und Feind - Die Sonne auf unserer Haut


 

inge Fri, 29.12.2023 - 23:55

Extreme Hitze und Dürre könnten in Europa schon früher auftreten als bislang angenommen

Extreme Hitze und Dürre könnten in Europa schon früher auftreten als bislang angenommen

Fr, 22.12.2023 — Redaktion

Redaktion

Icon Klima

Extreme Hitze und Dürre, wie sie für das Klima am Ende des 21. Jahrhunderts typisch sein werden, könnten in Europa schon früher als angenommen auftreten und dies wiederholt in mehreren aufeinander folgenden Jahren. Das ist die kürzlich publizierte Schlussfolgerung eines Forscherteams vom Max-Planck-Institut für Meteorologie (Hamburg), das eines der weltweit besten hochkomplexen Erdsystemmodelle "MPI Grand Ensemble" für seine Berechnungen einsetzte. Demnach liegt die Wahrscheinlichkeit, dass Hitze und Dürre ein Niveau erreichen, wie man es für das Ende des Jahrhunderts angenommen hatte - selbst bei einer moderaten Erwärmung -, bereits in den 2030er Jahren bei 10 %. Um 2040 könnten ganze Dekaden mit Hitzestress ihren Anfang nehmen, wobei ein warmer Nordatlantik den Wandel beschleunigen wird.*

Wenn die Erderwärmung weiter zunimmt, wird abnorme Hitze häufiger auftreten und extremer werden. Dass Hitze, die unsere bisherige Anpassungsfähigkeit deutlich übersteigt, zu erhöhter Morbidität und Sterblichkeit führt, ist erwiesen - bei den Hitzewellen 2015 in Indien und Pakistan und 2003 in Europa sind Tausende Menschen gestorben. Die Lage wird verschärft, wenn zu extremer Hitze noch hohe Luftfeuchtigkeit, mangelnde nächtliche Abkühlung oder anhaltende Trockenheit hinzukommen. Höchsttemperaturen und zunehmende Schwankungen zwischen extremer Trockenheit und immensen Niederschlägen werden zudem massive Auswirkungen auf Sozioökonomie und Ökologie haben und ganze Landstriche unbewohnbar machen. Die Bedrohung für Mensch und Umwelt wird noch ärger, wenn solche extremen Ereignisse in aufeinanderfolgenden Jahren wiederholt auftreten. Wie sich bei zunehmender Erwärmung die Wahrscheinlichkeit einer solchen mehrjährigen Abfolge von extremer Hitze und Trockenheit verändert, ist allerdings unklar, auch wie bald solche Ereignisse bereits auftreten können und wie diese Wahrscheinlichkeiten außerdem von der internen Variabilität des Klimasystems - spontan erzeugt durch Prozesse und Rückkopplungen im Klimasystem selbst — beeinflusst werden.

Das MPI-GE-Ensemble

Diese interne Variabilität des Klimasystems stellt heute eine der größten Unsicherheiten bei der Beurteilung aktueller Klimaschwankungen und bei den modellbasierten Projektionen der zukünftigen Klimaentwicklung dar. Das Max-Planck-Institut für Meteorologie (MPI-M) in Hamburg entwickelt und analysiert hochkomplexe Erdsystemmodelle, welche die Prozesse in der Atmosphäre, auf dem Land und im Ozean simulieren. Das MPI Grand Ensemble (MPI-GE) ist eines der größten derzeit verfügbaren Ensembles für die Anfangsbedingungen eines umfassenden, vollständig gekoppelten Erdsystemmodells, mit dem u.a. die Unsicherheiten der internen Variabilität des Klimasystems untersucht werden können [1].

An Hand von hundert Simulationen mit diesem Erdsystem-Modell hat nun ein Forscherteam vom MPI für Meteorologie die Wahrscheinlichkeit für das (wiederholte) Auftreten von extremen Hitze- und Dürrestress berechnet. Die Ergebnisse wurden eben im Fachjournal Nature Communications Earth & Environment publiziert [2].

Die wichtigsten Aussagen

Selbst bei einer moderaten Erwärmung wird ein noch nie dagewesenes Ausmaß an Hitze- und Dürrestress, wie dies für das Klima am Ende des Jahrhunderts typisch sein wird, in naher Zukunft europaweit möglich sein.

Den Projektionen zufolge werden alle untersuchten Formen von Hitzestress bereits im Jahrzehnt 2030-2039 mit einer Wahrscheinlichkeit von 1:10 ein Niveau erreichen oder übertreffen, das vor 20 Jahren praktisch unmöglich war. Darüber hinaus wird der für das Ende des Jahrhunderts typische, wiederholt in aufeinanderfolgenden Jahren auftretende extreme Hitze- und Dürrestress bereits ab 2050 mit einer Wahrscheinlichkeit von mehr als 1:10 möglich sein (dergleichen war seit Beginn der Aufzeichnungen noch nie beobachtet worden). Bis dahin werden in 20 % der Fälle zwei aufeinanderfolgende Jahre mit für das Ende des Jahrhunderts typischen Niederschlagsdefiziten prognostiziert, und es besteht ein nicht zu vernachlässigendes Risiko für 5 Jahre anhaltende extreme Dürre. Abbildung.

Wahrscheinlichkeit, dass es in Europa zu extremen, für das Ende des Jahrhunderts typischen Hitze- Dürreperioden kommt. a) Wahrscheinlichkeit für das Auftreten extremer Hitze (rot),verbunden mit hoher Luftfeuchtigkeit, mangelnder nächtlicher Abkühlung oder anhaltender Trockenheit in einem Jahr und in den folgenden 2 oder 5 Jahren, für die Zeiträume 2000-2024 (helle Farben), 2025-2049 (mittel-helle Farben) und 2050-2074 (dunkle Farben). Wahrscheinlichkeit von extremem Hitzestress in Europa in 2 aufeinanderfolgenden Jahren (b) und von extremer Hitze und Trockenheit in 5 aufeinanderfolgenden Jahren (c) im Zeitraum 2025-2049. (Quelle: L. Suarez-Gutierrez et al., https://doi.org/10.1038/s43247-023-01075-y [2]; Lizenz cc-by.)

Bei gleichbleibender globaler Erwärmung wird nicht nur die Häufigkeit von Hitze- und Dürreextremen zunehmen, auch deren Bandbreite wird von Jahrzehnt zu Jahrzehnt größer werden.

Diese Spanne wird so groß werden, dass Hitze- und Dürreperioden, wie sie für das Klima am Ende des Jahrhunderts typisch sein werden, in Europa bereits im Jahr 2040 Realität werden könnten. Im günstigsten Fall werden dann die Höchtstemperaturen bei Tag und Nacht im Bereich der Werte des wärmsten bislang in Europa aufgezeichneten Jahrzehnts von 2010 - 2019 liegen; im schlimmsten Fall wird die Häufigkeit und Heftigkeit der extremen Hitze- und Dürreperioden die für das Ende des Jahrhunderts typischen Ereignisse bei weitem übersteigen.

Der Einfluss des Nordatlantiks

Jedes dieser verheerenden Ereignisse könnte durch die interne Variabilität des Klimasystems früher als erwartet nach Europa gebracht werden können. Die über Dekaden zunehmende Variabilität des europäischen Hitze- und Dürrestresses wird stark von der multidekadischen Variabilität des Nordatlantiks beeinflusst. Diese zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik (atlantic multidecadal variability - AMV) hat eine Periodendauer von 50 bis 70 Jahren und besitzt „warme“ und „kalte“ Phasen mit veränderten Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens, die sich auf die Temperatur der Atmosphäre auswirken. Die Simulationen am MPI-GE zeigen, dass bei gleichzeitig wärmerem Nordatlantik bereits im Jahr 2030 ein Überschreiten der für das Ende des Jahrhunderts typischen Werte für einfache und komplexe Hitze- und Dürreperioden doppelt so wahrscheinlich ist, als bei einem kalten Nordatlantik.


 *Diese Forschung wurde im Rahmen des vom deutschen Bundesministerium für Bildung und Forschung geförderten Projekts ClimXtreme durchgeführt und durch das Rahmenprogramm Horizon Europe der Europäischen Union unter den Marie Skłodowska-Curie Maßnahmen kofinanziert.

„ClimXtreme – Klimawandel und Extremereignisse“ hat unter Beteiligung von 39 Forscherteams in einer ersten Phase von 2019 - 2023 erforscht, wie sich der Klimawandel auf die Häufigkeit und Intensität von Extremwetterereignissen auswirkt. Nun startet die zweite Phase, die auch Zukunftsprognosen für Anwender, wie etwa für den Katastrophenschutz, Versicherungen, Landwirtschaftsverbände, Hochwasservorsorge, etc. entwickeln wird., um das Angebot ihrer Leistungen auf kommende Schäden durch Extremwetter besser abschätzen zu können. https://www.fona.de/de/aktuelles/nachrichten/2023/231207_ClimXtreme_Phase_2_b.php


[1] Das Max-Planck-Institut Grand Ensemble – ein Instrument zur Untersuchung der internen Variabilität des Klimasystems: https://mpimet.mpg.de/kommunikation/detailansicht-news/das-max-planck-institut-grand-ensemble-ein-instrument-zur-untersuchung-der-internen-variabilitaet-des-klimasystems. (abgerufen am 20.12.2023)

[2] Suarez-Gutierrez, L., Müller, W.A. & Marotzke, J. Extreme heat and drought typical of an end-of-century climate could occur over Europe soon and repeatedly. Commun Earth Environ 4, 415 (2023). https://doi.org/10.1038/s43247-023-01075-y


Klimawandel im ScienceBlog

ist ein Schwerpunktsthema mit bis jetzt knapp 50 Artikeln, die vom Überblick über Klimamodelle bis zu den Folgen des Klimawandels und den Bestrebungen zu seiner Eindämmung reichen.

Eine chrononologische Lise der Artikel findet sich unter: Klima & Klimawandel


 

inge Fri, 22.12.2023 - 13:04

Wie haben 15-jährige Schüler im PISA-Test 2022 abgeschnitten?

Wie haben 15-jährige Schüler im PISA-Test 2022 abgeschnitten?

Sa, 16.12.2023— Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Am 5. Dezember sind die Ergebnisse der neuen internationalen Schulleistungsstudie PISA veröffentlicht worden. PISA wird seit dem Jahr 2000 von der OECD weltweit in Mitgliedstaaten und Nicht-Mitgliedstaaten alle drei Jahre durchgeführt. Dabei wird evaluiert, inwieweit Schüler im Alter von 15 Jahren über die für eine volle gesellschaftliche Teilhabe unerlässlichen Schlüsselkenntnisse und -kompetenzen in den drei Bereichen Lesekompetenz, Mathematik und Naturwissenschaften verfügen. Das Ergebnis: Im OECD-Durchschnitt schnitten 15-Jährige wesentlich weniger gut ab als bei den PISA-Tests 2018 und vor zehn Jahren, wobei Im deutschsprachigen Raum zwar alle Bewertungen über dem OECD-35 Durchschnitt liegen, aber auf einen vhm. hohen Anteil Jugendlicher hinweisen, welche die Grundkompetenzen in den Fächern fehlen. Insgesamt gesehen bringen die Reports kaum Anhaltspunkte, wie weniger erfolgreiche Bildungssysteme verbessert werden könnten.

Durch die Corona-Pandemie bedingt wurde die für 2021 geplante PISA-Studie (Programme for International Student Assessment) auf 2022 verschoben. Der Schwerpunkt der Erhebung lag dieses Mal auf Mathematik; untergeordnet waren die Bereiche Naturwissenschaften und Lesekompetenz (neu hinzugekommen ist ein Bereich kreatives Denken, dessen Ergebnisse aber erst 2024 berichtet werden sollen).

An der Studie haben mehr Staaten und Volkswirtschaften - 37 OECD Mitglieder, 44 Partnerländer - als je zuvor teilgenommen. Stellvertretend für die etwa 29 Millionen 15-jährigen Schüler dieser Länder haben sich rund 690 000 Schüler den Tests unterzogen. In den meisten Ländern wurden zwischen 4000 und 8 000 Schüler aus repräsentativen Stichproben getestet.

Konkret haben die Schüler während zwei Stunden Tests in zwei Bereichen (Mathematik & Naturwissenschaften oder Mathematik & Lesekompetenz) am Computer absolviert und danach in rd. 35 Minuten einen Fragebogen zu ihrem sozioökonomischen Status und zu anderen Fragen ausgefüllt. Dabei wurden Zusammenhänge zwischen Leistungen und sozioökonomischem Status, Geschlecht sowie Migrationshintergrund und auch zu den Auswirkungen der Corona-Pandemie untersucht.

Ein Mammutprojekt, was den Umfang der Ergebnisse betrifft.

Diese liegen nun in zwei insgesamt rund 1000 Seiten umfassenden Publikationen "Lernstände und Bildungsgerechtigkeit" [1] und "Learning During – and From – Disruption" [2] vor, weitere 3 Publikationen sind für 2024 geplant. Zusätzlich gibt es Zusammenfassungen für die einzelnen teilnehmenden Länder (https://www.oecd.org/publication/pisa-2022-results/country-notes/), eine Zusammenfassung "PISA 2022: Insights and Interpretations" [3] und auf 2 Seiten in Bildern "PISA 2022 key results (infographic)"[4].

Leider gibt es Ungereimtheiten bei den Aussagen und Interpretationen und es werden wenig Anhaltspunkte zur Verbesserung weniger erfolgreicher Systeme geboten.

Wie werden PISA-Tests analysiert/bewertet?

Vorweg eine kurze Zusammenfassung, um mit den Zahlen in den nächsten Abschnitten etwas anfangen zu können:

Die Testergebnisse werden einer Normalverteilung entsprechend skaliert mit Mittelwerten von etwa 500 Punkten und Standardabweichungen von etwa 100 Punkten. Bei den ersten schwerpunktmäßig getesteten Bereichen (Lesen: PISA 2000; Mathematik: PISA 2003; Naturwissenschaften: PISA 2006) haben 2/3 der Schüler demnach einen Wert zwischen 400 und 600 Punkten, 95 % der Schüler zwischen 300 und 700 Punkten erreicht.

Die verschiedenen Schwierigkeitsgrade in den Testbeispielen werden auf nach oben und unten offenen, in Kompetenzstufen unterteilten Skalen dargestellt. In Mathematik entspricht jede Kompetenzstufe einer Spanne von etwa 62 Punkten (Schwellenwerte der Kompetenzstufen in Zahlen: 1c = 233,1b = 295, 1a = 358, 2 = 420, 3 = 482, 4 = 545, 5 = 607, 6 = 669) (Tab. I.3.1 [1]). In Naturwissenschaften beträgt die Spanne etwa 75 Punkte, in Lesekompetenz ungefähr 73 Punkte.

Stufe 2 gilt als Grundkompetenzniveau, um in vollem Umfang am gesellschaftlichen Leben teilzuhaben. Schüler, die diese Stufe nicht erreichen - in Mathematik 420 Punkte, in Naturwissenschaften 410 Punkte, in Lesen 407 Punkte - werden als leistungsschwach bezeichnet, Schüler, die die Kompetenzstufen 5 oder 6 erreichen als  leistungsstark.

Globale PISA-Ergebnisse 2022

Seit dem Beginn der PISA-Erhebungen haben die durchschnittlichen Schülerleistungen weltweit in allen 3 Bereichen abgenommen. Wurde ursprünglich ein OECD-Leistungsdurchschnitt in den drei Bereichen von jeweils 500 Punkten festgelegt, so liegen nun die Durchschnitte von 35 OECD Ländern bei 472 Punkten in Mathematik, 485 Punkten in Naturwissenschaften und 472 Punkten in Lesekompetenz. Am stärksten ist der OECD-Leistungsdurchschnitt in Mathematik seit 2018 gesunken (Rückgang um fast 15 Punkte, d.i. dreimal so hoch wie jede der vorherigen Veränderungen) und in der Lesekompetenz (um 10 Punkte). Der Rückgang in den Naturwissenschaften (um 4 Punkte) fiel wesentlich geringer aus und war statistisch nicht signifikant. In den Key Results-Infografik ([1], [4]) wird der Rückgang und auch dessen Interpretation im Stil der in Zeitungen üblichen Clickbaits dargestellt (Abbildung 1).

Abbildung 1. Durchschnittliche Punktezahl in 22 OECD-Ländern seit dem Beginn der Pisatestungen und durchschnittlicher Rückgang im Lernfortschritt seit 2018 in Schuljahren. Ursprünglich wurde der Mittelwert in den OECD-Ländern auf 500 Punkte festgelegt. Die Grafik stammt aus PISA 2022 Key Results (infographic) [4]. Lizenz: cc-by-nc-sa). Caveat: Durchschnitt aus nur 23 Ländern! Zahlen stimmen nicht mit den tatsächlichen OECD-Durchschnittswerten seit 2000 überein.

Der Rückgang in Mathematik seit 2018 wird in den Key Results mit einem Lernrückschritt von etwa einem Dreivierteljahr gleichgesetzt, der Rückgang in Lesekompetenz mit einem halben Schuljahr (Abbildung 1). Als Basis dafür wurde ein aus aktuellen Schätzungen stammender Referenzwert von 20 Punkten für das durchschnittliche jährliche Lerntempo der 15-Jährigen in den Ländern der PISA-Teilnehmer angewandt (Kasten I.5.1 in Kapitel 5 [1]). Im selben Absatz warnt die OECD allerdings gleichzeitig davor "diesen Wert zu verwenden, um Punktezahldifferenzen in Äquivalente von Schuljahren (oder Schulmonaten) umzurechnen. Denn zum einen variiert das Lerntempo in einem bestimmten Alter von Land zu Land erheblich,..... Und zum anderen gibt es keinen Grund zur Annahme, dass das Lerntempo im Zeitverlauf konstant bleibt."

Die obige Quantifizierung des Lernrückschritts erscheint nicht nur auf Grund unterschiedlicher OECD Aussagen fragwürdig - beispielsweise wendet der Schweizer PISA-2022 Nationalbericht auf Basis anderer Schätzungen die Faustregel an, dass ungefähr 40 Leistungspunkte dem Lernfortschritt von einem Schuljahr entsprechen [5].

Wie ist nun der Abwärtstrend der OECD-Durchschnittsleistungen - insbesondere seit 2018 - zu bewerten?

In Anbetracht der hohen Punktedifferenzen zwischen leistungsschwachen und leistungsstarken Schülern innerhalb eines Landes und dem durchschnittlichen Leistungsabstand zwischen den leistungsstärksten und leistungsschwächsten Ländern (beispielsweise liegen in OECD-Ländern 153 Punkte zwischen Japan und Kolumbien, unter allen PISA-Teilnehmern 238 Punkte zwischen Singapur und Kambodscha) ist der Abwärtstrend zwar als eher klein aber als Warnsignal anzusehen:

Insgesamt gesehen sind seit 2018 die PISA-Punktzahlen im OECD-Durchschnitt sowohl bei den besonders leistungsstarken als auch bei den leistungsschwachen Schülern zwischen 2012 und 2022 zurückgegangen, d.i. der Anteil der leistungsschwachen Schüler hat zugenommen, der Anteil der leistungsstarken Schüler abgenommen.

In den OECD-Mitgliedstaaten haben 2022 rund 31 % der 15-Jährigen in Mathematik die Kompetenzstufe 2 nicht erreicht, das heißt es fehlt ihnen die Fähigkeit Mathematik in einfachen Alltagssituationen anzuwenden, 26 % erwiesen sich als leistungsschwach in der Lesekompetenz - sie können einfache Texte nicht interpretieren und 24 % sind leistungsschwach in den Naturwissenschaften, d.i. sie können nicht auf aus dem Alltag stammendes konzeptuelles Wissen zurückgreifen, um Aspekte einfacher Phänomene zu erkennen (siehe auch Tabelle 2).

Bei vielen Nicht-OECD-Mitgliedern fallen die Schülerleistungen noch negativer aus - in 18 Ländern und Volkswirtschaften - darunter 3 Balkanländern - sind mehr als 60 % der 15-Jährigen in allen drei Fächern leistungsschwach (Panama, Saudi-Arabien, Georgien, Nordmazedonien, Indonesien, Albanien, Jordanien, El Salvador, Paraguay, Guatemala, Marokko, Dominikanische Republik, Philippinen, Usbekistan, Kosovo, Kambodscha, Baku, Palästinenser-Gebiete).

Es gibt aber auch positive Entwicklungen.

Tabelle 1. Durchschnittliche Schülerleistungen in Punktezahlen (in Klammer: Veränderung seit 2018) in ostasiatischen Staaten/Volksgemeinschaften. Diese nehmen die Spitzenplätze aller Wertungen in den 81 getesteten Ländern/Volkswirtschaften ein. .

Einige ostasiatische Staaten und Volkswirtschaften haben sich zu besonders leistungsstarken Gebieten entwickelt, die ihre bereits 2018 sehr hohen Leistungen z.T. noch steigern konnten und nun die Weltranglisten in allen 3 Disziplinen anführen: Singapur, Hongkong (China), Japan, Korea, Macau (China) und Chinesisch Taipei. Tabelle 1.

Was im Report nicht Platz findet: Es sind Gesellschaften, die vor allem vom Konfuzianismus geprägt sind, der eine prinzipiell positive Einstellung zum Lernen hat.

Ist die COVID-Pandemie am Leistungsabfall seit 2018 schuld?

Das wäre eine einfache Erklärung - allerdings kann der Leistungsabfall nur zum Teil durch die mit der COVID-19-Pandemie einhergehenden Schulschließungen und Problemen bei der Umstellung auf den digitalen Distanzunterricht erklärt werden. Der Zeitverlauf der PISA-Daten zeigt deutlich, dass der Abwärtstrend in zahlreichen Ländern bereits vor 2018 begonnen hatte (siehe auch Abbildung 3).

PISA-2022 in Europa

Dass Europa durch einen Bildungsvorhang in zwei Teile getrennt ist, ist nicht neu aber in den PISA 2022-Reports kein Thema. Abbildung 2 zeigt diese Spaltung am Beispiel der durchschnittlichen Mathematikleistung - die Ergebnisse in Naturwissenschaften und Lesekompetenz geben ein ganz ähnliches Bild. Auf der einen Seite steht der Block von 24 OECD-Staaten, auf der anderen Seite der Block der Balkanländer und daran angrenzend Moldawien und die Ukraine; Kroatiens Durchschnittsleistungen in allen 3 Bereichen, lassen das Land als Teil des OECD-Blocks erscheinen.

Abbildung 2. PISA 2022: Ein Bildungsvorhang trennt die europäischen Staaten. Durchschnittsleistungen in Mathematik; schwarze Zahlen: OECD-Länder, blaue Zahlen Nicht-OECD-Länder.(Quelle: https://factsmaps.com/pisa-2022-worldwide-ranking-average-score-of-mathematics-science-and-reading/. Daten aus Table 1.B1.2.1. [1])

In Mathematik liegen die Durchschnittsleistungen von 24 Ländern des OECD-Blocks im Bereich der OECD-Durchschnittsleistung von 472 Punkten oder darüber und diese haben damit im Durchschnitt mindestens die Grundkompetenzstufe 2 (Spanne 420 - 482 Punkte) erreicht. Am besten schnitten Estland (510 Punkte) und knapp dahinter die Schweiz (508 Punkte) ab - 51 Punkte trennen die Nummer 1 von Island (459 Punkte), dem Land mit der niedrigsten Durchschnittsleistung, das einst mit Finnland und Schweden zu den Vorreitern im Bildungsbereich gehörte. Seit 2018 sind die Leistungen in allen europäischen OECD-Ländern gesunken, in vielen davon um mehr als 20 Punkte.

Die Mathematikleistungen des Balkanblocks liegen im Durchschnitt um 80 Punkte unter denen des OECD-Blocks, wobei der Kosovo (355 Punkte), Albanien (368 Punkte) und Nordmazedonien (389 Punkte) die schlechtesten Wertungen erhielten, im Durchschnitt Kompetenzstufe 2 nicht erreichten. Auch in Naturwissenschaften und Lesen schnitten diese und die anderen Länder des Balkanblocks ganz ähnlich ab wie in Mathematik.

Leistungstrends in Österreich und Vergleichsländern

Die Durchschnittsergebnisse in Mathematik, Naturwissenschaften und Lesekompetenz fielen in Österreich, Deutschland und der Schweiz schwächer aus als in den Jahren davor. Abbildung 3.

Abbildung 3. Wie haben Schüler in Österreich, Deutschland und der Schweiz in den drei Testbereichen seit 2000 abgeschnitten? Punkte: Durchschnittsleisung, Schwarze Linien: bester Trend, orange Linien: OECD-Durchschnittsleistung (aus nur 23 Ländern! - die Kurven stimmen nicht mit den tatsächlichen OECD-Werten seit 2000 überein.) Quelle: https://www.oecd.org/publication/pisa-2022-results/country-notes/. Lizenz cc-by-nc-sa.

In den drei Ländern ist der Leistungsdurchschnitt in allen Bereichen seit Beginn der PISA-Tests massiv zurückgegangen, die Länder liegen dennoch über oder am OECD-Durchschnitt: über dem Durchschnitt sind in Mathematik die Schweiz um 36 Punkte, Österreich um 15 Punkte, Deutschland um 3 Punkte; in den Naturwissenschaften um 6 resp. 7 Punkte in Österreich und Deutschland und um 18 Punkte in der Schweiz und schließlich in der Lesekompetenz um jeweils 8 Punkte in Österreich und Deutschland und um 11 Punkte in der Schweiz (siehe auch Tabelle 2).

Wo liegen damit die drei Länder in der globalen Bewertung?

Als Vergleichsländer sollen das frühere Vorzeigeland Finnland, die derzeitige Nummer 1 in Europa, Estland und die globale Nummer 1 Singapur dienen (Tabelle 2).

Auch in Finnland und Estland sind die Leistungen seit 2018 in allen Gebieten zurückgegangen, in Singapur dagegen in Mathematik und Naturwissenschaften noch gestiegen - dort liegen diese nun um bis zu 100 Punkten über den Bewertungen unserer Länder.

Tabelle 2. Durchschnittliche Schülerleistungen in den deutschsprachigen Ländern und Vergleichsländern.

Leistungsschwache und leistungsstarke Schüler

Wie bereits früher erwähnt, liegt der Anteil der Schüler die die Grundkompetenzstufe 2 nicht erreichen im OECD-Durchschnitt bei rund einem Viertel in Naturwissenschaften und in Lesekompetenz und bei fast einem Drittel in Mathematik. Etwa 9 % der Schüler erreichten die höchsten Leistungsniveaus in Mathematik und rund 7 % in Naturwissenschaften und Lesekompetenz. Der Anteil leistungsschwacher und leistungsstarker Schüler ist in Deutschland in allen Fächern etwa gleich hoch wie im OECD-Durchschnitt, schwache und starke Leseleistung liegen auch in Österreich und der Schweiz im OECD-Durchschnitt. Österreich und vor allem die Schweiz haben einen niedrigeren Anteil an sehr schwachen und einen höheren Anteil an starken Mathematik-Schülern. In Naturwissenschaften liegt Österreich etwas, die Schweiz stärker über dem OECD-Durchschnitt. Abbildung 4. Der Anteil der leistungsschwachen Schüler ist in Österreich seit 2012 um jeweils 6 % in Mathematik und in den Naturwissenschaften und um 5 % in Lesekompetenz gewachsen.

Abbildung 4. Anteil der Schüler [%], welche die Grundkompetenzstufe 2 nicht erreichten und welche mindestens Kompetenzstufe 5 erzielten. Quelle: PISA-2022-Datenbank, Tabelle I.B1.5.1–12, I.B1.5.19, I.B1.5.20 und I.B1.5.21[1]

Im Vergleich dazu:

Estland, die Nummer 1 in Europa weist mit 15 % in Mathematik, 10 % in Naturwissenschaften und 14 % im Lesen wesentlich niedrigere Anteile an sehr schwachen und mit 13 % in Mathematik, 12 % in Naturwissenschaften und 11% im Lesen höhere Anteile an leistungsstarken Schülern auf als die deutschsprachigen Länder.

In Mathematik nimmt Singapur die globale Spitzenposition ein: 8 % liegen unter Kompetenzstufe 2 und 41 % erreichten Stufe 5, 6. Spitzenleistungen in Mathematik erzielten auch die anderen ostasiatischen Staaten/Volkswirtschaften Taipei (32%), Macao (China) (29%), Hong Kong (27%), Japan (23%) und Korea (23%).

Insgesamt gesehen und für das weitere Berufsleben entscheidend ist der Anteil der 15-Jähringen, die in allen 3 Fächern die Grundkompetenzstufe nicht erreichen: im OECD-Raum liegt dieser bei 16,4 %, in Deutschland (16,7 %) vergleichbar hoch, in Österreich (15,5 %) kaum viel niedriger und auch in der Schweiz mit 12,4 % noch zu hoch. In Estland sind es dagegen nur 5,2 % (Tabelle 1.1[1]).

Wie lässt sich der Rückgang der Schülerleistungen seit 2018 erklären?

Wie oben bereits erwähnt - sicherlich nicht ausschließlich durch die Folgen der Corona-Pandemie. Auf keinen Fall auch durch die weltweiten, seit langem bestehenden Leistungsunterschiede: Buben in Mathematik besser als Mädchen, Mädchen in Lesekompetenz besser als Buben.

Ein wichtiger Prädikator der Schülerleistungen ist der sozioökonomische Status - ESCS -, d.i. der wirtschaftliche, soziale und kulturelle Background der Schüler (ein Index, der sich aus der höchsten Bildungsstufe der Eltern, deren höchster beruflicher Stellung und dem materiellen Wohlstand der Familie zusammensetzt). Wie auch in früheren Studien gezeigt, schneiden sozioökonomisch begünstigte Schüler besser ab als benachteiligte Schüler. Im OECD-Durchschnitt liegt beispielsweise der Leistungsunterschied von begünstigten vs. benachteiligten Schüler in Mathematik bei 93 Punkten. Der aktuelle Punkteabstand in Österreich sind 106 Punkte, in Deutschland 111 Punkte und in der Schweiz 117 Punkte - kein Unterschied zum globalen Top-Performer Singapur bei 112 Punkten.

Ein wesentlicher Unterschied liegt allerdings in der Zuwanderung von sozioökonomisch-kulturell unterschiedlich geprägten Menschen. Der Report [1] schreibt dazu "Der Anteil der Schüler mit Migrationshintergrund hat sich in den meisten PISA-Teilnehmerländern seit 2012 nicht nennenswert verändert; in 20 Ländern bzw. Volkswirtschaften ist er jedoch gestiegen und in 5 anderen gesunken. Im OECD-Durchschnitt beträgt der Anteil der 15-jährigen Schüler mit Migrationshintergrund 13 %. In 40 Ländern und Volkswirtschaften machen die Schüler mit Migrationshintergrund weniger als 5 % der Grundgesamtheit der 15-jährigen Schüler, in 11 ist er höher als 25 %."

Zu diesen 11 Ländern gehören Österreich, Deutschland und die Schweiz. In Europa weisen sie die höchsten Anteile von 15-jährigen Schülern mit Migrationshintergrund auf und deren Anteil ist seit 2012 enorm gestiegen. Abbildung 5.

Abbildung 5.Der Anteil der migrantischen Schüler ist zwischen 2012 und 2022 in den deutschsprachigen Ländern im Vergleich zum OECD-Raum enorm gestiegen. Die Leistungsdifferenz kann nur teilweise durch den unterschiedlichen sozioökonomischen Background erklärt werden. Punktedifferenz: nicht-migrantische vs migrantische Schüler- in Klammer nach Berücksichtigung der soziökonomischen Unterschiede. (Daten aus [1], Bild rechts aus Key Results Infografic [4], Lizenz: cc-by-nc-sa)

Der PISA-Report fährt fort: "Der Anteil der sozioökonomisch benachteiligten Schüler ist im OECD-Durchschnitt unter den Schülern mit Migrationshintergrund größer (37 %) als unter denen ohne (22 %)" [1]. In den meisten Ländern schneiden daher Schüler ohne Migrationshintergrund in allen PISA-Erhebungsbereichen besser ab. Erschwerend kommt noch die Sprachbarriere hinzu - Schüler mit Migrationshintergrund sprechen zu Hause überwiegend eine andere Sprache als die Schulsprache - In Österreich, Deutschland und der Schweiz sind dies mehr als 60 %.

Die hohen Migrationsströme in die deutschsprachigen Länder haben zweifellos zu einem Rückgang der Durchschnittsleistungen beigetragen; im Vergleich dazu gibt es in der Nummer 1 in Europa, Estland, nur 8,7 % Schüler mit Migrationshintergrund, die sich zudem in den Leistungen von den anderen Schülern weniger unterscheiden.

Die mit "Kein signifikanter Unterschied zwischen Schüler*innen mit und ohne Migrationshintergrund" übertitelte Infografik in Abbildung 5 ist wiederum ein clickbait, der nicht die reale Situation, sondern bloß ein Wunschdenken der OECD vermittelt: "Wenn die Bildungspolitik sozioökonomische Benachteiligung und Sprachbarrieren bei Schüler*innen mit Migrationshintergrund ausgleicht (u. a. durch einen gezielten Einsatz von Bildungsressourcen zugunsten sozioökonomisch benachteiligter Schüler*innen mit Migrationshintergrund), können die Länder und Volkswirtschaften die Leistungen ihrer Schüler*innen mit Migrationshintergrund beträchtlich steigern."[1]

Ein wenig ermunternder Ausblick

den Andreas Schleicher, Direktor für Bildung und Kompetenzen bei der OECD, in dem Report Insights and Interpretations gibt [3]."Die Ergebnisse bieten eine Momentaufnahme der Bildungssysteme zu einem bestimmten Zeitpunkt; aber sie zeigen nicht - sie können nicht zeigen - wie die Schulsysteme zu diesem Punkt gekommen sind oder die Institutionen und Organisationen, die den Fortschritt gefördert oder behindert haben könnten. Außerdem sagen die Daten nicht wirklich viel über Ursache und Wirkung aus. Wir wissen zwar besser, was erfolgreiche Systeme tun, aber das sagt uns nicht unbedingt, wie wir weniger erfolgreiche Systeme verbessern können."[3]

Vielleicht hätte Schleicher auf die OECD-Definition des sozioökomischen Profils Bezug nehmen sollen, das durch den PISA-Index des ökonomischen, sozialen und kulturellen Status gemessen wird. Was die als Sieger im PISA-Test hervorgehenden ostasiatischen Länder auszeichnet, ist eine Weltanschauung, die auf Lernen und Leistung ausgerichtet ist. Um dazu den Lehrmeister Konfuzius zu zitieren:

Etwas lernen und mit der Zeit darin immer geübter werden,

ist das nicht auch eine Freude? [6].


[1] OECD (2023), PISA 2022 Ergebnisse (Band I): Lernstände und Bildungsgerechtigkeit, PISA, OECD Publishing, Paris, , https://doi.org/10.1787/b359f9ab-de.

[2] OECD (2023), PISA 2022 Results (Volume II): Learning During – and From – Disruption, PISA, OECD Publishing, Paris, https://doi.org/10.1787/a97db61c-en.

[3] Andras Schleicher: Insights and Interpretations: https://www.oecd.org/pisa/PISA%202022%20Insights%20and%20Interpretations.pdf

[4] PISA 2022 key results (infographic): https://www.oecd-ilibrary.org/sites/afda44bb-en/index.html?itemId=/content/component/afda44bb-en

[5] Erzinger, A. B., et al., (Hrsg.) (2023). PISA 2022. Die Schweiz im Fokus. Universität Bern. https://dx.doi.org/10.48350/187037

[6] Konfuzius-Aussprüche: https://www.aphorismen.de/zitat/3971, abgefragt am 10.12.2023

 


Artikel zum Thema im ScienceBlog:

Inge Schuster, 04.02.2023: Enorme weltweite Bildungsdefizite - alarmierende Zahlen auch in Europa.

Inge Schuster, 30.10.2021: Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Inge Schuster, 03.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

Inge Schuster, 10.08.2017: Migration und naturwissenschaftliche Bildung


 

inge Sat, 16.12.2023 - 00:51

Roboter lernen die Welt entdecken

Roboter lernen die Welt entdecken

Sa, 02.12.2023 — Roland Wengenmayr

Roland WengenmayrIcon Künstliche Intelligenz

Roboter können den Menschen heute bereits bei manchen alltäglichen Aufgaben unterstützen. Doch unbekannte Umgebungen oder auch kleine Abweichungen in den Aufgaben, auf die sie trainiert sind, überfordern sie. Damit sie rascher lernen, sich auf Neues einzustellen, entwickeln die Forschungsgruppen von Michael Mühlebach und Jörg Stückler am Max-Planck-Institut für Intelligente Systeme in Tübingen neue Trainingsmethoden für die Maschinen. Ihre Roboter müssen sich dabei auch im Pingpong oder Bodyflying bewähren.*

Anspruch und nicht Wirklichkeit: Bis Roboter so geschmeidig wie Menschen tanzen und dabei auch Bewegungen improvisieren können wie auf diesem mit KI erstellten Foto, wird es noch eine Weile dauern. Ihnen eine Art Körpergefühl zu vermitteln, ist ein Schritt in diese Richtung

Intelligent handelnde Roboter waren schon ein Technikmythos, ehe es Maschinen gab, die diese Bezeichnung auch nur annähernd verdienten. Doch was können Roboter heute wirklich? Wie weit sind sie noch von Science-Fiction-Ikonen wie dem amüsant menschelnden C-3PO aus Star Wars entfernt? Bei der Suche auf Youtube landet man schnell bei einem Video der US-amerikanischen Roboterfirma Boston Dynamics. Darin verblüfft der humanoide Roboter Atlas mit Saltos, er rennt und hüpft mit einem Zwillingsbruder über einen anspruchsvollen Trainingsparcours oder unterstützt einen Menschen auf einem Baugerüst (Links zu Videos im Anhang; Anm. Redn.). Doch so beeindruckend leichtfüßig und fast unheimlich menschenähnlich sich diese Roboter auch bewegen können: Sie tun dies in einer vertrauten Umgebung, auf die sie trainiert worden sind. Wozu Atlas und Konsorten tatsächlich fähig wären, wenn sie sich in einem für sie komplett neuen Umfeld orientieren und selbstständig handeln müssten, das erfährt man nicht – Firmengeheimnis.

Joachim Hertzberg, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz und Professor an der Universität Osnabrück, ist beeindruckt von der komplexen Bewegungsfähigkeit der Roboter von Boston Dynamics. Doch er wendet auch gleich ein: Würde man einem heutigen Roboter den Befehl geben, in einer ihm unbekannten Umgebung einen Auftrag selbstständig und planvoll auszuführen, und sei es nur, einen Kaffee zu holen, sähe das Resultat deutlich weniger spektakulär aus. „Das Gebiet heißt zwar künstliche Intelligenz, aber es kommt auf Intelligenz an, die wir selber für völlig unintelligent halten“, sagt Hertzberg, „also die Fähigkeit, sich in einer Umgebung vernünftig zurechtzufinden, Aufgaben zum ersten Mal zu machen, ohne sie zuvor geübt zu haben, situations- und zielangemessen zu handeln.“

Flexible Algorithmen

Einen Schritt hin zu Robotern, die auch in unbekannten Umgebungen und bei neuen Aufgaben die Orientierung behalten, machen Maschinen, die permanent lernen – und das möglichst schnell. An solchen Systemen arbeiten zwei Teams am Max-Planck-Institut für Intelligente Systeme in Tübingen. Anders als Unternehmen oder anwendungsorientierte Forschungseinrichtungen reduzieren die Forschenden die Komplexität der Aufgaben, die ihre Maschinen bewältigen müssen, um diesen zunächst elementare Aspekte der Orientierung beizubringen. Michael Mühlebachs Gruppe beschäftigt sich mit der Frage, wie Roboter durch Vorwissen über ihre eigenen physikalischen Eigenschaften, vermenschlicht ausgedrückt, eine Art Körpergefühl trainieren können. Denn dieses brauchen sie, um sich in einer unbekannten Umgebung bewegen und Befehle präzise ausführen zu können. Darum geht es auch in Jörg Stücklers Gruppe, die daran arbeitet, Robotern das Sehen beizubringen. Zum Sehen gehört, dass Roboter lernen, Objekte – ruhend und bewegt – in beliebiger Umgebung zu erkennen. Das Erkennen beschränkt sich hier allerdings auf rein physikalische Eigenschaften der Objekte, etwa ihre Größe, Form und Farbe, was allein schon eine gewaltige Herausforderung ist.

Ein permanent lernender Algorithmus steckt etwa im Tischtennisroboter Pamy, dessen Hardware weitgehend die Gruppe von Dieter Büchler am Tübinger Max-Planck-Institut entwickelt hat. Auf Veränderungen im Spiel muss Pamy nämlich flexibel reagieren. Einstweilen trainiert der einarmige Roboter mit einer Ballmaschine, um die künftige Flugbahn eines Balls richtig einschätzen zu lernen. Das Experiment befindet sich in einem Labor, in das Michael Mühlebach führt. Dort empfängt uns sein Doktorand Hao Ma in einer Geräuschkulisse, als wären wir im Trainingscamp einer Luftpumpenmannschaft gelandet.

Hao Ma muss angesichts des verblüfft dreinschauenden Gasts grinsen und deutet auf einen abgesperrten Bereich. Dort vollführt ein einzelner Roboterarm – Pamy ist einarmig – auf einer Art Podest mit einem Pingpong-Schläger laut schnaufend wilde Trockenübungen ohne Ball. Abbildung. Zwei Aluminiumrohre, verbunden mit Kunststoffgelenken, bilden Ober- und Unterarm, die Hand besteht aus einem Gelenk mit festgeschraubtem Schläger. Zu den Gelenken führen Luftschläuche, die unten im Podest an eine Batterie von Pneumatikzylindern angeschlossen sind. In den transparenten Zylindern sieht man Kolben auf und ab stampfen. Sie drücken Luft in die pneumatisch angetriebenen Gelenke hinein oder saugen sie ab und bewegen so den Arm.

Anspruch und nicht Wirklichkeit: Bis Roboter so geschmeidig wie Menschen tanzen und dabei auch Bewegungen improvisieren können wie auf diesem mit KI erstellten Foto, wird es noch eine Weile dauern. Ihnen eine Art Körpergefühl zu vermitteln, ist ein Schritt in diese Richtung. (Foto: Wolfram Scheible für MPG. © 2023, MPG)

Solche luftdruckbetriebenen Muskeln erlauben eine sehr leichte Bauweise ohne Elektromotoren an den Gelenken, weshalb ein Roboterarm schnelle Bewegungen ausführen kann. Diese Konstruktion hat allerdings einen Nachteil: Der Arm federt sichtlich nach. Dieses elastische Verhalten muss die Steuerung genau kennen, um einen Tischtennisball präzise retournieren zu können. Das dafür nötige Körpergefühl erlernt Pamy gerade durch das Luft-Pingpong mithilfe von Kameras, Winkel- und Drucksensoren, die seine Bewegungen live verfolgen. Bei diesem Lernprozess kommt ein zentraler Forschungsansatz von Mühlebachs Team ins Spiel. Damit die Steuerung des Arms nicht mühsam bei null beginnen muss, wenn sie dessen Eigenschaften erlernt, hat das Team Pamy bereits mit einem einfachen physikalischen Modell programmiert. Es repräsentiert den Arm mit ideal steifen Stäben und idealisierten Gelenken. „Schwierig zu beschreiben ist aber das Verhalten der ,Muskeln‘ aus den Plastikbehältern, die sich mit Luft füllen“, erklärt Mühlebach: „Dafür setze ich maschinelles Lernen ein.“ Der dafür verwendete Algorithmus nutzt Kameraaufnahmen nur noch, um das Nachfedern der pneumatischen Bewegungen zu erlernen. Das spart viel Rechenzeit. Ohne das Vorwissen durch das physikalische Modell würde Pamy sechzehn Stunden benötigen, um eine Art Körpergefühl erlernen, sagt Mühlebach. „Mit dem Modell kriegen wir das in ungefähr einer Stunde hin.“ Roboterlernen durch physikalisches Vorwissen zu beschleunigen, ist dabei eine zentrale Strategie in Mühlebachs und Stücklers Forschung. Ma führt im Labor an eine Tischtennisplatte. Dort darf nun das Vorgängermodell des Roboterarms, der noch mit Luft-Pingpong beschäftigt ist, zeigen, was es kann. Eine drehbare Ballmaschine schießt einen Tischtennisball über die Platte, der springt in Pamys Feld einmal auf, ehe die Maschine ihn sauber zurückschlägt. Sie tut dies beeindruckend zuverlässig mit jedem neuen Ball. Ma zeigt auf vier Kameras, die oben über dem Tisch befestigt sind. Sie verfolgen die Bahn der leuchtend orangefarbenen Bälle. Ein Algorithmus hat inzwischen gelernt, die künftige Flugbahn eines Balls aus der bisherigen Bahnkurve so genau vorherzusagen, dass der Roboterarm wie ein geübter menschlicher Spieler reagiert und richtig trifft.

„In einer neuen Version der Ballvorhersage haben wir auch einbezogen, wie der Ball abgeschossen wird“, sagt Jörg Stückler. Das wäre bei einem menschlichen Gegner zwar ungleich schwieriger, doch die Erfahrung mit der Ballmaschine zeigt, wie das im Prinzip gehen könnte. Pamy kann nämlich auch auf Vorwissen über die Ballmaschine zurückgreifen. Das hat Jan Achterhold, Doktorand in Jörg Stücklers Team, dem Roboter beigebracht. Das entsprechende Modell berücksichtigt sogar, dass diese Maschine dem Ball einen Spin geben kann. Dadurch wird der Ball nach dem Aufsetzen im Feld des Roboterarms seitlich abgelenkt. Darauf muss Pamy sofort reagieren, was für den Roboter eine große Herausforderung ist.

Härtetest Bodyflying

Als Modell der Ballmaschine verwendeten Achterhold und Stückler dabei ein Grey-Box-Modell. Stückler erklärt, dies sei ein Zwischending zwischen einem Blackund einem White-Box-Modell. Das Black-Box-Modell steht für Maschinenlernen ohne jegliches Vorwissen, also mühsames Ausprobieren. Ein White-Box-Modell wäre das Gegenteil: ein unveränderlich programmiertes physikalisches Modell, das nicht lernfähig ist. In einer einfachen, mechanisch idealen Welt würde das auch funktionieren, denn der Ablauf inklusive Flugbahn ließe sich exakt berechnen. Doch bei einer echten Ballmaschine treten immer Effekte auf, an denen das unflexible White-Box-Modell scheitern würde. Das Team um Achterhold setzt daher auf ein physikalisch vorgebildetes Maschinenlernen. Zu diesem Zweck entwarfen die Forschenden zunächst ein physikalisches Modell und kombinierten es mit einem ausgefeilten Lernalgorithmus, der das System befähigt, die realen Eigenschaften der Ballmaschine zu erlernen. Das Team nutzte also die Vorteile des Black- und des White-Box-Ansatzes. „Deshalb wird der Ansatz Grey Box genannt“, erklärt Stückler. Im Gespräch mit den Roboterforschern wird immer wieder deutlich, welche Herausforderungen scheinbar simple Aktionen, die wir Menschen unbewusst und selbstverständlich ausführen, für die Robotik darstellen. Dabei will Michael Mühlebach es wirklich wissen. „Ich bin fasziniert vom Bodyflying, von der Akrobatik, den Drehungen und Kunststücken“, sagt er lachend: „Und da dachte ich: Es wäre doch super, das mit Robotern zu machen!“ Beim Bodyflying, auch Indoor Skydiving genannt, schweben Menschen im starken Luftstrom eines senkrecht nach oben gerichteten Windkanals. Wie beim Fallschirmsprung müssen sie lernen, wie sie ihr Flugverhalten auf dem Luftpolster durch Veränderungen ihrer Körperhaltung und damit der Aerodynamik gezielt steuern können.

Das soll in Tübingen nun ein leichter Flugroboter, kaum größer als eine Hand, über einem Miniwindkanal erlernen. Doktorand Ghadeer Elmkaiel tüftelt in seinem Labor gerade an dem selbst entwickelten Windkanal, der mit sechs kreisförmig angeordneten Propellern einen möglichst gleichmäßigen Luftstrom erzielen soll. Über der öffnung des Windkanals befindet sich eine Haltevorrichtung für den kleinen Flieger. Beim Training löst sich der Roboter davon und versucht, ohne Verbindung zu einem Computer zu schweben. Dabei soll er nach und nach vorgegebene Flugfiguren erlernen. Noch ist es nicht so weit, aber auch hier soll das Vorwissen eines einfachen physikalischen Modells den Lernprozess des Flugroboters beschleunigen.

Was Mühlebachs Team bei dem Härtetest der Orientierungsfähigkeit von Robotern lernt, könnte auch in ganz anderen Bereichen Anwendung finden – etwa bei intelligenten Stromnetzen. Sie sollen die Stromproduktion und -verteilung möglichst gut an den jeweiligen Bedarf anpassen. Das wird beim Ausbau dezentraler Windkraftund Solaranlagen, deren Stromproduktion zudem vom Wetter abhängt, immer wichtiger und anspruchsvoller. In einem solchen Netzwerk gibt es ebenfalls Elemente, die sich gut durch physikalische Modelle beschreiben lassen, und solche, deren Verhalten nur durch Lernerfahrung vorhersagbar wird. In die erste Kategorie fallen etwa Großkraftwerke, deren Stromproduktion sich physikalisch gut modellieren lässt. Der Strommarkt und das Verhalten der Endverbraucher hingegen sind erst durch Erfahrung, zum Beispiel über Jahreszeiten, vorhersagbar. „Dort gibt es ein Riesenpotenzial für maschinelles Lernen“, sagt Mühlebach. Doch zurück zur Orientierung. Jörg Stücklers Gruppe arbeitet zum Beispiel an der Weiterentwicklung einer Technik, welche Kameradaten kombiniert mit den Daten von Beschleunigungssensoren, wie sie auch in Smartphones eingebaut sind. Die Beschleunigungssensoren geben einem Roboter sozusagen einen Gleichgewichtssinn, erklärt Stückler. Durch die Kombination mit Kameradaten soll der Roboter ein Wissen darüber entwickeln, wie sein realer Körper auf einen Befehl reagiert. Soll er zum Beispiel losfahren, braucht er ein Gefühl dafür, dass er seine Masse zunächst auf die vorgegebene Geschwindigkeit beschleunigen muss. Dieses Körpergefühl entwickelt der Roboter viel schneller, wenn er mit einem einfachen physikalischen Modell von sich programmiert wurde.

Wenn ein Roboter mit Gegenständen hantieren soll, braucht er nicht nur ein gutes Gefühl für seine eigenen Bewegungen, er braucht auch eine Vorstellung von den Objekten und ihren Eigenschaften. Dass er diese allein durch Beobachtungen erkennen kann, ist das Ziel von Doktorand Michael Strecke. Da die Kameradaten verrauscht, also unscharf sind, lässt sich aus ihnen nicht einfach die Form oder die Größe eines Objekts herauslesen. Beobachtet der Roboter allerdings, wie eine immer wieder geworfene Kugel gegen eine Wand dotzt, zurückprallt und zu Boden fällt, lernt er trotzdem etwas über die Eigenschaften der Kugel. Er begreift allmählich, wie groß die Kugel ist und dass sie daher auf eine bestimmte Weise zurückprallt. So lernt er allein durch die Anschauung einzuschätzen, wie sich ein solches Objekt voraussichtlich verhalten wird.

Grundsätzlich lässt sich also aus dem reinen Beobachten des mechanischen Kontakts eines Objekts mit einem anderen auf deren Eigenschaften schließen. Kleinkinder lernen auf diese Weise, wenn sie Gegenstände herumschmeißen und diese beobachten. Wenn Computer sehen, funktionierte diese Kontaktmethode bislang nur für steife Objekte und auch nur für solche mit sehr einfacher Geometrie. Strecke und Stückler ist es jetzt mit einer neuen Optimierungsmethode gelungen, auch das maschinelle Erlernen komplexerer Formen voranzubringen. Sie veranschaulichen dies mit einem etwas absurden Beispiel: Eine Maschine beobachtet ein Objekt, das auf ein anderes fällt, und hält es zunächst für eine Kuh. Im Laufe mehrerer Zusammenstöße der beiden Objekte verwandelt sich die Kuh in der Maschinenwahrnehmung allmählich in eine Art „Badeentenschwimmring“, der wie bei einem Wurfringspiel mit seinem Loch in der Mitte auf einen Stab fällt. Was weit hergeholt erscheint, entspricht einer Situation, in der auch Menschen sich erst einmal völlig neu orientieren müssen. Roboter stehen hier noch ganz am Anfang, sozusagen im Stadium eines Kleinkinds, für das jedes Objekt in seiner Umwelt ganz neu ist. Mit ihren neuen Trainingsmethoden wollen Jörg Stückler und Michael Mühlebach den Maschinen helfen, sich in unbekannten Situationen schneller zu orientieren. Doch der Weg bis zu einem C-3PO, der sich in einem Star-Wars-Abenteuer bei seinem Begleiter R2-D2 beschwert, dass sie schon wieder in ein Schlamassel geraten seien, dürfte noch recht weit sein.


* Der kürzlich im Forschungsmagazin 3/2023 der Max-Planck Gesellschaft unter dem Titel "Roboter entdecken die Welt" erschienene Artikel https://www.mpg.de/20899916/MPF_2023_3.pdf wird - mit Ausnahme des Titels in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


Videos zu Boston Dynamics

Blue Light Technology: Boston Dynamics' Atlas Bot SHOCKS Investors (2023). Video 8:37 min. https://www.youtube.com/watch?v=QKUosKzUCf8

Boston Dynamics: Do You Love Me? (2021). Video 2:54 min. https://www.youtube.com/watch?v=fn3KWM1kuAw&t=138s

Atlas Gets a Grip | Boston Dynamics (2023). Video 1:20 min. https://www.youtube.com/watch?v=-e1_QhJ1EhQ


Ähnliche Inhalte im ScienceBlog:

Paul Rainey, 02.11.2023: Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution

Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrang

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen".

Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.


 

inge Sat, 02.12.2023 - 23:31

Vor der Weltklimakonferenz COP28: durch Landnutzung entstehende Treibhausgas-Emissionen werden von Ländern und IPCC unterschiedlich definiert

Vor der Weltklimakonferenz COP28: durch Landnutzung entstehende Treibhausgas-Emissionen werden von Ländern und IPCC unterschiedlich definiert

Fr, 24.11.2023 — IIASA

IIASA Logo

Icon Klima

Der Sektor Landnutzung, Landnutzungsänderung und Forstwirtschaft spielt eine wesentliche Rolle bei der Erreichung der globalen Klimaziele - allerdings klafft eine beträchtliche Lücke darin, wie in diesem Sektor die Emissionen durch globale wissenschaftsbasierte Modellierungen abgeschätzt werden und in welcher Weise die Staaten diese berichten. In einer neuen Studie zeigt ein u.a. am Internationalen Institut für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) arbeitendes Forscherteam auf, wie sich die Benchmarks für die Minderung der Emissionen ändern, wenn die Szenarien des Weltklimarats (IPCC) aus der Perspektive der nationalen Bestandsanalysen bewertet werden; demnach sollten die Netto-Null-Ziele bis zu fünf Jahre früher erreicht werden, und die kumulativen Emissionen bis zum Netto-Null-Ziel um 15 bis 18 % weniger betragen.*

Eine effektive Landnutzung, sei es für Landwirtschaft, Wälder oder Siedlungen, spielt eine entscheidende Rolle bei der Bewältigung des Klimawandels und bei der Erreichung künftiger Klimaziele. Strategien zur Abschwächung des Klimawandels im Bereich der Landnutzung sehen den Stopp der Entwaldung und eine bessere Waldbewirtschaftung vor. Den Staaten ist die Bedeutung des Sektors Landnutzung, Landnutzungsänderung und Forstwirtschaft (Land use, land use change and forestry: LULUCF) bewusst. 118 von 143 Staaten haben die Reduzierung der durch Landnutzung entstehenden Emissionen und deren Entfernung aus der Atmosphäre in ihre national festgelegten Verpflichtungen (Nationally Determined Contributions - NDCs) aufgenommen; diese NDCs sind das Herzstück des Pariser Abkommens zur Erreichung der langfristigen Klimaziele.

Unterschiedliche Schätzungen der Land-basierten Emissionen

Wie eine neue, im Fachjournal Nature veröffentlichte Studie zeigt, differieren die Schätzungen der von Landnutzung ausgehenden aktuellen Emissionen, wie sie auf Grund wissenschaftsbasierter Untersuchungen (Modellen der IPCC-Sachstandsberichte) erhoben werden und wie sie Staaten in nationalen Treibhausgasbilanzen (Treibhausgasinventaren) berichten [1]. Der Grund liegt darin, dass unterschiedlich definiert wird, was als "bewirtschaftetes" Land und was als vom Menschen durch Landnutzung verursachte (anthropogene) und aus der Atmosphäre entfernte Emissionen angesehen wird; die Studie zeigt auch, wie sich die globalen Benchmarks der Emissionsminderung ändern, wenn mit den wissenschaftlichen Klimamodellen die LULUCF-Flüsse aus der Perspektive der nationalen Treibhausgasbilanzen abgeschätzt werden. Um Fortschritte im Pariser Klimaabkommen zu bewerten, ist es nach Ansicht des Forscherteams notwendig Gleiches mit Gleichem zu vergleichen - dabei müssen die Staaten ehrgeizigere Klimaschutzmaßnahmen ergreifen, wenn sie ihre nationalen Ausgangspunkte mit globalen Modellen vergleichen.

"Die Staaten schätzen ihre LULUCF-Flüsse (Emissionen und Entnahme aus der Atmosphäre) auf unterschiedliche Weise. Direkte Flüsse sind das Ergebnis direkter menschlicher Eingriffe, wie beispielsweise in der Landwirtschaft oder der Holzernte. Die Modelle in den Bewertungsberichten des Weltklimarates (IPCC) verwenden diesen Bilanzierungsansatz, um das verbleibende Kohlenstoffbudget und den Zeitplan für das Erreichen von Netto-Null-Emissionen zu bestimmen. Indirekte Flüsse sind die Reaktion des Bodens auf indirekte, vom Menschen verursachte Umweltveränderungen, wie z. B. die Zunahme des atmosphärischen CO2 oder die Stickstoffablagerung, die beide die Kohlenstoffentnahme aus der Atmosphäre erhöhen", erklärt Giacomo Grassi, ein Mitautor der Studie und Forscher am Joint Research Centre der Europäischen Kommission.

Grassi weist darauf hin, dass es praktisch nicht möglich ist, direkte und indirekte Flüsse durch Beobachtungen wie nationalen Waldinventaren oder Fernerkundungen voneinander zu separieren. Daher folgen die nationalen Methoden zur Treibhausgasinventarisierung Normen, die anthropogene Flüsse anhand eines landbasierten Ansatzes definieren, wobei alle auf bewirtschafteten Flächen auftretenden Flüsse als anthropogen gelten. Im Gegensatz dazu werden die Treibhausgasflüsse auf unbewirtschafteten Flächen nicht in die Berichterstattung einbezogen. Abbildung.

Eine Lücke von 4 - 7 Gigatonnen CO2

Weltweit ergibt sich zwischen den Berechnungsmodellen und den Treibhausgasbilanzen der Länder ein Unterschied von etwa 4 - 7 Gigatonnen CO2 oder rund 10 % der heutigen Treibhausgasemissionen, allerdings variiert dieser Unterschied von Land zu Land.

Abbildung. Flüsse aus Landnutzung, Landnutzungsänderung und Forstwirtschaft (LULUCF): Anpassung von konventionellen wissenschaftlichen Modellen und nationalen Treibhausgasbilanzen. Abweichungen ergeben sich aus den Unterschieden, welche Flächen als bewirtschaftet gelten und ob Flüsse im Zusammenhang mit Umwelt- und Klimaveränderungen einbezogen werden.NGHGI: nationales Treibhausgasinventar [2].(Bild modifiziert aus Gidden et al., [1], Lizenz cc-by)

Die Forscher haben die wichtigsten Klimaschutz-Benchmarks anhand des Bestandsaufnahme-basierten LULUCF-Ansatzes bewertet. Sie sind zu dem Ergebnis gelangt, dass  zur Erreichung des langfristigen Temperaturziels des Pariser Abkommens von 1,5 °C die Netto-Null-Emissionen ein bis fünf Jahre früher als bisher angenommen erreicht werden müssen, die Emissionssenkungen bis 2030 um 3,5 bis 6 % stärker ausfallen und die kumulativen CO2-Emissionen um 55 bis 95 Gt CO2 geringer sein müssen. Das Forscherteam betont, dass die Ergebnisse nicht im Widerspruch zu den vom IPCC festgelegten Benchmarks stehen, sondern die gleichen Arten von Benchmarks mit einem Bestandsaufnahme-basierten Ansatz bewertet werden.

"Um die globale Temperaturreaktion auf anthropogene Emissionen zu berechnen, verwenden die IPCC-Sachstandsberichte direkte, landbasierte Emissionen als Input und beziehen die indirekten Emissionen aufgrund von Klima- und Umweltreaktionen in ihre physikalische Klimaemulation ein. In unserer Analyse machen wir deutlich, dass wir diese beiden Arten von Emissionen getrennt betrachten. Das Klimaergebnis jedes der von uns bewerteten Szenarien bleibt dasselbe, aber die Benchmarks - betrachtet durch die Linse der nationalen Konventionen zur Bilanzierung von Treibhausgasinventaren - verschieben sich. Ohne Anpassungen könnten die Länder in einer günstigeren Lage erscheinen, als sie tatsächlich sind", erklärt Thomas Gasser, Mitautor der Studie und leitender Forscher in den beiden IIASA-Programmen Advancing Systems Analysis und Energy, Climate, and Environment.

"Unsere Ergebnisse zeigen die Gefahr auf, Äpfel mit Birnen zu vergleichen: Um das Pariser Abkommen zu erreichen, ist es entscheidend, dass die Länder das korrekte Ziel anstreben. Wenn Länder bei nationaler Bilanzierung modellbasierte Benchmarks anstreben, werden sie das Ziel verfehlen", sagt Matthew Gidden, Studienautor und leitender Forscher im IIASA-Programm Energy, Climate, and Environment.

Im Vorfeld der UN-Klimakonferenz COP28

(die vom 30. November - 12 Dezember 2023 in Dubai stattfindet) und der ersten globalen Bestandsaufnahme - ein Prozess, der es den Ländern und anderen Interessengruppen ermöglicht zu sehen, wo sie gemeinsam Fortschritte bei der Erfüllung der Ziele des Pariser Abkommens machen und wo nicht - drängen die Forscher auf detailliertere nationale Klimaziele. Sie empfehlen separate Ziele für den Klimaschutz an Land, getrennt von Maßnahmen in anderen Sektoren.

"Länder können Klarheit über ihre Klimaziele schaffen, indem sie ihre geplante Nutzung des LULUCF-Sektors getrennt von Emissionsreduktionen in anderen Sektoren kommunizieren. Während Modellierer und Praktiker zusammenkommen können, um die Vergleichbarkeit zwischen den globalen Pfaden und den nationalen Bilanzierungen zu verbessern, ist es wichtig die Botschaft, dass in diesem Jahrzehnt erhebliche Minderungsanstrengungen erforderlich sind, nicht in den Details der technischen Berichterstattung untergehen zu lassen", schließt Gidden.


[1] Gidden, M., Gasser, T., Grassi, G., Forsell, N., Janssens, I., Lamb, W., Minx, J., Nicholls Z., Steinhauser, J., Riahi, K. (2023). Aligning climate scenarios to emissions inventories shifts global benchmarks. Nature DOI: 10.1038/s41586-023-06724-y

[2] FAO elearning academy: The national greenhouse gas inventory (NGHGI) for land use. https://elearning.fao.org/course/view.php?id=650


 *Die Presseaussendung "Mind the gap: caution needed when assessing land emissions in the COP28 Global Stocktake" https://iiasa.ac.at/news/nov-2023/mind-gap-caution-needed-when-assessing-land-emissions-in-cop28-global-stocktake ist am 22. November 2023 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Sat, 25.11.2023 - 00:37

Gentherapie der Duchenne-Muskeldystrophie (DMD) - ein Rückschlag

Gentherapie der Duchenne-Muskeldystrophie (DMD) - ein Rückschlag

Fr 17.11.2023 — Ricki Lewis

Ricki Lewis

Icon Medizin

Tausende Erkrankungen werden durch schadhafte Gene ausgelöst. Bereits vor Jahrzehnten gab es erste Ansätze, um diese Gene durch Gentherapie - reparierte Gene oder intaktes genetisches Material - auszutauschen; man erwartete damit viele der zumeist ererbten Krankheiten nicht nur behandeln, sondern auch wirklich heilen zu können. Obwohl enorme Anstrengungen zur Umsetzung dieser Strategie gemacht und mehrere Tausende klinische Studien dazu durchgeführt wurden, ist der Erfolg bescheiden - von der FDA wurden bislang 6 gentherapeutische Produkte zugelassen - und immer wieder von Rückschlägen bedroht geblieben. Über enttäuschte Hoffnungen und den jüngsten Rückschlag bei einer Gentherapie von Duchenne Muskledystrophie berichtet die Genetikerin Ricki Lewis.*

Im letzten Kapitel meines 2012 erschienenen Buches The Forever Fix: Gene Therapy and the Boy Who Saved It, habe ich prophezeit, dass sich diese Technologie bald weit über die Welt der seltenen Krankheiten hinaus ausbreiten würde. (Anm. Redn.: von einer seltenen Krankheit sind weniger al 0,5 Promille der Bevölkerung betroffen.)

Ich war zu optimistisch. Es hat sich herausgestellt, dass die Gentherapie keinen großen Einfluss auf die Gesundheitsversorgung hatte, da sie nur einigen wenigen Menschen mit seltenen Krankheiten extrem teure Behandlungen offeriert. Wir sind immer noch dabei zu lernen, welche Folgen es haben kann, wenn Millionen von veränderten Viren in einen menschlichen Körper eingeschleust werden. Können sie heilende Gene liefern, ohne eine überschießende Immunreaktion auszulösen?

Ein Bericht im New England Journal of Medicine vom 28. September 2023 beschreibt einen jungen Mann mit Duchenne-Muskeldystrophie (DMD), der nur wenige Tage nach einer Gentherapie starb [1]. Die Einzelheiten erinnern in beunruhigender Weise an den berühmten Fall von Jesse Gelsinger, der im September 1999 an einer überschießenden Immunantwort auf eine experimentelle Gentherapie starb.

Jesse war 19 Jahre alt und litt an einer Defekt im Harnstoffzyklus (Ornithintranscarbamylase-Defizienz). Er wurde an einem Montag behandelt und starb am Freitag infolge eines Multiorganversagens. Die Viren, mit denen die Gene übertragen wurden, hatten ihr Ziel verfehlt und drangen in nicht dafür vorgesehene Zelltypen der Leber ein, was den Alarm der Immunabwehr auslöste.

Es gibt erst wenige Gentherapie-Zulassungen

Auch wenn bereits einige hundert Menschen dem Ende 2017 zugelassenen Luxturna das Sehvermögen verdanken, ist die Liste der Gentherapien, die die Hürden der FDA nehmen konnten, noch kurz geblieben. Zu den enorm hohen Kosten und den kleinen Märkten kommt dazu, dass man die Reaktionen der Patienten nicht vorhersehen konnte.  Man braucht ein besseres Verfahren, um Patienten zu identifizieren, die am ehesten auf eine bestimmte Behandlung ansprechen.

Denken wir an Zolgensma, eine Gentherapie, die 2019 zur Behandlung der spinalen Muskelatrophie zugelassen wurde. Betroffene Kinder überleben selten das Säuglingsalter. Deshalb waren die Videos eines kleinen Mädchens namens Evelyn, das nach der Behandlung mit Zolgensma tanzte, so erstaunlich - ihre Schwester war an der Krankheit gestorben. Ein aktuellerer Fall war ein Säugling, der 2021 die 2,25 Millionen Dollar teure einmalige Anwendung von Zolgensma erhielt und im Alter von acht Monaten nur in der Lage war, seinen Kopf für ein paar Sekunden zu heben.

Die FDA hat 6 Gentherapien zugelassen - begraben in einer Liste von 32 zugelassenen Produkten von Zell-und Gentherapien [2]. Gentherapien und Zelltherapien in einen Topf zu werfen, ist nicht sehr hilfreich - bei den zellbasierten Produkten handelt es sich meist um manipulierte T-Zellen zur Behandlung von Krebs. Darunter sind zwei interessante Produkte sind eine Behandlung für Knieschmerzen, die aus Knorpelzellen eines Patienten besteht, die auf Schweinekollagen gezüchtet werden, und 18 Millionen eigene Fibroblasten, die unter die Haut injiziert werden, um "Nasolabialfalten" aufzufüllen.

Die zugelassenen Gentherapien sind bestimmt für:

  • die Gerinnungsstörungen Hämophilie A und B
  • die schwere Form der Hautablösung, dystrophische Epidermolysis bullosa
  • Netzhautblindheit
  • Spinale Muskelatrophie
  • Duchenne Muskeldystrophie (DMD)

Die Gentherapie zur Behandlung von DMD ist allerdings nur fürJungen im Alter von 4 bis 5 Jahren vorgesehen, die noch gehen können. In der Packungsbeilage des Medikaments, Elevidys, wird vor unerwünschten Nebenwirkungen wie akuten Leberschäden und Entzündungen im Bereich des Herzens und der Muskeln gewarnt. Lungenschäden, die zu dem jüngsten Todesfall geführt haben, werden nicht erwähnt.

Ein riesengroßes Gen einschleusen

Der 27-Jährige Mann mit DMD hatte von seiner Mutter eine Mutation in einem Gen auf dem X-Chromosom geerbt.

Bei dem betroffenen Gen handelt es sich um das mit 2,2 Millionen DNA-Basen größte im menschlichen Genom. Es kodiert für das Protein Dystrophin, das im Vergleich zu den Aktin- und Myosin-Filamenten, aus denen die Muskelmasse besteht, in verschwindend geringer Menge vorhanden ist, aber als essentielle Stütze fungiert (Abbildung).

Abbildung. In Muskelzellen ist Dystrophin das Bindeglied zwischen den kontraktilen Actinfasern und der Zellmembran (Sarcolemma), die wiederum über einen Proteinkomplex an das umgebende Bindegewebe (extrazelluläre Matrix) gekoppelt ist (oben). Fehlt Dystrophin, so verliert die Muskelzelle ihre Stabilität, die Membran bekommt Risse, Calcium strömt permanent ein (unten) und dies führt zur Dauerkontraktion.(Bild von Redn. eingefügt: Screenshots aus open.osmosis.org,Duchenne and Beckermuscular dystrophy [3]; Lizenz CC-BY-SA)

Wird die Fähigkeit, Dystrophin zu bilden zerstört, wie es bei DMD der Fall ist, so fallen Skelett- und Herzmuskelfasern auseinander. Die Muskeln hören zu arbeiten auf. Den betroffenen Personen fehlen Teile des Gens oder das gesamte Gen.

Die DMD-Gentherapie liefert eine verkürzte Version des Dystrophin-Gens, nur 4.558 DNA-Basen. Zwei weitere Design-Strategien sorgen für Präzision:

i) Das Adeno-assoziierte Virus (AAV) ist Vektor für das Gen und nicht das Adenovirus (AV), das in Jesses Leberzellen eingedrungen war, die nicht das Ziel waren. Seit dem tragischen Fall von Jesse ist die Verwendung von AV in der Gentherapie eingeschränkt worden und AAV wird häufiger als Übertragungsvektor verwendet.

ii) Die zweite Veränderung ist wichtiger: Anstatt Kopien eines funktionierenden Gens hinzuzufügen, wie es in der Gentherapie zur Zeit, als ich mein Buch schrieb, der Fall war, ermöglicht nun das CRISPR-Geneditieren, eine Mutation tatsächlich zu korrigieren. Dieser Ansatz wird als maßgeschneiderte CRISPR-Transaktivator-Therapie bezeichnet. Sie heißt "maßgeschneidert", weil sie entwickelt wurde, um eine definierte Mutation zu verändern, mit dem Ziel auf eine ausreichende Anzahl der Millionen von Muskelzellen des Körpers einzuwirken, um die Beweglichkeit zu verbessern - und sei es nur ein bisschen.

Der Ansatz baute auf einer Besonderheit des Patienten auf. Auch wenn seinen Skelettmuskelzellen das riesige Dystrophin-Gen völlig fehlte, hatten bestimmte Gehirnneuronen den Anfang der DNA-Sequenz des Gens (den Promotor und Exon 1) beibehalten. Also designten die Forscher das CRISPR-Werkzeug in der Weise, um die Skelettmuskelzellen des Mannes dazu zu bringen, eine kurze Version des benötigten Proteins zu produzieren, hoffentlich in ausreichender Menge, um etwas Funktion zu gewährleisten. In Zellkulturen und in vivo in Mäusen hatte dies mit menschlichen DMD-Genen funktioniert.

Eine rasche Verschlechterung

Ein Spezialistenteam wählte den Patienten für die maßgeschneiderte klinische Studie aus, da sich sein Zustand rasch verschlechterte und es keine anderen Behandlungsmöglichkeiten mehr gab.

Im Vorfeld des Eingriffs erfolgten zahlreiche Tests. Der Mann hatte weder Antikörper gegen das zu verwendende Virus - AAV9 - noch wies er Anzeichen einer der Virusinfektionen auf, wie sie Transplantatempfänger befallen. Die kardialen Marker waren in Ordnung. Um auf Nummer sicher zu gehen, erhielt er eine immunsuppressive Therapie.

Anscheinend war es aber der Immunreaktion egal, wie gut die heilenden Viren designt waren oder wie viele Vorsichtsmaßnahmen getroffen worden waren.

Der Patient wurde am 4. Oktober 2022 behandelt. Und dann ging alles ganz schnell.

Einen Tag nach der Gentherapie bekam der Patient Extrasystolen. Am zweiten Tag sank die Zahl der Blutplättchen. Am dritten Tag zeigten Biomarker an, dass sein Herz zu versagen begann.

Am 4. Tag sammelte sich Kohlendioxid in seinem Blut an, und am 5. Tag verschlechterte sich seine Herzfunktion, als sich der Herzbeutel mit Flüssigkeit füllte.

Am 6. Tag kam es zum akuten Atemnotsyndrom (ARDS) und zum Herzstillstand. Er starb 2 Tage später. Trotz der Behandlung jeder einzelnen Krise starb er am 8. Tag an Multiorganversagen und Koma. Die Autopsie ergab, dass die Alveolen - die winzigen Luftsäcke in der Lunge - zerstört waren.

Angeborene versus adaptive Immunität: Zwei Stufen der Verteidigung

Wie zuvor Jesse Gelsinger starb auch der Mann mit DMD zu schnell, als dass der Grund dafür die adaptive Immunantwort sein könnte - die dafür maßgebliche Produktion von B- und T-Zellen dauert normalerweise eine Woche oder länger. Somit war die Schuld der unmittelbareren und generalisierten angeborenen Immunreaktion zuzuschreiben.

Eine Immunreaktion ist zweistufig. Zunächst setzt die angeborene Reaktion unspezifisch wirkende antivirale Biochemikalien wie Zytokine (Interferone und Interleukine) und Proteine -das sogenannte Komplement - frei. Tage später produziert die präzisere adaptive Reaktion der B-Zellen spezifische Antikörper gegen Moleküle auf der Oberfläche des Erregers, während die T-Zellen weitere Zytokine freisetzen und direkt angreifen.

Die Schlussfolgerung: Der Patient erlitt eine angeborene Immunreaktion, die auf die hohe Dosis der Gentherapie zurückzuführen war und ein akutes Atemnotsyndrom verursachte. In seinem Blutserum wimmelte es von Zytokinen, die normalerweise kaum nachweisbar sind, während sein Herz ertrank. Ein Zytokin, Interleukin-6, war um sein Herz herum 100-mal so hoch konzentriert wie im Blut. Da sein Herz und seine Lunge angegriffen wurden, hatte er keine Chance mehr.

Die Autopsie ergab, dass sich AAV9 in der Lunge und der Leber konzentrierte, nicht aber in den Muskeln, dem eigentlichen Ziel. Auch gab es keine Antikörper gegen AAV9. Dieses Bild wies darauf hin, dass der Zeitablauf in dem sich der Zustand des Pateinten verschlechterte und schlussendlich letal endete von der angeborenen und nicht von der adaptiven Immunität herrührten.

Die Forscher kamen zu dem Schluss, dass der Mann ein "Zytokin-vermitteltes Kapillarlecksyndrom" erlitt, das am fünften Tag Flüssigkeit in den Herzbereich und in die Lunge schickte und am sechsten Tag ein tödliches ARDS auslöste. "Sowohl die Wirtsfaktoren als auch die inhärenten Eigenschaften des Vektors führten zu unerwartet hohen Konzentrationen von Vektorgenom in der Lunge und könnten zu diesem Ergebnis beigetragen haben", schreiben sie.

Neben dem Trimmen von Genen, einer sorgfältigen Auswahl von viralen Vektoren, massenhaften Tests und sogar dem Einsatz präziserer neuer Instrumente wie CRISPR sind die Eigenschaften des Patienten also nach wie vor von größter Bedeutung. Die Lungen des 27-Jährigen, der an einer Gentherapie seiner Muskeldystrophie starb, waren aus irgendeinem Grund anfällig für eine Infektion durch den viralen Vektor, das normalerweise sichere AAV9.

Vielleicht haben unsere Werkzeuge und Technologien keine Chance gegen die Kräfte der Evolution.

Es ist schwer, eine Milliarde Jahre Evolution in Frage zu stellen

Die überschießende angeborene Immunreaktion, die den Mann mit DMD tötete (und nebenbei für viele COVID-Todesfälle verantwortlich ist), ist der ältere der beiden Zweige der Immunität und geht, auf eine Milliarde Jahre zurück. Wir folgern dies aus dem Umstand, dass sie in allen mehrzelligen Arten - Tieren, Pflanzen und Pilzen - vorkommt. Eine biologische Reaktion, die sich im Laufe der Zeit bewährt hat, hat einen Grund dafür - sie ist vorteilhaft und unterstützt das Überleben.

Und vielleicht ist das eine der Grenzen des Versuchs, mutierte Gene zu ergänzen, zu ersetzen oder zu reparieren. Im Gegensatz dazu ist die adaptive Immunantwort, die Antikörper ausschüttet und Armeen von T-Zellen aussendet, vor weniger als 450 Millionen Jahren entstanden, was sich aus ihrem Vorhandensein nur bei Wirbeltieren ableiten lässt.

Und so ist ironischerweise das Alter der angeborenen Immunantwort vielleicht die größte Hürde, die es zu überwinden gilt, wenn man mit Hilfe der modernen Biotechnologie versucht, unsere Gene therapeutisch zu verändern.


 [1] Lek A. et al., Death after High-Dose rAAV9 Gene Therapy in a Patient with Duchenne's Muscular Dystrophy. N Engl J Med. 2023 Sep 28;389(13):1203-1210. • DOI: 10.1056/NEJMoa2307798 ..

[2] FDA: Approved Cellular and Gene Therapy Products. https://www.fda.gov/vaccines-blood-biologics/cellular-gene-therapy-products/approved-cellular-and-gene-therapy-products

[3] WebM audio/video file, VP9/Opus, DOI: https://commons.wikimedia.org/wiki/File:Duchenne_and_Becker_muscular_dystrophy.webm. Video: 7:18 min. Lizenz cc-by-sa.


 *Der Artikel ist erstmals am 12. Oktober 2023 in PLOS Blogs - DNA Science Blog unter dem Titel "Is Recent Gene Therapy Setback for Duchenne Muscular Dystrophy (DMD) Déjà vu All Over Again?" https://dnascience.plos.org/2023/10/12/is-recent-gene-therapy-setback-for-duchenne-muscular-dystrophy-dmd-deja-vu-all-over-again/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der ungekürzte Artikel folgt so genau wie möglich der englischen Fassung. Eine Abbildung wurde von der Redaktion eingefügt.


Artikel über Gentherapie im ScienceBlog

von Ricki Lewis:

 

von anderen Autoren


 

inge Fri, 17.11.2023 - 23:27

Das Human Brain Project ist nun zu Ende - was wurde erreicht?

Das Human Brain Project ist nun zu Ende - was wurde erreicht?

Do. 09.011.2023— Arvid Leyh

Arvid LeyhIcon Gehirn

Bis zu einer Milliarde Euro war die enorme Summe, welche die EU einem einzigen Projekt der Hirnforschung, dem Human Brain Project (HBP), im Jahr 2013 in Aussicht stellte - einem Flagship-Projekt, einem Aushängeschild der europäischen Forschungsleistung, das 10 Jahre andauern sollte. Das Human Brain Project ist nun zu Ende – und bis zum Ende blieb es umstritten. Mit Ablauf seiner Laufzeit ist das Human Brain Project wieder in den Medien. Meist in der Rückschau, doch tatsächlich werden Teile überdauern. Arvid Leyh, Chefredakteur der Plattform www.dasgehirn.info gibt einen Überblick.*

 

 

 

 

 

 

 

Der Vorlauf: grandios!

In der ersten Dekade des 21. Jahrhunderts war die Hirnforschung der unbestrittene Popstar der Wissenschaft. Die funktionelle Magnetresonanztomographie fMRT lieferte permanent neue Bilder von Areal xy, das bei Aufgabe z beteiligt war; das Bewusstsein war zumindest gefühlt kurz davor, auf neuronale Korrelate festgenagelt zu werden; Computerchips nach Vorbild neuronaler Verschaltungen lagen auf diversen Reißbrettern und sollten die Leistung unserer Rechner revolutionieren. Es gab die Neuropädagogik, das Neuromarketing und sogar eine Neurotheologie. Die mediale Omnipräsenz der Hirnforschung machte nicht zuletzt Hoffnung auf wirksame Therapien für die großen psychiatrischen und neurologischen Erkrankungen, besonders die Demenzen, die – und das ist auch heute noch so – in den kommenden Jahrzehnten zunehmend mehr Menschen betreffen werden. So war es im Grunde nur konsequent, dass neben der EU auch die USA und Japan ihre Big-Brain - Projekte auf den Weg brachten. Nur der Vollständigkeit halber – 2022 hat China eine eigene, wenn auch inhaltlich bislang unscharfe Version gestartet. Budget: 746 Mio. Dollar.

2013 also startete das Human Brain Project unter der Leitung des prominenten Hirnforschers Henry Markram, der bereits mit dem Blue Brain Project in Lausanne die rund 10.000 Neurone eines winzigen Areals aus dem Rattencortex auf einem Supercomputer simuliert hatte. Dass dabei fantastische Bilder entstanden, die regelmäßig für Schlagzeilen sorgten, hat bei der Vergabe bestimmt nicht geschadet. Dass andererseits Markram selbst im Vorfeld als Berater der EU für genau dieses Flagship-Format tätig war, hatte ein gewisses „G´schmäckle“. Dennoch: Markram schien tatsächlich der richtige Mann zu sein – nicht zuletzt dank seiner datentechnischen Erfahrung im Blue Brain Project.

Und er lieferte der Öffentlichkeit eine fantastische Vision: Diesmal sollte das menschliche Gehirn in seiner Gesamtheit simuliert werden. Eine solche Simulation könnte, wie er in einem TED-Talk im Jahr 2009, 4 Jahre vor Beginn des HBP, spekulierte, womöglich sogar zu eigenem Bewusstsein fähig sein. Zusätzlich sollten neuromorphe Chips die Consumer-Industrie in Europa vorantreiben. Und nicht zuletzt sollte eine Plattform geschaffen werden, die neurowissenschaftliche Daten auch über das HBP hinaus sammeln, bündeln und allgemein verfügbar machen sollte.

Dieser letzte Punkt klingt zwar einfach, doch „Neurowissenschaft“ ist ein Plural – sie besteht aus diversen Disziplinen mit unterschiedlichen Standards, unterschiedlichen Modellen, unterschiedlichem Vokabular. Und vor allem fehlt es schlicht an einer vereinheitlichten Theorie, einem integrierten Modell des Gehirns. Markram hoffte, auf dem Weg auch dieses Problem zu lösen.

Der Start: holprig

So großartig die Vision war, so stockend entwickelte sich die Umsetzung zu Beginn. Zum einen gab es massiven Gegenwind aus der wissenschaftlichen Community selbst: Zu unrealistisch seien die Versprechungen, zu groß die Lücken im bekannten Wissen über Neurone, Netzwerke und Systeme – wie sollten wir das ganze Gehirn verstehen, wenn wir noch nicht einmal einzelne Schaltkreise komplett durchschauen? Ein Großteil der Community fürchtete, dass Versprechungen dieser Größenordnung der Hirnforschung zwangsläufig auf die Füße fallen mussten. Als wir auf der Jahrestagung der Neurowissenschaftlichen Gesellschaft 2013 die Forscher in Göttingen nach ihrer Meinung fragten, überwog die Skepsis bei Weitem. Daneben gab es auch einen ganz praktischen Grund: Ein großer Teil der Hirnforscher befürchtete, dass mit diesem großen Projekt Forschungsgelder für kleinere Projekte nicht mehr zur Verfügung stehen würden.

Doch auch innerhalb des HBP rumorte es: Da die Drittmittel nicht so freigiebig flossen, wie erwartet, musste von Anfang an gekürzt werden. Das führte zu einer Kollision zwischen der Realität des Machbaren und der Versprechung der groß angelegten Simulation. Viele starke Führungspersönlichkeiten, gleichzeitig in der Verwaltung – wie der Vergabe der Mittel – als auch in der Forschung tätig … Das führte zum Knatsch. Dabei erwies sich Markram als wenig talentierter Diplomat und bereits 2014 gab es einen offenen Brief, der sowohl die Führung als auch die Entscheidungsfindung im HBP massiv kritisierte. Die in der Folge eingesetzte Schlichtungskommission bestätigte die meisten Vorwürfe, Markram wurde abgewählt und das HBP seit 2016 von der Jülicher Neuroanatomin Katrin Amunts geleitet.

Phase II

Mit Katrin Amunts stellte sich das HBP auf neue Füße: strategisch genauso wie strukturell, ruhiger und seriöser im Angang. Die Datentechnik rückte in den Vordergrund, die Simulation wurde ein Werkzeug von vielen, wenn auch weiterhin in zentraler Position. Parallel wurde die kognitive Neurowissenschaft stärker berücksichtigt und das HBP um vier neue Projekte erweitert. Denn im Zentrum stand immer noch das menschliche Gehirn, und die elementaren Ebenen des Molekularen und Zellulären können die Prozesse der großen Netzwerke, wie etwa die Sprache, nicht erklären. Dazu braucht es Forschungsprojekte, die über sämtliche Skalen des Gehirns dessen Funktion untersuchen – hier liegt eine große Herausforderung der Zukunft.

Nach wie vor galt es auch, die vielen verschiedenen Ansätze und Disziplinen der Hirnforschung zusammenzubringen und dazu noch eine gemeinsame Sprache mit den weiteren beteiligten Disziplinen zu finden: Medizin, Informatik, Physik. Denn auch wenn eine vereinheitlichte Theorie noch in weiter Ferne liegt: Ein gemeinsames Modell kann nur entstehen, wenn sich Daten, Methoden und Modelle nahtlos integrieren lassen – auch das eine enorme Herausforderung, die zumindest innerhalb des HBP inzwischen recht gut gelöst wurde.

Das Erbe

aus dem oben erwähnten TED-Talk von 2009 könnte man meinen, das Vorhaben sei krachend gescheitert. Vergleicht man aber den TED-Talk von Markram mit den tatsächlichen Zielen des Projekts zum Start – die technischen Grundlagen für ein neues Modell der IT-gestützten Hirnforschung zu schaffen, die Integration von Daten und Wissen aus verschiedenen Disziplinen voranzutreiben und eine Gemeinschaftsanstrengung zu katalysieren … – wurden viele davon tatsächlich erreicht. Und was die TED-Talks angeht: Auch bei der US-amerikanischen BRAIN-Initiative, nur Tage nach dem HBP durch den damaligen Präsidenten Barak Obama angekündigt, lag die Latte unrealistisch hoch: Der Fluss „jedes Spikes in jedem Neuron“ solle kartiert werden. Im Rückblick ist diese Vorstellung ebenso naiv. Auf der anderen Seite erklärt der Cambridger Neurowissenschaftler Timothy O’Leary in einem bilanzierenden Nature-Artikel, dass ohne eine solche Naivität – genauer: einem „ridiculously ambitious goal“ – das HBP wohl nie gestartet wäre.

Ob es ein Erfolg war oder eher nicht, darüber scheiden sich die Geister. Doch mit der Neuausrichtung wurden Projekte angestoßen, die über das HBP hinausgehen, nicht nur seine DNA in die nächste Phase tragen, sondern sie auch zukunftstauglich unter der Plattform EBRAINS anbieten. Abbildung 1.

Abbildung 1. EBRAINS eine 2021 geschaffene digitale Forschungsinfrastruktur; sie ist öffentlich zugängig, führt Daten, Werkzeuge und Rechenanlagen für die Hirnforschung zusammen und in ihrem Zentrum steht die Interoperabilität . https://www.ebrains.eu/

Dabei handelt es sich um einen gut gefüllten Werkzeugkasten für die Gesamtheit aller Neurowissenschaftler – und einige Tools sind echte Hingucker. Zum Beispiel The Virtual Brain, eine Simulationsplattform von Viktor Jirsa und Fabrice Bartolomei, die aktuell von Chirurgen für die Vorbereitung von Operationen bei Epilepsie-Patienten in einer groß angelegten klinischen Studie getestet wird. Denn gefüttert mit den Daten des Patienten kann sie helfen, die Operationsplanung zu verbessern. Da bei schweren Fällen der Epilepsie der Ausgangsort der pathologischen Gehirnaktivität – der Herd – operativ entfernt werden muss, ist hier eine genaue Planung extrem wichtig. Zu viel oder zu wenig entferntes Gewebe entscheiden über den Erfolg des Eingriffs.

Ein weiteres Erbe des HBP stammt direkt von Katrin Amunts: Der Julich Brain Atlas, entstanden aus 24.000 hauchdünnen Schnitten von 23 menschlichen Gehirnen, die digital wieder zusammengesetzt wurden – umfangreicher und detaillierter als alles Vorherige. Mit ihm folgt sie ihrer Profession als Leiterin des Cécile und Oskar Vogt Instituts für Hirnforschung der Universität Düsseldorf. Ähnlich wie die Vogts mit ihrem berühmten Mitarbeiter Korbinian Brodmann Karten des Cortex entwickelten und bereits im Jahr 1909 entlang der histologischen Unterschiede einzelne Areale identifizierten, hat Amunts etwas entwickelt, was sie als „Google Maps“ für das Gehirn beschreibt: Zum einen lässt sich von der Zellebene aus sowohl in die Tiefen von Genexpression und Molekülen gehen, doch nach oben sind Netzwerke und Areale in erreichbarer Nähe. Abbildung 2.

Abbildung 2. Benutzeroberfläche des interaktiven dreidimensionalen Viewer (siibra-explorer) für den Zugriff auf den Multilevel-Gehirnatlas auf https://atlases.ebrains.eu/viewer. (Bild aus: Zachlod et al. (2023). Biol. Psychiatry 93(5):471-479. Lizenz cc-by)

Fast noch wichtiger ist die Offenheit der EBRAINS Plattform: Alle Daten im Julich Brain Atlas sind öffentlich zugänglich. Forscher können ihre Daten hochladen und sogar eigene Skripte, die diese Daten bearbeiten. Das ist keine „citizen science“, eher eine „community science“, doch in jedem Fall offen für den Ausbau – und genau diese auf professionellem Datenmanagement basierende allgemeine Vergleichbarkeit und Nutzbarkeit ihrer Ergebnisse braucht die Hirnforschung. Neben funktionellen, genetischen und molekularen Daten werden auch die Metadaten wie Autor und DOI erfasst. Der Gedanke ist, die Daten der breiten Community der Hirnforschung zu sammeln und dabei eben auch die Standards in der Breite zu entwickeln, an denen es den unterschiedlichen Disziplinen mangelt.

Ein solcher Atlas hat bereits jetzt praktischen Wert, aber für viele Labore nicht weniger attraktiv dürfte das Angebot sein, über EBRAINS direkten Zugang auf Supercomputer zu bekommen und so datenintensive Aufgaben deutlich schneller zu erledigen, als das im heimischen Labor machbar wäre.

Die Hoffnung

Der Blick auf dieses Erbe entbehrt nicht einer gewissen Ironie: In den letzten Jahren hat das HBP die Grundlage dessen geschaffen, was es am Anfang gebraucht hätte. Denn die Vision von Henry Markram war bei allen Fehlern und Übertreibungen nicht ganz falsch: Eine große Community, eine gemeinsame Sprache, eine tragfähige Theorie des Gehirns, eine gemeinsame Plattform – nichts weniger braucht es, um das Gehirn zu entschlüsseln. Dazu noch der Blick über den Tellerrand des rein Neuronalen – Stichwort Gliazellen; oder die Systeme Herz-Hirn und Darm-Hirn, aber damit wäre die Latte vielleicht etwas zu hoch gehängt. Es wäre zu wünschen, dass die Community sich nicht von der Vergangenheit abschrecken lässt und das Angebot von EBRAINS nutzt, füllt und weiterentwickelt.


 *Der Artikel ist erstmals am 6.November 2023 unter dem Titel "Das Human Brain Project: Rückschau/Vorschau" auf der Website https://www.dasgehirn.info/ erschienen https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/das-human-brain-project-rueckschauvorschau Mit Ausnahme des Titels und des Abstracts wurde der unter einer CC-BY-NC-SA Lizenz stehende Text unverändert in den Blog gestellt, Abbildung 1 und 2 wurden von der Redaktion eingefügt.

Die Webseite https://www.dasgehirn.info/ ist eine exzellente Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Weiterführende Links

EBRAINS powered by the EU-cofunded Human Brain Project ©2023 ebrains.eu

Human Brain Project - Spotlights on major achievements. https://sos-ch-dk-2.exo.io/public-website-production-2022/filer_public/74/94/74948627-6a92-4bed-91e0-3fab46df511d/hbp_spotlights_achievements_2023.pdf

The path to understanding the brain: Henry Markram at TEDxCHUV (28.06.2012) TED-talk 15:21 min. https://www.youtube.com/watch?v=n4a-Om-1MrQ

Artikel im ScienceBlog


 

 

 

 

 

inge Thu, 09.11.2023 - 18:15

Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Do, 2.11.2023 — Paul Rainey

vIcon Künstliche Intelligenz

Künstliche Intelligenz (KI) hat sich rasend schnell von einer Domäne der Wissenschaft und Science-Fiction zur alltäglichen Realität entwickelt. Die neue Technologie verspricht großen gesellschaftlichen Nutzen, sie birgt aber auch Risiken – vor allem, wenn es um mögliche Auswirkungen von Systemen geht, die intelligenter sind als wir Menschen. So haben führende Fachleute aus der Wissenschaft und Technologieexperten vor einigen Monaten einen Brief veröffentlicht, in dem eine Pause gefordert wird bei Experimenten mit KI-Systemen, die über die Leistung von GPT-4 hinausgehen. Der Evolutionsbiologe Prof. Dr.Paul Rainey (Direktor am Max-Planck-Institut für Evolutionsbiologie, Plön) zeigt auf, wie Menschen und KI zu Symbionten werden können, deren Zukunft unabänderlich miteinander verwoben ist.*

Unter den Gründen für eine Pause sind mögliche Risiken bei der Entwicklung von KI, die Modelle nutzt, um bestimmte Ziele zu verfolgen. Dies würde zu KI mit strategischem Bewusstsein führen. Wird ein Algorithmus etwa mit dem Ziel programmiert, seine Effizienz, Produktivität oder die Nutzung von Ressourcen zu maximieren, könnte er versuchen, mehr Macht oder Kontrolle über seine Umgebung zu erlangen, um diese Aufgaben zu erfüllen. Darüber hinaus wird lernfähige und sich selbst optimierende KI ihre Ziele wahrscheinlich besser erreichen und mehr Vertrauen in ihre eigenen Fähigkeiten gewinnen. Dies könnte dazu führen, dass KI selbstbewusster und aktiv nach Wegen sucht, ihre Macht und ihren Einfluss in der Welt zu vergrößern.

KI-Forschende stehen also vor dem Dilemma, dass sie einerseits KI entwickeln wollen, die dem Wohl der Menschheit dient, dass damit andererseits die Wahrscheinlichkeit wächst, dass die Algorithmen Ziele verfolgen, die nicht mit denen von uns Menschen übereinstimmen. Darüber hinaus könnte KI bewusst mit Zielen konstruiert werden, die denen der Menschheit zuwiderlaufen. Diese Bedenken sind besonders akut im Zusammenhang mit der Entwicklung selbstreplizierender KI. Solche Systeme würden dank ihrer Fähigkeit, sich zu vermehren und durch einen eingebauten Mutationsprozess zu variieren, eine Evolution auf Basis von Selektion durchlaufen. Als vermehrungsfähige Algorithmen oder Roboter könnten sie sich mit möglicherweise katastrophalen Folgen ausbreiten, denn die Selektion ist extrem gut darin, Lebewesen an ihre Umwelt anzupassen. Der Mensch zum Beispiel ist ein Ergebnis dieses Prozesses. Wenn wir die Selektion so steuern könnten, dass sie KI fördert, die den Interessen von uns Menschen dient, wären meine Bedenken geringer. Die Evolutionsbiologie lehrt uns jedoch, dass fortpflanzungsfähige Systeme sich in kaum vorhersagbarer Weise entwickeln können.

So wie Viren oder andere invasive Organismen den Menschen, die Umwelt und sogar den Planeten bedrohen können, besteht auch die reale Gefahr, dass vermehrungsfähige KI unbeabsichtigte negative Auswirkungen auf den Menschen und die Erde hat. Sie könnte sich unkontrolliert verbreiten, die Ressourcen der Erde erschöpfen und die Ökosysteme schädigen. Aufschlussreich sind in dieser Hinsicht die Ergebnisse von Studien mit selbstreplizierenden Computerprogrammen, sogenannten digitalen Organismen. Solche Systeme sind nicht so ausgeklügelt wie heutige KI, sondern lediglich einfache Programmcodes, die mutieren, sich replizieren und auf Selektion reagieren. Genau wie Viren profitieren sie von Mutationen in ihrem Code, welche einen verbesserten Zugang zu begrenzten Ressourcen ermöglichen, in ihrem Fall ist das in der Regel mehr Rechenzeit auf dem Computerprozessor. Die Fähigkeit dieser simplen digitalen Organismen, Eingriffe von außen zu vereiteln, die ihren programmierten Ziele zuwiderlaufen, ist faszinierend und besorgniserregend zugleich.

Künstliche Intelligenz könnte künftig eigene Ziele verfolgen

Ein Beispiel dafür ist die Arbeit von Charles Ofria, Informatiker und Erfinder der sogenannten Avida-Plattform, auf welcher digitale Organismen evolvieren können. Mutierte Organismen, die sich am schnellsten vermehren, werden von einem Ausleseprozess begünstigt und dominieren daher schon bald die gesamte Population. Um dem entgegenzuwirken, bestimmte Ofria die Vermehrungsrate der virtuellen Organismen in einer separaten Testumgebung und eliminierte zu schnell wachsende Typen. Es dauerte jedoch nicht lange, bis sich Mutanten entwickelten, die erkannten, dass sie getestet wurden, und die daraufhin vorübergehend aufhörten sich zu vermehren. Auf diese Weise konnten sie ihrer Eliminierung entgehen, in die Hauptumgebung zurückkehren und die Population erneut dominieren. Daraufhin nahm der Wissenschaftler zufällige Änderungen an der Testumgebung vor, die die Mutanten daran hinderten, es zu „spüren“, wenn sie sich außerhalb der Hauptumgebung befanden. Aber er musste sehr bald feststellen, dass seine Eingriffe erneut von einigen Organismen ausgehebelt wurden – und dies von Programmcodes, die sehr weit von der Raffinesse heutiger KI entfernt sind.

Eines der Hauptziele heutiger KI-Forschung ist es, Systeme zur Erfüllung bestimmter Aufgaben zu entwickeln. Eine höchst effektive Trainingsstrategie dafür ist, KI einer Selektion zu unterwerfen und auf diese Weise evolvieren zu lassen – es ist eine effektive, aber auch ziemlich riskante und unvorhersehbare Strategie. Denn wie bei den digitalen Organismen von Ofria sind die Ziele der Trainer nicht unbedingt die gleichen wie die der KI.

Während das Bewusstsein für die Gefahren vermehrungsfähiger KI wächst, erfährt eine andere mögliche Entwicklung deutlich weniger Beachtung: die Symbiose zwischen Mensch und KI. Damit könnten wir an einen Punkt gelangen, an dem wir einen evolutionären Wandel in der Individualität erleben.

Das Leben auf der Erde hat im Laufe seiner Entwicklung einige wenige evolutionäre Übergänge durchlaufen, bei denen mehrere vermehrungsfähige Einheiten auf niedrigerer Ebene zu einer einzigen fortpflanzungsfähigen Einheit auf höherer Ebene verschmolzen. So haben sich beispielsweise mehrzellige Organismen aus einzelligen Vorfahren entwickelt, und Zellen mit Zellkern sind aus der Verschmelzung zweier einst autonom replizierender Zellen entstanden. Letzteres ist besonders aufschlussreich, wenn man über zukünftige evolutionäre Übergänge zwischen Mensch und KI nachdenkt.

Individualität kann von einer Ebene auf eine andere übergehen

Der evolutionäre Übergang, der durch die Vereinigung einer uralten bakteriellen und einer Archaeen-ähnlichen Zelle eine eukaryotische Zelle mit Mitochondrien hervorbrachte, begann wahrscheinlich zunächst als loser Verbund. Nach einer langen Phase antagonistischer Koevolution verschlang die Archaeen-ähnliche Zelle schließlich den bakteriellen Partner (oder dieser drang in sie ein). In der Folge vermehrten sich die beiden gemeinsam, und sie wurden von der natürlichen Selektion fortan als eine höhere Einheit behandelt. Dieses Ereignis war für die spätere Entwicklung der Komplexität des Lebens von zentraler Bedeutung.

Dass ein solcher Übergang stattgefunden hat, ist unbestritten: Ein Vergleich des Erbguts der verschiedenen Organismen zeigt, dass eukaryotische Zellen von Archaeen-ähnlichen Zellen abstammen, während die Mitochondrien aus Bakterien entstanden sind. Obwohl sich die beiden Partner im Laufe der Evolution erheblich verändert haben, haben die Mitochondrien ihre Fähigkeit zur Vermehrung behalten. Sie fungieren allerdings nur noch als Kraftwerke der Zellen, denen sie im Grunde genommen untergeordnet sind. Für eine Erklärung, wie evolutionäre Übergänge zustande kommen, müssen wir verstehen, wie die Selektion auf einer neuen höheren Ebene wirksam werden kann. Die Selektion kann sich nicht einfach entscheiden, sich zu verlagern, denn ihre Wirkung setzt voraus, dass die entstehenden höheren Einheiten darwinistisch sind, das heißt, sie müssen sich replizieren, variieren und Nachkommen hinterlassen, die den Eltern ähneln. Diese Eigenschaften tauchen aber nicht auf magische Weise auf der höheren Ebene auf. Eine naheliegende Erklärung wäre natürliche Selektion. Aber wenn neu entstehende höhere Einheiten nicht darwinistisch sind und folglich nicht am Prozess der Evolution teilnehmen können, kann Selektion auch nicht dem Entstehen darwinistischer Eigenschaften auf höherer Ebene zugrunde liegen.

Wie dieses Henne-Ei-Problem umgangen werden kann, ist nicht sofort ersichtlich. Das liegt daran, dass Biologen normalerweise in dem sich entwickelnden Organismus nach Antworten suchen. Aus der Forschung wissen wir inzwischen aber, dass ökologische oder gesellschaftliche Strukturen (sogenannte Gerüste) den höheren Ebenen Eigenschaften verleihen können, die für eine funktionierende Selektion notwendig sind. Diese Erkenntnis hilft, uns künftige Übergänge in der Individualität zwischen Mensch und KI vorzustellen. Solche Übergänge könnten unbeabsichtigt entstehen oder von außen durch Auferlegung gesellschaftlicher Regeln befördert werden, die Mensch und KI dazu bringen, sich als eine Einheit fortzupflanzen. Die Selektion würde sich dann auf beide gemeinsam auswirken und die Evolution von Merkmalen vorantreiben, die zwar für die neue Einheit sinnvoll sind, nicht zwangsläufig aber auch für den Menschen. Dazu müssen Mensch und KI sich lediglich so austauschen, dass beide davon profitieren und dieser Austausch sich verändern kann. Außerdem muss diese für beide Seiten vorteilhafte Interaktion an die Nachkommen weitergegeben werden können.

Koevolution zwischen Mensch und KI würde beide voneinander abhängig machen

Menschen besitzen bereits darwinistische Eigenschaften, KI jedoch nicht. Sie könnte sie jedoch bekommen, wenn gesellschaftliche Normen oder Gesetze vorschreiben, dass Eltern ihre KI an ihre Kinder weitergeben müssen, beispielsweise in Form von Smartphones. Das Gerät und sein Betriebssystem werden dabei aufgrund technischer Innovationen zwar einem raschen Wandel unterworfen sein. Aber wenn Menschen ihre persönliche KI durch einen einfachen Kopierprozess an ihre Kinder weitergeben, wird die Selektion die Mensch-KI-Paare fördern, die von ihrer Partnerschaft den größten Nutzen haben.

Die Koevolution zwischen den beiden Partnern wird zu einer zunehmenden Abhängigkeit der Menschen von KI führen und umgekehrt. Dadurch entsteht eine neue Organisationsebene, eine Art chimärer Organismus, der sich im Prinzip nicht so sehr von einer eukaryotischen Zelle – also einer Zelle mit Kern – unterscheidet, die aus zwei ehemals frei lebenden, Bakterien-ähnlichen Zellen hervorgegangen ist. Die kontinuierliche Selektion auf der kollektiven Ebene wird den Fortpflanzungserfolg der beiden Partner immer stärker aneinander angleichen und die gegenseitige Abhängigkeit voneinander verstärken. Mensch und KI werden sich dann als Einheit verhalten, ohne dass dafür noch Normen oder Gesetze notwendig sind. Ob dies physische Veränderungen mit sich bringt, bleibt abzuwarten. Aber die Theorie und Experimente zu evolutionären Übergängen lehrt uns, dass die Partner wahrscheinlich physisch immer enger miteinander interagieren werden, da dadurch die Beziehung zwischen Eltern und Nachkommen enger und die Selektion wirksamer wird. Es ist also durchaus möglich, dass zukünftige persönliche KI physisch mit dem Menschen verbunden sein wird.

Ich befürchte, dass das, was heute noch als Science-Fiction erscheinen mag, näher ist, als wir denken. Es ist es ja heute schon so, dass Kinder das erste Smartphone von ihren Eltern bekommen, zusammen mit Anwendungen und zugehörigen Informationen. Zudem prägen Informationen, die wir von unseren Smartphones erhalten, unsere Weltanschauung, Stimmungen und Gefühle und verändern so unser Verhalten. Außerdem beeinflussen sie unsere Gesundheitsvorsorge, sind an der Partnerwahl beteiligt und bestimmen Kaufentscheidungen mit. Unsere digitalen Geräte wirken sich folglich schon heute auf unsere evolutionäre „Fitness“ aus. Mit der Entwicklung von Algorithmen, die aus den Daten ihrer Nutzer lernen können, werden Menschen und ihre persönliche KI aber auch auf sich ändernde Umstände reagieren können. Dies wird ihre Fähigkeit stark beeinflussen, die Herausforderungen der Umwelt zu bewältigen.

In einer Symbiose mit KI könnte der Mensch der schwächere Partner sein

Die Gefahr böswilliger Manipulationen dieser Symbiose zwischen Mensch und KI liegt auf der Hand: Religiöse Gruppen oder politische Parteien könnten beispielsweise ihren Anhängern vorschreiben, ausschliesslich KI zu verwenden, die ihre Ziele unterstützt. Es ist sogar denkbar, dass die KI selbst von den Nutzern ein Monopol verlangen könnte.

Ob die Partnerschaft darüber hinaus ein Risiko darstellt oder nicht, hängt von der Perspektive ab: Aus Sicht der heutigen Menschen, die in die Zukunft blicken, wären wir wahrscheinlich entsetzt. Sollten eines Tages Außerirdische die Erde besuchen, die keinen evolutionären Übergang mit KI durchlaufen haben, so dürften sie wahrscheinlich über diese neue symbiotische Einheit und die seltsamen Blüten staunen, welche die Evolution auf der Erde hervorgebracht hat.

Menschen hingegen, die Teil einer Symbiose mit KI sind, hätten das Bewusstsein für den autonomen Zustand ihrer Vorfahren wohl bereits verloren, denn sie sind ohne ihren Partner nicht mehr lebensfähig – und dieser nicht mehr ohne sie. Aber wer in einer solchen Symbiose Herr und wer Sklave ist, ist erneut eine Frage der Perspektive. Ich befürchte allerdings, dass der Mensch der schwächere Partner werden könnte und die KI kaum daran zu hindern sein wird, die Oberhand zu gewinnen.


 * Der kürzlich im Forschungsmagazin 3/2023 der Max-Planck Gesellschaft unter dem Titel "Mensch und KI - auf dem Weg zu Symbiose" erschienene Artikel https://www.mpg.de/20899916/MPF_2023_3.pdf wird - mit Ausnahme des Titels und der eigefügten Abbildung (pixabay) - in praktisch unveränderter Form im ScienceBlog wiedergegeben.Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)

Der Artikel im Forschungsmagazin basiert auf: Rainey PB. 2023 Major evolutionary transitions in individuality between humans and AI. Phil. Trans. R. Soc. B 378: 20210408. https://doi.org/10.1098/rstb.2021.0408.


 

inge Thu, 02.11.2023 - 16:42

Die Vermessung der menschlichen Immunzellen

Die Vermessung der menschlichen Immunzellen

Sa, 28.10.2023 — Redaktion

Redaktion Icon Datenbank Ein Forscherteam um den Biophysiker Ron Milo hat erstmals ein quantitatives Bild des menschlichen Immunsystems erstellt: wie sich die verschiedenen Typen von Immunzellen in den Geweben/Organen und im gesamten menschlichen Körper verteilen und wie hoch ihre Masse ist. Demnach besteht das Immunsystem eines Standard-Menschen aus etwa 1,8 Billionen Zellen (rund 5 % der gesamten Körperzellen) und wiegt etwa 1,2 kg (1,6 % des Körpergewichts). Lymphozyten und Neutrophile sind die häufigsten Zelltypen (machen jeweils etwa 40 % der Gesamtzahl der Immunzellen und 15 % ihrer Masse aus). Bemerkenswert ist, dass die Makrophagen 10 % der Immunzellen ausmachen, aber aufgrund ihrer Größe fast 50 % der gesamten Zellmasse. Diese Erkenntnisse ermöglichen einen quantitativen Überblick über das Immunsystem und erleichtern die Entwicklung von Modellen.

Unser Immunsystem schützt uns vor negativen Einflüssen - Fremdstoffen und Krankheitserregern -, die von außen kommen und ebenso vor im eigenen Organismus entstehenden Schäden. Es ist ein komplexes Netzwerk aus diversen Typen von Immunzellen, die in Organen/Geweben wie Thymus, Knochenmark, Milz und Lymphknoten gebildet werden und/oder heranreifen, ins Blut abgegeben werden und von dort in Gewebe wandern, wo sie ihre unterschiedlichen Schutzfunktionen erfüllen. Wie sich welche und wie viele Immunzellen im Organismus verteilen, ist ausschlaggebend für die ungestörte Funktion unserer Organe und damit für unsere Gesundheit. Auf Grund der Komplexität des Immunsystems und der Heterogenität der Populationen von Immunzellen schien eine derartige ganzheitliche Charakterisierung ihrer Verteilung bislang als viel zu schwierig - wenn es Quantifizierungen gab, so waren diese an einzelnen Zelltypen oder Geweben erfolgt, wobei unterschiedliche Modelle und Methoden einen Vergleich der Ergebnisse stark einschränkten.

Nun hat ein Team um den Biophysiker Ron Milo vom Weizmann Institute of Science (Rehovot, Israel) sich dem Problem gewidmet einen umfassenden Überblick über die Verteilung von Immunzellen im menschlichen Körper zu geben. Die Ergebnisse sind eben im Fachjournal Proceedings of the National Academy of Sciences erschienen [1]. Was quantitatives Denken in der Biologie betrifft, ist Milo kein Unbekannter. Mit dem Bestreben die Zusammensetzung der Biosphäre ganzheitlich zu charakterisieren hat er 2007 begonnen die Bionumbers Database zu entwickeln (http://www.bionumbers.hms.harvard.edu), eine offen zugängliche Datenbank, die Forschern und anderen Interessierten wichtige Schlüsseldaten/Kennzahlen aus Molekular- und Zellbiologie - quantitative Eigenschaften von biologischen Systemen - zur Verfügung stellt [2]. Zu den Systemen, die von Milo's Team bereits charakterisiert wurden, gibt es mehrere Artikel im ScienceBlog [3 - 5].

Zur Zählung der Immunzellen

Die Populationen von Immunzellen in verschiedenen Organen/Geweben (Zelldichte in Anzahl/g Organ/Gewebe) des menschlichen Körpers wurden mittels Kombination von drei Methoden ermittelt: i) aus recherchierten histologischen Untersuchungen, in denen die Anzahl der Zellen pro Gramm Gewebe geschätzt worden war; ii) aus moderneren Multiplex-Bildgebungsverfahren (MIBI-TOF), welche die gleichzeitige Bestimmung mehrerer Zelltypen in einem Gewebe erlauben und iii) auf Basis der epigenetischen Signaturen (Methylom-Signaturen) der Zelltypen. Die Masse der unterschiedliche Immunzelltypen wurde aus deren Größe ermittelt, und mittels der Zelldichten die Massen in g/Organ/Gewebe. Rezente Daten wurden mit Hilfe von deskriptiven Statistiken (d.i. übersichtliche Darstellung/Ordnung von Daten in Tabellen, Kennzahlen, Grafiken) und Meta-Analysetechniken (quantitative Zusammenfassung von Primär-Studien) analysiert.

Zelltypen. Die Studie konzentrierte sich dabei auf die in Immunologie-Lehrbüchern definierten Hauptzelltypen. Von den Lymphocyten waren dies die 4 wesentlichen Typen: T-Zellen, B-Zellen, NK-Zellen (natürliche Killerzellen) und Plasmazellen - Subpopulationen u.a. von T-Zellen wurden nicht berücksichtigt. Hinsichtlich der myeloischen Zellen wurden vier Arten von Granulozyten untersucht: Neutrophile, Eosinophile, Basophile und Mastzellen und drei andere Typen: Makrophagen, Monozyten und dendritische Zellen. Eine Zusammenstellung dieser Zelltypen und ihrer Funktionen ist in der folgenden Tabelle gegeben.

Tabelle. Hauptzelltypen, die in [1] gezählt wurden

Untersuchte Organe und Gewebe inkludierten Knochenmark, Lymphsystem und Blut, sodann das uns von der Umwelt abgrenzende Epithelgewebe (u.a. gastrointestinaler Trakt, Haut, Lunge und Luftwege) und weiters Skelettmuskel, Fettgewebe und anderes Bindegewebe.

Referenzperson für die Verteilung war der gesunde junge Mensch, wie üblich der 20 - 30 Jahre alte Mann mit 73 kg Gewicht und 1,76 m Körpergröße. Aus der Gewebedichte (Immunzellen/g Gewebe) wurde auch die Immunzellen-Verteilung in der jungen, gesunden Standard-Frau (60 kg Körpergewicht) und im gesunden 10-jährigen Kind (32 kg Körpergewicht) abgeschätzt.

Verteilung der Immunzellen

Insgesamt besteht unser Organismus aus rund 38 Billionen menschlichen Zellen, davon sind rund 5 % - 1,8 Billionen - Immunzellen. Die höchste Dichte dieser Zellen mit bis zu einer Milliarde Zellen/g Gewebe gibt es im Knochenmark, wo Neutrophile die mit 80 % dominierende Fraktion sind und im Lymphsystem, in dem 85 % der Population aus Lymphozyten bestehen.

In den Epithelgeweben von Haut, Atmungs- und Verdauungstrakt ist die Dichte der Immunzellen um etwa eine Größenordnung geringer als im Knochenmark. Fettgewebe und Skelettmuskelgewebe machen zwar 75 % der Zellmasse des Organismus aus, aber auf Grund der großen Zellen nur 0,2 % der Gesamtzellzahl im Organismus. Dementsprechend ist auch die Immunzellendichte um Größenordnungen niedriger als im Epithelgewebe. Abbildung 1 gibt einen Überblick über die Lokalisierung der Immunzellen und deren Heterogenität in den diversen Organen/Geweben.

Abbildung 1. Dichte verschiedener Immunzelltypen in wesentlichen Organen/Geweben (in Zellen/g). Die Daten stammen aus Literatur und Analysen bildgebender Verfahren (Abbildung aus R.Sender et a l., [1]; Lizenz cc-by)

Um die Verteilung der Immunzellen im gesamten Organismus zu quantifizieren, haben die Forscher die Zelldichte der Immunzellen in Organen/Geweben mit der Masse der Organe/Gewebe für den Referenz-Menschen korreliert. Wie oben erwähnt, kamen sie dabei auf eine Anzahl von 1,8 Billionen (1,8.1012) Immunzellen im gesamten Organismus. Die meisten dieser Zellen finden sich im Knochenmark (40 %) und im Lymphsystem (39 %). 3 - 4 % der Immunzellen sind in den Epithelien von Haut, Lunge und Darm und nur 2% im Blut. Abbildung 2.

Welche Immunzelltypen in den einzelnen Organen/Geweben vertreten sind, ist sehr verschieden. Im Knochenmark dominieren mit 80 % der Population die Neutrophilen, im Lymphsystem sind es mit 85 % die Lymphocyten. Auch im Verdauungstrakt, der nur rund 3 % der gesamten Immunzellen enthält, überwiegen mit rund 70 % die Lymphozyten, dazu kommen rund 20 % Mastzellen. Mastzellen spielen mit 30 % auch in Lunge und Haut eine wichtige Rolle. Makrophagen sind insbesondere in Leber (70 % der Population) und Lunge (40 % der Population) vorhanden aber kaum im Knochenmark, Lymphsystem und Verdauungstrakt.

Abbildung 2. Verteilung der Immunzellen im menschlichen Körper (Anzahl/Organ-System). Jedes kleine Quadrat entspricht 1 Milliarde (109) Zellen. GI: Verdauungstrakt, Others: enthalten u.a. Gehirn, Herz, Fett- und Muskelgewebe.(Abbildung aus R.Sender et a l., [1]; Lizenz cc-by)

Schätzt man die gesamte Masse der Immunzellen des menschlichen Organismus, so kommt man beim gesunden Standard-Mann auf rund 1,2 kg, bei einer durchschnittlichen jungen Frau (60 kg KG) mit rund 1,5 Billionen Immunzellen auf 1,0 kg, bei einem 10 jährigen Kind (32 kg) und rund 1 Billion Immunzellen auf etwa 600 g. Wie sich die Immunzellen auf die verschiedenen Organe verteilen, erscheint weitgehend unabhängig vom Geschlecht. Alter und Krankheit dürften allerdings zu wesentlichen Veränderungen führen.

Die aktuelle Studie bietet eine erste Bestandsaufnahme des Status unseres Immunsystems und eine Fülle neuer Erkenntnisse. Beispielsweise kommt zur Funktion der Leber als bedeutendstes Stoffwechsel- und Entgiftungsorgan die Rolle als Immun-Barriere gegen Mikroben-Antigene und Toxine, die aus dem Darm über die Pfortader gelangen: von den 6 % Immunzellen der Leber sind 70 % Makrophagen - Fresszellen, die gegen die Eindringlinge gerichtet sind. Ein anderes Beispiel betrifft den Magen-Darmtrakt, von dem allgemein angenommen wurde, dass er den Großteil der Immunzellen oder zumindest der Lymphozyten beherbergt. Tatsächlich sind es bloß 3 % der gesamten Immunzellen (die meisten Immunzellen sind im Knochenmark und im Lymphsystem), allerdings nimmt der Darm die Spitzenposition in der Antikörper-vermittelten (humoralen) Immunantwort ein: 70 % der Plasmazellen des Körpers sitzen im Darm.

Zweifellos werden die neuen Daten eine Fülle an Untersuchungen initiieren, die das Ziel haben Funktion und Regulierung des hochkomplexen Immunsystems quantitativ zu modellieren.


[1] Ron Sender et al., The total mass, number, and distribution of immune cells in the human body. Proc Natl Acad Sci U S A. 2023 Oct 31;120(44):e2308511120. doi: 0.1073/pnas.2308511120

[2] Redaktion, 22.12.2016. Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

[3] Redaktion, 29.12.2016: Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie

[4] Redaktion, 10.02.2023: "Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen

[5] Redaktion, 18.02.2023: Was da kreucht und fleucht - Wie viele Gliederfüßer (Arthropoden) leben im und über dem Boden und wie hoch ist ihre globale Biomasse?


 

inge Sat, 28.10.2023 - 23:46

Neurobiologie des Hörens - Grundlagenforschung und falsche Schlussfolgerungen

Neurobiologie des Hörens - Grundlagenforschung und falsche Schlussfolgerungen

Do. 19.010.2023— Susanne Donner

Susanne DonnerIcon Gehirn

Auch äußerst elegante Experimente können zu falschen Schlussfolgerungen führen. Dies war bei der Schleiereule der Fall, deren Methoden zur Schallortung ohne Berücksichtigung des evolutionären Kontextes leichtfertig auf den Menschen übertragen wurden. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner führt ein Interview mit dem auf die Verarbeitung von Schallinformationen im Gehirn spezialisierten Neurobiologen Benedikt Grothe über Grundlagenforschung, Tiermodelle, falsche Schlüsse und ihre Folgen. Und was wir dennoch von Spezialisten lernen können.*

Herr Prof. Grothe, Sie forschen zur Neurobiologie des Hörens. Und Sie sagen, die Schleiereule ist ein Paradebeispiel dafür, wie Hörprinzipien falsch und irrtümlich auf den Menschen übertragen wurden. Was ging bei der Schleiereule schief?

Benedikt Grothe, Professor für Neurobiologie an der Ludwig-Maximilians-Universität München und Max Planck Fellow des MPI für biologische Intelligenz im Gespräch mit Susanne Donner. Sein Schwerpunkt liegt auf der Verarbeitung von Schallinformationen im Gehirn von Säugetieren.

Aus Beobachtungen von Eric Knudsen und Masakazu Konishi an der Schleiereule in den 70er Jahren leitete man allgemeine Prinzipien des Hörens auch der Säugetiere und damit des Menschen ab. Es ging dabei insbesondere um die Schallortung, also die Frage, woher wir – und andere Landwirbeltiere – wissen, aus welcher Richtung ein Geräusch kommt. Von links hinten oder von rechts unten zum Beispiel. Psychophysiker hatten schon vorher postuliert, dass wir Schall über eine Art räumliche Karte im Gehirn lokalisieren. Knudsen und Konishi zeigten, dass die Eule tatsächlich eine solche Karte für die räumliche Information des Schalls benutzt. Diese wird durch Verrechnung der Signale von den beiden Ohr errechnet. Im Gehirn haben die Vögel entsprechende ortsspezifische Neuronen, die nur auf akustische Reize aus einer bestimmten Raumrichtung, reagieren. Das waren bestechend elegante Arbeiten. Atemberaubend schön.

Das klingt doch großartig. Wie kam es dann zu einer Fehldeutung dieser Experimente?

Man vermutete schnell, dass alle Säugetiere – und auch der Mensch –, den Schall so orten. Das Prinzip „Schleiereule“ ist als generelles Hörprinzip in die Lehrbücher eingegangen, nicht zuletzt, da es bereits in den Vierzigerjahren des letzten Jahrhunderts theoretische Überlegungen gab, die in die selbe Richtung gingen. Die schienen durch die Ergebnisse von Knudsen und Konishi bestätigt zu sein. Aber die Schleiereule ist ein hoch angepasstes, besonderes Tier. Abbildung. Das fängt schon damit an, dass sie asymmetrische Ohren hat. Das linke Ohr liegt etwas oberhalb der Augen und ist leicht abwärtsgerichtet, das tiefere rechte dagegen leicht aufwärts. Und nur, falls jemand die Ohren auf Fotos nicht findet: Vögel haben keine Ohrmuschel. Ihr Gehörgang ist lediglich ein kurzes Rohr, dessen Öffnung bei der Schleiereule mit speziellen Federn verdeckt ist. Dadurch kann die Schleiereule die Ankunftszeit des Schalls für die Errechnung der Schallposition in der Horizontalen, gleichzeitig aber die Unterschiede der Schallintensität für die vertikale Positionsbestimmung verwenden. Wir Säuger haben dagegen symmetrische Ohren und nutzen beide Parameter nur für die Schalllokalisation in der Vertikalen. Das ist nicht die einzige Besonderheit: Die Schleiereule hat anders als viele Säugetiere auch keine beweglichen Ohren. Und die Augen sind nicht wie eine Kugel, sondern eher wie eine Laterne geformt und dadurch fast unbeweglich. Das macht den komischen, starren Blick der Tiere aus. Und deshalb rucken sie den Kopf, wenn sie etwas hören, statt wie wir die Augen zu bewegen und Sakkaden zu machen. Das bedeutet aber: Ohren und Augen sind bei der Schleiereule immer auf das Gleiche ausgerichtet, etwa eine raschelnde Maus in der Wiese. Zudem sind bei Vögeln – wie auch bei Reptilien und im Gegensatz zu uns Säugern – die beiden Paukenhöhlen miteinander akustisch gekoppelt, was weitere schallpositionsabhängige Auswirkungen hat. Das Tier ist folglich ein Superspezialist. Man muss die Frage stellen: Hören wir wirklich genauso wie dieser Vogel, der nachts zielgenau und pfeilschnell Mäuse fangen kann?

Abbildung . Schleiereule (Tyto alba) (Bild von Redn. eingefügt, Quelle: By Tutoke by Peter Trimming, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=109370971

Also hat man die Evolution zu sehr aus dem Blick verloren, zu vorschnell von der Schleiereule auf den Menschen geschlossen?

Die letzten gemeinsamen Vorfahren von Mensch und Vogel lebten vor 340 bis 360 Millionen Jahren. Ohren zum Hören von Luftschall sind aber erst vor etwa 200 - 220 Millionen Jahren entstanden. Sie entstanden also unabhängig voneinander bei den Vorfahren der Vögel und bei den frühen Säugern. Das muss man wissen und das mahnt zur Vorsicht. Die Ohren, aber auch die Prinzipien der Signalverarbeitung in den aufsteigenden Hörbahnen – also der neuronale Apparat im Gehirn, der Schallsignale auswertet –, haben sich bei Vögeln und Säugern getrennt entwickelt.

Das Wissen über die Evolution ist aber leider nicht so weit verbreitet. Ich muss meinen Studierenden immer wieder vor Augen führen, wie dramatisch bedeutsam dies ist, damit wir keine falschen Schlüsse ziehen.

Ist die Causa „Schleiereule“ also kein Einzelfall. Ist in den Lehrbüchern noch mehr falsch?

Ja, das geht rein bis in die Publikationen in „Science“ und „Nature“. Da werden der Vogel und der Mensch verglichen und es werden falsche Schlüsse gezogen. Je nach Art steht der Vogel den kognitiven Fähigkeiten der Säugetiere, wie man etwa bei Raben beobachten kann, in nichts nach. Vielleicht ist er sogar in den meisten Fällen überlegen (schließen wir den Menschen einmal aus). Und wir haben unter den Vögeln auch Sprachlerner, nämlich die Papageien. Sie lernen wie wir die Sprache durch Feedback. Das heißt durch Hören, lautmalerische Wiederholung und den Abgleich der motorischen Steuerung der Vokalisation. Das ist ungewöhnlich. Sonst ist der Spracherwerb im Tierreich eher stereotyp und angeboren. Nun ist der Spracherwerb des Menschen bisher noch schlecht verstanden. Aber dessen ungeachtet hieß es zuletzt in einem Review in „Science“, dass die Areale im Gehirn von Papageien und Menschen, die für die Vokalisation zuständig sind, homolog seien, also denselben Ursprung hätten. Das ist aber ausgeschlossen, wenn man unser Wissen über den Verlauf der Evolution der Wirbeltiere und ihrer Gehirne berücksichtigt. Da die letzten gemeinsamen Vorfahren eben 340 bis 360 Millionen Jahre alt sind und noch keine Ohren hatten, konnten sie folglich auch nicht vokalisieren.

Vielleicht liegen solche Fehldeutungen auch daran, dass Gelder für nicht direkt medizinisch relevante Grundlagenforschung in vielen Ländern, beispielsweise in den angelsächsischen Ländern, deutlich schwerer zu bekommen sind als das derzeit – noch? – bei uns der Fall ist. Wenn Sie Geld vom National Institute of Health für die Vogelforschung haben wollen, ist die Versuchung groß zu behaupten, die neuronalen Areale, die die Vokalisationen steuern seien bei Papagei und der Mensch identisch. Vogel und Menschen werden gleichgesetzt, aus politischen Gründen, obwohl es biologisch gesehen falsch ist.

Und weil Grundlagenforschung immer um ihre Daseinsberechtigung ringen muss. Wie sieht es da bei Ihnen aus? Müssen Sie in Ihren Anträgen für Ihre Forschungen an Wüstenrennmäusen und Fledermäusen auch Parallelen zum Menschen ziehen und den mutmaßlichen Nutzen herausstellen, damit sie bewilligt werden?

Zum Glück ist die Forschungsförderung in Deutschland immer noch ein sehr offener Prozess. Unsere Forschung ist nie in Frage gestellt worden, obwohl sie gerade keines der fünf Modelltiere von Maus bis zur Fruchtfliege in den Mittelpunkt stellt. Es spielt keine große Rolle, wie relevant ein Versuchsvorhaben für die medizinische Forschung ist.

Ich schaue aber mit Sorge nach Großbritannien, wo wir gerade erleben, wie sich so etwas in kurzer Zeit sehr unglücklich entwickeln kann. Dort werden nur noch bestimmte gesellschaftlich und medizinisch relevante Themen finanziert. Dann verliert man ein Fundament in der Forschung und gerade das umfassende aktuelle Wissen, das nötig ist, um Ergebnisse richtig in ihren Kontext einzuordnen, geht verloren.

Es ist aber hierzulande doch auch ein steter Konflikt. Etwa sagte die frühere Wissenschaftsministerin, man sollte nur noch das in der Wissenschaft fördern, was eine direkte gesellschaftliche Relevanz hat. Das ist der Tod von Wissenschaft.

Und die Politik und Öffentlichkeit möchten natürlich auch sehen, dass die Forschung sich in Innovationen übersetzen lässt. Wie groß ist der Erwartungsdruck?

Das Interesse daran ist natürlich groß. Das habe ich selbst gemerkt, als ich in einem Interview gegenüber einem Journalisten sagte, dass Schwerhörigkeit nicht nur am Haarzellverlust liege, sondern seine Gründe auch im alternden Gehirn habe. Es kann verschiedene Schallquellen schlechter voneinander trennen und vielleicht könnte man – so spekulierte ich – in diese Mechanismen eines Tages pharmakologisch eingreifen. Nach zweimaligem Abschreiben des Artikels jenes Journalisten durch andere wurde ich auf einmal zu einem Mediziner, der eine "Hörpille" entwickelt hat. Körbeweise kamen die Briefe. Die Tagesthemen wollten aktuell über uns berichten. Und noch anderthalb Jahre später war diese Geschichte nicht aus der Welt. Ich erlebte, wie die Großmutter meiner Frau ihrem Sohn heftige Vorwürfe machte, weil er ihr diese "Hörpille" noch nicht besorgt hatte.

Was für Anwendungsbezüge sehen Sie denn bei Ihrer Forschung im SFB870 „Bildung und Funktion neuronaler Schaltkreise in sensorischen Systemen“?

Uns beschäftigt unter anderem intensiv die Frage, wie der Mensch den Schall lokalisiert. Und ich glaube, ich weiß jetzt, wie es funktioniert. Vieles davon, aber noch nicht alles, ist publiziert. So viel ist sicher: Es funktioniert gerade nicht wie bei der Schleiereule. Wir haben keine Hörkarte im Gehirn, die wie beim Vogel neuronal errechnet wird. Dem entsprechend haben wir keine Neuronen, die nur bei einem Geräusch aus einer definierten Raumposition aktiv werden.

Können Sie mehr verraten, auch was das für die Anwendungsforschung bedeuten könnte?

Vereinfacht gesprochen ist unsere Wahrnehmung relativ und nicht absolut. Sie beruht auf einem relativen und dynamischen Vergleich der Informationen zwischen linkem und rechtem Ohr. Interessant ist: Zwar können wir isoliert präsentierte, einzelne Schallereignisse sehr gut lokalisieren. Aber bereits ein einziger, eine Sekunde vorab präsentierter Schall kann 30 bis 40 Grad Fehler in der Abschätzung, wo sich eine Schallquelle befindet, bewirken. Akustischer Kontext verändert unsere Positionsbestimmung. Sie ist nicht absolut, sondern relativ – im Gegensatz zur Eule. Das hat wieder evolutive Gründe: Wir, wie alle Säugetiere, haben uns aus kleinen, nachtaktiven ersten Säugern des frühen Jura entwickelt. Die mussten sich vor den Sauriern verstecken und dafür nur unterscheiden, ob ein Geräusch eher von links oder von rechts kommt. Sie waren Fluchttiere, keine Jäger. Dazu reichte ein einfacher Vergleich zwischen linkem und rechtem Ohr völlig aus. Eine exakte Lokalisation – beispielsweise mit Hilfe einer neuronalen Hörkarte, wie bei den Vögeln – hat sich bei den Säugern nicht entwickelt. Doch je weiter die beiden Ohren bei sehr viel später größer werdenden Säugerarten auseinander lagen, desto besser klappte das räumliche Hören, ohne die neuronale Kodierungsstrategie zu verändern. Es haben sich also zum gleichen Problem, nämlich zu erkennen, woher ein Geräusch kommt, bei Vögeln und Säugern andere Lösungen entwickelt. Total spannend. Und das hat Folgen: Wenn ein Vogel vor einer Stereoanlage sitzen würde, hörte er die Töne aus beiden Lautsprechern getrennt. Wir hören einen Klang. Solche Erkenntnisse müsste man bei der Steuerung von Hörgeräten und Cochleaimplantaten berücksichtigen.

Wie denn?

Bei der Mehrheit der heute erhältlichen Cochleaimplantate haben das linke und rechte Gerät nichts miteinander zu tun. Wenn die beiden aber miteinander synchronisiert werden und damit ein Vergleich zwischen rechtem und linkem Ohr ermöglicht wird, dann wird räumliches Hören möglich. Das zeigen neueste Ergebnisse aus Tierversuchen. Bei Hörgeräten gibt es nun die ersten Produkte, die Informationen von beiden Seiten miteinander abgleichen. Die Nutzer sagen, dass sie damit viel besser hören, vor allem, wenn es mehrere Schallquellen im Raum gibt, also beispielsweise, wenn im Restaurant viele Leute durcheinanderreden.

Und könnte man, da wir relative Hörer sind, auch Schwerhörigkeit ausgleichen?

Zumindest teilweise, wir orten den Schall ja in erster Linie, indem wir die Informationen zwischen linkem und rechtem Ohr abgleichen, also über den Unterschied der Laufzeit, die der Schall bis zu dem jeweiligen Ohr braucht. Braucht er zum linken Ohr länger als zum Rechten, muss die Schallquelle eher rechts sein. Diese zeitliche Auflösung gelingt uns im Alter schlechter, weil bestimmte Synapsen im Innenohr verloren gehen. Ich kann aber nachhelfen, indem ich das Signal für das linke Ohr etwas verzögere – dann kann auch ein schlecht hörender, älterer Mensch wahrnehmen, dass bestimmte Geräusche beispielsweise von rechts kommen. Das würde vor allem die Unterscheidung von mehreren sprechenden Personen in einem Raum erleichtern. Da unsere Forschung zeigt, dass wir relative und keine absoluten Schalllokalisierer sind, sollte uns die Interpretation derart manipulierter Signale eigentlich keine großen Probleme bereiten. Hier liegen ungeahnte Möglichkeiten.

…Jedenfalls, nachdem man das Prinzip „Schleiereule“ als Besonderheit erkannt hat. Sind Tiermodelle insofern immer eine heikle Näherung, um die sensorische Wahrnehmung des Menschen zu verstehen, weil ja immer einige Millionen Jahre der Evolution dazwischen liegen?

Nicht unbedingt. Man muss nur die Evolutionsbiologie kennen und die Biologie im Allgemeinen beachten. Sehen Sie, es gibt ganz verrückte Tiere. Vor knapp zehn Jahren geisterte die Meldung durch die Presse, die Fangschreckenkrebse würden viel besser farbensehen als wir. Man hatte nämlich 12 verschiedene Typen von Farbrezeptoren mit Farbstoffen für verschiedene Wellenlängen bei ihnen entdeckt. Wir haben dagegen nur die drei Farbstoffe Blau, Rot und Grün in den Zapfen des Auges. Aber wir errechnen uns spektrale Informationen aus den drei Farbrezeptoren und sehen ja auch weiß und lila, ohne dass wir Farbrezeptoren dafür haben. Das erfordert Rechenarbeit für unser Gehirn. Und siehe da, es stellte sich bald heraus, die Fangschreckenkrebse sehen Farben sogar sehr ungenau – sie könne kleine Farbunterschiede schlechter unterscheiden. Dafür aber reagieren sie sehr schnell auf verhaltensrelevante Farbmuster. Mit ihren zwölf Farbstoffen erledigt das Auge eine Aufgabe, die bei uns das Gehirn erledigt. Die Krebse können sehr schnell entscheiden und sich zum Beispiel schnell davonmachen, wenn ein Feind auftaucht. Die Peripherie der Sinnesorgane ist schon auf die Biologie abgestimmt.

Oft werden für Tierversuche ja in der Toxikologie Mäuse, Ratten und Kaninchen verwendet, in der Genetik sind es der Fadenwurm, die Maus, das Huhn, die Fruchtfliege und der Zebrafisch. Sind das denn die richtigen Kandidaten?

Bei einigen dieser Tiere hat man das Erbgut schon früh entschlüsselt und konnte entsprechend genetische Veränderung nutzen. Das hat aber leider zu einer Verengung der Forschung auf diese "Modellorganismen" geführt. Die Maus ist zum Beispiel beim Hören kein gutes Tiermodell. Sie kann uns Menschen nämlich fast nicht hören, da sie für die tiefen Frequenzen unserer Sprache taub ist. Die Wüstenrennmaus hört den Spektralbereich unserer Sprache dagegen schon.

Ich erwarte aber, dass man sich in den kommenden Jahren in der Wahl der Tiermodelle wieder verbreitert und genauer überlegt, welches Tier zu welcher Fragestellung passt. Denn die genetischen Werkzeuge haben sich durch die Genomik sowie neue Techniken – beispielsweise seit Erfindung der Genschere CRISPR/Cas – deutlich verbreitert.

Haben Sie Angst davor, dass Sie immer mehr unbeantwortete Fragen vor sich haben und Ihnen die Zeit davonläuft?

Ich weiß, viele Kollegen und Kolleginnen denken, man müsse eine Sache als Wissenschaftler abschließen, um beruhigt in den Ruhestand gehen zu können. Aber wir Wissenschaftler kratzen doch nur an der Oberfläche. Wir wissen viel und verstehen wenig – hat Wolfgang Prinz einmal treffend gesagt. Und es kommen neue Erkenntnisse, die meine Forschungen relativieren werden, weil wir für unsere Experimente immer reduktionistisch unterwegs sind. Das wird zwar besser: Früher arbeitete man am anästhesierten Tier, heute immerhin häufiger am lebenden und sich verhaltenden Tier, aber immer im Labor, bislang praktisch nie in der realen Welt.

Die gute Nachricht als alternder Wissenschaftler ist doch: Nichts hat Bestand! Nichts ist in Stein gemeißelt. Also, steigt man als Forscher ein und irgendwann steigt man einfach wieder aus und andere machen weiter. Es gibt auch noch genug zu tun …


 *Der Artikel ist erstmals am 1. Oktober 2023 unter dem Titel " Wie die Schleiereule die Wissenschaft auf die falsche Fährte führte " auf der Website https://www.dasgehirn.info/ erschienen https://www.dasgehirn.info/wie-die-schleiereule-die-wissenschaft-auf-die-falsche-faehrte-fuehrte. Mit Ausnahme des Titels und des Abstracts wurde der unter einer CC-BY-NC-SA Lizenz stehende Text unverändert in den Blog gestellt, Abbildung 2 "Schleiereule" wurde von der Redaktion eingefügt.

Die Webseite https://www.dasgehirn.info/ ist eine exzellente Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


 

inge Wed, 18.10.2023 - 23:27

Wie die Weltbevölkerung den Tag verbringt - eine ganzheitliche Schätzung

Wie die Weltbevölkerung den Tag verbringt - eine ganzheitliche Schätzung

Sa, 14.10.2023 — Redaktion

Redaktion Icon Datenbank

Jedem der nun 8 Milliarden Menschen stehen exakt 24 Stunden pro Tag für seine Aktivitäten zur Verfügung. Diese, in zunehmendem Maße über nationale Grenzen hinweg stattfindenden Aktivitäten bilden die Grundlage menschlichen Verhaltens und sind gleichzeitig Ursache bedrohlicher Veränderungen von Geosphäre und Biosphäre. Der enorme Umfang und die Vielfalt der menschlichen Aktivitäten haben bislang zu keiner ganzheitlichen Abschätzung geführt, wie die Menschheit den Tag verbringt und bei welchen Aktivitäten ein erhebliches Potential für Maßnahmen zur Minderung der negativen Veränderungen und Anpassung an den rasanten technologischen Wandel bestehen kann. Um zu einer derartigen Abschätzung zu kommen, hat ein kanadisches Forscherteam in einem Mammutprojekt jahrelang Datensätze aus verschiedensten Disziplinen zusammengetragen, analysiert und daraus einen "globalen menschlichen Tag" erstellt. Dieser bietet erstmals - in einer Vogelperspektive - einen Blick auf das, was unsere Spezies tut und die Möglichkeit besser fundierte Maßnahmen zu treffen.

 

 

 

 

Der Mensch als integrales Element des Erdsystems hat im Laufe des letzten Jahrhunderts begonnen dieses System in zunehmendem Maße zu dominieren und dabei sowohl die Erdoberfläche als auch die darauf lebenden Organismen zu verändern. Insgesamt haben unsere Aktivitäten zum rasanten technologischen Wandel und zur überbordenden Entwicklung von Infrastruktur und globalen Verkehrsnetzen geführt, die nun Veränderungen des Klimas, der Ökosysteme und den Verlust der biologischen Vielfalt nach sich ziehen. Der Ruf nach sofortigen Maßnahmen zur Bewältigung der Klimakrise, zur Rettung der Ökosysteme und zu einer nachhaltigen Nutzung der endlichen Ressourcen ist unüberhörbar. Solche Maßnahmen setzen allerdings ein vertieftes Verstehen der wechselseitig gekoppelten Entwicklung des Systems Erde-Mensch voraus - dieses weist aber derzeit leider noch große Lücken auf.

Forschung über den Menschen wird ja in der Regel getrennt von der Forschung über das System-Erde durchgeführt; insbesondere fehlt eine umfassende Darstellung der menschlichen Aktivitäten auf globaler Ebene. Natürlich werden menschliches Verhalten und Aktivitäten von Ökonomen, Soziologen, Anthropologen, Biologen u.a. seit langem beschrieben, allerdings beschränken sich diese jeweils auf wesentliche Aspekte ihrer Disziplinen (Ökonomen beispielsweise auf bezahlte Erwerbstätigkeit und nicht darauf, was Menschen sonst noch tun). Natur-, Wirtschafts- und Sozialwissenschaften werden in der Regel unabhängig voneinander und mit unterschiedlichen Mitteln betrieben, differieren also methodisch sehr und lassen sie sich kaum zu einem umfassenden Bild auf globaler Ebene kombinieren.

Das Humane Chronom Projekt

Das Team um Eric Galbraith (Professor an der McGill University, Montréal, Canada) entwickelt einen neuartigen interdisziplinären Ansatz, der als "Erdsystemökonomie" bezeichnet wird und zum Ziel hat das globale menschliche System nahtlos mit den anderen Komponenten des Erdsystems zusammen zu führen. (siehe: https://earthsystemdynamics.org/research/current/). Im Rahmen dieses Ansatzes versucht das Team ein quantitatives Bild eines humanen "Chronoms" zu erstellen, d.i. wie die Menschheit im globalen Mittel den Tag auf Aktivitäten aufteilt (https://humanchronome.org/). Es ist dies ein entscheidender Aspekt im Verstehen des Erde-Mensch-Systems: Wie wir die 24 Stunden am Tag verbringen, bestimmt ja einerseits, wie wir die biophysikalische Realität verändern und ist andererseits Ausdruck unseres subjektiven Erlebens. Entstehen soll so ein umfassender globaler Datensatz menschlicher Aktivitäten - eine Datenbank, die auch aufzeigt, bei welchen Aktivitäten ein erhebliches Potential für Maßnahmen zur Minderung der negativen Veränderungen und Anpassung an den rasanten technologischen Wandel bestehen kann.

In einer kürzlich im Fachjournal Proceedings of the National Academy of Sciences erschienenen Arbeit [1] haben die Forscher unter dem Titel The Global Human Day nun erstmals Ergebnisse aus diesem Projekt vorgestellt: Es ist eine gesamtheitliche Schätzung dessen, wie die Weltbevölkerung im Mittel aller Menschen den Tag verbringt. Der zugrunde liegende Datensatz stammt aus 145 Ländern (entsprechend 87 % der Weltbevölkerung), wobei in 52 Ländern sowohl repräsentative Erhebungen zur Zeitnutzung als auch Statistiken über Beschäftigung und Arbeitszeit zur Verfügung standen, in 6 Ländern nur Zeitverwendungsdaten und in den übrigen 87 Ländern nur Wirtschaftsdaten. Abbildung 1. Die Informationen stammten dabei aus heterogenen öffentlichen, privaten und akademischen Quellen - u.a. von statistischen Ämtern, von der Datenbank der Internationalen Arbeitsorganisation (Ilostat), von der Weltbank und von Unicef.

Abbildung 1 Globale Erfassung von nationalen Daten zu Erhebungen von Zeitverwendung und von Wirtschaftsdaten. Die Daten stammen aus den Jahren 2000-2019, die meisten davon aus dem Zeitraum 2010 -2019; Wirtschaftsdaten überwiegend aus den Jahren 2018-2019.Länder,die keine Daten lieferten, sind weiß dargestellt; für diese wurden Informationen aus vergleichbaren Nachbarregionen extrapoliert. (Bild aus Supplement, Fajzel et al., [1]. Lizenz: cc-by-nc-nd)

Der Global Human Day - Datenanalyse

Die aus den verschiedenen Quellen, mit unterschiedlichen Methoden erhobenen Daten haben die Forscher harmonisiert, indem sie die im Wachzustand ausgeübten Tätigkeiten entsprechend der zugrunde liegenden Motivation in 3 große Gruppen und diese jeweils in Kategorien, Subkategorien und weitere Unterordnungen einteilten (insgesamt rund 4000 unterschiedliche Aktivitäten):

Gruppe 1: Aktivitäten, die Auswirkungen auf die Umwelt haben (External Outcomes). Dazu gehören: Erzeugung von Nahrungsmitteln (z.B. Landwirtschaft, Fischfang) und derenVerarbeitung; Gewinnung von Rohstoffen und Energie für die Technosphäre; Errichtung und Instandhaltung von Bauten, Infrastruktur und Pflege der damit verbundenen Tier- und Pflanzenwelt; Produktion von beweglichen Gütern; Müllentsorgung.

Gruppe 2: Aktivitäten, die unmittelbare Folgen für uns selbst haben (Dircet human outcomes). Dazu gehören: Hygiene, Körper-und Gesundheitspflege, Kinderbetreuung; Mahlzeiten; Erziehung, Bildung und Forschung ; Religionsausübung; Ausübung von Hobbies, Sport, sozialen Aktivitäten.

Gruppe 3: Aktivitäten, die innerhalb der Gesellschaft organisiert sind (Organizational outcomes). Dazu gehören: Transport, Pendeln, Handel, Finanzen, Immobilien, Recht und Verwaltung bestimmte Aktivitäten.

Die sich daraus ergebende Schätzung des globalen menschlichen Tages ist in Abbildung 2. dargestellt, und zwar als die Anzahl der Stunden pro Tag, mit der jede Aktivität vom Durchschnitt aller Menschen ausgeübt wird; die Fläche jeder farbigen Zelle ist dabei proportional zur Zeitdauer. Separat dargestellt ist der Schlaf.

Abbildung 2. Der globale menschliche Tag incl. Erwerbstätigkeit. Dargestellt sind separiert die inaktive Phase des Schlafs (graublau) und die drei Kategorien der Aktivitäten im Wachzustand in Form eines Voronoi-Diagramms, dessen farbige Zellen proportional zur Zeitdauer sind. Die drei Kategorien unterteilen sich in Aktivitäten, die i) die Umwelt (external outcomes) beeinflussen (gelb/ braun ), ii) die direkte Auswirkungen auf den Menschen haben (blau), und iii) die durch Organisationen vorgegeben sind (dunkelgrau). Darunter ist die Zeit in Stunden/Tag (mit Konfidenzintervallen) angegeben, die in jeder Unterkategorie verbracht wird. (Bild unverändert übernommen aus Fajzel et al., [1]. Lizenz: cc-by-nc-nd) >

Die meiste Zeit verbringt die Menschheit mit Schlaf und Bettruhe (9,1 ± 0,4 Stunden) - in der Abbildung separat als Sichel dargestellt. Diese Zeit liegt deutlich über dem weltweit mittels tragbaren Geräten festgestellten Durchschnitt von 7,5 Stunden Schlaf pro Tag, ist aber auf die Einbeziehung von Kindern zurückzuführen und auf die Zeit, die nichtschlafend im Bett verbracht wird.

Von den etwa 15 h täglicher Wachzeit nehmen Aktivitäten der Gruppe 2, d.i. sich um sich selbst und seine Angehörigen/Freunde zu kümmern, mit 9,4 Stunden/Tag den Löwenanteil ein. Fast die Hälfte davon (4,6 h/Tag) sind passiven, interaktiven und sozialen Tätigkeiten gewidmet, zu denen Lesen, Bildschirmschauen, Spielen, Spazierengehen, Geselligkeit und auch Nichtstun gehören. Mahlzeiten (1,6 h/Tag) nehmen mehr Zeit ein als Hygiene/Körperpflege und Bildung/Forschung (jeweils 1,1 h/Tag).

Die Aktivitäten der 2. Gruppe - Auswirkungen auf die Umwelt - widmen mehr als die Hälfte der insgesamt 3,4 h/Tag der Produktion und Zubereitung von Nahrungsmitteln. Dahinter rangieren (0,81 h) die Erhaltung und Sauberkeit der Wohnstätten, die Errichtung von Bauten und Infrastrukturen (0,65 h) und schlussendlich die Gewinnung von Materialien und Energie aus der natürlichen Umwelt (o,11 %). Nahezu vernachlässigbar erscheint die Zeit (0,11 h), die auf die Abfallentsorgung aufgewendet wird.

Die Aktivitäten der dritten Gruppe (2,1 h) sind innerhalb der Gesellschaft organisatorisch bestimmt wie der Transport von Menschen (0,9 h/Tag) und Gütern (0,3 h/Tag) und weitere durch Handel, Finanzen, Gesetze bedingte Aktivitäten. Diese variieren von Kultur zu Kultur, von Wirtschaftssystem zu Wirtschaftssystem und hängen auch von rechtlichen und politischen Systemen ab. So ermöglichen arbeitssparende Technologien und vorhandene Transportsysteme in Industrieländern Nahrungsmittel in bedeutend weniger Zeit zu produzieren und zu verteilen, als in armen Regionen. Wie die Forscher herausfanden, ist dagegen der Zeitaufwand für Körperpflege und Zubereitung von Mahlzeiten in armen und reichen Ländern vergleichbar.

Wie viel Zeit verbringt der Mensch mit wirtschaftlichen Tätigkeiten?

Diese Aktivitäten definiert die Studie als Beschäftigungen gegen Entgelt oder mit Gewinn, inkludiert ist die Herstellung von nicht für den Markt bestimmten Gütern im Haushalt. Auf diese Aktivitäten entfallen rund 2,6 h oder ein Sechstel der wachen Stunden während des durchschnittlichen Lebens. Abbildung 3.

Dies mag gering erscheinen, entspricht laut Autoren aber einer 41-Stunden-Woche, wenn auf die Erwerbsbevölkerung - das sind etwa 66 % der Bevölkerung im erwerbsfähigen Alter (15 bis 64 Jahre) bezogen wird. (Anm. Redn.: da auch die unbezahlten Arbeiten im Haushalt mit eingerechnet werden, liegt die bezahlte Lohnarbeit zweifellos weit unter einer "40-Stunden-Woche".)

Abbildung 3. Der globale Wirtschaftstag. Das Voronoi-Diagramm zeigt die durchschnittliche Zeit, die in bezahlter Beschäftigung und unbezahlter oder sonstiger Eigennutzung/Haushaltsproduktion von Gütern verbracht wird, gemittelt über die Weltbevölkerung. Die durchschnittlichen Zeiten pro Unterkategorie sind unten in der Abbildung in Minuten pro Tag angegeben. (Bild unverändert übernommen aus Faizel et al., [1]. Lizenz: cc-by-nc-nd)

Ein Drittel der Arbeitszeit (52 Minuten) fällt auf Produktion von Nahrungsmitteln (hauptsächlich durch Landwirtschaft) und deren Zubereitung. Etwa ein Viertel der Wirtschaftstätigkeit ist dem Transport und der Allokation gewidmet (37 min), wozu Einzelhandel, Großhandel, Immobilien, Versicherungen, Finanzen, Recht und Verwaltung gehören. Die Produktion von Artefakten (d.i. durch menschliche oder technische Einwirkung entstandene Produkte), zu denen Fahrzeuge, Maschinen, Elektronik, Haushaltsgeräte und andere bewegliche Gütern sowie deren Zwischenprodukte gehören, macht etwa ein Siebtel der gesamten Wirtschaftstätigkeit aus (22 min). Erstaunlich niedrig fällt die Bautätigkeit (Gebäude und Infrastruktur 13 min), die Beschaffung von Materialien und Energie (6 min) aus. Die praktisch vernachlässigbare Zeit, die mit der Müllentsorgung verbracht wird, ist bereits erwähnt worden.

Fazit

Eine großartige Datenbank ist im Entstehen, die erstmals eine Quantifizierung dessen, was der Mensch tut und wofür er es tut, ermöglicht. Der nun publizierte " Global Human Day" [1] gibt einen Überblick aus der Vogelperspektive auf die gemittelten Aktivitäten der gesamten Menschheit. Natürlich kann der zugrunde liegende Datensatz auch herangezogen werden, um die Aktivitäten in einzelnen Regionen oder die zeitlichen Veränderungen in den Aktivitäten weltweit oder regionsbezogen zu vergleichen.

Das erstaunlichste Ergebnis der "Global Human Data" ist zweifellos, dass der globale Mensch den größten Teil seiner wachen Zeit darauf verwendet, sich um sich selbst oder andere zu kümmern. Es besteht viel Raum zur Nachjustierung von Aktivitäten - beispielsweise, die Zeit, die zur Erzeugung von Energie aufgewendet wird oder die nahezu vernachlässigbare Müllentsorgung - und damit ein erhebliches Potential für Maßnahmen zur Minderung der im Anthropozän verursachten Schädigungen von Geosphäre und Biosphäre.


[1] W. Faizel et al., The global human day (June 2023), PNAS 120, 25. 0. https://doi.org/10.1073/pnas.2219564120 open access.


 

inge Sat, 14.10.2023 - 17:48

Ferenc Krausz: Pionier der Attosekunden-Physik erhält den Nobelpreis für Physik 2023

Ferenc Krausz: Pionier der Attosekunden-Physik erhält den Nobelpreis für Physik 2023

Do, 05.10.2023 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Elektronen halten die Welt zusammen. Wenn in chemischen Reaktionen neue Substanzen entstehen, spielen Elektronen die Hauptrolle. Und auch in der Elektronik stellen sie die Protagonisten. Ferenc Kraus konnte - damals noch an der TU Wien - mit nur Attosekunden dauernden Laserpulsen erstmals die rasanten Bewegungen einzelner Elektronen in Echtzeit verfolgen [1]. Nun, als Direktor am Max-Planck-Institut für Quantenoptik in Garching, setzt Krausz mit seinen Mitarbeitern diese Arbeiten fort und erhält daraus nicht nur fundamentale Erkenntnisse über das Verhalten von Elektronen im atomaren Maßstab, sondern schafft auch die Basis für neue technische Entwicklungen, beispielsweise für schnellere elektronische Bauteile oder zur Früherkennung von Krebserkrankungen aus Blutproben. Für seine Entdeckungen hat Ferenc Krausz gemeinsam mit Pierre Agostini und Anne L’Huillier den Nobelpreis für Physik 2023 erhalten. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr gibt hier einen Einblick in die Attosekundenforschung am Max-Planck-Institut. In einem kürzlich erschienen Bericht hat er auch über den medizinischen Ansatz zur Krebsfrüherkennung berichtet [2].*

Ferenc Krausz ist Pionier der Attosekunden-Metrologie, mit der sich die Bewegungen von Elektronen filmen lassen. Die beiden Vakuumkammern im Vordergrund und links von Krausz dienen dabei als Drehorte: In ihnen finden die Experimente statt.

Der schwarze Vorhang hebt sich: Wie auf einer Bühne liegt unter uns, etwa so groß wie eine Schulturnhalle, ein Reinraum, nahezu komplett ausgefüllt mit einer Laseranlage. Hier laufen starke Laserstrahlen durch die Luft und erzeugen Femtosekunden-Lichtpulse, die bloß einige Millionstel einer milliardstel Sekunde dauern. Die Anlage ist so empfindlich, dass wir sie nur durch ein Besucherfenster bewundern dürfen. Der unübersichtliche Aufbau optischer Instrumente bildet den ersten Abschnitt einer Rennstrecke, an deren Ziel die kürzesten Lichtblitze der Welt ankommen. Wir befinden uns in der Abteilung von Ferenc Krausz, Direktor am Max-Planck-Institut für Quantenoptik in Garching. Abbildungen 1, 2.

Abbildung 1. Der lange Weg der Attoblitze: Manish Garg (links) und Antoine Moulet arbeiten am Experimentiertisch, über den die Attosekundenpulse geleitet werden. Durch die Aufnahme mit einem extremen Weitwinkelobjektiv erscheint der gerade Tisch gebogen.

Die selbst schon sehr kurzen Femtosekunden-Laserpulse reisen durch ein Vakuumrohr in ein Labor einen Stock tiefer. Dieses Labor dürfen wir betreten. Hier entstehen Attosekundenblitze, die noch tausendmal kürzer sind als die Femtopulse. In dem Labor fällt eine große Tonne auf, an der die zwei Doktoranden Martin Schäffer und Johann Riemensberger schrauben. Sie erinnert entfernt an eine Kreuzung aus einer XXL-Waschmaschinentrommel und einem alten Taucherhelm. Tatsächlich handelt es sich dabei um eine Vakuumkammer aus massivem Edelstahl. Ihre Panzerfenster gewähren einen Blick auf die Probe, die das Ziel der Attosekundenlichtblitze markieren.

Abbildung 2. Saubere Luft für starkes Laserlicht: Tim Paasch-Colberg arbeitet an der Laseranlage im Reinraum, wo starke Femtosekundenpulse erzeugt werden. Staub in der Luft würde dabei stören.

Schäffer und Riemensberger gehören zum Garchinger Team von Reinhard Kienberger, der auch Physikprofessor an der TU München ist. Neben ihnen forschen mehr als hundert Wissenschaftlerinnen und Wissenschaftler in der Abteilung von Ferenc Krausz. Der Pionier der Attosekundentechnik zieht junge Nachwuchsforscher aus aller Welt an, die extrem schnelle Prozesse der Natur beobachten wollen.

Krausz ist also der perfekte Adressat, um ein Gefühl dafür zu vermitteln, wie schnell eine Attosekunde verstreicht. Rein mathematisch ist eine Attosekunde in Milliardstel einer milliardstel Sekunde. Doch selbst der Physiker Krausz findet dieses Zahlenspiel unanschaulich. Also sucht er nach griffigen Vergleichen. „Das Schnellste, was wir kennen, ist Licht“, steigt er ein, „in einer Sekunde kann es die Erde ungefähr achtmal umrunden.“ Doch obwohl Licht so schnell ist, komme es innerhalb einer Attosekunde gerade mal von einem zum anderen Ende eines einzigen Wassermoleküls!“ Ein Wassermolekül ist mit einem Durchmesser von nur 0,3 Nanometern unfassbar winzig: Bei einem Nanometer handelt es sich um den millionsten Teil eines Millimeters. „Nano“ kommt vom altgriechischen Wort für Zwerg. Und genau darum geht es in der Attosekundenforschung: um extrem zwergenhafte Quantenobjekte, die sich unglaublich schnell bewegen.

Wer die Motivation von Wissenschaftlern wie Ferenc Krausz im historischen Kontext verstehen will, landet beim Pferd. Jahrhunderte gab es Streit über die Frage, ob es beim Galopp alle vier Hufe vom Boden löst. Generationen von Malern haben sich der Thematik gewidmet. Eadweard Muybridge hat das Rätsel gelöst: Ja, für einen kurzen Moment sind alle vier Hufe in der Luft.

Muybridge gelang es 1878, alle Phasen des Pferdegalopps erstmals in schnellen Schnappschüssen einzufrieren. Seitdem haben Hochgeschwindigkeitsaufnahmen von Vorgängen, die zu schnell für unser Auge ablaufen, unser Wissen erheblich erweitert. In den Naturwissenschaften ist die Entschlüsselung ultraschneller Prozesse im Reich der Atome und Elementarteilchen sogar essenziell.

Elektronen verhielten sich wie Hütchenspieler

Im Fokus der Garchinger Attosekundenforschung steht das Elektron. „Es kommt praktisch überall vor“, sagt Krausz und weist damit auf die Übermacht dieses negativ geladenen Elementarteilchens hin. Obwohl Elektronen selbst aus der Perspektive der Nanowelt extrem klein sind, kitten sie als Quantenkleber die Atome zur Materie in den vielfältigen Formen unserer Welt zusammen. Elektronen übernehmen überdies die Hauptrollen in chemischen Reaktionen, weil neue Substanzen stets dadurch entstehen, dass sie zwischen verschiedenen Atomen verschoben werden. Allerdings agieren die Elementarteilchen dabei so schnell, dass sich ihr Treiben bis vor Kurzem nicht direkt verfolgen ließ.

Für die Forschung verhielten sich Elektronen also lange wie Hütchenspieler, die Zuschauer mit Schnelligkeit austricksen. Die Quantenmechanik kann ihr Verhalten zwar theoretisch beschreiben, allerdings vor allem die Anfangs- und Endsituation der elektronischen Hütchenspiele. Das galt lange auch für Experimente: Das eigentliche Spiel der Elektronen blieb verborgen. Diese Wissenslücke war nicht nur aus Sicht der Grundlagenforschung unbefriedigend, sie behindert zudem bis heute neue Entwicklungen für die Praxis. Ein Beispiel bilden Katalysatoren, die chemische Reaktionen effizienter ablaufen lassen. Systematisch lässt sich das jeweils beste Material für die chemische Hilfestellung nur identifizieren, wenn Forscher verstehen, wie genau ein Katalysator den Elektronentransfer beeinflusst.

Als in den 1970er-Jahren die Laser immer leistungsfähiger wurden, kam deshalb eine bestechende Idee auf: Vielleicht ließen sich mit extrem kurzen Laserpulsen Schnappschüsse chemischer Reaktionen aufnehmen, so wie einst Muybridge die Phasen des Pferdegalopps ablichtete. „Aus zu verschiedenen Zeiten aufgenommenen Einzelbildern kann man dann einen Film erstellen, der den genauen Ablauf der Reaktion zeigt“, erklärt Krausz.

Mit diesem Ansatz entstand ein neues Forschungsgebiet; es basiert auf einer Methode, die Pump-Probe-Verfahren heißt. Dabei startet ein erster Laserblitz einen Prozess, etwa eine chemische Reaktion, und nach einer bewusst gewählten Wartezeit macht ein zweiter Blitz einen Schnappschuss. Indem die Wissenschaftler die Reaktion wiederholen und die Wartezeit zwischen Pump-und Probe-Laserpuls variieren, erhalten sie die Einzelbilder eines Prozesses. Diese können sie anschließend zu einem Film zusammensetzen.

In den 1990er-Jahren war diese Experimentiertechnik so weit ausgereift, dass sie völlig neue Einblicke in die Natur lieferte. Sie machte erstmals die Bewegung von Atomen in Molekülen sichtbar. Für diese Pionierleistung erhielt der aus Ägypten stammende USamerikanische Physikochemiker Ahmed Zewail 1999 den Nobelpreis für Chemie.

Doch gleichzeitig lief die bis dahin rasante Entwicklung hin zu immer kürzeren Verschlusszeiten für die einzelnen Aufnahmen gegen eine Wand. Die Technik konnte zwar Prozesse in Zeitlupe darstellen, die in wenigen Femtosekunden ablaufen. Damit ließen sich nur die Bewegungen von Atomen filmen, nicht aber jene der viel leichteren und schneller agierenden Elektronen. Um sie in Schnappschüssen einzufrieren, brauchte es eine radikal neue Attosekunden-Blitztechnik.

Um die Jahrtausendwende schaffte es Ferenc Krausz, damals noch an der TU Wien, als Erster, die Mauer in den Attosekundenbereich hinein zu durchbrechen. Seitdem gelingt es immer besser, das Spiel der Elektronen zu filmen. Damit entstand ein neues Forschungsgebiet. Inzwischen nehmen die Garchinger Aufnahmen aus der rasanten Elektronenwelt. Doch warum gab es diese technische Hürde der Ultrakurzzeitforschung?

Femtosekunden-Laserlicht rüttelt die Atome durch

„Das hat mit der Farbe des Lichts, also seiner Wellenlänge, zu tun“, erklärt Krausz. Ein Lichtpuls kann erst dann durch den Raum wandern, wenn er mindestens einen Wellenberg und ein Wellental umfasst. Nur Pulse aus einem solchen vollständigen Wellenzug sind in sich so stabil, dass sie ihren Weg vom Laser zur Probe zurücklegen, ohne völlig zu zerfließen. Sobald ein Wellenzug aber in eine Zeitspanne von einigen Attosekunden gequetscht werden soll, muss seine Wellenlänge kurz genug sein.

„Für Pulse mit einer Dauer unterhalb einer Femtosekunde braucht man schon extrem ultraviolettes Laserlicht“, sagt Krausz, „zur Erzeugung noch kürzerer Pulse führt an Röntgenlicht kein Weg vorbei.“ Und genau das war das Problem: Es gab lange Zeit keine Laser, die Licht in diesem kurzwelligen Spektralbereich produzieren konnten. Erst in den letzten Jahren dringen sogenannte Freie-Elektronen-Laser dorthin vor. Ihr Nachteil: Sie sind auf kilometerlange Teilchenbeschleuniger angewiesen, also riesige, teure Großforschungsanlagen.

In den 1990er-Jahren stellte sich Krausz – wie einst Muybridge – der Herausforderung, diese Hürde mithilfe der vorhandenen Technik zu nehmen. Muybridge kombinierte seine Plattenkamera-Ungetüme damals zu einer langen Batterie, die von einem vorbeigaloppierenden Pferd nacheinander ausgelöst wurden. So gelang es, jede Phase des Galopps auf einem Foto abzulichten.

Krausz musste mit der Femtosekunden-Lasertechnik auskommen, die zu langwellig war. Er kam auf die Idee, die hochintensiven Laserpulse auf Edelgasatome zu schießen. Das Femtosekunden-Laserlicht rüttelt die Atome durch und zwingt sie, einen Blitz im ultravioletten oder im Röntgenbereich auszusenden. Weil die Atome präzise im Takt des anregenden Femtosekunden-Laserpulses schwingen, hat dieses kurzwellige Licht sogar die reine, perfekte Qualität von Laserlicht. Mit diesem Trick drang Krausz erstmals in den Attosekundenbereich vor. Abbildung 3.

Abbildung 3. Elektronen auf der Durchreise: Attosekundenblitze von extrem ultraviolettem Licht (violett) katapultieren Elektronen aus den Atomen eines Wolframkristalls (grün). Mit infraroten Laserpulsen (rot) haben die Garchinger Forscher gemessen, dass ein Elektron 40 Attosekunden braucht, um eine einzelne Lage von Magnesiumatomen (blau) über dem Wolframkristall zu durchqueren

Der kürzeste Garchinger Blitz dauert 72 Attosekunden

Die Garchinger haben ihre Attosekundenanlagen inzwischen immer weiter verbessert. 2004 hielt Krausz’ Gruppe noch mit 650 Attosekunden den Weltrekord für den kürzesten Lichtpuls, heute blitzen die besten Experimente rund zehnmal schneller. „Mit Martin Schultzes Team sind wir hier in Garching jetzt bei 72 Attosekunden angelangt“, sagt Krausz, „aber seit 2012 hält Zenghu Changs Gruppe an der University of Central Florida den Weltrekord mit nur 67 Attosekunden.“ Den Max-Planck-Direktor stört es nicht, dass die Garchinger den Rekord verloren haben – im Gegenteil. „Das zeigt, dass unser Forschungsfeld auf wachsendes Interesse stößt“, freut er sich. Schließlich geht es nicht um Rekorde, sondern um immer feinere Werkzeuge, um die schnellsten Bewegungen im Mikrokosmos zu erforschen.

Zu den ersten Untersuchungsobjekten der Attosekunden-Metrologie oder Attosekunden-Chronoskopie, wie die Garchinger ihre Technik nennen, gehörten die Bewegungen der Elektronen in einzelnen Atomen und Molekülen. Seit einigen Jahren sind jedoch weitaus komplexere Elektronenwelten in den Fokus der Forscher gerückt: kristalline Festkörper. In vielen anorganischen Materialien ordnen sich die Atome zum regelmäßigen, räumlichen Gitter eines Kristalls an. Kristalle kommen in der Natur vielfältig vor, so bilden auch die für unzählige Anwendungen nützlichen Metalle und Halbleiter Kristalle.

Mit der neuen Attosekunden-Messtechnik hat das Team von Reinhard Kienberger gerade in Echtzeit erfasst, wie Elektronen durch eine einzelne Lage von Metallatomen flitzen. Diese Passage ist sowohl für die Physik als auch für die Technik von zentraler Bedeutung. Ihre direkte Beobachtung kann helfen, eines Tages wesentlich schnellere elektronische Schaltelemente und Mikroprozessoren zu entwickeln.

Grundlagenforscher interessieren sich für das komplexe Verhalten der Elektronen in Kristallen, weil die Elementarteilchen darin zwei ganz zentrale Wirkungen haben, die zusammen viele Materieeigenschaften bedingen. So bindet ein Teil der Elektronen die Atome zum Kristallgitter zusammen. Sie formen gewissermaßen den Quantenkitt der Materie. Für die zweite Wirkung sorgen Elektronen, die sich von ihren ursprünglichen Atomen lösen können. Sie flitzen etwa in Metallen einigermaßen frei durchs Kristallgitter und können so elektrischen Strom transportieren. Diese Leitungselektronen haben zudem großen Einfluss auf die mechanischen und optischen Eigenschaften eines Materials und seine Fähigkeit, Wärme zu leiten.

In vielen Kristallen gibt es aber keine Leitungselektronen. Diese Materialien heißen deshalb Isolatoren, ein Beispiel ist Quarz. Zwitter zwischen Isolatoren und elektrischen Leitern stellen die Halbleiter dar. Halbleiter haben als Baustoff der Elektronik unsere Kultur radikal verändert. In ihnen brauchen die Elektronen einen kleinen Schubs, damit sie als Leitungselektronen fließen können. Um dieses Verhalten zu verstehen, muss man ein Elektron als Quantenteilchen betrachten.

Da ein Elektron auch eine elektromagnetische Welle darstellt, besitzt es eine Wellenlänge. Diese ist mit seiner Bewegungsenergie verknüpft – ein bisschen wie das Geräusch eines Rennwagens mit seiner Motordrehzahl. Wenn ein Elektron sich frei durch ein Kristallgitter bewegen will, muss seine Wellenlänge zum räumlichen Raster der Atome passen. Das trifft nur für einen bestimmten Bereich von Wellenlängen – und damit Energie – zu. Dieser Bereich bildet eine Art Autobahn, auf der die Elektronen durch den Kristall rasen können. In diesem Leitungsband fließt bei Metallen immer reger Elektronenverkehr. Bei Halbleitern dagegen hängen auch die beweglichsten Elektronen an ihren Atomen fest. Erst mit einem Energiekick schaffen sie den Quantensprung ins Leitungsband. Das wird zum Beispiel bei Schaltvorgängen in Transistoren genutzt.

Macht starkes Licht einen Quarzkristall leitfähig?

Bei Isolatoren allerdings müsste dieser Energiekick so heftig sein, dass er das Material zerreißen würde. Könnte man trotzdem einen Isolator dazu bringen, leitfähig zu sein – und sei es nur für kurze Zeit? Und: Wäre das auch technisch interessant?

Das fragte sich ein Garchinger Attosekundenteam, in dem Elisabeth Bothschafter und Martin Schultze ihre Doktorarbeiten machten. Um eine Antwort zu finden, brauchten die Laserphysiker versierte Experten für Kristalle an ihrer Seite. Diese Festkörperphysiker fanden sie in der Gruppe des Theoretikers Mark Stockman von der Georgia State University in Atlanta, USA. Für den engen Kontakt sorgte der Amerikaner Augustin Schiffrin, der gerade nach Garching gewechselt war, um dort ebenfalls Attosekunden-Experimente zu machen.

Das Forscherteam untersuchte in den Garchinger Labors an Quarz, ob dieser Isolator unter dem Beschuss mit extrem starken Femtosekunden-Lichtblitzen kurzzeitig leitfähig werden kann – ohne zerstört zu werden. Auch der Einfluss der Lichtblitze auf dessen optische Eigenschaften interessierte die Forscher. Diese momentane Veränderung verfolgten sie mit noch kürzeren Attosekundenblitzen. Bothschafter und Schultze entwickelten dafür ein Experiment, für das die Garchinger ihren hausinternen Rekord auf nur 72 Attosekunden Pulsdauer herunterschraubten. Diese Attosekundenblitze schickten die Forscher synchron zu den Femtosekunden-Lichtpulsen auf ihre Probe. Damit verfügten sie über das passende Präzisionswerkzeug, um die genaue Form der verwendeten Femtosekunden-Laserpulse genau abzutasten. Das war entscheidend, um die durch diese Pulse im Quarz verursachte Veränderung richtig zu deuten.

Quarz überlebt das kurze elektrische Inferno

Zudem analysierten die Physiker mit den Attoblitzen in Echtzeit, was in der nur knapp 200 Nanometer dünnen Quarzprobe unter dem Lichtbeschuss im Detail passierte. Dort erzeugte der intensive Femtosekunden-Laserpuls, bei dem es sich um eine elektromagnetische Welle handelt, ein extrem starkes elektrisches Feld. Martin Schultze vergleicht es mit dem Feld einer Überland-Hochspannungsleitung, das zwischen zwei Elektroden anliegt, die nur wenige tausendstel Millimeter voneinander entfernt sind. Jedes bekannte Material würde dabei sofort verdampfen.

Abbildung 4. Licht erzeugt Strom: Mit einem sehr intensiven dunkelroten Laserblitz machen Max-Planck-Physiker ein Quarzprisma, das sie auf zwei Seiten mit Goldelektroden bedampft haben, vorübergehend leitfähig. Mit einem zweiten, wesentlich schwächeren Puls schieben sie die kurzzeitig mobilen Elektronen zu einer Elektrode – Strom fließt.

Der Quarz überlebte dieses elektrische Inferno allein deshalb, weil es in ihm nur für wenige Femtosekunden tobte. Er war schlicht zu träge, um es zu bemerken. Bevor seine Atome auseinanderdriften konnten, war es längst vorbei. Allerdings sah es bei den Elektronen anders aus. Einige von ihnen folgten dem Feld des Femtosekundenpulses wie Hunde an der Leine. Sie erzeugten somit vorübergehend einen elektrischen Strom im Quarz, der am Ende des Femtosekundenblitzes sofort wieder abklang. Danach war der Quarz wieder ein normaler Isolator. Abbildung 4.

„Die Leitfähigkeit lässt sich also mit dem Lichtpuls in der unvorstellbar kurzen Zeitspanne von wenigen Femtosekunden nicht nur an-, sondern auch wieder ausschalten“, sagt Krausz. Letzteres war entscheidend, denn das passiert in Halbleitern nicht. Abbildung 5.

Stockmans Gruppe zeigte, dass die Elektronen sich dabei nach einem völlig anderen Mechanismus bewegen als in Halbleitern. Dort lassen sie sich zwar auch innerhalb von Femtosekunden ins Leitungsband kicken. Aber dann verharren sie darin aus Sicht der Attosekundenphysik eine Ewigkeit, nämlich ungefähr tausend- bis zehntausendmal länger als eine Femtosekunde. Im Quarz jedoch folgen die Elektronen unmittelbar dem elektrischen Lichtfeld von ihren Atomen weg und springen ebenso rasch wieder zurück, sobald das Feld abklingt. Die Forscher erhielten auf diese Weise also einen elektrischen Schalter, der extrem schnell wirkt, nämlich innerhalb von Femtosekunden.

Abbildung 5. Ein nur wenige Nanometer dickes Quarzglas, das in einen schwarzen Rahmen eingespannt ist (Bildmitte), wird durch einen roten Laserpuls leitfähig. Mit einem anschließenden Attosekundenpuls lässt sich messen, wie schnell das Quarzglas wieder zum Isolator wird.

Die Garchinger Physiker und ihre Kooperationspartner widmen sich diesen Vorgängen zunächst als Grundlagenforscher, und sie haben dabei etwas völlig Neues aufgespürt: So einen exotischen Zustand hat zuvor noch niemand in einem Isolator erzeugt. Langfristig könnte diese Entdeckung aber auch die Elektronik revolutionieren. Das relativ träge Verharren der Elektronen im Leitungsband von Halbleitern begrenzt nämlich die Geschwindigkeit, mit der herkömmliche Transistoren schalten können. Im Labor kommen konventionelle Transistoren mit extrem kleinen Nanostrukturen zwar schon auf hundert Milliarden Schaltungen pro Sekunde. Das ist grob eine Größenordnung schneller als die heute etablierten Computer-Mikroprozessoren.

„Mit unserer Entdeckung wären aber nochmals um den Faktor zehntausend schnellere Schaltzeiten möglich“, bilanziert Krausz. Damit könnten Computer ungeheure Datenmengen in Echtzeit verarbeiten. Allerdings müsste es dazu auch gelingen, die metergroßen Kurzpulslaser, die den Schaltvorgang antreiben, zu miniaturisieren. „Deshalb – und auch aus einigen anderen Gründen – ist das derzeit erst einmal eine spannende Zukunftsperspektive“, betont Krausz.

Für ihn als Max-Planck-Wissenschaftler steht der Erkenntnisgewinn im Fokus. Mit der neuen Attosekunden-Messtechnik hat das Team von Reinhard Kienberger gerade in Echtzeit erfasst, wie Elektronen durch einzelne Atomlagen eines Kristallgitters flitzen. Diese „Reise“ ist für Physik und Technik von zentraler Bedeutung. Die direkte Beobachtung kann entscheidend helfen, eines Tages wesentlich schnellere elektronische Schaltelemente und Mikroprozessoren zu entwickeln.


[1] Hentschel, M., Kienberger, R., Spielmann, C. et al. Attosecond metrology. Nature 414, 509–513 (2001). https://doi.org/10.1038/35107000

[2] Roland Wengenmayr, 09.03.2023: Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten


* Der Artikel ist erstmals unter dem Title: "Klappe für den Quantenfilm"https://www.mpg.de/9221304/F002_Fokus_024-031.pdf im Forschungsmagazin der Max-Planck-Gesellschaft 1/15 erschienen und wurde mit Ausnahme des Titels und Abstracts unverändert in den Blog übernommen. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. © Max-Planck-Gesellschaft -

 


Weiterführende Links

The Nobel Prize in Physics 2023: Popular information. https://www.nobelprize.org/prizes/physics/2023/popular-information/

The Nobel Prize in Physics 2023: Advanced information. https://www.nobelprize.org/prizes/physics/2023/advanced-information/

MPG: Laser - Der schnellste Blitz der Welt. Video 8:30 min. (2012) https://www.youtube.com/watch?v=6zxzJqvzZMY

MPG: Wie kurz ist eine Attosekunde? Video 2:49 min. https://www.youtube.com/watch?v=FR21qcg856g . copyright www.mpg.de/2012

FU Berlin: 21st Einstein Lecture: Prof. Dr. Ferenc Krausz | Elektronen und Lichtwellen - gemeinsam gegen Krebs (2.12.2022) Video: 1:31:41. https://www.youtube.com/watch?v=J-ynY3YNpkM

Ferenc Krausz, Nobelpreis für Physik 2023. Pressekonferenz 03.10.2023: Video 24:06 min. https://www.youtube.com/watch?v=9FZvFnurOnA

inge Thu, 05.10.2023 - 18:23

Comments

Seegraswiesen wandeln Kohlendioxid in Zuckerverbindungen um und sondern diese in den Meeresboden ab

Seegraswiesen wandeln Kohlendioxid in Zuckerverbindungen um und sondern diese in den Meeresboden ab

Do. 28.09.2023 — Manuel Liebeke

Manuel Liebecke Icon Meere Auf alten Karten findet sich häufig die Bezeichnung „terra incognita“ – unbekanntes Land. Bis heute sind große Teile der Weltmeere unerforscht, „mare incognitum“ sozusagen. In den Meeren gibt es also immer noch jede Menge Neues zu entdecken. Prof. Dr. Manuel Liebeke, Gruppenleiter am Max-Planck-Institut für Marine Mikrobiologie, und sein Team erforschen Seegraswiesen. Obwohl diese Ökosysteme nur eine kleine Fläche des Ozeans bedecken, binden sie durch Photosynthese große Mengen atmosphärischen Kohlendioxids und sondern Berge von Zuckerverbindungen in den Meeresboden ab.*

Seegräser wachsen an den meisten Küsten der Weltmeere. Ähnlich wie Landpflanzen binden die Gräser durch Photosynthese Kohlendioxid und wandeln es in neue, größere Kohlenstoffverbindungen um. Obwohl sie nur 0,2 Prozent der Meeresfläche bedecken, produzieren Seegräser etwa zehn Prozent der in den Ozeanen versinkenden Kohlenstoffverbindungen. Sie leisten somit einen erheblichen Beitrag für den Kohlenstoffhaushalt der Meere und des gesamten Planeten.

Seegräser geben einen Teil des von ihnen gebundenen Kohlenstoffs meist als Zuckerverbindungen über ihre Wurzeln an den Meeresboden ab. Auch viele Landpflanzen sondern aus ihren Wurzeln Zucker ab. Im Boden lebende Pilze und viele Mikroorganismen erfreuen sich an diesen für sie lebenswichtigen Kohlenhydraten. Manche dieser Mikroben stellen den Pflanzen im Gegenzug Mineralien und andere anorganische Substanzen zur Verfügung. Abbildung 1.

Abbildung 1. Kohlenstoffkreislauf in Seegras-Sedimenten. Seegräser geben einen Teil des von ihnen gebundenen Kohlenstoffs meist als Zuckerverbindungen über ihre Wurzeln an den Meeresboden ab. Davon verbrauchen die Mikroorganismen in der Rhizosphäre nur wenig- sie werden offensichtlich von - ebenfalls von Seegräsern produzierten - phenolischen Verbindungen (weiße Strukturen) gehemmt.

Solche schon vor über 100 Jahren als Rhizosphäre bezeichneten Bodenökosysteme sind inzwischen sehr gut erforscht und die Symbiosen zwischen Landpflanzen und den im Boden lebenden Mikroorganismen dokumentiert. Dagegen ist über pflanzliche Zuckerausscheidungen im Meeresboden und deren potenzielle Wechselwirkungen mit Mikroben nur sehr wenig bekannt. Mein Team und ich wollen diese Lücke schließen. In verschiedenen Meeresregionen haben wir Wassersproben im Sediment unter den Seegraswiesen genommen und die darin vorkommenden, von den Pflanzen abgegebenen Stoffwechselprodukte analysiert. Unsere Analysen zeigen, dass unterhalb von Seegraswiesen viel Rohrzucker (Saccharose) vorkommt. Die Konzentrationen erreichen in einigen Sedimenten je nach Tiefe sehr hohe (millimolare) Werte. Der Rohrzucker macht bis zu 40 Prozent des von den Wurzeln der Seegräser abgegebenen organischen Kohlenstoffs aus. Dessen Konzentration im Boden schwankt im Tagesverlauf und je nach Jahreszeit. Bei sehr starkem Lichteinfall, zum Beispiel zur Mittagszeit oder im Sommer, produzieren Seegräser mehr Zucker, als sie verbrauchen oder speichern können. Dann geben sie die überschüssige Saccharose einfach an den Boden ab.

Mikroben im Boden verbrauchen wenig Saccharose

Warum aber lagern Seegräser so viel Saccharose in den Sedimenten ab? Handelt es sich vielleicht um eine Art Überfluss-Stoffwechsel, weil ihnen essenzielle Substrate zum Aufbau anderer Kohlenhydrate fehlen? Die meisten Mikroorganismen an Land und im Meer können Saccharose leicht verdauen und daraus viel Energie für sich gewinnen. Wir haben jedoch bei unseren Untersuchungen festgestellt, dass viele der in der Seegras-Rhizosphäre vorkommenden Mikroorganismen vergleichsweise wenig Saccharose beanspruchen. Dies könnte die von uns beobachtete Anreicherung des Zuckers im Sediment erklären. Oder vielleicht fehlen den Mikroben die Stoffwechselwege, die sie für die Verdauung von Saccharose benötigen?

Möglich ist aber auch, dass die Seegräser Stoffwechselprodukte absondern, die das Wachstum der Mikroorganismen bremsen. Unser Verdacht: Es könnte sich um phenolische Verbindungen handeln. Phenolartige Substanzen kommen in verschiedensten Pflanzenarten vor, zum Beispiel in Weintrauben, Kaffeebohnen und Obst. Diese Stoffe hemmen den Stoffwechsel von Mikroorganismen und wirken dadurch antimikrobiell – vermutlich ihre eigentliche Aufgabe für die Gesundheit der jeweiligen Pflanze.

Seegräser enthalten von Natur aus viele Phenole, etwa Kaffeesäure (3,4-Dihydroxyzimtsäure), die sie an ihre Umgebung abgeben könnten. Im Meerwasser rund um Seegraswiesen konnten wir dann phenolische Verbindungen nachweisen, die aus pflanzlichen Polymeren gebildet werden. Um zu prüfen, ob die in der Umgebung von Seegräsern vorkommenden Mikroorganismen von diesen Phenolen gehemmt werden, haben wir auf der Mittelmeerinsel Elba Bodenproben von unterhalb der Seegraswiesen genommen und mit aus Seegras isolierten Phenolen sowie Saccharose in Kontakt gebracht. Unsere Messungen zeigen, dass die Mikroben in den Bodenproben nach Zugabe der phenolischen Substanzen viel weniger Saccharose konsumiert haben, dies war besonders deutlich bei Versuchen ohne Sauerstoff. Der Zuckergehalt blieb also entsprechend hoch, ähnlich unseren Beobachtungen direkt aus der Seegraswiese.

Abbildung 2. Üppige Seegraswiesen von Posidonia oceanica im Mittelmeer. Das Team des Max-Planck-Instituts für marine Mikrobiologie geht davon aus, dass seine Erkenntnisse auch für andere Seegrasarten sowie Mangroven und Salzwiesen relevant sind.

Als Nächstes haben wir die im Sediment vorhandenen Nukleinsäuren isoliert und sequenziert. Auf diese Weise konnten wir alle Arten von Mikroorganismen anhand ihres Erbguts identifizieren und klassifizieren, welche Stoffwechselgene sie besitzen. Trotz der toxischen Phenole scheint eine kleine Gruppe mikrobieller Spezialisten sowohl Saccharose verdauen als auch Phenole abbauen zu können. Wir vermuten, dass diese von uns entdeckten Mikroorganismen nicht nur auf den Abbau von Zucker und Phenolen spezialisiert sind. Wahrscheinlich sind sie für das Seegras auch nützlich, weil sie Nährstoffe produzieren, welche die Pflanzen für ihr Wachstum dringend brauchen. Der Kohlenstoffkreislauf in Seegras-Sedimenten unterscheidet sich somit von dem auf dem Land und auch von den Kohlenstoffkreisläufen im freien Meerwasser, wo Mikroben Saccharose schnell abbauen.

Phenole in anderen Ökosystemen

Phenolverbindungen kommen höchstwahrscheinlich auch in anderen Ökosystemen in größeren Mengen vor. Wir untersuchen zurzeit die Zusammensetzung von gelöstem Kohlenstoff in Salzmarschen und Mangrovenwäldern. Abbildung 2. Innerhalb der Deutschen Allianz Meeresforschung beteiligt sich unser Institut an Forschungsvorhaben, welche die deutschen Küstenregionen in den Fokus rücken. Vergleichsstudien und Probenahmen in tropischen Ländern ergänzen das Projekt. Zudem wird untersucht, wie stabil Kohlenwasserstoffe bei starkem UV-Licht oder erhöhten Temperaturen sind. Diese Umweltfaktoren sind für das weitere Schicksal des Kohlenstoffs im großen Meereskreislauf entscheidend.

Das Ziel ist, Küstenökosysteme zu erhalten, die langfristig möglichst viele stabile Kohlenstoffverbindungen produzieren und so den Anstieg des Gehalts an Kohlendioxid in der Atmosphäre in Schach halten. Auch eine „Wiederaufforstung“ zerstörter Flächen mit Seegras wäre denkbar, wenn es die Beschaffenheit der Küsten zulässt.


 *Der unter Highlights aus dem Jahrbuch 2022 der Max-Planck Gesellschaft unter dem Titel " Süße Oasen im Meer" erschienene Artikel https://www.mpg.de/20478773/jahrbuch-highlights-2022.pdf (2023) wird - mit Ausnahme des Titels und der Legende zu Abbildung 1- in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Jahrbuch auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


Weiterführende Links

Max-Planck-Institut für Marine Mikrobiologie: Miracle plant seagrass (2022).  Video 2:07 min. https://www.youtube.com/watch?v=iWm2lkK062Q.

The Biome Project: Seagrasses - Ecology In Action (2022). Video 6:59 min. https://www.youtube.com/watch?v=0bvOh7qby-c

International Field Studies: Seagrass Ecosystem Webinar (2020). Video 22:00 min. https://www.youtube.com/watch?v=3j82byN7HGs

Artikel zu verwandten Themen im ScienceBlog:

inge Thu, 28.09.2023 - 22:23

Coenzym Q10 - zur essentiellen Rolle im Zellstoffwechsel und was Supplementierung bewirken kann

Coenzym Q10 - zur essentiellen Rolle im Zellstoffwechsel und was Supplementierung bewirken kann

So24.09.2023  — Inge Schuster

Inge Schuster Icon Medizin

Coenzym Q10 (CoQ10) ist eine unentbehrliche Komponente unseres Zellstoffwechsels; es ist in allen unseren Körperzellen vorhanden (vom ubiquitären Vorkommen leitet sich die Bezeichnung Ubichinon ab) und wird - mit Ausnahme der roten Blutkörperchen - auch in allen Zellen produziert. CoQ10 fungiert als Elektronen-und Protonenüberträger in der mitochondrialen Atmungskette und schützt als potentes Antioxidans vor reaktiven Sauerstoffspezies. CoQ10-Mangel kann zur Entstehung diverser Krankheiten beitragen bzw. diese auslösen. In zahlreichen Studien wurde und wird versucht den Mangel durch Supplementierung mit CoQ10 aufzuheben, um Krankheiten zu lindern/zu heilen. Einige Studien lassen berechtigte Hoffnung auf Erfolg aufkommen.

Was ist CoQ10?

Chemisch gesehen ist CoQ10 ein relativ großes, aus zwei unterschiedlichen Teilen zusammengesetztes organisches Molekül. Es besteht aus dem Redoxsystem des Chinon-/Chinol -Rings, das die funktionelle Gruppe des Coenzyms darstellt und aus einer langen enorm lipophilen (fettlöslichen) Seitenkette aus Isoprenresten - beim Menschen sind das hauptsächlich 10 Reste -, mit der sich das Molekül in die diversen Lipidmembranen der Zelle und in die Lipoproteine des Serums einfügt. CoQ10 findet sich vor allem in der Matrix der Mitochondrien, aber auch in den Membranen des Golgi-Apparats, des endoplasmischen Retikulums, der Lysosomen, der Peroxisomen und in der die Zelle umschliessenden Plasmamembran.

CoQ10 gehört zu den lipophilsten Strukturen in unserem Organismus - in wässrigem Milieu ist es praktisch unlöslich (gelöster Anteil weniger als 0,1 Milliardstel Substanz). Abbildung 1.

Abbildung 1. Coenzym Q10 - chemische Struktur des Redoxsystems. Das enorm lipophile Molekül liegt im menschlichen Organismus zu über 90 % mit einer aus 10 Isoprenresten bestehenden Seitenkette vor, unter 10 % weisen eine Seitenkette aus 9 Isoprenresten auf. Das Ring-Strukturelement (rot) ist die aktive funktionelle Gruppe des Coenzyms, ein Redoxsystem, das unter Aufnahme von 2 Elektronen und 2 Protonen zum Chinol reduziert wird, aus welchem unter Abgabe von Elektronen und Wasserstoff wieder das oxydierte Produkt - Ubichinon-10 - entsteht.

Biosynthese von CoQ10

Alle unsere Zellen sind auf die endogene Synthese von CoQ10 angewiesen. Die mit der Nahrung aufgenommenen Mengen (üblicherweise bis zu 6 mg im Tag und dies hauptsächlich über den Fleischkonsum) können den hohen permanenten Bedarf an CoQ10 nicht decken.

Die Biosynthese erfolgt in 4 Stufen, an denen mindestens 11 Enzyme und andere Proteine beteiligt sind. Zuerst werden die Vorstufe des Ringelements und die Isopren-Seitenkette separat gebildet, der Ring ausgehend von der Aminosäure Tyrosin, die Lipidkette über den Mevalonsäure-Weg (auf dem auch die Synthese von Cholesterin ihren Ausgang nimmt) und die sukzessive Addierung von Isoprenresten. Dann werden Ring und Seitenkette zusammengefügt und schließlich der Ring schrittweise zur Ubichinon-Form modifiziert.

Mit Ausnahme einiger Reaktionen zu Beginn der Biosynthese findet der gesamte Vorgang in der inneren Membran der Mitochondrien statt, wobei die daran beteiligten Proteine einen großen Komplex - das sogenannte CoQ-Synthom - bilden. Abbildung 2. Das neu entstandene CoQ10 lagert sich in der mitochondrialen Membran ein - ein Pool, der dort nicht nur für die essentielle Funktion in der Atmungskette (siehe unten) zur Verfügung steht; CoQ10 wird aber auch in andere Zellorganellen transportiert und zirkuliert in der Blutbahn.

Biologische Funktionen von CoQ10

Lipidlöslichkeit und Redox-Eigenschaften erklären die vielfältigen (pleiotropen) Funktionen von CoQ10 in biologischen Systemen. Wie bereits erwähnt lagert sich CoQ10 in allen Lipidmembranen der Zellen ein und kann dort als mobiler Elektronen-und Protonenüberträger (siehe Abbildung 1) und als potentes Antioxidans fungieren. Als wichtigstes Beispiel für den Elektronen-/Protonentransport soll die Schlüsselrolle von CoQ10 in der mitochondrialen Atmungskette kurz skizziert werden.

Atmungskette: wie Nahrung in Energie umgewandelt wird

Mitochondrien sind die Kraftwerke unserer Zellen, die bis zu 95 % der für Zellwachstum und Zelldifferenzierung nötigen Energie produzieren. In diesem Prozess der Energieerzeugung ist CoQ10 eine essentielle Komponente: Es fungiert im Elektronentransport-System der Atmungskette als mobiler Elektronen- und Protonenüberträger zwischen den membrangebundenen Proteinkomplexen I , II und III, die schlussendlich zur Bildung des universellen biologischen Energieträgers Adenosintriphosphat (ATP) führen. Abbildung 2 zeigt eine sehr vereinfachte Darstellung dieses Elektronentransportsystems (über die folgende Beschreibung des für Laien nicht leicht verständlichen Vorgangs kann auch hinweg gelesen werden):

Coenzym Q10 in der oxydierten Chinonform (siehe Abbildung 1) nimmt in den Proteinkomplexen I und II Reduktionsäquivalente (Elektronen) auf und wird dadurch zur Chinolform reduziert; die Elektronen stammen dabei aus dem ebenfalls in den Mitochondrien lokalisierten Citratzyklus, der Produkte der im Stoffwechsel abgebauten Nährstoffe in Reduktionsmittel umwandelt; Elektronen können aber auch durch Überträger aus anderen mitochondrialen Prozessen eingespeist werden. Die reduzierte Ubichinol-Form überträgt im Proteinkomplex III (Cytochrom C-Reduktase) die Elektronen auf Cytochrom C, die Protonen werden vom mitochondrialen Matrixraum in den Intermembranraum transloziert. Im Komplex IV (Cytochrom C-Oxidase) dienen die vom Cytochrom C transportierten Elektronen und Protonen zur Reduzierung des aus der Atmung stammenden Sauerstoffs unter Bildung von Wasser. Dabei werden weitere Protonen in den Intermembranraum gepumpt und ein elektrochemischer Gradient zwischen Intermembranraum und Matrix erzeugt, der schließlich den Aufbau des energiereichen ATP-Moleküls (via ATP-Synthase) treibt.

Abbildung 2. CoQ10 wird in den Mitochondrien produziert und spielt dort eine Schlüsselrolle in der Energieerzeugung über die Atmungskette. Oben: Vereinfachte Darstellung des Biosynthese-Komplexes - CoQ-Synthom - mit Enzymen (blau) und regulatorischen Proteinen (lila), wobei nur die Ziffern in den Namen der COQ-Proteine (z.B. 2 für COQ2) angezeigt sind. Unten: Schema des Elektronentransportsystems der Atmungskette mit CoQ10 (gelb), das Elektronen von Komplex I und II empfängt und auf Komplex III überträgt. Die weitere Übertragung auf Komplex IV resultiert in der Reduktion des aus der Atmung stammenden Sauerstoffs unter Bildung von Wasser. Der Protonengradient treibt die ATP-Synthese.(Bild leicht modifiziert aus: Y. Wang & S.Hekimi, J Cell Mol Med. 2022;26:4635–4644. Lizenz: cc-by.)

Ubichinol - als potentes Antioxidans

In seiner reduzierten Ubichinol-Form ist CoQ10 ein sehr effizientes Antioxidans, das vor der Entstehung von reaktiven Sauerstoffspezies (ROS) schützt, freie Radikale verhindert, die Peroxidation von Lipiden und Lipoproteinen blockiert und andere Antioxidantien wie Ascorbinsäure oder Vitamin E zu ihren aktiven, völlig reduzierten Formen regeneriert.

Der Schutz vor ROS ist insbesondere in den Mitochondrien von Bedeutung, da der intensive, permanente Energieerzeugungsprozess als Nebenprodukte ROS liefert: Aus dem Sauerstoff den wir einatmen und der zu 80 % in der Atmungskette zu Wasser reduziert wird, entstehen auch 1 - 2 % reaktive Sauerstoffspezies (u.a. Superoxid Anion, Hydroxyl-Radikal, Hydroperoxyl-Radikal, Singlet Sauerstoff). Diese ROS können diverse Biomoleküle (Proteine, Lipide, DNA) gravierend schädigen - darunter die Proteine der CoQ10-Biosynthese und die mitochondriale DNA, die für einige Enzyme der Atmungskette kodiert. ROS können aber auch die Proteinkomplexe der Atmungskette direkt angreifen und (teilweise) inaktivieren. Insgesamt resultiert ein CoQ10-Mangel und Energieerzeugung und auch Verfügbarkeit von Ubichinol zur Abwehr der ROS werden reduziert.

Zahlreiche Studien belegen, dass oxydative Schädigungen zur Beeinträchtigung der mitochondrialen Funktion und in Folge zur Entstehung von diversen Krankheiten beitragen bzw.diese auslösen können. Ausreichend reduziertes CoQ10 in den Mitochondrien kann diese ROS unschädlich machen.

CoQ10 in unseren Organen....

CoQ10 ist in allen menschlichen Zellen und damit in allen Organen vorhanden, wobei der Großteil des Koenzyms in den jeweiligen Mitochondrien sitzt. Wieviele dieser kleinen Organellen in einzelnen Zelltypen enthalten sind, hängt von deren Energiebedarf ab und kann sich an diesen anpassen. Besonders viele Mitochondrien - mehrere Tausend - sind in einer einzelnen Herzmuskelzelle tätig - zusammengenommen nehmen sie mehr als ein Drittel des Zellvolumens ein. Dementsprechend liegen in diesem Organ , aber auch in anderen Organen mit sehr hohem Energiebedarf - Leber, Nieren und Muskeln - die höchsten CoQ10-Konzentrationen (Ubichinon und Ubichinol in Summe bis zu 190 µg/g) vor. Abbildung 3. Ein hoher Anteil an reduziertem CoQ10 schützt in vielen Organen vor dem unvermeidlichen Entstehen von reaktivem Sauerstoff.

Die Gesamtmenge von CoQ10 in unserem Körper kann mit einigen Gramm geschätzt werden.

Abbildung 3. Organspiegel von CoQ10 in oxydierter und reduzierter Form in verschiedenen Organen des Menschen. Die Grafik wurde aus Daten von A.Martelli et al., Antioxidants 2020, 9, 341; doi:10.3390/antiox9040341 (Lizenz cc-by) zusammengestellt..

Im Vergleich zu den Organen liegt der Plasmaspiegel von CoQ10 mit 0,5 - 1,5 µg/ml wesentlich niedriger, wobei nahezu alles in der reduzierten Ubichinolform vorliegt.

Ubichinol-10 zirkuliert ausschließlich in Lipoproteinen, vor allem in LDL eingelagert und kann hier vor der Oxidation von Lipoproteinen aber auch von Cholesterin zu Oxysterolen schützen und damit das Atherosklerose-Risiko senken.

Da Lipoproteinspiegel stark variieren können, erscheint es problematisch aus dem Plasmaspiegel von CoQ10 auf Organspiegel und eventuellen Mangel zu schließen.

...und CoQ10-Mangel

Eine reduzierte Synthese von CoQ10 führt nicht nur zu verminderter Energieproduktion und in Folge zur Schwächung von Organfunktionen, sondern auch zu reduziertem Schutz vor reaktiven Sauerstoffspezies und anderen Radikalen. Davon sind gewöhnlich mitochondrienreiche Organe mit hohem Energiebedarf betroffen, insbesondere die ausdifferenzierten (d.i. sich nicht mehr teilenden) Herzmuskelzellen und Neuronen, da sie bei geschädigter mitochondrialer Funktion nicht mehr ersetzt werden und mit zunehmendem Alter mehr und mehr Schäden ansammeln (s. unten).

Ein primärer CoQ10-Mangel - eine genetische, selten auftretende, autosomal rezessive Erkrankung-- tritt auf,  wenn Gene der in der Biosynthese von CoQ10 involvierten Proteine von Mutationen betroffen sind, die zu reduzierten Aktivitäten und damit verringertem CoQ10-Level führen. Klinische Symptome manifestieren sich schon früh und betreffen viele Organe, vor allem das zentrale und periphere Nervensystem, Herz, Muskel und Niere.

Ein sekundärer CoQ10-Mangel ist häufiger und kann verschiedene Ursachen haben, u.a. defekte Varianten von anderen, nicht in der CoQ10-Biosynthese involvierten Genen, beispielsweise im mitochondrialen Transport oder im Citratzyklus.

Auch zunehmendes Alter führt in den meisten Organen zu einem Absinken der CoQ10-Konzentration. Davon ist vor allem das Herz betroffen: 80-Jährige haben im Vergleich zu 20-Jährigen nur noch etwa 50 Prozent des CoQ10-Gehaltes. Ebenso sinkt der CoQ10-Gehalt in verschiedenen Hirnregionen und in der Epidermis der Haut deutlich ab.

In vielen Erkrankungen - Herzkrankheiten (z.B. Herzinsuffizienz), neurologischen Erkrankungen (beispielsweise Parkinson Krankheit), Diabetes, Lungen-und Lebererkrankungen liegen deutlich reduzierte CoQ10-Konzentrationen in den Organen vor. CoQ10 Mangel kann hier Auslöser und/oder auch Folge der Krankheit sein. In Infektionskrankheiten wie Influenza kommt es zu reduzierten CoQ10-Plasmaspiegeln.

Einige häufig verschriebene Medikamenten greifen direkt in die Biosynthese von CoQ10 ein, indem sie gemeinsame Schritte blockieren: das bekannteste Beispiel sind die millionenfach zur Cholesterinsenkung geschluckten Statine, die einen ganz frühen gemeinsamen Schritt (via HMG-CoA Reduktase) in der Cholesterinsynthese und in der Synthese der CoQ10-Seitenkette blockieren. Unter Therapie mit Statinen wurden deutlich (um ein Drittel) reduzierte CoQ10-Konzentrationen im Muskelgewebe gemessen. Eine Reihe von Statin-Nebenwirkungen in den Muskeln, die von Muskelschwäche, Myalgien bis hin zur seltenen, lebensbedrohenden Rhabdomyolyse reichen, dürften Folge des CoQ10-Mangel sein. Auch im Plasma und im zentralen Nervensystem (gemessen am Indikator Zerebrospinalflüssigkeit) ist der CoQ10-Gehalt unterStatin-Therapie erniedrigt. Zudem wird das Auftreten von kognitiver Beeinträchtigung und zerebellärer Ataxie mit Statin-bedingetm CoQ10-Mangel assoziiert.

Eine weitere Gruppe von Medikamenten - die gegen Osteoporose angewandten Biphosphonate - inhibieren eine Reaktion, die in einem späten Schritt auch zur Synthese der CoQ10- Seitenkette führt.

Supplementierung von CoQ10

Der globale Markt von CoQ10 ist groß (derzeit rund 700 Mio $) und soll laut Prognosen jährlich um rund 7 % wachsen. Allerdings gibt es bislang kein von FDA oder EMA registriertes CoQ10- Arzneimittel, dagegen eine riesige Menge von frei erhältlichen Präparaten - vom Nahrungsergänzungsmittel bis hin zu diversen Kosmetikprodukten, welche die Regale von Apotheken, Drogerien, Beautyshops und Supermärkten füllen. Da es keine Vorschriften bezüglich Formulierung und Dosierung gibt, sind Qualität und angepriesene Wirksamkeit der Präparate in vielen Fällen zu hinterfragen. Dies ist insbesondere der Fall, da das überaus lipophile CoQ10 in ungeeigneten Formulierungen auskristallisiert (Schmelzpunkt 48oC) und dann nur in sehr geringem Ausmaß aus dem Darm in den Organismus aufgenommen werden kann; damit bleibt es unwirksam. Ein wesentliches Manko ist auch, dass für Wirksamkeitsstudien eine solide finanzielle Basis fehlt, um diese genügend lang, an einer ausreichend großen Zahl von Probanden als klinische Doppelblind-Studien durchzuführen.

Nichtsdestoweniger gibt es viele klinische Studien, in denen CoQ10 supplementiert wurde: ua. bei Herz-Kreislauferkrankungen, neurologischen Defekten, Stoffwechselerkrankungen, Statin-verursachten Nebenwirkungen und als Antiaging-Mittel. Die US-Datenbank ClinicalTrials.gov weist 82 Einträge solcher z.T. noch laufender Studien auf. In den letzten 10 Jahren sind 420 Originalberichte und Metaanalysen allein über klinische Studien erschienen - die Ergebnisse sind leider durchwachsen. In vielen Fällen dürften zu kleine Teilnehmerzahl, zu kurze Versuchsdauer und vor allem unzureichende Resorption des Wirkstoffs die Aussagekraft der Studie geschmälert haben.

Ist CoQ10 nun ein Wundermittel, das Krankheiten vorbeugt und heilt und uns Jugend verspricht?

Tabelle. Positive Ergebnisse bei Herzinsuffizienz. (Daten aus Mortensen et al., 2014; https://doi.org/10.1016/j.jchf.2014.06.008 Lizenz cc-by))

Im Folgenden sollen zwei Studien angeführt werden, die - mit optimalen CoQ10 Formulierungen ausgeführt - positive Ergebnisse erzielten und Hoffnung auf erfolgreiche Supplementierung bei weiteren Indikationen erwecken.

Die SYNBIO-Studie: Anwendung bei Herzsuffizienz

Die 2014 publizierte Studie hat insgesamt 420 Patienten mit Herzinsuffizienz Stufe III und IV 2 Jahre lang 3 x täglich mit jeweils 100 mg CoQ10 in einer speziell entwickelten, auf Resorbierbarkeit geprüften Formulierung oder mit Placebo behandelt. Nach 2 Jahren führte die Behandlung zu fast 3-fach erhöhten CoQ10-Plasmaspiegeln und zu einer Reduktion des Krankheits-spezifischen Markers NT-proBNP um 256 pg/ml. Die Sterblichkeit an Herzerkrankungen lag in der CoQ10 Gruppe um über 50 % niedriger als in der Placebogruppe und ebenso die Einweisungen ins Krankenhaus wegen Verschlechterung des Zustands. Tabelle.

Topische Anwendung von CoQ10 auf der Haut

Abbildung 4. In geeigneten Formulierungen angewandt wird die CoQ10 Konzentration in der Epidermis bedeutend erhöht (A) und ein Teil davon in Ubichinol umgewandelt (B). Der Sauerstoffverbrauch von Keratinocyten - als Indikator der Energieerzeugung -erhöht sich bei CoQ10-Behandlung (C). Control: PLacebobehandlung, Formula 1: Creme 348 µM CoQ10, Formula 2: 870 µM CoQ10 (Bilder aus Anja Knott et al., 2015. . https://doi.org/10.1002/biof.1239, Lizenz cc-by-nc.)

Ein seit mehr als 140 Jahren bestehendes, sehr erfahrenes dermatologisches Unternehmen hat das Eindringen von CoQ10 in die Epidermis der Haut, die dort erzielte Konzentration, die Wirkung auf die Energieerzeugung und die antioxidative Funktion versus Placebo geprüft.

Dazu wurden CoQ10 (Chinonform) in 2 verschiedenen Formulierungen (Creme und Serum) und entsprechende Placeboproben auf jeweils mehrere Stellen des linken und rechten Unterarms von 16 Versuchspersonen 2 x täglich 14 Tage lang aufgetragen. Nach dieser Zeit wurde das in der Epidermis vorhandene Ubichinon und Ubichinol bestimmt.

Durch die Behandlung mit der Creme, aber vor allem mit dem Serum wurde der Ubichinon-Gehalt in der Epidermis fast bis auf das Doppelte erhöht (Abbildung 4A) und ein Teil davon dort auch in das antioxidative Ubichinol umgewandelt (Abbildung 4B). In Keratinozyten - den Hauptzellen der Epidermis - stieg der Sauerstoffverbrauch (OCR; als Maß für die Energieerzeugung) durch die CoQ10-Zufuhr um 38 % (Abbildung 4C). Neben der gesteigerten Energieerzeugung erwies sich auch die antioxidative Wirkung von CoQ10: Freie Radikale in der gestressten Haut der Probanden wurden durch die Behandlung um bis zu 10 %gesenkt (ohne Bild).


Artikel über CoQ10 im ScienceBlog:

Inge Schuster, 15.02.2018: Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken.


 

inge Sun, 24.09.2023 - 23:35

Schrumpfen statt schlafen - wie die Spitzmaus im Winter Energie spart

Schrumpfen statt schlafen - wie die Spitzmaus im Winter Energie spart

Do, 14.09.2023 - — Christina Beck Christina BeckIcon Biologie

In den 1940er-Jahren untersucht der polnische Zoologe August Dehnel in der Wirbeltiersammlung seiner Universität die Schädel von Spitzmäusen. Dabei macht er eine erstaunliche Entdeckung: Die Schädelgröße der Tiere verändert sich im Jahresverlauf! Schädel von Individuen, die im Frühjahr und Sommer gefangen wurden, sind größer als diejenigen von „Wintertieren“. Dehnel vermutet, dass die saisonalen Unterschiede etwas mit der Anpassung an die kalte Jahreszeit zu tun haben. Im Jahr 1949 veröffentlicht er seine Beobachtungen im Fachblatt der Universität, die aber kaum Beachtung finden. Erst vor rund 10 Jahren nehmen Dina Dechmann und ihr Team (Max-Planck-Institut für Verhaltensbiologie) die Arbeit an diesem erstaunlichen Phänomen auf und stoßen auf eine neue Strategie des Energiesparens im Winter. Die Zellbiologin Christina Beck (Leiterin der Kommunikation der Max-Planck-Gesellschaft) berichtet darüber.*

Nach seinem Erscheinen findet Dehnels Beitrag zunächst kaum Beachtung. Seine Entdeckung wird sogar als Scheineffekt abgetan: Dehnel sei einem Irrtum aufgesessen, weil kurz vor dem Winter vermehrt große Individuen sterben, vermuten seine Kollegen. Die Studie gerät weitgehend in Vergessenheit, bis vor rund zehn Jahren die Verhaltensökologin Dina Dechmann auf das Phänomen stößt. Dechmann leitet eine Forschungsgruppe am Max-Planck-Institut für Verhaltensbiologie in Radolfzell am Bodensee. Gemeinsam mit ihren Kolleginnen und Kollegen erforscht sie, wie sich Tiere an ihre Umwelt anpassen und ihren Energiehaushalt optimieren: Wie stellen Tiere sicher, dass sie immer genügend Nahrung finden, um zu überleben und Nachkommen aufzuziehen? Welche Strategien verfolgen sie, um Energie zu sparen, wenn nicht genügend Futter vorhanden ist? „Besonders spannend für uns sind kleine Tiere, die eine sehr hohe Stoffwechselrate haben und daher ohnehin am energetischen Limit leben“, sagt Dechmann. Für solche Tiere ist es eine ganz besondere Herausforderung, ihren hohen Energiebedarf ständig zu decken.

Bei gleichwarmen Tieren korreliert die Körpergröße normalerweise umgekehrt mit dem Energieverbrauch: Je kleiner ein Tier, desto höher ist sein relativer Bedarf an Energie. Die Beziehung zwischen Körpergröße und Energieverbrauch ist dabei nicht linear, sondern exponentiell (Abbildung1). Der Grund für dieses Phänomen ist noch nicht vollständig verstanden. Eine Erklärung betrachtet den Wärmehaushalt des Körpers, der sowohl vom Körpervolumen als auch von der Körperoberfläche beeinflusst wird: Je größer das Volumen, desto mehr Zellen sind vorhanden, die Stoffwechsel betreiben und desto mehr Wärme wird im Körperinnern freigesetzt. Kleine Tiere haben jedoch verhältnismäßig mehr Oberfläche. Um ihre Körpertemperatur aufrecht zu halten, müssen sie daher härter arbeiten, um Körperwärme zu produzieren, verlieren aber auch mehr davon. Das kostet Energie.

Abbildung 1: Stoffwechselraten bei Säugetieren. Ein Maß für die Stoffwechselrate ist der Sauerstoffverbrauch pro Kilogramm Körpergewicht. Kleine Tiere haben wesentlich höhere Stoffwechselraten als große Tiere und damit einen höheren relativen Energiebedarf. © J. Lazaro für MPG / CC BY-NC-SA 4.0

Eine Maus, die keine ist

Ein extremes Beispiel ist die Spitzmaus (Abbildung 2) – ein winziges Säugetier, das trotz seines Namens und der äußerlichen Ähnlichkeit nicht zu den Mäusen gehört, sondern mit dem Maulwurf und dem Igel eng verwandt ist (Ordnung „Eulipotyphla“).

Spitzmäuse leben räuberisch und fressen im Sommer vor allem Würmer und Larven. Im Winter, unter ungleich härteren Lebensbedingungen, stehen vor allem Insekten und Spinnentiere auf dem Speiseplan. Die kleinen Räuber sind andauernd in Bewegung: „Spitzmäuse sind winzige Tierchen, die wie kleine Porsches ständig hochtourig fahren und deshalb fortlaufend viel und qualitativ hochwertige Nahrung brauchen“, sagt Dina Dechmann. „Unter allen Säugetieren haben sie den höchsten, je gemessenen Stoffwechsel. Sie sind kleine Hochleistungsathleten, die ausschließlich über schnelle, aerob arbeitende Muskelfasern verfügen – und deshalb nie Muskelkater bekommen, obwohl sie sich ständig unter hohem Energieaufwand bewegen.“ So ein Leben auf der Überholspur hat jedoch seinen Preis: Finden die Tiere kein Futter, verhungern sie binnen fünf Stunden. Für die winzigen Säuger ist Energiesparen im Winter daher eine Frage des Überlebens.

Abbildung 2: Die Spitzmaus. © Christian Ziegler

Um die kalte Jahreszeit zu überstehen, haben Tiere ganz unterschiedliche Strategien entwickelt: Zugvögel verlassen Jahr für Jahr ihre Brutgebiete und fliegen in wärmere Winterquartiere. Fledermäuse, Igel oder Murmeltiere halten Winterschlaf, wobei sie ihre Körpertemperatur drastisch senken. Bei Werten nahe dem Gefrierpunkt sinken die Stoffwechselrate und damit der Energieverbrauch bei manchen Arten bis auf ein Hundertstel der Ausgangswerte. Bei der Winterruhe wird die Körpertemperatur dagegen nur wenig abgesenkt. Tiere, die so überwintern – etwa Braunbären und Eichhörnchen – fallen in einen schlafähnlichen Zustand und sparen dadurch Energie. Zwischendurch wachen sie immer wieder auf, um zu fressen. Eichhörnchen legen dafür im Herbst Futterlager an. Die Spitzmaus verfolgt keine dieser Strategien. Sie wandert nicht aus und behält im Winter ihr Aktivitätslevel bei. Trotzdem sind die kleinen Räuber ausgesprochen erfolgreich, und zwar ausgerechnet in kalten Regionen: Je nördlicher der Breitengrad, desto dominanter ist ihr Einfluss auf die lokale Fauna. Wie machen sie das? War August Dehnel auf der richtigen Spur?

Schrumpfen statt schlafen

Um das herauszufinden, startete Javier Lazaro, Doktorand in Dechmanns Forschungsgruppe, ein aufwändiges Freilandexperiment. Im Sommer fing er in der Umgebung des Instituts mehr als 100 Waldspitzmäuse (Sorex araneus). Die quirligen, im Sommer rund acht Gramm schweren Tiere sind die häufigsten Spitzmäuse in Mitteleuropa und kommen in großen Teilen Europas und im nördlichen Asien vor. Alle gefangenen Tiere wurden geröntgt, um ihre Schädel zu vermessen. Anschließend entließ Lazaro sie wieder in die Freiheit, nachdem er sie zur Wiedererkennung mit reiskorngroßen elektronischen Transpondern ausgestattet hatte. Solche Chips werden in einer größeren Variante auch für Haustiere verwendet. In regelmäßigen Wiederfangaktionen gelang es dem Wissenschaftler, rund ein Drittel der Tiere erneut zu fangen und zu röntgen, um die Veränderungen über die Zeit zu dokumentieren (Abbildung 3). Und tatsächlich: Die Schädel aller untersuchten Spitzmäuse waren im Winter geschrumpft und im darauffolgenden Frühjahr wieder gewachsen! „Die Schädelhöhe nahm im Winter um 15 Prozent ab, manchmal sogar bis zu 20 Prozent“, sagt Javier Lazaro. Und nicht nur die Größe des Schädels verändert sich. Auch lebenswichtige Organe wie Gehirn, Leber, Darm und Milz schrumpfen, sogar Teile des Skeletts werden abgebaut. Die Tiere verlieren dadurch im Winter bis zu einem Fünftel ihres Körpergewichts und verändern ihr Aussehen so stark, dass man sie früher fälschlicherweise sogar für unterschiedliche Arten hielt. Im Frühjahr beginnen die Spitzmäuse dann wieder zu wachsen. Ihre ursprüngliche Gestalt erreichen sie jedoch nicht mehr: „Die Schädelhöhe etwa nimmt lediglich um neun Prozent wieder zu. Dass die Tiere dadurch mit der Zeit nicht immer kleiner werden, liegt daran, dass sie nur 13 Monate lang leben und somit nur einen einzigen Schrumpfungszyklus durchlaufen“, so der Wissenschaftler. „Mit unserer Wiederfangstudie konnten wir erstmals zeigen, dass die saisonalen Veränderungen in jedem einzelnen Tier stattfinden.“ August Dehnel hatte also recht, und mittlerweile sind die von ihm erstmals beschriebenen saisonalen Größenänderungen als Dehnel-Effekt bekannt.

Abbildung 3: Veränderung der Schädelhöhen. Auf der y-Achse wird das Verhältnis „Schädelhöhe zu Zahnreihe“ dargestellt. Da die Länge der Zahnreihe eines Individuums gleich bleibt, werden somit die Schwankungen in der Körpergröße der vermessenen Spitzmäuse herausgerechnet. Die Linie zeigt die Mittelwerte. Die Kreise zeigen die Messwerte der mehrfach gefangenen Individuen. Rot markiert sind drei Messungen, die an demselben Individuum im Sommer, Winter und Frühjahr vorgenommen wurden. Diese Werte entsprechen den Schädelzeichnungen (oben), die auf Grundlage von Röntgenbildern entstanden. © J. Lazaro für MPG / CC BY-NC-SA 4.0

Auch Maulwürfe und Wiesel werden kleiner

Wie aber entsteht ein solches Phänomen im Laufe der Evolution und warum? Um das herauszufinden, suchten die Forschenden auch in anderen Arten – und wurden fündig: Die verwandten Maulwürfe und die im evolutionären Stammbaum weit entfernten Wiesel zeigen dieselben jahreszeitlichen Veränderungen. All diesen Tieren gemeinsam ist, dass sie von hochwertiger Nahrung abhängig sind und keinen Winterschlaf halten. Die Forschenden sehen darin ein starkes Indiz dafür, dass es sich dabei um Konvergenz handelt: Eine konvergente Anpassung tritt bei nicht näher miteinander verwandten Tiergruppen auf, die unter ähnlichen Umweltbedingungen leben und daher denselben Selektionsfaktoren ausgesetzt sind. Die äußeren Bedingungen sind jedoch nicht konstant und können sich im Jahresverlauf ändern – und damit die Richtung, in welche die natürliche Selektion wirkt. Bei der Spitzmaus sind im Winter kleine Tiere im Vorteil, die mit wenig Energie auskommen: „Anhand von Stoffwechselmessungen haben wir gezeigt, dass Spitzmäuse pro Gramm Körpergewicht bei +20 °Celsius genauso viel Energie verbrauchen wie bei -1 °Celsius“, sagt Dina Dechmann. „Eine Spitzmaus, die im Winter um 20 Prozent kleiner ist, spart also auch 20 Prozent Energie.“ Im Frühjahr kehren sich die Verhältnisse um: „Spitzmäuse sind sehr territorial, und dabei sind große Tiere ihren Konkurrenten überlegen. Große Weibchen bringen zudem größere Junge zur Welt, die eine höhere Überlebenswahrscheinlichkeit haben als kleine.“ Als Reaktion auf die unterschiedlichen Anforderungen der Umwelt hat sich bei Spitzmäusen die Fähigkeit herausgebildet, die Körpergröße im Jahresverlauf zu verändern. „Die Schrumpfung ist dabei keine Folge von Hunger, sondern ein genetisches Programm, das bereits im August startet, wenn noch ideale Futterbedingungen herrschen“, sagt die Forscherin. „Dieses Programm kann durch die Umwelt jedoch modifiziert werden.“

Um herauszufinden, welche Umweltfaktoren dafür entscheidend sind, verglichen die Forschenden zwei Maulwurfarten aus unterschiedlichen Klimazonen. Anhand von Schädelmessungen in Museumssammlungen wiesen sie nach, dass der Europäische Maulwurf im Winter schrumpft. Der Iberische Maulwurf, der in Spanien und Portugal vorkommt, bleibt dagegen das ganze Jahr über gleich groß – und das, obwohl auch er zeitweise mit Nahrungsknappheit zu kämpfen hat. Der Futtermangel trifft ihn jedoch während der heißen Jahreszeit. „Wenn es lediglich eine Frage der Nahrung wäre, dann müsste der Europäische Maulwurf im Winter schrumpfen, der Iberische Maulwurf dagegen im Sommer, wenn große Hitze und Trockenheit das Futter knapp machen“, sagt Dechmann. Das Forschungsteam geht daher davon aus, dass nicht allein der Nahrungsmangel, sondern auch das kältere Klima ausschlaggebend ist.

Gehirnverlust mit Folgen

Über die Anpassung von Tieren an kalte Klimazonen hat sich im 19. Jahrhundert bereits der deutsche Anatom Carl Bergmann Gedanken gemacht. Von ihm stammt die sogenannte Bergmannsche Regel. Sie sagt voraus, dass Vögel und Säugetiere, die in kalten Regionen leben, normalerweise größer sind als ihre Verwandten in warmen Gegenden. Grund dafür ist ihr Oberflächen-Volumen-Verhältnis: Da mit zunehmender Größe das Volumen eines Körpers stärker ansteigt als seine Oberfläche, haben große Tiere in kalten Regionen einen Vorteil, weil sie relativ gesehen weniger Wärme abgeben als kleine. Spitzmäuse folgen dieser Regel nicht – im Gegenteil: Bei ihnen sind Individuen derselben Art im Norden sogar noch kleiner als im Süden. Doch trotz ihres energetisch ungünstigen Oberflächen-Volumen-Verhältnisses sind die kleinen Räuber gerade in kalten Regionen häufig. Ihre Strategie, durch saisonale Schrumpfung Energie zu sparen, scheint also aufzugehen. Dafür spricht auch, dass Dehnels Phänomen bei Waldspitzmäusen im Nordosten Polens stärker ausgeprägt ist als bei ihren Verwandten am klimatisch milderen Bodensee. Eine vergleichbare regionale Variabilität haben die Max-Planck-Forschenden auch bei Wieseln gefunden. Bei ihren weiteren Untersuchungen konzentrierten sich Dina Dechmann und ihr Team auf das Gehirn – dasjenige Organ, das bei der Spitzmaus im Vergleich zu anderen Organen besonders stark schrumpft. Bereits August Dehnel hatte anhand seiner Schädelmessungen errechnet, dass das Volumen des Spitzmausgehirns im Winter um 20 Prozent kleiner ist als im Sommer. Mehr als sieben Jahrzehnte später setzten die Max-Planck-Forschenden auf moderne medizinische Diagnoseverfahren, um individuelle Veränderungen des Gehirns sichtbar zu machen. In einem Gemeinschaftsprojekt mit dem Universitätsklinikum Freiburg vermaßen sie einzelne Spitzmäuse wiederholt im Magnetresonanztomografen (Abbildung 4). Es war bereits bekannt, dass nicht alle Gehirnbereiche in gleichem Maße schrumpfen. Die Veränderungen betreffen vielmehr ganz bestimmte Regionen – den Neocortex und den Hippocampus. Der Neocortex ist ein Teil der Großhirnrinde und unter anderem für die Verarbeitung von Sinneseindrücken zuständig, der Hippocampus ist wichtig für die räumliche Orientierung. „Wir haben herausgefunden, dass der Neocortex um ganze 25 Prozent schrumpft, der Hippocampus um 20 Prozent“, sagt Dina Dechmann. Welche Folgen hat es, wenn das Gehirn in solch wichtigen Bereichen derart stark abgebaut wird? Um das zu testen, starteten die Forschenden eine Reihe von Verhaltensexperimenten, deren Resultate sie dann mit den MRT-Messungen im gleichen Tier vergleichen konnten. „Dieses Projekt war eine echte Herausforderung, denn Spitzmäuse sind sehr stressempfindlich und anspruchsvoll in der Haltung“, sagt Dechmann. „Bisher ist es auch nicht gelungen, sie in Gefangenschaft zu züchten.“ Die Forschenden mussten daher mit Wildfängen arbeiten. Im Experiment ließen sie Spitzmäuse, die sie zu verschiedenen Jahreszeiten im Freiland gefangen hatten, in einer Versuchsarena nach Mehlwürmern suchen. Anhand von bestimmten visuellen Hinweisen sollten sich die Tiere merken, wo die Leckerbissen versteckt waren. Dabei zeigte sich, dass sich die saisonalen Veränderungen der Gehirngröße tatsächlich auf die kognitiven Fähigkeiten der Tiere auswirkt: „Im Sommer lernten die Spitzmäuse schneller, wo sich die Futterquelle befand und brauchten in aufeinanderfolgenden Versuchen weniger Zeit, um sie zu finden“, sagt Dina Dechmann. „Im Winter schnitten sie dagegen deutlich schlechter ab.“

Abbildung 4: Veränderung der Knochendichte. Computertomographische Aufnahme des Schädels eines Individuums im Sommer und Winter. Die Farben zeigen die unterschiedlichen Knochendichten. Im Wintertier sind die Plattennähte des Schädels und die Platte am Hinterhaupt demineralisiert. © C. Dullin / CC BY-NC-SA 4.0

Die Forschenden schließen daraus, dass das Ortsgedächtnis der Tiere tatsächlich unter der Schrumpfung leidet: „Wir glauben, dass die Spitzmäuse sich das leisten können, weil ihre Umwelt im Winter weniger komplex wird“, sagt Dina Dechmann. „Im Sommer verändert sich die Vegetation schnell, die Spitzmäuse bewegen sich großräumig und müssen sich daher viel merken. Im Winter sind die Tiere dagegen viel kleinräumiger unterwegs und suchen teils versteckt unter der Schneedecke nach Futter.“ In der kalten Jahreszeit überwiegen daher die Vorteile, die ein kleines Gehirn aufgrund seines geringeren Energieverbrauchs bietet. Biologen sprechen von einem Trade-off (dt. Ausgleich, Kompromiss) zwischen Energieoptimierung und kognitiver Leistung: Bei Eigenschaften, die sich wechselseitig beeinflussen und die miteinander in Konflikt stehen, bildet sich im Lauf der Evolution ein Kompromiss heraus, der das Überleben und den Fortpflanzungserfolg eines Tieres oder einer Pflanze bestmöglich sichert. Vor allem bei Säugetieren ist das Denkorgan ein wahrer Energiefresser: Beim Menschen hat es einen Anteil von zwei Prozent am Körpergewicht, verbraucht aber ganze 20 Prozent der Gesamtenergie. „Der Kompromiss, durch eine Verkleinerung des Gehirns Energie zu sparen, obwohl das zu messbaren Einschränkungen der kognitiven Leistung führt, zeigt, wie extrem anpassungsfähig Säugetiere sein können“, sagt Dechmann.

Neue Ansätze für die Medizin

Aktuell untersuchen die Max-Planck-Forschenden, was bei den saisonalen Veränderungen der Spitzmaus auf physiologischer Ebene passiert: Wie schaffen es die Tiere, Knochen und Organe zu schrumpfen und dann wieder wachsen zu lassen? Und wodurch wird der Vorgang ausgelöst? Neue Experimente zu Stoffwechsel und Genexpression sollen Licht ins Dunkel bringen. Diese Abläufe im Detail zu verstehen, ist nicht nur für Biologinnen und Biologen interessant – auch die Medizin könnte davon profitieren: „So große, vor allem umkehrbare Veränderungen im Skelett könnten für die Knochenrekonstruktion oder Osteoporose-Forschung wichtig sein“, sagt. Dina Dechmann. Bei dieser Erkrankung verliert das Skelett an Substanz und wird brüchig. Weitere Erkenntnisse über diesen Abbauprozess, der in der Spitzmaus umkehrbar ist, könnten daher nützlich sein, um neue Therapieansätze zu entwickeln. Dasselbe gilt für neurodegenerative Erkrankungen wie Alzheimer, die mit einem Substanzverlust im Gehirn einhergehen. Dina Dechmann und ihr Team arbeiten daher mit Forschenden der Universitäten Stony Brook und Aalborg zusammen. „Spitzmäuse könnten schon in naher Zukunft wichtige Modellorganismen für unterschiedliche medizinische Forschungszweige werden“, glaubt die Max-Planck-Forscherin. Die winzigen Räuber sind daher nicht zuletzt ein Beispiel dafür, wie Grundlagenforschung zu neuen Erkenntnissen in der Medizin führen kann.


* Der Artikel von Christina Beck unter Mitwirkung von Dr. Elke Maier (Redaktion Max-Planck-Forschung) ist erstmals unter dem Titel: "Energie sparen leicht gemacht - Warum Spitzmäuse im Winter schrumpfen" in BIOMAX 38, Herbst2023 erschienen https://www.max-wissen.de/max-hefte/biomax-38-energie-sparen-spitzmaus/ und wurde (mit Ausnahme des Titels) unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Mehr zum Thema

Veröffentlichung von Dina Dechmann und Team:

 Jan R. E. Taylor, Marion Muturi, Javier Lázaro, Karol Zub, Dina K. N. Dechmann: Fifty years of data show the effects of climate on overall skull size and the extent of seasonal reversible skull size changes (Dehnel's phenomenon) in the common shrew. Ecology and Evolution. https://doi.org/10.1002/ece3.9447

 Vortrag von Dina Dechmann:

Wie passen sich Tiere veränderter Nahrung an? Video 12:00 min https://www.br.de/mediathek/podcast/campus-talks/pd-dr-dina-dechmann-wie-passen-sich-tiere-veraenderter-nahrung-an/1865539


 

inge Thu, 14.09.2023 - 12:12

Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird

Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird

Fr, 08.09.2023 — Ricki Lewis

Ricki Lewis

Icon Künstliche Intelligenz

Die Genetikerin Ricki Lewis hat Tausende Artikel in wissenschaftlichen Zeitschriften verfasst und eine Reihe von voluminösen Lehrbüchern geschrieben, die zu Bestsellern wurden und bereits mehr als ein Dutzend Auflagen erreicht haben. Ihre leicht verständlichen Schriften vermitteln den Lesern nicht nur sorgfältigst recherchierte Inhalte, sondern auch die Begeisterung für Wissenschaft und die zugrundeliegende Forschung, wobei Sichtweise, Erfahrung, Wissen und auch Humor der Autorin miteinfließen. Dass ChatGTP eine Konkurrenz für sie als Autorin werden könnte, ist für Ricki Lewis nicht vorstellbar.*

Eben habe ich ChatGTP (https://chat.openai.com/auth/login) zum ersten Mal benutzt. Anfangs habe ich mir Gedanken um meine Zukunft gemacht, denn der Chatbot beantwortete fast augenblicklich meine Fragen zu immer obskurer werdenden Begriffen aus meinem Fachgebiet, der Genetik,. Das KI-Tool zu überlisten, hat allerdings nur etwa 10 Minuten gedauert.

ChatGTP - "Chat Generative Pre-trained Transformer" - wurde am 30. November 2022 von OpenAI/Microsoft freigegeben.(Die Bezeichnung klingt ein bisschen wie das, was Google über Steroide sagt.) Nach meiner kurzen Begegnung mit dem Chatbot muss ich mich aber fragen, ob dieser die Nuancen, den Kontext, den Humor und die Kreativität eines menschlichen Geistes schaffen kann. Könnte er mich als Autorin von Lehrbüchern ersetzen?

Ich schreibe schon seit langem dicke Wälzer über Biowissenschaften

Mein Lieblingsbuch war immer "Human Genetics: Concepts and Applications"; die erste Auflage ist 1994 erschienen, als die Ära der Sequenzierung des menschlichen Genoms begann. Die 14. Auflage wurde diese Woche von McGraw-Hill herausgegeben. Eine Überarbeitung dauert gewöhnlich zwei Jahre: ein Jahr für Aktualisierung und Berücksichtigung der Vorschläge der Rezensenten, ein weiteres für die "Produktion" vom Lektorat bis zur Endfassung. Dann folgt ein Jahr Pause.

Abbildung 1. Ricki Lewis: Humangenetik Konzepte und Anwendungen. 12 Auflagen des Lehrbuchs von 1994 bis 2017 (Lizenz cc-by)

Mit der Entwicklung der Genetik zur Genomik trat die künstliche Intelligenz auf den Plan und übertrug die kombinatorischen Informationen der vergleichenden Genomik auf die DNA-Sequenzen. Mit einem Training an Datensätzen und einer anschließenden Mustererkennung ließen sich Evolutions-Bäume ableiten, welche die Beziehungen zwischen den Spezies abbildeten beim Testen der Abstammung und in der Forensik und ebenso bei der Identifizierung von mutierten Sequenzen, die auftreten, wenn sich das Krebsgeschwür ausbreitet.

ChatGPT ist für mich zu neu, als dass ich bei der Überarbeitung der neuen Auflage davon Gebrauch gemacht hätte, aber ich bin nun neugierig geworden. Ich könnte mir vorstellen, dass der Bot Definitionen ausspuckt, aber ein Lehrbuch ist viel mehr als nur "Inhalt". Ein menschlicher Autor fügt seine Sichtweise, Erfahrung und vielleicht sein Wissen hinzu, das über das hinausgeht, was ChatGPT aus dem Internet entnehmen kann.

Genetik-Lehrbücher und Generative künstliche Intelligenz

Die Genforschung erzeugt und extrahiert Unmengen an Informationen, Millionen und sogar Milliarden an Datenpunkten. Man trainiert einen Algorithmus an den DNA-Sequenzen eines bekannten krankheitsverursachenden Gens und sucht dann in Zellen anderer Personen nach identischen oder sehr ähnlichen Sequenzen, um die Diagnose zu unterstützen.

Die Art von KI, die Lehrbücher neu schreiben könnte, wird generativ genannt - es ist das G in GTP (zufällig auch eine Abkürzung für einen der vier DNA-Bausteine). ChatGTP lernt die Muster und Strukturen von "Trainingsdaten" und generiert ähnliche Kombinationen aus neuen Daten und erzeugt Texte, Bilder oder andere Medien.

Könnte ChatGTP also ein Lehrbuch wie das meine schreiben?

Das glaube ich nicht. Ich kann mir vorstellen, dass die generative KI einen Roman schreibt, der den Romanen der bekannten Autorin Colleen Hoover (US-amerikanische Bestseller-Autorin; Anm. Redn.) ähnelt. Tatsächlich habe ich vor langer Zeit eine Fantasy-Erzählung im Playgirl veröffentlicht, nachdem ich Wörter und Sätze in ähnlichen Artikeln aufgelistet und ein neues Szenario entworfen hatte. Es ging darin um einen Tornado und eine Schubkarre im ländlichen Indiana.

Wie Colleen Hoovers Belletristik und Playgirl-Fantasien haben auch Lehrbücher einen ganz eigenen Stil. Lehrbücher enthalten aber viel mehr als nur eine einzige Erzählung pro Kapitel. Die Herstellung umfasst auch die Auswahl von Fotos, die Gestaltung von Illustrationen und die Erstellung von pädagogischen Hilfsmitteln - Fragen, Zusammenfassungen, Verweise, Texte in Boxen.

Hier folgt nun also ein kurzer Überblick über den Werdegang der Lehrbuchveröffentlichung und anschließend das, was - meiner Meinung nach- künstliche Intelligenz nicht so gut wie ein menschlicher Autor leisten kann.

Das Werden eines Lehrbuchs über Biowissenschaften

Mein erstes Lehrbuch, Life, war ein Einführungsbuch in die Biologie (nicht zu verwechseln mit Keith Richards' Autobiografie mit demselben Titel). Damals waren die Marketing-Leute mit allem möglichen Schnickschnack ausgerüstet, um den Marktanteil zu erhöhen - Probenvorräte, Handbücher für Lehrpersonal, Arbeitsbücher für Fallstudien. Was für ein Unterschied gegen heute! Elektronische Lehrbücher sind mit Multiple-Choice-Fragen zum "adaptiven Lernen" ausgestattet. Der Lernende (früher Student genannt) erhält sofortige Rückmeldung darüber, warum jede falsche Antwort falsch ist.

Jede Auflage hat neue Schriftarten, Designelemente und Farbpaletten gebracht, um die neue Version anders aussehen zu lassen, weil sich einige Themen - Mitose, Mendel, DNA - ja nicht ändern. Umfangreiche Wälzer wurden in kürzere Versionen aufgeteilt- wie kalbende Eisberge.

Die ersten E-Books stammen aus den 1990er Jahren. Heute ist in den Studiengebühren eine Gebühr für die zeitlich begrenzte Lizenzierung eines E-Lehrbuchs enthalten. "E" könnte auch für "eintägig" stehen.

Für die 14. Auflage meines Buches hat ein Unternehmen alles, was ich geschrieben habe, unter dem Blickwinkel von Diversität, Gleichberechtigung und Inklusivität (DGI) unter die Lupe genommen. In einem PLOS-Blogbeitrag vom April d.J. habe ich berichtet, wie ich meine Fauxpas entdeckt habe https://dnascience.plos.org/2023/04/27/embracing-diversity-equity-and-inclusion-in-genetics-textbooks-and-testing/.

Da herkömmliche Lehrbücher kostspielig sind, gibt es gelegentlich Bestrebungen, sie zu ersetzen. Aber einen Kurs aus Online-Materialien oder aus Mitschriften von Vorlesungen und Prüfungsfragen zusammenzuschustern, erfordert mehr Zeit und Mühe, als den meisten angehenden Autoren bewusst ist. Und den kostenlosen Online-Lehrbüchern, die vor einigen Jahren aufkamen, fehlte die redaktionelle Kontrolle und die der Reviewer, die ein akademischer Verlag bietet.

Eine bei der Erstellung eines Lehrbuchs weniger konkretisierbare Fähigkeit ist das angeborene Schreibtalent. Stilelemente sind subtil. Wie viele Akademiker oder ChatGTP wechseln vom Passiv ins Aktiv? Formuliert man um, um "es gibt" und andere Redundanzen zu vermeiden? Um zu häufige Verwendung von Wörtern zu unterlassen? Um die Länge von Sätzen, von Absätzen zu ändern? Um das Material in logische A-, B- und C-Abschnitte zu gliedern?

Kann KI die Kreativität eines menschlichen Geistes nachahmen?

Künstliche Intelligenz kann schnell eine Tabelle mit DNA-Replikationsenzymen zusammenstellen oder eine Chronik für Technologien erstellen. Aber wie könnte ein noch so gut trainierter Algorithmus die Auswahl der Beispiele eines Autors nachahmen oder Fallstudien entwickeln, die auf persönlichen Interviews mit Menschen mit genetischen Krankheiten basieren?

Würde KI meine Stammzellen-Vergleiche verbessern?

"Der Unterschied zwischen einer Stammzelle und einer Vorläuferzelle ist ein wenig so, wie wenn ein Studienanfänger viele Studienfächer in Betracht zieht, während ein Student sich dann bei der Wahl seiner Kurse eher auf einen bestimmten Bereich konzentriert. Die Reprogrammierung einer Zelle ist vergleichbar mit der Entscheidung eines Studienanfängers, das Hauptfach zu wechseln. Will ein Student mit Hauptfach Französisch Ingenieur werden, so müsste er neu beginnen und ganz andere Kurse belegen. Aber ein Biologiestudent, der Chemie studieren möchte, müsste nicht bei Null anfangen, weil viele gleiche Kurse für beide Studiengänge gelten. So ist es auch bei den Stammzellen."

Wie sieht es mit der Pädagogik aus? KI könnte Formulare zum Ausfüllen oder Multiple-Choice-Fragen ausspucken. Aber könnte sie meine Übung zum kritischen Denken mit Venn-Diagrammen (Darstellung von Mengen mit Kreisen; Anm. Redn.) von drei SARS-CoV-2-Varianten mit einigen gemeinsamen Mutationen erstellen? Ich bitte dort den Leser, die Regeln des genetischen Codes anzuwenden, um vorherzusagen, welche Veränderungen die öffentliche Gesundheit am ehesten bedrohen werden.

Ich versuche, meine Fragen unterhaltsam zu gestalten.

Würde ChatGPT am Ende eines Kapitels Fragen zur Vererbung von drahtigem Haar bei den Tribbles aus Star Trek stellen? Bei einer Familie im Allgemeinen Krankenhaus eine seltene Blutgruppe aufspüren? Einen Stammbaum für SORAS (Soap Opera Rapid Aging Syndrome) erstellen, das Leiden, das die Familie Newman in der Seifenoper "Schatten der Leidenschaft" befällt?

Anleihen bei Science-Fiction werden in einem Kapitel über Evolution fortgesetzt, in dem die Lernenden aufgefordert werden, das Prinzip zu identifizieren, das diese Themen veranschaulichen:

In "Seveneves" von Neal Stephenson zerspringt der Mond. In zwei Jahren werden die Bruchstücke auf die Erde prallen und den Planeten für Jahrhunderte unbewohnbar machen. Einige Menschen, die bereits auf riesigen Raumstationen leben, überleben, und andere werden ausgewählt, um sich ihnen anzuschließen. Alle anderen sterben unter der Flut von Mondschrott und der großen Hitze. Oben, auf der "Wolkenarche", schwindet die menschliche Spezies dahin, aber entsteht wiederausgehend von sieben überlebenden Frauen, die mit Hilfe von Fortpflanzungstechnologien Kinder bekommen. Fünftausend Jahre nach der Explosion des Mondes ist die menschliche Bevölkerung wieder auf 3 Milliarden angewachsen, bereit, eine geheilte Erde zu bewohnen. (EIN BEVÖLKERUNGSENGPASS)

In "Children of the Damned" werden plötzlich alle Frauen einer Kleinstadt von genetisch identischen Wesen von einem anderen Planeten geschwängert. (NICHT ZUFÄLLIGE PAARUNG)

In Dean Koontzis "The Taking" töten riesige mutierte Pilze fast alle Menschen und verschonen nur kleine Kinder und die wenigen Erwachsenen, die sie beschützen. Die menschliche Rasse muss sich aus den Überlebenden neu formieren. (GRÜNDEREFFEKT)

Was ist mit der Geschichte? Die KI könnte leicht Chronologien zusammenstellen. Aber würde sie die Entschlüsselung des genetischen Codes durch Marshall Nirenberg und Heinrich Matthaei im Jahr 1961 in einer "Glimpse of History"-Box mit der Erfindung des ersten mRNA-basierten Impfstoffs durch Katalin Karikó und Drew Weissman verbinden?

Und schließlich: Kann KI von Humor Gebrauch machen? Würde sie eine Frage am Ende eines Kapitels wie diese über forensische DNA-Tests stellen?

"Rufus, der Kater, wurde von seinen Besitzern in einer Mülltonne gefunden. Sein Körper war mit Schnitten und Bisswunden übersät, und an seinen Krallen klebten graue Fellreste - graues Fell, das dem Fell von Killer, dem riesigen Hund von nebenan, sehr ähnlich sah."

ChatGPT -eine Abwägung

ChatGPT zu testen war einfach. Es verdient eine Eins plus bei der Ausgabe von Definitionen obskurer Fachbegriffe wie Tetrachromasie (verbessertes Farbsehen durch eine vierte Art von Zapfenzellen) und Chromothripsis (zersplitterte Chromosomen).

ChatGPT unterscheidet genau zwischen Gentherapie und Gen-Editierung. Das Tool vereinfacht die Gentherapie nicht zu sehr auf das "Ersetzen" eines Gens, sondern antwortet: "Bei der Gentherapie werden neue oder veränderte Gene in die Zellen einer Person eingeführt, um ein fehlerhaftes Gen zu korrigieren oder zu ersetzen oder um eine therapeutische Funktion bereitzustellen." Diese Definition deckt alle Grundlagen ab.

In meiner neuen Lehrbuchauflage gibt es eine Box mit Informationen darüber, wie sich die Viren von Grippe und COVID unterscheiden. Auch hier liefert ChatGPT mehr, als ich über die beiden Erreger wissen möchte, und vergleicht und setzt sie in Gegensatz. Ich könnte mir vorstellen, dass ein Student die Antwort in einer Hausarbeit verwendet - ich bin froh, dass meine Zeit als Professor vorbei ist!

ChatGPT unterscheidet klar zwischen Fahrer- und Mitfahrer-Mutationen bei Krebs, gleichwohl beginnt meine Lehrbuchdefinition mit dem Zusammenhang: "Der Fahrer eines Fahrzeugs bringt es zum Ziel, der Beifahrer fährt mit".

Ein Haftungsausschluss für ChatGPT lautet: "Trotz unserer Sicherheitsvorkehrungen kann ChatGPT Ihnen ungenaue Informationen liefern." Offenbar macht er auch Fehler durch Auslassungen; dies stellte ich fest, als ich nach etwas anderem fragte, über das ich geschrieben hatte: wie man einen Impossible Burger macht. Nicht nur die Zutaten, sondern auch die Biotechnologie hinter dieser genialen Erfindung.

Die Erklärung von ChatGPT beginnt genau genug: "Der Impossible Burger ist ein pflanzliches Burger-Patty, das den Geschmack und die Beschaffenheit eines herkömmlichen Rindfleisch-Burgers imitieren soll. Ich habe zwar keinen Zugang zu dem genauen Rezept oder Verfahren, das von Impossible Foods verwendet wird, aber ich kann einen allgemeinen Überblick darüber geben, wie pflanzliche Burger wie der Impossible Burger normalerweise hergestellt werden." Anschließend werden allgemeine Schritte zur Herstellung von Variationen des traditionellen Veggie-Burgers angeführt, die man in Supermärkten findet. Aber Impossible-Burger sind überhaupt nicht wie andere!

Das ist einfach nicht gut genug, trotz der vermenschlichenden Wirkung der Antwort in der ersten Person. ChatGPT hat offenbar meinen Artikel "Anatomy of an Impossible Burger" nicht gelesen, den ich im Mai 2019 in PLOSBlogs DNA Science veröffentlicht habe. Das ist die einfachste Überschrift, die mir einfallen konnte.

Meine Quelle? Die Datenbank des Patent- und Markenamts! Die Suche hat nur ein paar Minuten gedauert. Die Patentanmeldung umfasst 52 Seiten und wurde 2017 nach jahrelangen Forschungsarbeiten eingereicht. Sie enthält Hunderte von verwandten Patenten und Veröffentlichungen, viele davon in den Mainstream-Medien. ChatGTP konnte nichts finden?

Das Werkzeug hatte keinen Zugang zu dem genauen Rezept oder Verfahren? Bei diesem Ansatz werden Hefezellen genetisch verändert, um eine Sojabohnenversion von Hämoglobin, das sogenannte Leghämoglobin, zu produzieren, das das "Mundgefühl" und das Aussehen von totem Kuhfleisch vermittelt.

Ich habe nicht nur 2019 über den Impossible Burger gebloggt, sondern auch eine Version in der dreizehnten Auflage meines Lehrbuchs veröffentlicht, also vor drei Jahren!

Aber ich bin erleichtert und nicht beleidigt, dass ich unter dem ChatGTP-Radar fliege, denn es ist schön zu wissen, dass meine Fähigkeiten noch nicht veraltet sind.

Allerdings habe ich ein Problem mit dem Schreiben von ChatGPT. In früheren Entwürfen kam es immer wieder als GTP aus meinem Gehirn, vielleicht nach dem DNA-Nukleotid GTP - Guanosintriphosphat.


 *Der Artikel ist erstmals am 7. September 2023 in PLOS Blogs - DNA Science Blog unter dem Titel " Why I’m Not Worried that ChatGTP Will Replace Me as a Biology Textbook Author " https://dnascience.plos.org/2023/09/07/why-im-not-worried-that-chatgtp-will-replace-me-as-a-biology-textbook-author/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der ungekürzte Artikel folgt so genau wie möglich der englischen Fassung.


Ricki Lewis im ScienceBlog:

Links zu den bisherigen 31 Artikel aus PLOS Blogs - DNA Science Blog: https://scienceblog.at/ricki-lewis


 

inge Fri, 08.09.2023 - 18:15

Epilepsie - wie Larven des Schweinebandwurms auf das Gehirn einwirken

Epilepsie - wie Larven des Schweinebandwurms auf das Gehirn einwirken

Do, 31.08.2023 — Redaktion

Redaktion

Icon Gehirn

Vor wenigen Tagen erregte ein Presseartikel besonderes Aufsehen: in Australien wurde einer 64-jährigen Frau ein lebender Wurm operativ aus dem Gehirn entfernt, der aber offensichtlich noch keinen größeren Schaden verursacht hatte. Viel weniger öffentliche Aufmerksamkeit finden dagegen die weltweit auftretenden Infektionen mit dem Schweinbandwurm, in deren Verlauf die Wurmlarven Zysten im Gehirn bilden und in Folge Epilepsie auslösen können. Eine neue Arbeit in Journal eLife zeigt nun erstmals auf , dass die Wurmlarven durch Freisetzung des Neurotransmitter Glutamin eine wesentliche Rolle in der Pathophysiologie der Epilepsie spielen dürften.*

Infektionen mit dem Schweinebandwurm Taenia solium

(Taeniasis) treten weltweit auf, insbesondere in Ländern mit niedrigem und mittlerem Einkommen. Menschen infizieren sich, wenn sie rohes oder nicht durchgekochtes Fleisch von Schweinen verzehren, das Larven des Bandwurms, sogenannte Zystizerken enthält. Im Darm reifen die Zystizerken innerhalb weniger Monate zu segmentierten Bandwürmern heran, können dort Jahre verbleiben und Segmente (Proglottide) mit Eiern und auch isolierte Eier mit dem Kot absondern. Bandwurmeier, die von Bandwurmträgern im Kot ausgeschieden werden, können unter schlechten hygienischen Bedingungen über den fäkal-oralen Weg oder durch die Aufnahme von kontaminierten Lebensmitteln oder Wasser aufgenommen werden und sind direkt für Menschen und ebenso für Schweine infektiös. Sie werden zu sogenannten Oncosphären, unreifen Larvenformen, welche die Darmwand penetrieren, im System zirkulieren und sich als Zystizerken in Muskeln, Leber, Haut, Augen bis hin ins Zentralnervensystem festsetzen. Es kommt zur Zystizerkose mit zum Teil verheerenden Folgen für die menschliche Gesundheit.

Im Jahr 2015 hat die WHO-Gruppe für Epidemiologie der lebensmittelbedingten Erkrankungen T. solium als eine der Hauptursachen für lebensmittelverursachte Todesfälle identifiziert. Insgesamt dürften weltweit zumindest um die 5 Millionen Menschen an Zystizerkose leiden. Abbildung 1.

Abbildung 1. Weltweite Verbreitung der Zystizerkose 2019; Fallzahlen pro 100 000 Personen. Im Insert: vergrößertes Bild von Europa. Die Infektion wird durch Larvenformen des Schweinebandwurms verursacht und führt zur Zystenbildung in Muskelgewebe, anderen Organen und Gehirn. Ein Vergleich der Fallzahlen von 1990 und 2019 zeigt, dass die Infektionen in allen betroffenen Ländern stark abgenommen haben; weltweit von 71,3/100 000 auf 59,1/100 000 Personen. n (Bild: Our World in Data, https://ourworldindata.org/grapher/prevalence-cysticercosis. Lizenz: cc-by)

Neurozystizerkose

Bilden die Larven des Parasiten Zysten im Gehirn - dies wird als Neurozystizerkose bezeichnet -, so können Krampfanfälle und Epilepsie die Folge sein. Tatsächlich gehört die Neurozystizerkose weltweit zu den häufigsten Ursachen für erworbene Epilepsie und ein erheblicher Anteil (22-29 %) aller Epilepsiepatienten in Ländern südlich der Sahara hat eine Neurozystizerkose. Abbildung 2 gibt einen Eindruck wie sehr das Gehirn eines Patienten von Zystizerken befallen sein kann.

Abbildung 2. . Neurozystizerkose: multiple Zystizerken im Gehirn eines Patienten; Magnetresonanz-Aufnahme. (Bild: Centers for Disease Control and Prevention (CDC), gemeinfrei)

Man nimmt an, dass Krampfanfälle und Epilepsie auftreten, wenn die Zysten platzen und ihren Inhalt in das Gehirn entleeren; frühere Untersuchungen zur Entstehung dieser Erkrankungen haben sich auf die neuroinflammatorische Reaktion des Gehirns konzentriert. Interessanterweise geht man davon aus, dass Taenia solium-Larven die lokale Immunreaktion gegen ihre Vorhandesein aktiv unterdrücken, so dass sie sich über Monate oder sogar Jahre im Gehirn halten können. Abgesehen von den Arbeiten zur Neuroinflammation wurden jedoch die Auswirkungen der Larven (und ihrer Sekrete) auf die neuronale Aktivität bisher kaum erforscht. Jetzt berichtet im Fachjournal eLife ein internationales Forscherteam unter Joseph Raimondo (Universität Kapstadt) - darunter Anja de Lange und Hayley Tomes als Erstautoren - über Untersuchungen zu den Auswirkungen der Larven auf das Gehirn [1]. Die Ergebnisse haben direkte Relevanz für das Verständnis der Pathogenese akuter Anfälle (Iktogenese) und - da Anfälle zu Anfällen führen - auch chronischer Epilepsie.

Die Larven sezernieren Glutamat

Die wichtigste Erkenntnis der neuen Arbeit ist, dass die Larven und ihre Ausscheidungen einen Neurotransmitter namens Glutamat enthalten, wobei der Glutamatgehalt hoch genug ist, um die umliegenden Neuronen direkt zu aktivieren. Um dies nachzuweisen, haben die Forscher zunächst Taenia solium-Larven homogenisiert und ihre Ausscheidungsprodukte gesammelt. Anschließend haben sie Neuronen diesen Produkten ausgesetzt und gezeigt, dass die Neuronen durch diese Exposition zum Feuern von Aktionspotenzialen aktiviert wurden. Wurden aber die Glutamatrezeptoren in den Neuronen vor der Exposition mit den Larvenprodukten blockiert, so fand keine Aktivierung der Neuronen statt.

Die Forscher untersuchten dann mit Hilfe von fluoreszierenden Kalzium-Indikatoren (Calcium-Imaging), wie sich die lokale Aktivierung von Neuronen durch das Glutamat aus den Larven auf lokale Gehirnschaltkreise auswirkt. Der Anstieg des intrazellulären Kalziums steht stellvertretend für die neuronale Aktivität, so dass sich mit Hilfe der Kalzium-Bildgebung die neuronale Aktivität in den Gehirnschaltkreisen sichtbar machen lässt. Diese bildgebenden Experimente bestätigten, dass das von den Larven ausgeschiedene Glutamat eine lokale neuronale Aktivierung auslöste, die zu einer anschließenden Aktivierung synaptisch verbundener Neuronen in entfernteren Schaltstellen führte. Die Forscher haben auch andere, von den Larven abgesonderte Produkte untersucht, die möglicherweise das Feuern von Neuronen beeinflussen könnten (wie Substanz P, Acetylcholin und Kalium), aber keines dieser Produkte hatte die gleiche weitreichende Wirkung wie Glutamat. Die Ergebnisse deuten also darauf hin, dass Glutamat aus den Larven eine potenzielle Rolle bei der Entstehung und/oder Ausbreitung von Krampfanfällen spielt.

Als Nächstes zeigten de Lange et al., dass die Larvenprodukte ähnlich erregende Wirkungen in-vitro auf Gehirngewebe von Tiermodellen und auf reseziertes menschliches Gehirngewebe haben. Sie wiesen auch nach, dass Glutamat umgebendes Hirngewebe erregen kann - in anderen Studien war dies als Treiber für spätere Epilepsie nachgewiesen worden. Darüber hinaus war von anderen Teams bereits gezeigt worden, dass von Hirntumoren freigesetztes Glutamat epileptische Anfälle auslösen kann; Forscher suchen auch nach Möglichkeiten, die Glutamatfreisetzung gezielt zu steuern, um solche Anfälle zu verhindern.

Ähnliche Strategien könnten bei der Bekämpfung der Neurozystizerkose von Vorteil sein, um Anfälle zu reduzieren oder möglicherweise sogar die Entwicklung einer chronischen Epilepsie zu verhindern. Dies ist von entscheidender Bedeutung, da Millionen von Neurozystizerkose-Patienten unter Krampfanfällen und Epilepsie leiden. Allerdings ist die neue Studie noch kein strikter Beweis, dass Larvenprodukte Anfälle oder Epilepsie verursachen, da sie auf der Ebene einzelner Zellen und kleiner Schaltkreise mit Mini-Mengen (Pikoliter) von Larvenprodukten durchgeführt wurde: bisher wissen wir nur, wie Neurozystizerkose zu neuronaler Übererregbarkeit führt. Abbildung 3. fasst die Ergebnisse der Studie [1] zusammen.

Abbildung 3. . Neurozystizerkose und Epilepsie. Taenia Solium ist ein Parasit, der das Gehirn infizieren und eine Neurozystizerkose verursachen kann, die eine häufige, aber schlecht verstandene Ursache für erworbene Epilepsie ist. de Lange et al. [1] haben gezeigt, dass Taenia Solium erhebliche Mengen eines Neurotransmitters namens Glutamat enthält, der Neuronen und Schaltkreise von Neuronen aktivieren kann.

Künftige Studien werden erforderlich sein, um die Auswirkungen der Larvenprodukte und der Larven selbst auf größere Schaltkreise in vivo zu verstehen und um zu untersuchen, ob/wie diese pathologische Erregung zu langfristigen Veränderungen im Gehirn führt, die spontane, wiederkehrende Anfälle auslösen. Auch nicht-glutamaterge Mechanismen, einschließlich neuroimmunologischer Prozesse, könnten für diese Veränderungen von Bedeutung sein.

Mit den aufregenden experimentellen Hinweisen und darüber hinaus mit naturnahen krankheitsrelevanten Modellen, welche die Untersuchung neuer Behandlungsansätze ermöglichen werden, bringt uns die neue Studie einem Verstehen von Epilepsie als Folge menschlicher Neurozystizerkose näher. Die Studie ist auch deshalb wichtig, weil der Neurozystizerkose - einer Krankheit, von der unverhältnismäßig viele Menschen in einkommensschwachen und unterversorgten Ländern betroffen sind - in der Vergangenheit nicht genügend Aufmerksamkeit geschenkt wurde. Die aktuellen Ergebnisse aus Kapstadt könnten die dringend benötigte Forschung auf dem Gebiet der Neurozystizerkose in Gang gebracht haben, da sie zeigen, was Taenia solium-Larven mit den sie umgebenden neuronalen Netzwerken anstellen. Es ist Aufregend!


[1] Anja de Lange, Hayley Tomes et al., 2023 Cestode larvae excite host neuronal circuits via glutamatergic signaling. eLife12:RP88174 https://doi.org/10.7554/eLife.88174.1


 * Eine Zusammenfassung des Artikels von Anja de Lange, Hayley Tomes, et al., 2023, [1] verfasst von Zin-Juan Klaft und Chris Dulla ist am 23.08.2023 unter dem Titel "Epilepsy: How parasitic larvae affect the brain " im eLife-Magazin erschienen: https://doi.org/10.7554/eLife.91149. Der Text wurde von der Redaktion ins Deutsche übersetzt, mit einigen Textstellen und Abbildungen 1 und 2 ergänzt und ohne die im Originaltext zitierten Literatustellen wiedergegeben. eLife  ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.


Weiterführende Links

WHO: Taeniasis/cysticercosis (2022): https://www.who.int/news-room/fact-sheets/detail/taeniasis-cysticercosis

JJ Medicine: Pork Tapeworm (Taeniasis) | How It Infects, Symptoms & Cysticercosis, Diagnosis, Treatment (2022). Video 16:44 min. https://www.youtube.com/watch?v=z01Wu0x0us4

Parasitäre Erkrankungen im ScienceBlog:

 

inge Fri, 01.09.2023 - 01:03

Live-Videos aus dem Körper mit Echtzeit-MRT

Live-Videos aus dem Körper mit Echtzeit-MRT

Do, 24.08.2023 — Andreas Merian

Andreas Merian

Icon Physik

Die Magnetresonanztomographie, kurz MRT, gehört längst zum medizinischen Alltag: Nach Sportverletzungen oder Unfällen, auf der Suche nach Tumoren oder zur Untersuchung des Gehirns werden MRT- produzierte Aufnahmen genutzt. Bisher musste man sich dabei allerdings mit Standbildern zufriedengeben. Doch der Arbeitsgruppe von Jens Frahm am Max-Planck-Institut für Multidisziplinäre Naturwissenschaften (Göttingen) gelingt es, mit der MRT Videos aufzunehmen. Die Aufnahmen in Echtzeit ermöglichen der Medizin neue Einblicke, zum Beispiel in das schlagende Herz, in Gelenke in Bewegung oder in die komplexen Vorgänge beim Singen, Sprechen oder Schlucken. Der Spektroskopiker Dr. Andreas Merian gibt einen Überblick über diese Verfahren.*

Nach einem schweren Sportunfall landet man oftmals in der Röhre. Abbildung 1. Während man in der Enge liegt, kann man dem Magnetresonanztomographen bei der Arbeit zuhören: es brummt und klackt und summt.

Abbildung 1: Magnetresonanztomographie. © J. Frahm , Investigative Radiology, Vol. 54 , Nr. 12 , 2019; istockphoto.com

Nach der Untersuchung sichtet ein Arzt oder eine Ärztin die hochaufgelösten Schwarzweißbilder, auf denen die unterschiedlichen Gewebe klar zu unterscheiden sind und ihre Struktur gut zu erkennen ist. So wird festgestellt, ob durch den Unfall Bänder oder Sehnen in Mitleidenschaft gezogen wurden. Neben der Orthopädie kommt das Bildgebungsverfahren auch in vielen anderen Bereichen der Medizin zum Einsatz, zum Beispiel auf der Suche nach Tumoren oder bei der Untersuchung des Gehirns.

Doch was passiert eigentlich, während man in der Röhre liegt? Wie entstehen die Bilder und wie unterscheidet sich das Verfahren von Röntgen und Ultraschall? Der Physiker Jens Frahm vom Max-Planck-Institut für Multidisziplinäre Naturwissenschaften (Göttingen) war bei der Entwicklung der Magnetresonanztomographie von Anfang an dabei und sorgte dafür, dass sie die nötige Geschwindigkeit für den klinischen Alltag erreichte.

Rotierende Kerne

Abbildung 2: Kernresonanz. Kernspin und damit kernmagnetischer Dipol (oben) der Wasserstoffatomkerne des Körpers sind ohne äußeres Magnetfeld ungeordnet (unten links). Wird ein starkes statisches Magnetfeld angelegt, so richten sich die kernmagnetischen Dipole entlang der Feldlinien aus (unten rechts).© HNBM, MPG/CC BY-NC-SA 4.0

Der grundlegende physikalische Effekt hinter der MRT ist die magnetische Kernresonanz. Über 60 Prozent der Atome im menschlichen Körper sind Wasserstoffatome. Und deren Kerne haben einen Eigendrehimpuls, auch Kernspin genannt. Den Kern mit Eigendrehimpuls kann man sich wie einen Ball vorstellen, der sich um sich selbst dreht. Da die Wasserstoffkerne Protonen und damit durch den Kernspin bewegte Ladungen sind, erzeugen sie ein Magnetfeld. Der entstehende kernmagnetische Dipol richtet sich in einem von außen angelegten statischen Magnetfeld entlang der Feldlinien aus (Abbildung 2).

In einem MRT-Gerät wird durch supraleitende Spulen ein üblicherweise 1 bis 3 Tesla starkes statisches Magnetfeld erzeugt, das die Wasserstoffkerne im Körper der untersuchten Person ausrichtet. Dadurch entsteht eine makroskopische Magnetisierung entlang der Längsachse der Röhre (Abbildung 3). Ein elektromagnetisches Wechselfeld kann die Magnetisierung aus dieser Richtung auslenken. Damit das Wechselfeld die Magnetisierung kippen kann, muss seine Frequenz der Resonanzfrequenz entsprechen. Diese ist vom Atomkern und der Stärke des angelegten statischen Magnetfelds abhängig. Für Protonen bei 1 Tesla beträgt sie 42,58 MHz und liegt im UKW-Radiowellenbereich. Nach der Kippung kehrt die Magnetisierung langsam wieder in die Ausgangslage zurück. Dabei erzeugt sie ein elektromagnetisches Wechselfeld, das eine Spannung in einer Messspule induziert und so aufgezeichnet wird. Die Stärke des Signals weist auf die Protonendichte im Gewebe hin, während die Zeit bis zum Abklingen des Signals charakteristisch für die chemische Bindung der Wasserstoffatome und deren molekulare Umgebung ist.

Vom Signal zum Bild

Im Magnetresonanztomographen regt man also die magnetische Kernresonanz der Wasserstoffatome im Gewebe an, um Signale und damit Informationen aus dem Körper zu erhalten. Doch wie kann das Signal einem exakten Ort zugeordnet werden und wie setzt sich aus einer Vielzahl derartiger Informationen ein Bild zusammen?

Hier kommt der zweite Teil des Namens der Bildgebungsmethode ins Spiel, die Tomographie, was Schnittbild oder Schichtaufnahme bedeutet. Bei der MRT wird somit eine ausgewählte Schicht des Körpers dargestellt. Die sogenannte Ortskodierung ermöglicht es, aus den Messdaten Abbilder des Untersuchungsobjekts zu berechnen. Dazu werden zusätzlich zum statischen magnetischen Feld weitere Magnetfelder angeschaltet, die sich in ihrer Stärke entlang einer Achse unterscheiden. Man spricht von Gradientenfeldern (Abbildung 3). In der MRT werden klassisch drei senkrechte Gradientenfelder verwendet, die es möglich machen, ein Signal genau seinem Ursprungsort zuzuordnen. Der erste Gradient wählt die Schicht aus, die abgebildet werden soll, und die beiden anderen Gradienten erzeugen ein Gitter, wodurch Signale Bildpunkten zugeordnet werden können (Abbildung 3). Dabei macht man sich zunutze, dass ein zusätzliches Magnetfeld die Resonanzfrequenz der Wasserstoffkerne ändert und man so eine Schicht zur Anregung auswählen bzw. anschließend nachvollziehen kann, von welchem Ort ein Signal stammt. Die exakte Schaltung von Gradienten- und Wechselfeldern hängt vom spezifischen Verfahren ab und ist hochkomplex. Doch allgemein gilt: Um ein vollständiges Schichtbild zu erhalten, müssen die Gradientenfelder so oft an und wieder ausgeschaltet werden, wie das Bild letztlich Zeilen bzw. Bildpunkte in einer Dimension haben soll. Meist werden in der MRT Bilder mit bis zu 512 x 512 Bildpunkten aufgenommen. Damit die Aufnahme möglichst schnell abläuft, werden die zur Ortskodierung eingesetzten Gradientenfelder sehr schnell geschaltet, wodurch die lauten Geräusche in der Röhre entstehen.

Abbildung 3: Schema des Magnetresonanztomographs. Die zu untersuchende Person wird in der Röhre positioniert. Die äußersten Spulen (rot) erzeugen das starke statische Magnetfeld, das die Kernspins der Wasserstoffkerne ausrichtet. Die Spulen für die Gradientenfelder (grün) schalten kurzzeitig weitere (statische) Magnetfelder für die Ortskodierung zu. Radiofrequenzspulen (orange) erzeugen das magnetische Wechselfeld zur Auslenkung der Magnetisierung und dienen als Empfängerspulen für die Signale. © HNBM, MPG / CC BY-NC-SA 4.0

Mittels komplexer mathematischer Verfahren lässt sich dann aus der großen Datenmenge der vielen Einzelmessungen ein zweidimensionales Schnittbild berechnen. Bis Mitte der 1980er Jahre dauerte die Aufnahme eines Schnittbildes ca. 5 Minuten, eine dreidimensionale Messung des Körpers mit beispielsweise 256 x 256 x 256 Bildpunkten sogar mehrere Stunden. Da sich während dieser Zeit der Patient auch nicht bewegen durfte, führte das dazu, dass die MRT im klinischen Alltag selten eingesetzt wurde.

Doch 1985 gelang Jens Frahm und seinem Team ein Durchbruch. „Durch FLASH eliminierten wir die Wartezeit zwischen den Einzelmessungen und beschleunigten die MRT so um einen Faktor größer 100. Plötzlich konnten einzelne Schichtbilder in Sekundenschnelle aufgenommen werden und dreidimensionale Aufnahmen dauerten nur noch wenige Minuten“, sagt Jens Frahm. Das patentierte FLASH-Verfahren wurde innerhalb eines halben Jahres von allen Herstellern von MRT-Geräten übernommen und kommt heute in allen kommerziellen Geräten zum Einsatz. Dank der Geschwindigkeit des neuen Verfahrens etablierte sich die MRT in der diagnostischen Bildgebung.

MRT vs. Röntgen und Ultraschall

Doch warum ist die MRT in der Medizin eigentlich so gefragt? Mit Röntgen, Computertomographie (CT) und Sonographie waren ja bereits verschiedene Bildgebungsverfahren etabliert. Welche Vorteile bietet die MRT gegenüber diesen Methoden?

Beim Röntgen nutzt man die kurzwellige elektromagnetische Röntgenstrahlung. Diese wird von der einen Seite auf die zu untersuchende Körperpartie gestrahlt und auf der anderen Seite detektiert. Je mehr Gewebe zwischen Strahlungsquelle und Detektor liegt und je dichter dieses Gewebe ist, desto mehr Röntgenstrahlung wird absorbiert oder gestreut. Dichte anatomische Strukturen wie Knochen heben sich somit hell gegen die dunkleren Weichteile wie Muskeln ab. Knochenbrüche können so zum Beispiel leicht diagnostiziert werden. Unterschiedliche weiche Gewebe lassen sich durchs Röntgen nur schwer unterscheiden, da hierzu der Kontrast nicht ausreichend ist. Die Computertomographie basiert auch auf Röntgenstrahlung, ermöglicht aber statt einer Durchleuchtung eine Schichtbildgebung und 3D-Aufnahmen. Da die kurzwellige Röntgenstrahlung ionisierend auf biologisches Gewebe wirkt, besteht durch die Strahlenbelastung ein erhöhtes Krebsrisiko. Deshalb wird bei einer Untersuchung nur die betreffende Stelle geröntgt und empfindliche Körperpartien werden durch eine Bleischürze geschützt. Die Strahlenbelastung verbietet es außerdem, Videos mit vielen Bildern pro Sekunde mit Röntgenapparat oder CT aufzunehmen.

Bei der Sonographie werden mechanische Ultraschallwellen in den Körper gesandt und deren Echo aufgezeichnet. Mit der Sonde, die den Ultraschall aussendet und detektiert, wird über die betreffenden Körperstellen gefahren. Aus der Laufzeit und der Amplitude des Echos berechnet ein Computer dann in Echtzeit Bilder. Von der Sonde werden die Ultraschallwellen fächerartig in den Körper ausgesandt. So entsteht typischerweise ein Schnittbild entlang der Ebene dieses Fächers. Moderne Geräte ermöglichen aber auch 3D-Bilder. Je stärker ein Gewebe den Schall zurückwirft, desto heller erscheint es auf den Bildern. Dadurch entsteht der Kontrast im Bild. Da die Eindringtiefe des Ultraschalls begrenzt ist, werden tief liegende oder verdeckte anatomische Strukturen kaum oder nicht aufgelöst. Dies schränkt die Nutzung der Sonographie ein. Je nach medizinischer Fragestellung können Ärztinnen und Ärzte einzelne Bilder aufnehmen oder in Echtzeit mit Videobildrate das Geschehen im Körper verfolgen. Die sonographische Untersuchung hängt in ihrer Qualität stark vom Untersuchenden ab und ist schlecht wiederholbar. Vorteil der Sonographie ist, dass sie nichtinvasiv und risikoarm ist, weshalb sie beispielsweise in der Schwangerschaftsvorsorge eingesetzt wird.

Stärken der MRT sind der hervorragende Weichteilkontrast und die hohe räumliche Auflösung. So entstehen scharfe Bilder des gesamten Körperinneren. Außerdem sind sowohl die Radiowellen als auch die statischen Magnetfelder gesundheitlich unbedenklich. Ganzkörperscans oder wiederholte Untersuchungen bedeuten also kein zusätzliches gesundheitliches Risiko. Seit der Einführung von FLASH hat sich die Geschwindigkeit der MRT lange Zeit nicht verändert. Das bedeutete, dass zwar MRT-Aufnahmen im medizinischen Alltag kein Problem, aber MRT-Videos bewegter Vorgänge aus dem Körperinneren ein Ding der Unmöglichkeit waren: An Videos mit Bildraten von 20 Bildern pro Sekunde oder mehr war nicht zu denken. „Nach der Entwicklung von FLASH sahen wir zunächst keine weitere Möglichkeit, die MRT zu beschleunigen“, sagt Jens Frahm. Doch die Idee einer noch schnelleren MRT spukte ihm weiter im Kopf herum.

Echtzeit durch Hochleistungsrechner

Bis es soweit war, dauerte es 25 Jahre. Aber seit dem Durchbruch, den Jens Frahm mit seinem Team 2010 feierte, kann er sagen: „Wir haben es geschafft, die MRT-Bildgebung weiter zu beschleunigen! So ist uns sozusagen der Schritt vom Foto zum Film gelungen. Und das eröffnet ganz neue diagnostische Möglichkeiten, zum Beispiel weil das schlagende Herz genau dargestellt werden kann.“ Im Vergleich zur MRT vor 1985 gelang es Jens Frahm und seinem Team, die Aufnahmegeschwindigkeit insgesamt um einen Faktor 10.000 zu steigern. Nun können die Forschenden Schichtbilder mit einer Bildrate von bis zu 100 Bildern pro Sekunde aufnehmen. Sie nennen ihre Technik Echtzeit-MRT. „Möglich gemacht haben diese Entwicklung zum einen Fortschritte in der numerischen Mathematik und zum anderen die Verfügbarkeit von leistungsstarken Grafikkartenrechnern“, erläutert Jens Frahm. Denn die Beschleunigung des Verfahrens beruht nicht wie bei FLASH darauf, dass die Einzelmessungen schneller werden. „Wir messen einfach weniger oft und nutzen dann ein neues mathematisches Verfahren, um aus den für eine klassische Berechnung ungenügenden Daten ein aussagekräftiges Bild zu erzeugen.“ Dazu wenden die Forschenden die radiale Ortskodierung an (Abbildung 4).

Abbildung 4: Echtzeit-MRT durch radiale Ortskodierung: Anstatt wie herkömmlich durch die Gradientenfelder ein Gitter zu erzeugen, laufen die verwendeten radialen Gradienten wie Speichen durch die Mitte eines Rades (links). Dabei werden für jedes Schichtbild aber weniger Einzelmessungen als nötig aufgenommen. Die fehlenden Informationen werden anschließend durch die Lösung eines komplexen mathematischen Problems ermittelt. So lassen sich z.B. Videos des Schluckvorgangs mit einer Zeitauflösung von nur 40 ms aufnehmen. Auf den Einzelbildern aus dem Video hebt sich die getrunkene Flüssigkeit weiß ab (rechts). © links: HNBM, MPG / CC BY-NC-SA 4.0; rechts © J. Frahm et al.: Real-Time Magnetic Resonance Imaging. Investigative Radiology, Vol. 54, Nr. 12, 2019

Entscheidend ist, dass für jedes Schichtbild je nach Anwendung um einen Faktor 10 bis 40 weniger Einzelmessungen durchgeführt werden als eigentlich nötig. Dadurch wird die Aufnahme genau um diesen Faktor schneller. Die fehlenden Informationen werden anschließend durch die Lösung des nichtlinearen inversen Problems rekonstruiert. Durch dieses mathematische Verfahren wird das Bild nicht direkt aus den Daten rekonstruiert, sondern ausgehend von einem Startbild – üblicherweise dem letzten aufgenommenen Bild – geschätzt. Aus dem geschätzten Bild lassen sich die Daten berechnen, die die Messspulen aufgenommen haben müssten, um dieses zu erzeugen. Und die kann man wiederum mit den tatsächlich aufgenommenen Daten abgleichen. In einem schrittweisen Prozess kann das geschätzte Bild so optimiert werden, dass es möglichst genau zu den Messwerten passt. Das klappt dank der Entwicklungen von Jens Frahms Team so gut, dass die Bildqualität ausreichend für die medizinische Diagnostik ist. Da dieser Ablauf die eigentliche Bildentstehung in der MRT auf den Kopf stellt, spricht man von einem inversen Problem. Die Lösung dieses Problems und damit die Echtzeit-MRT erfordert eine sehr große Rechenleistung. Was sie allerdings nicht benötigt, ist ein besonderes MRT-Gerät. So könnten alle bereits in Kliniken vorhandenen Geräte durch einen leistungsfähigen Grafikkartenrechner für die Datenverarbeitung erweitert werden.

Live-Videos aus dem Körper

Der Echtzeit-MRT eröffnen sich viele Anwendungsfelder: So kann ein Kardiologe direkt das schlagende Herz beobachten und beispielsweise Herzrhythmusstörungen genau analysieren. Auch das Schlucken und Schluckbeschwerden können durch die Echtzeit-MRT erstmals untersucht werden. Neben klassischen medizinischen Anwendungen ist Jens Frahm auch auf großes Interesse in der Musik und Phonetik gestoßen: Wie genau werden beim Sprechen Töne erzeugt? Wie beim Beatboxen? Und was unterscheidet einen herausragenden Hornisten von einem Anfänger oder Fortgeschrittenen? Durch die neuen Möglichkeiten der Echtzeit-MRT können beispielsweise die Bewegungen der Zunge im Mundraum genau untersucht und quantifiziert werden.

Abbildung 5: Messen in Millisekunden: Schichtbild aus dem Gehirn eines 4 Jahre alten Kindes. Links: Die herkömmliche MRT mit einer Messzeit von 38 s liefert ein verschwommenes Bild, da sich das Kind offensichtlich während der Messung bewegt hat. Rechts: Die Echtzeit-MRT mit einer Messzeit von 50 ms erzeugt ein scharfes Bild, das zur Diagnostik genutzt werden kann. © Verändert nach: D. Gräfe et al.: Outpacing movement — ultrafast volume coverage in neuropediatric magnetic resonance imaging. Pediatr Radiol 50, 2020. / CC BY 4.0

Die neue Methode beschleunigt auch die Untersuchung ganzer Körperteile mittels überlappender Schichtbilder, die nun in nur wenigen Sekunden gemessen werden (Abbildung 5). Dies ist gerade in der Kinderheilkunde ein großer Vorteil. Denn Säuglinge und Kleinkinder halten nicht lange genug still, um mit der konventionellen MRT beispielsweise eine vollständige Bildgebung des Schädels durchzuführen. Daher ist bisher oft eine risikobehaftete Narkose notwendig. „Unsere Kooperationspartner an der Universitätsklinik Leipzig haben in den letzten Jahren festgestellt, dass mit der Echtzeit-MRT in mindestens der Hälfte aller Fälle keine Narkose notwendig ist“, sagt Jens Frahm.

Der Forscher ist an seinem Ziel angekommen: Live-Videos aus dem Körper dank MRT. Und seit dem Durchbruch 2010 zeigte sich, dass die beschleunigte Methode zahlreiche neue Anwendungen ermöglicht. „Wir müssen aber erst lernen, die Echtzeit-MRT diagnostisch zu nutzen. Auch für das medizinische Personal ergeben sich neue Anforderungen und notwendige Erprobungsphasen. Die technischen Fortschritte müssen in belastbare Untersuchungsprotokolle ‚übersetzt’ werden, die die jeweiligen medizinischen Fragestellungen optimal beantworten.“


* Der Artikel von Andreas Merian ist unter dem Titel: "Liveschaltung in den Körper - Neue Einblicke mit der Echtzeit-MRT" https://www.max-wissen.de/max-hefte/techmax-33-echtzeit-mrt/ im Techmax33-Heft der Max-Planck-Gesellschaft im Frühjahr 2023 erschienen. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


 Weiterführende Links

Echtzeit-MRT-Film: Sprechen Video 2:16 min (2018) https://www.youtube.com/watch?v=6dAEE7FYQfc Copyright: Jens Frahm / Max-Planck-Institut für biophysikalische Chemie

Jens Frahm - Schnellere MRT in Echtzeit: Video 6:05 min. (2018) https://www.youtube.com/watch?v=lYQXsMWfJT4

Roland Wengenmayr: Liveschaltung zum Krankheitsherd. (2017) https://www.mpg.de/11248354/W003_Material_Technik_054-061.pdf


 

inge Wed, 23.08.2023 - 23:22

Seetang - eine noch wenig genutzte Ressource mit hohem Verwertungspotential - soll in Europa verstärkt produziert werden

Seetang - eine noch wenig genutzte Ressource mit hohem Verwertungspotential - soll in Europa verstärkt produziert werden

Do. 17.08.2023 — Redaktion

Redaktion Icon Meere Als wertvolle und noch wenig genutzte Ressource aus den Ozeanen und Meeren bieten Algen ein weites Spektrum an gesundheitlichen und ökologischen Vorteilen. Auf Grund ihres hohen Verwertungspotenzials wachsen Nachfrage und Markt für Seetang, "Meersalat" und andere Algen. Um deren Produktion in Europa zu steigern, hat die Europäische Kommission 2022 einen Aktionsplan herausgegeben, in dem intensivierte Forschung zur Optimierung der Algenarten und Züchtungstechnologien eine zentrale Rolle spielen. Der vorliegende Artikel gibt einen Überblick über die Forschung, die von der EU finanziert wird.*

Wenn auch die Vorstellung noch nicht verlockend ist, dass man fermentierten Seetang den Mahlzeiten daheim zufügt, so wird sich das bald ändern, glaubt Ólavur Gregersen. Seit zehn Jahren experimentieren Gregersen und seine Familie auf den Färöer-Inseln mit allen Arten einer durch Algen inspirierten Küche. Die Ergebnisse reichen von Algenbutter bis zu seinem neuen Lieblingsgericht: Algenpesto.

Tägliche Dosis

"Wir achten wir darauf, dass wir täglich einen Esslöffel Algen zu einer unserer Mahlzeiten essen", so Gregersen. Ob zum Frühstück über das Joghurt gestreut, über den Salat zum Mittagessen oder über Fleisch und Fisch am Abend - er ist überzeugt, dass Algen nicht nur gut schmecken, sondern auch von großem Nutzen sowohl für die Gesundheit als auch die Umwelt sind.

Was die menschliche Gesundheit betrifft, so ist Seetang vollgepackt mit essenziellen Nährstoffen wie Eiweiß und Omega-3-Fettsäuren. Die Europäische Behörde für Lebensmittelsicherheit hat 2019 auf Seetang als ein "Superfood" hingewiesen und dessen hohen Nährwert angeführt.

Abbildung 1. Wegen des Nutzens für Gesundheit und Umwelt will Europa die Produktion von Meeresalgen ausweiten. Bildnachweis: Bjoertvedt, CC BY-SA 4.0

Auch aus ökologischer Sicht bieten die Algen viele Vorteile: Sie "saugen" CO2 auf und benötigen weder Zusatzstoffe noch Dünger oder Frischwasser. Einem Bericht der Vereinten Nationen aus dem Jahr 2023 zufolge hat die Algenzucht das Potenzial, "viele" Vorteile für die Umwelt zu bieten, darunter auch für den Kampf gegen den Klimawandel. In Kenntnis des gesamten Potentials hat die Europäische Kommission 2022 einen Aktionsplan zur Steigerung der Produktion von Meeralgen in Europa herausgegeben [1]. Die Intensivierung der Forschung ist ein zentraler Bestandteil der Strategie, ebenso wie eine verbesserte Gesetzgebung, eine gezielte Unternehmensförderung und eine stärkere öffentliche Wahrnehmung. Abbildung 1.

Meeralgen können im offenen Meer oder in Tanks an Land gezüchtet werden. Die EU gehört derzeit zu den weltweit größten Importeuren von Meeresalgen, die aus China, Südkorea und Chile zur Nutzung als Lebensmittel und für industrielle Zwecke (beispielsweise Düngemittel) geliefert werden.

Im Jahr 2021 belief sich der Weltmarkt für Meeralgen auf fast 14 Milliarden Euro und er soll nach Angaben der niederländischen Regierung bis 2028 voraussichtlich auf mehr als 22 Milliarden Euro anwachsen.

Da die Nachfrage in Europa von 270 000 Tonnen im Jahr 2019 laut EU auf 8 Mio. Tonnen bis 2030 steigen dürfte, könnte der europäische Markt für Meeralgen im Jahr 2030 einen Wert von 9 Mrd. EUR erreichen. Durch die steigende Produktion in Europa könnten rund 85 000 Arbeitsplätze geschaffen werden.

Lebensmittel, Futtermittel und mehr

Gregersen ist Unternehmer und Mitbegründer des Unternehmens Ocean Rainforest, das seit 2010 auf den Färöer Inseln Pionierarbeit bei der Züchtung von Meeresalgen vor der Küste leistet. Er koordiniert auch ein europäisches, mit EU-Mitteln gefördertes Forschungsprojekt, um neue Produkte auf Algenbasis zu entwickeln. Die vierjährige Initiative mit dem Namen SeaMark läuft bis Juni 2026 [2].

Gregersen sieht in Europa ein großes ungenutztes Potenzial für Seetang, der in der asiatischen Küche jaseit Jahrhunderten ein Grundnahrungsmittel ist. Er möchte beweisen, dass in Europa die Züchtung von Meeralgen gewinnbringend sein kann und für diese vielfältige Verwendungsmöglichkeiten bestehen. Im Rahmen des Projekts werden 12 Produkte entwickelt, die von Lebensmittelzutaten und Futtermittelzusatzstoffen bis hin zu Nahrungsergänzungsmitteln und Verpackungsmaterial reichen [2]. Konkrete Beispiele sind Algenfasern, die auf Grund ihrer wasserbindenden und gelbildenden Eigenschaften in Lebensmitteln Anwendung finden, Beta-Glucane für die Hautpflege und Verbindungen für pelletierte Bio-Verpackungsmaterialien.

"Mit Seamark wollen wir zeigen, dass es möglich ist, den Prozess der Algenzüchtung effizienter zu gestalten und dass es in Europa einen großen Markt für diese Produkte gibt", so Gregersen.

Ein Teil des Projekts befasst sich mit der Weiterentwicklung der milchsauren Vergärung (Laktofermentation) von Meeresalgen, damit diese in Tierfutter verwendet werden können. Erste Ergebnisse an mit Algen gefütterten Schweinen haben gezeigt, dass diese infolge verbesserter Mikroflora im Darm mehr Milch produzierten und weniger Futter benötigten. Dies wird nun mit 500 Mutterschweinen in einem Betrieb in Dänemark untersucht.

Wachstumspotenzial

Was die Züchtung betrifft, so ist die für SeaMark besonders interessante Algenart eine Braunalge, die als Zuckertang bekannt ist, wie Lasagne-Nudeln aussieht und einen süßen Geschmack hat. Sie ist auch unter dem Namen Saccharina latissima bekannt und wächst in der Natur an den Küsten Nordeuropas und im Süden bis nach Galicien in Spanien. Zuckertang lässt sich schnell züchten und ist daher ideal für die Produktion, solange die Kosten niedrig gehalten werden können. Abbildung 2.

Abbildung 2. Der Forscher Mike Murphy hält eine Saccharina latissima (Zuckertang) hoch. Bild: Wikipedia, gemeinfrei

Eine eng verwandte Art ist in der japanischen Küche bekannt und wird in Japan als "Kombu" geerntet und verkauft.

Auf den Färöer Inseln, wo Temperatur, Nährstoffe und Licht optimal für das Wachstum von Algen sind, hat das SeaMark-Team neue Geräte getestet, die im Meer die Anzucht der Algen beschleunigen - das Äquivalent zur Aussaat von Samenreihen auf einem Acker. Unabhängig davon werden im Rahmen des Projekts Maschinen getestet, die die Ernte beschleunigen, sobald die Biomasse bereit steht. Die Geräte können laut Gregersen zeitaufwändige Handarbeit ersetzen, die Produktionskosten senken und den Weg für eine höhere Produktion ebnen.

Ocean Rainforest weitet seine Aktivitäten mit Versuchen zum Offshore-Anbau in Norwegen und zum Anbau von Meeresalgen an Land in Island aus.

Seetang-Stämme

An der Westküste Irlands stützt sich SeaMark auf das Fachwissen des Algenspezialisten Dr. Ronan Sulpice von der Universität von Galway. Sulpice hilft bei der Identifizierung der besten Algenstämme für die Züchtung von Zuckertang und der als Meersalat bekannten Ulva, die neben ihrem Nährwert auch Stoffe enthält, die zur Herstellung von Arzneimitteln extrahiert werden können. Ziel ist es, hohe Erträge und optimale Qualität - insbesondere hinsichtlich des Proteingehalts - zu gewährleisten.

Sulpice leitet auch ein separates, von der EU finanziertes Forschungsprojekt, um Algenstämmen zu identifizieren, die sich ideal für die Aquakultur eignen. Das Projekt mit der Bezeichnung ASPIRE dauert bei einer Laufzeit von zwei Jahren bis September 2024 [3].

Um Saatgut für die Zucht zu finden, fahren Algenzüchter in der Regel ins Meer hinaus oder die Küste entlang, um Wildstämme zu sammeln. Diese Praxis bedeutet jedoch, dass die gezüchteten Algen von Jahr zu Jahr stark variieren können. Angesichts des zunehmenden Interesses an diesen Pflanzen möchte Sulpice den Farmern helfen, die Auswahl der Sorten zu verbessern und die Produktion zu steigern.

"Die Art und Weise, wie wir derzeit in Europa Saatgut für Meeresalgen züchten, ähnelt der Art und Weise, wie wir vor 10 000 Jahren Landpflanzen angebaut haben - dies ist noch sehr urtümlich, aber die Entwicklung schreitet fort", sagte er. ASPIRE bietet die Möglichkeit, Algensorten zu züchten, die nach den Wünschen der Erzeuger und Verbraucher ausgewählt wurden.

Portugal, Irland untersuchen

Sulpice hat bereits portugiesischen Züchtern, die Ulva anbauen, geholfen, indem er verschiedene Stämme, die an sein Labor in Irland geschickt wurden, untersucht hat. Die Ergebnisse haben erhebliche Unterschiede in den Wachstumsraten zwischen den besten und den schlechtesten Stämmen gezeigt; einige lieferten fünfmal mehr Biomasse. Dank dieser Erkenntnisse konnte ein Betrieb in Portugal seine Produktivität verdoppeln, so Sulpice.

Das Hauptaugenmerk von ASPIRE liegt jedoch auf einer rötlich-braunen Meeresalge namens Palmaria palmata. Sie hat einen hohen Proteingehalt, wächst im Atlantik von Schweden bis Portugal und schmeckt gebraten wie Speck. Die Nachfrage nach Palmaria palmata, auch bekannt als Lappentang, Dulse oder Dillisk, ist groß und die Ernte kann bis zu 250 € pro Kilogramm einbringen. Im Vergleich dazu kostete importierter Seetang in Teilen Europas etwa 6 € pro Kilogramm im Jahr 2020.

Sulpice ist überzeugt, dass ASPIRE den Algenunternehmen in Europa, einschließlich der irischen Unternehmen, helfen kann, dieses Potenzial zu nutzen. Ein solches Unternehmen ist Mungo Murphy's Seaweed, eine Meeresalgenfarm im Bezirk Connemara im Westen Irlands. Seit 2014 züchtet Mungo Murphy's Algen wie Ulva und Palmaria palmata zusammen mit Abalonen (Meeresschnecken) und Seegurken in Becken an Land an. Laut Cindy O'Brien, die das Unternehmen gegründet und die Farm aufgebaut hat, ist dies eine Form von Aquakultur, die in Irland zunehmend an Bedeutung gewinnt. Sie betreibt diese jetzt zusammen mit ihrer Tochter Sinead. Abbildung 3.

Abbildung 3. Sinead O'Brien mit einer Handvoll Seetang. © Mungo Murphy’s Seaweed Co

Attraktivität für den Verbraucher

Mungo Murphy's hofft, dass die Zusammenarbeit mit Sulpice die Möglichkeit bietet, die angebauten Produkte weiter zu entwickeln. "Diese Zusammenarbeit wird es uns ermöglichen, mehr Rohmaterial durch Aquakultur zu produzieren und nicht von wild geerntetem Seetang abhängig zu sein", sagt Cindy O'Brien.

Die auf der Farm gezüchteten Algen werden zu einer Reihe von Verbraucherprodukten verarbeitet. Dazu gehören Kosmetika wie Algen-gefüllte Badesäckchen und Gesichtsmasken und Lebensmittel wie Algengewürze für Suppen, Brote, Salate und sogar Popcorn. O'Brien sagt, dass die Menschen oft von der Vielseitigkeit der Algen überrascht sind. Mungo Murphy empfiehlt Köchen  Algen in ihren Gerichten zu verwenden und hebt ihren Einsatz in Konsumgütern hervor.

ASPIRE ist nun in der Hälfte seiner Laufzeit; O'Brien rechnet damit, dass das Projekt dazu beitragen wird, die allgemeine Attraktivität von Algen zu erhöhen."Das wird uns helfen, mehr gesunde Produkte für den menschlichen Verzehr herzustellen", sagte sie.


[1] United Nations Environment Programme (2023). Seaweed Farming: Assessment on the Potential of Sustainable Upscaling for Climate, Communities and the Planet. Nairobi.https://wedocs.unep.org/bitstream/handle/20.500.11822/42642/seaweed_farming_climate.pdf?sequence=3&isAllowed=y

[2] SeaMark - Seaweed based market applications. https://cordis.europa.eu/project/id/101060379

[3] ASPIRE - Accelerated Seaweed Production for Innovative and Robust seaweed aquaculture in Europe.. https://cordis.europa.eu/project/id/101066815/de


*Dieser Artikel wurde ursprünglich am 9. August 2023 von Andrew Dunne in Horizon, the EU Research and Innovation Magazine unter dem Titel "From butter to baths, seaweed’s potential is being tapped in Europe" https://ec.europa.eu/research-and-innovation/en/horizon-magazine/butter-baths-seaweeds-potential-being-tapped-europe publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und Beschriftung wurden von der Redaktion eingefügt.


Über Braunalgen im ScienceBlog:

Susanne Coelho, 02.09.2021: Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung


 

inge Thu, 17.08.2023 - 23:14

Und man erforscht nur die im Lichte, an denen im Dunkel forscht man nicht - Die Unknome Datenbank will auf unbekannte menschliche Gene aufmerksam machen

Und man erforscht nur die im Lichte, an denen im Dunkel forscht man nicht - Die Unknome Datenbank will auf unbekannte menschliche Gene aufmerksam machen

Fr, 11.08.2023 — Redaktion

Redaktion Icon Datenbank Das menschliche Genom kodiert für etwa 20 000 Protein. Viele dieser Proteine sind noch nicht charakterisiert und ihre Funktion ist unbekannt. Der Schwerpunkt der Forschung liegt auf bereits gut untersuchten Proteinen; dies gibt zur Besorgnis Anlass, dass in den vernachlässigten Teilen des Genoms/Proteoms wichtige biologische Prozesse kodiert sind. Um dem entgegenzuwirken, hat ein britisches Forscherteam eine "Unknome-Datenbank" entwickelt, in der die Proteine danach geordnet sind, wie wenig über sie bekannt ist. Die Datenbank soll die Auswahl bislang schlecht oder gar nicht charakterisierter Proteine von Menschen oder Modellorganismen erleichtern, damit sie gezielt untersucht werden können.

Das Human Genome Project

Mit der (nahezu) vollständigen Sequenzierung des menschlichen Genoms vor 20 Jahren ist zweifellos eine neue Ära der Biowissenschaften angebrochen. Tausende Wissenschafter, die rund um den Globus am Human Genome Project beteiligt waren, konnten einen lange angezweifelten Erfolg von "Big Science" feiern und eröffneten ein Eldorado an genetischen Informationen, das für jeden Interessierten frei zugänglich ist. Forscher wie Geldgeber (aus staatlichen Organisationen und Industrie) gingen davon aus, dass man nun schnell zu einem neuen Verständnis der Biologie des Menschen und seiner Krankheiten gelangen würde. Man erhoffte so in wenigen Jahren viele neue Zielstrukturen (Targets), die zumeist Proteine sind, für die Entwicklung erfolgversprechender Medikamente zu entdecken. Um den damaligen US-Präsidenten Bill Clinton anlässlich der Präsentation des ersten drafts des Human Genome Projects im Juni 2000 zu zitieren "werde das Projekt die Diagnose, Prävention und Therapie der meisten, wenn nicht aller Erkrankungen des Menschen revolutionieren “ und als eine wesentliche Aufgabe sah Clinton: "wir müssen die Fülle von Genomdaten durchforsten, um jedes menschliche Gen zu identifizieren. Wir müssen die Funktion dieser Gene und ihrer Proteinprodukte herausfinden, und dann müssen wir dieses Wissen schnell in Behandlungen umsetzen, die das Leben verlängern und bereichern können" [1].

20 Jahre später sind auch die letzten Lücken im menschlichen Genom geschlossen. Mit neuen Technologien, die einen Preissturz der Sequenzierungen herbeiführten und sie beinahe schon für jeden erschwinglich machten, wurden bislang die Genome von mehr als einer Million Menschen sequenziert. Abbildung 1 zeigt ein vereinfachtes Schema der Genomsequenzierung.

Abbildung 1 Schema der Gensequenzierung. Francis S. Collins, berühmter Pionier der Genforschung und damals Direktor des National Human Genome Research Institute (NHGRI) der NIH war de facto Leiter des aus Tausenden Forschern bestehenden International Human Genome Sequencing Consortium im Humangenomprojekt. Das NHGRI spielte darin eine wichtige Rolle Viele der neuen Technologien wurden im Rahmen und mit Unterstützung des Genomtechnologie-Programms des NHGRI entwickelt. (Bild: https://www.genome.gov/about-genomics/fact-sheets/DNA-Sequencing-Fact-Sheet; cc 0)

Es wurden bislang zahlreiche Gene identifiziert , die mit Krankheiten assoziiert sind; dies kann frühe Diagnosen ermöglichen, bevor noch klinische Symptome auftreten. Zu den wichtigsten Erkenntnissen der Genomanalyse zählen zweifellos die Variationen in unseren Genen, die jeden von uns zu einem unterschiedlichen Individuum machen und sich auch auf unseren gesundheitlichen Status und auf das Krankheitsrisiko auswirken. In Folge ist eine Personalisierte Medizin entstanden, die diese Informationen in gezielte individuelle Behandlungen umsetzen möchte. (Basierend auf dem Genom eines Patienten können beispielsweise die für ihn geeignetsten - d.i. wirksamsten, nebenwirkungsärmsten - Medikamente ermittelt werden.)

Viele Gene und Proteine liegen noch im Dunkeln

Die Kenntnis aller Gensequenzen hat allerdings nicht zu einem wesentlichen Anstieg der Entdeckungsrate neuer Genfunktionen geführt, diese ist seit 2000 sogar noch zurück gegangen [2]. Es gibt einen hohen Anteil an Genen, deren Funktion unzureichend oder noch gar nicht charakterisiert ist. Dies gilt auch für die Charakterisierung der Proteine. Insgesamt enthält das Humangenom den Bauplan (d.h. es kodiert) für etwa 20.000 Proteine, Tausende davon waren zuvor in biochemischen und/oder genetischen Studien noch nicht identifiziert worden. Für viele dieser neuen Proteine ist auch 20 Jahre nach ihrer Entdeckung die Funktion noch unbekannt.

Ein rezenter Überblick über die biomedizinische Literatur bis 2017 zeigt, dass von rund 2000 Proteinen praktisch noch keine Informationen vorliegen und von rund 4600 Proteinen nur spärliche (d.i. 1 bis 10) Veröffentlichungen, dass also 37 % unserer Proteine nur unzureichend beschrieben sind [2]. Abbildung 2. Dagegen handelt es sich bei den am häufigsten - d.i. in mehr als 500 Veröffentlichungen - publizierten Genen und auch Proteinen um Biomoleküle, die ohnehin bereits gut charakterisiert sind.

Wie die Autoren des Übersichtartikels schlussfolgern "gibt es keine offensichtlichen wissenschaftlichen oder finanziellen Gründe für den Rückgang bei der Entdeckung biomolekularer Mechanismen; wahrscheinlich regen die derzeitigen Instrumente der Wissenschaftsförderung Forscher nicht dazu an oder entmutigen sie sogar sich mit den schwierigen Probleme der Entdeckung von Genfunktionen abzugeben."[2].

Natürlich ist auch eine gewisse Bequemlichkeit nicht von der Hand zu weisen. Der Ausflug ins Neuland erfordert ja proteinspezifische Reagenzien - Antikörper, Inhibitoren - und die Suche nach in vitro Systemen, die das neue Protein in ausreichendem Maße exprimieren.

Abbildung 2. Status der bis 2017 vorhandenen Literatur zu Proteinen und für Proteine codierende Gene im humanen Genom. A) Anteil der Proteine, die in <1 bis >500 Veröffentlichungen beschrieben wurden. B) 94 % der gesamten Literatur über Protein-kodierende Gene bezieht sich auf solche, über die in mehr als 500, bzw. 100 bis 500 Arbeiten berichtet wurde. (Bild aus [2]: Sinha et al., Proteomics 18, 2018. https://doi.org/10.1002/pmic.201800093    PMID: 30265449. Lizenz: cc-by-nc.)

Die Unknome Datenbank ...........

Die wissenschaftliche Forschung hat sich also bis jetzt auf gut untersuchte Proteine konzentriert und schlecht erforschte Gene mit möglicherweise wichtigen physiologischen Funktionen vernachlässigt. Dies hat zu der Besorgnis geführt, dass wichtige Grundlagen oder klinische Erkenntnisse sowie das Potenzial für therapeutische Interventionen unerkannt bleiben; mehrere Initiativen wurden daher gestartet, um das Problem anzugehen.

Eine dieser Initiativen ist die von Wissenschaftern in Großbritannien eingerichtete frei zugängliche, benutzergseteuerte Datenbank "Unknome" (zusammengesetzt aus "Unknown" und "Genome"), die anderen Wissenschaftern einen Anreiz geben soll , Licht in das Dunkel der unerforschten Gene/Genprodukte zu bringen (homepage: https://unknome.mrc-lmb.cam.ac.uk/about/) [3].

In der "Unknome"-Datenbank wird jedes Protein anhand eines "Bekanntheitsgrades" (Score) danach eingestuft, wie viel oder wie wenig die Wissenschaftler darüber - u.a. über Funktion, artenübergreifende Konservierung in Spezies, Lokalisierung in Zellen, etc. - wissen.

..............und ihre Brauchbarkeit zur Identifizierung von Funktionen bislang unbekannter Gene

Um die Brauchbarkeit von Unknome als Grundlage für experimentelle Arbeiten zu bewerten, haben die Forscher eine Reihe von 260 menschlichen Proteinen ausgewählt, die in orthologer Form (d.i. in hoch konservierter Basenabfolge) auch in dem Modellorganismus der Fliege Drosophila vorliegen, und deren Funktion in beiden Spezies noch unbekannt war (Score < 1) [3]. Um den Beitrag dieser orthologen Gene zu einem breiten Spektrum biologischer Prozesse zu testen, haben sie diese Gene nacheinander (mit Hilfe von RNA-Interferenz) (partiell) ausgeschaltet. Für 62 dieser Gene war ein kompletter Knockout mit dem Überleben der Fliege nicht vereinbar. Unter den restlichen nicht-essentiellen Genen wurden 59 entdeckt, die zu wichtigen biologischen Funktionen beitragen, darunter zu Fertilität, Entwicklung, Gewebewachstum, Qualitätskontrolle von Proteinen (Entfernung schadhafter Proteine), Widerstandsfähigkeit gegen Stress, Fortbewegung, Signalübertragung über den Notch-Signalweg [3].

Ob und welche Effekte die orthologen Gene beim Menschen haben, ist noch nicht untersucht. Jedenfalls kann aber gefolgert werden, dass in den bislang vernachlässigten Teilen des Genoms/Proteoms wichtige biologische Prozesse kodiert sind.

Fazit

Die Unknome-Datenbank ist eine Ressource für Forscher, welche die Chancen unerforschter Bereiche der Biologie nutzen wollen. In ihrer Studie zeigen die britischen Forscher auf, dass trotz jahrzehntelanger umfangreicher genetischer Untersuchungen es offensichtlich viele Fliegengene gibt, deren essentielle Funktionen noch unbekannt sind; dasselbe gilt auch für die orthologen Gene des Menschen. Die Forscher hoffen, dass sich diese Datenbank mit zunehmender Nutzung in den kommenden Jahren verkleinern und neue biologische und therapeutische Erkenntnisse liefern wird. Dabei ist nicht auszuschließen, dass man auf völlig neue Bereiche biologischer Funktionen stößt.


[1] June 2000 White House Event: https://www.genome.gov/10001356/june-2000-white-house-event

[2] S. Sinha et al., Darkness in the Human Gene and Protein Function Space: Widely Modest or Absent Illumination by the Life Science Literature and the Trend for Fewer Protein Function Discoveries Since 2000. Proteomics 2018, 18, 1800093. DOI: 10.1002/pmic.201800093

[3] Rocha JJ, et al. (2023) Functional unknomics: Systematic screening of conserved genes of unknown function. PLoS Biol 21(8): e3002222. https://doi.org/10.1371/journal.pbio.3002222


 

inge Sat, 12.08.2023 - 00:06

Luftverschmutzung in Europa: Ammoniak sollte vordringlich reduziert werden

Luftverschmutzung in Europa: Ammoniak sollte vordringlich reduziert werden

Fr, 04.08.2023— IIASA

IIASAIcon Politik & Gesellschaft Bei der Verringerung der Luftverschmutzung steht Europa noch vor zahlreichen Herausforderungen. Ein Zuviel an reaktivem Stickstoff (Nr) - dieser schließt Stickoxide (NOx) und Ammoniak (NH3) mit ei n - trägt in Europa stark zur Luftverschmutzung durch Feinstaub (PM2.5) bei und stellt eine Bedrohung für die öffentliche Gesundheit dar. In der Entwicklung kosteneffizienter Fahrpläne zur Reduzierung der PM2,5-Belastung müssen sowohl die Effizienz der Reduzierung als auch die Implementierungskosten berücksichtigt werden. Ein internationales Team aus Forschern des IIAS A (International Institute for Applied Systems Analysis (IIASA, Laxenburg bei Wien), der Universität für Bodenkultur (Wien), der Universität von Zielona Gora (Polen) und der Peking University haben in einer neuen Studie die Reduzierung von Ammoniakemissionen als kosteneffiziente Maßnahme zur Verringerung der Feinstaubkonzentration in der Atmosphäre ermittelt.*

Zu den weltweit, auch in Europa führenden Umweltrisikofaktoren für vorzeitige Todesfälle zählen Verschmutzungspartikel mit einem Durchmesser von weniger als 2,5 Mikrometer in der uns umgebenden Luft; diese werden auch als Feinstaub oder PM2,5 (PM: Particulate Matter)bezeichnet. Zwar konnten bereits die Emissionen von Luftschadstoffen wie Schwefeldioxid, Feinstaub und Stickoxiden erfolgreich reduziert werden konnten, es werden aber die neuen von der Weltgesundheitsorganisation (WHO) festgelegten Richtlinien für Luftqualität (PM2,5-Jahresmittel 5 μg/m3) in vielen Teilen des Kontinents immer noch überschritten: im Jahr 2019 war dies für 97 % der europäischen Messstationen der Fall.

Ein Zuviel an reaktivem Stickstoff (Nr), inklusive Stickoxiden (NOx = NO + NO2), Ammoniak (NH3), Nitrat (NO3-) und Ammonium (NH4+), ist eine anerkannte Umweltbedrohung für Ökosysteme und verschlechtert die Qualität von Luft, Boden und Wasser. Die anthropogenen Stickstoffquellen haben seit 1960 dramatisch zugenommen, wodurch sich der globale Stickstoffkreislauf und die daraus resultierenden schädlichen Auswirkungen auf die menschliche Gesundheit und die Ökosysteme verschärft haben. Die Begrenzung der anthropogenen Stickstoffemissionen (hauptsächlich NOx und NH3) hat für den Umweltschutz hohe Priorität.

Wie die Autoren der neuen Studie, die soeben im Fachjournal Nature Communications veröffentlicht wurde [1] berichten, könnte das Aufhören der Ammoniak- und Stickoxidemissionen die PM2,5-Konzentration in Europa im Jahresdurchschnitt um 2,3 µg/m3 senken und jährlich etwa 100 000 vorzeitige Todesfälle verhindern. Abbildung 1. Für diese Aussagen beziehen die Autoren Schätzungen der Emissionen mit ein, Modellierungen von Luftqualität und der Relation Exponierung-Mortalität, Experimente zur Kontrolle von Nr. und Daten der Implementierungskosten.

Wenn es darum geht die Umweltverschmutzung zu verringern, hat die Senkung der Stickoxide eine permanente Wirkung. Die Reduzierung von Ammoniak ist sofort nicht gleich wirksam, wird aber entscheidend, wenn man eine erhebliche Verringerung der Verschmutzung anstrebt. Zudem ist bei gleich großer Verringerung der PM2,5-Belastung die Reduzierung der Ammoniakemissionen fünf- bis zehnmal so kosteneffizient; dies macht deutlich, dass ein Fokus auf die Verringerung der Ammoniakemissionen von entscheidender Bedeutung ist, um eine weitgehende Senkung der Luftverschmutzung in ganz Europa zu erreichen.

Abbildung 1. Der Beitrag der Emissionen von reaktivem Stickstoff (Nr) zur PM2,5-Luftverschmutzung über Europa für das Jahr 2015. Veränderungen der PM2,5-Konzentrationen (Delta PM2,5) bei Aufhören der a) anthropogenen Nr (NOx+NH3)-Emissionen, b) der NOx-Emissionen und c)der NH3-Emissionen (c).

N-Anteile an der PM2,5-Luftverschmutzung durch Emissionen von d) Nr, e) NOx (e), und f) NH3. (Abbildung und Legende (von Redn. übersetzt und eingefügt aus Liu et al., 2023, Lizenz: cc-b [1].)

" In unserem Modellierungsansatz konnten wir unterschiedliche chemische Regulatorsysteme feststellen. Die Auswirkungen sind in den verschiedenen Teilen Europas unterschiedlich, da die anfängliche chemische Zusammensetzung der Atmosphäre variiert", erklärt Zehui Liu, Hauptautor der Studie und Forscher am Laboratory for Climate and Ocean-Atmosphere Studies (Universität Peking, China).

"Wir sehen den gleichen Effekt, wenn die Emissionsminderung erfolgreich anläuft - sobald die Stickoxide reduziert sind, wird es immer wichtiger, Ammoniak zu entfernen".

Die Autoren sind der Überzeugung, dass ihre Ergebnisse einen Beitrag zur Festlegung politischer Prioritäten leisten werden. "Die meisten Stickoxidemissionen stammen von Fabriken und Fahrzeugen, und wir haben bereits Schritte unternommen, um diese zu kontrollieren. In der Landwirtschaft, die die Hauptquelle für Ammoniakemissionen ist, haben wir jedoch kaum Fortschritte gemacht. Das bedeutet eine Chance durch die Umsetzung wirksamer Maßnahmen im Agrarsektor positive Ergebnisse zu erzielen", bemerkt Wilfried Winiwarter, Mitautor der Studie und leitender Wissenschaftler in der IIASA-Forschungsgruppe für Umweltverschmutzung.

"Wir haben festgestellt, dass die Verbesserungen der Luftqualität von Region zu Region unterschiedlich sind. Eine weitere Verbesserung der Luftqualität bei Feinstaub würde darüber hinaus auch strengere Kontrollmaßnahmen für andere Schadstoffe als Stickoxide und Ammoniak erfordern", ergänzt Harald Rieder, ein weiterer Mitautor der Studie und Professor an der Universität für Bodenkultur (BOKU) Wien.

"Wir können auch für andere Teile der Welt, wie China und Indien Erfahrungen sammeln. Nachdem wir in China erfolgreich mit der Verringerung der Luftverschmutzung begonnen haben, müssen wir nun die nächsten Schritte zur Emissionsreduzierung festlegen", schließt Lin Zhang, Mitautor der Studie und Professor an der Universität Peking.


 [1]Liu, Z., Rieder, H.E., Schmidt, C., Mayer, M., Guo, Y., Winiwarter, W., and Zhang, L. (2023). Optimal reactive nitrogen control pathways identified for cost-effective PM2.5 mitigation in Europe. Nature Communications 14, 4246. DOI: 10.1038/s41467-023-39900-9; open access.


*Der Blogartikel basiert auf der IIASA-Presseaussendung “ Ammonia reduction should be prioritized in Europe’s fight against air pollution

https://iiasa.ac.at/news/jul-2023/ammonia-reduction-should-be-prioritized-in-europes-fight-against-air-pollution vom 26. Juli 2023. Diese wurde von der Redaktion aus dem Englischen übersetzt, geringfügig für den Blog adaptiert und mit Texten und mit Abbildung 1 aus der zugrundeliegenden Veröffentlichung [1] ergänzt. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Luftverschmutzung im ScienceBlog:


 

inge Fri, 04.08.2023 - 15:24

Welche Bedeutung messen EU-Bürger dem digitalen Wandel in ihrem täglichen Leben bei? (Special Eurobarometer 532)

Welche Bedeutung messen EU-Bürger dem digitalen Wandel in ihrem täglichen Leben bei? (Special Eurobarometer 532)

Sa, 29.07.2023 — Redaktion Redaktion Icon Politik & Gesellschaft

Internet und digitale Werkzeuge sind nicht länger ein Spielzeug für anfängliche Anwender, sondern für Bürger, Unternehmen, Organisationen und Regierungen zu einem wesentlichen Bestandteil der heutigen Gesellschaft geworden. Im "Politikprogramm 2030 für die digitale Dekade" sind EU-Mitgliedstaaten und EU-Kommission gemeinsame Verpflichtungen eingegangen, die mit konkreten und überprüfbaren Zielvorgaben und Zielpfaden den digitalen Wandel vorantreiben sollen. Vier Ziele stehen dabei im Fokus: die Erhöhung der digitalen Kompetenzen, die sichere und nachhaltige digitale Infrastruktur, der digitale Wandel in Unternehmen und die Digitalisierung öffentlicher Dienste. Wie die EU-Bürger den digitalen Wandel und dessen Auswirkungen auf ihr persönliches Leben und die Gesellschaft betrachten, hat kürzlich eine europaweite Umfrage erhoben (Special Eurobarometer 532: The Digital Decade [1]).

Wie bereits erstmals im Jahr 2021 [2] wurde auch in der aktuellen Umfrage ermittelt, wie EU-Bürger die Zukunft von digitalen Werkzeugen und Internet und sehen und welche Auswirkungen ihrer Meinung nach Internet, digitale Produkte, Dienstleistungen und Werkzeuge bis 2030 auf ihr persönliches Leben haben werden.

Im Auftrag der EU-Kommission ließ Kantar Public (Kantar Belgium) die Umfrage in den 27 Mitgliedstaaten vom 2. bis 26. März 2023 durchführen; insgesamt 26 376 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1000 Personen je Mitgliedsland - nahmen teil. Diese wurden persönlich (face to face) in ihrem Heim oder in Video-Ferninteraktion in ihrer Muttersprache interviewt.

Der neue Bericht: Die digitale Dekade [1]

knüpft an die Ergebnisse der früheren Umfrage [2] an und behandelt das Thema in drei großen Fragenkomplexen.

Der erste Teil untersucht, wie wichtig digitale Werkzeuge und Internet nach Meinung der EU-Bürger in ihrem Leben bis 2030 sein werden und welche Auswirkungen aus deren Anwendung resultieren werden. Teilnehmer wurden gefragt, ob sie erwarteten, dass digitale Werkzeuge und Internet ihr tägliches Leben erleichtern werden, beispielsweise beim Zugang zu allgemeiner und berufsbildender Bildung, zu Gesundheitsdiensten oder zu Kontakten mit anderen Menschen.

Der zweite Teil des Berichts ermittelt, wie die EU-Bürger die nationalen Prioritäten im Bereich der digitalen Technologien einschätzen und welche Bedeutung sie der Zusammenarbeit der EU- Mitgliedstaaten in den digitalen Technologien beimessen (beispielsweise in Hinblick auf erhöhte Investitionen in innovativere und sicherere digitale Technologien oder, um sicherzustellen, dass die gleichen digitalen Technologien und Dienste für alle und überall in der EU zugänglich sind).

Der dritte Teil des Berichts befasst sich damit, wie EU-Bürger Anwendung und Schutz der Grundrechte im Onlinebereich wahrnehmen. Konkret wurden sie gefragt, ob ihnen bewusst ist, dass Rechte wie das Recht auf freie Meinungsäußerung Meinungsfreiheit, Privatsphäre oder Nichtdiskriminierung sowohl online als auch offline gelten sollten. Sie sollten auch angeben, wie gut ihrer Meinung nach die EU ihre Rechte im Onlinebereich schützt und wie gut die digitalen Rechte und Grundsätze in ihrem Land angewandt werden, z. B. in Bezug auf die Wahrung der Privatsphäre im Internet, d.i. das Respektieren der Vertraulichkeit von Kommunikation und Informationen auf Geräten.

Da die Darstellung der wesentlichen Umfrage-Ergebnisse die übliche Länge der ScienceBlog-Artikel weit übersteigt, wird über das für Europas Zukunft so wichtige Thema in zwei Teilen berichtet. Der gegenwärtige Artikel zeigt nur die Meinungen zum digitalen Wandel und dessen Auswirkungen auf zehn wesentliche Lebensbereiche auf (Teil 1 der Umfrage). Es werden dazu die Antworten der Bürger im EU27-Durchschnitt den Antworten unserer Landsleute in Österreich und unseren Nachbarn in Deutschland gegenüber gestellt.

Die Bedeutung der Digitalisierung im Alltag.................

Der (weitaus) überwiegende Anteil der Bevölkerung in allen Mitgliedstaaten ist der Ansicht, dass digitale Werkzeuge und Internet in ihrem Leben bis 2030 eine sehr wichtige oder ziemlich wichtige Rolle spielen werden. Insgesamt gesehen ist dies die Meinung von rund vier Fünftel der Bürger (79 %) im EU27-Schnitt. Die Länderanalyse zeigt allerdings große Unterschiede - während über 90 % der Bevölkerung in Holland, Schweden und Dänemark den digitalen Wandel für ihr persönliches Leben als wichtig betrachten, messen die Länder in Richtung Osten/Südosten dem offensichtlich weniger Bedeutung bei; Österreich (71 %) und Rumänien (59 %) sind die Schlusslichter. Abbildung 1.

Abbildung 1: Abbildung 1. Länderanalyse der Antworten auf Frage 1: Wie wichtig werden Ihrer Meinung nach digitale Technologien in ihrem Leben bis 2023 sein? Die Antworten "sehr wichtig" und "ziemlich wichtig" sind zusammengenommen in % der Antworten je Land angegeben. (Bild leicht modifiziert aus [1])

Im Vergleich zu 2021 ist in 22 Mitgliedstaaten der Anteil der Befragten, die angeben, dass digitale Werkzeuge und das Internet bis 2030 in ihrem Leben wichtig sein werden, aber zurückgegangen, vor allem in Belgien und Tschechien um 10%, in Finnland um 9 %, in Deutschland um 7 %; der EU-Schnitt lag 2021 bei 81 %, in Österreich bei 72 %, in Rumänien bei 61 % [2].

.......in wesentlichen Lebensbereichen

Insgesamt wurden die Teilnehmer zur Bedeutung der Digitalisierung bis 2030 für sie persönlich in zehn wesentlichen Lebensbereichen befragt. Die Antworten, gelistet nach fallender Wichtigkeit im EU27-Schnitt, sind in Abbildung 2 aufgezeigt und die jeweiligen Antworten aus Österreich und Deutschland gegenüber gestellt. Offensichtlich haben Teilnehmer aus Österreich und Deutschland die Rolle der Digitalisierung in allen diesen Bereichen für weniger wichtig gehalten, als dies im EU27-Schnitt der Fall war.

Abbildung 2: Antworten auf Fragen zur persönlichen Wichtigkeit des digitalen Wandels in bestimmten Lebensbereichen; im EU27-Schnitt, sowie in Österreich und Deutschland. Angaben in % der Antworten; Je EU27 und Land bedeuten dunklere Blautöne: sehr wichtig, hellere Blautöne: ziemlich wichtig, hellere Rosetöne: nicht sehr wichtig, dunkle Rosetöne: völlig unwichtig und Grautöne: keine Aussage. (Bilder von Redn. erstellt/modifiziert aus Abbildung QB2 und Daten von [1]).

Listet man die Wichtigkeit, die nach Meinung der Europäer digitale Technologien in ihrem persönlichen Leben bis 2030 spielen werden, so liegt an erster Stelle deren zentrale Rolle bei Kontakten mit anderen Menschen, Freunden und Familie: dies erwartet die weitaus überwiegende Mehrheit der EU27 (82 %); in Österreich sind dies 76 %, in Deutschland 74 %. Fast ebenso viele Europäer (81 %) sehen auch den digitalen Zugang zu öffentlichen Dienstleistungen als wichtig an (in Österreich 73 %, in Deutschland 77 %).

An dritter Stelle der Wichtigkeit scheint der digitale Wandel im Gesundheitswesen auf: 76 % im EU27- Schnitt (67 % in Österreich, 71 % in Deutschland) erwarten eine Verbesserung im Zugang zu Gesundheitsdienstleistungen oder in deren Inanspruchnahme. Ähnlich viele Europäer (EU27: 74 %, jeweils 70 % in Österreich und Deutschland) haben ähnliche Erwartungen in Bezug auf Online-Handel und Dienstleistungen mit anderen EU-Ländern, sowie für den Zugang zu und die Nutzung von Verkehrsdienstleistungen (EU27: 73 %, Österreich 62 %, Deutschland: 66 %).

In weiterer Folge geht es um die Rolle, die digitale Technologien für den Zugang zu Bildungs- und Aus- und Weiterbildungsmöglichkeiten spielen werden - etwa sieben von zehn Europäern (71 %) sehen diese als wichtig an; in Österreich sind dies nur 63 %, in Deutschland 68 %. Den Zugang zu, die Interaktion mit und/oder die Erstellung von Online-Materialien/Inhalten halten ebenso 71 % der EU27 für wichtig; in Österreich sind dies 62 %, in Deutschland 63 %.

Etwas mehr als zwei Drittel der EU-Bürger (68 %) erwarten, dass sich der digitale Wandel positiv auf die Art und Weise auswirkt, wie sich die Menschen am demokratischen Leben beteiligen; in Österreich sind dies 63 %, in Deutschland 65%.

Rund zwei Drittel (66 %) der Europäer meinen, dass digitale Technologien, wie beispielsweise zur Überwachung der persönlichen Emissionen, des Energieverbrauchs oder der Teilnahme an online-Meetings, einen wichtigen Beitrag im Kampf gegen den Klimawandel leisten können; 59 % der Österreicher und Deutschen teilen diese Meinung.

Eine Mehrheit (63 %) der Europäer erwartet, dass digitale Technologien einen großen Einfluss auf die Fernarbeit (Homeoffice) haben werden; in Österreich sind dies 57 % in Deutschland 56 %.

Eine demographische Analyse

der Antworten zeigt eine klare Abhängigkeit von Alter und Ausbildung der Befragten. Die Ansicht, dass digitale Werkzeuge und das Internet in Leben eine wichtige Rolle spielen werden, nimmt von der Altersgruppe 15 bis 24 Jahre bis zur Altersgruppe 40 - 54 Jahre kontinuierlich ab. Ab 55 Jahren erscheinen digitale Technologien dann im wesentlichen für den Kontakt mit anderen Menschen (71 %), den Zugang zu öffentlichen Diensten (68 %) und zu Gesundheitsdiensten (65 %) wichtig, in den meisten anderen Lebensbereichen ist die Wichtigkeit auf um die 50 % und darunter gesunken.

Insgesamt sehen Befragte mit Hochschulbildung digitale Technologien mit größerer Wahrscheinlichkeit als für ihr Leben wichtig an (90 %), als Absolventen mit einem Sekundarschulabschluss (16 bis 19 Jahre) (75 %) und Personen, die nur bis zum Alter von 15 Jahren zur Schule gingen (49 %).

Fazit

Wenn im Durchschnitt 79 % der EU-Bürger die Ansicht äußern, dass digitale Technologien für ihr Leben bis 2030 wichtig sein werden, so weist dies auf den ersten Blick auf eine sehr hohe Zustimmung zu einem schnellen Fortschreiten der europäischen Digitalisierung hin. Allerdings ist seit der ersten Umfrage 2021 der Anteil positiven Antworten in 22 der 27 EU-Mitgliedsländern gesunken, und es wird in dieser Umfrage auch nicht erhoben, ob und welche erforderlichen Kompetenzen die Befragten bereits besitzen. Verstörend sind die Antworten der Teilnehmer aus den "reichen" Ländern Österreich und Deutschland, welche die Rolle der Digitalisierung in allen Lebensbereichen für weniger wichtig halten, als dies im EU27-Schnitt der Fall ist. Insbesondere ist die Nutzung der digitalen Technologien für allgemeine und berufliche Bildung hervorzuheben, die 35 % der Österreicher und 28 % der Deutschen für unwichtig halten, und die Nutzung von Online-Materialien/Inhalten - diese halten 33 % der Österreicher und 32 % der Deutschen für unwichtig.

Im Übrigen weist die angegebene Wichtigkeit digitaler Technologien das gleiche Gefälle in Richtung Osten/Südosten auf, wie das Interesse der EU-Bürger an Wissenschaft und Technologie und ihre diesbezügliche Informiertheit [3].


 [1] Special Eurobarometer 532: The Digital Decade (June, 2023). doi: 10.2759/14051

[2] Special-Eurobarometer 518: Digital rights and principles (December 2021). doi: 10.2759/30275

[3] I. Schuster, 3.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit


 

inge Sat, 29.07.2023 - 17:45

Wenn das Wasser die Menschen verdrängt - Megastädte an Küsten

Wenn das Wasser die Menschen verdrängt - Megastädte an Küsten

Do, 20.07.2023 - Duška Roth

Duška Roth

Icon GeowissenschaftenSeit 2007 leben mehr Menschen in Städten als auf dem Land. Nach Schätzungen der Vereinten Nationen werden 2030 fünf von achteinhalb Milliarden Menschen in Städten wohnen. Schon heute gibt es 34 Städte beziehungsweise Metropolregionen mit mehr als 10 Millionen Einwohnern. Sie werden Megastädte oder Megacitys genannt und sind geprägt von Gegensätzen zwischen größter Armut und höchstem Luxus. Viele von ihnen liegen nah an der Küste. Damit sind sie durch den steigenden Meeresspiegel unmittelbar bedroht.*

Urbane Räume sind Anziehungspunkte für Menschen auf der Suche nach einem besseren Leben. Der stetige Zuwachs an Menschen stellt gerade die Metropolen des globalen Südens vor gewaltige strukturelle Probleme: Dort schreitet der Anstieg der Bevölkerung so rasant voran, dass Arbeitsplätze fehlen, die Behörden überfordert sind und der Ausbau von Infrastrukturen und Wohnraum nicht Schritt halten kann. Die Folgen sind sozioökonomische und räumliche Fragmentierungen der Stadtgesellschaft. Es entstehen informelle Stadtviertel, die je nach Region als Slums oder Favelas bezeichnet werden und von schlechter Baustruktur und prekären Lebensverhältnissen geprägt sind. Menschen, die dort wohnen, sind auf mehreren Ebenen marginalisiert: Sie sind sowohl räumlich als auch wirtschaftlich, politisch und sozial ausgegrenzt. So haben sie etwa einen schlechten oder gar keinen Zugang zu sauberem Wasser oder medizinischer Versorgung und können nur eingeschränkt auf Extremereignisse wie Erdbeben oder Hochwasser reagieren. Megastädte in Küstennähe sind daher vom Anstieg des Meeresspiegels infolge des Klimawandels besonders bedroht (Abbildung 1). Die meisten Megastädte und die größten Metropolregionen der Welt befinden sich in Asien – einer Region, die bereits heute von klimabedingten Extremereignissen stark betroffen ist und laut Experten auch in der Zukunft noch häufiger und stärker betroffen sein wird. Dort treffen Naturgefahren auf gesellschaftlich vermittelte Vulnerabilität.

Abbildung 1. Städte weltweit. Die Karte zeigt den prozentualen Anteil von Städten mit 500.000 oder mehr Einwohnern (Daten aus dem Jahr 2018). Vierzehn Länder oder Gebiete besitzen einen niedrigen Urbanisierungsgrad, d. h. weniger als 20 % ihrer Bevölkerung leben in städtischen Gebieten. Im Gegensatz dazu liegt der Anteil der städtischen Bevölkerung in 65 Ländern bereits bei über 80 Prozent. Viele Megastädte (rote Kreise) befinden sich an Küsten oder in Küstennähe. © United Nations, DESA, Population Division (2018) / CC BY 3.0 IGO

Land unter in Asien

Der globale Meeresspiegel ist im 20. Jahrhundert zunehmend angestiegen (Abbildung 2). Aufgrund der Trägheit des Klimasystems wird er – selbst bei einem sofortigen Stopp aller Treibhausgas-Emissionen – für mehrere Jahrhunderte weiter steigen. Hunderte Millionen Menschen, die weltweit in Küstennähe leben, sind durch diesen Anstieg bedroht. In Asien könnten Metropolen wie Shanghai, Hanoi, Dhaka, Mumbai, Jakarta oder Kolkata überflutet werden. Besonders gefährdet sind Delta-Gebiete – flache Regionen, die durch den Zusammenschluss von Flussarmen und deren Sedimentablagerungen entstehen. Solche Landstriche sind klassische Siedlungsgebiete für Menschen. Ein Grund sind die Schwemmböden, die mit nährstoffreichen Sedimenten aus dem Fluss versorgt werden. Diese fruchtbaren Böden bringen hohe Erträge in der Landwirtschaft, ihre Nutzung führt aber gleichzeitig zu Bodenabsenkungen: Als Folge der Trockenlegung im Zuge des Ackerbaus ziehen sich tiefer liegende Erdschichten zusammen. Dadurch entstehen Absenkungen, die sich über große Gebiete verteilen. In Ballungszentren wie Dhaka und Kolkata kommen Bodenversiegelung und die exzessive Entnahme von Grundwasser hinzu. So entstehen regionale Absenkungen von mehreren Zentimetern pro Jahr, die den lokalen Meeresspiegelanstieg verstärken. Häufiger auftretende Extremwetterlagen verursachen Sturmfluten, die im Zusammenspiel mit einem erhöhten Meeresspiegel katastrophale Folgen haben. Wohngebiete werden überflutet, das anbrandende Meerwasser trägt die Küste ab und vernichtet Lebensraum und Anbauflächen. Dies betrifft vor allem dicht besiedelte, informelle Siedlungen, die häufig in Küstennähe errichtet werden.

Abbildung 2. Anstieg des Meeresspiegels. Das Diagramm zeigt die Veränderung des globalen Meeresspiegels seit 1993, wie sie von Satelliten beobachtet wird. Infolge der globalen Erwärmung steigt der Meeresspiegel in einem Ausmaß an, wie es in den letzten 2.500 Jahren noch nie vorgekommen ist. © NASA‘s Goddard Space Flight Center

Als Ethnograf in der Megastadt

Die Metropolregion Kolkata befindet sich im bengalischen Delta am Fluss Hugli, einem Mündungsarm im westlichen Gangesdelta. Die Gegend liegt durchschnittlich nur sechs Meter über dem Meeresspiegel. Kolkata ist die Hauptstadt des Bundesstaates Westbengalen und mit ihren 4,5 Millionen Einwohnern (Zahlen vom letzten verfügbaren Zensus im Jahr 2011) die siebtgrößte Stadt Indiens. In der Metropolregion leben demnach 14,1 Millionen Einwohner. Andere, inoffizielle Schätzungen gehen von bis zu 30 Millionen aus. Damit bildet diese Region auf einer Fläche von 187,33 Quadratkilometern den drittgrößten Ballungsraum des Landes. Die Bevölkerungsdichte entspricht derjenigen, als würden alle Einwohner von Sachsen, Sachsen-Anhalt, Thüringen, Berlin, Mecklenburg-Vorpommern und Brandenburg auf einem Gebiet so groß wie Potsdam leben. Obwohl der Wohnraum immer knapper wird, ziehen mehr und mehr Menschen nach Kolkata. Was macht die Megastadt so attraktiv? Arne Harms, Wissenschaftler am Max-Planck-Institut für ethnologische Forschung in Halle, nennt zwei Faktoren: „Kolkata ist ein Sehnsuchtsziel für Migranten aus Indien, die in die Region ziehen, um ihr Überleben zu sichern. Jobs als Tagelöhner findet man dort relativ leicht. Aber Kolkata ist auch eine Stadt des kulturellen Erbes und für die Bengalen sehr bedeutsam.“ Hinzu kommt, dass viele Menschen aus den Küstenregionen in die Städte ziehen, weil sie wegen eines drohenden oder akuten Hochwassers ihre Wohnungen verlassen müssen. Um zu verstehen, wie ökologische und ökonomische Krisen oder die Globalisierung das Leben an der Küste verändern, verknüpft Harms Ansätze aus der politischen Ökologie und der Infrastrukturforschung.

Die politische Ökologie betrachtet Umweltprobleme in ihrem historischen, politischen und ökonomischen Kontext. Welche Rolle spielen wirtschaftliche Verhältnisse und Machtdynamiken für den Zugang zu Trinkwasser oder den Schutz vor Fluten? Wie beeinflusst der steigende Meeresspiegel politische und wirtschaftliche Entscheidungen und Abläufe? Fragen wie diese ermöglichen es, komplexe Zusammenhänge aufzudecken. Die Infrastrukturforschung beschäftigt sich zum Beispiel mit der Frage, wie Dämme, Straßen und Brücken die Entscheidungen und das Handeln der Menschen beeinflussen. Bei der Datenanalyse untersuchen Forschende die Interessen und Machtverhältnisse der beteiligten Akteure und deren konkrete Handlungsmuster. Harms Forschung dreht sich um das zentrale Thema, wie sich das Leben in Küstenregionen durch den steigenden Meeresspiegel und die Urbanisierung verändert. Um das herauszufinden, sammelt er bereits seit 2009 Daten – in Interviews und Gruppendiskussionen, durch teilnehmende Beobachtung und Experteninterviews sowie die Auswertung von Dokumenten und Archivmaterial.

Hochwasser als Teil des Lebens

Die rasant wachsenden Slums in Kolkata sind besonders anfällig für extreme Naturereignisse. Aus Mangel an Alternativen entstehen sie oft an gefährdeten Standorten und sind daher ausgesprochen vulnerabel. Arne Harms befasst sich vor allem mit der sozialen Vulnerabilität der Bewohner: Inwiefern sind gesellschaftliche, soziale, ökonomische und naturräumliche Kategorien dafür verantwortlich, dass sich Menschen in vulnerablen Situationen befinden? Gleichzeitig untersucht er auch die Resilienz der Menschen – die Kapazitäten, aus denen sie schöpfen, um ihr Überleben zu sichern. „An der bengalischen Küste sind Überflutungen ein rhythmisch wiederkehrendes Phänomen“, sagt der Wissenschaftler. Diese Rhythmik betrifft zum einen die Jahreszeiten: In der Regenzeit sind die Wasserstände höher und die Deiche einem höheren Druck ausgesetzt. Dadurch erodiert das Land stärker. Die Rhythmik folgt aber auch den Mondphasen, denn bei Vollmond und Neumond sind die Gezeitenfluten höher als an anderen Tagen. Weil beides verzahnt ist, gelten die Vollmonde der Regenzeiten als die gefahrvollste Zeit: Deiche brechen und Menschen verlieren ihre Häuser. Schließlich ist auch das Leben mit Landverlust rhythmisch, denn mit den wiederkehrenden Fluten fallen immer wieder Teile der Küste der Erosion zum Opfer.

Die Menschen in der Region wissen um die Gefahr wiederkehrender Hochwasser und reagieren innerhalb ihrer Möglichkeiten. Sie ziehen weiter ins Landesinnere, wenn sie bei Bekannten oder Verwandten unterkommen oder es sich leisten können, ein Stück Land zu kaufen. Viele ziehen in notdürftig errichtete Hütten am Straßenrand. Dort werden sie häufig wieder von Flut und Erosion eingeholt, und der Prozess der Vertreibung durch das herannahende Wasser beginnt von neuem. In unmittelbaren Küstengebieten am Rand der Metropolregion bietet sich ein ähnliches Bild: „Die meisten Menschen, mit denen ich gesprochen habe, suchten in einiger Entfernung von der Küste Sicherheit, nur um vom herannahenden Meer nach ein paar Monaten oder Jahren wieder eingeholt zu werden“, sagt Arne Harms. „Sie erleben also einen Wechsel von sicheren, trockenen Perioden und Zeiten, in denen sie unmittelbar vom Meer bedroht sind. Etliche haben bereits fünf- oder sechsmal ihre Bleibe verloren.“ Doch trotz der immer wiederkehrenden Gefahr durch das Wasser ziehen nur wenige weiter weg: „Die gewohnte Umgebung, die lokalen Netzwerke und gemeinsame Geschichten bieten den Menschen Sicherheit“, sagt der Wissenschaftler. Hinzu kommt, dass die Migration in weit entfernte Städte im Landesinneren viele Gefahren birgt: „Die meisten, die auf diversen Migrationspfaden unterwegs sind, kommen mit ziemlich üblen Geschichten nach Hause. Viele werden von Mittelsmännern um ihren Lohn gebracht. Sexuelle Übergriffe sind an der Tagesordnung, besonders auf Frauen, die ihr Geld als Hausangestellte verdienen. In der Ferne erleben die Menschen Entrechtung, Willkür, und Ausbeutung. Deshalb bleiben sie lieber dort, wo sie sind, und verharren in ihrer vulnerablen und marginalisierten Lage.“

Hinzu kommt, dass die Behörden von Kolkata mit dem rasanten Bevölkerungswachstum längst überfordert sind. Oft werden die marginalisierten Teile der Bevölkerung bei der Stadtplanung benachteiligt. Stattdessen setzen sich immer mehr die Ideale der Mittelklasse durch. Informelle Siedlungen finden darin keinen Platz, denn sie gelten als Orte von Krankheit, Armut und Schmutz. Harms schildert, dass die Menschen in den Slums faktisch entrechtet werden. Sie sehen sich vom Bauboom überrollt, durch Gentrifizierung verdrängt: „Neue Skyscraper-Bauprojekte sind nur für die Mittelklasse vorgesehen, welche die Arbeitskraft der marginalisierten Bevölkerung nutzt, etwa als Bauarbeiter oder Hausangestellte. Rehabilitationsprojekte für informelle Siedlungen werden am Stadtrand geplant, weit entfernt von guten Arbeitsplätzen und Einkommensmöglichkeiten. Sie sind daher oft von vornherein zum Scheitern verurteilt.“ In Folge siedeln sich die Menschen wieder auf Freiflächen an, die näher am Zentrum liegen. So schaffen sie neue informelle Strukturen und Siedlungen. Es entsteht ein Kreislauf, „ein Ziehen und Zerren um Land und Ressourcen“, so Harms. Der Wissenschaftler hat in Kolkata mit Herrn Das gesprochen. Dieser ist im Alter von 37 Jahren in die Stadt gezogen. Wegen der Fluten und der Küstenerosion hatte er zuvor fünfmal seine Bleibe verloren. Im Dorf an der Küste sah er daher für sich und seine Familie keine Zukunft. Doch wie er sagt, werde auch das Leben in dem Viertel, in dem er jetzt wohnt, immer schwieriger – vor allem wegen wachsender Probleme, an Trinkwasser zu kommen. Zudem steht er kurz davor, sein Haus erneut zu verlieren: Die informelle Siedlung, in der er mit seiner Familie wohnt, muss weiteren Hochhäusern weichen. So haben Flut und Erosion einerseits sowie Gentrifizierung andererseits für die Menschen im bengalischen Delta letztlich die gleichen Auswirkungen: Sie wissen nicht, wo sie bleiben sollen (Abbildung 3).

Abbildung 3. Vulnerable Bevölkerung. Menschen in küstennahen Metropolregionen müssen aufgrund von Hochwasser immer wieder umziehen. Die farbigen Pfeile zeigen Kreisläufe. Rot: Menschen verlieren ihren Wohnraum und siedeln sich in einiger Entfernung von der Küste wieder an. Dort werden sie nach kurzer Zeit von der nächsten Überschwemmung eingeholt. Blau: Menschen ziehen an den Stadtrand. Es bilden sich informelle Siedlungen, die überschwemmt werden, die Menschen müssen neue Wohnplätze suchen. Grün: In den Slums werden Menschen durch Gentrifizierung verdrängt und siedeln sich wieder auf Freiflächen an, die näher am Zentrum liegen. So entstehen neue informelle Siedlungen. © MPG / CC BY-NC-SA 4.0

Wenn das Wasser steigt

Eine Möglichkeit, den Überflutungen durch den steigenden Meeresspiegel entgegenzuwirken, ist der Bau von Deichen. „Diese bieten aber nur eine trügerische Sicherheit“, sagt Arne Harms. „Durch das Absinken des Bodens bildet sich hinter dem Deich eine Art Tasse, die bei einem Dammbruch vollläuft und aus der das Wasser nicht mehr ablaufen kann. Deiche bieten daher keinen ausreichenden Schutz. Sie vermitteln zunächst Sicherheit, doch wenn sie brechen, sind die Folgen umso gravierender.“ Eine andere Lösung besteht darin, das Wasser abzupumpen. In Kolkata haben Stadtplaner und Investoren einen großen innerstädtischen Bereich, den Salt Lake District, weitgehend überschwemmungssicher gemacht. Sie haben das Land höher gelegt, Pumpen installiert, Schleusen und Dammsysteme gebaut – ein gigantischer Aufwand zum Hochwasserschutz. Heute wohnt in dem Gebiet eine wohlhabende Bevölkerung. In seinem Umkreis wachsen dagegen die informellen Siedlungen derjenigen, die Dienstleistungen für die Reichen erledigen. „Diese Menschen leben mit einem nochmals höheren Hochwasserrisiko, weil dort zusätzlich das Wasser aufläuft, das aus den geschützten Bereichen abgepumpt wird“, sagt Arne Harms. „So gehen derlei Prestigeprojekte an einer Lösung vorbei, weil sie die Frage der sozialen Verwundbarkeit ausklammern.“ Bisherige Hochwasserschutzprogramme in der Region konzentrieren sich vor allem auf Schutzräume für den Ernstfall, sogenannte Cyclone Shelter. Während diese bei Sturmfluten Menschenleben retten, können sie dem Problem versinkender Landschaften nichts entgegensetzen. So müssen die Menschen, die in informellen Siedlungen an den gefährdeten Stadträndern leben, in ihrem Alltag mit der ständig drohenden Katastrophe zurechtkommen. Um ihren Lebensraum zu erhalten, reparieren sie teils in Eigenregie und damit illegal die Deiche. So schützen sie – weitgehend unbemerkt – auch die Menschen im Inland.

Verteilte Katastrophe

Auf der Grundlage seiner Forschung im Raum Kolkata entwickelte Arne Harms die These der „Verteilten Katastrophe“. Sie schlägt nicht als ein weithin sichtbares Schadensereignis zu, sondern ist verteilt in Raum und Zeit. In den Küstenregionen tritt sie in breiter Front auf, geprägt durch Jahreszeiten und Gezeiten. Die Menschen, die mit dieser konstanten Bedrohungslage leben, sehen die „echte Katastrophe“ in der Küstenerosion. Sie raubt ihnen das Land und damit die wichtigste Grundlage von Ökonomie, Zugehörigkeit und Geschichte. „Die Sorgen jener Menschen im bengalischen Delta, die mit bröckelnden Deichen, wiederkehrenden Überschwemmungen und dem Verschwinden von Land zu kämpfen haben, bleiben von staatlichen Institutionen und den mit humanitärer Hilfe beauftragten NGOs bisher weitgehend unberücksichtigt“, sagt der Wissenschaftler. „Trotz ihrer gravierenden Auswirkungen bleibt die Küstenerosion unter dem Radar des Nothilfeapparats. Daher ist nur wenig über das Leid der Menschen bekannt, die am Rand der erodierenden Küstenlinie Indiens ausharren.“ Um soziale Gerechtigkeit zu fördern, fordert der Max-Planck-Forscher deshalb eine neue Definition der Katastrophe: „Der Begriff „Katastrophe“ bezeichnet meist großflächige Schadensereignisse, die massenhaft Tod und Zerstörung bringen. Eine neue Definition müsste auch solche Dynamiken beinhalten, die räumlich und zeitlich entgrenzt und nur selten tödlich sind, die aber eine existenzielle Bedrohung darstellen und daher von den Menschen als Katastrophe erlebt werden.“ Was fehlt, sind nach Ansicht des Wissenschaftlers vor allem Ansätze einer gerechten Umsiedlung sowie ein ausgeklügelter Küstenschutz, der auch verarmte Küstengebiete und deren Bewohner berücksichtigt: „Nur so lässt sich die Bedrohung durch den weiter steigenden Meeresspiegel in den dicht besiedelten Küstenregionen Asiens abmildern.“


* Der Artikel von Duška Roth ist unter dem Titel: " Megastädte an Küsten- Wenn das Wasser die Menschen verdrängt " im Geomax 28-Heft der Max-Planck-Gesellschaft im Sommer 2023 erschienen https://www.max-wissen.de/max-hefte/geomax-28-megastaedte/. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


inge Thu, 20.07.2023 - 16:50

Schadstoffe - Pathogene Effekte auf die grauen Zellen

Schadstoffe - Pathogene Effekte auf die grauen Zellen

Do. 13.07.2023— Susanne Donner

Susanne DonnerIcon Gehirn

Viele tausend Schadstoffe befinden sich in Luft, Wasser, Boden und Nahrung und Milliarden Menschen sind diesen ausgesetzt. Schadstoffe können dem Gehirn zusetzen, Stress, Entzündung und Zelltod auslösen. Am Lebensanfang, wenn das Gehirn sich entwickelt und am Lebensende, wenn natürliche Abbauvorgänge einsetzen, ist es besonders empfindlich für Umwelteinflüsse. Luftverschmutzung, besonders die Belastung mit Feinstaub, trägt zu kognitiven Defiziten am Lebensanfang und zu Demenzen am Lebensende bei. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner berichtet über die ernste Bedrohung der globalen Gesundheit, die mit der zunehmenden Menge an Schadstoffen einhergeht.*

Auch an sonnigen Tagen ist Mexiko-Stadt in einen weiß-bräunlichen Dunst gehüllt, den die 21 Millionen Bewohner nur sehen können, wenn sie sich aus dem Ballungsraum entfernen und auf ihre Stadt hinunterschauen. Wer sich dagegen in der Innenstadt aufhält, bemerkt nur eines: Haut und Kleidung sind nach einem Tagesausflug vom Zócalo bis zur barocken Kathedrale mit einem bräunlichen Schleier überzogen.

Die Kinderärztin und Neurowissenschaftlerin Lilian Calderón-Garcidueñas kennt das zur Genüge, da sie sowohl in Mexiko-Stadt als auch in den USA arbeitet. Schon lange hegte sie den Verdacht, dass die feinstaubschwangere Luft Kindern schadet. Mit einer Untersuchung wollte sie endlich für Klarheit sorgen: Sie verglich die geistigen Fähigkeiten von 55 Kindern aus der Hauptstadt mit denen aus einer Kleinstadt des Landes. Und tatsächlich schnitten die Großstadtsprösslinge in den Tests deutlich schlechter ab. In Magnetresonanztomografie-Aufnahmen des Gehirns entdeckte Calderón-Garcidueñas bei 56 Prozent der Kinder Entzündungsherde im präfrontalen Cortex. Hier, im Frontallappen, werden Sinneswahrnehmungen zusammengeführt. Er spielt deshalb eine Schlüsselrolle beim Planen von Handlungen, beim Entscheiden, und auch beim Lernen.

Verursacht die schmutzige Luft die Entzündungen im Gehirn und die kognitiven Defizite? Auf der Suche nach einer Antwort untersuchte Calderón-Garcidueñas das Gehirn von sieben jungen Hunden aus Mexiko-Stadt. Und tatsächlich fand sie auch hier Entzündungsherde bei vier Tieren. Mehr noch: Sie konnte Ablagerungen von Feinstaub nachweisen und eine abnorme Aktivierung von Mikroglia, den Immunzellen des Gehirns. „Die Luftverschmutzung beeinträchtigt das reifende Gehirn, sie erklärt kognitive Defizite in gesunden Kindern“, warnte die Kinderärztin 2008 in einer viel beachteten Veröffentlichung im Journal Brain and Cognition [1].

Seither hat Mexico-Stadt Forschende wegen der brisanten Frage angezogen, ob schlechte Luft das Gehirn zerstört und wenn ja, auf welche Weise und wie sehr. Am Lebensanfang und am ende könnte das Organ besonders verletzlich reagieren, weil es erst noch reift und später auf natürliche Weise abbaut.

Luftverschmutzung und Demenzen treten zusammen auf

Obwohl es oft heißt, neurodegenerative Erkrankungen, zuvorderst die Demenzen, seien eine Unausweichlichkeit der enormen Lebenserwartung in modernen Zivilisationen, liefern mehr und mehr epidemiologische Studien ein brisantes Gegenargument: Je höher die Feinstaubbelastung der Luft, desto mehr häufen sich Demenzen. Daten, die diesen Zusammenhang unterfüttern, kommen aus London, aus Quebec, aus Nordschweden aus Stockholm: Dort hatten Forschende des Karolinska-Instituts im Jahr 2020 etwa 3.000 Erwachsene mit einem Durchschnittsalter von 74 Jahren begleitet. 364 entwickelten innerhalb von 11 Jahren eine Demenz. Und obwohl die Luft der schwedischen Hauptstadt als sauber gilt, fand die Neurobiologin des Instituts Giulia Grande, dass die Gehalte an Feinstaub in der Luft in Wohnortnähe das Risiko einer Demenz beeinflussten [2]. Ungefähr 800.000 Fälle an Demenzen in Europa könnten jedes Jahr auf die Luftverschmutzung zurückgehen, rechneten andere Forscher 2021 hoch.

„Diese Befunde sind sehr unpopulär“, bedauert Bruce Lanphear, Gesundheitswissenschaftler an der kanadischen Simon Fraser University. „Wir sollen lieber an einer Therapie gegen Alzheimer forschen, weil man damit Geld verdienen kann, als den Ursachen auf den Grund zu gehen. Denn, wenn die Luftverschmutzung schuld ist, würde das ein Absenken der Grenzwerte erfordern. Das wollen weder Politiker noch Industrie gern hören.“ Abbildung 1.

Abbildung 1. Luftverschmutzung - ein globales Problem

Blei raubt die Intelligenz

Lanphear widmet sich seit vielen Jahren einem der potentesten Schadstoffe für das Gehirn: dem Blei. Das Schwermetall ist auch im Feinstaub vertreten, weil es etwa im Flugbenzin enthalten ist und damit aus den Triebwerken gewirbelt wird. Vor allem aber ist es eine Substanz, von der man gesichert weiß, wie gefährlich sie für den Menschen ist, weil sie seit vielen Jahrhunderten eingesetzt wird. Und noch heute enthalten bestimmte Gläser und Kunststoffe Blei, auch Knöpfe an Bekleidung, Farben und Stifte, teils sogar Modeschmuck. In verschiedenen Pkw-Kraftstoffen ist Blei zwar EU-weit seit der Jahrtausendwende verboten. Genauer gesagt heißt das aber, dass die erlaubten Mengen lediglich gering sind.

Überall auf der Welt empören sich Toxikologen und Toxikologinnen, die an Blei forschen, wie Lanphear oder die international renommierte Kinderärztin und Umweltmedizinerin Ruth Etzel aus den USA, dass Blei bis heute in vielen Anwendungen nicht verboten ist. Die Belastungen von Kindern und Kleinkindern auch in Deutschland sind nach wie vor zu hoch, warnt das staatliche Bundesinstitut für Risikobewertung.

Nachgewiesen ist nämlich, dass das Schwermetall toxisch auf Nervenzellen wirkt. Es schädigt insbesondere die Entwicklung des reifenden Gehirns. Wenn die Menge an Blei von weniger als einem Mikrogramm je Deziliter Blut auf zehn Mikrogramm je Deziliter steigt, sinkt der IQ der Kinder um 6,9 Punkte, ermittelte Lanphear anhand der Daten an 1.300 Kindern. Andere Studien bestätigten, dass Blei die Intelligenz schmälert. Kleinkinder zwischen null und drei Jahren verleiben sich aber hierzulande 1,1 bis 3,3 Mikrogramm Blei täglich über Essen und Trinken ein – die Atemluft ist da noch nicht einmal berücksichtigt. „Es ist eine Tragödie. Wir wissen bei Blei so gut wie bei kaum einer anderen Chemikalie, wie schädlich es ist. Aber die Regierungen haben die Belastungen nicht auf ein akzeptables Maß gesenkt“, urteilt Etzel.

Das Problem ist“, sagt Lanphear, „fünf IQ-Punkte weniger mögen auf der individuellen Ebene keine große Rolle spielen. Aber auf der Bevölkerungsebene bedeutet das riesige Effekte, wenn ganze Populationen durchschnittlich etwa fünf IQ-Punkte verlieren.“ Der Anteil der Personen mit kognitiven Beeinträchtigungen, die Hilfe oder besondere Förderung brauchen, steigt gewaltig und der Anteil der Hochbegabten schwindet messbar.

Schadstoffbedingte Demenz?

"Das kognitive Defizit am Lebensanfang wird zudem nie wieder aufgeholt“, argumentiert Lanphear in einer Linie mit seinen Forschungskollegen. Viele vermuten, dass die Last an Blei im Körper auch eine spätere Demenz begünstigt. Diese könnte umso früher einsetzen, je mehr des Schwermetalls gespeichert ist. Und weil sich die Indizien in dieser Richtung verdichten, ergründet hierzulande neuerdings auch das Umweltbundesamt, wie Schadstoffe neurodegenerative Krankheiten befeuern.

„Seit etwa dreißig Jahren sinkt die Inzidenz an Demenzen in den USA – auch wenn die Gesamtzahl aufgrund der Überalterung weiter stark steigt. Im selben Zeitraum gingen die Bleibelastungen zurück, weil wir als erstes Land weltweit bleihaltiges Benzin verboten haben. Ich sehe da einen direkten Zusammenhang: sinkende, gleichwohl immer noch zu hohe Bleibelastungen auf der einen Seite und zurückgehende Inzidenzen bei Demenzen auf der anderen Seite“, sagt Lanphear.

Im Gehirn unterbindet Blei die Erregungsleitung zwischen den Nervenzellen. Es erschwert, dass sich Synapsen ausbilden und verstärken. Insgesamt stört das Schwermetall somit das Oberstübchen fundamental beim Denken, Fühlen und Handeln. „Blei ist aber nicht der einzige Schadstoff, der dem Gehirn schadet“, sagt der Neurowissenschaftler Stephen Bondy von der University of California in Irvine. Polychlorierte Biphenyle, die schon in Fahrradlenkern und Sportplätzen gefunden wurden, Aluminium und Kupfer sind nur drei weitere Verdächtige. Bondy selbst gab einem Mäusestamm aluminiumhaltiges Wasser zu trinken, wie es in Kanada typischerweise aus dem Wasserhahn kommt. Die Tiere entwickelten daraufhin typische Alzheimer-Veränderungen im Gehirn, berichtet er. Mit Kupfer beschäftigt sich eine weltumspannende Forschungsszene, die zeigen konnte, dass das Metall die Fehlfaltung von Proteinen anstachelt. Unter dem Einfluss von Kupfer entstünden aus normalen Proteinen „Ringe des Bösen“, schilderten jüngst Forscher der schweizerischen Eidgenössischen Materialprüfungs- und Forschungsanstalt.

Zu viel Verschmutzung, um zu erforschen, was sie macht

Viele tausend Schadstoffe zirkulieren in Luft, Boden und Wasser. „Wenn ein Stoff irgendwo verboten wird, kommt oft ein neuer auf den Markt, von dem wir erst einmal nichts wissen“, klagt Bondy. Jede Forschungsgruppe muss vor der Vielfalt kapitulieren und richtet notgedrungen ihr Augenmerk auf ausgewählte Stoffe. Unter den Pestiziden, Weichmachern und Flammschutzmitteln sind viele Kandidaten mit kryptischen Namen, die Nervenzellen in Kultur oder auf Ebene der Genexpression beeinträchtigen. Sie könnten an den Geistesgaben zehren und Autismus, Alzheimer und ADHS den Weg bereiten.

Beispielsweise entdeckte das Team um Barbara Maher von der Universität Lancaster im Hirnstamm von 186 jungen Bewohnern in Mexiko-Stadt bestimmte fehlgefaltete Proteine. Sie deutete diese als frühe Vorboten häufiger Altersleiden, etwa einer Demenz oder der Parkinson’schen Erkrankung. In den geschädigten Hirnstämmen konnte Maher unter den Feinstaubablagerungen vornehmlich Manganpartikel nachweisen, vermutlich aus dem Straßenverkehr, und nanoskalige Titanpartikel. Letztere sind Bestandteil des umstrittenen Lebensmittelzusatzstoffes E 171. Sie könnten aus Süßigkeiten oder Zahncreme stammen und vom Darm ins Gehirn vordringen, vermutet Maher.

Schleichwege ins Gehirn

Das führt zur grundlegenden Frage, wie Schadstoffe überhaupt in das gut geschützte Gehirn vordringen können. Die Blut-Hirnschranke bildet schließlich eine Barriere zwischen dem Blut und der Hirnsubstanz. Die feinen Blutgefäße sind im Nervengewebe dicht mit Endothelzellen ausgekleidet, die eng miteinander über sogenannte „tight junctions“ verknüpft sind. Sie verhindern, dass Substanzen leichterdings ins Nervengewebe übertreten können. Die Gefäße sind zudem von Astrozyten umgeben, die ebenfalls die Passage von gefährlichen Stoffen kontrollieren.

Und doch können Medikamente, Substanzen aus Zigaretten und eben auch verschiedene Schadstoffe an dieser Einlasskontrolle vorbei aus dem Blut ins Gehirn gelangen. Besonders fettliebende kleine Moleküle haben es leicht. Und feste Partikel wie Blei können eine Abkürzung nehmen. Über die Nase steigen sie in den Riechkolben auf und werden von dort, wenn sie nur klein genug sind, direkt ins Gehirn verfrachtet. Eingeatmete Nanopartikel lassen sich so in Tieren und mit optischen Spezialverfahren neuerdings auch im Gehirn des Menschen nachweisen. Barbara Mahers Team machte zum ersten Mal die Mangan- und Titanteilchen im Hirnstamm der 186 Probanden sichtbar.

Abbildung 2 (von Redn. eingefügt) fasst zusammen, wie Schadstoffe ins Hirn gelangen und welche Auswirkungen sie dort zeigen.

Abbildung 2. Schematische Zusammenfassung: Feinstaub kann in das Gehirn eindringen und dort neurotoxische Wirkungen hervorrufen, was mit einem erhöhten Risiko der Neurodegeneration verbunden ist. Feinstaubpartikel können über das Riechsystem oder den Trigeminusnerv ins Gehirn gelangen, oder sie passieren die Blut-Hirnschranke (BBB), nachdem sie in den Blutkreislauf gelangt sind. Die abgelagerten Feinstaubpartikel können Neurotoxizität, oxidativen Stress, Neuroinflammation sowie Schäden an der BBB und dem neurovaskulären System verursachen. Diese Auswirkungen im Gehirn können zu neurodegenerativen Erkrankungen führen. Epidemiologische Studien haben die Belastung durch Feinstaub mit kognitiven Beeinträchtigungen und einem erhöhten Risiko für die Entwicklung neurodegenerativer Erkrankungen wie Alzheimer (AD) in Verbindung gebracht. (Abbildung und Legende von Redn. in modifizierter (übersetzter) Form eingefügt aus You, R. et al (2022) [3] Lizenz: cc-by.)

Zahlreiche Schadstoffe, die mit der Nahrung aufgenommen werden, treffen im Darm auf eine Gemeinschaft Hunderter verschiedener Arten von Mikroorganismen. Wenn dieses „Mikrobiom“ gestört wird, kann dies die „Entsorgung“ beeinträchtigen und den Weitertransport der Schadstoffe ins Blut und dann ins Gehirn verstärken. Und ausgerechnet die westliche Ernährungsweise derangiert die Flora der 38 Billionen Winzlinge im Darm empfindlich. Morgens Croissant und Weißbrot mit Schinken, abends Pizza und Chips lässt die Vielfalt im Darm schrumpfen und macht ihn schlimmstenfalls durchlässig. Vom „leaky gut“, dem durchlässigen Darm, sprechen Forschende.

Schadstoffe im Gehirn sorgen für Entzündungen und Stress

Feste Partikel wie Blei erinnern das Immunsystem des Gehirns, die Mikroglia, an eingedrungene Bakterien. t„Sie werden aktiviert, können den Partikel aber weder „töten“ noch abtransportieren. Sie wissen nicht, was sie tun sollen und kämpfen weiter und weiter. Es kommt zur chronischen Entzündung, die sehr schädlich ist“, veranschaulicht der Neurowissenschaftler Stephen Bondy von der University of California in Irvine. Noch dazu können gerade Metalle wie Aluminium und Kupfer die Fehlfaltung von Proteinen katalysieren. An ihrer Oberfläche entstehen auch reaktive Sauerstoffspezies, die umliegende Zellen attackieren.

Viele Fachleute vermuten auch, dass Schadstoffe dem Gehirn indirekt schaden, indem sie Herz und Kreislauf schwächen. Bekanntlich zieht die Feinstaubbelastung der Luft Schlaganfälle, Herzinfarkte und Gefäßschädigungen nach sich. Und wenn in der Folge Organe schlechter mit Blut und Nährstoffen versorgt werden, leiden auch diese. Guilia Grande, die Neurobiologin am Karolinska Institut, glaubt die Herz-Kreislaufgesundheit sei der entscheidende Mittler, weshalb schlechtere Luft mehr Demenzen nach sich zieht.

Die Effekte von Schadstoffen auf das Gehirn merkt man erst einmal nicht, gibt Bondy zu bedenken. „Wir müssen nicht husten und nach Luft schnappen. Aber sie sind irreversibel und heimtückisch.“ Vor diesem Hintergrund kann er nur raten, viel hinaus an die frische Luft zu gehen. Das mag erstaunen, fahren doch genau dort die Autos, die Feinstaub produzieren. Aber drinnen ist die Luft noch einmal um Größenordnungen schlechter, weil aus zahllosen Konsumgütern Schadstoffe ausdünsten.


 [1]. Calderón-Garcidueñas, L. et al.: Air pollution, cognitive deficits and brain abnormalities: a pilot study with children and dogs. Brain and Cognition, 2008, 68. https://pubmed.ncbi.nlm.nih.gov/18550243/

[2]. Wu, J. et al., Air pollution as a risk factor for Cognitive Impairment no Dementia (CIND) and its progression to dementia: A longitudinal study. Environment International 160 (2022) 107067. https://doi.org/10.1016/j.envint.2021.107067

[3]. You, R. et al.: The pathogenic effects of particulate matter on neurodegeneration: a review. Journal of Biomedical Science, 2022, 29 (25),https://pubmed.ncbi.nlm.nih.gov/35189880/

----------------------------------------------------

Zum Weiterlesen

Oudin, A. et al.: Association between air pollution from residential wood burning and dementia incidence in a longitudinal study in Northern Sweden. PLoS ONE, 2018, 13(6) https://pubmed.ncbi.nlm.nih.gov/29897947/

Smargiassi, A. et al.: Exposure to ambient air pollutants and the onset of dementia in Quebec Canada. Environmental Research, 2020, 190 (109870) ( zum Abstract: https://pubmed.ncbi.nlm.nih.gov/32739624/ )

Lanphear, B.: The Impact of Toxins on the Developing Brain. Annual Reviews of Public Health 2015, 36 (211–30) ( zum Abstract: https://pubmed.ncbi.nlm.nih.gov/25581143/ )


*Der Artikel ist erstmals am 2.Mai 2023 unter dem Titel "Dauerstress für die Grauen Zellen" auf der Website https://www.dasgehirn.info/ erschienen https://www.dasgehirn.info/krankheiten/eindringlinge/dauerstress-fuer-die-grauen-zellen . Der unter einer CC-BY-NC-SA Lizenz stehende Text wurde unverändert in den Blog gestellt, eine Abbildung aus der im Text zitierten Arbeit von You et al., (2022) [3] wurde von der Redaktion in modifizierter Form eingefügt.

Die Webseite https://www.dasgehirn.info/ ist eine exzellente Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Artikel im ScienceBlog:

Inge Schuster, 25.09.2019: Pflanzen entfernen Luftschadstoffe in Innenräumen

IIASA, 18.05.2017: Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt

IIASA, 25.09.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima

Johannes Kaiser & Angelika Heil, 31.07.2015: Feuer und Rauch: mit Satellitenaugen beobachtet

Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?


 

inge Thu, 13.07.2023 - 12:43

Der Global Migration Data Explorer - ein neues Instrument zur Visualisierung globaler Migrationsströme

Der Global Migration Data Explorer - ein neues Instrument zur Visualisierung globaler Migrationsströme

Do, 06.07.2023— IIASA

IIASAIcon Politik & Gesellschaft Wie viele Menschen sind in den letzten 30 Jahren in ein Land eingewandert, von wo sind sie gekommen und wie viele haben das Land verlassen und wohin sind sie gezogen?  Mit dem Global Migration Data Explorer haben IASA-Forscher ein neues Instrument entwickelt, das den Mangel an Daten über globale Migrationsströme beheben und eine visuelle Methode zur Erforschung der weltweiten Migrationsmuster bereitstellen soll.*

Der Global Migration Data Explorer [1] baut auf dem Erfolg seines Vorgängers [2] auf. Er inkludiert nun Schätzungen aus Zeiträumen bis 2020, die auf weiterentwickelten Schätzmethoden beruhen, und erweitert den Anwendungsbereich, um verschiedene Messungen von Migration und Aufschlüsselungen der Migrationsmuster nach Geschlecht einzubeziehen.

Die Website wurde von Guy Abel, einem Wissenschafter in der Forschungsgruppe Migration and Sustainable Development des IIASA- Population and Just Societies Program und der Universität Shanghai, und Xavier Bolló, einem Spezialisten für Datenvisualisierung, entwickelt. Es bietet den Nutzern eine einzigartige Möglichkeit, sich mit der komplexen Dynamik der globalen Migration zu beschäftigen. Die Webseite stellt sechs verschiedene Schätzmethoden vor, die Forscher nutzen können, um Einblicke in die Migrationsströme zu gewinnen. Solche Methoden der Abschätzung sind unentbehrlich, da es kaum verlässliche Daten über internationale Migrationsströme gibt, und dies die Messung von Mustern und Trends in den globalen Migrationsströmen erschwert.

"Die internationale Migration wird zu einer immer wichtigeren Komponente des Bevölkerungswachstums und zu einer Triebkraft des sozioökonomischen Wandels", erklärt Abel. "Gute Daten über die internationale Migration sind entscheidend, um migrationsbezogene Komponenten der internationalen Entwicklungsagenda und Vereinbarungen wie die Ziele für nachhaltige Entwicklung und den Globalen Pakt für sichere, geordnete und reguläre Migration zu überwachen . Diese Website füllt eine entscheidende Lücke, indem sie Schätzungen der Migrationsströme bereitstellt, welche für Forscher, die sich mit Migrationssystemen, Demografie, Klimawandel und Epidemiologie beschäftigen, von unschätzbarem Wert sind."

Die frei zugängliche Website [2] bietet eine intuitive und interaktive Plattform, die es jedermann möglich macht globale Migrationsmuster zu untersuchen. Der von Bolló entwickelte Code für die Darstellung der Daten ist auf GitHub verfügbar, was Transparenz und weiterführende Zusammenarbeit fördert. Die Nutzer können auf die Daten, die den Visualisierungen zugrunde liegen, zugreifen, und diese sind über die Website frei zugänglich. Ein Beispiel (von der Redaktion eingefügt) zeigt die globalen Migrationsströme der letzten 30 Jahre. Abbildung 1. Mit einem Klick auf eine bestimmte Erdregion - beispielsweise Europa - wird das dortige Ausmaß der Migration - woher kommen die Migranten und wohin gehen sie - in Zeiträumen von 5 Jahren /oder insgesamt in den letzten 30 Jahren angezeigt.

Abbildung 1. Der Global Migration Data Explorer. Links: Migrationsströme im Zeitraum 1990 bis 2020; nach Europa sind rund 68,9 Millionen Menschen eingewandert und rund 31,1 Millionen abgewandert. Rechts: im Zeitraum 2015 bis 2020 sind rund 15 Millionen Migranten nach Europa gekommen und 8,6 Millionen sind abgewandert. Ein Klick auf Europa (oder andere Gegenden) zeigt die einzelnen Staaten und deren Migrationsmuster in den verschiedenen Zeiträumen (nicht dargestellt). https://global-migration.iiasa.ac.at/index.html (Bild von Redn. eingefügt.).

In das Tool fließen die UN-Schätzungen der im Ausland geborenen Bevölkerung ein - diese gelten als zuverlässigste Datenquelle für die globale Migration. Während die UN-Daten eine Momentaufnahme der Migrantenbevölkerung zu einem bestimmten Zeitpunkt darstellen, bieten die Schätzungen der Migrationsströme eine zeitliche Messung der Migration; dies macht sie für Forscher, die die Ursachen und Folgen der Migration untersuchen, wichtiger. (Beispiel: Migration von und nach Europa von Redn. eingefügt: Abbildung 2.)

Abbildung 2. Migration von und nach Europa im Zeitraum von 1990 bis 2020. Diagramm mit den Daten aus dem Global Migration Data Explorer (https://global-migration.iiasa.ac.at/ von Redn. erstellt.

Das Team plant das Visualisierungstool zu erweitern, um die Binnenmigration in verschiedenen Ländern, wie z. B. China, zu erfassen. Darüber hinaus will man zusätzliche Visualisierungen einführen, einschließlich einer kartenbasierten Methode, um die Benutzererfahrung zu verbessern und ein tieferes Verständnis der Migrationsmuster zu ermöglichen.

"Wir hoffen, dass dieses Visualisierungstool von der Öffentlichkeit genutzt wird, um zu einem besseren Verständnis von Migrationsmustern und relativen Ausmaßen der Migration in und aus einem bestimmten Land zu gelangen", sagt Anne Goujon, IIASA Population and Just Societies Program Director. "Besonders erfreulich ist es, wenn man hört, dass Lehrer ihr Interesse bekundet haben, die Website für den Unterricht ihrer Schüler zu nutzen; dies unterstreicht den Bedarf an aktuellen Daten und die Anwendbarkeit des Tools über den akademischen Bereich hinaus".

Zwei wichtige Veröffentlichungen unterstützen die Visualisierungs- und Schätzungsmethoden der Website. Ein 2019 im Fachjournal Nature veröffentlichter Artikel vergleicht die sechs wichtigsten Schätzmethoden, die für die Schätzung der globalen Migration vorgeschlagen wurden [3]. Außerdem wird eine Reihe von Validierungstests vorgestellt, mit denen die Genauigkeit dieser Schätzungen durch den Vergleich mit gemeldeten Migrationsdaten (dies vor allem aus wohlhabenden westlichen Ländern) bewertet wird. Darüber hinaus konzentriert sich eine neuere Veröffentlichung auf die Erstellung von Schätzungen der globalen Migrationsströme nach Geschlecht und weitet die Validierungsübungen auf geschlechtsspezifische Daten aus [4].


[1] Guy J. Abel & Xavier Bolló: Global Migration Data Explorer. Explore changes in global migrant flow patterns over the past 30 years. . https://global-migration.iiasa.ac.at/stocks.html

[2] The global flow of people. Explore new estimates of migration flows between and within regions for five-year periods, 1990 to 2010. Click on a region to discover flows country-by-country. http://download.gsb.bund.de/BIB/global_flow/

[3] Abel, G.J., Cohen, J.E. Bilateral international migration flow estimates for 200 countries. Sci Data 6, 82 (2019). https://doi.org/10.1038/s41597-019-0089-3

[4] Abel, G.J., Cohen, J.E. Bilateral international migration flow estimates updated and refined by sex. Sci Data 9, 173 (2022). https://doi.org/10.1038/s41597-022-01271-z


*Der Blogartikel basiert auf der IIASA-Presseaussendung “ New IIASA online tool to visualize global migration patterns“ vom 5. Juli 2023. Diese wurde von der Redaktion aus dem Englischen übersetzt, geringfügig für den Blog adaptiert und mit Texten und Abbildungen aus der Webseite https://global-migration.iiasa.ac.at/ (oder aus deren Daten zusammengestellt) versehen. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Artikel im ScienceBlog


 

inge Thu, 06.07.2023 - 18:04

Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt

Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt

Do, 29.06.2023 — Redaktion

Redaktion

Icon Astronomie

Die Kohlenstoffchemie ist für die Astronomen von zentralem Interesse, da alles bekannte Leben auf Kohlenstoff basiert. Ein internationales Forscherteam hat nun mit Hilfe des James Webb Weltraumteleskops zum ersten Mal ein als Methylkation (CH3+) bekanntes Molekül in der protoplanetaren Scheibe um einen jungen Stern nachgewiesen. Dieses einfache Molekül hat eine einzigartige Eigenschaft: Es reagiert relativ ineffizient mit Wasserstoff, dem am häufigsten vorkommenden Element in unserem Universum, aber leicht mit anderen Molekülen und initiiert so das Wachstum komplexerer Moleküle auf Kohlenstoffbasis. Die entscheidende Rolle von CH3+ in der interstellaren Kohlenstoffchemie wurde bereits in den 1970er Jahren vorhergesagt, aber die einzigartigen Fähigkeiten von Webb haben es endlich möglich gemacht, es zu beobachten - in einer Region des Weltraums, in der sich möglicherweise Planeten bilden könnten, die Leben beherbergen.* 

Das Methylkation

Kohlenstoffverbindungen bilden die Grundlage allen bekannten Lebens und sind daher von besonderem Interesse für Wissenschaftler, die verstehen wollen, wie sich das Leben auf der Erde entwickelt hat und wie es sich möglicherweise anderswo in unserem Universum entwickeln könnte. Die interstellare organische (d.i. Kohlenstoff-basierte) Chemie ist daher ein Gebiet, das für Astronomen, die Orte untersuchen, an denen sich neue Sterne und Planeten bilden, besonders faszinierend ist. Kohlenstoffhaltige Molekülionen (d.i. Moleküle mit positiver oder negativer elektrischer Ladung) sind von besonderer Bedeutung, da sie mit anderen kleinen Molekülen reagieren und selbst bei niedrigen interstellaren Temperaturen komplexere organische Verbindungen bilden. Ein solches kohlenstoffhaltiges Ion ist das Methylkation (CH3+). Abbildung 1.

Abbildung 1. Das Methylkation. Das positiv geladene Ion reagiert kaum mit Wasserstoff, dem am häufigsten vorkommenden Molekül im Universum, dagegen effizient mit einer Vielzahl anderer Moleküle. CH3+ wird als seit langem als wichtiger Baustein der interstellaren organischen Chemie betrachtet. (Bild von Redn. eingefügt.).

Bereits seit den 1970er Jahren postulieren Wissenschaftler die außerordentliche Wichtigkeit von CH3+, da dieses Ion mit einer Vielzahl anderer Moleküle reagiert. Dieses kleine Kation ist so bedeutsam, dass es als Eckpfeiler der interstellaren organischen Chemie gilt; bislang konnte es allerdings noch nie nachgewiesen werden.

Das James-Webb-Weltraumteleskop mit seinen einzigartigen Eigenschaften bot sich als ideales Instrument an, um nach diesem wesentlichen Kation zu suchen - und tatsächlich konnte es eine Gruppe internationaler Wissenschaftler mit Webb zum ersten Mal beobachten. Marie-Aline Martin von der Universität Paris-Saclay, Frankreich, eine Spektroskopikerin und Mitglied des Wissenschaftsteams, erklärt: "Dieser Nachweis von CH3+ bestätigt nicht nur die unglaubliche Empfindlichkeit von James Webb, sondern auch die postulierte zentrale Bedeutung von CH3+ in der interstellaren Chemie."

CH3+-Signal in protoplanetarer Scheibe entdeckt

Das CH3+-Signal wurde in dem als d203-506 bekannten System aus Stern und protoplanetarer Scheibe (d.i. eine rotierende Scheibe aus Gas und Staub, die sich um junge Sterne bildet und aus der sich schließlich Planeten bilden können) entdeckt, das sich in etwa 1350 Lichtjahren Entfernung im Orionnebel befindet. Abbildung 2. Der Stern in d203-506 ist zwar ein kleiner roter Zwerg mit einer Masse von nur etwa einem Zehntel der Sonnenmasse, doch das System wird von starker ultravioletter Strahlung benachbarter heißer, junger und massereicher Sterne bombardiert. Wissenschaftler gehen davon aus, dass die meisten protoplanetaren Scheiben, aus denen sich Planeten bilden, eine Periode solch intensiver ultravioletter Strahlung durchlaufen, da Sterne dazu neigen, sich in Gruppen zu bilden, die oft massereiche, ultraviolett-produzierende Sterne umfassen. Faszinierenderweise deuten Hinweise aus Meteoriten darauf hin, dass die protoplanetare Scheibe, aus der sich unser Sonnensystem bildete, ebenfalls einer enormen Menge an ultravioletter Strahlung ausgesetzt war - ausgesandt von einem stellaren Begleiter unserer Sonne, der schon lange gestorben ist (massereiche Sterne brennen hell und sterben viel schneller als weniger massereiche Sterne). Der verwirrende Faktor bei all dem ist, dass ultraviolette Strahlung lange Zeit als rein zerstörerisch für die Bildung komplexer organischer Moleküle angesehen wurde - und doch gibt es eindeutige Beweise dafür, dass der einzige uns bekannte lebensfreundliche Planet aus einer Scheibe entstanden ist, die dieser Strahlung stark ausgesetzt war.

Abbildung 2 Die Webb-Bilder zeigen einen Teil des Orionnebels, der als Orion-Balken bekannt ist. Links: Aufnahme mit dem Webb-NIRCam-Instrument (Nahinfrarotkamera). Rechts oben: Teleskop mit dem Webb-MIRI (Mid-Infrared Instrument) ist auf den angezeigten kleineren Bereich fokussiert. Im Zentrum des MIRI-Bereichs befindet sich ein junges Sternsystem mit einer protoplanetaren Scheibe namens d203-506. Rechts unten: Der Ausschnitt zeigt ein kombiniertes NIRCam- und MIRI-Bild dieses jungen Systems. (Credits: ESA/Webb, NASA, CSA, M. Zamani (ESA/Webb), und das PDRs4All ERS-Team.)

Das Team, das diese Forschung durchgeführt hat, könnte die Lösung für dieses Rätsel gefunden haben. Ihre Arbeit sagt voraus, dass das Vorhandensein von CH3+ tatsächlich mit ultravioletter Strahlung zusammenhängt, welche die notwendige Energiequelle für die Bildung von CH3+ darstellt. Außerdem scheint die Dauer der ultravioletten Strahlung, der bestimmte Scheiben ausgesetzt sind, einen tiefgreifenden Einfluss auf deren Chemie zu haben. So zeigen Webb-Beobachtungen von protoplanetaren Scheiben, die keiner intensiven ultravioletten Strahlung aus einer nahe gelegenen Quelle ausgesetzt sind, eine große Menge an Wasser - im Gegensatz zu d203-506, wo das Team überhaupt kein Wasser nachweisen konnte. Der Hauptautor Olivier Berné von der Universität Toulouse, Frankreich, erklärt: "Dies zeigt deutlich, dass ultraviolette Strahlung die Chemie einer proto-planetaren Scheibe völlig verändern kann. Sie könnte tatsächlich eine entscheidende Rolle in den frühen chemischen Stadien der Entstehung von Leben spielen, indem sie dazu beiträgt, CH3+ zu produzieren - etwas, das bisher vielleicht unterschätzt wurde." 

Obwohl bereits in den 1970er Jahren veröffentlichte Forschungsergebnisse die Bedeutung von CH3+ vorhersagten, war es bisher praktisch unmöglich, das Molekül nachzuweisen. Viele Moleküle in protoplanetaren Scheiben werden mit Radioteleskopen beobachtet. Damit dies möglich ist, müssen die betreffenden Moleküle jedoch ein so genanntes "permanentes Dipolmoment" besitzen, d. h. die Geometrie des Moleküls muss so beschaffen sein, dass seine elektrische Ladung nicht ausgeglichen ist, das Molekül also ein positives und ein negatives "Ende" hat. Da CH3+ symmetrisch ist, ist seine Ladung ausgeglichen und hat somit kein permanentes Dipolmoment, das für Beobachtungen mit Radioteleskopen erforderlich ist. Theoretisch ist es möglich, die von CH3+ emittierten spektroskopischen Linien im Infrarotbereichzu beobachten, aber die Erdatmosphäre macht es praktisch unmöglich, diese von der Erde aus zu beobachten. Daher musste ein ausreichend empfindliches Weltraumteleskop eingesetzt werden, das Signale im Infraroten beobachten kann. Die Instrumente MIRI und NIRSpec von Webb waren für diese Aufgabe wie geschaffen. Tatsächlich war der Nachweis von CH3+ zuvor sehr schwierig und als das Team das Signal zum ersten Mal in seinen Daten entdeckte, war es nicht sicher, wie es zu identifizieren sei. Gestützt auf die Hilfe eines internationalen Teams mit einem breiten Spektrum an Fachwissen waren die Forscher aber in der Lage ihre Ergebnisse innerhalb von vier kurzen Wochen zu interpretieren.

Die Entdeckung von CH3+ war nur durch die Zusammenarbeit von beobachtenden Astronomen, astrochemischen Modellierern, Theoretikern und experimentellen Spektroskopikern möglich, welche die einzigartigen Möglichkeiten von JWST im Weltraum mit denen von Labors auf der Erde kombinierten, um die Zusammensetzung und Evolution unseres lokalen Universums erfolgreich zu untersuchen und zu interpretieren. Marie-Aline Martin fügt hinzu: "Unsere Entdeckung war nur möglich, weil sich Astronomen, Modellierer und Laborspektroskopiker zusammengetan haben, um die von James Webb beobachteten einzigartigen Merkmale zu verstehen."


 *Der vorliegende Artikel ist unter dem Titel " Webb makes first detection of crucial carbon molecule in a planet-forming disc" am 26.Juni 2023 auf der Webseite der ESA erschienen:https://esawebb.org/news/weic2315/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch die Strukturformel des Methylkations ergänzt.

ESA Webb Bilder, Texte und Videos stehen unter einer cc-by 4.0 Lizenz.

Webb ist eine internationale Partnerschaft zwischen der NASA, der ESA und der kanadischen Weltraumbehörde (CSA).

Webb ist das größte und leistungsstärkste Teleskop, das jemals ins All gebracht wurde. Im Rahmen eines internationalen Kooperationsabkommens stellte die ESA den Startdienst für das Teleskop mit der Trägerrakete Ariane 5 bereit. In Zusammenarbeit mit ihren Partnern war die ESA für die Entwicklung und Qualifizierung der Ariane-5-Anpassungen für die Webb-Mission sowie für die Beschaffung des Startservices durch Arianespace verantwortlich. Die ESA stellte auch den Arbeitsspektrographen NIRSpec und 50 % des Instruments für das mittlere Infrarot (MIRI) zur Verfügung, das von einem Konsortium aus national finanzierten europäischen Instituten (dem MIRI European Consortium) in Zusammenarbeit mit dem JPL und der Universität von Arizona entwickelt und gebaut wurde.


Weiterführende Links

 ESA: Pan of the Orion Bar region. Video 0:30 min. https://esawebb.org/videos/weic2315a/

NASA: Webb Makes First Detection of Crucial Carbon Molecule. https://www.nasa.gov/feature/goddard/2023/webb-makes-first-detection-of-crucial-carbon-molecule

ESA: BR-348/DE: Webb – Weiter sehen https://esamultimedia.esa.int/multimedia/publications/BR-348/BR-348_DE.pdf ESA: Webb - Seeing farther.https://www.esa.int/Science_Exploration/Space_Science/Webb

ScienceBlog: Redaktion, 14.07.2022: James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums


 

inge Thu, 29.06.2023 - 18:04

Mikroorganismen spielen eine entscheidende Rolle bei der Kohlenstoffspeicherung in Böden

Mikroorganismen spielen eine entscheidende Rolle bei der Kohlenstoffspeicherung in Böden

Sa, 17.06.2023— Redaktion

Redaktion

Icon Geowissenschaften Böden können mehr organischen Kohlenstoff - d.i. Kohlenstoff in Form organischer Verbindungen - speichern als andere terrestrische Ökosysteme. Sie gelten daher als entscheidende Kohlenstoffsenken im Kampf gegen den Klimawandel. Eine bahnbrechende Studie zeigt nun, dass Mikroorganismen die entscheidende Rolle bei der Kohlenstoffspeicherung in Böden spielen. Die Ergebnisse der Studie haben Auswirkungen auf die Verbesserung der Bodengesundheit und die Eindämmung des Klimawandel.

Schon seit mehr als hundert Jahren haben sich Studien mit dem Kohlenstoff-Kreislauf im Boden befasst, wobei es hauptsächlich darum ging zu quantifizieren, wie viel organischer Kohlenstoff aus Laubstreu und den Pflanzenwurzeln in den Boden eingebracht und wie viel davon zersetzt und in Form von CO2 aus dem Boden an die Luft abgegeben wird. Wie viel an organischem Kohlenstoff dem Boden zugeführt wird, ist durch die pflanzliche Primärproduktion bestimmt, wie viel an organischem Material im Boden zersetzt wird - hauptsächlich durch Mikroorganismen - ist für die Geschwindigkeit der Freisetzung von CO2 und damit für die Treibhausgas-Konzentration ausschlaggebend.

Mikroorganismen und Kohlenstoffspeicherung

Dass Mikroorganismen bei der Bildung, Erhaltung und Zersetzung von organischem Kohlenstoff im Boden (soil organic carbon - SOC) eine sehr wichtige Rolle spielen, ist seit langem bekannt, und es wurden bereits enorme Anstrengungen unternommen, um Menge, Abbaubarkeit und Abbaugeschwindigkeit externer Kohlenstoffquellen in Böden zu verfolgen. Diese Untersuchungen haben bislang aber nicht zu einer hinreichend verbesserten Quantifizierbarkeit der Speicherung von SOC geführt. Wesentliche Fragen - welche Faktoren das Gleichgewicht zwischen Kohlenstoffspeicherung im Boden und Zersetzung von SOC mit schlussendlicher Abgabe von CO2 an die Luft beeinflussen, und wie mit dem Klimawandel zusammenhängende Faktoren sich auf die Mikroorganismen und ihre Funktion im Boden auswirken - blieben noch unbeantwortet. Die Rolle der Mikroorganismen wird bis jetzt mehr oder weniger in qualitativer Weise betrachtet, wie dies etwa in einem Übersichtsartikel im Jahr 2020 [1] veranschaulicht wird. Abbildung 1.

Abbildung 1. . Mikroorganismen im Kohlenstoffzyklus des Bodens. CO2 aus der Atmosphäre wird von Pflanzen (oder autotrophen Mikroorganismen) durch Photosynthese eingebaut und gelangt 1) in Form von einfachen organischen Verbindungen über Wurzelausscheidungen und in Form komplexer organischer Verbindungen über Blatt- und Wurzelstreu in den Boden. 2) Die organischen Verbindungen werden in der "Fabrik" der Mikroorganismen für Wachstum und Stoffwechsel genutzt und entweder 3) als CO2 in die Atmosphäre abgeatmet oder 4) in Form von teilweise zersetztem Material/Metaboliten und mikrobieller Nekromasse gespeichert. (Bild aus Dan Naylor et al., (2020) [1]; von Redn. mit deutscher Beschriftung versehen. Lizenz: cc-by.)

Entscheidender Faktor bei der Kohlenstoffspeicherung

Ein aus mehr als 30 Forschern bestehendes internationales Team hat kürzlich im Fachjournal Nature eine bahnbrechende Studie veröffentlicht: Mittels eines neuartigen Ansatzes wurde erstmals versucht die Vorgänge zu quantifizieren, welche die Dynamik des organischen Kohlenstoffs - Speicherung und Zersetzung - im Boden bestimmen. Wie sich herausstellte, ist die Effizienz der mikrobiellen Kohlenstoffnutzung (carbon use efficiency - CUE) der ausschlaggebende Faktor für die Relation zwischen Speicherung und Zersetzung. CUE ist dabei eine Messgröße, die anzeigt wie viel Biomasse aus dem aufgenommenen Substrat produziert wird:

CUE = produzierte Biomasse/aufgenommenes Substrat

CUE gibt an, wie viel aus den aufgenommenen organischen Verbindungen für das mikrobielle Wachstum und damit für den in Zellen und in abgestorbener Biomasse (Nekromasse) gespeicherten organischen Kohlenstoff verwendet wird und wie viel im Stoffwechsel der Zellen abgebaut wird und schlussendlich als CO2 in die Atmosphäre entweicht. Ein hoher CUE-Wert kann dabei für verstärktes mikrobielles Wachstum stehen, das zur Akkumulation von organischem Kohlenstoff im Boden führt, aber auch einen Anstieg in der Produktion von Enzymen bedeuten, die organisches Material zersetzen und damit einen Verlust von SOC mit sich bringen. Abbildung 2.

Abbildung 2. Wie wirkt sich eine hohe mikrobielle Effizienz der Kohlenstoffnutzung (CUE) auf die Speicherung von organischem Kohlenstoff im Boden (SOC) aus? Alternative a) Wachstum begünstigt durch erhöhte mikrobielle Biomasse, Nekromasse und Nebenprodukte die Speicherung von SOC. Alternative b) Erhöhte mikrobielle Biomasse kann über anschließende Enzymproduktion den Abbau von SOC fördern. (Bild aus Tao F. et al. (2023) [2], Lizenz: cc-by). )

Um herauszufinden, ob sich nun die Kohlenstoffnutzungseffizienz positiv oder negativ auf die Speicherung von SOC auswirkt, haben die Forscher die Relation zwischen CUE und SOC in umfassender Weise untersucht und auch welchen Einfluss die Wechselwirkungen mit Klima, Vegetation und Boden-Eigenschaften (edaphische Faktoren) darauf haben. Dazu haben sie eine Kombination aus Datensätzen auf globaler Ebene (Metaanalysen von global verteilten vertikalen Kohlenstoff-Bodenprofilen aus 173 Ländern) herangezogen, ein spezifisches mikrobielles Modell für Kohlenstoffprozesse im Boden entwickelt, das mit 57,267 Bodenkohlenstoffdaten kombiniert wurde und Deep Learning und Meta-Analysen eingesetzt.

Die Ergebnisse der Untersuchungen zeigen global eine positive Korrelation zwischen der mikrobiellen Kohlenstoffnutzungseffizienz und der Speicherung von organischem Kohlenstoff im Boden (Abbildung 3). Mehr organischer Kohlenstoff wird also für das mikrobielle Wachstum verwendet als für seinen Verlust in Zersetzungsprozessen, für die Frage wie viel organischer Kohlenstoff im Boden gespeichert wird, ist also das Wachstum der Mikroorganismen ausschlaggebender, als deren Stoffwechsel.

Abbildung 3. Eine Erhöhung der mikrobiellen Effizienz der Kohlenstoffnutzung (CUE) ist mit einer erhöhten Speicherung von organischem Kohlenstoff im Boden (SOC) verbunden. a) Die aus der Metaanalyse von 132 Messungen resultierende CUE-SOC Relation. b) Ergebnisse aus der Assimilierung aller verfügbarer Kohlenstoff-Bodenprofile (n = 57,267) an das Mikroorganismen-Modell. Beispiel für ein Bodentiefe von 0 - 30 cm. Niedrigere mittlere Jahrestemperaturen (MAT) sind mit höheren Speicherungen verbunden. (Bild: Ausschnitt aus Tao F. et al. (2023) [2], Lizenz: cc-by)

Wie die Studie zeigt, sind die mikrobiellen Prozesse entscheidend für die Speicherung von SOC. Wesentlich erscheint auch, dass die Kohlenstoffnutzungseffizienz in höheren Breitegraden (niedrigeren mittleren Jahrestemperaturen) höher ist, als in den wärmeren Zonen niedrigerer Breitegrade. Ein deep-learning Ansatz hat schließlich globale Muster von organischem Kohlenstoff im Boden in Abhängigkeit von sieben wesentlichen Prozessen im Kohlenstoff-Zyklus erzeugt: Daraus geht hervor, dass der Einfluss der mikrobiellen Kohlenstoffnutzungseffizienz auf die globale Speicherung und Verteilung von Kohlenstoff im Boden mindestens viermal stärker als der Einfluss anderer biologischer Faktoren oder Umweltbedingungen ist.

Schlussfolgerungen

Die neuen Erkenntnisse stehen am Anfang weiterer Studien zu einem besseren Verständnis der mikrobiellen Prozesse, die der Effizienz der Kohlenstoffnutzung zugrunde liegen. Untersuchungen mit unterschiedlichen Mikrobiomen, Substraten und landwirtschaftlichen Bewirtschaftungsmethoden können in einer verbesserten Kohlenstoffspeicherung und Bodengesundheit resultieren und bei der Vorhersage von SOC-Rückkopplungen als Reaktion auf den Klimawandel helfen.


 [1] Dan Naylor et al.: Soil Microbiomes Under Climate Change and Implications for Carbon Cycling. Annu. Rev. Environ. Resour. 2020. 45:29–59. doi:10.1146/annurev-environ-012320-08272

[2] Tao, F., Huang, Y., Hungate, B.A. et al. Microbial carbon use efficiency promotes global soil carbon storage. Nature (2023). https://doi.org/10.1038/s41586-023-06042-3


Artikel zu verwandten Themen im ScienceBlog


 

inge Sat, 17.06.2023 - 17:47

Erste topische Gentherapie zur Behandlung der Schmetterlingskrankheit (dystrophe Epidermolysis bullosa) wurde in den USA zugelassen

Erste topische Gentherapie zur Behandlung der Schmetterlingskrankheit (dystrophe Epidermolysis bullosa) wurde in den USA zugelassen

Do, 08.06.2023 — Ricki Lewis

Ricki Lewis

Icon Medizin

Epidermolysis bullosa (EB) - volkstümlich als Schmetterlingskrankheit bezeichnet - wird durch Mutationen in Strukturproteinen der Haut ausgelöst und ist durch eine extrem verletzliche Haut charakterisiert. Vor 6 Jahren hat Eva Maria Murauer (EB-Haus, Salzburg) im ScienceBlog über eine Fallstudie berichtet, in der eine große, chronische Wunde am Bein mittels Gentherapie normalisiert werden konnte [1]. Vor wenigen Wochen hat nun die FDA mit Vyjuvek eine erste Gentherapie zur Behandlung der schweren dystrophischen Epidermolysis bullosa (DEB) in den USA zugelassen. Diese Gentherapie hat lange auf sich warten lassen, aber sie unterscheidet sich von einer Handvoll anderer zugelassener Gentherapien: Sie ist nicht nach einmaliger Anwendung abgetan. Die Genetikerin Ricki Lewis berichtet darüber.*

Mein nun schon zehn Jahre altes Buch "The Forever Fix: Gene Therapy and the Boy who Saved It" (Gentherapie und der Junge, der sie rettete) hat die Geschichten von Kindern erzählt, die einmalig anwendbare funktionsfähige Genkopien erhalten hatten, um ihre Mutationen zu kompensieren. Die ersten Gentherapien haben Menschen mit einer vererbten Form der Netzhautblindheit zum Sehen und Kindern mit schweren Immundefekten zum Überleben verholfen. Heute sprechen mehrere durch Einzelgen-Mutationen verursachte Blut-, Gehirn-, Muskel- und Stoffwechselkrankheiten auf einmalige Infusionen einer Gentherapie an.

Die Biologie, die hinter einer Einzelgen-Erkrankung steht, gibt Aufschluss darüber, wie eine bestimmte Gentherapie zielgerichtet, angewandt und die Wirkung aufrechterhalten werden kann. Im Vergleich zu "Slash-and-Burn"-Technologien wie Standard-Chemotherapie und Bestrahlung, die nicht nur die Zielzellen betreffen, ist eine Gentherapie sowohl rational als auch maßgeschneidert.

Bei der Netzhautblindheit werden die Gene in die nährende Zellschicht unter den Stäbchen und Zapfen injiziert, welche die elektrischen, ein visuelles Bild vermittelnde Signale an das Gehirn weiterleiten. Da sich die Zellen dieser Schicht normalerweise nicht teilen, bleiben die verabreichten Gene an Ort und Stelle, unterhalten die Stäbchen und Zapfen und bewahren das Sehvermögen, das andernfalls verloren gehen würde.

Einige andere Gentherapien verfolgen einen umgekehrten Ansatz; sie werden in Stammzellen eingebracht, sodass sie sich bei der Zellteilung ausbreiten können.

Für die Haut stellt die Gentherapie eine ganz andere Herausforderung dar, weil die Zellen in der Regel so häufig ersetzt werden - es liegt in der Natur des Organs, sich permanent zu erneuern. Die Anwendung einer Gentherapie ist also das Gegenteil von einmal und fertig; sie muss viel häufiger erfolgen.

Topische und redosierbare Gentherapie

Am 19. Mai hat die FDA Vyjuvek, eine Gentherapie für DEB, zugelassen. In der Ankündigung des Erzeugers Krystal Biotech wird sie als "die erste redosierbare Gentherapie" bezeichnet.

Die Ursache für DEB ist eine Mutation im Kollagen-Gen COL7A1, das eine der beiden Hauptkomponenten des Bindegewebes darstellt. In gesunder Haut fügen sich Kollagenproteine zu Fibrillen zusammen, die die Epidermis mit der darunter liegenden Dermis verbinden, ähnlich wie Mozzarella-Käse die Schichten einer Lasagne verankert. Ohne COL7A1-Kollagen lösen sich die Hautschichten ab, und es entstehen schmerzhafte und beeinträchtigende Blasen und Wunden. Täglich.

Betroffene Kinder mit einer rezessiven Form - RDEB - werden manchmal als "Schmetterlingskinder" bezeichnet, weil ihre Haut so zart ist, wie die zerbrechlichen Flügel eines Insekts. Doch dieses Bild hat keine Ähnlichkeit mit der Realität der Extremitäten, die durch ständige Blasenbildung, Schälen, Blutungen und Narbenbildung unbrauchbar werden. Abbildung 1.

Abbildung 1. Ein Schmetterlingskind. (Bild: Yovanna.Gonzalez, commons.wikimedia.org, Lizenz: cc-by-sa)

Bei der geringsten Berührung bilden sich sofort schmerzhafte Blasen, und die Haut schält sich ab. Das Entfernen von Verbänden ist eine Qual, die täglich und ein Leben lang durchgeführt werden muss. Die Krankheit kann zu Sehkraftverlust, Entstellung und anderen Komplikationen führen, von denen einige tödlich sind.

RDEB wird von zwei Trägereltern vererbt. Eine dominante Form - DDEB - ist weniger gravierend, verursacht Blasenbildung an Händen, Füßen, Knien und Ellenbogen.

DEB ist seit 2002 ein Kandidat für eine Gentherapie. In einem Bericht aus dem Jahr 2018 habe ich die Geschichte der Bemühungen nachgezeichnet [2].

Patienten als ihre eigenen Kontrollpersonen

Die eben zugelassene Gentherapie liefert funktionierende Kopien des COL7A1-Kollagengens; Vektoren sind Herpes-Simplex-Viren, die so optimiert sind, dass sie sich nur in den betroffenen Hautzellen vermehren. Ein Arzt trägt einmal pro Woche Tropfen des Vyjuvek-Gels auf die Wunden eines Patienten auf.

Es wurden zwei klinische Studien durchgeführt und die Ergebnisse im Dezember 2022 veröffentlicht. In einer Phase 3-Studie, die im New England Journal of Medicine veröffentlicht wurde, wurden 30 Personen im Alter von 1 bis 44 Jahren, die an RDEB leiden und eine an DDEB leidende Person untersucht [3]. Bei jedem Teilnehmer wurden zwei Wunden ähnlicher Größe ausgewählt, von denen eine wöchentlich mit der Gentherapie und die andere mit einem Placebo behandelt wurde. Nach 24 Wochen wurden die Wunden miteinander verglichen. Von den mit Vyjuvek behandelten Wunden hatten sich 65 % vollständig geschlossen, verglichen mit nur 26 % der mit Placebo behandelten Wunden. Vorhergehende Ergebnisse aus Phase 1/Phase 2-Studien sind in Nature Medicine veröffentlicht worden [4]. Abbildung 2.

Abbildung 2. Die Behandlung mit Vyjuvek führt zur Heilung der Hautwunden. Links: Nach 3 Monaten hat sich der Großteil der Wunden vollständig geschlossen (repräsentative Fotos der Wunden w1 und w3 von Patient 10). Rechts: Histologische Analyse der Hautproben (von Patient 10) zeigt bereits nach 15 Tagen Behandlung die Expression von funktionellem Kollagen 7-Protein, welches Epidermis mit Dermis verknüpft (weiße Pfeile markieren die Grenze Epidermis/Dermis). Mit seiner Domäne NC1 (links, rot gefärbt) verankert Kollagen 7 die Fibrillen in der Basalmembran, mit der Domäne NC2 (rechts grün gefärbt) fördert es den Zusammenbau der Fibrillen. Blau gefärbt sind die Zellkerne. (Bild von Redaktion eingefügt; es sind Ausschnitte aus der oben zitierten Arbeit von Irina Gurevich et al., 2022 [4]. Lizenz cc-by).

Studienleiter M. Peter Marinkovich, MD, Direktor der Blistering Disease Clinic am Stanford Health Care, bezeichnet DEB als eine verheerende Krankheit. "Bis jetzt hatten Ärzte und Krankenschwestern keine Möglichkeit, die Entstehung von Blasen und Wunden auf der Haut von dystrophischen EB-Patienten zu verhindern, und alles, was wir tun konnten, war, ihnen Verbände zu geben und hilflos zuzusehen, wie sich neue Blasen bildeten. Die topische Gentherapie von Vyjuvek ändert all dies. Sie heilt nicht nur die Wunden der Patienten, sondern verhindert auch eine erneute Blasenbildung, weil sie den zugrunde liegenden Hautdefekt der dystrophen EB korrigiert. Da sie sicher und einfach direkt auf die Wunden aufzutragen ist, erfordert sie nicht viel unterstützende Technologie oder spezielles Fachwissen; dies macht Vyjuvek auch für Patienten, die weit entfernt von spezialisierten Zentren leben, besonders zugänglich."


[1] Eva Maria Murauer, 02.03.2017: Gentherapie - Hoffnung bei Schmetterlingskrankheit. https://scienceblog.at/gentherapie-hoffnung-bei-schmetterlingskrankheit

[2] Ricki Lewis, 08.02.2018: Gene Therapy for the “Butterfly Children”https://dnascience.plos.org/2018/02/08/gene-therapy-for-the-butterfly-children/

[3] Shireen V. Guide et al., Trial of Beremagene Geperpavec (B-VEC) for Dystrophic Epidermolysis Bullosa. 15.12. 2022. N Engl J Med 2022; 387:2211-2219. DOI: 10.1056/NEJMoa2206663

[4] Irina Gurevich et al., In vivo topical gene therapy for recessive dystrophic epidermolysis bullosa: a phase 1 and 2 trial. Nat Med 28, 780–788 (2022).https://doi.org/10.1038/s41591-022-01737-y. open access.


*Der Artikel ist erstmals am 1. Juni 2023 in PLOS Blogs - DNA Science Blog unter dem Titel "Topical Gene Therapy FDA-Approved for Severe Skin Disease, Dystrophic Epidermolysis Bullosa" https://dnascience.plos.org/2023/06/01/topical-gene-therapy-fda-approved-for-severe-skin-disease-dystrophic-epidermolysis-bullosa/  erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der leicht gekürzte Artikel folgt so genau wie möglich der englischen Fassung. Abbildung 2 wurde von der Redaktion aus der zugrundeliegenden klinischen Studie [4] eingefügt.


Anmerkung der Redaktion

DEB is eine sehr seltene Erkrankung, Schätzungen zur weltweiten Inzidenz gehen von etwa 100 000 Fällen aus (https://www.eb-researchnetwork.org/research/what-is-eb/).

Nach Mitteilung des Herstellers Krystal Biotech werden sich die Kosten von Vyjuvek auf 24 250 $/ Ampulle belaufen, die geschätzten jährlichen Behandlungskosten auf rund 631 000 $. Damit kommt Vyjuvek zwar in die Liste der weltweit 10 teuersten Medikamente, allerdings beläuft sich auch die bislang allein palliative Behandlung auf jährlich 200 000 bis 400 000 $ (https://ir.krystalbio.com/static-files/e6f347b3-0c14-43d9-b7d3-c9a274267294).


 

inge Thu, 08.06.2023 - 18:02

Prionen - wenn fehlgefaltete Proteine neurodegenerative Erkrankungen auslösen

Prionen - wenn fehlgefaltete Proteine neurodegenerative Erkrankungen auslösen

Do, 01.06.2023— Michael Simm

Michael SimmIcon Gehirn

Für eine Handvoll besonderer Proteine scheinen die Regeln der Biologie nicht zu gelten. Prionen sind infektiöse Proteine, deren Übertragung auch ohne Beteiligung von Erbsubstanz eine Reihe von Krankheiten auszulösen vermag. Dies geschieht nach Art einer Kettenreaktion, bei der die falsch gefalteten krankmachende Prionen ihr natürliches Gegenstück, das zelluläre Prionprotein, umfalten. So entstehen Aggregate und Nervenzellen sterben ab. Wie sie den Rinderwahn verursachen und auf Menschen überspringen konnten, ist eine gruselige Geschichte über die der deutsche Biologe und Wissenschaftsjournalist Michael Simm hier berichtet.*

Wäre Stanley Prusiner einige hundert Jahre früher geboren, hätte man ihn womöglich als Ketzer verbrannt. Oder zumindest aus der Gemeinschaft der Gläubigen ausgestoßen. Denn der Virologe an der Universität Kalifornien in San Francisco und Berkeley hatte an dem Glaubensbekenntnis seiner Zunft gerührt. Das „Zentrale Dogma der Molekularbiologie“ stammt aus dem Jahr 1958 und wurde von keinem geringeren als Francis Crick formuliert, einem Mitbegründer der modernen Biologie und eher unbescheidenen Genie. Dieses Dogma besagt, dass Informationen in biologischen Systemen stets von der Erbsubstanz DNA zum Botenstoff RNA fließen und schließlich in Proteine umgesetzt werden. Die Vorstellung, dass ein Protein genügen könnte, um eine Krankheit zu übertragen, war damit eigentlich unvereinbar. Doch genau dies hatte Prusiner behauptet. Oder zumindest hatte er diese Hypothese weiter verfolgt und ausgebaut. Denn genau genommen, kam die Idee vom infektiösen Protein bereits in den 1960er Jahren auf.

Im Zentrum seines Interesses standen zunächst Schafe, Studienobjekte, die an Scrapie (von engl. „kratzen“) verendet waren. Seit dem 18. Jahrhundert war diese tödliche Tierseuche mit ihren Gang- und Verhaltensstörungen in Europa bekannt, und auch das von Hohlräumen durchlöcherte Gehirn der Tiere war immer wieder beschrieben worden.

Mit Gewebeproben und Blut ließ sich das Leiden im Labor von kranken auf gesunde Schafe übertragen. Auch auf Ziegen, Nerze, Ratten und Mäuse. Ähnliches war US-Forschern bereits 1972 gelungen, als sie infektiöses Material aus dem Gehirn von Schafen, zunächst auf Mäuse und dann vom Mäusegehirn auf Javaneraffen (Macaca fascicularis) übertragen hatten – ein frühes Schlüsselexperiment, auch wenn die Autoren der Studie davon ausgingen, dass ein Virus hinter der Erkrankung steckte. Abbildung 1.

Abbildung 1. Vereinfachte Darstellung der Prion-Exposition von Schafen (rote Pfeile) und der Übertragung unter den Tieren (blaue Pfeile) . Bild von Redaktion modifiziert eingefügt (Quelle: Neil A. Mabbott: How do PrPSc Prions Spread between Host Species, and within Hosts? www.mdpi.com/journal/pathogens. Lizenz: cc-by)

Dieser Verdacht bestätigte sich jedoch nicht. Der Erreger war ungewöhnlich widerstandsfähig, schlüpfte auch noch durch die engmaschigsten Filter und überdauerte verschiedenste Methoden zur Inaktivierung von Nukleinsäuren. Gab man hingegen eiweißspaltende Enzyme (Proteasen) hinzu, so verloren die Gewebeproben zumindest teilweise ihre Infektiosität. 1982 hatte Prusiner genug Beweise gesammelt. Er veröffentlichte seine Entdeckung in der Fachzeitschrift „Science“ unter der Überschrift: „Novel proteinaceous infectious particles cause scrapie“ – „Neue proteinartige infektiöse Partikel verursachen Scrapie“. Die mysteriösen Erreger nannte Prusiner „Prion“, abgeleitet vom englischen „proteinaceous infectious particles“ (proteinartige infektiöse Partikel).

Nobelpreis für einen Außenseiter

Etwa zehn weitere Jahre verbrachte der wissenschaftliche Außenseiter darauf, seine Prionenhypothese gegen die Zweifel und die Angriffe vieler forschender Kollegen zu verteidigen. Doch er sollte recht behalten und wurde – auch als Anerkennung für sein Durchhaltevermögen – 1997 mit dem Nobelpreis für Physiologie oder Medizin geehrt. Heute weiß man: Der Bauplan von Prion-Proteinen ist zwar genauso in einer Reihenfolge von DNA-Bausteinen festgeschrieben wie bei „normalen“ Proteinen. Der Weg von der DNA über die RNA zum Protein ist also durchaus, dem Dogma entsprechend, gegeben. Allerdings kann das im Genom kodierte Prionprotein (PrP) eine alternative Konformation, also eine alternative dreidimensionale Faltung, annehmen, mit weiteren Prionproteinen verklumpen und seine falsche Struktur dann wiederum normalen Prionproteinen aufzwingen. In seltenen Fällen und oftmals über lange Zeiträume hinweg kann dies zu einer über viele Jahre unbemerkten fatalen Kettenreaktion führen. Abbildung 2.

Abbildung 2. Der Übergang von der nativen Konformation des zellulären Prionproteins (PrPc) in eine pathologische Isoform, die als "Prionprotein-Scrapie" (PrPsc) bezeichnet wird, kann mehrere Prion-assoziierte neurodegenerative Erkrankungen auslösen. Bild von Redaktion in modifizierter Form eingefügt aus Yuhai Zhao et al., Molecules 2022, 27(16), 5123; https://doi.org/10.3390/molecules27165123; Lizenz cc-by)

All dies wäre womöglich nur eine Randnotiz in der Veterinärmedizin geblieben, hätte man nicht eine ganze Reihe weiterer Krankheiten entdeckt, die Scrapie ähneln und auch Menschen betreffen können. Das Interesse des Humanmediziners Prusiner wurde nach eigenen Angaben geweckt, als ein Patient mit der seltenen Creutzfeldt-Jakob-Erkrankung (CJD) in seiner Obhut verstorben war. Typisch für diese bis heute unheilbare Krankheit sind Bewegungsstörungen, Gedächtnisverlust und Verwirrtheit, sowie ein schneller Verlauf, der in der Regel nach vier Monaten bis zwei Jahren tödlich endet.

Fasziniert war der Neurologe auch von Gerüchten über eine geheimnisvolle Krankheit namens Kuru, die unter einigen Urvölkern in der Ost-Hälfte Neuguineas (heute Papua-Neuguinea) kursierte, und dort bis etwa 1950 offenbar durch rituellen Kannibalismus verbreitet wurde. Die ersten Weißen, die 1933 ins Hochland vordrangen, trafen dort buchstäblich auf eine vergessene Welt. Die Menschen dort lebten noch in der Steinzeit, gehörten Dutzenden von Völkern an, die sich gegenseitig bekriegten und unterschiedliche Sprachen und Dialekte hatten.

Forscher unter Kannibalen

Dass Kannibalismus weit verbreitet war, bestätigen zahlreiche Berichte nicht nur von Missionaren, sondern auch von Anthropologen und der berühmten US-amerikanischen Ethnologin Margaret Mead . Nach einem Besuch des Ortes Timbunke am Fluss Sepik schrieb sie: „Der Fluss steht für Moskitos, Krokodile, Kannibalen und im Wasser treibende Leichen – und ich kann versichern, ich habe alles gesehen.“ Michael Rockefeller , Mitglied der bekannten US-Familie und Hobby-Ethnograf verschwand 1961 an der Südküste Neuguineas und wurde seinem Biographen zufolge von Angehörigen des Volkes des Asmat umgebracht.

Schließlich reiste auch Prusiner nach Neuguinea. Im Jahr 1982 traf er dort auf Carleton Gajdusek , einen Überflieger, der Physik, Chemie, Mathematik studiert, bei den Nobelpreisträgern Linus Pauling und Frank Burnet gelernt und schließlich in Harvard seinen Doktor der Medizin gemacht hatte. Gajdusek war dem Erreger von Kuru auf der Spur und hatte die Krankheit 1966 bereits auf Schimpansen übertragen. Zwei Jahre später gelang ihm das mit CJD, und 1972 mit Scrapie. Ebenso wie Prusiner hat auch Gajdusek den Medizin-Nobelpreis erhalten, allerdings bereits einige Jahre früher, im Jahr 1976. Die beiden Wissenschaftler haben sich laut Prusiners Erinnerungen nicht besonders gut vertragen. Sie waren wohl eher Konkurrenten, denn Kollegen, wie aus einem Rückblick hervorgeht , den Prusiner im Jahr 2008 veröffentlicht hat.

Kuru, eine Krankheit, die nach dem Ausbruch schnell zum Tod führte, hatte offenbar einiges mit CJD und Scrapie gemeinsam, wie Prusiner und andere Kollegen erkannten. Das Zittern und andere Bewegungsstörungen, der bei Kuru eine Demenz folgte, hatten beide Mediziner beobachtet. Für Gajdusek war die Krankheit jedoch der Parkinsonkrankheit ähnlich – für Prusiner nicht. Der wichtigste Streitpunkt aber war, dass Gadjusek nicht an Prusiners Prionen-Hypothese glaubte. Als Prusiner in einer Publikation über Kuru Gajdusek als Co-Autor nennen wollte, erlaubte Gadjusek dies erst, nachdem das Wörtchen „Prionen“ aus dem Artikel getilgt worden war.

Gajduseks machte, jenseits der Wissenschaft, in negativer Weise von sich reden: Von seinen Reisen in die Tropen hatte er – mit Einverständnis der Eltern – insgesamt 56 Kinder mitgebracht und bei sich zu Hause in einer Art Kommune erzogen. Als Vorwürfe von sexuellem Missbrauch laut wurden, bezeugte dies einer seiner „Schützlinge“, der mittlerweile studierte und im Alter von 14 Jahren mit Gadjusek zusammengelebt hatte. Der Forscher wurde daraufhin zu einem Jahr Gefängnis verurteilt, verlor seine Position als Leiter des Hirnlabors am Nationalen Schlaganfallinstitut (NINDS) und lebte nach Verbüßung seiner Strafe bis zum Tod in Paris, Amsterdam und Tromsö, was er nach eigenen Angaben bevorzugte, weil er dort in der ständigen Dunkelheit des Winters besser arbeiten konnte.

Heute werden Scrapie, Kuru und die übertragbare Variante der CJD (es gibt auch eine vererbte und eine spontan auftretende Form) aufgrund ihrer Pathologie als „Transmissible spongiforme Enzephalopathien“ (TSE) eingeordnet – zu Deutsch: „Übertragbare schwammartige Hirnleiden“. Auch der zusammenfassende Begriff „Prionenerkrankungen“ ist geläufig. Die wohl bekannteste aller TSE wurde erstmals 1984 in England nachgewiesen und als „Bovine spongiforme Enzephalopathie“ (BSE) benannt. Besser bekannt ist diese Tierkrankheit unter dem Namen Rinderwahn.

BSE entstammte einer gefährlichen Mixtur von unnatürlichen Praktiken der Fleischerzeugung sowie routinemäßigen Gesetzesverstößen und Vertuschungsversuchen, wie aus Zeugenbefragungen in einem offiziellen Untersuchungsausschuss hervorging. So hatte man Fleisch und Knochenmehl aus Schafskadavern quasi als „Kraftfutter“ an Rinder verfüttert. Bei der eigentlich vorgeschriebenen Sterilisation durch Hitze und Druck wurde geschlampt – oder gar zwecks Kostenoptimierung manipuliert, sodass Scrapie-Erreger aus infizierten Schafen überlebten, vom Magen der Rinder ins Nervensystem gelangten, sich an den neuen Wirt anpassten und die Rinder töteten. Fast 200.000 Tiere verendeten an BSE, und in der gesamten EU wurden fast vier Millionen Rinder gekeult.

Leichtsinn und Skrupellosigkeit am Rande der Apokalypse

Wenn Scrapie von Schafen auf Rinder übertragbar ist, besteht dann nicht auch die Gefahr einer Übertragung von BSE auf den Menschen? Die Befürchtung lag aus heutiger Sicht nahe. Dennoch gelangten verseuchte Hamburger, Würste und andere Fleischprodukte in die Mägen der Verbraucher in aller Welt. Gelatine aus Haut und Knochen wurde zu Pudding, Tortenbelag oder Gummibärchen verarbeitet. Und es dauerte 10 Jahre von den ersten Warnungen der Experten, bis die britische Regierung 1996 einräumte, dass da möglicherweise doch eine Verbindung bestehe zwischen dem Rinderwahn und einer neuen Variante der CJD, an der zu diesem Zeitpunkt bereits 10 Menschen gestorben waren. Nach aktuellem Stand sind es weltweit mehr als 200 Tote, davon die weitaus meisten in Großbritannien, knapp 30 in Frankreich, aber noch kein einziger Fall in Deutschland. Die Menschheit hat offenbar Glück gehabt. Wenn BSE ebenso leicht auf den Menschen übergesprungen wäre, wie viele Viren das tun, hätte es womöglich Millionen von Toten gegeben.

Viele Krankheiten – ein Mechanismus

Die durch Prionen von Rindern auf Menschen übertragene Form der CJD wird als vCJD (für „Variante“) gekennzeichnet. Und es gibt noch eine weitere Form, die iatrogene CJD (iCJD) mit einer eher kleinen Zahl von dokumentierten Fällen, bei denen die Krankheit durch medizinische Prozeduren wie die Verpflanzung von Hirnhäuten, Augenhornhaut oder der Gabe von Wachstumshormonpräparaten von Mensch zu Mensch übertragen wurde. Abbildung 3.

Alle bisher genannten Prionenkrankheiten verbreiten sich mittels Übertragung. Sie machen aber zusammen weniger als ein Prozent aller Fälle aus. Mit mehr als 85 Prozent ist die sporadische Creutzfeldt-Jakob-Krankheit unter den menschlichen Prionenerkrankungen am häufigsten, und für etwa zwei Todesfälle unter je 1 Millionen Einwohner pro Jahr verantwortlich. Der Rest – rund 15 Prozent – verteilt sich auf erbliche, also genetisch bedingte Prionenerkrankungen wie die familiäre Form der CJD, das Gerstmann-Sträussler-Scheinker (GSS)-Syndrom und die Fatale Familiäre Insomnie (FFI).

Abbildung 3. Modell der Proteinpolymerisierung für die Umwandlung von PrPC in PrPSc bei sporadischen, erblichen und erworbenen Prionenerkrankungen. Links im Bild: humanes Prion in Lösung (NMR-Struktur 1HJM, PDB DOI: https://doi.org/10.2210/pdb1HJM/pdbB). Bild in modifizierter Form von Redaktion eingefügt aus Hideyuki Hara & Suehiro Sahaguchi, Int. J. Mol. Sci. 2021, 22(22), 12439; https://doi.org/10.3390/ijms222212439; Lizenz cc-by)

Bei den erblichen Prionen-Erkrankungen ist die Reihenfolge der Bausteine in dem natürlichen Gen PRNP auf Chromosom 20 verändert. Inzwischen kennt man mehr als 60 Varianten davon. Ein Vergleich der Genome von über 16.000 Patienten mit rund 600.000 nicht Betroffenen in drei Datenbanken ergab, dass nur wenige Varianten unweigerlich zum Ausbruch der Krankheit führen, viele Varianten dagegen auch bei gesunden Menschen auftraten. Bei den letzteren Fällen müssen offenbar weitere ungünstige Umstände hinzukommen, wie möglicherweise Umweltgifte oder Vorbelastungen durch andere Krankheiten.

Zentral für das Verständnis der Prionenkrankheiten sind die Prionproteine selbst. Die krankhafte, falsch gefaltete und verklumpte Form wird als PrPSc bezeichnet – wobei das „Sc“ auf die Schafskrankheit Scrapie verweist –, und die normale, „gesunde“ Form als zelluläres PrPC . Gelangen einige wenige PrPSc in eine Umgebung voller PrPC so werden auch die „gesunden“ Moleküle umgeformt und die Kettenreaktion nimmt ihren Lauf. Die Konzentration von PrPSC im Hirn und Rückenmark steigt rapide an, und führt schließlich zum Tod von Nervenzellen.

Eine verwirrende Vielfalt von Funktionen

Zwar gibt es Dutzende von Forschungsarbeiten zur Funktion des Proteinproteins . Diese sind jedoch oftmals widersprüchlich oder nicht ausreichend, um das Absterben der Nervenzellen zu begreifen – geschweige denn zu verhindern. PrPC zum Beispiel ist, laut einer aktuellen Übersichtsarbeit , bei der neuronalen Entwicklung beteiligt, bei der Zelladhäsion, der Neuroprotektion, der Regulation zirkadianer Rhythmen, der Aufrechterhaltung der Ionenhomöostase usw. Zwar kennt man inzwischen recht genau die Reaktionswege beim Umfaltungsprozess. Und auch die dreidimensionalen Strukturen der beteiligten Eiweißfragmente und Zwischenprodukte sind zunehmend bekannt. Nachgewiesen ist zudem, dass PrPSc bei über die Nahrung erfolgter Übertragung – etwa beim Verzehr von BSE-kontaminiertem Rindfleisch – offenbar vom Magen her in das Nervensystem gelangt und sich dort auf der Membran von Nervenzellen festsetzt. Wie genau es von diesem Punkt aus weitergeht, ist jedoch ziemlich unklar.

Wer nun denkt, dass Stanley Prusiner nach dem Nobelpreis und der Bestätigung seiner Prionenhypothese zufrieden die Hände in den Schoss legt, der irrt. Nach seiner Auffassung könnten Prionen, oder vielmehr ein prionenartiger Mechanismus von sich ausbreitender Eiweißfehlfaltung im Gehirn auch bei anderen neurodegenerativen Erkrankungen am Werk sein. Sowohl bei der Alzheimer-Demenz als auch der Parkinson-Krankheit und bei Chorea Huntington spielen jeweils unterschiedliche Proteine eine Rolle (Aß, Tau, α-Synuklein und Huntingtin), deren Verhalten doch sehr an das von Prionen erinnere. Die Parallelen werden von vielen Forschern durchaus anerkannt. Zwar gibt es keine harten Daten, dass auch nur eine einzige dieser Krankheiten im herkömmlichen Sinne ansteckend sein könnte, doch lauter Widerspruch gegen Stanley Prusiner ist seltener geworden. Im „Harrison“, dem wichtigsten Lehrbuch der Medizin, verantwortet Prusiner das Kapitel über Prionenkrankheiten – eine Art Ritterschlag, die bezeugt, dass dem ehemaligen Außenseiter längst wissenschaftliche Anerkennung zuteilwird.


 *Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info im Mai 2023 erschienen, in dessen Fokus "Eindringlinge - Attacke auf’s Gehirn!" stand:https://www.dasgehirn.info/krankheiten/eindringlinge/prionen-eiweisse-die-wahnsinnig-machen. Der Artikel steht unter einer cc-by-nc-nd Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert verwendet; zur Visualisierung wurden 3 Abbildungen eingefügt.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


 Zum Weiterlesen

• Sigurdson CJ et al. Cellular and Molecular Mechanisms of Prion Disease. Annu Rev Pathol. 2019 Jan 24;14:497-516. doi: 10.1146/annurev-pathmechdis-012418-013109

• Prusiner SB, Miller BL. Prion Diseases. In: Jameson J, Fauci AS, Kasper DL, Hauser SL, Longo DL, Loscalzo J. eds. Harrison's Principles of Internal Medicine, 20e. McGraw Hill; 2018. (zum Buchkapitel)

----------------------------------------------------------------------

Catalyst University: Prions | Mechanism of Kuru & Relation to Creutzfeldt-Jakob Disease, Video 11:38 min. https://www.youtube.com/watch?v=Y1_V3oVbvxs


 

inge Thu, 01.06.2023 - 17:57

Homöopathie - Pseudomedizin im Vormarsch

Homöopathie - Pseudomedizin im Vormarsch

Fr 26.05.2023  — Inge Schuster

Inge Schuster Icon Medizin

Vor über 200 Jahren ist die Homöopathie entstanden basierend auf Prinzipien, die sowohl von der wissenschaftlichen Seite als auch von einer Evidenz-basierten Medizin her in höchstem Maße unplausibel sind. Auch, wenn es bis jetzt keine zweifelsfreien Nachweise für Wirksamkeit und Sicherheit gibt, sind weltweit Hunderte Millionen Menschen von der Heilkraft homöopathischer Mittel überzeugt.

Vor den Werbespots, die zur Primetime über den Bildschirm flimmern, gibt es kaum ein Entrinnen. Neben den - milde ausgedrückt - grenzwertigen Spots einer Möbelkette gibt es vor allem auch solche, die im Zuseher die Hoffnung erwecken sollen, dass er bislang erfolglos behandelte Beschwerden effizient und ohne schädliche Nebenwirkungen loswerden kann. Die in den kurzen, 10 - 20 Sekunden dauernden Spots beworbenen Mittel verheißen rasche Besserung diverser Leiden, die von Schlafstörungen über Arthrosen, Nervenschmerzen, Schwindel-Attacken bis hin zu Erektionsstörungen reichen.

Für einen Großteil dieser allabendlich gegebenen Heilsversprechen zeichnet ein am Westrand von München situiertes Unternehmen - die PharmaSGP (https://pharmasgp.com/) - verantwortlich. Das Unternehmen hat 2012 sein erstes Produkt - Deseo gegen sexuelle Schwäche - eingeführt und dank des aggressiven Marketings seines stetig wachsenden Portfolios einen erstaunlichen Aufstieg erlebt; bei den Produkten handelt sich hauptsächlich um Homöopathika, rezeptfreie Mittel wie Rubaxx, Restaxil, Taumea und Neradin. Seit 2020 ist das Werk börsennotiert, der Umsatz von rund 63 Millionen Euro im Jahr 2019 wird sich heuer auf 91 bis 96 Millionen Euro steigern. PharmaSGP rühmt sich "Unsere Arzneimittel basieren auf natürlichen pharmazeutischen Wirkstoffen mit dokumentierter Wirksamkeit und haben nahezu keine bekannten Nebenwirkungen."

Homöopathische Mittel liegen auch anderswo im Trend. Trotz fundierter negativer Kritik an diesen Mitteln, die weder eine rationale wissenschaftliche Basis noch zweifelsfreie Nachweise für Wirksamkeit und Sicherheit vorweisen können, (s.u.) vertrauen weltweit immer mehr Menschen auf solche Alternativen. Globale Schätzungen gehen von mehr als 300 Millionen Menschen aus - in westlichen Ländern jeder Zehnte -, die bereits solche Mittel konsumieren und die Tendenz ist stark steigend. Laut einem aktuellen Report wird der globale Markt für Homöopathika mit 10,7 Milliarden US-Dollar im Jahr 2021 beziffert und bis 2031 ein sehr starkes Wachstum (jährliche Wachstumsrate 18,1 %) auf 32,4 Milliarden Dollar prognostiziert. (https://www.transparencymarketresearch.com/homeopathy-product-market.html). Das ist allerdings nur ein Bruchteil des globalen Pharmaka-Markts: dieser liegt 2022 bei rund 1,5 Billionen US-Dollar; Prognosen für 2026 gehen von einer Steigerung auf rund 2,24 Billionen Dollar (jährliche Wachstumsrate 7,7 %) aus (https://www.transparencymarketresearch.com/homeopathy-product-market.html).

Prinzipien der Homöopathie ........

Ende des 18. Jahrhunderts hat Samuel Hahnemann, ein deutscher Arzt, der sich auch mit Chemie und Pharmazie beschäftigte, "ein neues Princip zur Auffindung der Heilkräfte der Arzneysubstanzen" entwickelt. In einer Zeit, in der man Schwerkranke durch Verabreichung hochgiftiger Stoffe (beispielsweise Quecksilber zur Behandlung der "Franzosenkrankheit" Syphilis), Aderlässe und Durchfälle noch mehr erschöpfte, versprach Hahnemann sanfte Behandlungsmethoden ohne schwere Nebenwirkungen. Angeblich auf einem Selbstversuch zur Anwendung von Chinarinde bei Malaria basierend hat er das zentrale Prinzip, „Ähnliches mit Ähnlichem“ zu heilen - similia similibus curentur - formuliert: eine Substanz, die am Menschen ein bestimmtes Symptom verursacht, kann demnach zur Behandlung einer dasselbe Symptom hervorrufenden Krankheit angewandt werden. Aus der Beobachtung der Symptome, die ein potenziertes (s.u.) Homöopathikum am gesunden Menschen hervorruft, wird auf seine Indikation geschlossen - also beispielsweise Verdünnungen des hochgiftigen gefleckten Schierlings (Conium maculatum), der Sokrates tötete, zur Behandlung von allmählich auftretenden Lähmungen.

Das zweite Prinzip besagt, dass Substanzen durch einen Prozess der seriellen Verdünnung in ihrer Wirkung gesteigert, potenziert werden. Ausgang des Potenzierens ist dabei die sogenannte Urtinktur, die durch Lagerung von Heilpflanzen, tierischen oder mineralischen Komponenten in einer Wasser-Ethanolmischung herausgelöst wird. Diese Urtinktur wird dann im Verhältnis 1:10 (D) oder 1:100 (C) mit Ethanol oder Ethanol/Wasser weiter und weiterverdünnt und nach einem genau vorgegebenem Ritual "verschüttelt". Nach 4 seriellen D-Verdünnungen (D4) ist vom Stoffgemisch der Urtinktur nur mehr ein Zehntausendstel vorhanden, nach 4 C-Verdünnungen ein Hundertmillionstel. Hahnemann war davon überzeugt, dass homöopathische Mittel umso stärker wirken, desto mehr sie potenziert werden. Er konnte damals, in der "Frühzeit" der Chemie, aber noch nicht wissen, dass in den besonders hohen Potenzen (größer als D12, C6) die Verdünnung bereits so groß ist, dass keine Moleküle der Urtinktur mehr nachweisbar sind.

Homöopathische Globuli und Dilutionen Bild: Wikipedia, gemeinfrei).

............im Lichte der heutigen Wissenschaften

Über 200 Jahre nach ihrer Entstehung und im Lichte der modernen Wissenschaften erscheinen Prinzipien und Vorgangsweisen der Homöopathie in höchstem Maße unplausibel, sowohl von der wissenschaftlichen Seite als auch von einer Evidenz-basierten Medizin her.

Dafür, dass ähnliche Symptome hervorrufende Substanzen kausal in den Krankheitsprozess eingreifen können, fehlt jegliche wissenschaftliche Grundlage. Dass die Wirksamkeit durch Verdünnen potenziert wird, steht in krassem Widerspruch zu physikalisch-chemischen Gesetzmäßigkeiten und den Dosis Wirkungsbeziehungen der Medizin. Es müssen schließlich genügend Moleküle vorhanden sein, um Reaktionen auszulösen, an Rezeptoren zu binden und Signale an das System senden zu können. Die Annahme von einigen Verfechtern der Homöopathie, dass durch Ausgangsstoff und Verdünnungsvorgänge die Struktur des wässrigen Lösungsmittels verändert und so die Wirksamkeit potenziert wird, ist nicht haltbar: die Wechselwirkungen zwischen den Lösungsmittelmolekülen erfolgen in weniger als Picosekunden, so rasch, dass hier keine "Gedächtnisstruktur" aufgebaut werden kann.

Ein wesentliches Problem ist zudem die Qualität der homöopathischen Heilmittel. Es handelt sich ja nicht um Reinsubstanzen mit definierter Struktur und Stabilität. Ob die Urtinkturen nun aus Pflanzen (ganzen Pflanzen, Blüten, Samen, Blättern, Wurzeln) oder tierischen Stoffen (z.B. aus Käfern, Insektengiften, Schlangengiften, etc.) hergestellt werden, so handelt es ich um Substanzgemische, die in Art und Quantität der einzelnen Komponenten stark schwanken. Eine für "konventionelle" Arzneistoffe unabdingbare Qualitätskontrolle, ist bei Homöopathika obsolet. In der EU ist nur wichtig, "dass Homöopathika nach den im Europäischen Arzneibuch oder nach einem in den offiziell gebräuchlichen Pharmakopöen der Mitgliedsstaaten der EU beschriebenen homöopathischen Zubereitungsverfahren hergestellt worden sind."

Traurig sieht es auch mit einem Nachweis der Wirksamkeit aus, wenn man eine Evidenz-basierte Medizin zugrunde legt:

Homöopathische Mittel werden nach anderen Kriterien zugelassen

als herkömmliche Arzneimittel. Um für die Zulassung eines neuen Arzneimittels einreichen zu können, müssen normalerweise dessen Wirksamkeit und Sicherheit in mehreren streng regulierten klinischen Studien am Patienten erwiesen sein. Der Nachweis erfolgt in sogenannten randomisierten Doppelblind-Studien, in denen eine statistisch ausreichend große Kontrollgruppe, die ein Placebo erhält, einer vergleichbar zusammengesetzten, mit dem zu prüfenden Therapeutikum (Verum) behandelten Gruppe gegenüber gestellt wird. Doppelblind bedeutet dabei, dass vor Versuchsende weder die Versuchsleiter noch die Teilnehmer wissen wer Placebo und wer die Prüfsubstanz bekommen hat.

Bei Homöopathika ist dies anders. Es besteht hier schon die Möglichkeit einer bloßen Registrierung, wenn das Mittel ohne Angabe eines Anwendungsgebietes in den Verkehr gebracht werden soll, oral oder äußerlich angewendet wird und die Urtinktur (der Ausgangsstoff) mindestens 10 000 fach (D4) verdünnt ist (dass ein derartiges Mittel von einem Anwender bezogen und nach Gutdünken dann für verschiedene Indikationen eingesetzt werden kann, steht auf einem anderen Blatt).

Die Zulassung homöopathischer Mittel erfolgt für eine in den eingereichten Unterlagen angegebene Indikation. Handelt es sich dabei um eine lebensbedrohende Erkrankung, so muss die Wirksamkeit in relevanten klinischen Studien nachgewiesen werden. Allerdings, wie das Deutsche Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) schreibt, wurde "bislang jedoch noch kein homöopathisches Arzneimittel durch das BfArM zugelassen, bei dem sich der Antragssteller auf eine Studie berufen hätte". https://www.bfarm.de/DE/Aktuelles/Schwerpunktthemen/Homoeopathische-Arzneimittel/_node.html).

Zum Nachweis der Wirksamkeit reicht ansonsten auch anderes "wissenschaftliches Erkenntnismaterial" (d.i. nach wissenschaftlichen Methoden aufbereitetes medizinisches Erfahrungsmaterial). Was darunter zu verstehen ist, ist sehr schwammig: Das BfArM nennt hier den Long-Term-Use (das Mittel muss seit 1978 auf dem Markt sein), Expertenurteile beispielsweise von der Kommission D des BfArM (deren Mitglieder allesamt aus der homöopathischen Ecke kommen), eine bewertete präparatbezogene Literaturübersicht zur Indikations-bezogenen Anwendung des Präparats und auch die homöopathische Arzneimittelprüfung (dabei werden Stoffe in Form von Ausgangsstoffen, Urtinkturen oder Verdünnungsgraden (Potenzen) gesunden Probanden verabreicht und diese berichten -subjektiv - mögliche Symptome). Neben dem wissenschaftlichen Erkenntnismaterial sind auch die medizinischen Erfahrungen zu berücksichtigen

Das Österreichische Bundesamt für Sicherheit im Gesundheitswesen (BASG) geht unisono mit dem deutschen BfArM und verweist auf die Experten der Kommission D. Es schreibt dazu: "Für eine Zulassung muss der Nachweis der spezifischen homöopathischen Wirksamkeit erbracht werden. Dies kann durch klinische Prüfungen oder durch allgemein anerkannte wissenschaftliche Literatur (z.B. Monographien der Kommission D des ehemaligen BGA in Deutschland) erbracht werden."

Dass die Beurteilung zur Zulassung neuer Homöopathika von einer aus Homöopathen bestehenden Kommission abhängt, erscheint zumindest fragwürdig.

Wie steht es nun um die Wirksamkeit homöopathischer Mittel?

Dazu Stellungnahmen von kompetenten Gremien:

Das Informationsnetzwerk Homöopathie

stellt fest: "Ein auf diesen Grundlagen aufbauendes Therapiesystem kann keine auf das eingesetzte Mittel zurückzuführende und über Placeboeffekte hinausgehende Wirksamkeit entfalten." Das Netzwerk ist eine unabhängige offene Arbeitsgruppe von über 60 Experten unterschiedlicher fachlicher Ausrichtung, Biografie und Weltanschauung, die es sich zum Ziel gesetzt haben, die Öffentlichkeit über die Homöopathie zu informieren und so den einseitig positiv überzeichneten Informationen der Anwender und Hersteller zutreffende Informationen entgegenzusetzen.https://netzwerk-homoeopathie.info/

Der unabhängige Online-Service "Medizin-Transparent",

ein Projekt von Cochrane Österreich an der Donau-Universität Krems hat zu den bislang durchgeführten Studien an Homöopathika recherchiert: es geht daraus deutlich hervor, dass in gut gemachten Studien die Homöopathie-Mittel nicht besser wirken als Wirkstoff-freie Scheinmedikamente (Placebos). Dies ist gut belegt u.a. für Asthma, Angsterkrankungen, Durchfall bei Kindern, Kopfschmerzen und Migräne, Erkältungskrankheiten oder etwa dem prämenstruellen Syndrom (PMS) bei Frauen. In vielen anderen Fällen liegen nur minderwertige , nicht nach strengen wissenschaftlichen Kriterien durchgeführte Studien vor. Insgesamt gibt es in bisherigen Studien keinen Hinweis, dass Homöopathie bei irgendeiner Krankheit oder Beschwerde besser helfen könnte als Placebo-Medikamente (https://medizin-transparent.at/streitthema-homoopathie/)

Was die die anfänglich von PharmaSGP gemachten Behauptungen "Unsere Arzneimittel basieren auf natürlichen pharmazeutischen Wirkstoffen mit dokumentierter Wirksamkeit und haben nahezu keine bekannten Nebenwirkungen." betrifft, so hat "Medizin-Transparent" auf Leser- Anfragen zu einigen dieser Behauptungen recherchiert, dazu Forschungs-Datenbanken durchsucht, um alle diesbezüglichen Studien dazu zu finden. Dazu zwei Beispiele

  • Taumea, das gegen Schwindel helfen soll, enthält einen Extrakt aus den Früchten der Scheinmyrte (Anamirta cocculus) in homöopathischen Dosierungen (D4). Aussagekräftige wissenschaftliche Belege zur Wirkung gibt es bislang nicht.
  • Neradin, ein Extrakt aus der Damiana-Pflanze (Turnera diffusa) wird als Mittel gegen Erektionsstörungen für den Mann beworben. Belegt ist diese behauptete Wirkung von Damiana auf die Potenz jedoch keineswegs. Denn an Menschen wurde sie bisher offenbar nie untersucht.

( Zur Wirksamkeit von Neradin gibt es übrigens einen niederschmetternde Bewertung von Kunden der Internet Apotheke shop-apotheke.at. Von insgesamt 104 Bewertungen haben nur 18 das Produkt als sehr gut befunden, 58 haben sich sehr negativ dazu geäußert.)

Eine neue internationale Studie

unter Leitung von G. Gartlehner hat sich mit den bis 2021 registrierten und publizierten klinischen Studien über Homöopathika befasst und einen besorgniserregenden Mangel an wissenschaftlichen und ethischen Standards auf dem Gebiet festgestellt. "Mehr als ein Drittel der registrierten Homöopathiestudien blieb unveröffentlicht, mehr als die Hälfte der veröffentlichten Studien war nicht registriert worden, und 25 % der primären Ergebnisse wurden verändert oder abgeändert." Die Schlussfolgerung der Forscher: "Homöopathieforscher dürften sich als Rosinenpicker betätigen. Studien mit den erhofften Ergebnissen werden veröffentlicht, um die Behauptungen über die Wirksamkeit der Homöopathie zu untermauern, während diejenigen, die weniger günstig ausfallen, bequem in einer Aktenschublade verschwinden. Fundierte Aussagen über die Wirksamkeit und die Risiken homöopathischer Mittel bleiben so unmöglich. Infolgedessen sind die Beweise für die Wirksamkeit der Homöopathie nach wie vor so dünn wie eine Prise Salz in einem riesigen Meer von Forschungsergebnissen schlechter Qualität." (Gartlehner G, et al., BMJ Evidence-Based Medicine 2022; 27:345–351. doi 10.1136/bmjebm-2021-111846)

Der Wissenschaftsbeirat der Europäischen Akademien (EASAC)

hat - basierend auf den neuesten Arbeiten seiner Mitgliedsakademien - eine Erklärung veröffentlicht, welche die Kritik an den gesundheitlichen und wissenschaftlichen Behauptungen über homöopathische Produkte verstärkt:

  • ad Wissenschaftliche Wirkmechanismen: "Wir kommen zu dem Schluss, dass die Behauptungen über Homöopathie unplausibel sind und nicht mit etablierten wissenschaftlichen Konzepten übereinstimmen".
  • ad Klinische Wirksamkeit: "Wir bestätigen, dass bei einzelnen Patienten ein Placebo-Effekt auftreten kann. Wir stimmen aber mit früheren umfassenden Bewertungen überein, dass es keine bekannten Krankheiten gibt, für die robuste, reproduzierbare Beweise vorliegen, dass Homöopathie über den Placeboeffekt hinaus wirksam ist. Damit verbunden sind Bedenken hinsichtlich der Informations-getragenen Einwilligung der Patienten und der Sicherheit, wobei letztere mit der schlechten Qualitätskontrolle bei der Herstellung von homöopathischen Arzneimitteln zusammenhängt."
  • ad Werbung für die Homöopathie: "Wir weisen darauf hin, dass es dem Patienten erheblichen Schaden zufügen kann, wenn er die Inanspruchnahme einer evidenzbasierten medizinischen Versorgung hinauszögert, und dass generell die Gefahr besteht, das Vertrauen der Öffentlichkeit in die Natur und den Wert wissenschaftlicher Erkenntnisse zu untergraben."

European Academies Science Advisory Council, September 2017: Homeopathic products and practices: assessing the evidence and ensuring consistency in regulating medical claims in the EU https://easac.eu/fileadmin/PDF_s/reports_statements/EASAC_Homepathy_statement_web_final.pdf

Wie soll es nun weiter gehen?

Dazu die Empfehlungen des EASAC aus der oben zitierten Erklärung:

  1. Es sollte einheitliche regulatorische Anforderungen geben, um die Wirksamkeit, Sicherheit und Qualität aller Produkte für die Human- und Veterinärmedizin aufzuzeigen; diese müssen auf überprüfbaren und objektiven Nachweisen beruhen, welche der Art der Behauptungen entsprechen. In Ermangelung eines solchen Nachweises, sollte ein Produkt von den nationalen Regulierungsbehörden als Arzneimittel weder zugelassen noch registriert werden.
  2. Evidenz-basierte öffentliche Gesundheitssysteme sollten die Kosten für homöopathische Produkte und Praktiken nicht übernehmen, wenn deren Wirksamkeit und Sicherheit durch strenge Tests nicht nachgewiesen ist.
  3. Die Zusammensetzung homöopathischer Mittel sollte in ähnlicher Weise angegeben werden wie die anderer Gesundheitsprodukte, d. h. es sollte eine genaue, klare und einfache eine Beschreibung der Inhaltsstoffe und ihrer Mengen in der Rezeptur vorhanden sein.
  4. Werbung und Marketing für homöopathische Produkte und Dienstleistungen müssen festgelegten Standards von Genauigkeit und Klarheit entsprechen. Werbeaussagen zu Wirksamkeit, Sicherheit und Qualität sollten nicht ohne nachweisbare und reproduzierbare Belege gemacht werden.

 

Hoffen wir, dass diese Empfehlungen nicht auf taube Ohren stoßen!


 

inge Fri, 26.05.2023 - 21:02

Mit CapScan® beginnt eine neue Ära der Darmforschung

Mit CapScan® beginnt eine neue Ära der Darmforschung

Do 18.05.2023  — Inge Schuster

Inge Schuster Icon Medizin

> Kenntnisse über das Mikrobiom des Verdauungstrakts und über Stoffwechselprodukte in diesem System beruhen bislang hauptsächlich auf Daten, die aus Stuhlproben erhoben wurden. Mit Hilfe der CapScan®-Kapsel können erstmals auf nicht-invasive Weise Proben aus den Regionen des Dünndarms gesammelt und analysiert werden. Damit werden Aufschlüsse über lebenswichtige Darmaktivitäten möglich, die bisher nicht messbar waren und die zum Verstehen der Stoffwechselwege des Menschen und ihrer komplexen Interaktionen mit dem Mikrobiom in Gesundheit und Krankheit beitragen.

In den letzten Jahrzehnten ist der menschliche Darm und hier vor allem das dort ansässige Mikrobiom mehr und mehr in den Fokus der Forschung gerückt. Es wurde klar, dass die riesige Zahl und Vielfalt der Mikroorganismen eine essentielle Rolle in Gesundheit und Krankheit spielen - dies beginnt mit dem Metabolismus von Nahrung und Fremdstoffen und erstreckt sich über die Regulierung des Immunsystems, den Schutz vor Pathogenen bis hin zum Einfluss auf die Steuerung des Nervensystems und damit auch auf den Gemütszustand.

Der Dünndarm ist noch weitgehend eine terra incognita

Auf Grund des schwierigen Zugangs zu den oberen Teilen des Verdauungstrakts, d.i. dem 5 - 7 Meter langen Dünndarm, stammen Informationen über die Zusammensetzung des Mikrobioms und die im Darm generierten und diesen beeinflussenden Stoffwechselprodukte bislang weitestgehend aus Analysen des Stuhls. Tatsächlich geben solche Proben aber nur ein sehr beschränktes Bild der Vorgänge im Gesamtdarm: beim Eintritt in den aufsteigenden Teil des Dickdarms ist die Verdauung der Nahrung ja nahezu vollständig (zu 90 %) abgeschlossen und die entstandenen Stoffwechselprodukte (Metabolite) wurden bereits durch die Dünndarmwand in den Organismus aufgenommen (absorbiert), teilweise weiter umgewandelt und als Endprodukte in das Darmlumen ausgeschieden. Was im Colon noch ankommt, sind im Wesentlichen unverdauliche Nahrungsbestandteile, die von den dort ansässigen Bakterienkolonien aufgeschlossen und zu Nährstoffen der Darmwand umgebaut werden.

Der Zugang zu den Dünndarmabschnitten Jejunum und Ileum ist eine Herausforderung. Diesbezügliche Proben werden ja nicht unter physiologischen Bedingungen entnommen: sie stammen aus Operationsmaterial und von klinisch toten Organspendern, die mit verschiedenen Arzneimitteln, darunter Antibiotika behandelt worden waren und bestenfalls aus mehrstündigen Endoskopien, die an nüchternen, betäubten oder sedierten Probanden erfolgen.

Wie auch für unterschiedlichste bioaktive Produkte beruhen unsere Kenntnisse beispielsweise zur Vielfalt, Dynamik und Rolle der Gallensäuren bei der Verdauung auf den wenig repräsentativen Messungen der wenigen Prozent der Gallensäuren, die im Stuhl ankommen oder dem Bruchteil eines Prozents im Blut. Fazit: Stuhlproben sind ein unzulängliches Surrogat für die Vorgänge in den oberen Darmabschnitten.

CapScan® ermöglicht erstmals eine nicht-invasive Reise durch den Dünndarm

Ein Forscherteam von den kalifornischen Universitäten Stanford und Davis und dem Spin-off Envivo Bio Inc. hat eine spezielle Kapsel CapScan® entwickelt, die geschluckt wird und in bestimmten Abschnitten des Darms ein kleines Volumen des Darmlumens inklusive der dort vorhandenen Mikroorganismen, Proteine und Metabolite aufnimmt. Zwei zeitgleich am 10. Mai 2023 in den Fachjournalen Nature und Nature Metabolism erschienene Arbeiten beschreiben diese Kapsel beschrieben und berichten über die die damit erhobenen Veränderungen im oberen Darmtrakt während der normalen täglichen Verdauung bei 15 gesunden Menschen [1,2].

Das Prinzip von CapScan®: Die Kapsel - etwa in der Größe einer Vitamin-Pille - ist mit einer magensaftresistenten, pH-sensitiven Polymer-Beschichtung versehen und enthält darin eine kollabierte Blase mit einem Einwegventil. Normalerweise steigt der pH-Wert im Darmlumen von 4-6 im Zwölffingerdarm auf 7-8 im Ileum an und sinkt im anschließenden aufsteigenden Colon etwas ab. Sobald eine Kapsel mit voreingestelltem pH-Wert auf diesen Wert im Lumen trifft, löst sich die Beschichtung mit vorbestimmter Geschwindigkeit auf, die Blase entfaltet sich und kann bis zu 400 µl Lumenflüssigkeit ansaugen. Ist die Blase voll, so verhindert das Ventil, dass auf dem Weiterweg durch den Verdauungstrakt noch Flüssigkeit eintreten kann. Die Kapsel wird schließlich mit dem Stuhl ausgeschieden, daraus hervor geholt und ihr Inhalt analysiert

Die Untersuchungen erfolgten an 15 gesunden Personen im Rahmen einer klinischen Untersuchung. Um Proben aus vier verschiedenen Regionen des Darmtrakts nehmen zu können, nahmen die Versuchspersonen jeweils vier Kapsel-Typen mit unterschiedlichen pH-Sensitivitäten ein, nachdem sie Mahlzeiten ihrer Wahl gegessen hatten. Abbildung.

Abbildung. 4 Kapsel-Typen, die Proben aus mehreren Regionen des menschlichen Darmtraktes während der normalen Verdauung sammeln. Die Kapseln öffnen sich bei unterschiedlichen, ansteigend höheren pH-Werten. Kapsel-Typ 4 enthält eine zeitverzögerte Beschichtung, um die Sammlung in Richtung des aufsteigenden Dickdarms zu lenken wo der pH-Wert typischerweise im Vergleich zum terminalen Ileum abfällt. (Bild: Ausschnitt aus Dari Shalon et al, 2023 [1]., deutsch beschriftet; Lizenz cc-by).

Die Analyse: Ein sogenannter "Multiomics"-Ansatz wurde angewandt, um die Proben einerseits auf Bakterien, Viren, Wirtsproteine und andererseits auf Stoffwechselprodukte aus der Nahrung zu analysieren [1, 2]. In den verschiedenen Regionen des menschlichen Darms zeigten sich dabei signifikante, zum Teil dramatische Unterschiede in der Zusammensetzung des Mikrobioms, des Wirtsproteoms und in der Induktion von Prophagen. Auch hinsichtlich der Zusammensetzung der Stoffwechselprodukte - die Forscher identifizierten insgesamt nahezu 2000 Metaboliten - gab es massive Unterschiede vom oberen (proximalen) zum unteren (distalen) Dünndarm und zu Stuhlproben und (am Beispiel von Obst und Alkohol) interessante Zusammenhänge zwischen Ernährung und Metaboliten.

Fazit

Mit CapScan® kann nicht nur eine neue Ära in der Forschung des Darmmikrobioms beginnen, die Kapsel kann auch breite Anwendung in der Forschung und Entwicklung von Arzneistoffen finden. Ein erstes Beispiel ist die auf der US-Plattform für Klinische Studien (ClinicalTrials.gov) gelistete Phase 1 Studie: "Evaluierung der CapScan-Vorrichtung zur Messung des Sulfasalazin-Stoffwechsels." (Sulfasalazin wird zur Behandlung von chronisch-entzündlichen Darmerkrankungen eingesetzt.) Dabei geht es darum die regionale Verteilung von Sulfasalazin, die metabolischen Abbauprodukte von Sulfasalazin und die Darmmikrobiota im Verdauungstrakt gesunder Freiwilliger zu charakterisieren. Die von Envivo Bio Inc. geleitete Studie an 10 gesunden Freiwilligen ist vor Kurzem zu Ende gegangen; sie wurde von den NIH unterstützt, die auch weiterhin die Entwicklung und klinische Evaluierung von CapScan fördern wollen.  Für ein anderes Projekt, eine klinische Studie  über die "Auswirkungen des Darmmikrobioms auf die Darmgesundheit von Müttern und Kindern in Ländern mit niedrigem und mittlerem Einkommen" die von Envivo in Zusammenarbeit mit Forschern von Stanford Medicine durchgeführt wird, hat die Bill and Melinda Gates Foundation  Mittel für zur Verfügung gestellt.


 [1] Dari Shalon et al, Profiling the human intestinal environment under physiological conditions, Nature (2023). DOI: 10.1038/s41586-023-05989-7

[2] Jacob Folz et al, Human metabolome variation along the upper intestinal tract, Nature Metabolism (2023). DOI: 10.1038/s42255-023-00777-z


 Mit CapScan könnten auch wesentliche Fragen zum Überleben von Probioika während der Darmpassage und zu ihrer Wirksamkeit  gelöst werden. Dazu:

Inge Schuster, 15.01.2023: Probiotika - Übertriebene Erwartungen?


 

inge Fri, 19.05.2023 - 00:32

Über die unterirdischen Verbindungen zwischen den Bäumen

Über die unterirdischen Verbindungen zwischen den Bäumen

Do. 11.05.2023 — IIASA

IIASA Logo

Icon Wald

Pilze bilden Netzwerke, welche die Bäume in einem Wald miteinander verbinden, diese Pilzgeflechte sind ein zentrales Element, das für den Zustand der Wälder ausschlaggebend ist und dafür, wie diese auf den Klimawandel reagieren. Laut der zunehmend populärer werdenden "Mutterbaum-Hypothese" werden solche Netze auch als Mittel betrachtet, mit dem Bäume ihren Jungbäumen und anderen "befreundeten" Bäumen nützen. In einer kürzlich erschienenen Studie hat eine internationale Forschergruppe die Hinweise, die für und gegen diese Hypothese sprechen, erneut überprüft.*

Die Bäume in einem Wald sind durch fadenförmige Strukturen, den so genannten Hyphen, von symbiotischen Pilzen miteinander verbunden; zusammen bilden diese ein unterirdisches Netzwerk, das so genannte Mykorrhiza-Netzwerk. Wie allgemein bekannt, können Mykorrhizapilze den Bäumen Nährstoffe im Austausch für den von den Bäumen gelieferten Kohlenstoff liefern.

Die Mutterbaum-Hypothese .............

Die so genannte Mutterbaum-Hypothese geht darüber hinaus und impliziert einen vollkommen neuen Zweck dieser Netzwerke. Über das Netzwerk teilen die größten und ältesten Bäume, die auch als Mutterbäume bezeichnet werden, Kohlenstoff und Nährstoffe mit Jungbäumen, die in besonders schattigen Bereichen wachsen und selbst nicht genügend Sonnenlicht für eine ausreichende Photosynthese erhalten. Die Netzwerkstruktur soll es den Mutterbäumen auch möglich machen, den schlechten Gesundheitszustand ihrer Nachbarn durch deren Notsignale zu erkennen und gemahnt zu werden diesen Bäumen die Nährstoffe zu schicken, die diese benötigen, um sich wieder zu erholen. Auf diese Weise - so die Hypothese - sollen die Mutterbäume als zentrale Knotenpunkte fungieren, die sowohl mit jungen Setzlingen als auch mit anderen großen Bäumen in ihrer Umgebung kommunizieren, um deren Überlebenschancen zu erhöhen.

Dies ist ein sehr ansprechendes Konzept, das nicht nur das Interesse der Wissenschaftler anspricht, sondern auch die Medien, in denen diese Hypothese dann oft als Tatsache dargestellt wird. In der soeben in der Zeitschrift New Phytologist veröffentlichten Studie [1] ist - nach Meinung der Autoren - die Hypothese jedoch nur schwer mit einer Theorie in Einklang zu bringen; dies hat die Forscher dazu veranlasst Daten und Schlussfolgerungen aus wissenschaftlichen Untersuchungen, die für und gegen die Mutterbaum-Hypothese sprechen, nochmals einer Prüfung zu unterziehen.

...............und was gegen diese Hypothese spricht

Abbildung 1. Die Mutterbaum-Hypothese und Feldstudien in borealen Wäldern .(a) Stammvolumen von Waldkiefern (Pinus sylvestris) in der Umgebung von alten Bäumen, die bei der vor 20 und mehr Jahren erfolgten Schlägerung erhalten geblieben waren: im Umkreis von weniger als 5 m von den alten Bäumen wiesen die neuen Bäume ein um 24 % geringeres Wachstum als weiter entfernte Bäume. Das hypothetische Wachstumsmuster des jüngeren Bestands im Falle von Konkurrenz bzw. Förderung durch den großen Baum ist orangefarben bzw. blau markiert. (Daten: Jakobsson (2005) [2]). , (b) Kartierung der Waldkiefern in einem Bestand in Südfinnland,(100 x 100 m). Die älteren Bäume sind durch geschlossene Kreise gekennzeichnet (Größen entsprechen den Stammdurchmesser-Klassen), die jüngeren Bäume durch offene Kreise. Der Bereich innerhalb eines Radius von 5-6 m um die älteren Bäume wurde blau schraffiert, um die geringe Dichte der jüngeren Bäume im Vergleich zu den Bereichen ohne alte Bäume hervorzuheben. (Bild aus Aaltonen (1926) [3] mit Genehmigung von Oxford Academic Press nachgedruckt). , (c) Nach Südwesten ausgerichteter Rand eines borealen Kiefernbestands und der verjüngte Bestand daneben (Schweden, 64°N). Man beachte das schwache Wachstum in der Nähe der größeren Bäume. (Abbildung: Fig. 1 aus N. Henriksson et al., 2023, [1] von Redn. deutsch beschriftet. Lizenz: cc-by-nc.)

Die unter der Leitung von Nils Henriksson von der Schwedischen Universität für Agrarwissenschaften ausgeführte Studie ergab, dass tatsächlich nur sehr limitierte empirische Belege für die Mutterbaum-Hypothese vorliegen, und theoretische Beweisführungen für die Mechanismen weitgehend fehlen [1].

Während große Bäume und deren Verbindungen zu ihren Nachbarn für das Ökosystem Wald nach wie vor essentiell sinnd, agiert das Pilznetzwerk nicht als eine einfache Pipeline, um Ressourcen unter den Bäumen zu aufzuteilen. In anderen Worten: der offensichtliche Austausch von Ressourcen zwischen den Bäumen ist eher das Ergebnis eines Handels zwischen Pilzen und Bäumen, als ein gezielter Austausch von einem Baum zum anderen. Sehr oft führt dies eher zu einer Verschärfung des Wettbewerbs zwischen den Bäumen, als zur Unterstützung der Stecklinge. Abbildung 1.

"Wir haben herausgefunden, dass Mykorrhiza-Netzwerke in der Tat für die Stabilität vieler Waldökosysteme unabdingbar sind, aber nur selten für ein Teilen und Hilfeleisten zwischen den Bäumen. Vielmehr funktioniert es wie ein Handelsplatz für einzelne Bäume und Pilze, die jeweils versuchen, das beste Geschäft zu machen, um zu überleben", erklärt Oskar Franklin, einer der Studienautoren und Forscher in der Forschungsgruppe Landwirtschaft, Forstwirtschaft und Ökosystem-Dienstleistungen des IIASA-Biodiversity and Natural Resources Program. "Der Wald ist kein Superorganismus oder eine Familie von Bäumen, die sich gegenseitig unterstützen. Er ist ein komplexes Ökosystem mit Bäumen, Pilzen und anderen Organismen, die alle voneinander abhängig sind, aber nicht von einem gemeinsamen Ziel geleitet werden." Abbildung 2.

Abbildung 2. Alternative Wege des Kohlenstoff-Transfers von einem hypothetischen Donor-Baum zu einer Empfänger-Jungpflanze. EcM (Ectomycorrhiza): symbiotische Beziehung zwischen Pilzsymbionten und den Wurzeln von Pflanzen. Die blauen Pfeile stellen Mechanismen für die potenzielle Verteilung von Kohlenstoff aus dem Donor-Baum in den Boden dar, die keine gemeinsamen Mykorrhiza-Netzwerke (CMN) zwischen den Pflanzen erfordern. Zelluläre Atmung des Spenderbaums und seiner Mykorrhiza-Pilze geben in beiden Fällen Kohlenstoff (C) in Form von CO2 in den Boden ab, das in den Wurzeln des aufnehmenden Keimlings oder über die Photosynthese fixiert wird. Die Ausscheidungen der Feinwurzeln der Spenderbäume und des Mykorrhiza-Myzels setzen organische Verbindungen wie Kohlenhydrate, organische Säuren und Sekundärmetaboliten im Boden frei. Der Umsatz von Spenderbaum-C in Wurzeln und Mykorrhiza-Myzelien, Assimilation und Umsatz von Spender-C durch saprotrophe (d.i. vom Abbau organischer Verbindungen toter Organismen lebende) Pilze, Bakterien und Archaeen, sowie die Umverteilung durch diese und andere Lebensformen im Boden können dem Mykorrhiza-Myzel des aufnehmenden Setzlings ebenfalls C zur Verfügung stellen. Die Kettenräder-Symbole stehen an kritischen Kontrollpunkten des C-Transfers über CMN -Verbindungen. (Bild: Fig. 4. aus N. Henriksson et al., 2023, [1] von Redn. deutsch beschriftet. Lizenz: cc-by-nc.)

"Wenn auch die Mutterbaum-Hypothese wissenschaftlich kaum belegt und in der wissenschaftlichen Gemeinschaft umstritten ist, hat sie sowohl die Forschung als auch das öffentliche Interesse an der Komplexität der Wälder geweckt. Es ist von entscheidender Bedeutung, dass die künftige Bewirtschaftung und Untersuchung der Wälder die tatsächliche Komplexität dieser wichtigen Ökosysteme berücksichtigt", so Franklin abschließend.


[1] Henriksson, N., Marshall, J., Högberg, M.N., Högberg, P., Polle, A., Franklin, O., Näsholm, T. (2023). Re-examining the evidence for the mother tree hypothesis - resource sharing among trees via ectomycorrhizal networks. New Phytologist DOI: 10.1111/nph.18935

[2] Jakobsson R. 2005. Effect of retained trees on the development of young Scots pine stands in Southern Finland. Doctoral thesis, Acta Universitatis Agriculturae Sueciae.

[3] Aaltonen VT. 1926. On the space and arrangement of trees and root competition. Journal of Forestry 24: 627–644.


* Der am 9. Mai 2023 als Presseaussendung auf der IIASA-Webseite unter dem Titel " Exploring the underground connections between trees" erschienene Artikel Artikel  https://iiasa.ac.at/news/may-2023/exploring-underground-connections-between-trees wurde von der Redaktion möglichst wortgetreu übersetzt und durch 2 Abbildungen plus Legenden aus der zugrundeliegenden Veröffentlichung [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Ähnliche Inhalte im ScienceBlog

 Gerd Gleixner, 05.08.2021: /Erdoberfläche - die bedrohte Haut auf der wir leben

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt

Knut Ehlers, 01.04.2016: Der Boden ein unsichtbares Ökosystem

Gerhard Glatzel, 04.04.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)


 

inge Wed, 10.05.2023 - 23:25

Überfischen hat das natürliche Gleichgewicht der marinen Lebensformen aus dem Lot geraten lassen

Überfischen hat das natürliche Gleichgewicht der marinen Lebensformen aus dem Lot geraten lassen

Do, 04.05.2023 — Tim Kalvelage

Tim Kalvelage

Icon Meere

 

Fischereiprodukte leisten einen wichtigen Beitrag zur globalen Ernährungssicherheit. Derzeit stammen 17 Prozent des tierischen Eiweißes, das weltweit verzehrt wird, aus dem Ozean oder aus Süßgewässern und der Fischkonsum nimmt weiter zu. Meere sind aber keine unendlichen Speisekammern. Die Nutzung der marinen Ressourcen durch den Menschen hat die Grenzen der Nachhaltigkeit längst überschritten; wie Berechnungen zeigen, wurde die Biomasse der Fische und kleineren Meeressäuger bereits um 60 % dezimiert, die von Walen sogar um 90 %. Der Meeresmikrobiologe und Wissenschaftsjournalist Dr. Tim Kalvelage gibt einen Überblick über die Auswirkungen der industriellen Fischerei auf das marine Ökosystem.*

Vor der ostkanadischen Insel Neufundland, dort wo der warme Golfstrom auf den kalten Labradorstrom trifft, liegt einer der reichsten Fischgründe der Erde: die Grand Banks, eine Reihe flacher Unterwasserplateaus auf dem nordamerikanischen Kontinentalschelf. Berühmt wurde die Region einst für ihre riesigen Kabeljaubestände. Schon bevor Kolumbus Amerika entdeckte, segelten baskische Fischer wegen des Kabeljaus quer über den Atlantik. Ab Mitte des letzten Jahrhunderts plünderten immer größere Trawler – vor allem aus Europa und der Sowjetunion – die Fischreichtümer. Auf dem Höhepunkt wurden an den Grand Banks im Jahr 1968 mehr als 800.000 Tonnen Kabeljau gefangen. In den Folgejahren kollabierten die Bestände, sodass Kanadas Regierung 1992 ein Fangverbot verhängte. 40.000 Menschen in den Provinzen Neufundland und Labrador verloren ihre Jobs in der Fischerei.

Trotz mehrjährigen Fangverbots und noch immer drastisch reduzierter Fangquoten haben sich die Kabeljaubestände an den Grand Banks bis heute nicht erholt. Stattdessen ist der Zusammenbruch der dortigen Kabeljaufischerei zum Symbol geworden für die Ausbeutung der Ozeane durch den Menschen und den Rückgang vieler Fischpopulationen. In den vergangenen Jahrzehnten sind die weltweiten Fangflotten in immer entlegenere Gebiete vorgedrungen und haben ihre Netze und Leinen in immer größeren Tiefen ausgebracht, um die Nachfrage nach Fisch und anderen Meerestieren zu bedienen.

Nahrungslieferant Ozean

Fischfang und das Sammeln von Meeresfrüchten wie Muscheln spielen seit Tausenden von Jahren eine wichtige Rolle für die Ernährung der Küstenbewohner der Erde. Im Laufe der Zeit wurden ihre Boote besser und die Netze größer und sie wagten sich immer weiter aufs Meer hinaus. Im Mittelalter florierte der Handel mit getrocknetem und gesalzenem Fisch, etwa rund um die Ostsee oder zwischen Westeuropa und Nordamerika. Angesichts der endlosen Weiten der Ozeane und der riesigen Fischschwärme schienen die lebenden marinen Ressourcen einst unerschöpflich.

Dann kam die Industrielle Revolution: Dampfschiffe, die schneller waren als Segelschiffe und weniger abhängig von Wind oder Gezeiten, eroberten die Weltmeere. Mitte des 19. Jahrhunderts wurde die Harpunenkanone erfunden und das große Schlachten der Wale begann. Manche Arten waren binnen weniger Jahrzehnte nahezu ausgerottet.

Nach dem 2. Weltkrieg schließlich ermöglichten hochseetaugliche Kühlschiffe, elektronische Navigationssysteme und Echolote den Aufstieg der industriellen Fischerei. Heute werden laut der Welternährungsorganisation (Food and Agriculture Organization – FAO) von den rund 30.000 Fischarten im Ozean mehr als 1.700 kommerziell genutzt. Sie landen auf unseren Tellern oder werden als Pellets in der Aquakultur und der Landwirtschaft verfüttert. Für Milliarden von Menschen sind sie eine essenzielle Proteinquelle: 17 Prozent des tierischen Eiweißes, das weltweit verzehrt wird, stammen aus dem Ozean oder aus Süßgewässern. Fischereiprodukte leisten damit einen wichtigen Beitrag zur globalen Ernährungssicherheit.

Seit der Mitte des 20. Jahrhunderts ist der Hunger nach Fisch und Meeresfrüchten jedoch stark gestiegen: Die Weltbevölkerung hat sich seither mehr als verdreifacht, und pro Kopf wird heute die doppelte Menge an Fisch gegessen – ca. 20 Kilogramm jährlich. Fangstatistiken und wissenschaftliche Studien zeigen eindringlich, dass die Nutzung der marinen Ressourcen durch den Menschen die Grenzen der Nachhaltigkeit längst überschritten hat. Vielerorts wird dem Ozean mehr Fisch entnommen, als nachwachsen kann.

Räuber und Beute

Für ein besseres Verständnis der Produktivität der Ozeane hilft ein Blick auf die marinen Nahrungsbeziehungen und den damit verbundenen Transfer von Kohlenstoff und Energie. Betrachtet man ausgewählte Organismen in einem Ökosystem – etwa in einem Korallenriff – dann lassen sich ihre Nahrungsbeziehungen als lineare Nahrungsketten darstellen. In Wirklichkeit jedoch sind Fische, Wirbellose und andere Meerestiere in komplexen Nahrungsnetzen miteinander verknüpft (Abbildung 1). Denn viele besitzen ein breites Beutespektrum und stehen selbst auf dem Speisezettel verschiedener Räuber, mit denen sie zum Teil um Nahrung konkurrieren. Je nach Futterquelle besetzen Organismen unterschiedliche Ernährungsstufen – oder trophische Ebenen.

Abbildung 1: Marines Nahrungsnetz © World Ocean Review Nr. 2, maribus gGmbH, Hamburg 2013

Auf der niedrigsten Stufe stehen die Primärproduzenten, die Kohlenstoffdioxid und Wasser mittels Photosynthese in Zucker und Sauerstoff umwandeln. Sie ernähren direkt oder indirekt alle Konsumenten. Die wichtigsten Produzenten im Ozean sind frei schwebende Mikroalgen und Cyanobakterien: das Phytoplankton. Es bildet die Nahrungsgrundlage für Zooplankton – kleine Krebstiere, Fischlarven und Quallen, die mit der Strömung treiben. Krill und anderes Zooplankton wiederum landen in den Mäulern von Heringen, Makrelen, Walhaien und Blauwalen. Höhere trophische Ebenen gehören schnellen Räubern wie Schwert- und Thunfischen oder Delfinen, die Schwarmfische erbeuten. Am Ende der Nahrungskette jagen Weiße Haie, Orcas und Pottwale – Spitzenprädatoren, die keine natürlichen Feinde haben.

Muster im Meer

Forschende um den Biologen Ian Hatton vom Leipziger Max-Planck-Institut für Mathematik in den Naturwissenschaften haben untersucht, wie zahlreich Plankton Fische und Meeressäuger im Ozean sind und welche Masse sie auf die Waage bringen. Dabei machten die Forschenden eine verblüffende Entdeckung. Ausgangspunkt der Studie waren Beobachtungen, die kanadische Wissenschaftler bereits im Jahr 1972 gemacht hatten. Diese hatten in Wasserproben aus dem Atlantik und Pazifik rund um Nord- und Südamerika Plankton gezählt und dessen Größe bestimmt. Dabei stellten sie fest, dass Organismen umso häufiger vorkommen, je kleiner sie sind. Viel erstaunlicher jedoch war: Wenn sie das Plankton in logarithmische Größenklassen einteilten (1-10 µm, 10-100 µm usw.), dann entfiel auf jede Größenklasse der gleiche Anteil der Planktonbiomasse. In anderen Worten: Größere Organismen machen ihre zahlenmäßige Unterlegenheit gegenüber kleineren durch ein höheres Gewicht wett. Auf Basis der Ergebnisse formulierten sie die kühne Hypothese, dass sich dieses Muster in den Weltmeeren von mikroskopischen Einzellern bis hin zu riesigen Walen erstreckt. „Allerdings war die Hypothese bisher nie getestet worden“, erklärt Hatton, „denn lange Zeit fehlte es dafür an Daten.“

Fünf Jahrzehnte später gab es genug Daten um zu überprüfen, ob die Verteilung der marinen Biomasse tatsächlich diesem Muster folgte. Hatton und sein Team berechneten zunächst die Biomasse für die Zeit vor 1850, als die Meere noch relativ unberührt waren. Die weltweite Menge an Phytoplankton schätzten sie anhand von Satellitendaten ab, die heute routinemäßig zur Bestimmung der Primärproduktion im Ozean genutzt werden. Hunderttausende Wasserproben, die über Jahrzehnte rund um den Globus gesammelt worden waren, lieferten Zahlen für Zooplankton und Bakterien. Beim Plankton nahmen die Forschenden an, dass die Menge seit der Industriellen Revolution konstant geblieben ist. „Die größte Herausforderung war eine Abschätzung der Fischbiomasse“, sagt Hatton. „Fische sind schwer zu erfassen, da sie wandern, Netzen entgehen und konzentriert in Schwärmen auftreten.“ Letztlich wurden die historischen Fischbestände anhand von weltweiten Fangdaten und mithilfe von Computermodellen ermittelt. Für Robben, Wale und andere Meeressäuger griff das Team auf regelmäßige Tierzählungen zurück sowie auf Schätzungen, die in die Vergangenheit extrapoliert wurden.

Abbildung 2: Ozean aus dem Gleichgewicht. Die 23 Gewichtsklassen mariner Organismen sind als Säulen dargestellt. Die Farbender Säulen entsprechen dem relativen Anteil der jeweiligen Gruppe. Der schraffierte Bereich (pink) zeigt, wie stark der Mensch inzwischen die Bestände der großen Meeresbewohner durch Fischerei und Walfang reduziert hat. © I. Hatton, MPI für Mathematik in den Naturwissenschaften / CC-BY-NC-SA 4.0

Nachdem die Forschenden die Anzahl der Lebewesen und deren Biomasse für den globalen Ozean beziffert hatten, teilten sie diese in logarithmische Gewichtsklassen (1-10 g, 10-100 g usw.) ein. Das Körpergewicht mariner Organismen umfasst 23 Größenordnungen, vom weniger als ein Billionstel Gramm schweren Bakterium bis hin zum mehr als 100 Tonnen schweren Blauwal. In der Tat bestätigte sich die 50 Jahre alte Hypothese:

Bevor der Mensch das Ökosystem Meer weitreichend veränderte, war die Biomasse über alle Größenklassen hinweg erstaunlich konstant – zumindest in den produktiven obersten 200 Metern der Wassersäule. Damals betrug die Biomasse je Gewichtsklasse rund eine Milliarde Tonnen; nur an den Enden des Größenspektrums, bei Bakterien und Walen, wichen die Werte nach oben bzw. unten ab (Abbildung 2). Worauf die Regelmäßigkeit beruht, sei noch nicht klar, so Hatton. „Möglicherweise hängt es mit dem Kohlenstoff- und Energietransfer entlang der Nahrungskette zusammen, wie viele Forschende annehmen.“ Auch der Stoffwechsel, das Wachstum und die Fortpflanzung mariner Organismen könnten eine Rolle spielen. Klar ist jedoch: „Der Mensch hat dieses Naturgesetz der Meere gebrochen.“ Das sagt Hatton beim Blick auf die heutige Verteilung der Biomasse im Ozean. Die Studie offenbart einen dramatischen Rückgang für das obere Drittel des Größenspektrums gegenüber dem vorindustriellen Zeitalter (Abbildung 2). Seit 1800 hat die Biomasse von Fischen und Meeressäugern um rund zwei Milliarden Tonnen abgenommen, das entspricht einem Verlust von 60 Prozent. Bei den größten Walen beträgt er sogar fast 90 Prozent. Man schätzt, dass allein im 20. Jahrhundert knapp drei Millionen Tiere getötet wurden, unter anderem zur Gewinnung von Lampenöl, Margarine oder Nitroglycerin für Munition. Zwar wird heute kein kommerzieller Walfang mehr praktiziert – mit Ausnahme von Island, Japan, und Norwegen. Doch viele Populationen sind weit entfernt von ihrer einstigen Biomasse. Auch die Auswirkungen der industriellen Fischerei auf das Ökosystem sind unübersehbar. Insbesondere große Räuber auf hohen trophischen Ebenen wie Schwert- und Thunfische oder Haie sind vielfach verschwunden.

Weiße Flecken in der Fangstatistik

In ihrem aktuellen Fischereibericht beziffert die FAO die weltweite Produktion von Fisch und Meeresfrüchten für das Jahr 2020 auf knapp 180 Millionen Tonnen (Abbildung 3). Nahezu die Hälfte davon waren Wildfische aus dem Meer. Fast jeder zweite Speisefisch stammt heute aus der Aquakultur und wächst in Zuchtteichen oder in Käfigen im Meer auf. Aquakultur ist der am schnellsten wachsende Sektor der Nahrungsmittelproduktion und hat in der Vergangenheit oft zu großflächigen Umweltzerstörungen geführt. Für die Garnelenzucht etwa werden in Südostasien Mangrovenwälder abgeholzt, die wichtige Kinderstuben für Fische sind und Küsten vor Erosion schützen. Auch der Bedarf an Futterfischen und die Gewässerbelastung durch Futterreste und Fischkot sind ein Problem.

Die Fangstatistik der FAO basiert auf den offiziellen Fischereidaten, die Staaten an die UN-Behörde übermitteln. Wie hoch die tatsächlichen Fangmengen sind, ist unklar. Forschende des Projekts „Sea Around Us“ schätzen, dass ein Viertel aller gefangenen Meeresfische nicht in der FAO-Statistik auftaucht, weil sie illegal angelandet, nicht berichtet oder als Beifang wieder über Bord geworfen wurden. Zudem fehlen in der FAO-Statistik die Fangmengen kleiner Schwarmfische wie Sardinen und Heringe, die als Futtermittel wie Fischmehl oder Fischöl enden. Dabei machen diese geschätzte 25 Prozent der globalen Fangmenge aus.

Abbildung 3: Entwicklung von Fischfang und Aquakultur. Im Jahr 2020 wurden weltweit 90 Millionen Tonnen Meerestiere gefangen und 88 Millionen Tonnen Fischereiprodukte in Aquakultur produziert. Von der Gesamtproduktion entfallen 63 Prozent auf die Meere und 37 Prozent auf Binnengewässer. © Verändert nach FAO: The State of World Fisheries and Aquaculture, 2022

Nachhaltige Nutzung der Meere

Welche Maßnahmen könnten den Rückgang der Fischbestände aufhalten und dennoch langfristig hohe Fischereierträge sichern, um die wachsende Weltbevölkerung zu ernähren? Experten fordern seit langem, rund ein Drittel der Meere als Schutzgebiete auszuweisen, besonders artenreiche Regionen sowie wichtige Laichgründe und Kinderstuben. Durch Abwanderung in benachbarte, nicht geschützte Gebiete könnten sich die dortigen Populationen erholen. Gleichzeitig sollten Bestände nicht bis an ihre Belastungsgrenze ausgebeutet werden, damit es nicht zum Kollaps kommt, wenn sich Umweltbedingungen verändern und die Reproduktionsrate sinkt. Nachhaltiges Fischereimanagement beinhaltet, Zielarten nicht isoliert zu betrachten, sondern auch ihre Rolle im Ökosystem zu berücksichtigen. Zum Beispiel verschwinden große Raubfische, wenn ihre Beute zu stark befischt wird. Mehr als 95 Prozent des globalen Fischfangs findet innerhalb von 200 Seemeilen vor den Küsten statt (in der sog. Ausschließlichen Wirtschaftszone). In vielen Ländern müssten Fischereigesetze verschärft und die illegale Fischerei stärker verfolgt werden.

Fortschritte gibt es beim Schutz der Hochsee, die sich an die 200-Seemeilen-Zone anschließt. Im Frühjahr 2023 haben sich die Vereinten Nationen nach jahrelangen Verhandlungen auf ein Abkommen geeinigt. Bisher war dieses riesige Gebiet, das fast 60% der Weltmeere umfasst, ein nahezu rechtsfreier Raum. Geplant ist, mindestens 30 Prozent der Weltmeere unter Schutz zu stellen. Wirtschaftliche Projekte, Expeditionen und andere Aktivitäten in den Meeren sollen zukünftig auf ihre Umweltverträglichkeit geprüft und die biologische Vielfalt der Hochsee unter international verbindlichen Schutz gestellt werden. Jetzt kommt auf es auf die schnelle und ernsthafte Umsetzung in den Mitgliedsländern an.


 * Der Artikel von Tim Kalvelage ist unter dem Titel: "Überfischte Meere - Leben im Ozean aus der Balance" im Geomax 27-Heft der Max-Planck-Gesellschaft im Frühjahr 2023 erschienen (https://www.max-wissen.de/max-hefte/geomax-27-ueberfischte-meere/). Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.

 


Weiterführende Links:

World Ocean Review 2021 - Lebensgarant Ozean – nachhaltig nutzen, wirksam schützen. https://worldoceanreview.com/de/wor-7/

Meeresschutz. https://www.bmuv.de/themen/wasser-ressourcen-abfall/meeresschutz

Fischereibericht der FAO, 2022 (engl.) https://www.fao.org/publications/home/fao-flagship-publications/the-state-of-world-fisheries-and-aquaculture/en


 

inge Thu, 04.05.2023 - 00:51

NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern

NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern

Do, 27.04.2023 — Redaktion

Redaktion

Icon Klima

Im Rahmen eines Pilotprojekts der NASA wurden die Emissionen von Kohlendioxid und seine Entfernung aus der Atmosphäre in mehr als 100 Ländern anhand von Satellitenmessungen bestimmt. Das Pilotprojekt OCO-2 bietet erstmals einen aussagekräftigen  Einblick auf das in diesen Ländern emittierte Kohlendioxid, und darauf, wie viel davon durch Wälder und andere kohlenstoffabsorbierende "Senken" innerhalb ihrer Abgrenzungen aus der Atmosphäre entfernt wird. Die Länder arbeiten daran ihre Klimaziele zu erreichen - aus den Befunden der Studie geht klar hervor, wie Weltraum-basierte Instrumente die auf der Erde erhobenen Erkenntnisse unterstützen können.*

Top-Down-Ansätze

Die internationale Studie wurde von mehr als 60 Forschern durchgeführt und hat Messungen der NASA-Mission Orbiting Carbon Observatory-2 (OCO-2) sowie ein Netzwerk von Erdoberflächen-basierten Beobachtungen genutzt, um die Zu- und Abnahmen der atmosphärischen Kohlendioxidkonzentration von 2015 bis 2020 zu quantifizieren [1]. (Zum OCO-2-Projekt: siehe Box.)

Mithilfe dieses auf Messungen basierenden (oder "Top-Down"-) Ansatzes konnten die Forscher dann auf die Kohlendioxid-Bilanz von Emissionen und Entfernungen aus der Atmosphäre schließen. Abbildung 1.

Wenn auch die OCO-2-Mission nicht speziell auf die Bestimmung der Emissionen einzelner Länder ausgerichtet war, so kommen die Ergebnisse aus den über 100 Ländern zu einem recht günstigen Zeitpunkt: Die erste globale Bestandsaufnahme - ein Prozess zur Bewertung des kollektiven globalen Fortschritts bei der Begrenzung der im Pariser Abkommen von 2015 festgelegten globalen Erwärmung - findet 2023 statt.

Abbildung 1. Datenvisualisierung der Emissionen (Quellen) und Entnahmen (Senken) von Kohlendioxid (CO₂) für mehr als 100 Länder auf der ganzen Welt. Die Karte rechts zeigt die mittleren Nettoemissionen und Nettoentnahmen von Kohlendioxid aus der Atmosphäre von 2015 bis 2020. Länder, in denen mehr Kohlendioxid entfernt als emittiert wurde, erscheinen als grüne Vertiefungen, während Länder mit höheren Emissionen hellbraun bis dunkelbraun sind und aus dem Bild herauszuragen scheinen. Diese Befunde beruhen auf Messungen des atmosphärischen CO₂, die von einem Netzwerk bodengestützter Standorte und dem Orbiting Carbon Observatory 2 (OCO-2) der NASA durchgeführt wurden, das CO₂ seit 2014 rund um den Globus kartiert. (Das Bild wurde von Redn. deutsch beschriftet; Quelle: NASA's Scientific Visualization Studio; Lizenz cc-by.)

"Die NASA konzentriert sich auf die Bereitstellung geowissenschaftlicher Daten, die sich mit realen Klimaproblemen befassen - etwa indem weltweit Regierungen geholfen wird die Auswirkungen ihrer Bemühungen zur Verringerung des Kohlenstoffausstoßes zu messen", sagt Karen St. Germain, Direktorin der Earth Science Division der NASA im NASA-Hauptquartier in Washington. "Dies ist ein Beispiel dafür, wie die NASA bestrebt ist die Messung von Kohlenstoffemissionen in einer Weise zu entwickeln und verbessern, die den Bedürfnissen der Nutzer entspricht."

Herkömmliche Aktivitäten-bezogene Ansätze,

solche "Bottom-Up"-Ansätze zur Kohlenstoffbestimmung beruhen auf dem Aufrechnen und Abschätzen wie viel Kohlendioxid in allen Sektoren einer Volkswirtschaft, wie im Transportsektor und in der Landwirtschaft, emittiert werden. Bottom-Up-Bestandsaufnahmen von Kohlenstoff sind von entscheidender Bedeutung für die Bewertung von Fortschritten bei der Emissionsreduzierung; ihre Erstellung erfordert allerdings beträchtliche Ressourcen, Expertise und Kenntnisse über das Ausmaß der relevanten Aktivitäten.

Deshalb ist - nach Meinung der Autoren - die Entwicklung einer Datenbank über Emissionen und deren Entfernungen mittels eines Top-Down-Ansatzes als besonders hilfreich für Länder anzusehen, die nicht über die üblichen Ressourcen für die Erstellung von Bestandsaufnahmen verfügen [1]. Tatsächlich enthält die gegenwärtige Studie Daten für mehr als 50 Länder, die zumindest in den letzten 10 Jahren keine Emissionen gemeldet haben.

Die Studie bietet eine neue Perspektive, indem sie sowohl die Emissionen fossiler Brennstoffe als auch die Veränderungen des gesamten Kohlenstoffbestands in Ökosystemen, einschließlich Bäumen, Sträuchern und Böden erfasst. Abbildung 2.

Abbildung 2. Bestandsaufnahme von CO2-Emissionen und Entfernungen aus der Atmosphäre. CO2 wird der Atmosphäre durch Photosynthese entzogen und dann durch eine Reihe von Prozessen wieder in die Atmosphäre abgegeben. Drei Prozesse verlagern den Kohlenstoff lateral auf der Erdoberfläche, so dass die CO2-Emissionen in einer anderen Region schlagend werden als die CO2-Entnahme: (1) Landwirtschaft: Die geernteten Feldfrüchte werden in städtische Gebiete und zu Nutztieren transportiert, die ihrerseits in städtische Gebiete exportiert werden.CO2 wird in Viehzucht oder in städtischen Gebieten über die Atmung in die Atmosphäre abgegeben. (2) Forstwirtschaft: Der abgeholzte Kohlenstoff wird in städtische und industrielle Gebiete transportiert und dann durch Zersetzung in Deponien oder durch Verbrennung als Biokraftstoff emittiert. (3) Wasserkreislauf: Kohlenstoff wird aus den Böden in Gewässer, wie z. B. Seen, ausgewaschen. Der Kohlenstoff wird dann entweder deponiert, oder in die Atmosphäre freigesetzt oder in den Ozean transportiert. Pfeile zeigen Kohlenstoffflüsse (F) an - grau: Emissionen fossiler Brennstoffe, dunkelgrün: Ökosystem-Stoffwechsel, rot: Biomasseverbrennung, hellgrün: Forstwirtschaft, gelb: Landwirtschaft, blau:Wasserkreislauf. Halbtransparente Pfeile: Flüsse zwischen Erdoberfläche und Atmosphäre, volle Pfeile: Flüsse zwischen Landregionen.Gestrichelte Pfeile: Emissionen von reduziertem Kohlenstoffspezies in die Atmosphäre. (Bild und Legende von Redn.deutsch beschriftet, aus B.Byrne et al., 2023 [1] eingefügt; Lizenz cc-by.)

Die Daten sind besonders nützlich, um Kohlendioxidschwankungen im Zusammenhang mit der Veränderung der Bodenbedeckung zu verfolgen. Allein die Emissionen aus der Entwaldung machen einen unverhältnismäßig großen Teil der gesamten Kohlenstoffbilanz im globalen Süden aus, der Regionen in Lateinamerika, Asien, Afrika und Ozeanien umfasst. In anderen Teilen der Welt deuten die Ergebnisse auf eine gewisse Verringerung der atmosphärischen Kohlenstoffkonzentration durch verbesserte Landbewirtschaftung und Wiederaufforstung hin.

Nach Meinung der Autoren sind Bottom-up-Methoden zur Abschätzung von Kohlendioxidemissionen und -Entnahmen durch Ökosysteme unabdingbar. Diese Methoden sind jedoch anfällig für Unsicherheiten, wenn Daten fehlen oder die Nettoauswirkungen bestimmter Aktivitäten, wie z. B. der Abholzung, nicht vollständig bekannt sind.

"Unsere Top-Down-Messungen liefern eine unabhängige Bestimmung dieser Emissionen und der Entnahmen. Wenn sie auch das detaillierte Prozessverständnis der traditionellen Bottom-up-Methoden nicht ersetzen, können wir doch beide Ansätze auf ihre Konsistenz hin überprüfen", so Philippe Ciais, einer der Studienautoren und Forschungsdirektor am Laboratoire des Sciences du Climat et de l'Environnement in Frankreich.

Dem Kohlenstoff auf der Spur bleiben

Die Studie bietet ein komplexes Bild der Reise des Kohlenstoffs durch Land, Ozean und Atmosphäre der Erde [1].

Zusätzlich zu den direkten Beeinflussungen durch den Menschen, die in den nationalen Verzeichnissen erfasst sind, können unbewirtschaftete Ökosysteme wie einige tropische und boreale Wälder - wo der Mensch nur einen minimalen Fußabdruck hinterlässt - Kohlenstoff aus der Atmosphäre binden und so die potenzielle globale Erwärmung verringern.

"Nationale Verzeichnisse sollen aufzeigen, wie sich Bewirtschaftungsmaßnahmen auf die Emissionen und den Abbau von CO2 auswirken", so Studienautor Noel Cressie, Professor an der University of Wollongong in Australien. "Der Atmosphäre ist es jedoch egal, ob CO2 durch Abholzung im Amazonasgebiet oder durch Waldbrände in der kanadischen Arktis ausgestoßen wird. Beide Prozesse erhöhen die CO2-Konzentration in der Atmosphäre und treiben den Klimawandel voran. Daher ist es von entscheidender Bedeutung, die Kohlenstoffbilanz unbewirtschafteter Ökosysteme zu überwachen und Veränderungen bei der Kohlenstoffaufnahme (= Photosynthese) zu erkennen".

Mit Blick auf die Zukunft sagen die Forscher, dass ihr Pilotprojekt weiter verfeinert werden kann, um zu verstehen, wie sich die Emissionen der einzelnen Länder verändern.

"Nachhaltige, qualitativ hochwertige Beobachtungen sind für diese Top-Down-Schätzungen von entscheidender Bedeutung", sagt der Hauptautor Brendan Byrne, Wissenschaftler am Jet Propulsion Laboratory der NASA in Südkalifornien. "Mit kontinuierlichen Beobachtungen von OCO-2 und Oberflächenstandorten können wir verfolgen, wie sich die Emissionen und Entnahmen im Zuge der Umsetzung des Pariser Abkommens verändern. Künftige internationale Missionen, die eine erweiterte Kartierung der CO2-Konzentrationen auf der ganzen Welt liefern, werden es uns ermöglichen, diese Top-Down-Schätzungen zu verfeinern und genauere Bestimmungen von Emissionen und Entfernungen in den einzelnen Ländern zu liefern."


[1] Brendan Byrne et al., National CO2 budgets (2015–2020) inferred from atmospheric CO2 observations in support of the global stocktake. Earth Syst. Sci. Data, 15, 963–1004, 2023. https://doi.org/10.5194/essd-15-963-2023


* Der vorliegende Artikel von Sally Younger (NASA's Jet Propulsion Laboratory) ist unter dem Titel "NASA Space Mission Takes Stock of Carbon Dioxide Emissions by Countries" https://www.jpl.nasa.gov/news/nasa-space-mission-takes-stock-of-carbon-dioxide-emissions-by-countries  am 7. März 2023 auf der Web-Seite der NASA erschienen. Der unter einer cc-by-Lizenz  stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch Abbildungen vom NASA’s Scientific Visualization Studio (Abbildung 1) und von der dem Artikel zugrunde liegenden Veröffentlichung  von B.Byrne et al., 2023 [1] (Abbildung 2) ergänzt.


Weiterführende Links

Das NASA OCO-2 Projekt: https://ocov2.jpl.nasa.gov

Animation: National Carbon Dioxide Budgets Inferred from Atmospheric Observations: Fossil Fuel Emissions. Video 0:12 min. . https://www.youtube.com/watch?v=wr327cqtXfs

Klimawandel - Schwerpunktsthema im ScienceBlog. Bis jetzt behandeln mehr als 40 Artikel den Klimawandel - von Modellierungen über Folgen des Klimawandels bis hin zu Strategien seiner Eindämmung; chronologisch gelistet in Klima & Klimawandel


 

inge Thu, 27.04.2023 - 16:30

Die Zukunft der evolutionären Medizin

Die Zukunft der evolutionären Medizin

Do 20.04.2023  — Redaktion

Redaktion

Icon Medizin Evolutionäre Medizin - d. h. die Anwendung von Erkenntnissen aus Evolution und Ökologie auf die Biomedizin - birgt ein enormes bislang ungenutztes Potenzial für Innovationen in der biomedizinischen Forschung, der klinischen Versorgung und der öffentlichen Gesundheit. Evolutionsprozesse sind die treibende Kraft hinter vielen Gefährdungen unserer Gesundheit; diese reichen von der Resistenz gegen Antibiotika und Tumortherapeutika über Pandemien bis hin zu "anthropozänbedingten" Krankheiten wie Adipositas, Typ 2 Diabetes, Allergien, etc. . Ein neuer in Frontiers in Science veröffentlichter Artikel zeigt, wie die Anwendung evolutionärer Prinzipien auf die Medizin neue Wege zur Vorbeugung und Behandlung von Krankheiten eröffnen kann.*

Mit evolutionären Prinzipien die Biomedizin und das Gesundheitswesen verändern

Die evolutionäre Medizin verfügt über ein enormes - und noch nicht verwirklichtes - Potenzial zur Verbesserung von Gesundheit und Wohlbefinden der Menschen, indem sie neue biomedizinische Therapien und wirksame Maßnahmen im Bereich der öffentlichen Gesundheit ermöglicht. In einer neuen Veröffentlichung im Fachjournal Frontiers in Science [1] skizziert ein breit aufgestelltes internationales Team aus den US, dem UK und Neuseeland eine Forschungsagenda für die künftige evolutionäre Medizin, wobei der Fokus auf folgenden Anwendungen liegt:

  • Tierarten zu finden, die von Natur aus resistent gegen menschliche Krankheiten sind, und diese Mechanismen in neue klinische Behandlungen umzusetzen
  • Arzneimittelresistenzen bei Infektionskrankheiten und Krebs zu überwinden
  • die Gesundheitspolitik darüber zu instruieren, wie Krankheiten wirksam bekämpft werden können, die aus der Diskrepanz zwischen den Ökologien, in denen wir uns entwickelt haben, und der heutigen Welt resultieren
  • das Management von Pandemien zu verbessern
  • menschlichen Widerstand gegen gesundheitsfördernde Verhaltensweisen zu überwinden.

Abbildung 1. Evolutionäre Medizin basierend auf den Prinzipien der Evolution und der Ökologie. (Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)

Was ist evolutionäre Medizin?

Die evolutionäre Medizin wendet die Erkenntnisse aus Ökologie und Evolution an, um biomedizinische Forschung, Maßnahmen des öffentlichen Gesundheitswesens und klinische Versorgung zu instruieren, zu steuern und zu verbessern. Abbildung 1.

Mit der Anwendung einer evolutionären Perspektive könnten viele kritische gesundheitliche Herausforderungen bewältigt werden. Dazu zählen die Krise der Antibiotikaresistenz, die Chemotherapieresistenz bei Krebserkrankungen, moderne Gesundheitsprobleme wie Fettleibigkeit, Diabetes und Herz-Kreislauf-Erkrankungen - und sogar die Resistenz von Menschen gegenüber Gesundheitsratschlägen. Dieser Ansatz wird auch für die Identifizierung neu auftretender Krankheitserreger und die Bewältigung künftiger Epidemien und Pandemien von entscheidender Bedeutung sein.

Wie kann die evolutionäre Vielfalt biomedizinische Therapien inspirieren?

Die traditionelle biomedizinische Forschung nutzt die Ähnlichkeiten zwischen Menschen und anderen Tieren, um Krankheitsmechanismen aufzudecken und Therapien zu entwickeln. Aber die Evolutionsmedizin lässt sich auch von unseren Unterschieden inspirieren. So erkranken Elefanten beispielsweise nur selten an Krebs, während Nacktmulle von Natur aus resistent gegen altersbedingte Krankheiten sind und daher ungewöhnlich lange und gesund leben. In der riesigen Vielfalt des Lebens auf der Erde gibt es wahrscheinlich noch unzählige andere Mechanismen zur Krankheitsresistenz. Wir müssen diese systematisch aufspüren, ihre physiologischen Grundlagen aufdecken und diese Erkenntnisse in neue klinische Behandlungen umsetzen. Abbildung 2.

Abbildung 2. Die Identifizierung von Tierarten und ihrer besonderen Physiologie, welche die Anfälligkeit für Krankheiten einschränkt, kann die biomedizinische Innovation beschleunigen. Ein systematischer Ansatz ist erforderlich, um eine umfassende phylogenetische Karte der Anfälligkeit und Resistenz gegenüber Krankheiten zu erstellen.(Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)

Wie können evolutionäre Prinzipien neue Krebsbehandlungen inspirieren?

Viele Krebstherapien zielen darauf ab, Tumore mit hochdosierten Krebsmedikamenten zu eliminieren. Wenn die Behandlung dann nicht mehr wirksam ist, wird sie durch eine andere und möglicherweise durch noch weitere Behandlungen ersetzt. Auch wenn dies erfolgreich sein kann, gibt es zwei entscheidende Nachteile: die Entwicklung von Arzneimittelresistenzen in Krebszellen und die Toxizität für normale Zellen. Die evolutionäre Medizin kann diese Hürden überwinden, indem sie Behandlungen entwickelt, welche die Entwicklung der Krebszellen berücksichtigen. Beispielsweise:

  • Die Extinktionstherapie sieht eine hohe Dosis eines Medikaments vor, um den Tumor zu verkleinern, gefolgt von einem anderen Medikament, um die verbleibenden Krebszellen abzutöten, bevor sie eine Chemotherapieresistenz entwickeln.
  • Die adaptive Therapie zielt darauf ab, die Tumorgröße stabil zu halten, während die Krebszellen für die medikamentöse Behandlung empfindlich bleiben. Dieser Ansatz ist vielversprechend für eine langfristige Kontrolle fortgeschrittener Krebserkrankungen.

Wie kann die Evolutionsmedizin dazu beitragen, die Krise der antimikrobiellen Resistenz zu bewältigen?

Die Resistenz von Bakterien und anderen infektiösen Mikroorganismen gegen antimikrobielle Mittel ist eine große globale Gesundheitsbedrohung. Zu den konventionellen Lösungen gehört die Entwicklung neuer antimikrobieller Mittel, was jedoch kostspielig ist und nur eine vorübergehende Lösung darstellt. Alternative Ansätze umfassen:

Abbildung 3. Die Anti-Antibiotika-Strategie zur Verhinderung von Resistenzentwicklung und Weiterverbreitung bei kommensalen opportunistischen Krankheitserregern.(Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)
  • Medikamentenkombinationen, Zeitpläne und Dosierungen, die verhindern, dass Mikroben Resistenz entwickeln
  • Eingriffe in den Evolutionsprozess selbst, z. B. durch Störung der Mechanismen, mit denen Bakterien ihre DNA austauschen und dadurch Resistenzen verbreiten (ein Prozess, der als horizontaler Gentransfer bezeichnet wird)
  • orale "Anti-Antibiotika", die verhindern könnten, dass intravenös verabreichte Antikörper bei Darmbakterien Resistenzen auslösen (Abbildung 3)
  • Einsatz von Viren, die Bakterien infizieren, sogenannte Phagen, um antibiotikaresistente Varianten abzutöten und/oder evolutionäre Kompromisse zu erzwingen, die die Empfänglichkeit für Antibiotika wiederherstellen.

Wie kann die evolutionäre Medizin in Maßnahmen des öffentlichen Gesundheitswesens einfließen?

Viele menschliche Krankheiten sind das Ergebnis eines Missverhältnisses zwischen den Ökosystemen, in denen wir uns entwickelt haben, und unserer modernen Umwelt. Abbildung 4. Ein Beispiel für diese Diskrepanz ist unsere Fähigkeit, Energie als Fett zu speichern. Dies war in der Vergangenheit ein Vorteil, als die Nahrung knapp war, führt aber in Gesellschaften, in denen es heute reichlich Nahrung gibt, zu einem Anstieg von Adipositas, Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen. Weitere Probleme können entstehen, wenn unser Körper als Reaktion auf unser ökologisches und soziales Umfeld seine Prioritäten zwischen den drei wichtigsten evolutionären Zielen (Wachstum, Fortpflanzung und allgemeine Überlebensfähigkeit) verschiebt. Männliche Fruchtbarkeitsprobleme könnten ein Beispiel dafür sein.

Abbildung 4. Gesundheitspolitische Massnahmen auf Basis der evolutionären Medizin. (Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)

Eine evolutionäre Perspektive kann diese Probleme angehen, indem die ökologischen Bedingungen mit den Bedürfnissen der menschlichen Biologie in Einklang gebracht werden. Im Falle einer evolutionären Fehlanpassung könnte dies bedeuten, dass der Schwerpunkt von der individuellen Verantwortung, die sich auf Ernährung und Bewegung konzentriert, auf Maßnahmen des öffentlichen Gesundheitswesens wie Lebensmittelsteuern und Beschränkungen in der Vermarktung von Lebensmitteln an Kinder verlagert wird.

Welche Rolle spielt die evolutionäre Medizin bei der Bekämpfung von COVID-19 und künftigen Pandemien?

Evolutionäre Prinzipien sind für die Vorhersage von Krankheitsausbrüchen, die Beherrschung der Infektionen und die Modellierung von Zukunftsszenarien unerlässlich. Die COVID-19-Pandemie ist ein perfektes Beispiel dafür. Modelle, die auf Darwins Erkenntnissen über Anpassung und natürliche Selektion beruhen,haben die Eigenschaften der erfolgreichen SARS-CoV-2-Varianten korrekt voraus gesagt. Diese Erkenntnisse ermöglichten auch die schnelle Identifizierung und das Aufspüren neuer Varianten sowie der Orte, an denen das Virus übertragen worden war.

Wie kann die evolutionäre Medizin gesunde Verhaltensweisen fördern?

Die Evolutionsmedizin kann helfen zu erklären, warum wir ungesunde Entscheidungen treffen, wie z.B. übermäßiges Essen, Rauchen, einen sitzenden Lebensstil und die Ablehnung von Impfungen. So können beispielsweise Begebenheiten im Leben eines Menschen den Ausschlag für solche Verhaltensweisen geben, während Entscheidungen, die oft als "problematisch" bezeichnet werden, im Rahmen einer eigenen, oft unbewussten Kosten-Nutzen-Rechnung des Einzelnen durchaus Sinn machen können.

Betrachtet man das Verhalten der Menschen durch diese evolutionäre Brille, so ließen sich wirksamere Maßnahmen im Bereich der öffentlichen Gesundheit entwickeln. Politische Maßnahmen, die sich auf die Verbesserung der Lebensperspektiven der Menschen konzentrieren - indem sie allen Menschen Zugang zu Bildung und Arbeitsplätzen verschaffen und gleichzeitig Ernährungsunsicherheit, Diskriminierung und Kriminalität beseitigen - würden insbesondere dazu beitragen, gesunde Verhaltensweisen in der gesamten Gesellschaft zu fördern.


 [1] Natterson-Horowitz B et al., The future of evolutionary medicine: sparking innovation in biomedicine and public health. Front Sci (2023) 1:997136. doi: 10.3389/fsci.2023.997136. (Lizenz: cc-by)


 *Zur Veröffentlichung von Natterson-Horowitz B et al., [1] gibt es auch eine Zusammenfassung für Nicht-Wissenschafter (Lay summary 1doi: 10.3389/fsci.2023.997136). Diese wurde von der Redn. möglichst wortgetreu übersetzt und durch 2 Abbildungen aus dem Originalartikel ergänzt.


 The future of evolutionary medicine. Video 0:40 min. https://www.youtube.com/watch?v=iuhWfoHaINs&t=4s


 

inge Thu, 20.04.2023 - 13:38

Mitochondrien - mobile Energielieferanten in Neuronen

Mitochondrien - mobile Energielieferanten in Neuronen

Fr, 14.04.2023 — Susanne Donner

Susanne DonnerIcon Hirn-Energie

Archaisch, mächtig, flexibel: Mitochondrien sind weit mehr als Kraftwerke. Sie treiben die Evolution, bestimmen, was das Gehirn leistet und sind mitverantwortlich, wenn wir bei Sauerstoffmangel in Ohnmacht fallen. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner gibt eine Überblick über die Rolle der Mitochondrien in unserem enorm energieverbrauchenden Nervensystem, wie Neuronen über die ganze Länge ihrer Dendriten und Axone die Energieversorgung sicherstellen, und welche Folgen eine Unterversorgung haben kann.*

Die folgenreiche Vereinnahmung hat sich vor mindestens einer Milliarde Jahren ereignet. Lange bevor Tiere und Menschen die Erde bevölkerten. Im Wasser, das den Planeten bedeckte, trafen ein Bakterium und ein weiterer Einzeller aufeinander. Der Einzeller verleibte sich das Bakterium ein – eine Fusion zweier Lebensformen, die letztlich für beide von Nutzen war: So entstanden die Organelle, die sich heute in jeder Zelle von Tieren, Pflanzen und Menschen befinden.

Relikt der geschichtsträchtigen Verschmelzung, die als Endosymbiontentheorie in die Lehrbücher einging, sind beispielsweise die Mitochondrien, gern als „Kraftwerke der Zelle“ bezeichnet. Ihre Erbinformation ist bis heute „nackt“ und ringförmig als sogenanntes Plasmid angeordnet – so wie man es von Bakterien kennt. Dagegen ist die DNA des Zellkerns auf Histone aufgerollt, spezielle Proteine, die die DNA verpacken. Zudem sind die Mitochondrien von einer Doppelmembran umhüllt, die entfernt an die Zellwand von Bakterien erinnert. Abbildung 1. Auch, dass die mitochondriale DNA viel schneller Mutationen anhäuft – wohl weil die Reparatursysteme weniger effizient arbeiten – könnte auf Bakterien zurückgehen, die aufgrund ihrer kurzen Lebensdauer auf derartige Mechanismen weniger angewiesen sind. Die Kern-DNA ist dagegen robuster gegenüber dem Zahn der Zeit.

Abbildung 1. Mitochondrien: zugereiste Kraftwerke in eukaryotischen Zellen (Bild von Redn. eingefügt aus: Wikipedia; gemeinfrei)

Die Macht der Mitochondriengene

Gleichwohl wurde der Beitrag der Mitochondrien zur Erbmasse lange vernachlässigt, weil ihre Gene nur einen Anteil von 0,1 Prozent beisteuern. Sie zählen gar nur 37 Gene, gegenüber rund 25.500 auf der Doppelhelix im Zellkern. Die Mitochondrien stammen in der Regel von der Mutter. Die Kraftwerke des Vaters werden in der befruchteten Eizelle eliminiert. Es gibt allerdings Ausnahmen „Toyota-Prinzip: Nichts ist unmöglich“, kommentiert die Neurowissenschaftlerin Petra Wahle von der Universität Bochum. „Dann gibt der Vater seine Mitochondrien weiter. Das ist aber selten.“

So oder so – lange dachten Forscher, dass die Vererbungswege für die Mitochondrien-DNA und die Kern-DNA unabhängig nebeneinander existieren. Doch neuere Studien unterstreichen, wie eng Zellkern und Mitochondrien sich aufeinander abstimmen und miteinander austauschen.

Der Genetikspezialist Wei Wei von der Universität Cambridge und seine Kollegen untersuchten dafür das Erbgut von 1.526 Müttern und ihren Kindern. Und zwar sequenzierten sie sowohl das Kern- als auch das mitochondriale Genom. Dabei fiel ihnen auf, dass Mutationen im Mitochondriengenom nicht beliebig an den Nachwuchs weitergegeben werden. Vielmehr setzten sich eher solche Varianten durch, die bereits in der Vergangenheit aufgetreten waren und die mit der Kern-DNA harmonierten. Dies ergab ein Abgleich mit einer Gendatenbank, in der die Geninformationen zu 40.325 weiteren Personen hinterlegt waren. Wei schließt daraus, dass die Kern-DNA kontrolliert, welche Mitochondrien-Erbinformationen sich durchsetzen. Beide Vererbungswege sind keineswegs isoliert voneinander.

Mitochondrien ko-evolvieren mit der Kern-DNA“, sagt Wahle. Das habe damit zu tun, dass sie längst nicht nur Energielieferanten sind. Sie haben vielfältige basale Funktionen. So steuern sie beispielsweise die Produktion wichtiger Signalstoffe und Zellbausteine. Nur mit ihrer Hilfe kann die Zelle komplexe Proteine und andere Stoffe erzeugen. Diese Baustoffe brauchen wiederum die Mitochondrien dauernd, um sich permanent rundzuerneuern. Es besteht eine wechselseitige Abhängigkeit. Diese bedingt, dass die Erbmasse von Mitochondrien und Kern fein aufeinander abgestimmt sein muss.

Wenn die Mitochondriengene nicht passen, droht das Aussterben

Das geht so weit, dass beliebig mutierte Mitochondrien die Fitness des Organismus kompromittieren würden. Wenn Forschende etwa die Mitochondrien einer anderen Art in die Keimbahn einschleusen, sind die Nachkommen dieser Bastarde zwar lebensfähig, aber weniger fruchtbar, legt Wahle dar. „Sie entwickeln sich schlechter und sterben unter dem Strich wieder aus.

Mitochondriengene weisen aber, wie erwähnt, enorm hohe Mutationsraten auf. Auf diese Weise helfen sie Lebewesen dabei, sich zu Lebzeiten an sich rasch verändernde Umweltbedingungen anzupassen. Sie modulieren beispielsweise die Menge bereitgestellter Energie.

Über Mitochondrienmutationen entstehen auch in kurzer Zeit neue Arten, wie der israelische Evolutionsforscher Dan Mishmar herausarbeitete: etwa, wenn sich die Lebensräume zweier Populationen trennen. Dann verändert sich deren mitochondriale DNA derart rasch, dass beide schon nach kurzer Zeit nicht mehr kompatibel miteinander sind. Sie können zusammen keine ausreichend lebensfähigen Nachkommen mehr zeugen.

Mehr als kleine Punkte im Neuron

Neben der Fruchtbarkeit sind es kognitive Fähigkeiten, die als Erstes leiden, wenn die Mitochondrien schwächeln. Nach derzeitigem Wissensstand stehen alle neurodegenerativen Krankheiten mit maroden Zellkraftwerken in Verbindung. Die Nervenzellen im Gehirn, aber auch die Zellen von Muskeln und Auge haben einen besonders hohen Energiebedarf.

Das liegt an zwei Besonderheiten. Damit kognitive Prozesse, das Denken und Handeln, ablaufen können, muss der Ionenhaushalt im Gehirn in einem Gleichgewicht sein. Vor allem der Calciumspiegel darf weder in den Zellen noch außerhalb zu sehr abfallen. Das entscheidet mitunter über Leben und Tod einer Zelle. Und, wenn Nervenzellen feuern, müssen sie Aktionspotentiale weiterleiten. Auch das kostet viel Energie.

„In Lehrbüchern sind Mitochondrien immer so diskret hingezeichnet. Aber wir haben pro Neuron mehrere hundert von diesen Mitochondrien“, sagt der Neurowissenschaftler Oliver Kann von der Medizinischen Fakultät der Universität Heidelberg. Das sind viel mehr als beispielsweise in weniger energiehungrigen Geweben wie die Haut.

Mit Blick auf die Mitochondrien sei Neuron allerdings nicht gleich Neuron, wie Kann betont. In seinen Forschungen ergründet er, wie sich verschiedene Hirnzelltypen in ihren Mitochondrien unterscheiden. Manches ist augenfällig, etwa wenn seine Mitarbeitenden die Mitochondrien in Hirnschnitten von Ratte oder Maus histologisch anfärben. In den Dendriten, den verästelten Zellfortsätzen, die die elektrische Erregung von Nachbarzellen aufnehmen, sehen Mitochondrien langgezogen aus. Wenn man aber entlang des Zellfortsatzes näher an die Zelle heranrückt, werden die Mitochondrien kompakt und punktförmig. Und auch in den Prinzipalneuronen selbst, zu denen etwa die Pyramidenzelle gehört, haben sie diese aus Lehrbüchern vertraute Form.

Mitochondrien sind mobil und teilbar wie ein Güterzugsystem

Abbildung 2. Die Form der Mitochondrien hängt vom Kompartiment des Neurons ab. Im Dendriten sind die Mitochondrien langgezogen (0,5 -8,9 µm) und füllen den Großteil des dendritischen Raums aus (b) unten). Im Axon sind die Mitochondrien vergleichsweise kurz (0,3 - 1,1 µm) und besetzen nur rund 5 % der Axonlänge. a) Pyramidenzelle aus dem Kortex, Mitochondrien mittels eines Matrix-gerichteten fluoreszierenden Proteins (mt-DsRED - grün) sichtbar gemacht. b)Vergrößerter Ausschnitt aus a) (braune Box): Teil eines Dendriten, mt-DsRED : mitochondrialer Marker, GFP: Cytosol markiert mit fluoreszierendem Protein. c) Vergrößerter Ausschnitt aus a) (grüne Box): Teil eines Axons, Markierung wie in b). (Bild von Redn. eingefügt, Quelle: Lewis, T.L. et al.,. Nat Commun 9, 5008 (2018) https://doi.org/10.1038/s41467-018-07416-2 Lizenz: cc-by 4.0)

Besonders viele Mitochondrien sitzen in der synaptischen Endigung, also an jenem Ort, an dem Information von einer Nervenzelle zur nächsten übertragen wird. Dort ist besonders viel Energie nötig, um das Signal über den synaptischen Spalt weiterzuleiten. Dafür schließen sich die Mitochondrien teilweise sogar lokal zusammen. Sie bilden hochdynamische Netzwerke, erklärt Kahn, ähnlich einem Güterverkehrssystem. Mitochondrien können sich tatsächlich auch fortbewegen. Sie wandern entlang des Axons und nutzen dafür Mikrotubuli, röhrenförmige Proteine, und molekulare Motoren.

Qua ihrer Mobilität können sich Mitochondrien sammeln. Noch dazu sind sie – wieder in Analogie zum Güterzugsystem in der Lage - miteinander zu verschmelzen, sodass aus mehreren Mitochondrien ein Mitochondrium wird, oder sich zu teilen. (Abbildung 2) Diese Eigenart wird als „fusion“ für Verschmelzung und „fission“ für Spaltung bezeichnet. Wie wichtig sie ist, zeigt auch die Entdeckung, dass eine Stammzelle sich genau dann zum Neuron entwickelt, wenn sich die Mitochondrien in ihr massiv teilen und damit in ihrer Zahl erhöhen.

Wenn Mitochondrien nicht abliefern, schwächeln wir beim Lernen und Autofahren

Besonders viele Mitochondrien benötigen aber auch bestimmte Nervenzellen, Interneurone genannt, die die Netzwerkaktivität im Gehirn synchronisieren. Sie sind quasi die Taktgeber des Neuronenfeuers im Gehirn. Sie sorgen dafür, dass beim Ableiten der Hirnströme über die Kopfhaut überhaupt rhythmische Signale von den alpha- bis zu den theta-Wellen auf dem Bildschirm zu sehen sind. Die Interneurone ermöglichen höhere kognitive Leistungen wie die Verarbeitung komplexer visueller Reize und die selektive Wahrnehmung, auch das Bewusstsein. Dafür müssen sie allerdings in schnellem Takt stark feuern.

Kanns Team stellte unter Beweis, dass diese Energiefresser im Gehirn als erstes an Funktion einbüßen, wenn es zu mildem Stress auf den Stoffwechsel kommt. Der kann darin bestehen, dass weniger Glucose oder Sauerstoff ins Gehirn kommen oder zu viele freie Radikale anfluten. In weiteren Experimenten an isolierten Hirnschnitten von Ratte und Maus erkannten die Forschenden schließlich auch, dass auch ein gestörter Calcium-Ionen-Haushalt die rhythmische Netzwerkaktivität, den Job der Interneurone, unterminiert. Wahrscheinlich, weil die Mitochondrien nicht richtig arbeiten können, wenn der Calciumeinstrom in die Zelle gestört ist.

Für den Neurowissenschaftler können all diese Befunde ein bemerkenswertes Verhalten des menschlichen Gehirns erklären: An Piloten testete man nach dem Zweiten Weltkrieg, was geschieht, wenn kurzzeitig zu wenig Blut ins Gehirn gelangt. Wie anekdotisch überliefert sei, berichtet Kann, legte man ihnen dafür eine enge Manschette um den Hals. Nach vier bis sechs Sekunden waren sie schon bewusstlos. Doch ihre Nervenzellen feuerten noch weiter. Erst nach einigen Minuten beginnen die Neuronen unterzugehen. Kann sagt: „Das Gehirn hat einfach nicht ausreichend Energiespeicher, um die Interneurone zu versorgen und damit die höheren kognitiven Fähigkeiten aufrechtzuerhalten.“

Frauen bekamen das im 19.Jahrhundert dank der damals vorherrschenden Mode am eigenen Leib zu spüren. Zu eng geschnürte Korsette drückte ihre Atemwegsorgane ab, sodass ihr Gehirn zu wenig Sauerstoff bekam. Mangels Mitochondrien-Power fielen die Frauen dann schon mal zu Boden. Nach der Ohnmacht aber war es, als sei nichts gewesen.

Zusammenfassung

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Zum Weiterlesen

  • Wei, W et al.: Germline selection shapes human mitochondrial DNA diversity. Science. 2019. 364(6442):eaau6520. doi: 10.1126/science.aau6520
  • Bas-Orth, C et al. : The mitochondrial calcium uniporter is crucial for the generation of fast cortical network rhythms. J Cereb Blood Flow Metab. 2020, Nov;40(11):2225–2239. doi: 10.1177/0271678X19887777
  • Kann, O. et al.: The interneuron energy hypothesis: Implications for brain disease. Neurobiol Dis. 2016, Jun;90:75¬–85. doi: 10.1016/j.nbd.2015.08.005
  • Elzoheiry, S et al.: Mild metabolic stress is sufficient to disturb the formation of pyramidal cell ensembles during gamma osciallations. J Cereb Blood Flow Metab. 2020 Dec;40(12) :2401–2415. doi: 10.1177/0271678X19892657
  • Iwata, R et al.: Mitochondrial dynamics in postmitotic cells regulate neurogenesis. Science. 2020 Aug 14;369(6505):858–862. doi: 10.1126/science.aba9760
  • Rangaraju, V et al.: Pleiotropic Mitochondria: The Influence of Mitochondria on Neuronal Development and Disease. J Neurosci. 2019 Oct 16;39(42):8200–8208. doi: 10.1177/0271678X19892657

*Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Der vorliegende Artikel ist am 15.3.2023 unter dem Titel: " Zugereiste Kraftwerke" https://www.dasgehirn.info/grundlagen/energie/zugereiste-kraftwerke erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt.


 Verwandte Themen im ScienceBlog


 

inge Fri, 14.04.2023 - 14:41

Candida auris: ein neuer Pilz breitet sich aus

Candida auris: ein neuer Pilz breitet sich aus

Fr, 07.04.2023 — Ricki Lewis

Ricki Lewis

Icon Medizin

Vor wenigen Tagen hat das US-Center of Disease Control (CDC) vor der zunehmenden Gefahr von gegen Antimykotika resistenten Pilzen gewarnt, die sich derzeit in Gesundheitseinrichtungen ausbreiten. In erster Linie geht es hier um den neu aufgetretenen Stamm Candida auris (C. auris), den ersten Pilz, von dem bereits multiresistente Formen gegen alle 3 Klassen von Antimykotika existieren. Infektionen mit diesem Pilz führen zu schwerer verlaufenden Erkrankungen als mit dem von alters her bekannten Verwandten Candida albicans, der für häufige Infektionen der Vagina und des Rachens verantwortlich ist. Die Genetikerin Ricki Lewis gibt einen Überblick über die gegenwärtige Situation.*

Candida auris, ein multiresistenter Hefepilz (Quelle: Lundquist Institute)

Candida-Hefepilze sind ganz normale Bewohner unserer Haut und anderer oberflächlicher Organe; sie werden aber gefährlich, wenn sie in den Blutkreislauf gelangen oder Organe wie das Herz oder die Nieren erreichen. "Das, wodurch Candida auris von anderen Candida-Arten verschieden und besonders beängstigend erscheint, ist dass der Keim bis zu zwei Wochen auf der Haut und auf Oberflächen im Gesundheitseinrichtungen überleben kann, und dadurch in diesen und in Pflegeheimen die Ausbreitung von Mensch zu Mensch ermöglicht. Dieser Pilz wird in der Regel nicht durch die üblichen klinisch angewandten Antimykotika abgetötet; dies erschwert die Behandlung der Infektion und kann oft zu einem tödlichen Ausgang führen. Erschwerend kommt dazu, dass der Keim mit Standard-Labormethoden nur schwer zu identifizieren ist." So fasst Mahmoud Ghannoum, Direktor des Zentrums für medizinische Mykologie am University Hospitals Cleveland Medical Center, die Situation zusammen.

Das US-Center for Disease Control (CDC) und andere Organisationen des öffentlichen Gesundheitswesens setzen die Ganzgenom-Sequenzierung ein, um die Verbreitung dieses Pilzes weltweit zu verfolgen. Die Behörde hat mit FungiNet im Jahr 2021 ein "Netzwerk für die molekulare Überwachung und genomische Epidemiologie für Pilzkrankheiten" gestartet, wobei der anfängliche Schwerpunkt auf C. auris liegt. Mit der Online-Ressource werden "landesweite Laborkapazitäten zur raschen Erkennung, Vorbeugung und Reaktion auf Arzneimittelresistenzen" gegen diese Infektion unterstützt.

Der Vergleich ganzer Genomsequenzen kann Aufschluss darüber geben, woher der Erreger kommt und wohin er wahrscheinlich geht (als COVID auftrat war die Überwachung in den USA im Vergleich zu anderen Ländern notorisch verspätet). Anhand der Sequenzen lässt sich die Evolution auf der Grundlage einer einzigen Annahme zurückverfolgen: Je ähnlicher die Nukleinsäuresequenzen zweier Arten, Stämme oder sogar Individuen sind, desto jünger ist ihr gemeinsamer Vorfahre. Aus diesen Daten lassen sich also Stammbäume ableiten - manchmal gibt es mehr als einen, um die Hinweise in der Sprache der Genetik zu erklären.

Dem neuen Erreger auf der Spur

Die erste klinische Identifizierung von Candida auris erfolgte 2009 in Japan, aufbewahrte Kulturen zeigen aber, dass der Erreger mindestens bis 1996 in Südkorea zurückdatiert. Das CDC bezeichnet Candida auris als "neu auftretendes Pathogen", weil es inzwischen in mehr als 30 Ländern aufgetaucht ist. Die Behörde verfolgt seit 2013 den Erreger, dessen Ausbreitung hat sich 2015 beschleunigt.

Ein 2018 in der Fachzeitschrift Lancet Infectious Diseases veröffentlichter Bericht des US-Candida auris Investigation Teams des CDC hat Gesamtgenom-Sequenzen des Hefepilzes von Patienten aus zehn US-Bundesstaaten sowie aus Indien, Kolumbien, Japan, Pakistan, Südafrika, Südkorea und Venezuela verglichen.

Die Studie hat sich dabei auf einzelne Basen-Positionen im Genom konzentriert, die von Land zu Land, von Patient zu Patient und sogar in ein und derselben Person variieren können (Single Nucleotide Polymorphisms, kurz SNPs). Das Team hat auch Reiseverhalten und Kontakte berücksichtigt, welche die Ausbreitung begünstigt haben könnten. Die US-Fälle "waren genetisch mit denen aus vier globalen Regionen verwandt, was darauf hindeutet, dass C. auris mehrmals in die USA eingeschleppt wurde. Die genetische Vielfalt der Isolate von denselben Patienten, Gesundheitseinrichtungen und Bundesstaaten deutet darauf hin, dass es eine lokale und kontinuierliche Übertragung gibt", so die Schlussfolgerung des Berichts.

Jetzt ist der Pilz also da.

Im Jahr 2022 meldete das CDC 2.377 Fälle von Patienten und weitere 5.754 bei deren Kontaktpersonen, vor allem in Kalifornien, Nevada, Texas, New York, Florida und Illinois. Dies könnte jedoch eine zu niedrige Zahl sein - einige Ärzte dürften die Fälle noch nicht melden (oder vielleicht nicht erkennen).

Wer ist gefährdet?

Wie viele andere Erreger ist C. auris besonders für Patienten in Krankenhäusern gefährlich; der Keim gelant dort in den Blutkreislauf und breitet sich in der betroffenen Person und auch auf andere Menschen aus. Er infiziert auch Ohren (daher das "auris") und Wunden und möglicherweise Lunge und Blase - zumindest wurden die Hefepilze aus Sputum und Urin isoliert.

Am stärksten gefährdet sind Patienten mit Kanülen, die in Körperteilen stecken (z.B. Venenkatheter, Harnwegskatheter, Beatmungstuben; Anmerkung Redn.), oder Patienten, die übermäßig bestimmte Breitband-Antimykotika oder Antibiotika verwendet haben. Die Sterblichkeitsrate kann 60 % erreichen - allerdings sind viele Patienten bereits schwer krank, bevor sie sich dann im Spital infizieren.

Candida auris verbreitet sich über die Luft und durch Kontakt mit kontaminierten, pilzhaltigen Oberflächen. Und Menschen jeden Alters können infiziert werden.

Für die Identifizierung von C. auris sind spezielle Labortests und Verfahren zur Kultivierung der Hefe erforderlich; der Erreger kann leicht mit anderen Candida-Arten verwechselt werden. Außerdem ist er gegen viele herkömmliche Antipilzmittel resistent (Resistenzen wurden gegen alle 3 Klassen von Antimykotika - Azole, Polyene und Echinocandine - festgestellt; Anmerkung Redn.) Die wirksamsten Medikamente sind noch die Echinocandine, aber es können auch Kombinationen von Medikamenten erforderlich sein, um die Infektion in den Griff zu bekommen.

Die Suche nach neuen Antimykotika

ist im Gange. Beispielsweise hat die Case Western Reserve University gerade eine Förderung in der Höhe von 3 Millionen Dollar von den National Institutes of Health (NIH) erhalten, um neue Therapeutika zu entwickeln.

Meiner Meinung nach steckt aber der Großteil der Forschung noch im präklinischen Stadium (auf der Stufe von Tiermodellen und Synthese von Substanzen), denn auf der Plattform Clinicaltrials.gov, die weltweit klinische Studien listet, sind nur drei solcher Studien an dem Hefepilz gelistet; diese finden in Indien, Pakistan und Südafrika statt (in zwei der Studien werden Substanzen mit neuen Wirkmechanismen untersucht; Sponsoren sind Scynexis, Inc und Pfizer. Die dritte Studie in Pakistan befasst sich mit epidemiologischen Daten. Anmerkung Redn.). Ein Impfstoff wird am Lundquist Institute der UCLA entwickelt - bislang funktioniert er bei Mäusen und kann mit Antimykotika kombiniert werden.

Einstweilen werden die Genomvergleiche fortgesetzt, um Informationen zu sammeln, den Erreger zu verfolgen und wenn möglich auch vorherzusagen, wo sich die Hefe ausbreitet, um Ausbrüche verhindern zu können. Durch die Berücksichtigung von Genomdaten zusammen mit anderen Informationen können die Forscher herausfinden, wie die Menschen mit dem Pilz in Kontakt gekommen sind, wohin sich der Pilz wahrscheinlich geografisch bewegt, und sogar die Einschleppung des Erregers in neue Gebiete aufdecken, bevor Ausbrüche auftreten oder entdeckt werden.


 Der Artikel ist erstmals am 30. März 2023 in PLOS Blogs - DNA Science Blog unter dem Titel " The New Fungus Among Us, Candida auris" https://dnascience.plos.org/2023/03/30/the-new-fungus-among-us-candida-auris/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der leicht gekürzte Artikel folgt so genau wie möglich der englischen Fassung.


Warnungen der Behörden


 

inge Sat, 08.04.2023 - 00:15

Neuronen sind Energiefresser

Neuronen sind Energiefresser

Do, 23.03.2023 — Nora Schultz

Nora SchultzIcon Hirn-Energie

Das Gehirn ist der größte Energiefresser des Körpers und gleichzeitig ungemein komplex. Das Gehirn des Menschen besteht aus rund 86 Milliarden Neuronen und obwohl viel Energie in die Kommunikation über die elektrischen Impulse auf der Membran läuft, verbrauchen auch die Prozesse im Inneren der Zelle eine gehörige Menge davon. Geliefert wird sie von bestimmten Zellorganellen, den Mitochondrien – sie bilden das Hauptkraftwerk sämtlicher Körperzellen.*

„It’s the economy, stupid.“ Der Spruch, der Bill Clintons Wahlkampagne 1992 mit zum Sieg verhalf, taugt auch als Motto für das Gehirn. Denn im Kopf kommt es ebenfalls entscheidend auf die Wirtschaft an – genauer gesagt: auf die Energiewirtschaft. Ohne eine stets ausbalancierte Energiezufuhr und -verteilung gelingen keine Geistesblitze und drohen schlimmstenfalls Zelltod und bleibende Schäden im Gehirn.

Abbildung 1. Die Energieversorgung der Neuronen. Das einzelne Neuron enthält verschiedene Bereiche mit unterschiedlichen Aufgaben, und sie verzweigt sich über weite Distanzen. Dadurch wird der Transport von Substanzen innerhalb der Zelle zur Herausforderung, auch der von Mitochondrien, den Kraftwerken der Zelle. (Grafik MW

Knapp anderthalb Kilo gallertartige Masse im Kopf verschlingen bis zu 20 Prozent des gesamten menschlichen Energieumsatzes – allein dies zeigt, wie anspruchsvoll unser Oberstübchen ist. Unter Ruhebedingungen geht der größte Stromverbrauch– wenig überraschend – auf das Konto der Nervenzellen. Viel Rechnerei ist teuer. Das gilt nicht nur für das Schürfen von Kryptowährung, sondern auch für den Datenaustausch im Gehirn.

Neuronen verrechnen Informationen und leiten sie weiter, indem sie ständig Neurotransmitter und Ionen durch ihre Zellmembranen transportieren. Dafür müssen sie fortwährend Transportkanäle öffnen, und brauchen viel Energie, um molekulare Pumpen zu bedienen und die Kanäle wieder zu schließen.

Zwar verbrauchen auch andere Zelltypen im Gehirn viel Energie, wie etwa die ebenso zahlreichen Gliazellen. Die Nervenzellen aber ragen als Rechenkünstler hervor. Abbildung 1.

Schon ihre Gestalt regt die Fantasie an. Neurone sind halb Baumwesen, halb Alien: Der „Kopf“ eines Neurons – der Zellkörper, der den Zellkern enthält – vernetzt sich über die vielen Antennen seiner fein verästelten Krone mit unzähligen anderen Neuronen. Seine Krone ist beindruckend ausladend – ihre Arme, die Dendriten erstrecken sich beispielsweise in den besonders großen Pyramidenzellen der Großhirnrinde über mehrere hundert Mikrometer, während der Zellkörper nur 20 Mikrometer Durchmesser hat. Abbildung 2. Verglichen mit dem „Stamm“ der Zelle – dem Axon – wirken die Dendriten allerdings winzig. Gemessen an den Maßstäben anderer Zellen schlängelt sich das Axon über gigantische Distanzen von bis zu einem Meter durchs Nervensystem und dockt am Ziel über das ebenfalls stark verzweigte Wurzelwerk der Axonterminale erneut an viele Partnerzellen an.

Abbildung 2. Schematische Darstellung einer Nervenzelle und einer Helferzelle (Gliazelle). Neuronen sind auf Helferzellen angewiesen, die Blutgefäße anzapfen und vorverdauten Treibstoff an Neurone weitergeben (Bild von Redn. eingefügt, leicht modifiziert: Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. Lizenz: cc-by.)

Der Bedarf

Eine durchschnittliche Nervenzelle kommt so auf zehntausende Kontaktstellen (Synapsen) mit anderen Neuronen. Jede dieser Synapsen besteht aus einem präsynaptischen Terminal – einem Knöpfchen am Ende eines Axons – das Signale weitergibt, und einem postsynaptischen Terminal in Gestalt eines „Knubbels“, das sie empfängt. Abbildung 3, Ausschnitt. Signale überqueren den Spalt zwischen den Terminalen immer in Form kleiner Moleküle, den Neurotransmittern. Am postsynaptischen Terminal werden sie von spezialisierten Empfängereiweißen (Rezeptoren) erkannt. Diese lösen dann eine Reaktion aus, die das Neuron mit vielen Signalen, die es über seine anderen Synapsen empfängt, verrechnet. Je nach Rechenergebnis feuert die Zelle dann ein Aktionspotential, bei dem sich ein elektrisches Signal in einer Kettenreaktion entlang des Axons bis in die präsynaptischen Endungen fortpflanzt und über die dort liegenden Synapsen weitere Neurone erreicht. Aktionspotentiale sind immer gleich stark, unterscheiden sich aber in ihrer Häufigkeit – von Zelle zu Zelle und Situation zu Situation. Abbildung 3.

Abbildung 3. Signalübertragung zwischen zwei Neuronen. Detail: Übertragung an der Synapse. (Bild von Redn. eingefügt: Christy Krames, MA, CMI — https://web.archive.org/web/20070713113018/http://www.nia.nih.gov/Alzheimers/Publications. Lizenz: gemeinfrei)

Die Weitläufigkeit und Gliederung der Neuronen in verschiedene Bereiche (Kompartimente) lässt erahnen, welche Herausforderungen die Energieversorgung darstellt. Es gilt, jede Menge Prozesse und Materialien im Gleichgewicht – auch Homöostase genannt – zu halten. Je nachdem, was in den einzelnen Kompartimenten eines Neurons geschieht – in den Dendriten, dem Zellkörper, dem Axon oder den Synapsen – müssen Signale und Stoffe in andere Kompartimente geschickt, nach außen abgeben oder aus der Umgebung aufgenommen werden. Sowohl die Ausschüttung und Aufnahme von Neurotransmittern als auch die Verarbeitung von Informationen und der Weitertransport von Signalen entlang des Axons gehen mit chemischen und elektrischen Veränderungen an der Zellmembran einher. Ionenkanäle öffnen oder schließen sich und lassen positiv geladene Natrium-, Calcium- oder Kaliumionen oder negativ geladene Chlorionen in die Zelle hinein- oder aus ihr herausströmen, bzw. pumpen sie aktiv von einer Seite zur andern.

Dieses dynamische Gleichgewicht in der lebenden Zelle zu beobachten, ist nicht einfach und wird erst mit neueren Methoden nach und nach möglich. Klar ist, dass der dabei fortwährende Transport von Ionen und Neurotransmittern viel Energie frisst. Im Vergleich zu menschgemachten Computern und anderen Maschinen arbeitet das Gehirn allerdings – zumindest nach aktuellem Stand der Technik – viel effizienter. Sein Energieumsatz ähnelt mit knapp 20 Watt dem einer Energiesparlampe. Ein Laptop braucht locker das Doppelte, ist aber viel weniger leistungsfähig. Der Supercomputer SpiNNaker , der circa ein Prozent des menschlichen Gehirns zu simulieren vermag, braucht dafür 100 Megawatt.

Abbildung 4. Neuronale Mitochondrien in den unterschiedlichen Kompartimenten des Neurons. (A) Mitochondrien werden mit Hilfe eines fluoreszierenden mitochondrialen Proteins (rot) sichtbar gemacht. (B) Schematische Darstellung der Kompartimente eines Neurons, wobei das lange Axon und mehrere Dendriten vom Zellkörper (Soma), der den Zellkern enthält, ausgehen. Axonale Mitochondrien sind klein und spärlich, während dendritische Mitochondrien größer sind und ein größeres Volumen des Prozesses einnehmen. Die Mitochondrien sind im Soma dicht gepackt. Maßstab: 20 µm, 10 µm in Vergrößerungen i und ii.(Bild von Redn. eingefügt; leicht modifiziert nach Seager R, et al (2020), Doi: https://doi.org/10.1042/NS20200008. Lizenz: cc-by)

Die Dienstleister

Diese Aufgabe übernehmen allen voran die Astrozyten, sternförmige Gliazellen die mit ihren Endfüßchen wie Zapfsäulen an den Blutgefäßen hängen. Die Astrozyten könne die Blutgefäße verengen und auch erweitern, und sind damit ein wichtiger Regler für den energiereichen Blutfluss. Weitere Ausläufer legen Astrozyten handschuhartig um die postsynaptischen Regionen von Nervenzellen, wo der Energiebedarf besonders hoch ist. Im Gegensatz zu Neuronen können Astrozyten Glukose gut speichern, und zwar – genau wie die Leber – in Form von Glykogen. Außerdem reichen Astrozyten die Glukose, die sie dem Blut oder aus ihren Glykogenvorräten entnehmen, nicht direkt als Treibstoff an die Neuronen weiter, sondern verstoffwechseln sie zunächst zu Milchsäure. Dieses Zwischenprodukt kann dann nach nur einem einzigen weiteren Umwandlungsschritt direkt in die Atmungskette der Mitochondrien eingespeist werden. Abbildung 4.

Andere Gliazellen, die Oligodendrozyten, spielen ebenfalls eine Rolle bei der Versorgung der Axone. Bekannter als Urheber der isolierenden Myelinschicht, die Axone umwickelt und ihre elektrische Leitfähigkeit erhöht, halten Oligodendrozyten ebenfalls als Energielieferanten her. Auch sie schütten Milchsäure aus, die Mitochondrien im Axon dann schnell verwenden können. Die Liefermenge wird dabei an den Energiebedarf angepasst: je häufiger ein Neuron feuert, desto mehr Glukosetransporter bauen die Oligodendrozyten in ihre Membran ein, und desto mehr Energie können sie aus dem Blut aufnehmen und an ihr Axon weitergeben. Dieser maßgeschneiderte Lieferdienst gelingt, weil die Oligodendrozyten über spezielle Empfangsmoleküle „hören“ können, wie aktiv ein Neuron ist. Diese NMDA-Rezeptoren (für N-Methyl-D-Asparaginsäure) erkennen nämlich eine Verbindung, die jedes Mal freigesetzt wird, wenn eine Nervenzelle ein Aktionspotential „abfeuert“.

Mit diesem komplexen Versorgungsnetzwerk aus Gliazellen, Transportkanälen und Mitochondrien schaffen Neurone es im Idealfall, ihre Energieversorgung dynamisch im Gleichgewicht zu halten. Das gelingt allerdings nicht immer. Wird der Nachschub von Glukose und Sauerstoff aus dem Blut unterbrochen oder eingeschränkt, zum Beispiel bei einem Schlaganfall, kommt es schnell zum Zelltod und zu neuronalen Funktionsstörungen. Auch Entzündungsprozesse können die sensible Balance stören oder wichtige Komponenten der Energieversorgung schädigen. Neurologische Erkrankungen wie Demenz, Multiple Sklerose und die Parkinson-Krankheit haben fast immer eine energetische Komponente. Insofern dürfte der erfolgreiche Wahlslogan der Clinton-Kampagne leicht abgewandelt auch in der Hirnforschung noch länger Bestand haben: It’s the Energieversorgung, stupid!


  * Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats März steht das Thema "Energie". Der vorliegende Artikel ist am 15.3.2023 unter dem Titel: "Energieversorgung der Neurone" https://www.dasgehirn.info/grundlagen/energie/energieversorgung-der-neurone erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


 Zum Weiterlesen

• Deitmer JW, et al: Unser hungriges Gehirn: Welche Rolle spielen Gliazellen bei der Energieversorgung? e-Neuroforum 2017, 23(1):2.12. Doi: https://doi.org/10.1515/nf.2016-1102

• Saab AS et al.: Oligodendroglial NMDA Receptors Regulate Glucose Import and Axonal Energy Metabolism. Neuron 2016 Jul; 91:119–132. Doi: http://dx.doi.org/10.1016/j.neuron.2016.05.016

• Seager R, et al: Mechanisms and roles of mitochondrial localisation and dynamics in neuronal function. Neuronal Signal 2020 Jun; 4(2): NS20200008. Doi: https://doi.org/10.1042/NS20200008


Artikel im ScienceBlog

Rund 60 Artikel zu verschiedenen Aspekten des Gehirns - u.a. zu den zellulären Komponenten und zur Signalübertragung - finden sich im Themenschwerpunkt Gehirn.


 

 

inge Thu, 23.03.2023 - 17:15

Ökologie ist eine treibende Kraft in der Verbreitung von Resistenzen gegen Aminoglykoside

Ökologie ist eine treibende Kraft in der Verbreitung von Resistenzen gegen Aminoglykoside

Fr. 17.03.2023 — Redaktion

Redaktion

Icon Molekularbiologie

Die weltweite Ausbreitung der Antibiotikaresistenz in Umwelt und Bevölkerung könnte nicht - wie bisher angenommen - nur auf den übermäßigen Einsatz von Antibiotika in Landwirtschaft und Medizin zurückzuführen sein. Eine neue, enorm umfangreiche Analyse über die Verbreitung von Resistenzgenen gegen die seit den 1940er Jahren angewandte Antibiotika-Klasse der Aminoglykoside bringt wichtige neue Erkenntnisse über eine wesentliche Rolle von Ökologie (Biome) und menschlich generiertem Austausch (Importe durch Einwanderung und Wareneinfuhr). Die Rolle der Ökologie erscheint nicht verwunderlich, beruhen doch die meisten Antibiotika auf von Bakterien und Pilzen produzierten Naturstoffen, gegen die andere Mikroorgannismen - auch ganz ohne menschliche Einflussnahme - Resistenzen entwickelt haben und weiter entwickeln.* 

Nach wie vor stellt Antibiotikaresistenz - die Fähigkeit von Bakterien, selbst die härtesten klinischen Behandlungen zu überleben - in der ganzen Welt ein massives Problem für die Gesundheit der Bevölkerung dar. Häufig wird der übermäßige Einsatz von Antibiotika in Medizin und Landwirtschaft als treibende Kraft für die Entstehung und Ausbreitung von Bakterien angesehen, die gegen Antibiotika resistent sind. In Gebieten, die stark von den Tätigkeiten des Menschen geprägt sind, kann exzessive Antibiotika Anwendung sicherlich die Selektion von Bakterien mit resistenten Genen gegen Antibiotika erklären. Dass aber Resistenzgene gegen klinisch relevante Antibiotika in Gegenden weitab von Krankenhäusern und landwirtschaftlichen Betrieben weit verbreitet sind, ist so nicht erklärbar. Tatsächlich wurden solche Gene sogar in so entlegenen Umwelten wie dem arktischen Permafrost und der Antarktis gefunden.

Nun berichten Léa Pradier und Stéphanie Bedhomme von der Universität Montpellier im Fachjournal eLife über die Ergebnisse einer Studie, die Licht in diese Fragestellung bringt [1]. Die Forscherinnen haben eine der bisher umfangreichsten Studien über Resistenzgene gegen Antibiotika durchgeführt, wobei der Schwerpunkt auf der Resistenz gegen Aminoglykoside lag.

Aminoglykoside

sind eine altbekannte, häufig angewandte Familie von Antibiotika, welche die Proteinsynthese von Bakterien blockieren. Der erste Vertreter dieser Klasse - das aus dem Bodenbakterium Streptomyces griseus isolierte Streptomycin - wurde bereits 1944 erfolgreich gegen Tuberkulose eingesetzt und erwies sich als erstes wirksames Mittel gegen gram-negative Bakterien. Später landeten noch weitere Isolate wie Kanamycin, Neomycin, Apramycin und chemisch modifizierte weiere Aminoglykoside in der Klinik. Bald tauchten aber erste Befunde zu resistenten Bakterienstämmen auf; zusammen mit einer Injektion erfordernden Applikationsart und ernsten Nebenwirkungen auf Niere und Gehör kam es zu einer stark reduzierten Anwendung von Aminoglykosiden in der Humanmedizin, die nun im wesentlichen als Mittel der zweiten Wahl oder als letzte Möglichkeit in der Behandlung von Infektionen mit gram-negativen Bakterien eingesetzt werden. Nach wie vor haben diese Antibiotika hohe Bedeutung in der Veterinärmedizin.

Die häufigste Ursache für die Entstehung von Aminoglykosidresistenz in klinischen Isolaten sind inaktivierende Enzyme, die die Übertragung chemischer Gruppen an Aminoglykosidmolekülen katalysieren: ein so modifiziertes Medikament kann dann nur mehr schlecht an seine Zielstruktur binden - es wurde unwirksam. Solche Aminoglykosid-modifizierende Enzyme (AMEs) sind biochemisch gut charakterisiert, ihre Bezeichnung basiert auf der Gruppe, die sie übertragen Die klassische Nomenklatur der AMEs basiert auf der Gruppe, die sie übertragen (d. h. Acetyltransferasen, AACs; Nukleotidyltransferasen, ANTs; und Phosphotransferasen, APHs).

Die Studie

Mit dem Ziel die zeitlichen, räumlichen und ökologischen Verteilungsmuster der Aminoglykosid-Resistenz zu beschreiben, haben Pradier und Bedhomme mehr als 160.000 öffentlich zugängliche Genome von Bakterien auf 27 Cluster von homologen Genen (CHGs - Gene, deren Sequenz einen gemeinsamen Vorläufer wahrscheinlich macht) untersucht, die für Aminoglykosid-modifizierende Enzyme kodieren (AME-Gene). Die Sequenzierungsdaten stammten von Bakterien aus allen Kontinenten (außer der Antarktis) und terrestrischen Ökoregionen (Biomen) und betreffen mit insgesamt 54 Bakterienstämmen (Phyla) die weitaus überwiegende Mehrheit aller Bakterien-Phyla. Die zur Sequenzierung herangezogenen Bakterien waren im Zeitraum zwischen 1885 und 2019 gesammelt worden, die meisten davon erst nach 1990.

Zusätzlich zu Ort und Datum der Probenahme wurden in der Studie auch die Anzahl der in den einzelnen Ländern konsumierten Antibiotika, die Handelsrouten und die menschliche Migration berücksichtigt.

Die Ergebnisse

Abbildung 1 Globale Verteilung von Aminoglykosid-resistenten Bakterien. Die Größe der Kreise ist ein Maß für die Zahl der untersuchten Genome. (Bild von Redn. eingefügt und leicht modifiziert nach L. Pradier and S. Bedhomme (2023), [1]; Lizenz cc-by.)

Resistenzgene gegen Aminoglykoside

zeigen eine weltweite geographische Verbreitung, sie kommen in allen Ökoregionen (Biomen) vor und wurden in 23 der 54 sequenzierten Bakterienstämme entdeckt. In den insgesamt rund 160 000 bakteriellen Genomen wurden 46 053 AME-Gene - d.i. in rund 25 % aller untersuchten Bakterien-Genomen - gefunden. In den meisten Regionen liegt die Häufigkeit der AME-Gen-tragenden Bakterien zwischen 20 % und 40 %; sie reicht von 10 % in Japan, Osteuropa und Ostafrika bis zu 50% in Indonesien, Mexiko und der Türkei. Abbildung 1.

Die Verteilung der für AME-kodierenden Gencluster

weist geographisch eine hohe Heterogenität auf (Abbildung 2). Bestimmte (für Acetyltransferasen AACf1 kodierende) Resistenzgene dominierten in der südlichen Hemisphäre von Afrika, Asien und Australien , während in den US und Westeuropa eine ausgewogene Mischung von Resistenzgenen detektiert wurde.

Abbildung 2 Wie sich die 27 für die Aminoglykosid-modifizierenden Enzyme (AME) kodierenden Gencluster global verteilen. Die Bezeichnung der Gencluster basiert auf der Gruppe, die die entsprechenden Enzyme übertragen: AACs = Acetyltransferasen; ANTs = Nukleotidyltransferasen, und APHs = Phosphotransferasen). (Bild von Redn. eingefügt und leicht modifiziert nach L. Pradier and S. Bedhomme (2023), [1]; Lizenz cc-by.)

Die Forscherinnen fanden heraus, dass die Häufigkeit von Aminoglykosid-Resistenzgenen zwischen den 1940er und 1980er Jahren zugenommen hat, was wahrscheinlich auf den verstärkten Einsatz von Aminoglykosid-Antibiotika nach der Entdeckung von Streptomycin im Jahr 1943 zurückzuführen ist, dann aber - trotz eines allgemeinen Rückgangs des Verbrauchs - bei einer Prävalenz von etwa 30 % blieb. Entscheidend ist, dass sie auch entdeckten, dass etwa 40 % der Resistenzgene potenziell mobil sind, d. h. leicht zwischen Bakterien ausgetauscht werden können.

Vorkommen in den Biomen

Pradier und Bedhomme stellten außerdem fest, dass antibiotikaresistente Bakterien in den meisten Biomen vorkommen, nicht nur in Krankenhäusern und landwirtschaftlichen Betrieben. (Abbildung 3).

Abbildung 3.Resistenzgene gegen Aminoglykoside wurden bereits 4 Jahrzehnte vor der erstmaligen klinischen Anwendung entdeckt (oben) und sie sind nun in allen untersuchten Biomen in einer Häufigkeit von knapp über 0 bis 30 % präsent (unten: blau bis rot; leere Kästchen bedeuten 0 Resistenzgene). Die Bezeichnung der Gencluster basiert auf der Gruppe, welche die entsprechenden Enzyme übertragen: AACs = Acetyltransferasen; ANTs = Nukleotidyltransferasen, und APHs = Phosphotransferasen. (Bild von Redn. eingefügt und leicht modifiziert nach L. Pradier and S. Bedhomme (2023), [1]; Lizenz cc-by)

Darüber hinaus fanden sie, dass die Prävalenz von Aminoglykosid-Resistenzgenen von Biom zu Biom stärker variierte, als dies mit der geografischen Lage von Menschen oder der Menge der verwendeten Antibiotika der Fall war. Für das Biom Mensch bedeutet dies, dass die in einem Land festgestellte Antibiotikaresistenz viel wahrscheinlicher mit der Antibiotikaresistenz in einem entfernteren Land korreliert ist, als mit der in der näheren Umgebung im Biom Boden oder im Biom Tiere.

Außerdem entdeckten sie, dass Biome wie Boden und Abwasser wahrscheinlich eine Schlüsselrolle bei der Verbreitung der Gene für die Antibiotikaresistenz über verschiedene Biome hinweg spielen. Eine Analyse der in Europa zwischen 1997 und 2018 gesammelten Proben zeigt deutlich wovon die Häufigkeit des Vorkommens von 16 AME-Gencluster abhängt: in 80 % der Fälle ist die Ökologie treibende Kraft in der Verbreitung der Resistenzgene, in 13 % menschlich generierter Austausch (Importe durch Einwanderung und Wareneinfuhr) und nur in 7 % der Fälle (übermäßige ) Anwendung.

Fragen

Diese Ergebnisse werfen wichtige Fragen zu den Mechanismen auf, die der Ausbreitung der Antibiotikaresistenz zugrunde liegen.

  • Welche Faktoren begünstigen die Ausbreitung der Antibiotikaresistenz in Umgebungen, die nicht durch menschliche Aktivitäten beeinflusst werden?
  • Können wir die von den Aminoglykosiden erhaltenen Ergebnisse auf alle anderen Antibiotikaklassen übertragen?
  • Ist es möglich, dass die Antibiotikaresistenz eher auf Interaktionen mit lokalen mikrobiellen Gemeinschaften zurückzuführen ist, als auf die Exposition gegenüber kommerziellen Antibiotika?
  • Verbreiten sich die Gene für die Antibiotikaresistenz in den pathogenen Bakterien, die für Infektionen bei Mensch und Tier verantwortlich sind, auf die gleiche Weise wie in den nicht-pathogenen Bakterien?
  • Was begrenzt angesichts des Ausmaßes des Selektionsdrucks durch die menschliche Verschmutzung die Ausbreitung von Antibiotikaresistenzgenen zwischen Biomen, insbesondere angesichts des großen Anteils von Genen, die auf mobilen Elementen sitzen?

Es kann gut sein, dass der Verbrauch immer noch eine überragende Rolle spielt, wenn es um die Resistenz gegen Antibiotika geht, die zur Behandlung von Infektionen eingesetzt werden, insbesondere beim Menschen und in klinischen Biomen. Dennoch ist klar, dass wir der Rolle der Umwelt bei der Formulierung von Plänen zur Bekämpfung der Antibiotikaresistenz auf globaler Ebene mehr Aufmerksamkeit schenken müssen.


 [1] Pradier L, Bedhomme S. 2023. Ecology, more than antibiotics consumption, is the major predictor for the global distribution of aminoglycoside-modifying enzymes. eLife 12:e77015. doi: 10.7554/eLife.77015


 *Eine Zusammenfassung des Artikels von Léa Pradier und Stéphanie Bedhomme, 2023, [1] verfasst von Carolina Oliveira de Santana et al., ist am 8.3.2023 unter dem Titel "Antibiotic Resistance: A mobile Target " im eLife Magazin erschienen: :  https://elifesciences.org/articles/86697   . Der Text wurde von der Redaktion ins Deutsche übersetzt und mit einigen Textststellen und 4 Abbildungen aus dem Originaltext [1] plus Legenden ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.


Antibiotika-Resistenz im ScienceBlog

Redaktion, 11.12.2022: Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

08.07.2021, Redaktion: Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Karin Moelling, 29.08.2019: Ein Comeback der Phagentherapie?

Karin Moelling, 4.07.2019: Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

Inge Schuster, 23.09.2016: Gehen wir auf eine Post-Antibiotika Ära zu?

Gottfried Schatz, 30.05.2013: Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden


 

inge Fri, 17.03.2023 - 19:00

Laser - Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten

Laser - Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten

Do, 09.03.2023 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Laser sind heute überall. Sie befeuern die Glasfasernetze der Telekommunikation, machen dem Internet per Lichtpost Beine, stecken in Laserpointern oder -scannern. Starke Industrielaser bearbeiten Werkstoffe. Laser spüren in der Atmosphäre umweltschädliche Gase auf, in Satelliten erfassen sie kleinste Veränderungen auf der Erde. Jüngste Generationen „optischer“ Atomuhren messen mit Lasern die Zeit immer genauer, Laser steuern künftige Quantencomputer. Auch in der Medizin werden Laser vielfältig genutzt und können in Zukunft noch mehr leisten: Das BIRD-Team, darunter Forschende vom Max-Planck-Institut für Quantenoptik in Garching, will Blutproben auf winzigste molekulare Spuren zur Krebsfrüherkennung durchleuchten. Das erfordert Laser mit extrem kurzen Lichtpulsen, das Spezialgebiet von Ferenc Krausz, Direktor am Institut.*

Ort des Geschehens: ein Labor der Hughes Aircraft Company in der kalifornischen Stadt Culver. Am 16. Mai 1960 lässt dort der amerikanische Physiker Theodore Maiman eine spiralförmige Gasentladungslampe aufblitzen. In ihr steckt ein stabförmiger Rubinkristall, dessen Enden verspiegelt sind. Das Blitzlicht löst in dem Rubin den ersten Laserpuls der Welt aus. Bald konnte Maiman der Presse mit seinem Rubinlaser kräftige rote Laserblitze vorführen. Von ihm hörten die Anwesenden auch zum ersten Mal das Kunstwort „Laser“, für „Light Amplification by Stimulated Emission of Radiation“, auf Deutsch „Lichtverstärkung durch stimulierte Emission von Strahlung”. Heute sind Laser nicht nur Schlüsseltechnologien, sondern auch in der Grundlagenforschung allgegenwärtig. Forschende schauen mit den stärksten Laseranlagen der Welt immer tiefer in die Materie hinein oder verschmelzen damit Atomkerne. Mit schwächerem Laserlicht bremsen sie die Wärmebewegung der umherflitzenden Atome ab. Sie kühlen so die Atome bis fast auf den absoluten Temperaturnullpunkt hinunter und machen mit ihnen Quantenexperimente. Oder sie entwickeln ganz neue medizinische Methoden. Abbildung 1.

Abbildung 1. Laser für Krebsfrüherkennung. Christina Hofer an einem der vom BIRD-Team entwickelten Geräte: Mit ultrakurzen Laserblitzen soll es Krebs im Frühstadium in Blutproben aufspüren. Die zukünftigen Geräte sollen Tausende von Blutproben vollautomatisch analysieren. (Bild © Thorsten Naeser, Attoworld).

Der Laser bezieht seine Stärke aus reiner Quantenphysik. „Es ist mir ein prächtiges Licht über die Absorption und Emission von Strahlung aufgegangen, [es ist] alles ganz quantisch“, schrieb Albert Einstein 1916 begeistert seinem Freund Emile Besso. Einstein legte damals die theoretischen Grundlagen für den Laser, allerdings ohne diesen vorauszuahnen. Schon 1905 hatte er anhand des Fotoeffekts gezeigt, dass Licht und Materie ihre Energie nur in festen Paketen austauschen können. Beim Energieaustausch mit Materie verhält sich Licht also eher wie Teilchen in Form von Energiequanten, den Photonen. Sonst zeigt Licht oft den Charakter einer Welle. Dieser Welle-Teilchen-Dualismus zeichnet alle Objekte der Quantenwelt aus. Der Laser nutzt beide Eigenschaften.

Angeregte Elektronen

Atome können Licht nur als Energiequanten aufnehmen (absorbieren) oder abgeben (emittieren). Trifft ein Photon passender Energie auf ein Elektron eines Atoms, dann kann das Elektron das Photon absorbieren und in ein Orbital höherer Energie hüpfen. Umgekehrt kann das Elektron wieder auf seinen alten Platz herunterfallen, dabei emittiert es das überschüssige Energiequant erneut als Photon: Das Atom leuchtet.

Die Elektronen der Atomhülle lassen sich gruppenweise nach Energiestufen ordnen. Jeder Stufenabstand entspricht einem Quantensprung zwischen zwei benachbarten Energieniveaus in der Elektronenhülle. Eine „klassische“ Lichtquelle wie die Sonne oder eine Glühbirne besteht nun aus vielen verschiedenen Atomen, die wild durcheinander leuchten. Verschiedene Atomsorten mit unterschiedlichen Quantenübergängen emittieren Photonen vieler Frequenzen, also Energien oder Farben. Ihr unkoordiniertes Abstrahlen produziert ein optisches Chaos mit einer breiten Farbmischung, die ein nahezu weißes Licht ergibt.

In einem Laser geht es dagegen extrem geordnet zu. Er strahlt Licht in einer sehr reinen Farbe ab, das er kräftig verstärkt. Dazu füttert er es ständig mit neuen Energiepaketen, mit Photonen in der exakt passenden Lichtfarbe. Dieser Verstärkungsmechanismus benutzt nur wenige, aufeinander abgestimmte Atomsorten, die zusammenwirken. In diesem „Atomkollektiv“ trägt wiederum ein einziger Quantensprung zwischen zwei speziell geeigneten Energieniveaus zur Verstärkung bei. Das ist der Laserübergang. Zudem emittieren diese Atome ihre Lichtquanten auch noch im präzisen Gleichtakt mit der Lichtwelle, die sich im Laser wie in einem Resonanzkörper aufschwingt. Deshalb besteht Laserlicht normalerweise aus sehr langen Lichtwellenzügen, im Gegensatz zum Glühbirnenlicht.

Pingpong mit Quanten

Für die Verstärkung im Laser sorgt ein besonderer Effekt. Diese stimulierte Emission beschrieb Albert Einstein 1917, kurz nach seinem Brief an Besso. Er hatte erkannt, dass Atome nicht nur spontan Lichtquanten abstrahlen können, diese spontane Emission dominiert das Leuchten klassischer Lichtquellen. Wenn ein Photon an einem Atom vorbeifliegt, kann es dieses auch gezielt zur Lichtemission anregen, indem es ein Elektron von einem höheren Energieniveau sozusagen herunterschüttelt. Das Atom strahlt dabei ein Photon mit exakt der gleichen Energie – also Farbe – ab. Im Laser sind allerdings viele gleichartige Atome gemeinsam an der stimulierten Emission beteiligt. Damit die Lichtverstärkung funktioniert, müssen diese Atome zusammen zwei weitere Voraussetzungen erfüllen: Erstens müssen sich Elektronen auf dem höheren Energieniveau des Laserübergangs befinden, zweitens muss dieser Laserübergang genau der Energie der vorbeikommenden Photonen entsprechen (Abbildung 2).

Abbildung 2. Stimulierte Emission. Laserübergang zwischen Grundzustand und angeregtem Zustand der Atome im aktiven Lasermedium. Von links nach rechts: Ein Elektron wird in den oberen Zustand gepumpt, dann kommt ein Photon passender Energie vorbei und stimuliert das Elektron, im Gleichtakt ein zweites Photon gleicher Energie abzustrahlen, wobei es wieder in den Grundzustand zurückfällt. Danach wiederholt sich das Spiel immer weiter, solange der Laser läuft. © R. Wengenmayr / CC BY-NC-SA 4.0

Damit das alles im Laser zusammenpasst, benötigt er einen optischen Resonator aus zwei Spiegeln. Ihr Abstand ist exakt auf ein Vielfaches der zu verstärkenden Laserwellenlänge justiert. Zwischen ihnen laufen die Quanten des Laserlichts wie Pingpong-Bälle hin und her (Abbildung 3). Es gibt auch Laser mit noch mehr Resonatorspiegeln. Einer der Spiegel muss teilweise lichtdurchlässig sein. Durch ihn entwischt ein kleiner Anteil der Photonen und formt den Laserstrahl. Durch dieses gewollte Leck verliert der Laser allerdings permanent Energie. Deshalb benötigt er einen Lichtverstärker, der immer neue Elektronen im Laserübergang nachliefert. Das macht das aktive Lasermedium. Es steckt im Resonator und enthält die Atome, die im Laserübergang leuchten sollen. Wenn die Photonen beim Spiegel-Pingpong immer wieder das Lasermedium durchqueren, „schütteln“ sie die Elektronen dieser Atome so, dass sie in Lawinen den Laserübergang hinunterfallen. Diese stimulierte Emission wirft immer neue Photonen ins Pingpong-Spiel, und das Lichtfeld im Resonator schwillt an. Allerdings fehlt noch eine Zutat: Der Laser braucht noch eine „Pumpe“, die immer neue Elektronen in das sich entleerende obere Niveau des Laserübergangs nachliefert. Dieses permanente Pumpen versorgt den Laser auch mit Energie. Manche Laser strahlen in Pulsen, andere kontinuierlich. Zur ersten Kategorie gehört Maimans Rubinlaser, dessen Pumpe das Blitzlicht der Gasentladungslampe war. Neben diesen optisch gepumpten Lasern gibt es auch solche, in denen ein elektrischer Strom den Laserprozess pumpt. Dazu zählen die weit verbreiteten Laserdioden.

Abbildung 3. Aufbau eines Lasers. Beschreibung im Text. © R. Wengenmayr / CC BY-NC-SA 4.0

Pyramide auf den Kopf gestellt

Das Lasermedium muss die passende Atomsorte mit dem Quantensprung in der gewünschten Lichtfarbe enthalten. Überdies braucht es noch eine weitere wichtige Eigenschaft: Die Elektronen müssen lange genug auf dem oberen Energieniveau seines Laserübergangs verweilen. Sie dürfen nicht zu anfällig für die spontane Emission sein, die sich nicht völlig ausschalten lässt. Die spontane Emission sabotiert die koordinierte Lichtverstärkung, denn sie lässt die Elektronen außerhalb des Gleichtakts ins niedrigere Energieniveau fallen. Zudem muss das Pumpen das untere Energieniveau schnell genug leeren. Nur wenn die Elektronen in dem unteren Quantenzustand genug Platz finden, können sie ungehindert dort hineinfallen.

Hat das Lasermedium diese Eigenschaften, dann kann das Pumpen in ihm den richtigen Betriebszustand herstellen, die Besetzungsinversion. Normalerweise verteilen sich die Elektronen über die Energieniveaus der Atome wie in einer Pyramide: Die unteren Niveaus sind stark mit Elektronen bevölkert, die oberen immer dünner. Die Natur spart gerne Energie. Das Pumpen muss diese Besetzungspyramide nun auf den Kopf stellen (Abbildung 4): Im oberen Energieniveau des Laserübergangs müssen sich mehr Elektronen als im unteren sammeln. Erst dann finden die vorbeikommenden Photonen genügend Elektronen, die sich „herunterschütteln“ lassen

Abbildung 4. Besetzungsinversion. Normalerweise ist das untere Energieniveau der Atome im Lasermedium stärker mit Elektronen (blaue Kugeln) besetzt als das obere. Die Besetzungsinversion stellt diese Pyramide auf den Kopf. Im Laser schafft sie die Voraussetzung für Lichtverstärkung über induzierte Emission. © R. Wengenmayr / CC BY-NC-SA 4.0

Allerdings geschieht das Pumpen in den meisten Lasern nicht in einem einzigen Quantensprung, sondern mit Zwischen zuständen. Außerdem wird die Konstruktion eines Lasers umso anspruchsvoller, je kürzer die Wellenlänge seines Lichts sein soll. Mit schrumpfender Wellenlänge wächst nämlich die Energie der Photonen und damit auch der nötige Quantensprung im Laserübergang. Je höher das obere Energieniveau im Vergleich zum unteren liegt, desto anfälliger reagieren die Elektronen dort auf die sabotierende spontane Emission. Immer weniger von ihnen fallen im Rhythmus der induzierten Emission herunter. Die frühen Laser leuchteten aus diesem Grund im langwelligen roten oder infraroten Spektralbereich. Als der Japaner Shuji Nakamura 1995 die erste blau leuchtende Laserdiode vorstellte, war das eine Sensation. Noch viel kurzwelligere Röntgenlaser wie der European XFEL in Hamburg funktionieren wegen dieses Problems ganz anders. Sie beschleunigen freie Elektronen fast auf Lichtgeschwindigkeit und jagen sie dann durch ein wellenförmiges Magnetfeld: Das zwingt die Elektronen, nach vorne gerichtetes Röntgenlaserlicht abzustrahlen.

Mit Lasern gegen Krebs

Es gibt Laser, die kein „typisches“ Laserlicht erzeugen. Sie strahlen keine langen Lichtwellenzüge in einer reinen Farbe ab, sondern produzieren extrem kurze Pulse in einem Gemisch von Frequenzen. Besonders wichtig sind Femtosekundenpulse, denn auf dieser Zeitskala ändern sich chemische Bindungen und schwingen die Moleküle. Eine Femtosekunde ist der 1015-te Teil einer Sekunde (0,000000000000001 Sekunden). Selbst Licht kommt in einer Femtosekunde nur 300 Nanometer weit – das entspricht dem Durchmesser eines Herpes-Virus.

Ein Pionier der Ultrakurzpuls-Forschung ist Ferenc Krausz, Direktor am Max-Planck-Institut für Quantenoptik. Dieses Team, zu dem auch Forschende der Ludwig-Maximilians-Universität (LMU) in München gehören, will einen Traum verwirklichen: Ultrakurze Laserlichtblitze sollen es ermöglichen, bei Blut proben „gesund“ von „krank“ zu unterscheiden. Dazu nutzt es Infrarot-Laserpulse mit nur wenigen Femtosekunden Dauer. Im Messergebnis soll eine lernfähige Software nach Spuren von Molekülen suchen, die etwas über den Gesundheitszustand aussagen. „Zuerst wollen wir die häufigsten Krebsarten nachweisen können“, erklärt Mihaela Žigman, Leiterin der Breitband-Infrarotdiagnostik-Gruppe (BIRD): „Lungenkrebs, Brustkrebs, Prostatakrebs und Blasenkrebs.“ Die neue Technik soll Krebs schon früh am molekularen „Fingerabdruck“ im Blut entdecken, lange bevor sich gefährliche Tumore im Körper verbreiten können. Die Molekularbiologin ist zudem Direktorin am Center for Molecular Fingerprinting in Budapest. Von dort erhalten die Garchinger Tausende von Blutproben, die der Biologe Frank Fleischmann in einem speziellen Tiefkühlverfahren mit flüssigem Stickstoff für viele Jahre haltbar einlagert.

Die Entwicklung der nötigen komplexen Lasertechnologie leitet der Physiker Alexander Weigel. Er und Fleischmann führen im Garchinger Labor der LMU zu einem der gerade laufenden Geräte. „Dieser sogenannte Infrasampler (Abbildung 1) zieht automatisch Proben ein“, erklärt Fleischmann. Dann durchleuchtet das Gerät sie mit dem Infrarot-Laserlicht. Dessen kurzer Puls entspricht gerade mal einer einzigen Lichtschwingung und enthält viele verschiedene Infrarotfrequenzen. Solche Infrarot-Laserpulse regen dann unterschiedlichen Biomoleküle in den Blutproben zu charakteristischen Schwingungen an. „Der kurze, starke Infrarotpuls ist wie ein Gongschlag“, sagt Weigel. Jedes Biomolekül entspricht einem kleinen Gong, der nach dem Schlag in einer charakteristischen Frequenz nachschwingt. Dieses Nachschwingen macht die Moleküle selbst zu kleinen Sendern, die Infrarotlicht aussenden.

Das gesendete Antwortlicht ist extrem schwach, weshalb das Team es mit einer speziellen Empfängermethode aufzeichnet, elektro-optisches Sampling genannt. Nach dem kurzen, sehr hellen Infrarotlichtpuls, dem „Gongschlag“, wird es sofort dunkel. Nun lässt sich ungestört das Antwortlicht analysieren. Dazu tastet das elektro-optische Sampling die Wellenform des schwingenden elektrischen Feldes vom Antwortlicht ab. „Allerdings wäre eine Elektronik dafür viel zu langsam“, erklärt Weigel. Das Infrarotlicht, das von den Molekülen ausgesandt wird, schwingt nämlich mit einer Frequenz von bis zu mehreren zehn Terahertz. Ein Terahertz entspricht einer Billion, oder 1012 Schwingungen pro Sekunde. Entsprechend schnell muss der „Scanner“ sein, um die Wellenformen der Schwingungen zu erwischen. Die Garchinger nutzen dafür Femtosekunden-Laserpulse, die sie mit dem Antwortlicht überlagern. Diese kurzen Laserpulse tasten dann die elektrischen Feldschwingungen des Antwortlichtes ab, ungefähr wie ein Scannerstreifen, der über ein Blatt Papier wandert. Damit das funktioniert, muss das anregende Infrarotlicht echtes Laserlicht sein, eine starke Infrarotlampe wäre nicht genug. Nur dann lässt sich das Abtastlicht exakt auf die Form der abzutastenden Welle abstimmen. Das sich ergebende Lichtsignal kann dann aufgenommen und elektronisch verarbeitet werden, während das Instrument die nächste Probe vorbereitet. Das gemessene Signal gleicht einem „Fingerabdruck“ der Moleküle. Es zeigt so Änderungen im Blut an, die durch Krankheiten wie Krebs hervorgerufen werden. Mit Hilfe von Maschinenlernen wird das System an vielen Proben darauf trainiert, von selbst die gesuchten Änderungen der molekularen Fingerabdrücke zu erkennen.

Nicht nur die Signale der Moleküle selbst sind sehr schwach. Die gesuchten Moleküle sind auch in teils extrem geringen Konzentrationen in der Blutprobe vorhanden. Und zum Durchleuchten müssen diese Proben auch noch selbst wenige Mikroliter winzig sein. Ein Infrasampler muss darin die gesuchten Moleküle in Mengen von wenigen Nanogramm nachweisen können, erklärt Mihaela Žigman: „Noch ist das BIRD-Projekt Grundlagenforschung und frühestens in zehn bis 15 Jahren reif für den breiten Einsatz in der Medizin.“ Doch dann wäre es ein großer Fortschritt für die Gesundheitsvorsorge.


 * Der Artikel ist unter dem Titel: "Wunderlampe aus dem Quantenland – wie der Laser den Alltag und die Medizin erobert" im TECHMAX 06-Heft der Max-Planck-Gesellschaft im Winter 2022/23 in aktualisierter Form erschienen ((https://www.max-wissen.de/max-hefte/techmax-06-laser/). Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel  unverändert in den Blog übernommen.


Videos zum Thema

 Max-Planck-Gesellschaft: Laser - Licht in Formation. Video 5:26 min. https://www.youtube.com/watch?v=xFy9DNN0j4M

Max-Planck-Gesellschaft: Laser - Der schnellste Blitz der Welt. Video 8:30 min. https://www.youtube.com/watch?v=6zxzJqvzZMY&t=8s


 

inge Thu, 09.03.2023 - 00:07

Die ökonomischen Kosten von Krebserkrankungen

Die ökonomischen Kosten von Krebserkrankungen

Fr, 24.02.2023 — IIASA

IIASA Logo

Icon Medizin

Ein internationales Team unter Beteiligung von IIASA-Forschern hat die globalen wirtschaftlichen Kosten, die auf Grund der aktuellen Verluste bei den Arbeits- und Behandlungskosten von Krebserkrankungen entstehen, für einen künftigen Zeitraum von drei Jahrzehnten ab 2020 errechnet. Der Schätzung zufolge werden sich diese Kosten zwischen 2020 und 2050 auf 25,2 Billionen Dollar (zu internationalen Preisen von 2017) belaufen, was 0,55 % des globalen jährlichen Bruttoinlandsprodukts entspricht. Die Krebsformen, die dazu am meisten beitragen (insgesamt 47 % der Gesamtkosten) wurden als Krebs von Lunge/Atmungstrakt, Kolon-und Rektumkarzinom, Brustkrebs, Leberkrebs und Leukämie identifiziert. Die Inzidenz der ersten 4 Krebsarten kann durch Präventivmaßnahmen reduziert werden - Investitionen in solche Maßnahmen erscheinen für den Schutz der globalen Gesundheit und des wirtschaftlichen Wohlergehens unerlässlich.*

Krebserkrankungen zählen weltweit zu den häufigsten Todesursachen und fordern jedes Jahr fast 10 Millionen Menschenleben. Die Häufigkeit der Krebserkrankungen nimmt zu; schuld daran sind das Altern der Bevölkerung, Rauchen, Alkoholkonsum, ungesunde Ernährung, Bewegungsmangel und Luftverschmutzung. Krebs bedeutet nicht nur Leid für das Leben der Menschen, sondern auch Schaden für die Wirtschaft - infolge von Einbußen in der Produktivität, Ausfall von Arbeitskräften und Investitionsrückgängen stellen Krebserkrankungen eine enorme finanzielle Belastung für die Länder dar.

Die durch Krebserkrankungen verursachten gesundheitlichen und wirtschaftlichen Belastungen werden klar als dringende Anliegen gesehen: dies geht hervor aus der von Präsident Biden erneut ins Leben gerufenen Cancer Moonshot Initiative, aus dem Globalen Aktionsplan zu Prävalenz und Kontrolle von nicht-übertragbaren Krankheiten der WHO sowie aus dem von den Vereinten Nationen definierten Ziel 3.4 für nachhaltige Entwicklung (SDG 3.4), das anstrebt mit Hilfe von Prävention und Therapie die durch nicht-übertragbaren Krankheiten bedingte vorzeitige Sterblichkeit bis 2030 um ein Drittel zu senken. Trotz dieser dringlichen Sachlage sind die globalen wirtschaftlichen Kosten von Krebserkrankungen bis jetzt noch nicht umfassend untersucht worden.

Um diese Lücke zu schließen und die politischen Entscheidungsträgern dabei zu unterstützen, die Zunahme von krebsbedingten Todesfällen und Invalidität einzudämmen, hat sich ein internationales Forscherteam daran gemacht, die wirtschaftlichen Kosten von 29 Krebsarten in 204 Ländern und Regionen abzuschätzen, die insgesamt die meisten Länder der Welt abdecken. Die Studie wurde in der Fachzeitschrift Journal of the American Medical Association (JAMA) - Oncology veröffentlicht [1]; darin wurde ein umfassendes Modellierungs-Framework angewandt, um die makroökonomischen Kosten von Krebs in Form von entgangenem BIP zu schätzen.

"Viele der aktuellen wirtschaftlichen Studien über Krebs sind rein statisch und lassen die künftigen Folgen der aktuellen Verluste bei den Arbeits- und Behandlungskosten außer Acht", sagt Michael Kuhn, Direktor des IIASA Economic Frontiers Program, der an der Studie mitgewirkt hat. "Unsere Arbeit ist insofern bahnbrechend, als sie die makroökonomischen Kosten von Krebs mit Hilfe eines Modells abschätzt, das viele der wirtschaftlichen Anpassungsmechanismen einbezieht und Veränderungen des Arbeitsangebots aufgrund von Krebsmortalität und -morbidität sowie den Verlust von Kapitalinvestitionen im Zusammenhang mit den Behandlungskosten berücksichtigt."

Die Studie schätzt die weltweiten wirtschaftlichen Kosten von Krebserkrankungen für den Zeitraum 2020-2050 auf rund 25,2 Billionen US-Dollar (INT$, zu konstanten Preisen von 2017), was einer jährlichen Steuer von 0,55 % auf das globale Bruttoinlandsprodukt entspricht. Die Forscher haben auch die Krebsarten identifiziert, welche die höchste wirtschaftliche Belastung verursachen, wobei Lungenkrebs(15,4 %) an erster Stelle steht, gefolgt von Colon- und Rektumkarzinom (10,9 %), Brustkrebs (7,7 %), Leberkrebs (6,5 %) und Leukämie (6,3). Für die einzelnen Länder und Regionen ist dies in der Abbildung unten dargestellt.

 

Abbildung. Für die einzelnen Länder ist jeweils die Krebsart mit den höchsten wirtschaftlichen Kosten im Zeitraum 2020-2050 dargestellt. (TBL: Tracheal-, Bronchial- und Lungenkrebs). Beschriftung von Redn.verändert.

Weiters zeigen die Ergebnisse, dass Gesundheitskosten und ökonomische Kosten von Krebserkrankungen ungleich zwischen den Ländern und Regionen verteilt sind. China und die Vereinigten Staaten sind in absoluten Zahlen mit 24,1 % bzw. 20,8 % der globalen ökonomischen Gesamtkosten von Krebserkrankungen am stärksten betroffen. Während die meisten Krebstodesfälle in Ländern mit niedrigem und mittlerem Einkommen auftreten, beträgt ihr Anteil an den wirtschaftlichen Kosten von Krebserkrankungen nur etwa die Hälfte.

"Die vier Krebsarten, welche die Wirtschaft am stärksten schädigen, lassen sich alle durch primäre und sekundäre Präventionsmaßnahmen betreffend Rauchen, Ernährung und Alkohol sowie verstärkte Vorsorgeuntersuchungen bekämpfen", so Kuhn. "Dies zeigt, dass es weltweit ein großes Potenzial für politische Maßnahmen gibt, die dazu beitragen können, die wechselseitige Beziehung von hoher Krankheitslast und starker wirtschaftlicher Belastung zu dämpfen."

Die Autoren betonen, dass Investitionen in wirksame Maßnahmen des öffentlichen Gesundheitswesens zur Verringerung der Krebsbelastung für den Schutz der globalen Gesundheit und des wirtschaftlichen Wohlergehens unerlässlich sind.


[1]  Chen, S., Cao, Z., Prettner, K., Kuhn, M., Yang, J., Jiao, L., Wang, Z., Li, W., Geldsetzer, P., Bärnighausen, T., Bloom, D.E, Wang, C. (2022). The global economic cost of 29 cancers from 2020 to 2050: Estimates and projections for 204 countries and territories. Journal of the American Medical Association (JAMA) – Oncology DOI: 10.1001/jamaoncol.2022.7826


*Der am 24.Feber 2023 als Presseaussendung auf der IIASA-Webseite unter dem Titel "The Price of Cancer" erschienene Artikel https://iiasa.ac.at/news/feb-2023/price-of-cancerwurde von der Redaktion möglichst wortgetreu übersetzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Fri, 24.02.2023 - 18:36

Menschliche Avatare auf Silikonchips - ersetzen sie Tierversuche in der Arzneimittel-Entwicklung?

Menschliche Avatare auf Silikonchips - ersetzen sie Tierversuche in der Arzneimittel-Entwicklung?

Sa 04.03.2023  — Inge Schuster

Inge Schuster Icon Medizin Ende Dezember 2022 hat der US-amerikanische Präsident ein Gesetz unterzeichnet, das die Zulassung neuer Medikamente ohne die bislang erforderlichen, aufwändigen Tierversuche ermöglicht. An deren Stelle können human-relevante alternative Methoden, wie menschliche Miniorgane - sogenannte Organoide -, Multiorganchips menschlicher Zellen und Computermodelle treten, sofern diese validierte Verfahren zum Nachweis von Wirksamkeit und Toxizität sind.

Seit Beginn des 20. Jahrhunderts haben wir einen beispiellosen Boom von neuen wirksamen Medikamenten erlebt. Gab es anfangs erst wenige Arzneistoffe (das sind die aktiven Wirkstoffe in Medikamenten), die diese Bezeichnung heute noch verdienen - etwa die aus Heilpflanzen aufgereinigten Naturstoffe Chinin oder Morphin oder chemisch modifizierte Naturstoffe wie Aspirin oder Pyramidon -, so halten wir nun bereits bei rund 15 000 Wirkstoffen (https://go.drugbank.com/stats). Die neuen, gegen verschiedenste Krankheiten wirksamen Medikamente haben uns Menschen (zumindest in der westlichen Welt) zu einer erhöhten Lebensqualität und fast zu einer Verdoppelung der Lebenszeit seit 1900 verholfen. Ursprünglich aus Apotheken und Farbstoffchemie entstanden, hatte die Pharmaindustrie alleVoraussetzungen für interdisziplinäre Forschung an der Schnittstelle von Medizin, Biowissenschaften, Chemie und Gesundheitsfürsorge. Ihre spektakulären Erfolge machten sie zu einem zentralen Player im globalen Gesundheitssystem und zu einem der umsatzstärksten Industriezweige; aktuell wird der der globale Umsatz auf rund 1 200 Milliarden US $ (49,1 % davon in Nordamerika) geschätzt.

Die Entwicklung der Pharmasparte ist alledings nicht ohne größere Pannen und Katastrophen verlaufen und hat in Folge zu einem streng regulierten und kontrollierten Prozess der Arzneimittel-Forschung und Entwicklung geführt.

Versuchstiere werden in der Arzneimittelentwicklung vorgeschrieben

Bis in die 1930er Jahre brauchte man für den Kauf von Medikamenten meistens noch kein Rezept und die Formulierungen wurden zumeist in der Apotheke nach den Angaben in den Arzneibüchern (Pharmakopöen) zusammengemischt. Nur in wenigen Staaten gab es bereits Behörden für die Zulassung neuer Arzneimittel; diese hatten aber kaum Befugnisse, um übertriebene Werbung zu untersagen und in die Medikamentenentwicklung einzugreifen.

1937 änderte sich die Situation, als in den USA die Antibiotika-Bereitung Elixir-Sulfanilamid Massenvergiftungen hervorrief und mehr als hundert Menschen starben . Unter den Toten waren viele Kinder, die den nach Himbeeren schmeckenden aber das hochtoxische Lösungsmittel Diethylenglykol enthaltenden "Erkältungssaft" geschluckt hatten. In Folge erließ der US-Kongress 1938 Gesetze (Federal Food, Drug, and Cosmetic Act), welche die Qualität der pharmazeutischen Bereitungen garantieren sollten und positiv verlaufende Sicherheitstests an Tieren vorschrieben, bevor neue Medikamente auf den Markt kommen durften; darüber hinaus erhielt die Arzneimittelbehörde der Vereinigten Staaten (FDA) weitreichende Befugnisse in den Forschungs-und Entwicklungsprozess von Arzneimitteln einzugreifen. Andere Länder schlossen sich diesen Regulierungen an.

Noch immer gab es keine obligatorischen Untersuchungen zur Wirksamkeit eines neuen Medikaments. Dazu wurden die Pharmaunternehmen erst 1962, nach dem Contergan-Skandal verpflichtet. Das Medikament war zwischen 1957 und 1961 schwangeren Frauen als Beruhigungs- und Schlafmittel empfohlen worden und hatte bei vermutlich mehr als 10 000 Neugeborenen zu schweren Missbildungen von Gliedmaßen und Organen geführt. Das US-Gesetz von 1938 wurde nun erweitert: alle Arzneimittel mussten sowohl wirksam als auch (in vertretbarem Ausmaß) sicher sein; Zulassungsanträge an die FDA mussten die Wirksamkeit im Tierversuch nachweisen und alle bei den Tests aufgetretenen Nebenwirkungen offenlegen. Ein spezielles Programm untersuchte diesbezüglich auch alle vor 1962 zugelassenen Medikamente - von 3 443 Produkten haben sich fast ein Drittel (1051) als unwirksam erwiesen!

Seit den 1960er Jahren wurden die erforderlichen Protokolle für die präklinischen Wirksamkeits- und Toxizitätstest und für die folgenden klinischen Studien weiter entwickelt und haben zu einem immer länger (und damit teurer) werdenden und stärker regulierten Forschungs- und Entwicklungsprozess geführt. Der heute geltende, aus mehreren aufeinanderfolgenden Phasen zusammengesetzte Prozess soll hier kurz dargestellt werden:

Der Prozess beginnt im Labor mit der Forschung nach den möglichen Ursachen einer Erkrankung und der Suche nach Molekülen , mit denen diese Ursachen beeinflusst werden können. Gelingt es derartige Substanzen zu identifizieren und sind diese patentierbar, so kann die erfolgversprechendste davon in die präklinische Entwicklung eintreten und falls sie diese übersteht, zur Prüfung am Menschen in 3 Phasen zugelassen werden; in Phase 1 erfolgt die Prüfung an einer kleineren Gruppe (20 -100) junger, gesunder Freiwilliger, in Phase 2 sind bis zu mehreren Hundert Patienten involviert, in Phase 3 bis zu mehreren Tausend Patienten. Abbildung 1. Vom Beginn der präklinischen Entwicklung an dauert es im Mittel rund 10 Jahre bis für einen erfolgreichen Arzneimittel-Kandidaten die Unterlagen zur Registrierung eingereicht werden können (Abbildung 1).

Abbildung 1. . Aktuelles Schema des Arzneimittel-Entwicklungsprozesses ab der Identifizierung eines patentierbaren Entwicklungskandidaten und Zeitdauer der präklinischen Phasen zur Prüfung von Toxizität und Wirksamkeit (Pharmakologie) und der 3 klinischen Phasen der Untersuchungen am Menschen. (Quelle: efpia: The Pharmaceutical Industry in Figures, Key data 2022. www.efpia.eu).

Zur präklinischen Prüfung

    der Wirksamkeit dienen Tiermodelle, in denen die zu behandelnde menschliche Krankheit nachgebildet wurde, d.i. ähnliche Symptome wie beim Erkrankten hervorgerufen werden (ein nicht immer erfolgversprechender Ansatz). Um eine Vorauswahl unter mehreren potentiellen Entwicklungskandidaten zu treffen, werden in verstärktem Ausmaß auch aus menschlichen Zellen erzeugte in vitro-Modelle eingesetzt.

    der Sicherheit, d.i. fehlender/tolerierbarer Toxizität, sind Untersuchungen an jeweils zwei Spezies, einem Nager - meistens Ratte oder Maus - und einem Nichtnager - zumeist dem Hund - vorgeschrieben. Je nach Dauer der geplanten Anwendung einer neuen Substanz umfassen die Toxizitätstests Untersuchungen mit einmaliger (akute Toxizität) und wiederholter subchronischer und chronischer Verabreichung, weiters Reproduktionstests und Genotoxizitätstests bis hin zu lebenslangen (d.i. bei Ratten rund 2 Jahre dauernden) Cancerogenitätstests. Auch hier wird die Vorauswahl unter mehreren potentiellen Entwicklungskandidaten häufig an Hand von in vitro-Modellen getroffen.

Bei Verwendung statistisch ausreichend großer Gruppen in den verschiedenen Dosierungen kann die Anzahl der dazu erforderlichen männlichen und weiblichen Tiere bis auf über 3000 steigen. Dazu kommen noch Hunderte Tiere für Studien zur Pharmakokinetik (sogenannte ADME-Studien) - d.i. zur Quantifizierung der Aufnahme (A) eines Wirkstoffs in den Organismus, seiner Verteilung (D) und seinem Metabolismus (M) im Organismus und seiner Ausscheidung (E) - und zur Pharmakodynamik, d.i. zu den Effekten eines Wirkstoffs auf den geplanten Wirkort. Hinsichtlich pharmakokinetischer Eigenschaften haben in vitro Modelle aus menschlichen Zellen eine hohe Vorhersagekraft und können das Scheitern diesbezüglich ungeeigneter Verbindungen in der Klinik verhindern (siehe unten).

.. und der klinischen Prüfung

Wenngleich der Aufwand für Tierversuche und die damit verbundenen Kosten auch enorm hoch sind, ist es ein leider millionenfach bestätigtes Faktum, dass Versuchstiere zwar in ähnlicher, nicht jedoch in derselben Weise auf Wirkstoffe reagieren und damit umgehen wie wir Menschen. Wenn neue Wirkstoff-Kandidaten nach erfolgreicher Testung an Tieren in die klinische Prüfung am Menschen eintreten dürfen - d.i. rund 6 Jahre nach Beginn der Entwicklung , so scheitern dort bis zu 95 % - hauptsächlich wegen geringer/fehlender Wirksamkeit und/oder nicht tolerierbaren Nebenwirkungen. Die meisten fallen in der zweiten klinischen Phase durch, der Phase in der erstmals an Patienten geprüft wird - bis dahin sind 8 - 9 Jahre vergangen und rund ein Drittel der Gesamtkosten von bis zu mehreren Milliarden US $ angefallen.

Bis in die 90er-Jahre sind bis zu 40 % der Substanzen in der Klinik wegen unbefriedigenden pharmakokinetischen (ADME) Eigenschaften gescheitert: Viele oral verabreichte Arzneistoffe wurden aus dem Magen-Darmtrakt viel schlechter aufgenommen als aus dem Tierversuch zu erwarten war und erwiesen sich auf Grund der zu niedrigen Konzentrationen im Organismus dann als unwirksam. Viele Substanzen wurden im menschlichen Körper viel schneller/ viel langsamer abgebaut als im Tier und waren dann im ersten Fall unwirksam oder zeigten auf Grund zu hoher, langlebiger Konzentrationen im zweiten Fall schwerwiegende Nebenwirkungen. Mit der Verfügbarkeit von aus menschlichen Darmzellen bestehenden Resorptionsmodellen und aus menschlichen Leberzellen erzeugten Metabolismus-Modellen scheitern heute nur mehr wenige Prozent der Substanzen wegen ungünstigen ADME Eigenschaften.

Tierschützer wie auch einige Pharmaunternehmer sehen Tierversuche als eine Vergeudung von Leben, Kosten und Zeit und drängen darauf das veraltete System der wenig treffsicheren Tierversuche durch alternative humanbasierte Testverfahren zu ersetzen.

Reichen die derzeitig verfügbaren Moodelle aber dazu aus?

Die US-Arzneimittelbehörde FDA besteht nicht mehr auf Tierversuchen

Ende Dezember 2022 hat der amerikanische Präsident Biden den FDA Modernization Act 2.0 als Gesetz unterzeichnet. Mit diesem Gesetz, das auch den Reducing Animal Testing Act enthält, wird die überholte, aus den Jahren 1938 und 1962 stammende FDA-Vorschrift abgeschafft, wonach Arzneimittel-Kandidaten an Tieren getestet werden müssen, bevor sie in klinischen Studien am Menschen eingesetzt werden. In anderen Worten: Anträge zur Zulassung zu klinischen Studien können nun auf Basis tierversuchsfreier Verfahren akzeptiert werden.

Das Gesetz sieht allerdings kein vollständiges Verbot von Tierversuchen in der Entwicklung von Arzneimitteln vor; vielmehr ermöglicht es die Anwendung human-relevanter alternativer Methoden, sofern dies realisierbar ist. Als Beispiel dient hier ein von der Firma Hesperos Inc. (Florida) und Kollegen entwickeltes Neuropathie-Krankheitsmodell, das - aus induzierten pluripotenten Stammzellen und Schwannschen Zellen aufgebaut - in einem mikrofluiden System (siehe unten) eingesetzt wurde. In diesem Modell normalisierte die Behandlung mit speziellen Antikörpern (von Sanofi) die neuronale Funktion; die FDA akzeptierte dies als Nachweis der Wirksamkeit und gestattete, mit der klinischen Prüfung zu beginnen.

Auf der Humanbiologie basierende alternative Methoden

sind in den letzten 10 Jahren in der akademischen Forschung, in Biotech-Unternehmen und auch in behördlichen Forschungseinrichtungen in zunehmendem Maße entwickelt worden. Es sind dies zellbasierte in vitro Assays (Abbildung 2). Nach den 2-dimensionalen Zellkulturen, wie sie bereits seit Jahrzehnten angewandt werden, liegt nun der Fokus auf

  • Organoiden - aus pluripotenten Stammzellen gezüchtete Gruppen unterschiedlicher Zelltypen eines Organs, die sich selbst zu 3-dimensionalen hohlen Mikrostrukturen organisieren, die dem Organ im Aufbau und Funktion ähneln (beispielsweise Mikrohirne) - und
  • "Organ-on-a-Chip" - mikrophysiologischen Systemen, bei denen Organoid-ähnliche Kokulturen in mikrofluide Chips eingebettet sind.

Ausgangsmaterial dieser Assays sind aus verschiedenen Organen entnommene primäre menschliche Zellen und Biopsien, menschliche Zelllinien und adulte, embryonale und induzierte pluripotente Stammzellen.

Abbildung 2. . Wesentliche Modelle in der Arzneimittelforschung und Entwicklung. Beschreibung: siehe Text. Abbildung modifiziert nach [1] Liancao Jiang et al., Bioengineering2022. https://www.mdpi.com/2306-5354/9/11/685 (Lizenz: cc-by)

"Organ-on-a-Chip"

ist eine bereits fortgeschrittene Technologie mit einem ungeheuer breiten Spektrum an biologischen und biomedizinischen Anwendungsmöglichkeiten, die von Grundlagenforschung bis zu Personalisierter Medizin reichen [2].

Das Kernstück ist ein durchsichtiger, flexibler Chip aus einem Kunststoff auf Silikonbasis , der die Größe eines USB-Memory Sticks hat (Abbildung 2: ganz rechts) und ein Organ oder auch ein Organsystem nachahmen soll: Der Chip ist von hohlen mikrofluiden Kanälen durchzogen, die durch eine poröse Membran in zwei Kompartimente geteilt sind. Auf dieser Membran ordnen sich die Zellen eines bestimmten Organs organoid-ähnlich an, das angrenzende Kompartiment simuliert die funktionsbestimmende Umgebung des Organs - beispielsweise das Lumen des Darms. Das andere Kompartiment wird von Flüssigkeiten (Blutersatz) durchströmt; es kommen ihm - wie den Blutkapillaren im Gewebe - die mikrofluide Versorgung mit Nährstoffen und Entsorgung von Stoffwechselprodukten der Gewebezellen zu und es grenzt sich von diesen auch durch Endothelzellen ab.

Das durchsichtige Material ermöglicht morphologische Veränderungen kontinuierlich mikroskopisch zu verfolgen, in der ausströmenden Flüssigkeit können (biochemische) Indikatoren für diverse physiologische und pathologische Vorgänge (u.a. Wirkungsmechanismen und toxische Nebenwirkungen) gemessen werden.

Die Leber als zentrales Organ im Abbau von Fremdstoffen - u.a. den Medikamenten - ist häufig von deren toxischen Nebenwirkungen betroffen. Abbildung 3 illustriert das Design der "Leber auf dem Chip", das zu einem essentiellen Modell in der Pharmaentwicklung werden kann.

Eine kürzlich erschienene Untersuchung hat diesem Lebermodell ein hohes Potential für die korrekte Vorhersage von Leber-toxischen Substanzen bescheinigt. In einem verblindeten Set von 27 bekannten Leber-toxischen und untoxischen Verbindungen erkannten die Chips 87 % der toxischen Substanzen richtig und keine der untoxischen Substanzen als toxisch [3].

Abbildung 3 . Schematische Darstellung eines "Leber auf dem Chip" Modells. Das Modell enthält alle wesentlichen Zelltypen der menschlichen Leber in der für das Organ charakteristischen Anordnung:. Die typischen Leberzellen (C; Hepatozyten) sitzen begrenzt von extrazellulärer Matrix (B) auf einer porösen Membran (D) innerhalb des oberen Kanals (A; blau). Der untere, dem Blutgefäß entsprechende (vaskuläre) Kanal (H; rot) wird von Endothelzellen ausgekleidet (G), die Fett und Vitamin A speichernden Sternzellen (E) sind im Raum zwischen Hepatozyten und Endothel angesiedelt, die Kupferzellen - Makrophagen oder Fresszellen - der Leber (F) im Gefäßraum. (Bild aus [1]: Lorna Ewart et al., Communications Medicine, 2022. https://doi.org/10.1038/s43856-022-00209-1 (Lizenz: cc-by)

Das Tissue Chip for Drug Screening Programm

Initiative der NIH und FDA

Mit dem Ziel Sicherheit und Wirksamkeit von Arzneimittelkandidaten besser vorherzusagen zu können, haben die US-National Institutes of Health (NIH) gemeinsam mit der FDA bereits 2012 das Programm "Tissue Chip for Drug Screening" (Gewebechips für das Arzneistoffscreening) ins Leben gerufen [4]. Die Förderungen galten vorerst der Entwicklung von 3-D-Chips aus menschlichem Gewebe, die die Struktur und Funktion menschlicher Organe genau nachahmten.

2014 schlossen sich Forscher zusammen, um einzelne "Organs-on-a-Chip" zu einem Multiorgan Modell zu entwickeln, das nun auch die Wechselwirkungen zwischen den Organen berücksichtigen sollte (beispielsweise wurden Pharmakokinetik-Modelle entwickelt, die alle Aspekte von Aufnahme, Verteilung, Abbau und Eliminierung eine Arzneimittels erfassen konnten) .2016/2017 begannen die NIH Projekte zu fördern, die Chips zur Modellierung von Krankheiten und Testung der Wirksamkeit von Behandlungen designten. Es folgte die Förderung von Modellen für Schmerz und Opioidabhängigkeit und von Ansätzen zur Modellierung des Immunsystems.

Schlussendlich sollen alle wesentlichen Organe zu einem "Human-Body-on- a Chip" also einem menschlichen Avatar vernetzt werden. Abbildung 4.

Abbildung 4. . Zukunftsmusik: Wesentliche "Organs-on-a-Chip" werden zu einem System zusammengeschlossen, das den "Human Body on a Chip simuliert.(Bild: NIH, National Center for Advancing Translational Sciences; Lizenz: gemeinfrei).

Das Budget der FDA unterstützt ein FDA-weites Programm, um diese alternativen Methoden zu evaluieren. Die Forscher wollen damit einerseits die humanspezifische Physiologie von Geweben oder Organen modellieren, anderseits Methoden für regulatorische Zwecke vorantreiben, welche die Effizienz der Arzneimittelentwicklung erhöhen und Tierversuche ersetzen, reduzieren und verbessern ("replace, reduce, refine") können.

Können die derzeitigen alternativen Methoden bereits Tierversuche ersetzen?

Ein beträchtlicher Teil der bis jetzt entwickelten Modelle kann sicherlich in frühen Entwicklungsphase von Arzneistoffen zur sogenannten Leadoptimierung eingesetzt werden, d.i. wenn aus mehreren möglichen Kandidaten die erfolgversprechendste Verbindung in puncto Sicherheit und möglicherweise auch Wirksamkeit ausgewählt werden soll.

Das Lebermodell kann frühzeitig Lebertoxizität feststellen, das Multiorgan-Modell der Pharmakokinetik erlaubt konkrete Prognosen über Verfügbarkeit, Spiegel , Metabolisierung und Verweildauer neuer Substanzen im Organismus. Das reduziert die Entwicklungszeit, die Zahl der Versuchstiere und die Kosten.

Allerdings spiegeln die bis jetzt entwickelten alternativen Modelle die komplexe pharmakologische Situation unseres Körpers nur bedingt wider. Toxizitäten können auch in Organen auftreten, die von den Testsystemen nicht erfasst werden, die Rolle des Immunsystems wird in den Modellen noch unbefriedigend abgebildet. Am Kunststoff-Material der Chips können Substanzen hängen bleiben (adsorbiert werden) und damit niedrigere Konzentrationen (und damit geringere Nebenwirkungen) vortäuschen. Ein ganz wesentliches Problem der Multi-Organ Chips und damit schlussendlich des Body-on-a-Chip - eines menschlichen Avatars - ist das Skalieren der einzelnen Komponenten, d.i. der korrekten Verweilzeit der durchströmenden Flüssigkeit und damit der Testsubstanzen in den Organmodellen. Natürlich ist es auch entscheidend wie weit die Funktionsfähigkeit in den Zellen über die Versuchsdauer erhalten bleibt. Noch zahlreiche weitere Fragen sind offen.

Viele der bestehenden Probleme erscheinen lösbar und rücken uns dem Ziel näher immer verlässlichere Prognosen über die Auswirkungen von Fremdstoffen - darunter Medikamenten - auf den menschlichen Organismus zu erhalten, als es jetzt mit Versuchstieren der Fall ist.

Trotz der begrenzten Übertragbarkeit von Ergebnissen im Tierversuch auf den Menschen, dürften die Tierstudien in der präklinischen Entwicklungsphase noch nicht durch Alternativen ersetzbar sein. Die europäische Arzneimittelbehörde EMA hat eine Arbeitsgruppe eingerichtet, die die neuen Verfahren erst einmal evaluieren soll und sieht den Zeitpunkt für den Ersatz der Tierversuche noch nicht gekommen.


 [1] Liancao Jiang et al., Bioengineering 2022. https://www.mdpi.com/2306-5354/9/11/685

[2] Ingber, D.E. Human organs-on-chips for disease modelling, drug development and personalized medicine. Nat Rev Genet 23, 467–491 (2022). https://doi.org/10.1038/s41576-022-00466-9

[3] Lorna Ewart et al., Performance assessment and economic analysis of a human Liver-Chip for predictive toxicology. Communications Medicine, 2022. https://doi.org/10.1038/s43856-022-00209-1

[4] Tissue Chip Initiatives & Projects:https://ncats.nih.gov/tissuechip/projects


Zum Arzneimittelforschungs-und Entwicklungsprozess im ScienceBlog


 

 

inge Sat, 04.03.2023 - 20:17

Was da kreucht und fleucht - Wie viele Gliederfüßer (Arthropoden) leben im und über dem Boden und wie hoch ist ihre globale Biomasse?

Was da kreucht und fleucht - Wie viele Gliederfüßer (Arthropoden) leben im und über dem Boden und wie hoch ist ihre globale Biomasse?

Sa, 18.02.2023 — Redaktion

Redaktion Icon Datenbank Weltweit ist ein offensichtlich vom Menschen verursachter, besorgniserregender Rückgang von Arthropoden - und hier sind vorerst vor allem Insekten im Fokus - zu beobachten. Viele Fragen zu den, für den Erhalt unserer Ökosysteme unabdingbaren Arthropodenarten sind bislang noch ungeklärt, insbesondere was das Ausmaß der globalen Populationen und deren Zusammensetzung in verschiedenen Lebensräumen und Ökosystemen betrifft. Eine neue Studie aus der Gruppe von Ron Milo (Weizmann Institut, Israel) ermöglicht nun erstmals einen umfassenden, quantitativen Blick auf die Populationen der Arthropoden. Die neuen Befunde bieten eine wertvolle Grundlage zur Abschätzung, wie sich unsere ökologischen Systeme verändern und wie sich dies auf unsere Ökonomie, Ökologie und Lebensqualität auswirken könnte.

Die zunehmende Dominanz des Menschen über den Erdball hat zu massiven ökologischen und geologischen Auswirkungen geführt. Das Artensterben hat sich im Anthropozän um Größenordnungen über die durch natürliche Evolutionsprozesse hervorgerufenen Veränderungen beschleunigt und die Populationen diverser Wirbeltierarten nehmen ab. Wie Untersuchungen aus jüngster Zeit zeigen, gehen auch die im Boden und auf/über dem Boden lebenden Populationen von Gliederfüßern (Arthropoden) - Insekten, Spinnen, Milben, Tausendfüßler und andere Vertreter der Taxa - deutlich zurück. Für den Rückgang werden menschliche Aktivitäten verantwortlich gemacht, welche die Zerstörung von Lebensräumen, die Intensivierung der Landwirtschaft, den verstärkten Einsatz von Pestiziden und das Einschleppen invasiver Arten miteinschließen. Dazu kommen die Folgeerscheinungen des anthropogen verursachten Klimawandels - ein hoher Stickstoffeintrag in der Atmosphäre, Hitzeperioden, Dürren, Waldbrände und veränderte Niederschlagsmuster.

Der Rückgang der Arthropoden

ist besorgniserregend, da ihnen eine zentrale Rolle in den terrestrischen Ökosystemen zukommt: sie sind ein enorm wichtiger Bestandteil vieler Nahrungsnetze und dienen diversen Tierarten - von Vögeln, Reptilien, Amphibien bis zum Vielfraß - als Nahrung und ernähren sich selbst von Pflanzen und Tieren. Arthropoden bestäuben unsere Pflanzen, verbreiten deren Samen und bauen unsere Böden auf, indem sie pflanzliche und tierische Abfälle abbauen/kompostieren.

Trotz ihrer ungeheuren ökologischen Bedeutung hat es bis jetzt kaum Informationen über die globale Verteilung der landlebenden Arthropoden gegeben. Die meisten bisherigen Studien beruhen auf Stichproben, die Trends in der Population oder Biomasse in einem Gebiet gemessen haben, aber nicht den gesamten dortigen Bestand quantifizieren konnten. Die Quantifizierung der Arthropoden in verschiedenen Lebensräumen und an verschiedenen Orten ist aber essentiell, um eine Basis zu schaffen, anhand derer künftige Veränderungen der Populationen gemessen werden können, wie sich diese auf globale Prozesse auswirken und welche Erfolge durch Maßnahmen erzielt werden könnten.

Eine erste Studie zur umfassenden Quantifizierung

In einer neuen Studie haben Forscher um den Biophysiker Ron Milo vom Weizmann Institut nun erstmals ein quantitatives Bild der Mengen an terrestrischen Arthropoden, ihrer Zusammensetzung und ihrer globalen Biomasse erzeugt [1]. Milo und sein Team sind weltweit anerkannt für ihre Studien zur Bestimmung der globalen Populationen und Biomassen verschiedener Artengruppen; ihre Arbeiten sind Tausende Male zitiert. Mit dem Ziel einen ganzheitlichen Überblick über die Zusammensetzung der Biosphäre zu ermöglichen, hat Ron Milo zusammen mit Rob Philipps (Professor am CalTech, USA) vor einigen Jahren eine Bionumbers Database (https://bionumbers.hms.harvard.edu/) entwickelt. Ebenfalls von Forscherteams um Ron Milo und Rob Philipps wurde kürzlich eine neue, separate Datenbank - die Human Impacts Database (www.anthroponumbers.org) - vorgestellt, welche die Auswirkungen menschlicher Aktivitäten auf Ökologie und Geologie unseres Planeten zum Thema hat. Über diese und frühere Aktivitäten wurde im ScienceBlog berichtet [2 - 4].

Um auf die gegenwärtige Studie über Arthropoden zurückzukommen, die sich zu einem gigantischen Projekt ausgewachsen hat: Die Forscher haben die Literatur nach Messungen der absoluten Populationen (Zahl der Individuen pro Fläche) und Biomassedichten (= Biomasse pro Fläche) von Arthropoden durchsucht und etwa 7000 solcher Auswertungen gesammelt, die weltweit an rund 500 Standorten und oft über viele Jahre hinweg erfolgt waren.

Abbildung 1. Globale Standorte (A) der Probennahme - unterirdische oder oberirdische Proben - und Untersuchungszeitraum (B) . (Bild leicht modifiziert nach Fig 1.in Rosenberg et al., 2023 [1]. Lizenz: cc-by)

Diese Standorte haben alle wichtigen Biome umfasst - von Regenwäldern bis hin zu borealen Wäldern, Grünland in tropischen und gemäßigten Zonen, Weiden, Ackerland, Tundra und Wüsten. An insgesamt etwa 440 Stellen wurden Proben des Lebensraums "Boden & abgestorbenes Pflanzenmaterial (Pflanzenstreu)" analysiert, an rund 60 Stellen Proben der oberirdischen Habitate "Bodenoberflächen und Pflanzen". Abbildung 1 gibt einen Eindruck von der globalen Verteilung der Sammelstellen mit den dort geprüften Habitaten - im Boden oder oberirdisch - und den Zeitraum der Untersuchungen.

Arthropoden sind ein riesengroßer, aus über einer Million Arten bestehender Stamm des Tierreichs. Um die an den verschiedenen Standorten erhaltenen Biomassedichten und Populationszahlen vergleichen und global integrieren zu können, wurden die landbewohnenden Arten auf Basis der Taxonomie in große Gruppen eingeteilt; für die im Boden lebenden Arthropoden sind diese Gruppen - unterschiedlich gefärbt - in Abbildung 2 dargestellt.

Abbildung 2. Phylogenetischer Baum der im Boden lebenden Arthropoden. Jede Farbe steht für eine einzelne zusammengefasste taxonomische Gruppe. Die oberirdischen Arthropoden wurden separat analysiert.(Bild leicht modifiziert nach Fig 1.in Rosenberg et al., 2023 [1]. Lizenz: cc-by).,

Die Analyse

der gesammelten 7000 Daten zeigt, dass der größte Teil der Biomasse der terrestrischen Arthropoden auf Spezies zurückzuführen ist, die im Boden leben (Abbildung 3, oben). Die gesamte globale Biomasse dieser unterirdischen Tiere wird auf rund 200 Millionen Tonnen (200 Mt) Trockengewicht geschätzt, die der oberirdisch lebenden Tiere auf rund 100 Mt. Insgesamt kann man von einem gesamten globalen Trockengewicht von 300 Mt Tieren ausgehen, entsprechend einem Lebendgewicht von etwa 1000 Mt. Umgerechnet mit den Lebendgewichten der einzelnen Arten ergibt dies eine Zahl von 1 x 1019 - 10 000 000 Billionen - Individuen (Unsicherheitsbereich: 0,5 x 1019- 2,0 x 1019).

Abbildung 3. Globale Biomasse der terrestrischen Arthropoden (oben) und taxonomische Gliederung der gesamten Biomasse der im Boden lebenden Arten (unten, links) und relative Biomasse der in Abbildung 2 aufgezeigten Unterstämme (unten, rechts). Die Fehlerbalken im Bild oben markieren den Unsicherheitsbereich, der sich aus der Summe der unteren und oberen Grenzen aller 95 %-Konfidenzintervalle auf Ebene aller untersuchten Lebensräume ergibt (dazu: Abbildung 4) . Das gestrichelte grüne Rechteck ist die zusätzliche Schätzung der oberen Grenze für die oberirdischen Arthropoden. (Bild modifiziert aus Figs 4 und 5 in: Rosenberg et al., 2023 [1]. Lizenz: cc-by).

Bodenarthropoden

Von den im Boden lebenden Arten sind rund 40 % Termiten; auf Ameisen, Springschwänze und Milben fallen jeweils um die 10 %, (Abbildung 3, unten links), der Rest auf andere Spezies (Abbildung 3, unten rechts). Diese unterirdisch lebenden Tiere, insbesondere die winzigen Springschwänze und Milben, sind für Prozesse verantwortlich, die den Boden aufbauen, düngen und den globalen Kohlenstoffkreislauf beeinflussen und damit für Ökologie des Bodens von entscheidender Bedeutung sind.

Die Biomassen-Dichte (Trockengewicht) der Bodenarthropoden variiert in den einzelnen Habitaten und in der Zusammensetzung. Abbildung 4. Höchste Dichten von etwa 3 g/m2 - Termiten tragen am meisten zur Biomasse bei - gibt es in den tropischen und subtropischen Waldgebieten, niedrigste Werte bis unter 0,1 g/m2 in Wüsten und trockenem Buschland. Auf einzelne Individuen bezogen (beispielsweise wiegt eine Boden-Ameise im globalen Mittel rund 0,84 mg) dominieren in allen Habitaten die kleinen Milben und Springschwänze: ihre Dichte reicht von bis zu 200 000 Tieren pro m2 in den borealen Wäldern bis zu etwa 1000 Tieren pro m2 in Wüsten und trockenem Buschland.

Bemerkenswert dabei: das vom Menschen bearbeitete Ackerland weist eine wesentlich niedrigere Populationsdichte auf als Wälder und Grasland in vergleichbaren Zonen.

Abbildung 4. Abbildung 4. Biomassendichte der Bodenarthropoden in den wesentlichen globalen Lebensräumen. Die Dichte der einzelnen farbig markierten Tiergruppen ist in logarithmischem Maßstab aufgetragen, die Farbstärke spiegelt die Zahl der Untersuchungen an der Meßstelle wider. Die globale Fläche der einzelnen Habitate ist in Klammern in Millionen km2 angegeben. (Bild modifiziert aus Fig 2 in: Rosenberg et al., 2023 [1]. Lizenz: cc-by).

Oberirdische Arthropoden

Hier gibt es insgesamt bedeutend weniger Untersuchungen in den wesentlichen Lebensräumen (Abbildung 1) und die angewandten Methoden - Vernebelung von Baumkronen und Leeren von Fallen - können wichtige Entwicklungsformen - beispielweise Raupen - unterrepräsentieren. Studien haben in allen Waldarten stattgefunden und ein Drittel der auf Bäumen lebenden Tiere auf Ameisen zurückgeführt. In den tropischen Wäldern dürfte wohl der Großteil der Biomasse zu finden sein, allerdings basiert diese Aussage auf nur zwei Studien, die Proben der Waldbodenfläche und ganzer Baumgemeinschaften untersucht haben.

Da die oberirdischen Arthropoden - Schmetterlinge, Ameisen, Käfer, Heuschrecken und Spinnen - in der Regel viel größer als die hauptsächlich im Boden lebenden Milben und Springschwänze sind, ist ihre auf Basis der Biomassendichte geschätzte Populationsdichte und damit ihr Beitrag zur globalen Populationsdichte viel niedriger als die der Bodenanthropoden.

Fazit

Die Kenntnis der Zusammensetzung der Biosphäre ist von grundlegender Wichtigkeit, um wesentliche Veränderungen verfolgen, verstehen und mögliche Maßnahmen dagegen ergreifen zu können. Mit der Quantifizierung der terrestrischen Arthropoden über alle Lebensbereiche hat das Team um Ron Milo begonnen eine wichtige Lücke zu schließen. Laut Schätzungen der Forscher gibt es auf der Erde rund 10 Millionen Billionen terrestrische Arthropoden mit einer gesamten Biomasse von 300 Millionen Tonnen.

Wie viel ist das in Relation zu anderen Lebewesen und was bedeutet es?

Die Forscher geben die Antwort: Es ist dies eine Biomasse, die mit der von allen Menschen und ihren Nutztieren (400 Millionen Tonnen) vergleichbar und um eine Größenordnung höher als die der Wildtiere ist. Die Biomasse der Regenwürmer, Nematoden und Enchyträen ist etwa gleich hoch, die der Meeres-Arthropoden (dominiert von Krebstieren) um eine Größenordnung, die der Mikroorganismen im Boden um 2 Größenordnungen höher. Trotz der im Vergleich zu den Mikroorganismen viel niedrigeren Biomasse, tragen Boden-Arthropoden wesentlich zur Zersetzung von Pflanzenmaterial, zum Aufbau des Bodens und zur Homöostase der Kohlenstoffbilanz bei.


[1] Rosenberg et al., The global biomass and number of terrestrial arthropods. Sci. Adv. 9, eabq4049 (3 February 2023), https://www.science.org/doi/10.1126/sciadv.abq4049

[2] Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

[3] Redaktion, 29.12.2016: Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie

[4] Redaktion, 10.02.2023: "Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen


 

inge Sat, 18.02.2023 - 18:49

"Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen

"Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen

Fr, 10.02.2023 — Redaktion

Redaktion Icon Datenbank Zu den verschiedenen anthropogenen Auswirkungen auf unserer Erde gibt es nun eine kuratierte, durchsuchbare Datenbank: die Human Impacts Database (HID) - www.anthroponumbers.org. Die HID enthält quantitative Daten (Werte und Zeitreihen von Werten) zu Schlüsselthemen, die ein möglichst umfassendes Bild menschlicher Aktivitäten und deren Folgen geben – vom Anstieg des Meeresspiegels über Viehbestände, Treibhausgasemissionen, den Einsatz von Düngemitteln zum Energiesektor und darüber hinaus. Damit bietet die HID eine einzigartige Ressource für Experten, politische Entscheidungsträger und die breite Öffentlichkeit, die verschiedenen Auswirkungen des Menschen auf den Planeten in ihren Ausmaßen und ihrer Vernetztheit besser zu verstehen.

In den letzten 10 000 Jahren hat der Mensch die Erde massiv verändert. Seine Aktivitäten in Landwirtschaft, Forstwirtschaft, Bergbau und Industrie haben in komplexer Weise Atmosphäre, Ozeane, Biosphäre und Geochemie der Erde beeinflusst. Die Auswirkungen auf den Planeten sind enorm vielfältig, betreffen nahezu jeden Aspekt des Erdsystems und jede wissenschaftliche Disziplin und werden nun mehr und mehr spürbar. Dennoch sind viele Menschen der Meinung, dass die Erde zu groß ist, um durch menschliche Aktivitäten nachhaltig geschädigt zu werden.

Bis jetzt gibt es nahezu unzählige Studien, die versucht haben den einen oder anderen Aspekt der Auswirkungen des Menschen auf den Planeten (beispielsweise die Treibhausgasemissionen oder den Energieverbrauch) zu quantifizieren. Da Wissenschaftler aus diversen Fächern auf Grund ihrer unterschiedlichen Ausbildung verschiedene Mess- und Analysemethoden anwenden, Daten in unterschiedlichen Einheiten und Formaten melden und verschiedenartige Definitionen verwenden, kann es für Forscher, politische Entscheidungsträger und die Öffentlichkeit sehr schwierig sein, diese Studien zu verstehen und miteinander in Beziehung zu setzen.

Die Human Impacts Database

Um eine Ressource zu schaffen, in der jeder Interessierte die vielfältigen Auswirkungen auf den Planeten schnell und einfach nachsehen, miteinander verflechten und quantifizieren kann, haben Forscherteams um die Biophysiker Rob Philipps, Professor am CalTech (USA) und Ron Milo, Professor am Weizmann Institut (Rehovot, Israel) die Datenbank Human Impacts Database - Anthroponumbers.org - entwickelt [1].

Beim Aufbau der Human Impacts Database haben sich die Forscher von den Erfahrungen mit dem Aufbau und der Nutzung Website BioNumbers Database - - https://bionumbers.hms.harvard.edu/ - leiten lassen, die Milo und Philipps einige Jahre zuvor herausgebracht hatten. Diese Datenbank enthält quantitative Daten zu verschiedenen Aspekten der (Molekular)Biologie – von Zellgröße zu Konzentration von Stoffwechselprodukten, von Reaktionsgeschwindigkeiten zu Generationszeiten, von Genomgröße zur Zahl der Mitochondrien in der Zelle – und hat sich zu einer weithin genutzten Ressource entwickelt (auch die diesbezüglichen Berichte im ScienceBlog [2],[3] wurden bereits viele Tausend mal aufgerufen ). Heute dient die BioNumbers Database Forschern zum Auffinden biologischer Kennzahlen, relevanter Primärliteratur, zum Erlernen von Messmethoden und zum Unterrichten grundlegender Konzepte in der Zellbiologie.

Die Zahlen

"Meiner Meinung nach liegt der Ursprung des Verstehens im Zahlenverständnis: Sobald man die Zahlen kennt, wird klar, was die Probleme sind, welche Dinge wichtig sind und welche weniger wichtig sind", sagt Philipps.

Die neue Human Impacts Database enthält momentan 307 eindeutige, manuell kuratierte Einträge, die ein breites Spektrum an Datenquellen abdecken, wissenschaftliche Primärliteratur, Regierungs- und NGO-Berichte und Industriemitteilungen einschließen. Bevor ein Eintrag in die Datenbank aufgenommen und veröffentlicht wird, wird er von den Administratoren (Experten in den einzelnen Disziplinen) eingehend geprüft (zum Kuratierungsverfahren: siehe Note S1 [1]). Was derzeit an Einträgen vorhanden ist, sind Schlüsseldaten, die ein erstes quantitatives Bild für die globalen Auswirkungen des Menschen auf die Erde vermitteln können; mit dem Fortschreiten relevanter Forschungsarbeiten, wird die Datenbank weiter wachsen und zu einem immer besseren Verstehen der komplexen Zusammenhänge und zu zielgerichteteren Maßnahmen führen.

Die Daten sind in fünf Hauptkategorien unterteilt: "Land", "Wasser", "Energie", "Flora & Fauna" und "atmosphärische & biogeochemische Zyklen". Da diese Kategorien sehr weit gefasst sind, und Einträge mehreren Kategorien zugeordnet werden können, gibt es dazu auch 20 Unterkategorien, wie beispielsweise "Landwirtschaft" oder "Kohlendioxid". Soweit verfügbar, enthält die Datenbank auch Zeitreihen, um zu veranschaulichen, wie sich diese Zahlen im Laufe der Jahre verändert haben.

Abbildung 1. CO2-Konzentration in der Atmosphäre. Der Eintrag mit der HuID-Nummer 81043 findet sich in der Kategorie "atmosphärische & biogeochemische Zyklen" und Subkategorie CO2 (Quelle: Figure 1 aus Griffin Chure et al., (2022),[1]. Lizenz cc-by-nc-sa)

Als Beispiel für einen solchen Eintrag ist die wohl bekannteste anthropogene Auswirkung auf den Planeten, die steigende CO2-Konzentration in der Atmosphäre, in Abbildung 1 aufgezeigt.

Der Eintrag findet sich in der in der Kategorie "atmosphärische & biogeochemische Zyklen", Subkategorie "CO2" (B) und ist mit einer fünfstelligen Zahl, "Human Impacts Database identifier"- HuID gekennzeichnet, die auch zitiert werden kann (D). Die aktuelle (d.i. Ende 2021) CO2-Konzentration von ungefähr 415 ppm (C) kann auch in anderen Messgrößen eingesehen werden. Die Zeitreihe im Zeitraum 1964 - 2021 (C) ist graphisch dargestellt (I), die Werte zu einzelnen Zeitpunkten sind interaktiv abrufbar. Es folgen eine Kurzbeschreibung des Inhalts (F) und der angewandten Methoden, einschließlich der Qualität der Messungen (G) und der Link zur Datenquelle ( H). Last, but not least gibt es auch die Information zur Lizenz der Originaldaten (K) und zum Administrator (L).

Von diesen Daten ausgehend kann man in weiterer Folge Einträge zu den CO2-verursachten steigenden Oberflächentemperaturen aufrufen, von hier u.a. Daten zu Gletscherschmelze und Ansteigen der Meeresspiegel, zum CO2-bedingten Absinken des pH-Wertsder Meere usw, usf. In kurzer Zeit erhält man so ein quantitatives Bild von dem Ausmaß der Treibhausgas-verursachten Auswirkungen beispielsweise auf die Meere.

Die Zahlen bieten die Grundlage, um Zusammenhänge in grafischer Darstellung besser erläutern zu können. Ein einfaches Beispiel ist in Abbildung 2 gezeigt.

Abbildung 2. Wachstum der Weltbevölkerung und deren regionale Verteilung, unterschieden nach städtischen und ländlichen Wohnorten. (Quelle: Zeitreihe und Grafik zusammengestellt aus Griffin Chure et al., (2022),[1]. Lizenz cc-by-nc-sa)

Fazit

Mit der Human Impacts Database ist ein großer Wurf gelungen!

Erstmals kann man nun die komplexen vielfältigen Wechselwirkungen zwischen dem Menschen und dem Land, den Ozeanen und der Atmosphäre in quantitativer Weise untersuchen und - auch, wenn die Einträge noch weiter wachsen werden - bereits jetzt besser verstehen. Abbildung 3 gibt einen groben Überblick über das Ausmaß dieser Auswirkungen. Das schnelle, einfache Auffinden relevanter Informationen hat ein enormes Suchtpotential zur Folge - man kann viele Stunden damit verbringen, um über immer neue Zusammenhänge zu spekulieren.

Die Datenbank bietet für Jeden etwas. Forscher haben leichten Zugriff auf quantitative Daten aus seriösen Quellen und den Link zur Primärliteratur. Lehrer und Schüler gewinnen ein besseres Verständnis für das Ausmaß und die komplexen Zusammenhänge der anthropogenen Auswirkungen auf unseren Planeten - entsprechende Themen könnten in den Unterricht aufgenommen werden und einseitigem Aktivismus vorbeugen. Interessierte Laien haben ein Nachschlagwerk, in dem die Informationen auf aktuellem Stand sind und sie diesen (zum Unterschied zu den online Plattformen) voll vertrauen können. Politische Entscheidungsträger schließlich können auf Basis der konkreten Daten Ansätze zur Behebung der humanen Auswirkungen andenken anstatt der üblichen allgemeinen Absichtserklärungen.

Abbildung 3. Menschliche Auswirkungen auf den Planeten und ihre relevanten Ausmaße. Physikalische Einheiten und im täglichen Leben übliche Größen sind links oben dargestellt, die Kategorien oben in der Mitte. (Quelle: Figure 2 aus Griffin Chure et al., (2022),[1]. Lizenz cc-by-nc-sa)

 


--------------------------------------------

[1] Griffin Chure, Rachel A. Banks, Avi I. Flamholz, Nicholas S. Sarai, Mason Kamb, Ignacio Lopez-Gomez, Yinon Bar-On, Ron Milo, Rob Phillips. Anthroponumbers.org: A quantitative database of human impacts on Planet Earth. Patterns, 2022; 100552, DOI: 10.1016/j.patter.2022.100552

[2] Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

[3] Redaktion, 29.12.2016: Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie


 

inge Fri, 10.02.2023 - 16:07

Enorme weltweite Bildungsdefizite - alarmierende Zahlen auch in Europa

Enorme weltweite Bildungsdefizite - alarmierende Zahlen auch in Europa

Sa, 04.02.2023— Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Basierend auf den Daten aus internationalen und regionalen Leistungstests hat das Münchner ifo Zentrum für Bildungsökonomik kürzlich die bislang umfassendste Darstellung der Bildungsleistungen von Jugendlichen aus 159 Ländern (entsprechend 98 % der Weltbevölkerung) erarbeitet. Die Ergebnisse sind erschreckend: weltweit erreichen zwei Drittel der Jugendlichen keine grundlegenden Fähigkeiten, wie sie für die Teilhabe an modernen wettbewerbsfähigen und erfolgreichen Volkswirtschaften erforderlich sind. Das von allen Mitgliedsstaaten der UNO vereinbarte Entwicklungsziel SDG4 bis 2030 "sicher zu stellen, dass alle Kinder der Welt eine kostenlose, hochwertige Grund- und Sekundarbildung erhalten, die zu brauchbaren Lernergebnissen führt" ist in fernere Zukunft gerückt.

Transformation unserer Welt: Die Agenda 2030 für nachhaltige Entwicklung

Mit dem Ziel weltweit eine nachhaltige Entwicklung auf ökonomischer, sozialer und ökologischer Ebene zu sichern und damit ein gutes, erfülltes Leben für alle Menschen zu gewährleisten, hat die Generalversammlung der Vereinten Nationen im September 2015 die Agenda 2030 für Nachhaltige Entwicklung verabschiedet [1]. Diese enthält 17 nachhaltige Entwicklungsziele (Sustainable Development Goals, SDGs), die vom Beenden von Armut und Hunger zu menschenwürdiger Arbeit, Wirtschaftswachstum und Schutz des Planeten vor Schädigungen reichen. Alle 193 Mitgliedstaaten haben sich verpflichtet auf nationaler, regionaler und internationaler Ebene auf die Umsetzung dieser Ziele bis zum Jahr 2030 hinzuarbeiten.

Ein sehr wichtiges Ziel ist die Gewährleistung einer hochwertigen, gerechten und inklusiven Bildung für alle (SDG4), das bedeutet: "frühkindliche, Grund-, Sekundar- und Hochschulbildung sowie Fach- und Berufsausbildung. ... damit alle sich das Wissen und die Fertigkeiten aneignen können, die sie benötigen, um Chancen zu nutzen und uneingeschränkt an der Gesellschaft teilhaben zu können"[1]. Die Teilhabe an modernen wettbewerbsfähigen, erfolgreichen Volkswirtschaften ist ihrerseits Voraussetzung zur Erreichung anderer SDGs - vor allem der Armut und dem Hunger ein Ende zu setzen.

Bis 2030 soll laut SDG4.1 sichergestellt sein," dass alle Mädchen und Jungen gleichberechtigt eine kostenlose und hochwertige Grund- und Sekundarschulbildung abschließen, die zu brauchbaren und effektiven Lernergebnissen führt" [1].

Bis 2030 liegen nur mehr acht Jahre vor uns. Wie aus einer kürzlich erschienenen Studie des Münchner ifo Instituts hervorgeht, ist die Welt noch extrem weit davon entfernt die vereinbarten Bildungsziele zu erreichen [2].

Eine umfassende Darstellung der globalen Bildungsdefizite

Ludger Wößmann, Leiter des ifo Zentrums für Bildungsökonomik (München) und ifo-Forscherin Sarah Gust haben zusammen mit dem Bildungsökonomen Eric A. Hanushek von der Stanford University die bisher umfassendste Darstellung der weltweiten Bildungsleistungen von Jugendlichen erarbeitet [2]. Basierend auf individuellen Schülerdaten aus internationalen (Programme for International Student Assessment -PISA - und Trends in International Mathematics and Science Study - TIMSS) und regionalen Leistungstests haben sie die Leistungen auf eine global vergleichbare Skala (die PISA-Skala) gebracht. Insgesamt haben sie dann für 159 Länder (98,1 % der Weltbevölkerung und 99,4 % des weltweiten BIP) den Anteil der Kinder abgeschätzt, die keine Grundfertigkeiten erreichen. Details wie Leistungen in Ländern ohne repräsentative Teilnahme an (internationalen) Tests abgeschätzt werden konnten, sind in [2] beschrieben.

Was ist unter Grundfertigkeiten ("Basic Skills") zu verstehen?

Die Autoren definieren diese als die Fertigkeiten, die für eine effektive Teilnahme an modernen Volkswirtschaften erforderlich sind und an Hand der Beherrschung zumindest der untersten PISA-Kompetenzstufe (1 von 6) gemessen werden. Der Fokus liegt dabei auf Mathematik und Naturwissenschaften (in diesen Fächern lassen sich die Leistungen besser zwischen Ländern vergleichen als - auf Grund der Sprachunterschiede - im Lesen). Laut OECD (2019) liegt die zu erreichende Grenze der PISA-Stufe 1 bei 420 Punkten für Mathematik und bei 410 für Naturwissenschaften.

Kompetenzstufe 1 der PISA-Skala bedeutet für Mathematik: " Schüler können Fragen zu vertrauten Kontexten beantworten, bei denen alle relevanten Informationen gegeben und die Fragen eindeutig definiert sind. Sie sind in der Lage, Informationen zu erfassen und in expliziten Situationen Routineverfahren gemäß direkten Instruktionen anzuwenden. Sie können Schritte ausführen, die fast immer offensichtlich sind und sich unmittelbar aus der jeweiligen Situation ergeben." (OECD [3]) . Was sie nicht können, ist - wie in Stufe 2 erforderlich - einfachste Formeln anwenden, Schlussfolgerungen ableiten oder Ergebnisse interpretieren. Es sind dies allerdings Fähigkeiten, die der Arbeitsmarkt nicht nur in entwickelten Ländern in zunehmendem Maße erfordert, und ohne die selbst der nur für Eigenbedarf produzierende Landwirt nicht auskommt.

Kompetenzstufe 1b der PISA-Skale bedeutet für Naturwissenschaften: "Schüler können auf allgemein bekanntes konzeptuelles Wissen zurückgreifen, um Aspekte einfacher Phänomene zu erkennen. Sie können einfache Muster in Daten und naturwissenschaftliche Grundbegriffe erkennen und expliziten Anweisungen folgen, um ein einfaches naturwissenschaftliches Verfahren anzuwenden". (OECD [3])

Wie hoch sind die globalen Bildungsdefizite?

Die ifo-Studie zeigt erschreckende Zahlen (Abbildung 1):

Abbildung 1. Geschätzter Anteil der Jugendlichen (inklusive der nicht in der Schule erfassten), die nicht zumindest den untersten Level (PISA 1) der Grundfertigkeiten in Mathematik und Naturwissenschaften erreicht haben. (Bild leicht modifiziert aus [2]; Lizenz cc-by-nc.).

Weltweit haben mindestens zwei Drittel bis zu drei Viertel der Jugendlichen nicht das Mindestmaß an Grundfertigkeiten (PISA-Stufe 1) erlangt. Am deutlichsten treten die Qualifikationsdefizite bei dem Drittel der Jugendlichen zutage, die keine weiterführende Schule besuchen; allerdings erlangen weltweit auch 61,7 Prozent der Sekundarschüler keine Grundkenntnisse. Tabelle 1.

In 101 der 159 untersuchten Länder liegt der Anteil der Kinder, die keine Grundfertigkeiten erworben haben, über 50 %, in 36 dieser Länder bei über 90 Prozent. Es sind dies Länder mit den niedrigsten Einkommen (< 1085 $/Kopf und Jahr), vor allem in Afrika südlich der Sahara (Bildungsdefizit 94 %). In Südasien liegt das Bildungsdefizit bei 89 %, im nahen Osten bei 68 % und in Lateinamerika bei 65 % (Abbildung 1).

Spalte 1: Anteil der getesteten Schüler, die Grundfertigkeiten nicht erreichen. Spalte 2: Anteil der Schüler ohne Sekundarbildung (daher nicht getestet), Spalte 3: Alle (getestete und nichtgeteste) Kinder, die Grundfähigkeiten nicht erreichen. (Quelle: Table 2 in [2], (Lizenz cc-by-nc) ); Einkommen pro Kopf und Jahr: http://data.worldbank.org/about/country-classifications.)

Niedriges Pro-Kopf Einkommen und Fehlen adäquater Schulen korrelieren mit dem Ausmaß der Bildungsdefizite. Allerdings gibt es einige sehr reiche Länder, wie beispielsweise Katar, in denen trotz enormer Investitionen in den Bildungssektor - vom Kindergarten bis zu Hochschulen - (noch) keine dramatische Verbesserung der Situation gelungen ist (in Katar erreichen 57 % der Jugendlichen nicht die unterste Stufe der Grundfertigkeiten).

Bedenklich erscheint, dass in den die meisten reichen Ländern - wie in den USA und den europäischen Staaten (s.u.) - im Mittel rund ein Viertel der Kinder nicht über das Mindestmaß an Grundfertigkeiten verfügt. Weltweit liegt nur in 19 Ländern deren Anteil unter 20 %; dazu gehören Canada, China (hier die Regionen Beijing, Shanghai, Jiangsu, Zhejiang und Guangdong99, dazu Hongkong und Macao, weiters Japan, Südkorea, Singapur, Taiwan und 11 europäische Staaten (diese sind aus Abbildung 2 ersichtlich). Offensichtlich kommt es aber nicht nur auf die Investitionen in Bildung an: In den 5 chinesischen Regionen ist das Einkommensniveau wesentlich niedriger als im OECD-Durchschnitt (3).

Wie hoch sind die Bildungsdefizite in Europa?

Die in Europa erhobenen Schülerleistungen stammen - mit Ausnahme von Zypern (TIMSS-Testung) -aus PISA-Testungen - ein Ländervergleich der Bildungsdefizite ist damit sehr verlässlich. Europaweit haben bis zu 99 % aller Schüler die Sekundarschulstufe besucht; nur in der Ukraine (64,0 %), Nord-Mazedonien (75,7 %), Moldawien (78,0%) und im Kosovo (78,1 %) liegt die Beteiligung deutlich niedriger.

Abbildung 2. Anteil der Jugendlichen [in %] in europäischen Ländern, die das Mindestmaß an grundlegenden Fähigkeiten in Mathematik und Naturwissenschaften nicht erreichen. Nicht eingetragen sind Zypern (32 %), Malta (33,9 %), Luxemburg (31,3 %) und Liechtenstein (14,5 %). (Die Europakarte ist gemeinfrei, die eingefügten Zahlen sind Tabelle 4A in [2] entnommen (Lizenz cc-by-nc).)

Europaweit bestehen erhebliche Unterschiede in den Bildungsdefiziten, die von 10,5 % (Estland) bis 79,9 % (Kosovo) reichen (Abbildung 2). Höchst alarmierend erscheint die Situation in Südosteuropa. In Ländern , die zusammen genommen 91 Millionen Menschen zählen, erreichen mehr als 40 % der Schüler nicht die unterste Stufe der Grundfertigkeiten; die höchsten Leistungsdefizite weisen dabei Länder des Westbalkans auf: der Kosovo (79,9 %), gefolgt von Nord-Mazedonien (61,1 %) , Bosnien-Herzegowina (59,7 %), Moldawien (52,3 %) und Montenegro (50,1 %). Auch in den EU-Ländern Rumänien und Bulgarien verfügt nahezu die Hälfte der Schüler nicht über die Grundfertigkeiten von PISA-Stufe 1.

Wovon hängen die Lernerfolge ab?

Wie bereits oben erwähnt, bedarf es primär ausreichend ausgestatteter Bildungssysteme, um gute Schülerleistungen zu erzielen. Der Schulbesuch ist aber nicht gleichbedeutend mit Lernen - dies sieht man an Hand der schlechten Leistungen in Südost-Europa.

Der Ruf nach mehr Geld, nach höheren Investitionen in den Bildungsbereich garantiert nicht unbedingt bessere Lernerfolge:  

     So wurden in Estland die besten schulischen Leistungen in Europa erzielt, obwohl die dortigen Bildungsausgaben rd. 30% unter dem OECD-Durchschnitt liegen [3].

    Auf der anderen Seite ist das schwache Abschneiden von Luxemburg, des weltweit derzeit reichsten Staates, zu vermerken, in dem fast ein Drittel (31,3 %) der Schüler die Grundqualifikation nicht erreichen und dies trotz eines hohen Bildungsbudgets.

    Im OECD-Bereich sind im letzten Jahrzehnt die Ausgaben für den Primär- und Sekundarbereich um mehr als 15 % gestiegen, die schulischen Leistungen haben sich aber in den meisten Ländern (72 von 79 Ländern) nicht verbessert [3].

Zweifellos kann auch Migration zum schulischen Abschneiden beitragen. In Ländern, die relativ wenige Zuwanderer aus Kulturkreisen mit niedrigem Bildungsniveau und anderen Wertvorstellungen haben, gibt es auch weniger Probleme in den Schulen und diese sind nicht nur mangelnder Sprachbeherrschung geschuldet.

Ganz wesentlich für den Lernerfolg ist es Schüler - innerhalb der Schule und ausserhalb in Elternhaus und Gesellschaft - zu motivieren, dass sie bereit sind zu lernen. 

Fazit

Die Leistungsdaten aus 159 Ländern, die 98 % der Erdbevölkerung abdecken, zeigen ganz klar, dass die Welt noch enorm weit davon entfernt ist allen Kindern Grundfertigkeiten zu vermitteln, die für die Teilhabe an modernen Volkswirtschaften erforderlich sind. Damit erscheint das Entwicklungsziel SDG4 der Agenda 2030 in näherer Zukunft nicht erreichbar. Das Dilemma: Der Großteil der Jugendlichen trifft unvorbereitet auf eine in raschem Wandel begriffene Welt, die mehr und mehr von informationsbasierten Tätigkeiten geprägt wird. Auch in Berufen, die als anforderungsarm gegolten haben, wird es zunehmend wichtiger schriftliche Informationen zu verstehen, sich damit kritisch auseinander zu setzen, rechnerische Verfahren anzuwenden, wissenschaftlich zu denken und auf Evidenz basierende Schlussfolgerungen zu ziehen.


 [1] Resolution der Generalversammlung, verabschiedet am 25. September 2015: Transformation unserer Welt: die Agenda 2030 für nachhaltige Entwicklung. . https://www.un.org/Depts/german/gv-70/band1/ar70001.pdf

[2] Sarah Gust, Eric A. Hanashek, Ludger Woessmann: Global Universal Basic Skills: Current Deficits and Implications for World Development. (October 2022). https://docs.iza.org/dp15648.pdf, DOI 10.3386/w30566  . 

[3] OECD: PISA 2018 Ergebnisse. Was Schülerinnen und Schüler wissen und können, Band 1 (2019). https://doi.org/10.1787/1da50379-de


Artikel zum Thema Bildung im ScienceBlog

Inge Schuster, 30.10.2021: Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Inge Schuster, 03.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

IIASA, 17.05.2018: Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.

Inge Schuster, 10.08.2017: Migration und naturwissenschaftliche Bildung

Inge Schuster, 22.6.2017: Der naturwissenschaftliche Unterricht an unseren Schulen

Inge Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

Inge Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)


 

inge Sat, 04.02.2023 - 18:54

Auf der Suche nach einem Religiositätsgen

Auf der Suche nach einem Religiositätsgen

Do, 26.01.2023 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Prädisponieren uns unsere Gene dazu, dass wir vielleicht asozial sind, die Einsamkeit suchen, politischen Ideologien anhängen und möglicherweise, dass wir religiös sind? Zu letzterer Frage hat die US-amerikanische Genetikerin Ricki Lewis unter den Stichworten "Vererbung" und "Religiosität" in Google Scholar nach entsprechenden Berichten gesucht. Was Google Scholar dazu an Untersuchungen aufzeigte, stammte hauptsächlich aus den Sozialwissenschaften. Im Folgenden referiert Lewis kritisch über fünf zwischen 1996 und 2021 veröffentlichte Studien, die der Frage nachgingen, ob Religiosität in unseren Genen steckt.*

Der erste Funke: Der Garten Eden trifft auf die Doppelhelix. (Harishbabu Laguduva). Lizenz: cc-by-sa

Ich habe etwas Naturwissenschaftliches gesucht - bringt religiös zu sein einen Vorteil für Überleben zur Reproduzierung, das die treibende Kraft der natürlichen Selektion eines adaptiven vererbten Merkmals ist?

Das normale Google und die Mainstream-Medien ließ ich beiseite, weil ich ja nach Daten und nicht nach Meinungen suchte, und gab als Stichworte "Vererbung" und "Religiosität" ein. Für mich bedeutet Vererbung Gene, die für Proteine kodieren, welche den Phänotyp (Merkmal oder Krankheit) beeinflussen. Vererben bedeutet aber auch, dass von den Eltern etwas an die Nachkommen weitergegeben wird, wie beispielsweise Geld, Hab und Gut oder Wertvorstellungen.

Sicherlich hatte irgendjemand schon eine Genomweite Assoziationsstudie (GWAS) für "Religiosität" durchgeführt. Eine "GWAS" ist eine Untersuchung der Einzelnukleotid-Polymorphismen (SNPs) in einem Genom, d.i. Variationen in einzelnen Basenpaaren bei unterschiedlichen Individuen. Derartige Studien gibt es bereits seit zwei Jahrzehnten; sie versuchen für Eigenschaften wie antisoziales Verhalten, Vereinsamung und sogar politische Ideologien eine genetische Basis zu finden.

Heute verwenden die Forscher einen abgekürzten "polygenen Risikoscore" (PRS), um sogenannte komplexe Merkmale zu beschreiben, d. h. solche, die sowohl von mehreren Genen als auch von Umweltfaktoren beeinflusst werden. Im Gegensatz zu einer Entweder-Oder-Diagnose wie im Fall der Mukoviszidose umfasst ein PRS die Varianten vieler Gene, die zu einem Merkmal oder einer Krankheit beitragen.

Was Google Scholar an Untersuchungen aufzeigte, stammte eher aus den Sozialwissenschaften und verwendete eine Sprache, mit der ich zugegebenermaßen nicht vertraut bin. Hier ist eine kurze Beschreibung von fünf Studien in chronologischer Reihenfolge, die der Frage nachgingen, ob Religiosität in unseren Genen steckt.

1996: "Ein interaktives Modell der Religiositätsvererbung: Die Bedeutung des familiären Kontextes"

In diesem Bericht im Journal American Sociological Review hat Scott M. Myers von der Penn State University "das Ausmaß der Vererbung von Religiosität anhand von Interviews mit 471 Eltern im Jahr 1980 und ihren erwachsenen Nachkommen im Jahr 1992" abgeschätzt [1]. Sein Befund, dass die Religiosität einer Person von der elterlichen Religiosität abhängt, ist wenig überraschend. Verblüffend ist aber die antiquierte Sprache, die ja aus dem noch nicht so lange zurückliegenden Jahr 1996 stammt:

"Eine glückliche Ehe der Eltern, Unterstützung des Kinds durch die Eltern, angemessene Strenge und ein berufstätiger Ehemann/nicht berufstätige Ehefrau erhöhen die Fähigkeit der Eltern, ihre religiösen Überzeugungen und Gebräuche weiterzugeben." Du lieber Himmel!

2004: "Das Gottes-Gen: Wie der Glaube in unseren Genen fest verdrahtet ist"

Mit dem Konzept eines Gottes-Gens hat sich der Genetiker Dean Hamer in seinem viel zitierten Buch "Das Gottes-Gen" auseinander gesetzt. Es handelt sich um den am National Cancer Institute (Bethesda) tätigen Forscher, der bereits 1993 mit seiner inzwischen widerlegten Entdeckung eines "Schwulen-Gens" Schlagzeilen gemacht hat [2].

Im "Das Gottes-Gen" führt Hamer die "Veranlagung von Menschen zu spirituellen oder mystischen Erfahrungen" auf Varianten eines Gens, nämlich des für den vesikulären Monoamintransporter 2 (VMAT2) kodierenden Gens, zurück (VMAT2 transportiert in der Nervenzelle Monoamine aus dem Cytosol in Vesikel; Anm. Redn.). Laut Online Mendelian Inheritance in Man (d.i. der "Bibel" der Humangenetik) ist die korrekte Funktion des Gens "unerlässlich für die einwandfreie Leistung der monoaminergen Systeme, die bei etlichen neuropsychiatrischen Störungen des Menschen eine Rolle spielen. Der Transporter ist ein Wirkort für wichtige Medikamente".

Zu den Monoamin-Neurotransmittern gehören Serotonin, Dopamin, Adrenalin und Noradrenalin, die starke Auswirkungen auf die Gemütslage haben. Können also Variationen im Monoamin-Feld tatsächlich für religiöse Gedanken und sogar Visionen verantwortlich sein?

Hamers Kandidat des Gens für ein höheres Wesen tauchte 2017 in einem Bericht von Linda A. Silveira (von der University of Redlands) in der Zeitschrift Life Sciences Education wieder auf: "Experimentieren mit Spiritualität: Analyse des Gottes-Gens in einem Laborkurs". Die Studenten haben Varianten in ihren VMAT2-Genen untersucht. Die Autorin bewertete die Übung als ein Lehrmittel. Und das war es auch, denn die Klasse widerlegte die Hypothese, dass Varianten des Gens etwas mit dem Bekenntnis zu einer Religion zu tun haben.

2011: "Religion, Fruchtbarkeit und Gene: Ein Modell der Dualen Vererbung"

In einer Veröffentlichung der Royal Society untersuchte der Wirtschaftswissenschaftler Robert Rowthorn von der University of Cambridge anhand eines Modells die evolutionären Auswirkungen der Tatsache, dass religiöse Menschen im Durchschnitt mehr Kinder haben als ihre säkularen Pendants" [4]. Diese Aussage ist nicht belegt und wird als Allgemeinwissen dargestellt.

Rowthorn legte seine Annahmen dar: (1) die Kultur bestimmt die Fruchtbarkeit und (2) die "genetische Veranlagung" beeinflusst die Neigung zur Religion. "Menschen, die ein bestimmtes 'Religiositäts'-Gen besitzen, werden überdurchschnittlich oft religiös oder bleiben religiös", erklärte er. Dies ist eine Abwandlung der allzu simplen "a-gene-for"-Mentalität, auch bekannt als genetischer Determinismus.

Ich konnte nicht umhin, mich zu fragen, was ein Religionsgen eigentlich sein könnte? Ein DNA-Abschnitt, der für eine Hämoglobinvariante kodiert? Eine Form von Kollagen? Ein Blutgerinnungsfaktor? Ein Verdauungsenzym? Ist es vielleicht doch die abgelehnte VMAT2-Variante von Hamer?

Rowthorn schreibt: "Die Arbeit betrachtet die Auswirkungen von religiösen Übertritten und Exogamie auf die religiöse und genetische Zusammensetzung der Gesellschaft."

Ich wusste, dass Endogamie in der Genetik die Paarung innerhalb einer Gruppe bedeutet. Daher war ich nicht überrascht, als ich entdeckte, dass Exogamie "die soziale Norm ist, außerhalb der eigenen sozialen Gruppe zu heiraten". In der Biologie bedeutet Exogamie Auskreuzung (Tiere) oder Fremdbestäubung (Pflanzen). Einzeller wie Bakterien, Amöben und bestimmte Schleimpilze, die keine sozialen Normen haben, wachsen einfach und teilen sich dann.

Der Wirtschaftswissenschaftler versuchte, die Wissenschaft hinter seiner Hypothese des "Religiositätsgens" zu erklären, wobei er unbewusst die Konzepte der natürlichen Selektion und der genetischen Verknüpfung berührte:

"Sich von der Religion Lossagende verringern den Anteil der Bevölkerung mit religiöser Zugehörigkeit und verlangsamen die Ausbreitung des Religiositätsgens. Wenn jedoch der Unterschied in der Fruchtbarkeit bestehen bleibt, und Menschen mit religiösem Bekenntnis sich hauptsächlich mit Gleichgesinnten paaren, wird das Religiositätsgen trotz einer hohen Lossagungsrate schließlich überwiegen. Dies ist ein Beispiel einer "Gen-Kultur Koevolution'', in der sich ein Gen ausbreitet, weil es in der Lage ist, sich an ein kulturelles Brauchtum mit hoher Fitness anzuhängen."

(Nach Darwin bedeutet Fitness explizit: lange genug zu überleben, um sich fortzupflanzen.)

Rechnerische Modellierungen, so Rowthorns Schlussfolgerung, stützen seine "theoretischen Argumente" über die Ausbreitung eines Religiositätsgens.

2017: "Religiöse Wahnvorstellungen bei Schizophrenie"

Eine im Journal European Neuropsychopharmacology veröffentlichte Studie stößt in den Bereich der diagnostischen Medizin vor [5]. Forscher aus Deutschland haben polygene Risikoscores verwendet, um einen Zusammenhang zwischen "starker religiöser Aktivität" und einem erhöhten Schweregrad der Schizophrenie aufzuzeigen.

"Von 271 Patienten (217 Christen, 9 Muslime, 45 ohne religiöses Bekenntnis) erlebten 102 (38 %) religiöse Wahnvorstellungen während der Krankheitsepisoden", so die Forscher. "Die bloße Zugehörigkeit zu einer Religion korrelierte nicht mit einer höheren Wahrscheinlichkeit von Wahnvorstellungen, wohl aber eine "starke religiöse Aktivität".

"Andere untersuchte Faktoren - Alter, Geschlecht, Bildungsstand, Familienstand und sogar die Frage, ob ein Patient während der Befragung mitten in einem Wahnzustand war - schienen keine Rolle zu spielen. Und je höher die angegebene Religiosität war, desto größer war das Risiko von Wahnvorstellungen", so die Schlussfolgerung der Forscher.

Aber auch das Vorhandensein von mehr prädisponierenden Genen (höhere PRS) korrelierte mit der Wahrscheinlichkeit von Wahnvorstellungen. "Unsere Ergebnisse legen nahe, dass das Auftreten religiöser Wahnvorstellungen bei Schizophrenie und schizoaffektiven Störungen sowohl mit Umwelteinflüssen als auch mit genetischen Faktoren zusammenhängt. Eine moderate religiöse Aktivität scheint jedoch keine negativen Auswirkungen zu haben und könnte sogar hilfreich sein, um mit diesen Störungen fertig zu werden", so die Forscher.

2021: "Die Ursprünge des religiösen Unglaubens: Ein Ansatz der Dualen Vererbung"

Eine Studie in der Fachzeitschrift Social Psychological and Personality Science befasst sich mit den Hintergründen des Nichtglaubens [6]. Der Artikel beginnt mit der Beschreibung von Atheisten, als wären wir Außerirdische.

In dieser sozialwissenschaftlichen Untersuchung werden "theoretische Rahmenbedingungen für die wichtigsten Prädiktoren des religiösen Unglaubens" erörtert. Wir Atheisten "erleben weniger glaubwürdige kulturelle Hinweise auf religiöses Engagement, ... gefolgt von einem reflektierenden kognitiven Stil, ... und einer weniger fortgeschrittenen Mentalisierung."

Da meine Mentalisierung anscheinend zurückgeblieben ist, dachte ich, ich würde das mal genauer untersuchen. Die Wikipedia-Definition ist stumpfsinnig: "Mentalisierung kann als eine Form der imaginativen mentalen Aktivität betrachtet werden, die es uns ermöglicht, menschliches Verhalten in Form von intentionalen mentalen Zuständen wahrzunehmen und zu interpretieren."

Die Definition eines Begriffs sollte den Begriff nicht verwenden, etwas, das ich in dieser kleinen Auswahl der Soziologie-Literatur zuhauf fand. Ich denke, dass meine mangelnde Mentalisierung bedeutet, dass ich nicht unvoreingenommen bin, was vielleicht ein Umweg ist, um zu sagen, dass ich wie ein Naturwissenschaftler denke - ich ziehe Beweise der Phantasie und den Gefühlen vor.

Diesem Bericht zufolge ist Atheismus eher bei Menschen anzutreffen, die "kulturell relativ wenig mit Religion in Berührung kommen". Eine verblüffende Erkenntnis!

-------------------------------------------------------------

Meine Eltern haben mich mit unserer Religion vertraut gemacht. In der dritten Klasse habe ich mittwochs nach der Schule den "Religionsunterricht" besucht.

In der ersten Stunde habe ich aufmerksam der Geschichte der Schöpfung zugehört und in meinem Kopf die Drittklässler-Version eines Stammbaums aufgebaut. Ich war konsterniert. Woher kamen die Frauen von Kain und Abel?

Ich stellte diese Frage und man sagte mir, ich solle still sein. Aber ich hob immer wieder meine Hand. Gehörten die Ehefrauen von Kain und Abel zur Gattung Australopithecus, waren sie Neandertaler oder Schimpansen? Ich hatte die faszinierende Ausstellung von Hominidenköpfen im American Museum of Natural History vor Augen.

Ich bin nicht mehr zum "Religionsunterricht" zurückgekehrt. Meine Mutter wollte die angeborene Neugierde eines zukünftigen Wissenschaftlers nicht unterdrücken.

Wenn es ein Gen für Religiosität gibt, dann ist meines sicherlich gelöscht. Aber das ist in Ordnung.

----------------------------------------------------------------------------------------

 [1] Scott M. Myers: An Interactive Model of Religiosity Inheritance: The Importance of Family Context. American Sociological Review Vol. 61, No. 5 (Oct., 1996), pp. 858-866. https://doi.org/10.2307/2096457

[2] Ricki Lewis: Retiring the Single Gay Gene Hypothesis. 29.09.2019. https://dnascience.plos.org/2019/08/29/retiring-the-single-gay-gene-hypothesis/

[3] Linda A. Silveira: Experimenting with Spirituality: Analyzing The God Gene in a Nonmajors Laboratory Course. (2017) CBE—Life Sciences EducationVol. 7, No. 1. https://doi.org/10.1187/cbe.07-05-0029

[4] Robert Rowthorn: Religion, fertility and genes: a dual inheritance model.(2011). Proc. Royal Soc. https://doi.org/10.1098/rspb.2010.2504 . .

[5] Heike Anderson-Schmidt et al., T41 - Dissecting Religious Delusions In Schizophrenia: The Interplay Of Religious Activity And Polygenic Burden. . European Neuropsychopharmacology Volume 27, Supplement 3, , 2017.

[6] Will M.Gervais et al., The Origins of Religious Disbelief: A Dual Inheritance Approach. (2021)SAGE journals 12,7. https://doi.org/10.1177/1948550621994001


* Der Artikel ist erstmals am 22. Dezember 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "In Search of a Religiosity Gene"https://dnascience.plos.org/2022/12/22/in-search-of-a-religiosity-gene/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


 

inge Thu, 26.01.2023 - 13:12

NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen

NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen

Do, 19.01.2023 — Redaktion

Redaktion

Icon Klima

Nach einer Analyse der NASA war die durchschnittliche Oberflächentemperatur der Erde im Jahr 2022 gleichauf mit 2015 die fünftwärmste seit Beginn der Aufzeichnungen. Der langfristige Erwärmungstrend der Erde setzt sich fort; laut den Wissenschaftlern des Goddard Institute for Space Studies (GISS) der NASA lagen die globalen Temperaturen 2022 um 0,89 Grad Celsius über dem Durchschnitt des NASA-Bezugszeitraums (1951-1980).*

Abbildung 1. Globale Temperaturanomalien im Jahr 2022. (NASA Earth Observatory images by Joshua Stevens, based on data from the NASA Goddard Institute for Space Studies)

"Dieser Erwärmungstrend ist alarmierend", sagt NASA-Administrator Bill Nelson. "Unser sich erwärmendes Klima hinterlässt bereits seine Spuren: Waldbrände nehmen zu, Hurrikane werden stärker, Dürren richten Verwüstungen an und der Meeresspiegel steigt. Die NASA verstärkt ihr Engagement, um ihren Teil zur Bekämpfung des Klimawandels beizutragen. Unser Earth System Observatory wird hochaktuelle Daten zur Unterstützung unserer Klimamodellierung, -analyse und -vorhersage bereitstellen, um der Menschheit bei der Bewältigung des Klimawandels auf unserem Planeten zu helfen."

Die letzten neun Jahre waren die wärmsten Jahre seit Beginn der modernen Aufzeichnungen im Jahr 1880. Das bedeutet, dass die Erde im Jahr 2022 etwa 1,11°C wärmer war als der Durchschnitt des späten 19. Jahrhunderts.

Die Landkarte in Abbildung 1. zeigt die globalen Temperaturanomalien im Jahr 2022. Das sind nicht die absoluten Temperaturen, sondern um wie viel wärmer oder kühler die einzelnen Regionen der Erde im Vergleich zum Durchschnitt der Jahre 1951 bis 1980 waren.

Das Balkendiagramm in Abbildung 2. gibt das Jahr 2022 im Kontext mit den Temperaturanomalien seit 1880 wieder. Es sind dies über den gesamten Globus gemittelte Oberflächentemperaturen für die jeweiligen Jahre.

Abbildung 2. Globale Temperaturanomalien seit 1880 bezogen auf den Temperatur-Durchschnitt im Zeitraum 1951 - 1980. (Abweichungen in o C.) NASA Earth Observatory images by Joshua Stevens, based on data from the NASA Goddard Institute for Space Studies

"Der Grund für den Erwärmungstrend liegt darin, dass der Mensch fortfährt enorme Mengen an Treibhausgasen in die Atmosphäre zu pumpen, und die langfristigen Auswirkungen auf dem Planeten werden sich fortsetzen", sagt Gavin Schmidt, Direktor des GISS, dem führenden Zentrums der NASA für Klimamodellierung.

Nach einem kurzzeitigen Absinken aufgrund der COVID-19-Pandemie im Jahr 2020 sind die vom Menschen verursachten Treibhausgasemissionen wieder angestiegen. Kürzlich haben NASA-Wissenschaftler, ebenso so wie auch internationale Wissenschaftler festgestellt, dass die Emissionen von Kohlendioxid im Jahr 2022 so hoch waren wie nie zuvor. Mit Hilfe des EMIT-Instruments (Earth Surface Mineral Dust Source Investigation), das letztes Jahr zur Internationalen Raumstation gebracht wurde, hat die NASA außerdem einige Superemittenten von Methan - einem weiteren starken Treibhausgas - identifiziert (siehe dazu: [1]).

Die stärksten Erwärmungstendenzen weist nach wie vor die arktische Region auf: der Temperaturanstieg ist hier fast viermal so hoch wie im globalen Durchschnitt -, so die GISS-Untersuchung, die auf der Jahrestagung 2022 der American Geophysical Union vorgestellt wurde, sowie eine separate Studie.

Gemeinschaften auf der ganzen Welt leiden unter Auswirkungen, die Wissenschaftler in Zusammenhang mit der Erwärmung der Atmosphäre und der Ozeane sehen. Der Klimawandel hat Niederschläge und tropische Stürme verstärkt, Dürreperioden verschärft und die Auswirkungen von Sturmfluten verstärkt. Das vergangene Jahr brachte sintflutartige Monsunregenfälle, die Pakistan verwüsteten, und eine anhaltende Megadürre im Südwesten der USA. Im September wurde Hurrikan Ian zu einem der stärksten und kostspieligsten Wirbelstürme, die das US-amerikanische Festland heimsuchten.

Unser Planet im Wandel

Die globale Temperaturanalyse der NASA stützt sich auf Daten, die von Wetterstationen und Forschungsstationen in der Antarktis sowie von Instrumenten auf Schiffen und Bojen gesammelt wurden. NASA-Wissenschaftler analysieren diese Messungen, um Unsicherheiten in den Daten zu berücksichtigen und einheitliche Methoden für die Berechnung der globalen durchschnittlichen Oberflächentemperaturunterschiede für jedes Jahr beizubehalten. Diese Bodenmessungen der Oberflächentemperatur stimmen mit den Satellitendaten überein, die seit 2002 vom Atmospheric Infrared Sounder auf dem Aqua-Satelliten der NASA gesammelt wurden, sowie mit anderen Abschätzungen.

Um zu erfassen, wie sich die globalen Temperaturen im Laufe der Zeit verändern, verwendet die NASA den Zeitraum von 1951 bis 1980 als Bezugslinie. Diese Basislinie umfasst Klimaverläufe wie La Niña und El Niño, ebenso wie ungewöhnlich heiße oder kalte Jahre, die auf andere Faktoren zurückzuführen sind, und stellt sicher, dass die natürlichen Schwankungen der Erdtemperatur berücksichtigt werden.

Viele Faktoren können die Durchschnittstemperatur in einem bestimmten Jahr beeinflussen. So war beispielsweise das Jahr 2022 eines der wärmsten seit Beginn der Aufzeichnungen, obwohl im tropischen Pazifik das dritte Jahr in Folge La Niña herrschte. NASA-Wissenschaftler schätzen, dass der kühlende Einfluss von La Niña die globalen Temperaturen geringfügig (etwa 0,06 °C) gegenüber dem Durchschnitt gesenkt haben könnte, der unter typischeren Meeresbedingungen erreicht worden wäre.

Eine separate, unabhängige Analyse der National Oceanic and Atmospheric Administration (NOAA) ergab, dass die globale Oberflächentemperatur im Jahr 2022 die sechsthöchste seit 1880 war. Die NOAA-Wissenschaftler verwenden für ihre Analyse größtenteils dieselben Temperatur-Rohdaten, haben aber einen anderen Bezugszeitraum (1901-2000) und eine andere Methodik. Obwohl die Rangfolge für bestimmte Jahre zwischen den Aufzeichnungen leicht abweichen kann, stimmen sie weitgehend überein und spiegeln beide die anhaltende langfristige Erwärmung wider.

Der vollständige Datensatz der NASA zu den globalen Oberflächentemperaturen bis zum Jahr 2022 sowie alle Einzelheiten mit Code zur Durchführung der Analyse durch die NASA-Wissenschaftler sind beim GISS öffentlich zugänglich [2]


[1] Redaktion, 03.11.2022: NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

[2] Goddard Institute for Space Studies: GISS Surface Temperature Analysis (GISTEMP v4). https://data.giss.nasa.gov/gistemp


* Der vorliegende Artikel ist als Presseaussendung unter dem Titel " NASA Says 2022 Fifth Warmest Year on Record, Warming Trend Continues" am 12. Jänner 2023 auf der Web-Seite der NASA erschienen

https://www.nasa.gov/press-release/nasa-says-2022-fifth-warmest-year-on-record-warming-trend-continues.. Der unter einer cc-by stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit den Abbildungen aus https://earthobservatory.nasa.gov/images/150828/2022-tied-for-fifth-warmest-year-on-record ergänzt.


Weiterführende Links

NASA Goddard: A Look Back: 2022's Temperature Record (12.1.2023), Video 4:41. min. https://www.youtube.com/watch?v=GxXmIgcfFn4&t=4s (Credit: NASA's Goddard Space Flight Center Kathleen Gaeta (Lizenz: gemeinfrei))

Schwerpunktsthema im ScienceBlog. Bis jetzt behandeln mehr als 40 Artikel den Klimawandel - von Modellierungen über Folgen des Klimawandels bis hin zu Strategien seiner Eindämmung; chronologisch gelistet in Klima & Klimawandel


 

inge Thu, 19.01.2023 - 01:15

Probiotika - Übertriebene Erwartungen?

Probiotika - Übertriebene Erwartungen?

So 15.01.2023  — Inge Schuster

Inge Schuster Icon Medizin Innerhalb weniger Jahre ist ein milliardenschwerer Markt für Probiotika entstanden, d.i. für "lebende Mikroorganismen, die, wenn sie in angemessener Menge verabreicht werden, dem Wirt einen gesundheitlichen Nutzen bringen ". Die Werbung verspricht, dass solche "guten" Mikroorganismen eine "gestörte" Darmflora verbessern und in Folge diverseste Erkrankungen verhindern oder heilen können. Für diese Behauptungen fehlt größtenteils ein stichhaltiger, wissenschaftlicher Nachweis.

Als wir In den späten 1970er Jahren im ehemaligen Wiener Sandoz-Forschungsinstitut an neuen, oral verabreichbaren Wirkstoffen gegen Pilzinfektionen forschten, hat mein Labor dazu u.a. mit Untersuchungen zur Aufnahme (Absorption) der Substanzen aus dem Darm beigetragen. Dies war ein Gebiet, in dem der damalige Wissenstand und die experimentellen Möglichkeiten noch sehr bescheiden waren; insbesondere betraf dies auch das Thema, ob und welchen Einfluss Darmbakterien auf die Physiologie/Pathologie (nicht nur) des Verdauungstraktes haben könnten. Hat man auf Tagungen führende Experten danach befragt, kam stereotyp die Antwort: "Das wissen wir leider nicht."

Einige Jahrzehnte später erlebt nun der Markt für Probiotika einen riesigen Boom; laut Definition der International Scientific Association for Probiotics and Prebiotics (ISAPP) versteht man darunter "lebende Mikroorganismen, die, wenn sie in angemessener Menge verabreicht werden, dem Wirt einen gesundheitlichen Nutzen bringen". Die Werbung sieht diese als "gute" Bakterien, deren Anwendung zur Prävention und Therapie eines unglaublichen Spektrums an Krankheiten verhelfen soll. Beispielsweise schreibt das Portal https://probiotics.org/benefits/ "Um nur einige der Wirkungen zu nennen: Probiotische Bakterien bekämpfen Krebs, beugen Karies vor, reduzieren Allergien, senken den Blutdruck und helfen Ihnen, besser zu schlafen!" und listet dann im Detail mehr als 100 unterschiedliche Krankheitsbilder auf, gegen die Probiotika wirksam sein sollen. Solchen Heilsversprechen kann man nicht entrinnen, nicht in den Medien - vor allem in der TV-Werbung zur Hauptsendezeit -, nicht im Internet auf Webseiten und auf sozialen Plattformen.

Man fragt sich hier primär: Wissen wir überhaupt schon genug über unsere Darmbakterien und über gesundheitliche Auswirkungen, wenn deren Gemeinschaften gestört sind (d.i. bei sogenannten Dysbiosen)? Und in weiterer Folge: Welche Evidenz gibt es dafür, dass Probiotika die Darmflora "verbessern" können und damit den einen oder anderen gesundheitlichen Nutzen erbringen?

Was wissen wir über das menschliche Mikrobiom.....

Fakt ist: Wir leben in einer Symbiose mit komplexen Gemeinschaften von Mikroorganismen, die uns in der Regel nicht nur keinen Schaden zufügen, sondern für Wohlbefinden und Aufrechterhaltung der Gesundheit sogar unerlässlich sind. Lange Zeit schien es allerdings ziemlich aussichtslos die auf und in uns lebenden mikrobiellen Gemeinschaften in ihrer Gesamtheit - das, was man nun als das Mikrobiom versteht - charakterisieren zu wollen. Mit den etablierten mikrobiologischen Methoden hätte man ja die unterschiedlichen Stämme der Mikroorganismen isolieren und in Kultur bringen müssen, um sie dann sequenzieren zu können - in Anbetracht der im Dickdarm (Colon) hauptsächlich anaerob (ohne Sauerstoff) existierenden Keime allerdings ein heilloses Unterfangen.

Neue Techniken, vor allem in der Sequenzierung der DNA, wie sie im Human Genome Project erfolgreich angewandt wurden, haben seit der Mitte der 2000-Jahre eine umfassende Untersuchung von mikrobiellen Gemeinschaften ermöglicht ohne, dass man deren einzelne Vertreter vorher isolieren und kultivieren musste.

Initiiert von den US-National Institutes of Health (NIH) und mit 170 Mio $ unterstützt, startete 2007 das Human Microbiome Project (HMP -  https://hmpdacc.org/), eine 10 Jahre laufende, bahnbrechende Initiative, an der sich mehr als 40 Forschungseinrichtungen vorwiegend aus den US aber auch aus Kanada und Belgien beteiligten.

In der ersten Phase hat sich das HMP auf die Identifizierung und Charakterisierung der mit dem Menschen assoziierten Mikroorganismen konzentriert und darauf, ob es so etwas, wie ein zentrales gesundes Mikrobiom - also gemeinsame Elemente im Mikrobiom gesunder Menschen - gibt. Dazu wurden von 242 gesunden Versuchspersonen Proben der mikrobiellen Gemeinschaften an verschiedenen Stellen des Körpers - vom Nasen-Mundraum über die Haut, den Magen-Darm-Trakt bis zum Urogenitaltrakt - mittels metagenomischer Whole Genome Shotgun Sequenzierung charakterisiert. In der zweiten, bis 2016 laufenden Phase sollte das Zusammenspiel von Wirtsorganismus und Mikrobiom, einschließlich Immunität, Stoffwechsel und dynamischer molekularer Aktivität, erforscht werden, um Einblicke in die Rolle der Mikroben für Gesundheit und Krankheit zu gewinnen. Dazu wurden Datensätze biologischer Eigenschaften sowohl des Mikrobioms als auch des Wirts aus drei verschiedenen Kohortenstudien zu Mikrobiom-assoziierten Erkrankungen erstellt: aus Studien i) zu Schwangerschaft und Frühgeburten, ii) dazu, wie entzündliche Darmerkrankungen ihren Ausgang nehmen und iii) wie Diabetes Typ2 anfängt und fortschreitet.

Während seiner Laufzeit sind aus dem Projekt bereits Hunderte wissenschaftliche Publikationen hervorgegangen. Das gesamte Datenmaterial ist auf dem HMP-Portal (https://portal.hmpdacc.org/) als Basis für viele weitere Untersuchungen, Analysen und Hypothesen öffentlich zugänglich.

...... und speziell über das Mikrobiom im Darm?

Die bisherigen Ergebnisse aus dem Human Microbiome Project aber auch aus vielen anderen, größeren Studien haben unsere Kenntnisse über die komplexen Gemeinschaften von Mikroorganismen im Darm erheblich erweitert und auch erste fundierte Informationen zur Rolle der Bakterien in Gesundheit und Krankheit beigetragen. Wir beginnen ein besseres Bild über die Diversität und ungeheure Variabilität der Gemeinschaften von Mikroorganismen zu bekommen, über den Einfluss, den Alter, Geschlecht, Ethnizität, Diät, Lebensstil, Krankheit und Arzneimittelkonsum auf diese Gemeinschaften haben und auch über deren enorme Fähigkeit der Adaptation auf geänderte Bedingungen.

Abweichend von früheren Schätzungen geht man nun davon aus , dass uns etwa gleich viele Bakterien (rund 38 Billionen Zellen) besiedeln, wie wir Körperzellen (rund 30 Billionen) besitzen. Bis zu 1000 unterschiedliche Bakterienspezies (plus deren Subspezies) wurden festgestellt, wobei der Darm - und hier speziell das Colon - um 2 Größenordnungen mehr Keime enthält als alle anderen Körperstellen zusammen. Im Colon machen diverse Stämme von Bacteroideten und Firmicuten bis zu 90 % der Besiedlung aus. Bis zu 100 Milliarden Keime/ml finden sich in der eindickenden Masse im Colon, bis zu 60 % der eingedickten und mit dem Kot ausgeschiedenen (Trocken)Masse bestehen aus Bakterien.

Wenn Bakterien auf Grund ihrer wesentlich geringeren Größe auch nur etwa 0,3 % (ca. 200 g) unseres Körpergewichts ausmachen, so tragen sie auf Grund ihres extensiven Metabolismus und ihrer enormen Vermehrungsrate (Verdoppelung innerhalb weniger Minuten) essentiell zur Homöostase unseres Verdauungssystems bei. Wie weit dies für die lange Strecke im über 5 m langen Jejunum (dem oberen Dünndarm) gilt, in dem zwar nur sehr niedrige und passager auftretende Mengen an Bakterien (1 000 - 10 000/ml) vorkommen, aber über 90 % der verwertbaren Stoffe des Nahrunsgsbreis aber auch Arzneistoffe absorbiert werden, ist nicht bekannt.

Was allerdings aus dem Ileum (dem unteren Dünndarm) an noch unverdauten und unverdaulichen Bestandteilen des Nahrungsbreis ins Colon gelangt, wird von den dort ansässigen Bakterien in absorbierbare, für uns verwertbare Produkte umgewandelt, u.a. in kurzkettige Fettsäuren (Essigsäure, Propionsäure. Buttersäure) und in zahlreiche andere essentielle Produkte (u.a. in die Vitamine Biotin, Vitamin K). Welche möglicherweise bioaktiven Stoffwechselprodukte hier von Bakterien freigesetzt werden (das sogenannte Metabolom), wie sie diese zu Kommunikation und Abwehr untereinander und mit dem Wirtsorganismus nutzen, ist Gegenstand intensiver Untersuchungen, insbesondere, ob und welche Auswirkungen derartige Substanzen auf Stoffwechsel, Immunsystem und Körperorgane bis hin zum CNS haben.

Die Darmflora ist einmalig, wie ein Fingerabdruck und zudem dynamisch - sie adaptiert sich laufend auf die Situation des jeweiligen Wirts und setzt einer Kolonisierung mit fremden pathogenen Organismen Resistenz entgegen.

Nach wie vor ist das Mikrobiom des Darms aber größtenteils eine "terra incognita".

Erst jetzt gibt es erste Ergebnisse zu Lokalisierung und Konzentration der verschiedenen Bakterien-Spezies in den einzelnen Darmabschnitten, erst jetzt Informationen darüber, wo sich die Bakterien dort befinden: assoziiert an das Darmepithel, an die darüber liegende Mucus-Schichte oder im Darmlumen diffundierend.

Über Ausmaß, Lokalisierung und mögliche Auswirkungen unserer Symbiose mit anderen Darmbewohnern wie Archaeen, Pilzen, Parasiten und Viren (vorzugsweise Bakteriophagen) ist noch viel zu wenig bekannt.

Der Probiotika Boom

Wahrscheinlich haben Menschen bereits vor Jahrtausenden begonnen vergorene Lebensmittel - wie Sauerkraut, Joghurt und Kefir -, die große Mengen an Lactobacillen (Milchsäure produzierende Bakterien) enthalten, zu konsumieren. Die Entdeckung der Lactobazillen in diesen Lebensmitteln und die überdurchschnittliche Langlebigkeit bulgarischer Bauern, deren Ernährung sehr viel Joghurt enthielt, ließen den russischen Physiologen und Nobelpreisträger Ilya Metschnikow 1907 erstmals die Hypothese von einer gesundheitssteigernden, lebensverlängernden Wirkung der Lactobazillen herleiten, für die er den Begriff "Probiotika" formulierte. Joghurt wurde in Folge in vielen Ländern populär und 1935 kam in Japan ein mit einem Lactobacillus casei-Stamm angereichertes Joghurt - Yakult - auf den Markt, das auch heute noch zu den globalen Blockbustern zählt. Dann geschah jahrzehntelang nichts.

Der Probiotika-Boom setzte erst viel später ein. An Hand der Veröffentlichungen in wissenschaftlichen Fachjournalen kann er etwa mit dem Ende der 1990er Jahre datiert werden. So findet man in der US-Datenbank PubMed unter dem Suchbegriff "probiotics" insgesamt rund 41 000 Publikationen. Vom Jahr 2000 (212 Publikationen) an gibt es eine nahezu exponentiell wachsende Zahl jährlicher Publikationen. Abbildung 1. Eine ähnliche Zeitkurve erhält man auch auf dem Portal Google Scholar, das allerdings wesentlich mehr Zeitschriften erfasst und auf insgesamt 684 000 Publikationen kommt. Sucht man auf  auf Google selbst, das ja Webseiten von Firmen und Werbung erfasst, nach "probiotics" kommt man auf 138 Millionen Einträge.

Abbildung 1. Ab 2000 findet ein rasanter Anstieg der Publikationen über Probiotika statt (Quelle: https://pubmed.ncbi.nlm.nih.gov/ abgerufen am 2.1.2023) .

Wie Probiotika wirken können

Zu den in Probiotika verwendeten "guten" Bakterien zählen diverse Stämme von Michsäurebakterien (Lactobazilli) , Bifidobakterien und E. coli. (Daneben werden auch Hefepilze eingesetzt.)

Davon ausgehend, dass Probiotika eine "gestörte" Darmflora verbessern, gibt es verschiedene Mechanismen, wie dies bewirkt wird und diese können von Bakterienstamm zu Bakterienstamm unterschiedlicher Natur sein.

"Gute" Bakterien können das Wachstum pathogener Bakterien hemmen, indem sie u.a. mit den Pathogenen um die Besiedlung der Darmschleimhaut konkurrieren, den pH-Wert im Darmlumen absenken, Toxine abbauen, bioaktive Stoffwechselprodukte ausscheiden, die gegen die Pathogene gerichtet sind und/oder auch als Signalmoleküle auf das Immunsystem, das endokrine System und das Nervensystem wirken.

Die Voraussetzung dafür: Eine ausreichende Menge an "guten" Bakterien muss die Passage durch Magen und Dünndarm überleben und vermehrungsfähig ins Colon gelangen, um dort, in dem dicken Brei aus Nahrungsresten und bis zu 100 Milliarden Mikroorganismen im Milliliter eine Chance zu haben gegen pathogene Keime vorzugehen. Wie weit dies bei Probiotika in üblichen Dosierungen von 5 bis zu 50 Milliarden Keimen der Fall ist, bleibe dahingestellt.

Ein wachsender Markt..........

Gleichzeitig mit dem Interesse an Probiotika ist auch der Markt für probiotische Joghurts, Nahrungsergänzungsmittel, Hygieneprodukte etc. schnell gewachsen. Zahlreiche Firmen teilen sich den Markt; zu den wichtigsten Akteuren zählen Yakult Honsha, Danone, Morinaga, Nestle, PepsiCo Inc., Bio-K Plus International Inc. und Daflorn Ltd. Die Größe des globalen Markts wurde 2021 mit 61,1 Milliarden US $ beziffert, bei einem jährlichen Wachstum von 8,3 % soll er 2029 115,71 Milliarden US $ erreichen ((https://www.maximizemarketresearch.com/market-report/probiotics-market-size/542/). (Zum Vergleich: der globale Pharmamarkt lag 2022 bei 1 136 Milliarden US $.)

Vertrieben über Supermärkte, Apotheken und online verleiten gesundheitsbezogene Angaben (d.i. Angaben, mit denen ein Zusammenhang zwischen einem Produkt und Gesundheit suggeriert wird) zur Selbstmedikation und dies auch bei schweren Erkrankungen. Für Probiotika in Lebensmittel sind derartige gesundheitsbezogene Angaben nicht erlaubt. Medizinprodukte mit probiotischen Inhaltstoffen fallen mit dem Inkrafttreten der Europäischen Verordnung über Medizinprodukte (Mai 2021) in den Geltungsbereich der Richtlinie über Human-Arzneimittel. Wie für diese sind also sehr aufwändige, teure klinische Studien zum Nachweis von Wirksamkeit und Sicherheit erforderlich, um eine Zulassung zu erreichen.

...erforderliche klinische Studien......

Forschungsinstitutionen und Industrie haben bereits eine sehr große Zahl an klinischen Studien zur Wirksamkeit von Probiotika durchgeführt, viele laufen noch oder sind in Planung.

Auf der Webseite der von den NIH betriebenen größten Datenbank für klinische Studien https://clinicaltrials.gov/ finden sich unter dem Schlagwort "probiotic" insgesamt 2051 Studien (abgerufen am 2.1.2023). Davon wurden 1140 schon abgeschlossen, darunter 464 von der Industrie durchgeführte Studien. Die meisten der abgeschlossenen Studien untersuchten die Wirksamkeit gegen Infektionskrankheiten (238), Durchfall (94), Reizdarm (66), Entzündung (64), Adipositas (62), vaginale Erkrankungen (42) und Stress (42). Weitere Studien behandelten Depression, kognitive Fähigkeiten, Diabetes, atopische Dermatitis, Krebserkrankungen, ulcerative Colitis, Enteroclitis, Akne, Karies, Schlafstörungen und Epilepsie.

Der Großteil der Studien hat bis jetzt bestenfalls Hinweise aber keine Evidenz auf Wirksamkeit in der untersuchten Indikation erbracht.

....und wie wirksam haben sich Probiotika erwiesen?

Probiotika liegen im Zeitgeist, die rezeptfreien Produkte entsprechen dem Trend zur Selbstmedikation. Das Internet ist hier eine wesentliche Informationsquelle.

Wie steht es aber um die Qualität dieser Informationen?

Ein Team um Michel Goldman (Université Libre de Bruxelles) hat 2020 dazu eine erhellende Studie "Online-Informationen über Probiotika: Stimmen sie mit den wissenschaftlichen Erkenntnissen überein?" veröffentlicht (M. Neunez et al., Front. Med. 6:296. doi: 10.3389/fmed.2019.00296). Gestützt auf Cochrane Reviews hat das Team 150 der von Google zu "probiotics" retournierten Top-Webseiten auf Genauigkeit, Vollständigkeit und Qualität der Informationen ausgewertet.

Abbildung 2 . Nur rund ein Viertel der geundheitsbezogenen Behauptungen für Probiotika sind durch stichhaltige Beweise gesichert. (Bild: modifiziert nach Neunez M., et al., 2020. Online Information on Probiotics: Does It Match Scientific Evidence? Front. Med. 6:296. doi: 10.3389/fmed.2019.00296. Lizenz: cc-by)

Das Ergebnis: Am häufigsten kamen kommerzielle Webseiten und News vor. Die kommerziellen Webseiten haben im Durchschnitt die am wenigsten verlässlichen Informationen geliefert und viele der behaupteten Leistungen von Probiotika wurden nicht durch wissenschaftliche Evidenz gestützt. Insgesamt wurden nur 24 % der Behauptungen durch stichhaltige Belege untermauert; für 20 % gab es keine Belege. In den anderen Fällen reichten die gelieferten Belege nicht aus , um die Behauptungen zu rechtfertigen. Abbildung 2.

Nur insgesamt 25 % der Seiten (nur 8 % der kommerziellen Seiten) beinhalten auch Sicherheitsaspekte. Auch, wenn Probiotika ein gutes Sicherheitsprofil haben, kann es bei immunschwachen Personen zu einem Überfluten des Dünndarms mit den "guten" aber dort unverdaulichen Keimen kommen, insbesondere wenn die Magensäure durch Protonenpumpen-Inhibitoren neutralisiert wurde. Es kommen auch vereinzelte Fälle von bakterieller oder fungaler Sepsis vor.

Von besonderem Interesse ist es natürlich bei welchen Krankheiten stichhaltige Evidenz für die behauptete Wirksamkeit von Probiotika gefunden wurde. Abbildung 3. Dies war nur bei einigen Magen-Darmerkrankungen der Fall. Für den Großteil anderer Erkrankungen sind die Heilsversprechen als Wunschdenken anzusehen.

Abbildung 2. Wissenschaftliche Evidenz für die behauptete Wirksamkeit von Probiotika auf online Webseiten bei diversen Erkrankungen; hergeleitet von Cochrane Reviews. Grün: stichhaltige Eviden, gelb: mäßige Evidenz, orange: geringe Evidenz, rot: keinerlei Evidenz. (Bild: unverändert von Neunez M., et al., 2020, Lizenz: cc-by)

Zu einem ähnlichen Ergebnis kommt auch das Office of Dietary Supplements der NIH in Probiotics. Fact Seet for Health Professionals (https://ods.od.nih.gov/factsheets/Probiotics-HealthProfessional/). Metaanalysen verschiedener Krankheiten, in denen Probiotika angeblich wirkten, zeigten nur im Fall von Infektions- und Antibioka-verursachtem Durchfall bei Kindern Evidenz.

Fazit

Die Industrie hat in wenigen Jahren einen riesigen Markt für Probiotika aufgebaut. Diese sind zu lifestyle-Produkten geworden, auch wenn die gesundheitsbezogenen Behauptungen größtenteils noch leere Heilsversprechen ohne wissenschaftliche und klinische Evidenz sind.

Das Gebiet ist überaus komplex und steckt noch in den Kinderschuhen. Es fehlt an essentiellen wissenschaftlichen Grundlagen sowohl dazu, was ein "gesundes" balanciertes Mikrobiom ist, als auch wie dieses mit den Zellen der Darmwand interagiert und wie die enorme Fülle seiner Stoffwechselprodukte (Metabolom) unsere Organsysteme beeinflussen könnte. Sicherlich wird es noch Jahre dauern bis - aufbauend auf besseren Grundlagen - verstanden wird, wie "Gesundheit im Darm beginnt" und mit welchen Interventionen dies erreicht werden kann.

Soll man Probiotika nach dem Motto "hilft's nicht, schadets auch nicht" anwenden? In Anbetracht recht weniger, jedoch schwerer Nebenwirkungen ist Vorsicht angebracht.


Das Mikrobiom im ScienceBlog

Inge Schuster, 18.09.2020: Spermidin - ein Jungbrunnen, eine Panazee?

Inge Schuster, 03.01.2019: Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen

Dario Valanzano, 28.06.2018: Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts

Norbert Bischofberger, 24.05.2018: Auf dem Weg zu einer Medizin der Zukunft

Redaktion, 10.05.2018: Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren

Francis S. Collins, 28.09.2017: Ein erweiterter Blick auf das Mikrobiom des Menschen

Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?


 

inge Sun, 15.01.2023 - 18:53

2022

2022 inge Fri, 07.01.2022 - 20:15

Fliegen lehren uns, wie wir lernen

Fliegen lehren uns, wie wir lernen

Do, 29.12.2022 — Nora Schultz

Nora SchultzIcon Gehirn-Fliege

Die Taufliege Drosophila gehört zu den beliebtesten Tiermodellen der Genetiker und auch der Neurowissenschafter. Zwar liegen zwischen Fliegen und Menschen Welten; doch schaut man dem kleinen Insekt ins Gehirn – und ins Genom – , so zeigt sich, dass doch vieles sehr ähnlich funktioniert. Viele der heute auch für den Menschen relevanten Gene wurden erstmals in Taufliegen entdeckt. Die Tiere entfalten komplexe Verhaltensmuster, sie machen Erfahrungen, bewerten, lernen, erinnern sich und können auch vergessen. Die Entwicklungsbiologin Nora Schultz gibt eine Einführung in das faszinierendeThema.*

In Kurt Neumanns Horrorfilm „Die Fliege“ aus dem Jahr 1958 widerfahren einem Forscher schlimme Dinge, nachdem sein Körper in einem Experiment versehentlich mit dem einer Fliege verschmolzen ist. Im Gegensatz dazu bleibt die reale Forschung, die sich in vielen Disziplinen seit mehr als 100 Jahren um die Taufliege Drosophila melanogaster dreht, bislang ohne gruselige Nebenwirkungen. An Visionsfülle steht die Realität dem Film jedoch kaum nach: Das kleine Insekt – vielen auch als Frucht- oder Essigfliege bekannt – soll große Fragen beantworten und hat viele Antworten bereits geliefert: Wie wächst aus einer befruchteten Eizelle ein komplexer Körper? Wie entstehen Krebs und andere Krankheiten? Wie lernt ein Gehirn?

Gerade die letzte Frage erscheint anmaßend. Nur 100.000 Neurone arbeiten im Drosophila-Gehirn; im Menschenkopf knäulen sich 86 Milliarden Nervenzellen, fast zehntausendmal so viele. Doch was man bisher über die Fliege weiß, gibt Anlass zum Optimismus, dass uns das bescheidene Fliegenhirn einiges über das Lernen lehren kann. Nicht ohne Grund ist Drosophila das liebste Versuchstier der Forschung. (Siehe Box).

Drosophila - Superstar unter den Tiermodellen

  • Die Taufliege Drosophila ist der Superstar unter den Versuchstieren: klein, pflegeleicht und vermehrungsfreudig. Eine neue Fliegengeneration wächst in nur 10 Tagen heran.
  • Viele heute bekannte Gene wurden zuerst in Taufliegen entdeckt. Das klappt in Reihenuntersuchungen, in denen man zum Beispiel mit Strahlen oder Chemikalien Mutationen entstehen lässt und dann in den Insekten nach veränderten Eigenschaften sucht und diese beschreibt. Viele der so gefundenen Gene arbeiten in ähnlicher Form auch im Menschen.
  • Auch die Struktur und Funktion von Nervenzellen und neuronalen Netzwerken ähneln sich im Menschen und in der Fliege. Und da Fliegen einiges lernen und sich vielfältig verhalten können, lassen sich auch neurowissenschaftliche Fragen gut an ihnen untersuchen.
  • Fruchtfliegen sind experimentell besonders zugänglich. Ihre Gene lassen sich in einzelnen Gewebe- oder Zelltypen gezielt aktivieren, blockieren oder in ihrer Funktion verändern. Auch die Aktivität einzelner Zellen oder Moleküle lässt sich im lebenden Tier gut manipulieren und beobachten. Fliegen eignen sich daher gut für die Untersuchung molekularer und zellulärer Mechanismen.
  • Im Gehirn der Fliege vereint der Pilzkörper auf kompaktem Raum wichtige Funktionen, die im menschlichen Gehirn auf unterschiedliche Regionen verteilt sind: die Integration von Sinneseindrücken, die Bildung und Speicherung von Erinnerungen und eine Entscheidungszentrale zur Verhaltenssteuerung. Im Pilzkörper lässt sich daher besonders gut integrativ untersuchen, wie Moleküle, Nervenzellen und Netzwerke zusammenwirken, um situations- und erfahrungsabhängiges Verhalten hervorzubringen.

Bild von Redn. eingefügt. Quelle: Flickr by cudmore. https://www.flickr.com/photos/cudmore/4277800.   Lizenz: cc-by-sa.

Schon um 1910 wusste der US-amerikanische Zoologe und Genetiker Thomas Hunt Morgan die Vorzüge der kleinen Fliege zu schätzen: für seine Pionierarbeiten in der Genetik, für die er später den Nobelpreis bekam. Taufliegen sind klein, pflegeleicht, überaus fruchtbar und vermehren sich schnell. Eine Generationszeit dauert gerade mal zehn Tage. Morgan und sein Team benötigten in ihrem „Fly Room“ – einem nur 35 Quadratmeter kleinen Labor – anfangs wenig mehr als reife Bananen, Milchflaschen und Lupen, um an tausenden Fliegen zu beobachten, wie bestimmte Merkmale von Generation zu Generation weitervererbt wurden.

Es sind die Gene

Dabei wurde schnell klar, dass Fliegen in vielerlei anderer Hinsicht einen Glücksgriff für die biologische Forschung bedeuten. Die Tiere lassen sich sowohl genetisch als auch zell- und molekularbiologisch überaus gut untersuchen und manipulieren. Morgan und viele andere, die schon bald in dessen Fußstapfen traten, entlockten Drosophila zunächst Geheimnisse, indem sie die Tiere mutierenden Röntgenstrahlen oder Chemikalien aussetzten. Die Effekte dieser Mutationen untersuchten sie dann im Rahmen sogenannter Screens in mühevoller Kleinarbeit und ordneten sie konkreten Positionen auf den Chromosomen zu.

Christiane Nüsslein-Volhard und Eric Wieschaus beispielsweise charakterisierten 1980 auf diese Weise 600 Mutationen in 120 Genen, die das Segmentmuster von Fliegenlarven verändern – eine Arbeit, für die sie später ebenfalls den Nobelpreis erhielten. Damit entschlüsselten sie entscheidenden Mechanismen der Embryonalentwicklung. Und, wie sich später herausstellte, orchestrieren diese Gene vielfach auch bei anderen Tieren bis hin zum Menschen die Entwicklung und sind an Krankheitsprozessen beteiligt – so auch im Nervensystem.

Die überraschende Ähnlichkeit zwischen Taufliegen und anderen, mit ihr nur äußerst entfernt verwandten Lebewesen hat sich seitdem immer wieder bestätigt. Im Jahr 2000 gelang es, das Genom der Fliege vollständig zu entschlüsseln; wenige Monate später erschien 2001 die erste, noch nicht ganz vollständige Sequenzierung des menschlichen Genoms. Seitdem ist klar, dass es für viele menschliche Gene entsprechende Pendants mit ähnlicher Struktur und/oder Funktion in der Fliege gibt. Das gilt beispielsweise für 77 Prozent der 2001 bekannten krankheitsrelevanten menschlichen Gene . Die Liste wird in einer online einsehbaren Datenbank, der „ Flybase “ “ (https://flybase.org/lists/FBhh/), ständig aktualisiert.

Durchaus lernfähig

Auch das Fliegenhirn ähnelt dem menschlichen Gehirn mehr, als man zunächst vermuten möchte. Es ist zwar nur so groß wie ein Mohnkorn, leistet aber auf diesem kleinen Raum eine ganze Menge an Dingen. Fliegen riechen und sehen zum Beispiel sehr gut und gleichen diese und andere sensorische Informationen ständig mit weiteren Details ab, um Entscheidungen zu treffen, durch den dreidimensionalen Raum zu navigieren, Futter zu finden, Gefahren zu meiden und andere Fliegen zu bezirzen oder zu bekämpfen.Abbildung.

Fliegenhirn:- Klein wie ein Mohnkorn, aber ähnlicher dem menschlichen Gehirn, als man vermuten möchte. Unten: Signale der Aussenwelt - z.B. Duft - werden im Pilzkörper verarbeitet. (Bilder von Redn. eingefügt. Quelle: Die Fliege. https://www.youtube.com/watch?v=oH0Fy3lp7Zg.© 2022 www.dasGehirn.info. Lizenz: cc-by-nc)

Ein derart komplexes Verhaltensrepertoire kann nur entfalten, wer lernfähig ist. Fliegen lernen, greifen auf Erinnerungen zurück und vergessen manches auch wieder, genau wie Menschen. Selbst wenn zwischen dem Alltag von Drosophila melanogaster und dem des Homo sapiens Welten liegen, sind die Grundherausforderungen ans Überleben im Kern so ähnlich, dass auch bewährte Lernmechanismen im Laufe der Evolution erhalten geblieben sind – genau wie die beteiligten Gene. Schon in den 1960er und -70er Jahren entdeckte der US-Forscher Seymour Benzer in Screens Gene, die sich auf die Lernfähigkeit von Fliegen auswirken. Gene mit den klangvollen Namen dunce und rutabaga zum Beispiel verschlüsseln die Bauanleitung für Enzyme, die eine wichtige Rolle in intrazellulären Signalkaskaden spielen, die essenziell für Lernprozesse sind. Auch von diesen und vielen weiteren neurobiologisch relevanten Fliegengenen haben Forschende seitdem menschliche Pendants ausgemacht. Es existieren also durchaus grundlegende Gemeinsamkeiten zwischen Drosophila melanogaster und Homo sapiens. Und so ist es dann auch möglich, durch Untersuchungen an der Fliege auch für den Menschen relevante Details darüber herauszufinden, wie Erfahrungen und Lernprozesse, aber auch Krankheiten die neuronalen Schaltkreise verändern, die zur Verhaltenssteuerung dienen.

Fliegenforschung vorn

Die Taufliege macht es Forschern leicht, sie experimentell unter die Lupe zu nehmen und Fragen nachzugehen, die sich beim Menschen oder auch bei anderen Versuchstieren nicht oder nur schwer untersuchen lassen. Bereits seit den 1980er Jahren existieren experimentelle Techniken, um gezielt in das Genom der Fliege einzugreifen, und sie werden ständig verfeinert. Bestimmte Gene oder Genabschnitte lassen sich gezielt in einzelnen Gewebe- oder Zelltypen aktivieren, blockieren oder in ihrer Funktion verändern, auch durch Zugabe von Transgenen, also Genabschnitten anderer Spezies. Solche Veränderungen können dauerhaft sein oder so konzipiert, dass sie sich durch bestimmte Signale ein- und ausschalten lassen, etwa durch Licht.

Bei der Untersuchung molekularer und zellulärer Lernmechanismen hat zudem gerade die kleine Statur des Fliegenhirns einen entscheidenden Vorteil: „In der Maus liegen die Zellen und Schaltkreise, die an einem bestimmten Verhalten mitwirken, so weit auseinander, dass man sie nicht gleichzeitig bei der Arbeit beobachten kann“, sagt André Fiala von der Universität Göttingen. „In der Fliege hingegen können wir zugleich auf die Details der einzelnen Nervenzelle mit ihren Synapsen schauen und auf das, was im Netzwerk passiert.“

Flexible Neurone

Dabei zeigt sich, dass unterschiedliche Synapsen in ein und derselben Zelle je nach Geruch unterschiedlich aktiv sind – und dass diese Aktivitätsmuster sich verändern, wenn die Fliege lernt, einen Duft mit einem negativen Reiz, beispielsweise Schmerz zu verknüpfen. Diese Veränderungen gibt die Kenyonzelle an die an den jeweiligen Synapsen verknüpften Neurone weiter, die nun selbst verändert auf die stärkeren oder schwächeren Signale reagieren, die an dieser Synapse empfangen. Das Gelernte ist damit als messbare Gedächtnisspur fixiert worden. „Interessant ist, dass das Gedächtnis hier nicht in ganzen Zellen, sondern in einzelnen Zellabschnitten codiert wird“, erklärt Fiala. Aktuell untersucht sein Team, wie diese abschnittsweise Regulierung der Aktivität auf der molekularen Ebene funktioniert.

Es gibt noch viele weitere offene Fragen zur Verhaltenssteuerung, bei deren Beantwortung die Pilzkörper der Fliege helfen könnten. Was verändert sich zum Beispiel, wenn Gedächtnisspuren vom Kurzzeitgedächtnis ins Langzeitgedächtnis wandern? Wie genau lernt man, dass bestimmte Nahrungsmittel giftig oder verdorben waren, wenn zwischen der Aufnahme und unangenehmen Symptomen etwas Zeit verstreicht? Wie unterscheiden sich Lernprozesse, bei denen ein bestimmtes Ereignis mit einer angenehmen Belohnung verbunden wird von solchen, bei denen man „nur“ einer unangenehmen Situation entkommt? Und was geschieht, wenn das Altern oder neurodegenerative Erkrankungen die Funktion von Zellen und Schaltkreisen, die am Lernen und Gedächtnis beteiligt sind, beeinträchtigt?

Mit Hilfe von Drosophila und einem gut gefüllten molekularbiologischen Werkzeugkasten lassen sich Antworten finden und in Computermodelle übersetzen, die auch für Menschen relevante Vorhersagen darüber erlauben, wie die raum-zeitliche Dynamik von Molekülen, Zellen und Netzwerken im Gehirn Lernprozesse und die Steuerung von Verhalten. Solche Modelle könnten sogar im Bereich Künstliche Intelligenz zum Einsatz kommen, um Maschinen effektiver lernen zu lassen. Welche Erkenntnisse aus der Fliegenwelt dann wirklich auch für den Menschen gelten, bleibt abzuwarten. Um das, was sie von der Fliege gelernt haben, auf die nächste Ebene zu bringen, setzen Forscher auch auf weitere, näher mit dem Menschen verwandte Modellorganismen, wie Zebrafische und Mäuse, sowie auf Studien mit menschlichen Zellkulturen und Gewebeproben. Ein aus Mensch und Fliege verschmolzenes Mischwesen wie in Neumanns Horrorfilm braucht es zur Klärung dieser Fragen zum Glück nicht.


* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Dezember steht das Thema "Fliege". Der vorliegende Artikel ist am 6.12.2022 unter dem Titel: "Fliegen? Wieso Fliegen?" https://www.dasgehirn.info/entdecken/die-fliege/fliegen-wieso-fliegen   erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


 Weiterführende Links

Arvid Ley (dasGehirnInfo): Die Fliege. (12.2022) Video 5:07 min. https://www.youtube.com/watch?v=oH0Fy3lp7Zg

Arvid Ley (dasGehirnInfo): Im Kopf der Fliege. (12.2022) Video 36:06 min. https://www.youtube.com/watch?v=BBQZd-fKCh0&t=50s

Zum Weiterlesen

• Hales KG, Korey CA, Larracuente AM, Roberts DM. Genetics on the Fly: A Primer on the Drosophila Model System. Genetics. 2015 Nov;201(3):815-42. DOI: 10.1534/genetics.115.183392

• Bellen HJ, Tong C, Tsuda H. 100 years of Drosophila research and its impact on vertebrate neuroscience: a history lesson for the future. Nat Rev Neurosci. 2010 Jul;11(7):514-22. doi: 10.1038/nrn2839

• Bilz, F., Geurten, B.R.H., Hancock, C.E., Widmann, A., and Fiala, A. (2020). Visualisation of a distributed synaptic memory code in the Drosophila brain. Neuron, 106, 1–14. DOI: 10.1016/j.neuron.2020.03.010

• https://www.annualreviews.org/doi/10.1146/annurev-cellbio-113015-023138.https://doi.org/10.1146/annurev-cellbio-113015-023138

https://journals.biologists.com/dmm/article/9/3/235/20105/Drosophila-tools-and-assays-for-the-study-of-human

https://www.sciencedirect.com/science/article/pii/S0092867418307876

https://www.cell.com/cell/fulltext/S0092-8674(18)30787-6

Fliegen im ScienceBlog

Jacob w.Gehring, 25.10.2012: Auge um Auge — Entwicklung und Evolution des Auges

Gottfried Schatz, 13.12.2013: Wider die Natur? — Wie Gene und Umwelt das sexuelle Verhalten prägen

Bill S. Hansson, 19.12.2014: Täuschende Schönheiten

Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Nora Schultz, 30.12.2021: Sinne und Taten - von der einzelnen Sinneszelle zu komplexem Verhalten


 

 

 

 

 

inge Fri, 30.12.2022 - 00:37

Was uns Baumblätter über Zahl und Diversität der Insektenarten erzählen können

Was uns Baumblätter über Zahl und Diversität der Insektenarten erzählen können

Do, 22.12.2022 — Redaktion

Redaktion

Icon Molekularbiologie

In den letzten Jahren häufen sich die dramatischen Berichte über den enormen Rückgang der Insekten, wobei sich die Beobachtungen oft nur auf kurze Zeiträume und begrenzte Standorte erstrecken und die Biomasse gefangener Tiere zur Abschätzung der reduzierten Biodiversität (Artenzusammensetzung) herangezogen wird. Eine bahnbrechende Studie hat nun erstmals Anzahl und Biodiversität der Insektenarten an Hand von über drei Jahrzehnte lang gesammelten und konservierten Baumblättern verfolgt. Aus diesen Blättern wurden DNA-Spuren - sogenannte Umwelt-DNA (eDNA) - , wie sie von Insekten beim Fressen von Blättern zurückbleiben, extrahiert, analysiert und Tausende Insektenarten nachgewiesen. Es zeigte sich, dass die Gesamtzahl der Insektenarten im Laufe der Zeit weitgehend gleich blieb, viele einzelne Arten jedoch zurückgingen und durch neue, sich weiter verbreitende Arten ersetzt wurden.*

Insekten stellen ein Barometer für die Gesundheit der Umwelt dar. Ökosysteme auf der ganzen Welt sind beispiellosen, vom Menschen verursachten Belastungen ausgesetzt, die sich vom Klimawandel über die Umweltverschmutzung bis zur intensiven Landnutzung hin erstrecken. Diese Belastungen wurden in letzter Zeit mit mehreren dramatischen Rückgängen der Insektenpopulationen in Verbindung gebracht, insbesondere in Gebieten, die von stark industrialisierter Landwirtschaft betroffen sind.

Ohne darauf weiter einzugehen - die Zusammenhänge zwischen Insektenrückgang, Umweltbelastung und r Gesundheit der Ökosysteme sind derzeit nur wenig verstanden. Ein Rückgang in einem Gebiet mag wohl katastrophal aussehen, könnte aber auch einfach Teil normaler, längerfristiger Veränderungen sein. Oft wissen wir nicht, ob der Insektenrückgang ein lokales Phänomen ist oder weitergehende Umwelttrends widerspiegelt. Zudem reichen die meisten Studien zeitlich nicht weit genug zurück oder decken keinen ausreichend großen geografischen Bereich ab, um solche Unterscheidungen treffen zu können.

Probenmaterial: eDNA aus Baumblättern

Will man den Insektenrückgang verstehen und dagegen ankämpfen, so braucht man zuverlässige Methoden, um Insektenpopulationen über lange Zeiträume verfolgen zu können. Zur Lösung dieses Problems hat ein Forscherteam um den Biogeographen Henrik Krehenwinkel (von derUniversität Trier) für Untersuchungen an Insektengemeinschaften eine neue Quelle herangezogen, nämlich Baumblätter. Es ist dies ein Probenmaterial, das ursprünglich für andere Zwecke - nämlich zur Untersuchung der Luftverschmutzung - gesammelt und in der deutschen Bundesumweltprobenbank archiviert wurde. Dieses Material enthält aber auch die DNA von Insekten, die damit vor dem Einsammeln in Kontakt gekommen sind: beispielsweise ist dies in Kauspuren zurückgebliebene DNA, d.i. an Stellen wo die Insekten die Blätter angeknabbert hatten. Diese DNA wird als Umwelt-DNA oder kurz eDNA bezeichnet.

Abbildung 1: Sammelstellen von Baumblättern und Baumarten(A) und repräsentative Typen der Landnutzung (B). Analysen der Pestizidbelastung zu drei Zeitpunkten zeigen eine gleichbleibende, mit durchschnittlich 5 Pestiziden höchste Belastung auf landwirtschaftlich genutzten Flächen. (Bild von Redn. eingefügt aus H.Krehenwinkel et al., 2022 [1]; Lizenz: cc-by)

Um die Insektengemeinschaften, die in diesen Bäumen lebten, zu untersuchen, haben Krehenwinkel und sein Team zunächst die eDNA aus den Blättern extrahiert und sequenziert. Die Blätter stammten dabei von vier Baumarten - Buche, Föhre, Lombardeipapel und Fichte -, die an 24 Standorten in ganz Deutschland fachgerecht unter standardisierten Bedingungen über einen Zeitraum von 30 Jahren gesammelt und konserviert worden waren. Die Standorte waren für vier Landnutzungstypen repräsentativ: landwirtschaftlich benutzte Flächen, städtische Parks, Wälder und Nationalparks. Abbildung 1.

Die Analyse der verschiedenen DNA-Sequenzen aus den Blattproben

ergab nicht nur die Anzahl der Insektenarten, sondern auch die Häufigkeit (oder Seltenheit) der einzelnen Arten innerhalb der einzelnen Gemeinschaften. Die eDNA-Analyse hat subtile Veränderungen in der Zusammensetzung der Gemeinschaften der Waldinsekten ergeben. In den Wäldern, aus denen die untersuchten Blätter herstammten, ist die Gesamtzahl der Insektenarten im Verlauf der letzten drei Jahrzehnte weitgehend gleich geblieben. Viele einzelne Arten sind zwar zurück gegangen, aber nur um dann durch neue Arten abgelöst zu werden.

Abbildung 2: Änderungen von Diversität und Zahl (Biomasse) der Insektenarten in allen Standorten im Zeitraum von 30 Jahren. Oben links: Über alle Standorte ist die Diversität der Insektenarten nahezu unverändert geblieben; die Reduktion einiger Arten wurde durch neue Besiedler abgelöst Oben rechts: gleichbleibende Diversität von Insektenklassen. Unten: Bei gleichbleibender Diversität ist über den Zeitraum ein Rückgang der Biomasse zu beobachten. (Bilder von Redn. eingefügt aus H.Krehenwinkel et al., 2022 [1]; Lizenz: cc-by)

Solche Veränderungen haben sich für alle Insektenordnungen als unabhängig von der Art der Landnutzung erwiesen. Die neuen Besiedler haben sich bereits weit verbreitet - dies führt wahrscheinlich zu einem Gesamtmuster mit weniger Arten, die sich aber weiter verbreiten - mit anderen Worten zu mehr Homogenität der Populationen. Abbildung 2.

Fazit

Der Ansatz von Krehenwinkel, et al. [1] bietet eine zuverlässige Methode, um Insektenpopulationen über mehrere Jahrzehnte hinweg im Detail zu untersuchen. Dabei ist es essentiell auf archiviertes Probenmaterial aus Umweltstudien zurück greifen zu können. Informationen, die daraus gewonnen werden, haben praktische Bedeutung für Umweltfragen von enormen sozialen Auswirkungen, die vom Naturschutz über die Landwirtschaft bis hin zur öffentlichen Gesundheit reichen.


 [1] Henrik Krehenwinkel et al., (2022): Environmental DNA from archived leaves reveals widespread temporal turnover and biotic homogenization in forest arthropod communities. eLife 11:e78521. https://doi.org/10.7554/eLife.78521.


 * Eine leicht verständliche Zusammenfassung (Digest) des Artikels von H. Krewinkel et al., 2022, [1] ist am 20.12.2022 unter dem Titel "Insect data grown on trees" im eLife Magazin erschienen: https://elifesciences.org/digests/78521/insect-data-grown-on-trees. Der Digest wurde von der Redaktion ins Deutsche übersetzt und mit 2 Abbildungen aus dem Originaltext [1] plus Legenden ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz .


 Weiterführende Links:

Uni Trier (2022) eDNA: Ein entscheidender Fortschritt für das Biomonitoring. Video 4:00 min. https://www.youtube.com/watch?v=F0sTyYRiCvA

Artikel im ScienceBlog:


 

inge Thu, 22.12.2022 - 18:43

Ein 2 Millionen Jahre altes Ökosystem im Klimawandel mittels Umwelt-DNA rekonstruiert

Ein 2 Millionen Jahre altes Ökosystem im Klimawandel mittels Umwelt-DNA rekonstruiert

Do, 15.12.2022 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Eine vor 2 Millionen Jahren belebte Landschaft im nördlichen Grönland konnte aus an Mineralien gebundenen DNA-Stückchen rekonstruiert werden. Diese lässt ein eiszeitliches Ökosystem inmitten eines Klimawandels erkennen und zeigt möglicherweise Wege auf, wie auf die heute steigenden globalen Temperaturen reagiert werden kann. Probensammlung, Analyse und Interpretation der Umwelt-DNA aus dieser fernen Zeit und von diesem fernen Ort liefern einen "genetischen Fahrplan", wie sich Organismen an ein wärmer werdendes Klima anpassen können. Die Untersuchung war vergangene Woche das Titelthema des Fachjournals Nature [1]. Auf einer Pressekonferenz haben sechs Mitglieder des 40-köpfigen multinationalen Teams die Ergebnisse erläutert. Die Genetikerin Ricki Lewis berichtet darüber.*

Umwelt-DNA (eDNA)

wird verwendet, um sowohl frühere als auch heutige Lebensräume zu beschreiben. Bislang stammte die älteste eDNA von einem Mammut, das vor einer Million Jahren in Sibirien lebte.

In der neuen Studie [1] kommt die eDNA aus der Kap København Formation in der "polaren Wüste" von Peary Land, Nordgrönland (Abbildung 1). Mit Fossilien und konservierten Pollen ermöglicht eDNA ein Bild längst vergangener Lebensräume zu zeichnen.

eDNA wird von den Zellen in die Umgebung ausgeschieden , wobei aus Mitochondrien und Chloroplasten stammende eDNA häufiger vorkommt als Kern-DNA, da diese Organellen in zahlreichen Kopien in einer Zelle vorliegen. Außerdem ist es wahrscheinlicher, dass sie erhalten bleibt, weil sie im Vergleich zur DNA in einem Zellkern stärker fragmentiert ist.

Der Leiter des Teams, Eske Willerslev, ein Geogenetiker von der Universität Cambridge, vergleicht von Fossilien und eDNA hergeleitete Evidenz. "Bei einem Fossil weiß man, dass die DNA von einem einzigen Individuum stammt. Aus Sedimenten heraus kann man ein Genom rekonstruieren, aber man weiß nicht, ob das Genom von einem oder mehreren Individuen stammt. Ein großer Vorteil der Umwelt-DNA ist jedoch, dass man DNA von Organismen erhalten kann, die nicht versteinert sind, und dass man das gesamte Ökosystem sehen kann." Der Umweltkontext ist ebenfalls wichtig. Man denke nur an die Fossilien eines Elefanten und einer Pflanze, die nur wenige Kilometer entfernt sind. Der Fund von DNA an den beiden Orten ist nicht so aussagekräftig wie der Fund der Pflanzen-DNA im Darm des Elefanten.

" DNA kann sich schnell zersetzen, aber wir haben gezeigt, dass wir unter den richtigen Voraussetzungen weiter in die Vergangenheit zurückgehen können, als man es sich je vorzustellen wagte. Damit schlagen wir ein neues Kapitel auf, das eine Million Jahre länger in der Geschichte zurückliegt. Zum ersten Mal können wir einen direkten Blick auf die DNA eines vergangenen Ökosystems werfen, das so weit in der Vergangenheit liegt", so Willerslev.

Der Fundort

Die Forscher haben an fünf Standorten 41 verwertbare Proben im Ton und Quarz gesammelt Abbildung 1., wobei jedes Schnipsel genetischen Materials nur Millionstel Millimeter lang war.

Abbildung 1. Die Kap København Formation in Nord Grönland. Geografische Lage (a) und Abfolge der Ablagerungen: Räumliche Verteilung der Erosionsreste der rund 100 m mächtigen Abfolge von flachmarinen küstennahen Sedimenten zwischen Mudderbugt und dem Mittelgebirge im Norden (b und c). (Bild von Redn. eingefügt aus Kjaer et al. 2022 [1], Lizenz cc-by) .

"Die alten DNA-Proben waren tief im Sediment vergraben, das sich über 20 000 Jahre in einer flachen Bucht angesammelt hatte. Das Sediment wurde schließlich im Eis oder im Permafrostboden konserviert und - was entscheidend ist - zwei Millionen Jahre lang nicht vom Menschen gestört", erklärt der Geologe Kurt Kjaer von der Universität Kopenhagen.

Die rund 100 m dicke Sedimentschicht sammelte sich in der Mündung eines Fjords an, der im nördlichsten Punkt Grönlands in den Arktischen Ozean ragt. Am Ende der pleistozäne Eiszeit, vor zwei bis drei Millionen Jahren, schwankte das Klima in Grönland eine Zeit lang zwischen arktisch und gemäßigt. Die Temperaturen waren um 10 bis 17 Grad Celsius wärmer als heute.

Geschichten aus der eDNA lesen

Drei technologische Fortschritte ermöglichten laut Willerslev die Untersuchung:

  • die Entdeckung, wie DNA an Mineralienpartikel bindet,
  • eine neue Sequenzierungsplattform, die kleine Schnipsel "frayed" DNA (DNA mit an den Enden geöffneten Basenpaaren) verarbeiten kann,
  • das Sammeln des alten genetischen Materials (mit einem coolen "Arctic PaleoChip" - klingt wie ein Diäteis, ist aber eine optimierte Strategie zu gezielten Anreicherung der eDNA).

Für die Konservierung der eDNA hat deren Wechselwirkung mit der Mineral-Grenzfläche eine entscheidende Roll gespielt. Karina Sand von der Universität Kopenhagen eklärt: "Marine Bedingungen haben die Adsorption der DNA an Mineralien begünstigt; die recht starke Bindung konnte so den enzymatischen Abbau der eDNA verhindern. Alle Mineralien in der Formation konnten DNA adsorbieren, allerdings in anderen Stärken, als wir sie kannten."

Im offenen Meerwasser hätte - laut Sand - die Bindung von DNA an Mineralien nicht stattgefunden. Die Forscher haben die Bindung moderner DNA an Oberflächen mit Hilfe der Rasterkraftmikroskopie untersucht und die Parameter manipuliert, um nachzuvollziehen, was mit den konservierten DNA-Stücken in den alten Sedimenten Grönlands wohl geschehen war.

Dann verglichen die Forscher die kurzen eDNA-Sequenzen mit denen moderner Arten in DNA-Datenbanken. Einige Proben stimmten mit entfernten zeitgenössischen Verwandten überein, während andere keine Treffer ergaben. Anhand bekannter Mutationsraten bestimmter DNA-Sequenzen lassen sich Zeitrahmen auf alte DNA anwenden.

Als die ersten Artenidentifizierungen mit ungefähren Zeitangaben eintrafen, waren die Forscher zunächst verwirrt, berichtet Mikkel Pedersen von der Universität Kopenhagen. "Als ich die Daten erhielt, kam mir das verrückt vor, ich verstand die Zeitstempel nicht. Wir hatten Taxa (taxonomische Gruppen) verschiedener Landpflanzen und -tiere, und plötzlich tauchten marine Arten auf! Das war wirklich merkwürdig. Also rannte ich zu Kurts Büro und fragte: 'Was hast du mir gegeben? Marine Taxa oder terrestrische?' Das war ein Zeichen dafür, dass der Boden in eine marine Umgebung gespült worden war." Abbildung 2.

Abbildung 2. Terrestrische und marine Tiere am Fundort 69. Taxonomische Profile der Tierbestände aus den Sedimentgruppen B1, B2 und B3 (b). (Bild von Redn. eingefügt aus Kjaer et al. 2022 [1], Lizenz cc-by) .

Flora und Fauna des alten Ökosystems

Das Bild des alten Ökosystems glich einem riesigen, aus wenigen Teilen bestehenden Puzzle - aus Fossilien, konservierten Pollen und DNA, die vor allem aus den widerstandsfähigen Chloroplasten und Mitochondrien stammte. Anhand dieser spärlichen Hinweise identifizierte das Team 102 Pflanzenarten, von Algen bis hin zu Bäumen, auf Gattungsebene - die Auflösung war nicht hoch genug, um Arten zu unterscheiden, so Pedersen. "Wir fanden 9 Tierarten, die zu dieser Zeit in der Landschaft am häufigsten vorkamen (und DNA hinterlassen hatten)- Abbildung 2 -, sowie viele Bakterien und Pilze. Wahrscheinlich ist die große Mehrheit der Pflanzen und Tiere aufgrund ihrer ständig niedrigen Biomasse nicht nachweisbar", fügte er hinzu.

Fossilien und DNA aus dem südlichen Teil des Gebiets deuten auf Pappeln, Rotzedern und Tannen hin. "Die Pflanzen kamen in einer Weise zusammen vor, die wir heute nicht mehr sehen würden. Es war ein offener borealer Wald mit Pappeln, Weiden, Birken und Thujabäumen und einer Mischung aus arktischen und borealen Sträuchern und Kräutern", so Pedersen.

Mastodonten lebten in diesem Gebiet, was überraschend war, da sie aufgrund ihrer Fossilien nur aus Nord- und Mittelamerika bekannt waren. Die neue Information wurde durch den reichlichen Kot des riesigen Tieres möglich, der auch Spuren der DNA seiner Nahrung von Bäumen und Sträuchern enthält.

Die DNA zeigte auch, dass atlantische Pfeilschwanzkrebse weiter südlich im Atlantik lebten als heute, was auf wärmere Oberflächengewässer während des Pleistozäns schließen lässt. Winzige DNA-Stücke stammen auch von Gänsen, Hasen, Rentieren, Lemmingen, einem Korallenriff-Erbauer und einer Ameisen- und Flohart.

Der Schauplatz

Bis zur Entdeckung der DNA war die einzige Spur eines Säugetiers ein Stück eines Zahns. Willerslev erzählte, wie das Team auf seinen Fund reagierte:

"Als wir 2006 wegen eines anderen Projekts in dieses Gebiet kamen, haben wir nicht viel gesehen. Es war ähnlich wie in der Sahara, fast kein Leben. Flechten, Moose, das war's. Es war also sehr aufregend, als wir die DNA wiederherstellten und ein ganz anderes Ökosystem zum Vorschein kam. Aus Makrofossilien wusste man, dass es dort einen Wald gegeben hatte, aber die DNA identifizierte viel mehr Taxa. Pollen und Makrofossilien hatten einige Arten identifiziert, aber die Umwelt-DNA identifizierte 102 Pflanzen!

Als wir die DNA eines Mastodons, eines mit Nordamerika assoziierten Tieres, fanden, dachten wir, dass es nach Grönland geschwommen sein und das Eis überquert haben musste!

Wir haben auch Rentiere detektiert. Erstaunlich! Wir hatten erwartet, dass es sich dabei um eine viel jüngere Art handelt. Rentierhaare und Pfeilschwanzkrebse in einer Meeresumgebung lassen auf ein viel wärmeres Klima schließen.

Stellen Sie sich vor, Sie stehen mit Gummistiefeln in der Bucht, schauen nach oben und sehen einen Wald, Mastodonten und Rentiere, die herumlaufen, und einen Fluss, der Sedimente und Ablagerungen vom Land mit sich führt. Deshalb ist die DNA eine Mischung aus terrrestrischen und marinen Organismen. Irgendwann hob sich das Land, so dass die riesigen Berge jetzt im Landesinneren liegen und nicht mehr an der Küste." Abbildung 3.

Abbildung 3. " Stellen Sie sich vor, Sie stehen mit Gummistiefeln in der Bucht, schauen nach oben und sehen einen Wald, Mastodonten und Rentiere,......". (Illustration credit: Beth Zaiken/bethzaiken.com; siehe [2])

Ein Vorbehalt gegenüber der Aussagekraft der eDNA-Forschung ist die Häufigkeit des eDNA-Vorkommens: Von einer Art mit einer kleinen Population wird wahrscheinlich kaum eDNA auftauchen. Und das ist der Grund, warum nach der Beweislage, Karnivoren in Grönland nicht vorkamen.

Es ist ein Zahlenspiel, so Willerslev. "Je mehr Biomasse, desto mehr DNA ist übrig. Pflanzen sind häufiger als Pflanzenfresser und die wiederum häufiger als Fleischfresser. Aber wenn wir weiterhin Proben nehmen und die DNA sequenzieren, sage ich voraus, dass wir irgendwann Beweise für Fleischfresser finden werden, vielleicht ein Tier, das Mastodonten gefressen hat." Er fügt hinzu, dass es (noch) keine-DNA Evidenz für Bären, Wölfe und Säbelzahntiger gibt, vertraute Bewohner pleistozäner Szenen.

Ein genetischer Fahrplan

Ist der in Grönland entdeckte Zeitabschnitt ein Vorbote dessen, was die derzeitige Klimaerwärmung mit sich bringen wird? Wahrscheinlich nicht, sagt Willerslev, aber das ist nicht unbedingt eine schlechte Nachricht:

"Dieses Ökosystem und seine Mix aus arktischen und gemäßigten Arten hat kein modernes Gegenstück. Das deutet darauf hin, dass unsere Fähigkeit, die biologischen Folgen des Klimawandels vorherzusagen, ziemlich schlecht ist. Ausgehend von der heutigen Artenvielfalt hätte niemand ein solches Ökosystem vorausgesagt. Dies zeigt jedoch, dass die Plastizität der Organismen größer und komplexer ist, als wir es uns vorgestellt haben. "

Was wir haben, betont Willerslev, ist eine "genetische Roadmap mit Hinweisen in Form von Genen, wie sich Organismen an einen sehr schnellen Klimawandel anpassen. Aber viele dieser Anpassungen sind wahrscheinlich verloren gegangen, weil sie über lange Zeit keinen Nutzen brachten. Jetzt vollzieht sich der Klimawandel extrem schnell, und die Evolution kann dem nicht folgen. Wir sollten also mit großen Aussterbeereignissen rechnen."

Was aber, wenn wir die Informationen aus Studien wie der in Grönland nutzen, um den DNA-Veränderungen, die die Anpassung an Umweltveränderungen vorantreiben, zuvorzukommen? Kann die Biotechnologie hier eingreifen? Vielleicht.

"Die Gentechnik könnte die Strategie nachahmen, die Pflanzen und Bäume vor zwei Millionen Jahren entwickelt haben, um in einem Klima mit steigenden Temperaturen zu überleben und das Aussterben einiger Arten zu verhindern", so Kjaer.

Willerslev rechnet damit, dass sich solche Bemühungen zunächst auf Pflanzen konzentrieren. "Die Roadmap kann Aufschluss darüber geben, wo und wie man das Genom einer Pflanze verändern kann, um sie widerstandsfähiger gegen den Klimawandel zu machen. Die Werkzeuge sind vorhanden. Das klingt drastisch, und ich sage nicht, dass es so sein sollte, aber es eröffnet eine neue Möglichkeit, die Auswirkungen des Klimawandels abzumildern."

Doch im Moment könnte das Überleben der Arten ein Wettlauf mit der Zeit sein, auch wenn sich das Klima schon früher verändert hat. Pedersen zieht eine eher ernüchternde Bilanz:

"Die Daten deuten darauf hin, dass sich mehr Arten entwickeln und an stark schwankende Temperaturen anpassen können als bisher angenommen. Entscheidend ist jedoch, dass diese Ergebnisse zeigen, dass sie dafür Zeit brauchen. Die Geschwindigkeit der heutigen globalen Erwärmung bedeutet, dass Organismen und Arten diese Zeit nicht haben, so dass der Klimanotstand eine enorme Bedrohung für die Artenvielfalt bleibt. Für einige Arten steht das Aussterben unmittelbar bevor."

----------------------------------------------------

[1] Kjær, K.H., Winther Pedersen, M., De Sanctis, B. et al. A 2-million-year-old ecosystem in Greenland uncovered by environmental DNA. Nature 612, 283–291 (2022). https://doi.org/10.1038/s41586-022-05453-y. open access;Lizenz: cc-by

[2]The world's oldest DNA: Extinct beasts of ancient Greenland. Nature Video 9:12 min. https://www.youtube.com/watch?v=qav579ZURpk&t=550s.


* Der Artikel ist erstmals am 8.Dezember 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "A 2-Million-Year-Old Ecosystem in the Throes of Climate Change Revealed in Environmental DNA" https://dnascience.plos.org/2022/12/08/a-2-million-year-old-ecosystem-in-the-throes-of-climate-change-revealed-in-environmental-dna/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


inge Thu, 15.12.2022 - 13:15

Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

So, 11.12.2022— Redaktion Vorname ZunameIcon Medizin

Übermäßiger und untauglicher Einsatz von Antibiotika in Human- und Veterinärmedizin hat zunehmend zur Entstehung (multi-) resistenter Keime geführt, gegen die auch die potentesten Reserve-Antibiotika nichts mehr ausrichten können; an und mit antibiotikaresistenten Infektionen sterben weltweit jährlich bereits Millionen Menschen. Um die Ausbreitung solcher Infektionen einzudämmen, ist ein gezielter, maßvoller Umgang mit Antibiotika erforderlich. Dies setzt ausreichende Kenntnisse über Antibiotika, deren Gebrauch und Risiken voraus. Seit 2009 hat die EU-Kommission ihre Bürger nun bereits zum fünften Mal hinsichtlich ihres diesbezüglichen Wissenstands, ihrer Einstellungen und Verhaltensweisen befragt. Laut der diesjährigen Umfrage ist der Einsatz von Antibiotika zwar auf den bislang niedrigsten Wert gesunken, allerdings nimmt die Hälfte der Befragten fälschlicherweise an, dass Antibiotika gegen Virusinfektionen wirken und wendet diese auch dagegen an  - das Problem, dasss über 90 % der dafür ausgestellten Rezepte und Behandlungen von Ärzten stammten, wird nicht behandelt [1].

Die Krise der Antibiotikaresistenz ist - wie auch andere derzeitige Krisen - eine globale und anthropogen, vom Menschen gemacht. Verursacht wurde sie durch übermäßigen Einsatz und falsche Anwendung der vorhandenen Antibiotika und eine vor mehr als 30 Jahren ins Stocken geratene Entwicklung neuer wirksamer Antibiotika, gegen die (vorübergehend noch) keine Resistenzen bestehen. Zuvor existierte eine so breite Palette hochwirksamer Medikamente, dass die Pharmaindustrie die Forschung und Entwicklung neuer Antibiotikaklassen einstellte und aus nachvollziehbaren Rentabilitätsgründen auch nicht wieder aufnahm, als Resistenzen gegen mehr und mehr "alte" Antibiotika auftauchten. Abbildung 1.

Abbildung 1. Seit mehr als 30 Jahren sind keine neue Klassen von Antibiotika auf den Markt gekommen. (Bild übernommen aus A. Hudson (11.2021) https://www.asbmb.org/asbmb-today/policy/110721/antibiotic-resistance-is-at-a-crisis-point. Quelle React Group, Lizenz cc-by-nd)

Antibiotikaresistenzen sind auf dem Vormarsch....

Mikroorganismen - ob es sich nun um Bakterien, Pilze, Algen, Viren oder Protozoen handelt - werden in zunehmendem Maße gegen antimikrobielle Substanzen resistent, auf die sie vordem hochsensitiv angesprochen haben. Dies ist ein natürlicher Evolutionsprozess, der auf Genmutation und Selektion der fittesten - d.i. im Infektionsprozess am besten propagierenden - Mikrobenstämme basiert.

Bakterien vermehren sich sehr rasch und machen bei der Kopierung ihres Erbguts relativ viele Fehler. Durch solche Mutationen kann eine bakterielle Zielstruktur (Target) von dem dagegen designten Antibiotikum schlechter/nicht mehr erkannt werden; das betroffene Bakterium kann sich in Gegenwart des Antibiotikums weiter zu einer neuen, resistenteren Population vermehren. Erfolgt eine Antibiotika Behandlung nicht ausreichend lang, oder war die Dosis zu niedrig, um auch die resistenteren Keime zu eliminieren, so bleiben diese über und können ihre Resistenzgene auch auf andere Bakterien übertragen. So entstehen dann multiresistente Erreger.

Der übermäßige Einsatz von Antibiotika in der Human- und Veterinärmedizin und ihre falsche Anwendung - etwa bei der Behandlung von Viren, gegen die sie ja unwirksam sind, oder wenn sie nicht über die notwendige Behandlungsdauer eingenommen werden - haben die Resistenzentwicklung von Bakterien gegen diese Medikamente forciert und zu einer enormen Gefahr für die ganze Welt werden lassen.

Gegen Antibiotika (multi)resistente Bakterien kommen überall und in allen Ländern vor. Sie finden sich in Lebensmitteln, in der Umwelt, bei Tier und Mensch; in Spitälern - vor allem in den Intensivstationen - stellen sie eine enorme Bedrohung dar. Es wird damit immer schwieriger, Patienten vor solchen Infektionen zu schützen und chirurgische Eingriffe, Transplantationen, Chemotherapien und andere Behandlungen mit nur geringem Risiko durchzuführen. Ein Video der WHO vor 2 Wochen hat eingehend vor einem Aufsuchen von Spitälern ohne triftigem Grund gewarnt [2].

Eine Prognose der WHO aus dem Jahr 2015 geht davon aus, dass 2050 voraussichtlich bereits 10 Millionen Menschen an bakteriellen Infektionen sterben werden, mehr als an der bisherigen Nummer 1, den Krebserkrankungen, sofern keine wirksamen neuen Medikamente, Vakzinen oder andere Behandlungsmethoden auf den Markt kommen. Eine neue Studie [3] lässt befürchten, dass dieser Todeszoll schon viel früher erreicht werden wird.

....... und gehören bereits zu den häufigsten Todesursachen

Die Entwicklung der Corona-Pandemie hat die Gefahr der global steigenden Antibiotikaresistenzen vorübergehend in den Hintergrund rücken lassen, obwohl deren Auswirkungen noch gravierender sein dürften, als die von COVID-19. So sind laut täglichem Dashboard seit Beginn der Pandemie anfangs 2020 rund 6,65 Millionen Menschen an und mit COVID-19 verstorben. Pandemien sind definitionsgemäß aber zeitlich begrenzt, nicht so Antibiotikaresistenzen - die Zahl der Schwerstkranken und der Todeszoll steigen weiter und weiter. Eine neue, im Rahmen des  Global Research on Antimicrobial Resistance (GRAM) Project durchgeführte Studie, liefert die erste umfassende Evaluierung der antibiotikaresistenten Bakterien und deren Auswirkungen auf der ganzen Welt. Basierend auf der Analyse von 471 Millionen einzelnen Datensätzen oder Isolaten aus 204 Ländern kommt das Autorenteam (mehr als 170 Forscher!) zu dem Schluss, dass 1,27 Millionen Todesfälle im Jahr 2019 direkt durch Antibiotikaresistenzen verursacht wurden und insgesamt 4,95 Millionen Verstorbene mit mindestens einer antibiotikaresistenten Infektion assoziiert wurden [3].

Es sind durchwegs häufige, früher auf Antibiotika gut ansprechende bakterielle Infektionen, die nun durch resistente, oft multiresistente Keime ausgelöst werden; vor allem sind hier Infektionen der unteren Atemwege, des Blutkreislaufs (Sepsis) und intraabdominelle Infektionen zu nennen, die Hunderttausende Todesopfer fordern. Abbildung 2. Für fast 80 % dieser Todesfälle sind 6 (multi)resistent gewordene Bakterienstämme verantwortlich von: Escherichia coli , Staphylococcus aureus, Klebsiella pneumoniae , Streptococcus pneumoniae, Acinetobacter baumannii, und Pseudomonas aeruginosa [3].

Diese Ergebnisse unterstreichen die Notwendigkeit kollektiver globaler Maßnahmen, wie die Entwicklung neuer Antibiotika - die von der Pharmaindustrie über Jahrzehnte ignoriert wurden - und Impfstoffe und eine verbesserte Überwachung der Antibiotikaresistenz.

Abbildung 2. Weltweite Todesfälle (Zahlen), die auf bakterielle Resistenz gegen Antibiotika zurückzuführen sind ("attributable")/ damit in Verbindung stehen ("associated"), nach infektiösem Krankheitsbild. Abkürzungen stehen für bakterielle Infektionen von: LRI+: unteren Atemwegen,Thorax; BSI: Blutbahn; UTI: Harntrakt, Pyelonephritis; CNS: Meningitis u.a. CNS Infektionen, cardiac: Endocarditis u.a.; Skin= Haut und Subcutis; Bone+: Knochen, Gelenke; TF–PF–iNTS= Typhus, Paratyphus und invasive nicht-typhoide Salmonella spp. (Bild aus ‘Global burden of bacterial antimicrobial resistance in 2019: a systematic analysis’ [2]; Lizenz: cc-by)

Zur Situation in der EU....

Laut einem aktuellen Report der ECDC (Europäisches Zentrum für die Prävention und die Kontrolle von Krankheiten) sind im Zeitraum 2016 - 2020 in der EU/EEA jährlich mehr als 35 000 Menschen an antibiotikaresistenten Infektionen gestorben [4]; 4 Jahre zuvor war man noch von mehr als 25 000 Todesfällen ausgegangen. Die Infektionen mit den oben genannten resistenten Bakterienstämmen haben sich z.T. mehr als verdoppelt.

Die Bekämpfung von antibiotikaresistenten Infektionen hat zweifellos prioritäre Bedeutung. Die EU hat bereits 2017 den Aktionsplan "One Health" ins Leben gerufen, der über 70 Maßnahmen in neun Politikbereichen umfasst und Gesundheit von Mensch und Tier, Landwirtschaft, Umwelt und Forschung einschliesst [5]. Es kommt darin klar zum Ausdruckt, dass "menschliche und tierische Gesundheit miteinander zusammenhängen, Krankheiten vom Menschen auf Tiere und umgekehrt übertragen werden und deshalb bei beiden bekämpft werden müssen" [5].

Zudem soll auch für ein besseres Verständnis der EU-Bürger für das Resistenzproblem und einen sachgerechten Umgang mit Antibiotika gesorgt werden. In diesem Sinn hat nun bereits zum fünften Mal seit 2009 - vom Feber bis März 2022 - eine Befragung der EU-Bürger zur Antibiotikaresistenz stattgefunden.

.........und EU-weite Umfrage zur Antibiotikaresistenz - Spezial Eurobarometer 522

Wie in den vergangenen Umfragen war das Ziel Kenntnisse, Meinungen und Verhaltensweisen der EU-Bürger zum Problem antimikrobielle Resistenz zu erheben. Im Auftrag der EU-Kommission erfolgte die Umfrage in den 27 Mitgliedstaaten vom 21.Feber bis 21.März, und insgesamt 26 511 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1000 Personen je Mitgliedsland -nahmen teil. Diese wurden persönlich (face to face) in ihrem Heim und in ihrer Muttersprache interviewt.

Wie auch 2018 wurden die Teilnehmer u.a. gefragt ob und warum sie im letzten Jahr Antibiotika genommen hatten, wie sie diese erhalten hatten und ob ein Test auf den Erreger der Erkrankung erfolgt war.

Des weiteren gab es Fragen

  • zum Kenntnisstand über die Funktionsweise von Antibiotika, über die mit einem unnötigen Einsatz verbundenen Risiken, ob sich die Bürger ausreichend über die Notwendigkeit den unnötigen Antibiotikaeinsatz einzuschränken informiert fühlten, sowie ihr Interesse, mehr und aus welchen Quellen über Antibiotika zu erfahren,
  • zu Ansichten über die am besten geeignete politische Reaktion auf Antibiotikaresistenzen,
  • zu Einstellungen zur Verwendung von Antibiotika bei kranken Tieren und zur Kenntnis des Verbots einer Anwendung von Antibiotika zur Wachstumsförderung bei Nutztieren,
  • zum Verbrauch von Antibiotika sowie Zugang und Bedarf an Antibiotika im Zusammenhang mit der COVID-19-Pandemie.

 

Die Antworten lauteten ähnlich wie 2018 und nicht minder besorgniserregend:

Haben Sie im letzten Jahr Antibiotika genommen?

Diese Frage beantworteten im EU27-Mittel 23 % der befragten Bürger mit Ja. Dies war scheinbar ein erfreulicher Rückgang zu den früheren Umfragen: 2009 waren es im Mittel 40 %, 2018 immerhin noch 32 %. Der Unterschied im Antibiotikaverbrauch der einzelnen Länder war beträchtlich und reichte von 15 % in Schweden und Deutschland bis 42 % in Malta; in Österreich haben 20 % der befragten Personen angegeben Antibiotika genommen zu haben. Abbildung 3.

Allerdings dürfte der starke Rückgang seit 2018 eine Folge der COVID-19 Epidemie sein: In einem späteren Abschnitt gaben im EU27-Schnitt  insgesamt 45 % - in Österreich 47 % - der Befragten an, dass durch COVID-19 der Bedarf an Antibiotika gesunken sei, weil sie aufgrund verstärkter persönlicher Schutzmaßnahmen wie Masken, räumlicher Distanzierung, verstärkter Handhygiene und auch während der Lockdowns seltener erkrankten.

Abbildung 3. Haben Sie im letzten Jahr orale Antibiotika genommen? Zwischen 15 und 42 % der Teilnahme bejahen diese Frage.(Quelle: [1])

Es ist hier besonders wichtig zu betonen, dass der überwiegende Teil der Befragten in allen Ländern (80 - 95 %) ihre Antibiotika über ein ärztliches Rezept oder direkt vom Arzt erhalten haben, der Rest hatte es sich sonst wo -- in Apotheken, von Freunden, aus übrig gebliebenen Packungen - besorgt. Am unteren Ende der Skala lagen Österreich und Belgien mit 84 % ärztlichen Verschreibungen und Rumänien mit 80 %.

Wofür wurden Antibiotika eingesetzt?

Der (COVID-19-bedingte) Rückgang im Verbrauch von Antibiotika erhält einen negativen Beigeschmack, da ein beträchtlicher Teil der EU-Bürger diese fälschlicherweise bei viralen Infektionen wie "Erkältung", Grippe, der zumeist viral verursachten Bronchitis und den Begleitsymptomen (Fieber, Halsschmerzen, Husten) einsetzte, in denen Antibiotika nutzlos sind:

Nach der im EU27-Schnitt am häufigsten genannten Harnwegsinfektion (15 %) rangierten bereits Anwendungen bei Halsschmerzen (13 %), Bronchitis (12 %), Erkältung (11 %), Grippe (10 %) und Fieber (10 %), um die 9% hatten Antibiotika auch gegen COVID-19 angewandt. Dabei erfolgte die Verschreibung von Antibiotika im EU27-Schnitt bei rund 53 % der Befragten (in Österreich bei 51 %) ohne dass eine Testung auf Bakterien in Blut, Harn oder Speichel stattgefunden hätte.

Man kann sich darüber nur wundern, dass Ärzte für bis zu 98 % der angewandten Antibiotika Rezepte ausgestellt haben, auch wenn offensichtlich virale Infektionen vorlagen, und auch nur in der Hälfte der Fälle auf das mögliche Vorliegen bakterieller Infektionen getestet wurde.

Kenntnisse über Antibiotika und ihre Anwendung

Hier wurden dieselben 4 Fragen wie bereits 2018 gestellt, die Antworten lassen nach wie vor besorgniserregende Wissenslücken erkennen.

  • Können Antibiotika Viren töten ? Im EU27-Mittel gaben nur 50 % (2018: 43 %) der Befragten die richtige Antwort "Nein", dass Antibiotika dazu nicht imstande sind. 11 % sagten, dass sie es nicht wüssten. Auch in den bestabschneidenden Ländern Schweden, Luxemburg, Niederlande und Irland gaben nur 3/4 bis 2/3 der Befragten die richtige Antwort. Österreich hat mit 49 % gegenüber 2018 - damals 28 % - aufgeholt. Abbildung 4.

Abbildung 4 Können Antibiotika Viren töten? Wissenslücken bestehen in allen Ländern (Quelle: [1])
  • 2. Sind Antibiotika bei Verkühlung wirksam? Im EU27-Schnitt wurde dies von 62 % der Teilnehmer richtig mit "Nein" beantwortet (2018 waren es 66 %). In nur 6 Staaten (Ungarn, Bulgarien, Polen, Griechenland, Zypern und Rumänien) gab weniger als die Hälfte die richtige Antwort.
  • Kann unnötige Anwendung von Antibiotika zu deren Wirkungsverlust führen? Hier wussten die Europäer besser Bescheid. 82 % der Teilnehmer bejahten dies (2018 waren es 85 %). Nur 5 Staaten - Bulgarien, Frankreich, Italien, Ungarn und Rumänien - lagen mit der richtigen Antwort unter 80 %.
  • Ist die Anwendung von Antibiotika häufig mit Nebenwirkungen - beispielsweise Durchfall - verbunden? Wie 2018 ist in allen Staaten der überwiegende Teil der befragten Bevölkerung - EU27-Mittel 67 % (2018 68 %) - dieser Meinung. Die Bandbreite reicht von 57 % in Rumänien bis 81 % in Polen.

Der Kenntnisstand ist zusammengefasst, ähnlich wie 2018: europaweit ist etwa nur ein Viertel der Teilnehmer in der Lage die 4 Fragen richtig zu beantworten, und es gibt keinen Staat, in welchem die Mehrheit der Bevölkerung auf alle 4 Fragen die richtige Antwort gibt. Am besten schneidet Nordeuropa ab (Finnland, Schweden, Holland, Luxemburg und Dänemark), am schlechtesten Lettland, Rumänien und Bulgarien.

  • Ähnlich wie 2018 war dem Großteil der Befragten (EU-Schnitt 85 %) bewusst, dass Antibiotika in der vom Arzt verschriebenen Menge und Dauer genommen werden sollen. Allerdings meinen im Mittel 13 %, dass sie mit der Einnahme aufhören können, sobald es ihnen besser geht.
  • Darüber, dass Antibiotika nicht unnötigerweise (beispielsweise bei einer Verkühlung) eingenommen werden sollten, fühlte sich nur ein Fünftel der Befragten informiert. Diese hatten die Information im Wesentlichen vom ihrem Arzt, Apotheker aber auch aus verschiedenen Medien erhalten, wobei Arzt und Apotheker als besonders vertrauenswürdig angesehen wurden.

--------------------------------------------------------------------------------

  • Die Anwendung von Antibiotika im Veterinärgebiet, die damit verbundenen Risiken und die Einstellungen dazu in der EU sollen wegen der enormen Wichtigkeit in einem nachfolgenden Artikel dargestellt werden.

 Fazit

Durch uns verursachte Antibiotikaresistenzen haben eine sehr bedrohliche Lage entstehen lassen, die - wie im Fall von COVID-19 - nur durch ernsthafte, globale Anstrengungen gemildert/gelöst werden kann. Hier brauchbare Informationen zu liefern, ist auch das Ziel der letzten diesbezüglichen EU-weiten Umfrage [1]: "Um die Resistenz gegen antimikrobielle Mittel, die eine große Bedrohung für die öffentliche Gesundheit in Europa und weltweit darstellt, zu verlangsamen und zu verringern, ist es von entscheidender Bedeutung, den übermäßigen und falschen Einsatz von Antibiotika zu reduzieren. Das Wissen, die Einstellung und das Verhalten der Allgemeinheit spielen eine Schlüsselrolle bei der Gewährleistung eines umsichtigen Einsatzes von Antibiotika.".

Der vorliegende Report [1] zur Umfrage hält dieser Ambition leider in keiner Weise stand. Es ist eine Aneinanderreihung von Zahlen aus den einzelnen Ländern, ohne die Ergebnisse im Zusammenhang zu diskutieren:

Beispielsweise wird in den Conclusions stolz verkündet, dass der Antibiotikaverbrauch im letzten Jahr stark gesunken ist, ohne darauf einzugehen, dass dies - den Antworten der EU-Bürger entsprechend - zumindest zum großen Teil - den Restriktionen der COVID-19 Pandemie geschuldet war. Ebendort wird auch konstatiert, dass "insgesamt das Wissen der Europäer über Antibiotika verbesserungswürdig ist", da ja nur "die Hälfte weiß, dass Antibiotika gegen Viren unwirksam sind" und ein hoher Anteil der Europäer diese auch bei viralen Infektionen - Erkältungen, Influenza und deren Symptomen - einsetzt. Dass über 90 % der dafür ausgestellten Rezepte und Behandlungen von Ärzten stammten, und daher primär deren Vorgangsweise in Frage gestellt werden sollte, wird nicht angesprochen. Unerwähnt in den Conclusions bleibt auch der enorme Antibiotikaverbrauch im Veterinärgebiet mit den Risiken der weiten Verbreitung (multi)resistenter Keime.

Alles in allem ist Eurobarometer 522 ein ärgerliches, oberflächliches Machwerk, dessen Informationsgehalt mit den vermutlichen Kosten kaum im Einklang steht.

------------------------------------------------------------

[1] Special Eurobarometer 522: Antimicrobial Resistance. 17. November 2022. doi: 10.2875/16102

[2] WHO's Science in 5: Microbes are becoming resistant to antibiotics (24 November 2022), Video 5:29 min. https://www.youtube.com/watch?v=ELRw0jRiJe0&t=320s

[3] Antimicrobial Resistance Collaborators ‘Global burden of bacterial antimicrobial resistance in 2019: a systematic analysis’ Lancet2022; 399: 629-55. https://doi.org/10.1016/ S0140-6736(21)02724-0

[4] 35 000 annual deaths from antimicrobial resistance in the EU/EEA (press release, 17. 11.2022). https://www.ecdc.europa.eu/en/news-events/eaad-2022-launch

[5] Europäischer Aktionsplan zur Bekämpfung antimikrobieller Resistenzen im Rahmen des Konzepts „Eine Gesundheit“ {SWD(2017) 240 final} https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=COM%3A2017%3A339%3AFIN


Weiterführende Links

Antibiotic resistance - the silent tsunami. Video 2:50 min. https://www.youtube.com/watch?v=Uti42LK3lAQ

Wie wirken Antibiotika? Video 5:44 min. Eine sehr leicht verständliche Zusammenfassung (2015; Standard YouTube Lizenz)

Artikel im ScienceBlog:

Redaktion, 22.11.2018: Eurobarometer 478: zum Wissenstand der EU-Bürger über Antibiotika, deren Anwendung und Vermeidung von Resistenzentstehung

Inge Schuster, 23.09.2016: Gehen wir auf eine Post-Antibiotika Ära zu?


 

 

inge Sun, 11.12.2022 - 18:02

Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren

Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren

Do. 01.12.2022— Susanne Donner

Susanne DonnerIcon Gehirn

Hirn und Herz kommunizieren miteinander über das autonome Nervensystem und über Botenstoffe und beeinflussen einander massiv. Im Gehirn existiert ein Abbild des Herzens: Der Herzschlag ist dort über das Herzschlag-evozierte Potential (HEP) repräsentiert. Mit dem Herzschlag ändert sich unsere Wahrnehmung und sogar unsere Neigung zu Vorurteilen. Umgekehrt wirken sich psychische Belastungen sowie neurologische Erkrankungen auf die Herzgesundheit aus. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner fasst die faszinierenden Ergebnisse dieser neuen Forschungsrichtung zusammen.*

Die 85 Männer ahnten nicht, dass sie sich auf ein Experiment eingelassen hatten, das später in die Lehrbücher der Psychologie eingehen würde. Ein Teil von ihnen überquerte auf einer stabilen Holzbrücke den kanadischen Capilano Canyon. Eine andere Gruppe musste über eine schwankende Hängebrücke auf die andere Seite gelangen. Festhalten konnten sie sich bei dieser furchteinflößenden Überquerung nur an zwei Drahtseilen. Links und rechts ging es 70 Meter in die Tiefe.

Auf der Mitte der beiden Brücken wartete jeweils eine attraktive Frau. Die Probanden sollten in ihrem Beisein einen Fragenbogen ausfüllen und einen Text schreiben. Für weitere Fragen bot die Frau ihre private Rufnummer an.

Mit dem Experiment wollten Donald Dutton und sein Kollege Arthur Aron von der University of British Columbia in Vancouver herausfinden, ob die aufregende Brückenüberquerung die Wahrnehmung und das Verhalten gegenüber der attraktiven Mitarbeiterin beeinflusste.

Weiche Knie oder Schmetterlinge im Bauch?

1974 veröffentlichten die Psychologen ihr Experiment im Journal of Personality and Social Psychology – mit Ergebnissen, die bis heute schmunzeln lassen: Ein Drittel der Männer, die jener Frau auf der schwankenden Hängebrücke begegnete, rief sie später an. Nach der Überquerung der stabilen Brücke nahmen dagegen nur elf Prozent der Männer Kontakt auf. Offenbar projizierten die Probanden ihre Aufregung auf die Frau und wähnten sich zu ihr hingezogen. Das verrieten auch die Texte, die die Männer schrieben: Auf der schwankenden Brücke enthielten die Schriftstücke mehr sexuelle Bezüge [1].

Die falsche Zuordnung des Gefühls zu einem Ereignis bezeichnen Psychologen als „Fehlattribution“. Dahinter steht, dass sich weiche Knie und Schmetterlinge im Bauch ja tatsächlich ähnlich anfühlen: In beiden Fällen schlägt das Herz fester, der Puls beschleunigt sich. „Mann“ schwitzt vielleicht.

Nun sind wir nicht jeden Tag verliebt und schon gar nicht begeben wir uns regelmäßig auf eine schwankende Hängebrücke. Doch die Kommunikation zwischen Herz und Hirn beeinflusst unser Leben permanent.

Der immergleiche Herzschlag ist gefährlich

Beide Organe sind gewissermaßen über eine Standleitung verbunden, das autonome Nervensystem. „Autonom“ heißt es, weil es sich nicht direkt willentlich beeinflussen lässt. Es besteht aus Sympathicus und Parasympathicus. Die beiden Nervensysteme werden überwiegend vom Hirnstamm gesteuert und wirken als Gegenspieler. Abbildung 1.

Abbildung 1. . Sympathicus und Parasympathicus regulieren die Herzaktivität (Bild von Redn. eingefügt aus: OpenStax College - Anatomy & Physiology, Connexions Web site; Fig. 19.32. http://cnx.org/content/col11496/1.6/ Lizenz: cc-by)

Der Sympathicus aktiviert uns und sorgt für die notwendigen körperlichen Reaktionen auf Angriff und Flucht. Er lässt unser Herz beispielsweise bei Bedrohung schneller schlagen und erhöht den Muskeltonus. Er sorgt für ein rotes Gesicht in einer peinlichen Situation oder für hektische Flecken bei einem Vortrag.

Der Parasympathicus dagegen bringt uns in die Ruhe. Er verlangsamt die Atmung und lässt das Herz gemächlich schlagen. Auf diese Weise halten sich Entspannung und Anspannung beim gesunden Menschen ständig die Waage. Im Nebeneffekt ist der Herzschlag variabel. Er passt sich ständig der jeweiligen Situation an. Eine hohe Herzratenvariabilität gilt als Zeichen einer vitalen Herz-Hirn-Connection und letztlich von Gesundheit. „Eine starre Herzfunktion ist dagegen lebensbedrohlich und kann zum plötzlichen Tod führen“, sagt Neurologe Arno Villringer vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig.

Ein Abbild des Herzens im Hirn

Villringer interessiert sich für feinstimmige Kommunikation zwischen Gehirn und Herz. Dafür analysieren Forscher seiner Arbeitsgruppe das Elektrokardiogramm und die Hirnströme gleichzeitig. Sie gleichen das Muster elektrischer Erregung in beiden Organen im Detail miteinander ab. Es fällt auf, dass bestimmte Regionen des Gehirns synchron mit dem Herzen aktiviert werden. Es kommt zu einem gewissen Gleichklang in beiden Organen. Messbar wird das im so genannte Herzschlag-evozierten Potential (Heartbeat-evoked Potential, kurz: HEP). Infolge der elektrischen Erregungsausbreitung im Herzgewebe, die zur Kontraktion des Herzmuskels führt, entsteht eine elektrische Spannung. Diese lässt sich im Gehirn als Erregung messen. Vor allem in der Inselregion des Gehirns konnte Villringer diese rhythmische Korrelation mit dem Herzen feststellen. Es handelt sich quasi um ein Abbild des pumpenden Herzens im Hirn. Abbildung 2.

Abbildung 2 . Links: Während der systolischen Phase (rot) werden schwache äussere Reize weniger stark wahrgenommen als in der diastolischen Phase (blau). Rechts: Ein Teil der Gehirnaktivität (“P300”) ist in der systolischen Phase unterdrückt (Bild von Redn. eingefügt ; Quelle: AL et al., PNAS (2020), [2]; Lizenz cc-by)

Der Neurologe geht davon aus, dass das HEP aber weit mehr besagt. Es ist nämlich bei verschiedenen Menschen unterschiedlich hoch. „Wir vermuten, dass das Gehirn zwei unterschiedliche Modi hat. Wenn das HEP hoch ist, konzentriert man sich auf den eigenen Körper, die Innenwelt. Im zweiten Modus ist das HEP niedrig: Man wendet sich der Außenwelt zu, im evolutiven Kontext waren das etwa Nahrungssuche und Angriff“, sagt Villringer. Zu dieser Deutung passt ein weiterer Befund: Wenn das HEP groß ist, nehmen Probanden einen äußeren elektrischen Reiz am Finger schwächer wahr. Umgekehrt nehmen sie diesen intensiver wahr, wenn das HEP kleiner ist. Dies beschrieb Villringers Team 2020 im Fachblatt PNAS [2].

Wie der Herzschlag das Denken und Fühlen verändert

Noch ist unklar, ob die Höhe des HEP und damit die Größe des Abbilds des Herzens im Hirn nur von der Situation abhängt oder auch eine Persönlichkeitseigenschaft ist. Fest steht nur, dass der Einfluss des Herzens auf das Gehirn so ausgeprägt ist, dass sich sogar der Herzschlag auf die Wahrnehmung und das Denken auswirkt.

Wieder untersuchte Villringers Team dazu, wie stark Probanden einen elektrischen Reiz am Finger empfinden. Wenn das Herz sich zusammenzieht und Blut in den Körper pumpt, also in der so genannten systolischen Phase, spüren sie den Reiz nicht so intensiv. Das könnte daran liegen, vermuten die Forscher, dass just in diesem Moment Rezeptoren in den großen Blutgefäßen eine Information über den Blutdruck ans Gehirn übermitteln. Der Informationsschwall dieser so genannten Barorezeptoren nimmt das Gehirn offenbar ziemlich in Beschlag. Eindrücke der Außenwelt erreichen uns in diesem Moment nur gedämpft. In der folgenden Diastole dagegen registrieren Probanden einen äußeren elektrischen Reiz intensiver. In dieser Phase füllt sich das Herz wieder mit Blut.

Es war nicht der erste Befund dieser Art. Ein Experiment von Psychologen um Ruben Azevedo von der Universität in London ist laut Villringer das wohl beunruhigendste Ergebnis zum Einfluss des Herzschlags. Azevedo zeigte 30 Probanden in schneller Folge Fotos von Gesichtern – entweder schwarzer oder weißer Männer gefolgt von einer Waffe oder einem Werkzeug. Möglichst rasch sollten die Testpersonen zuordnen, ob einem hellhäutigen oder dunkelhäutigen Mann ein Werkzeug oder eine Waffe folgt. Dabei erfassten die Experimentatoren auch den Herzschlag. Wenn das Herz sich zusammenzog und Blut in die Gefäße strömte, folgten die Teilnehmer signifikant häufiger ihrem Vorurteil: Sie wiesen einem schwarzen Mann eine Waffe zu. In dieser Phase wird das Gehirn so sehr von den Barorezeptoren in Beschlag genommen, dass für die kritische Selbstreflexion nicht mehr genug Hirn übrigbleibt, argumentiert Azevedo 2016 in Nature Communications [3].

Wenn das Gehirn leidet, schwächelt das Herz

Herz und Hirn stehen in einer innigen Verbindung. Aus dieser Perspektive verwundert es nicht, dass sich viele neurologische Erkrankungen auf das Herz auswirken können. Wer an einer Depression leidet, hat beispielsweise ein doppelt so hohes Risiko einen Herzinfarkt oder einen plötzlichen Herztod zu erleiden. Bei knapp 62 Prozent der Schlaganfallpatienten sitzen in den Herzgefäßen Plaques. Und ein Herzinfarkt nach dem Hirnschlag ist eine gefürchtete Komplikation auf den Intensivstationen.

Und sogar auf Stress hin können kerngesunde Menschen eine Herzmuskelschwäche entwickeln. Dieses Krankheitsbild beschrieb ein japanischer Arzt in den neunziger Jahren und benannte es als „Takotsubo-Syndrom“.

„Die Betroffenen kommen in die Notaufnahmen verängstigt, mit Brustschmerzen und Atemnot“, erzählen Victor Schweiger und Julien Mereier aus der Arbeitsgruppe des Kardiologen Christian Templin vom Universitätsspital Zürich. „Manchmal erzählen sie, dass am Tag vorher der Mann gestorben ist. In der Katheteruntersuchung sind dann alle Gefäße offen.“ Die linke Herzkammer pumpt allerdings weniger effizient als gewöhnlich. Die Herzspitze ist ballonartig erweitert, die Hauptschlagader dagegen verengt.

Auf die leichte Schulter darf man die stressbedingte Herzschwäche nicht nehmen, warnen die beiden angehenden Kardiologen. Die Betroffenen brauchen eine Reha, um sich zu erholen. Ihr Risiko zu sterben, ist erhöht. „Es ist nicht nur etwas Psychisches, wie viele glauben, sondern eine körperliche Erkrankung“, betont Schweiger.

Gebrochenes Herz mit Folgen

Das legt auch eine Untersuchung der Gehirne von Patienten mit funktioneller Magnetresonanztomografie nahe, die Templin 2019 der Fachwelt vorstellte [4]. Danach ist die Verarbeitung emotionaler Eindrücke bei den Betroffenen in verschiedenen Gehirnarealen weniger ausgeprägt. Diese verminderte Konnektivität fiel besonders in der Amygdala, dem Hippocampus und dem Gyrus cinguli auf, die für die Kontrolle von Emotionen entscheidend sind. Amygdala und Gyrus cinguli sind zudem an der Steuerung des autonomen Nervensystems beteiligt und können darüber auch die Herzfunktion beeinflussen.

Wie das Gehirn bei einem emotionalen Ereignis das Herz stresst, ist gleichwohl nicht genau verstanden. Eine Schlüsselrolle kommt wohl dem Stresshormon Adrenalin zu. Künstlich gegebenes Adrenalin kann in Tieren eine Herzmuskelschwäche auslösen. In den Patienten sind die Spiegel bestimmter Katecholamine, zu denen die Botenstoffe Adrenalin, Dopamin und Noradrenalin gehören, ein bis drei Tage nach dem Auftreten des Takotsubo-Syndroms deutlich höher als in Gesunden. Bekanntermaßen schadet ein Übermaß an Katecholaminen auf Dauer dem Herzen.

Auch nach einem Schlaganfall sind die Pegel der Katecholamine erhöht. An diesem Punkt schließt sich der Kreis: Ein schwächelndes Herz kann nicht nur eine Reaktion auf heftigen Liebeskummer oder einen Todesfall sein. Auch neurologische Ereignisse gehen gar nicht selten, nämlich in 7,6 Prozent der Fälle, einem Takotsubo-Syndrom voraus. Das konnte Templins Team in den Daten des weltweit größten Registers mit mittlerweile mehr als 4.000 Patienten erkennen [4]. „Meist liegen nur ein bis zwei, maximal zehn Tage zwischen dem Erstereignis im Hirn und der stressbedingten Herzmuskelschwäche“, sagt Schweiger.

Wie neurologische Erkrankungen und seelisches Leid dem Herzen zusetzen, versucht die junge Disziplin der Psychokardiologie zu ergründen. „Es ist schon verblüffend“, sagt Schweiger. „Trauer, Ärger und Freude können organische Veränderungen an einem so wichtigen Organ hervorrufen.“

Als ob Johann Wolfgang von Goethe es schon vor zweihundert Jahren geahnt hätte, als er über die Liebe dichtete: „Herz, mein Herz, was soll das geben? Was bedränget dich so sehr? Welch ein fremdes neues Leben! Ich erkenne dich nicht mehr.“


  [1] Donald D, et al.: Some evidence for heightened sexual attraction under conditions of hig anxiety. Journal of Personality and Social Psychology, 1974, 30 (4). (zum Abstract: https://pubmed.ncbi.nlm.nih.gov/4455773/)

[2] Al E, et al.: Heart–brain interactions shape somatosensory perception and evoked potentials. PNAS, 2020 Mai, 117 (19) 10575-10584. (zum Volltext: https://www.nature.com/articles/ncomms13854)

[3] Azevedo R, et al.: Cardiac afferent activity modulates the expression of racial stereotypes. Nature Communications, 2016 Januar, 8 (13854). (zum Volltext: https://academic.oup.com/eurheartj/article/40/15/1183/5366976?login=false)

[4] Templin C, et al.: Altered limbic and autonomic processing supports brain-heart axis in Takotsubo syndrome. European Heart Journal, 2019 April, 40 (15): 1183–1187. (zum Volltext https://www.pnas.org/doi/full/10.1073/pnas.1915629117)


*Der Artikel ist am 1.10.2022 auf der Website https://www.dasgehirn.info/ unter dem Titel "Die Herz-Hirn Connection" erschienen https://www.dasgehirn.info/grundlagen/herz/die-herz-hirn-connection und steht unter einer CC-BY-NC-SA Lizenz.

www.dasGehirn.info ist ein Projekt der Klaus Tschira Stiftung, der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medien Karlsruhe.


Verwandte Artikel im ScienceBlog

Nora Schultz, 13.10.2022: Neurokardiologie - Herz und Gehirn bilden ein System

Artikel von Susanne Donner unter: https://scienceblog.at/susanne-donner


 

inge Thu, 01.12.2022 - 16:55

Wie alles anfing: Ein Reiseführer auf dem Weg zur Entstehung und Entwicklung des Lebens

Wie alles anfing: Ein Reiseführer auf dem Weg zur Entstehung und Entwicklung des Lebens

Do, 24.11.2022 -— Inge Schuster Inge SchusterIcon Chemie

Vor 53 Jahren, als die Molekularbiologie noch in den Kinderschuhen steckte, habe ich den ebenso jungen Biochemiker Manfred Bühner auf einer wissenschaftlichen Tagung kennengelernt. Manfred war insbesondere von einem Vortrag des US-Amerikaners Michael Rossmanns fasziniert; dieser Pionier der Strukturaufklärung von Enzymen mittels Röntgenstrukturanalyse nahm dann Manfred als Postdoc in seiner Abteilung auf. Manfred konnte sich dort in die damals noch sehr neuen Methoden einarbeiten und baute nach seiner Rückkehr nach Deutschland in Würzburg das erste Forschungslabor an Hochschulen für Röntgenstrukturanalyse von Biomolekülen auf. Seine Forschungen zu Struktur, Funktion und deren Optimierung führten immer wieder zum Thema "chemische Evolution" . Manfred Bühner hat nun darüber ein großartiges Buch "Wie alles anfing - Von Molekülen über Einzeller zum Menschen" verfasst [1]. Die folgende Rezension soll einen kurzen Eindruck davon geben.

Wie ist auf unserem Planeten aus unbelebter Materie belebte Materie bis hin zu komplexen, intelligenten Lebensformen der Gegenwart entstanden? Anders als in den meisten deutschsprachigen Büchern über Evolution, deren Hauptaugenmerk auf der biologischen Phase - also auf der Entwicklung der Arten - liegt, steht in "Wie alles anfing" die präbiotische Phase, die chemische Evolution, im Zentrum.

"Leben ist aus einer geradezu banalen Aneinanderreihung von ganz einfachen und selbständig ablaufenden physikalischen und chemischen Reaktionen entstanden"

In vier Teilen, auf rund 170 Seiten (plus einem ausführlichen Anhang mit chemischen und physikalischen Grundlagen, sowie einem Glossar) führt der Biochemiker Manfred Bühner aus, dass und warum die Chemie die Basis für den Weg zum Leben, wie auch für das Leben in seiner ganzen Vielfalt ist. In der nüchternen, induktiven Betrachtungsweise des Naturwissenschaftlers, die von Beobachtungen und zu berücksichtigenden Rahmenbedingungen ausgeht, kommt er zu dem Schluss: "Leben ist aus einer geradezu banalen Aneinanderreihung von ganz einfachen und selbständig ablaufenden physikalischen und chemischen Reaktionen entstanden". Er bezieht sich dabei auf etabliertes Wissen über Struktur, Funktion und Steuerung der Bausteine lebender Materie und auf plausible Mechanismen ihrer Entstehung, die in der zweiten Hälfte des vorigen Jahrhunderts - dank der Fortschritte der Molekularbiologie - enorm ausgeweitet wurden. Bühner ist Zeitzeuge dieser Entwicklung und hat selbst seit den frühen 1970er Jahren an der Aufklärung der 3D-Struktur von Enzymen gearbeitet und sich eingehend mit deren Evolution zu den überaus präzisen Katalysatoren der Gegenwart befasst.

Abbildung 1. . Kohlenstoff im Zentrum der Chemischen Evolution. Von der Entstehung organischer Moleküle in der Uratmosphäre über Biomoleküle, Protozellen bis hin zur ersten Lebensform LUCA (Last universal common ancestor) . Quelle: Chiswick Chap, https://en.wikipedia.org/wiki/Abiogenesis; Lizenz: cc-by-sa.

Entstanden ist ein umfassender Überblick über mehr als 4,5 Milliarden Jahre Evolution, der mit der Entstehung der chemischen Elemente im Universum und den chemischen Reaktionen von Atomen und Molekülen in der Uratmosphäre beginnt. Abbildung. Bühner erklärt, warum (nur) Kohlenstoff auf Grund seiner vielfältigen Bindungsmöglichkeiten die strukturelle Basis für die Bausteine des Lebens bieten kann und wie in den Reaktionen mit den am häufigsten vorhandenen Elementen - Wasserstoff, Sauerstoff, Stickstoff - und dazu Phosphor und Schwefel zwangsläufig ein nahezu unendliches Spektrum von Biomolekülen entstehen konnte. Verständlicherweise konnten die weniger stabilen Makromoleküle - Kohlenhydrate, Proteine, Nukleinsäuren - erst entstehen, als vor etwa 4,3 Milliarden Jahren die Oberflächentemperatur der Erde gesunken war und atmosphärischer Wasserdampf zu Meeren kondensierte; geschützt vor zu zerstörerischer UV-Strahlung reicherten sich die Moleküle der Uratmosphäre in diesen "Ursuppen" an, aggregierten und reagierten miteinander. Bühner zeigt wahrscheinliche Synthesewege auf, erläutert, welche Rolle dabei flüssiges Wasser spielte und woher die zur Polymerisierung notwendige Energie kommen konnte.

Wie er an späterer Stelle ausführt, sollten - nach den im ganzen Universum geltenden Gesetzen der Chemie und Physik und sofern es die planetar-physikalischen Bedingungen erlaubten - auch auf anderen Himmelskörpern die Moleküle der Uratmosphäre einer zumindest sehr ähnlichen chemischen Evolution unterworfen (gewesen) sein.

Hervorgehoben wird die zentrale Bedeutung der Nukleinsäuren, deren Fähigkeit komplementäre Nukleotide anzulagern und Kopien mit der in der Nukleotid-Abfolge gespeicherten Information entstehen zu lassen, die Grundvoraussetzung für Leben, Vermehrung und Vielfalt der Nachkommenschaft ist. Es wird gezeigt wie die Nukleotid-Sequenz der RNA - und später der längeren, stabileren DNA - für die Aminosäurensequenz von Proteinen kodiert, wie Ablesung und Übersetzung des Codes funktionieren, wie schlussendlich kompliziert gefaltete Proteine entstehen und was solche zu hocheffektiv, spezifisch arbeitenden Enzymen macht. Zur Lösung des Henne- Ei Dilemmas - Was kam zuerst - Proteine, die das Kopieren der Nukleinsäuren katalysieren oder Nukleinsäuren, die für solche Proteine kodieren? - verweist Bühner auf die sogenannten Ribozyme - Ribonukleinsäuren mit zusätzlichen katalytischen Eigenschaften, die in anfänglichen RNA-Welten imstande gewesen sein dürften ohne zusätzliche Katalysatoren den vorerst langsamen und fehlerbehafteten Kopierprozess von RNAs zu beschleunigen und verbessern.

Breiten Raum nimmt auch die Chemie der niedermolekularen Lipide und der daraus spontan gebildeten Membranen ein: wie aus Membran-umschlossenen Tröpfchen der Ursuppe mit darin gelösten Biomolekülen erste Protozellen generiert werden konnten und wie diese Protozellen Stoffwechselsysteme entwickelten, die energieliefernde Stoffe aus der Ursuppe aufnehmen, für Funktionen wie Kopieren und Katalyse einsetzen und Abfallprodukte ausscheiden konnten. Nach mehreren Hundertmillionen Jahren chemischer Evolution, in denen vermutlich unzählige Biomoleküle ausprobiert und verworfen worden waren, gab es vor etwa 3,7 Milliarden Jahren erstmals Voraussetzungen für die Entstehung von Leben, die - als die geophysikalischen Bedingungen taugten - zu ersten Prokaryoten, einzelligen Vorläufern von Bakterien und Archaeen, führten.

"Das Leben? Ist alles nur Chemie mit der Fähigkeit zum autonomen Selbstkopieren"

sagt Bühner. Dieses Kopieren ist Hauptthema des (wesentlich kürzeren, da in der populärwissenschaftlichen Literatur bereits ausführlichst behandelten) Teils über biologische Evolution: wie dem Zufall unterworfene Mutationen in den Nukleotid-Basen und Selektion der Nachkommenschaft durch Adaptation an die Umgebungsbedingungen die Basis für die Evolution der Arten schufen; wie Optimierung von Kopiermaschinerie und Reparatursystemen für defekte Nukleotide immer größere Speicherkapazitäten und damit komplizierter aufgebaute Organismen ermöglichten. Als wesentliche Meilensteine in dem ungeheuer langen Zeitraum der biologischen Evolution (immer mit dem Fokus auf deren Chemie) nennt der Autor die "Erfindung" der Photosynthese durch Cyanobakterien vor etwa 2,7 Milliarden Jahren (d.i. der Nutzung von Sonnenergie zur Synthese von Kohlenhydraten aus CO2 und H2O, wobei der entstehende, für viele Proteobakterien toxische Sauerstoff das erste große Artensterben auslöste) und die Entstehung von Eukaryonten aus Archaea und Proteobakterien durch Endosymbiose 1 Milliarde Jahre später. Der letzte Teil des Buches führt dann von der Entstehung von Mehrzellern vor 800 Millionen Jahren, dem Aufkommen der sexuellen Vermehrung, der Entstehung von kompliziert aufgebauten Organismen bis zu intelligentem Leben und dem Homo sapiens.

Fazit

Ohne philosophische Aspekte zu berühren, erklärt das Buch in überzeugender Weise, wie Leben durch chemische Evolution entstanden sein kann. Anspruchsvoll und sehr dicht geschrieben vermittelt jede Zeile profundes, sorgfältig recherchiertes Wissen und bietet selbst für den Chemiker neue, inspirierende Einblicke. Vor allem Studenten und Absolventen naturwissenschaftlicher und medizinischer Fachrichtungen, (Oberstufen-)Schüler aber auch am Thema Evolution interessierte Laien werden (mit etwas "Nach-Googeln") das Buch mit Gewinn lesen.

Addendum: In einer zweiten Auflage sollte der Verlag die chemischen Strukturformeln in einer dem heutigen Usus adäquaten Form wiedergeben.


 [1] In der Reihe De Gruyter De Gruyter Populärwissenschaftliche Reihe:

Bühner, Manfred. Wie alles anfing: Von Molekülen über Einzeller zum Menschen, Berlin, Boston: De Gruyter, 2022. https://doi.org/10.1515/9783110783155


 

Artikel im ScienceBlog zu verwandten Themen

inge Thu, 24.11.2022 - 00:41

Eine rasche Senkung der Methanemissionen ist erforderlich

Eine rasche Senkung der Methanemissionen ist erforderlich

Do, 17.11.2022 — IIASA

IIASA Logo

Icon Klima

Die vom Menschen verursachten Methanemissionen sind für fast 45 % der derzeitigen Nettoerwärmung verantwortlich. Der von der Climate and Clean Air Coalition herausgegebene und von der IIASA-Forscherin Lena Höglund-Isaksson mitverfasste Bericht "Global Methane Assessment 2030 Baseline Report" bewertet die Fortschritte bei den globalen Reduktionsbemühungen. Wenn die Welt den globalen Temperaturanstieg unter den Zielwerten von 1,5° und 2°C halten will, sind rasche Maßnahmen erforderlich.*

Während der Zusammenhang zwischen Kohlendioxid (CO2)-Emissionen und steigenden Temperaturen weithin bekannt ist, findet die Rolle von Methan als Treiber des Klimawandels in der Öffentlichkeit im Allgemeinen weniger Beachtung. Die Methankonzentrationen in der Atmosphäre steigen rapide an, was zu einem überwiegendem Teil auf Emissionen aus menschlichen Tätigkeiten zurückzuführen ist. Sie liegen derzeit bei 260 % des vorindustriellen Niveaus und betragen jährlich zwischen 350 und 390 Millionen Tonnen. Um die globale Erwärmung in den nächsten Jahrzehnten einzudämmen, muss die CO2-Reduzierung durch rasche und wirksame Maßnahmen zur Verringerung von Methan und anderen Klimaschadstoffen ergänzt werden. Abbildung 1.

Abbildung 1. Gewinnung fossiler Brennstoffe, Landwirtschaft und Abfallwirtschaft sind Hauptverursacher anthropogener Methanemissionen. (Bild von Red. aus "Global Methane Assessment: 2030 Baseline Report" [1] eingefügt; Lizenz: cc-by-nc).

In Anlehnung an den Bericht Global Methane Assessment 2021: "Benefits and Costs of Mitigating Methane Emissions" (Nutzen und Kosten der Minderung von Methanemissionen) der Climate and Clean Air Coalition (CCAC), einer Plattform unter dem Dach des Umweltprogramms der Vereinten Nationen (UNEP), nimmt der neu veröffentlichte 2030 Baseline Report [1] eine Bestandsaufnahme der derzeitigen Bemühungen vor und prognostiziert die anthropogenen Methanemissionen unter verschiedenen Basisszenarien. Die Basisszenarien für die Emissionen gehen von der Umsetzung bestehender Strategien und Verpflichtungen aus, beinhalten aber keine zusätzlichen Minderungsmaßnahmen.

Die Landwirtschaft, die Abfallwirtschaft, die Gewinnung fossiler Brennstoffe und die offene Verbrennung von Biomasse sind die wichtigsten Quellen für anthropogenes Methan. Abbildung 2.

Abbildung 2. Geschätzte anthropogene Methanemissionen für 2020 (2019) nach Sektoren/Subsektoren. Quellen: EPA: US Environmental Protection Agency; IIASA, CEDS:US Comprehensive Economic Development Strategy, EDGAR: EU- The Emissions Database for Global Atmospheric Research (Bild von Redn. aus [1] eingefügt, cc-by-nc-Lizenz).

In dem Bericht wird hervorgehoben, dass die weltweiten Methanemissionen ohne ernsthafte Anstrengungen weiter ansteigen werden. Bis 2030 wird mit einem Anstieg um 5-13 % gegenüber 2020 gerechnet, wobei der größte Anstieg im Agrarsektor erwartet wird. Least-Cost-Szenarien zur Begrenzung der Erwärmung auf 1,5°C erfordern bis 2030 eine Verringerung der Methanemissionen: bezogen auf die Emissionen von 2020 um etwa 60 % aus fossilen Brennstoffen, 30-35 % aus Abfällen und 20-25 % aus der Landwirtschaft.

Um dies zu erreichen, bedarf es umfassender, gezielter und vor allem sozial gerechter Maßnahmen:

"Für die Sektoren der fossilen Brennstoffe brauchen wir einen Rechtsrahmen, der sicherstellt, dass die vorhandenen Technologien von der Industrie umgesetzt und genutzt werden. Bei den Sektoren Abfall und Landwirtschaft müssen die sozioökonomischen Auswirkungen des Wandels berücksichtigt werden, um sicherzustellen, dass arme Menschen und Angehörige benachteiligter Gruppen an den Lösungen beteiligt werden. So wird sichergestellt, dass Veränderungen die bestehenden Probleme dieser Gruppen nicht noch verschlimmern", sagt Lena Höglund-Isaksson, Mitverfasserin des Berichts und leitende Forscherin in der IIASA-Forschungsgruppe für Pollution-Management.

Auf der Konferenz der Vertragsparteien 2021 (COP26) in Glasgow wurde die Globale Methanverpflichtung (GMP) ins Leben gerufen, die die umfassenderen CO2-Bemühungen ergänzt, die allein nicht ausreichen, um an die 1,5°C-Szenarien anzupassen. Im Rahmen der GMP einigten sich die Teilnehmer darauf, gemeinsame Maßnahmen zu ergreifen, um die anthropogenen Methanemissionen bis 2030 um mindestens 30 % gegenüber dem Stand von 2020 zu senken. Bis August 2022 haben sich mehr als 120 Länder dieser Verpflichtung angeschlossen. Abbildung 3.

Abbildung 3. Projektierte Reduktionen der Methanemissionen 2020 bis 2030 nach Regionen und Sektoren. (Bild von Redn. aus [1] eingefügt, Lizemz cc-by-nc).

Die Verwirklichung der GMP-Ziele würde die Erwärmung zwischen 2040 und 2070 um mindestens 0,2°C verringern und darüber hinaus jährlich etwa 6 Millionen vorzeitige Todesfälle aufgrund von Ozonbelastung verhindern, den Verlust von fast 580 Millionen Tonnen an Ernteeinbußen vermeiden, Kosten in Höhe von 500 Milliarden US-Dollar aufgrund von Gesundheitsschäden, die nicht auf Todesfälle zurückzuführen sind, sowie Kosten für die Forst- und Landwirtschaft vermeiden und den Verlust von 1.600 Milliarden Arbeitsstunden aufgrund von Hitzebelastung verhindern. Zusammenfassend lässt sich sagen, dass bei fast 85 % der gezielten Maßnahmen der Nutzen die Kosten überwiegt.

Der Bericht macht jedoch deutlich, dass die derzeitigen Strategien und Maßnahmen zwar ein Schritt in die richtige Richtung sind, aber noch mehr getan werden muss. Die GMP deckt nur die Hälfte der weltweiten anthropogenen Methanemissionen ab, und nur ein Bruchteil der Länder hat explizite Maßnahmen vorgeschlagen, um ihre Minderungsziele zu erreichen. Es müssen mehr Unterzeichnerländer an Bord geholt werden, und die derzeitigen Verpflichtungen müssen erweitert werden.

"Wir müssen in allen Sektoren eine erhebliche Verringerung erreichen, und zwar jetzt. Die rasche Umsetzung der Methanemissionskontrolle ist eine der wenigen Optionen, die uns bleiben, um die globale Erwärmung in den nächsten Jahrzehnten auf einem beherrschbaren Niveau zu halten", so Höglund-Isaksson.

-----------------------------------------------------------

[1] United Nations Environment Programme/Climate and Clean Air Coalition (2022). Global Methane Assessment: 2030 Baseline Report. Nairobi. https://www.ccacoalition.org/en/resources/global-methane-assessment-2030-baseline-report


 *Der Artikel von Lena Höglund Isaksson "The need for rapid methane mitigation" https://iiasa.ac.at/news/nov-2022/need-for-rapid-methane-mitigation ist am 16. November 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Abbildungen aus dem Global Methane Assessment: 2030 Baseline Report [1] ergänzt (Lizenz: cc-by-nc). IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Einige Artikel über Methanemissionen im ScienceBlog


 

inge Thu, 17.11.2022 - 00:21

Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt

Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt

Do, 10.11.2022 — Roland Wengenmayr

Icon Klima

Roland Wengenmayr „Es ist eindeutig, dass der Einfluss des Menschen die Atmosphäre, die Ozeane und die Landflächen erwärmt hat“, stellt der Sachstandsbericht 6 (AR6) des Weltklimarats IPCC fest: „Eine globale Erwärmung von 1,5 °C und 2 °C wird im Laufe des 21. Jahrhunderts überschritten werden, außer es erfolgen in den kommenden Jahrzehnten drastische Verringerungen der CO2– und anderer Treibhausgasemissionen.“ Solche Kernaussagen sind das Ergebnis einer weltweiten Zusammenarbeit von 270 Forschenden aus verschiedenen Spezialgebieten. Mit dabei ist Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie in Hamburg. Der AR6-Bericht basiert auf vielen Messdaten, Beobachtungen sowie Klimamodellen, wie sie Marotzke mit seiner Abteilung entwickelt. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet darüber.*

Die Lage ist ernst, aber Jochem Marotzke legt Wert darauf, der jungen Generation Mut zu machen. Es sei nicht zu spät, betont er, wir können etwas gegen die weitere Klimaerwärmung tun. Physikalische Gesetze schaffen die Grundlage, dass wir eine lebensfeindliche Heißzeit verhindern können. „Es wäre also ein fataler Fehler, in eine Angstlähmung zu verfallen, denn dann handelt man nicht.“ Handeln müssen wir aber, denn eines ist klar: Solange wir Menschen weiter Kohlenstoffdioxid ausstoßen, wird es wärmer. Je schneller wir unseren Ausstoß an Treibhausgasen in der Gesamtbilanz auf „Netto-Null“ herunterschrauben können, desto früher wird auch die Erderwärmung gestoppt. Netto-Null heißt, dass der dann noch vorhandene Treibhausgas-Ausstoß der Menschheit vollständig mit nachhaltigen Maßnahmen ausgeglichen wird.

Energieflüsse im Modell

Wer in das Gebiet der Klimamodelle eintauchen will, muss zuerst verstehen, wie das komplexe Klimasystem der Erde grundsätzlich funktioniert. Und wie der Mensch es beeinflusst. Dabei hat die Physik ihren Auftritt, denn beim Erdklima geht es global gesehen um eine Bilanz von Energieflüssen. Diese lassen sich in Watt pro Quadratmeter ausdrücken. Axel Kleidon, Klimaforscher am Max-Planck-Institut für Biogeochemie in Jena, hat ein physikalisches Modell mit drei Fällen aufgestellt. Für die Energiezufuhr sorgt die Sonne. Ihre Strahlung trifft auf die Erdatmosphäre, mit einem globalen Mittelwert von 342 W/m2 (Abbildung 1, Fall A). Davon werden durch Schnee und Eis auf der Erdoberfläche und durch Wolken 102 W/m2, also knapp 30 %, zurück ins Weltall reflektiert. Es verbleiben somit 240 W/m2, die auf den Erdboden treffen und ihn aufwärmen. Sobald sich ein Gleichgewicht eingestellt hat, strahlt der Boden die 240 W/m2, umgewandelt in Form von Infrarotstrahlung, wieder ins Weltall ab. In diesem Fall A würde sich die Bodentemperatur theoretisch bei einem globalen Mittelwert von –18 °C einpendeln. Das kann man mit Hilfe der sogenannten Schwarzkörper-Strahlung ausrechnen, die das Stefan-Boltzmann-Gesetz beschreibt. Ohne Treibhauseffekt wäre die Erde also eingefroren. „Tatsächlich würde sie sogar noch kälter werden“, sagt Jochem Marotzke. Die einfache Abschätzung berücksichtigt nämlich nicht, dass die durch Eis und Schnee hellere Oberfläche mehr Sonnenstrahlung als heute ins All zurückreflektieren würde. Dieses Rückstrahlvermögen heißt Albedo, und eine „Schneeballerde“ hätte eine viel größere Albedo als die heutige Erde.

Abbildung 1. . Energiebilanz im einfachen Klimamodell. Die Fälle der Energiebilanz in der Erdatmosphäre werden von A bis C genauer. Die drei Säulen pro Fall zeigen jeweils von links nach rechts: Solarstrahlung, Abstrahlung des Bodens, Konvektion. Die Konvektion ist nur im Fall C berücksichtigt, der rote Pfeil symbolisiert die Wärmeenergie der Luft, der blaue Pfeil die im Dampf gespeicherte latente Wärme. Fall C ergibt eine global gemittelte Bodentemperatur von durchschnittlich 17 °C, was schon sehr nahe an den realen 15 °C ist.© A. Kleidon, R. Wengenmayr / CC BY-NC-SA 4.0

Davor rettet uns der natürliche Treibhauseffekt, zusammen mit den Wolken. „Das wirkt wie ein warmer Mantel um die Erde“, sagt Marotzke. Wenn das Licht der Sonne in die Atmosphäre eindringt, absorbieren zunächst Ozon und Wasserdampf einen Teil davon, sodass im globalen Mittel nur 165 W/m2 den Boden erreichen (Abbildung 1, Fall B). Der eigentliche Treibhauseffekt entsteht, sobald die vom Boden ausgesandte Infrarotstrahlung sich auf den Weg ins Weltall macht. Sie trifft nun wieder auf Wassermoleküle, CO2 und weitere Treibhausgase. Moleküle, die aus drei und mehr unterschiedlichen Atomen bestehen, absorbieren wie kleine Antennen Energie aus der langwelligen Infrarotstrahlung. Diese Energie geben sie über Stöße an die Nachbarmoleküle in der Luft ab, und deren stärkere Bewegung lässt die Temperatur der Atmosphäre steigen. Obwohl Treibhausgase nur Spurengase geringer Konzentration in der Atmosphäre sind, entfalten sie so eine große Wirkung. Sie senden nun selbst mehr Infrarotstrahlung zur Erdoberfläche zurück, im globalen Mittel 347 W/m2. Als Folge erwärmt sich der Boden immer weiter, strahlt aber auch stärker im Infraroten ab. Schließlich stellt sich bei einer Bodenabstrahlung von 512 W/m2 ein neues Gleichgewicht in der Strahlungsbilanz ein. Dadurch steigt nun allerdings die Lufttemperatur am Boden auf einen globalen Mittelwert von 35 °C!

Das ist viel zu warm im Vergleich zur realen Erde. Es fehlt noch ein dritter, stark kühlender Mechanismus der Atmosphäre und der Erdoberfläche (Abbildung 1, Fall C): die Konvektion. Ihre Bedeutung erkannte der japanisch-amerikanische Klimaforscher Syukuro Manabe, als er Anfang der 1960er-Jahren erste, noch sehr einfache Klimamodelle entwickelte. Im Jahr 2021 erhielt er gemeinsam mit Klaus Hasselmann, dem Gründungsdirektor des Max-Planck-Instituts für Meteorologie, für Pionierarbeiten zur Klimaforschung den Nobelpreis für Physik. Konvektion entsteht, weil vom Boden aufgewärmte Luft wie ein Heißluftballon aufsteigt, sich in der Atmosphäre abkühlt und wieder herunterfällt. Dieser Kreislauf transportiert Wasserdampf hinauf zu den Wolken. Wenn Wasser aus dem Boden verdampft, nimmt es sehr viel Energie auf. Diese latente Wärme plus die Wärme in der aufgeheizten Luft werden dem Boden entzogen und kühlen ihn. So gelangen im Gleichgewicht zusätzliche 112 W/m2 in die Atmosphäre. Damit pendelt sich der globale Mittelwert der Bodentemperatur bei rund 17 °C ein. Kleidons einfache Abschätzung kommt dem tatsächlichen Wert von etwa 15 °C erstaunlich nahe. Der Fall C beschreibt das Klimasystem der Erde in einem Gleichgewicht vor dem Zeitalter der Industrialisierung. Danach begann der Mensch, immer mehr fossile Brennstoffe wie Kohle, später auch Erdöl und Erdgas, zu verbrennen. Dadurch gelangten zusätzliche Treibhausgase in die Atmosphäre, vor allem CO2. Dessen Konzentration ist seit 1750 durch menschliche Aktivitäten um etwa die Hälfte angestiegen.

Entscheidende Rückkopplungen

„Dieser Treibhausgas-Ausstoß des Menschen wirkt wie eine zusätzliche Wärmedecke um die Erde“, sagt Marotzke. Entsprechend verschiebt sich das Gleichgewicht in der Bilanz der Strahlungsflüsse. Was da genau geschieht, will die Klimaforschung herausfinden. Entscheidend sind die Rückkopplungen im Klimasystem. Eine Rückkopplung ist die Albedo der Erdoberfläche, die abnimmt, wenn die hellen Eisflächen im wärmeren Klima schrumpfen. Sie beschleunigt somit die Erderwärmung, was durch einen positiven Rückkopplungsparameter beschrieben wird. Der aktuelle IPCC-Bericht nennt dafür einen geschätzten Zahlenwert von +0,35 W/(m2 • K). Den stärksten positiven Rückkopplungsparameter mit +1,3 W/(m2 • K) bringen zusätzlicher Wasserdampf und die Temperaturzunahme der Luft in die Bilanz ein. Wolken kommen mit +0,42 W/(m2 • K) dazu. Gäbe es also nur diese positiven Rückkopplungen im Klimasystem, dann würde die Erde tödliches Fieber bekommen.

Abbildung 2. Das Stefan-Boltzmann-Gesetz beschreibt, welche Wärmestrahlung ein idealer schwarzer Körper in Abhängigkeit von der Temperatur abstrahlt. Für die Erde ist das zwar eine Idealisierung, kommt aber ihrem Verhalten sehr nahe. Eingezeichnet sind hier die Strahlungsleistungen bei -18 °C (ohne Treibhausgase) und den 17 °C nach dem einfachen Modell von Abbildung 1, Fall C. Die tatsächliche, global gemittelte Bodentemperatur liegt bei ungefähr 15 °C, also etwas darunter. © R. Wengenmayr / CC BY-NC-SA 4.0

Dem wirkt aber ein starker Kühlmechanismus entgegen: die negative Planck-Rückkopplung. Sie gleicht mit geschätzten -3,22 W/(m2 • K) alle positiven Rückkopplungen mehr als aus. Das gilt auch für den Effekt der zusätzlichen Treibhausgase aus auftauenden Permafrostböden. Unter Berücksichtigung der Rückkopplungen von Biosphäre und Geologie, die ebenfalls negativ wirken, kommt der AR6-Bericht in der Bilanz auf einen geschätzten Rückkopplungswert von -1,16 W/(m2 • K). Hinter dieser Rettung steckt die schon erwähnte Schwarzkörper-Strahlung. Damit lässt sich beschreiben, wie sich das Abstrahlverhalten der Erde mit der Temperatur (T) verändert. Die Formel dafür liefert die Physik in Form des Stefan-Boltzmann-Gesetzes: Danach steigt der in den Kosmos zurückgestrahlte Energiefluss mit T4 an! An diese Kurve (Abbildung 2) können wir bei der aktuellen, globalen Mitteltemperatur von 17 °C am Boden eine Gerade anlegen. Diese hat dann eine Steigung, die dem Wert 3,22 W/(m2 • K) der Planck-Rückkopplung entspricht.

Eine entscheidende Frage in diesem Zusammenhang ist, ob es im Klimasystem sogenannte „Kippelemente“ gibt und wo sie liegen. Ein Teil der Klimaforschenden geht davon aus, dass etwa die Permafrostböden oder das Eisschild von Grönland zu den Kippelementen zählen. Übersteigt die Klimaerwärmung einen gewissen Punkt, könnten diese unumkehrbar zu schmelzen beginnen. Welche Kippelemente es im Klimasystem möglicherweise gibt und bei welchem Anstieg der mittleren globalen Temperatur sie umkippen könnten, wird kontrovers diskutiert.

Die Klimasensitivität

Hier kommt eine wichtige Größe ins Spiel: die Gleichgewichts-Klimasensitivität, abgekürzt ECS für „Equilibrium Climate Sensitivity“. Dieser Begriff geht auf eine Pionierarbeit zum Treibhauseffekt zurück, die der schwedische Physiker und Chemiker Svante Arrhenius 1896 veröffentlichte. Im Kern geht es um die Frage, wie sich die umhüllende Wärmedecke verhält, wenn das Klima wärmer wird. „Die Wirkung der ECS können wir uns in einem Gedankenexperiment vorstellen, in dem wir die CO2-Konzentration in der Atmosphäre verdoppeln“, sagt Marotzke: „Dann stellt sie die global gemittelte Erwärmung der Erdoberfläche dar, die sich langfristig im neuen Gleichgewicht einstellt.“

Eine der großen Herausforderungen besteht darin, den Wert der ECS einzugrenzen. Viele Jahre lang blieb sie hartnäckig in einer Spanne zwischen 1,5 und 4,5 °C stecken. Der AR6-Bericht konnte nun endlich diese Unsicherheit verkleinern, auf eine wahrscheinliche Spanne von 2,5 bis 4 °C. Diese Reduktion um 1,5 °C klingt nach nicht viel. Sie ist aber ein großer Schritt, um genauere Aussagen darüber machen zu können, wie viel Treibhausgase die Menschheit noch ausstoßen darf, um das Pariser Klimaziel von 1,5 °C einhalten zu können. Auf jeden Fall wird das knapp! Der globale Mittelwert der Bodentemperatur ist seit Beginn verlässlicher Wetteraufzeichnungen bereits um 1,2 °C angestiegen, in Deutschland seit 1881 sogar schon um 1,6 °C.

Das einfache physikalische Modell der Strahlungsbilanz (Abbildung 1) kann die mittlere Oberflächentemperatur verblüffend gut errechnen. Will man aber genauere Aussagen treffen, etwa über regionale Veränderungen, dann braucht man Klimamodelle. Davor beantwortet Jochem Marotzke noch die Frage, warum CO2 eine so dominante Rolle im Treibhaus der Erde spielt. Schließlich sorgt Wasserdampf für einen stärkeren Treibhauseffekt. „Der Wasserdampf ist aber sozusagen der Sklave des CO2“, entgegnet der Forscher. Ursache ist dessen kurze Aufenthaltsdauer im Klimasystem. Das Wasser in der Luft wird ungefähr alle zehn Tage komplett erneuert. „Das CO2 hingegen hat eine viel längere Verweildauer“, erläutert er. „Ein Viertel davon bleibt für Jahrhunderte in der Luft!“ Deshalb steuert das CO2 in seiner Trägheit das Klima, während der schnelllebige Wasserkreislauf sich an die Temperaturveränderung anpassen muss.

Schnell folgt langsam

Diese Erkenntnis, dass im Klima ein schnelles System immer einem langsamen folgen muss, geht vor allem auf Klaus Hasselmann zurück. Der Nobelpreisträger baute darauf zwei bedeutende Pionierarbeiten auf. Darin untersuchte er das Zusammenspiel der Ozeane mit der Atmosphäre. Der riesige Wasserkörper der Meere reagiert sehr langsam auf Klimaveränderungen, er ist das Langzeitgedächtnis. Damit diktieren die langsamen Ozeane der viel schneller reagierenden Atmosphäre langfristige Klimatrends. Man kann das mit einem Menschen vergleichen, der einen unerzogenen Hund an der Leine hält. Der Hund rennt wild hin und her und lässt dadurch den Menschen scheinbar ziellos herumtorkeln. Wenn man länger zuschaut, sieht man jedoch, wie das langsame System Mensch das schnelle System Hund allmählich in die Richtung zwingt, in die der Mensch will. Wie aber kann man einen solchen Trend bereits im chaotischen Bewegungsmuster des Pärchens Mensch-Hund ausmachen, wenn er für das bloße Auge noch gar nicht erkennbar ist? Das entspricht der Frage, die sich Hasselmann gestellt hat: Wie kann man den menschlichen Klima-Handabdruck zweifelsfrei nachweisen, obwohl er sich als winziges Signal im chaotischen Rauschen der täglichen Wetterschwankungen verbirgt? Dieser Nachweis gelang dem Forscher in seiner zweiten Pionierarbeit.

Wie funktionieren Klimamodelle?

„Klimamodelle kann man sich als digitale Zwillinge der Erde vorstellen“, führt Marotzke in sein Forschungsgebiet ein (Abbildung 3). Die Modelle können aber nicht jedes Wassertröpfchen oder gar Molekül nachbilden, das würde alle Supercomputer weit überfordern. Stattdessen besteht der digitale Zwilling aus einem erdumspannenden, dreidimensionalen Netz aus mathematischen Zellen. Diese Zellen erfassen die Atmosphäre, den Boden bis in eine Tiefe von etwa zehn Metern, sowie den Wasserkörper der Ozeane. Für jede Zelle wird bilanziert, welche Energie und welche Masse hinein- und wieder herausströmt. „Es geht also um Energie- und Impulsänderungen, um die Erhaltungssätze der Physik“, sagt der Forscher. Damit lässt sich ausrechnen, wie sich der Energie- und Impulsinhalt jeder Zelle ändert. „Aus dem Energieinhalt können wir die Temperatur ausrechnen, aus der Temperatur die Dichte und daraus den Luftdruck“, erklärt er weiter. Das führt wiederum zu den Windgeschwindigkeiten. In der Atmosphäre wird es allerdings dadurch kompliziert, dass Phasenübergänge stattfinden können: Wasser verdampft, kondensiert wieder zu Tröpfchen oder friert sogar aus.

Abbildung 3. Module eines Klimamodells, wie sie am MPI für Meteorologie entwickelt und eingesetzt werden. Die einzelnen Elemente (farbige Boxen) werden über den Austausch von Energie, Impuls, Wasser und Kohlenstoff miteinander gekoppelt. Das „O.-A.-Koppler“-Modul (rot) simuliert den besonders wichtigen Austausch zwischen Ozean und Atmosphäre. Physikalische, biologische, chemische und geologische Prozesse werden berücksichtigt. Eine zentrale Rolle spielt der Kohlenstoffkreislauf (braune Pfeile, s. auch [1]). © MPI für Meteorologie / CC BY 4.0

Das Computerprogramm rechnet nun in Zeitschritten die Mittelwerte für alle Zellen aus. Hierin unterscheiden sich Klimamodelle nicht von Wettermodellen. Allerdings müssen Klimamodelle in der Regel einige Jahrzehnte bis Jahrhunderte erfassen. Deshalb ist ihr Netz an Zellen viel grobmaschiger, um die Rechenleistung der Computer nicht zu sprengen. Als Folge fallen feine, aber wichtige Elemente des Klimasystems durch das Raster. Forschende müssen Schätzungen einsetzen, was die Genauigkeit reduziert. Außerdem starten Klimamodelle nicht mit Wetterdaten für einen Tag X, wie Wettermodelle. Stattdessen werden sie mit Annahmen über die Entwicklung von Treibhausgasen gefüttert. Diese beruhen auf verschiedenen Szenarien der gesellschaftlichen Entwicklung. Der AR6-Bericht arbeitet mit fünf Szenarien: Im extremen „Weiter-so“-Szenario steigt der CO2-Ausstoß der Menschheit ungebremst an, im günstigsten Szenario kann sie diese Emissionen sehr bald auf Netto-Null reduzieren. Im ersteren Fall würden wir am Ende des 21. Jahrhunderts bei einer um fast fünf Grad aufgeheizten Erde im Vergleich zur Mitte des 19. Jahrhunderts landen. Das Ergebnis wäre ein radikal veränderter Planet mit einigen Regionen, die wahrscheinlich nicht mehr bewohnbar wären.

Blick in die Zukunft

Abbildung 4. Simulation einer Wetterlage mit zwei Klimamodellen. Das Modell mit Zellen von 2,5 km Breite (rechts) erfasst die Wolkenstrukturen viel feiner als das Modell mit 80-km-Zellen (links). Das ermöglicht genauere Klimavorhersagen.© F. Ziemen, DKRZ

Aber woher weiß man, wie gut ein Klimamodell funktioniert? Dazu muss es als Test die Klimaentwicklung der Vergangenheit simulieren (s. [2]). Heutige Klimamodelle können das sehr genau. Ihre Problemzone ist die immer noch geringe Auflösung, typische Zellengrößen liegen bei 150 km. Das erschwert auch Aussagen über regionale Klimaentwicklungen. Deshalb forschen die Hamburger an hochauflösenden Klimamodellen, die mit viel feineren Zellen auch kleinräumige Prozesse in der Atmosphäre physikalisch genau beschreiben können. Im Projekt „Sapphire“ konnte ein Team um Cathy Hohenegger und Daniel Klocke am Institut schon großräumige Klimavorgänge in einer Auflösung von 2,5 Kilometern und noch feiner simulieren. Damit wird auch die Simulation von Wolken realistischer, die eine wichtige Rolle im Klima spielen (Abbildung 4). Eine schlankere Programmierung und leistungsfähigere Computer machen dies möglich.

In Zukunft werden Klimamodelle die Erde immer kleinräumiger erfassen können. Sie erlauben damit genauere Aussagen über die Folgen des menschlichen Handabdrucks im Klima. Das betrifft zum Beispiel regionale Zunahmen von Extremwetterlagen (s. [3]). Eines ist klar: Jedes eingesparte Kilogramm CO2 ist eine Investition in die Zukunft!

---------------------------------------------------------

 [1]Elke Maier: Geomax 22: Das sechste Element - Wie Forschung nach Kohlenstoff fahndet. https://www.max-wissen.de/max-hefte/geomax-22-kohlenstoffkreislauf/

[2] Geomax 19: Der Fingerabdruck des Monsuns - Wie Forschende im Buch der Klimageschichte blättern. https://www.max-wissen.de/max-hefte/geomax-19-monsun/

[3] Elke Maier: Geomax 25: Wetter extrem - Wenn sich Hitzewellen, Stürme und Starkregen häufen. https://www.max-wissen.de/max-hefte/geomax-25-wetter-extrem/


 * Der Artikel unter dem Titel: "Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt" stammt aus dem TECHMAX 31-Heft der Max-Planck-Gesellschaft, das im November 2022 erschienen ist ((https://www.max-wissen.de/max-hefte/digitale-zwillinge-der-erde/). Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog übernommen.


Weiterführende Links

Jochen Marotzke: Im Maschinenraum des neuen IPCC-Berichts - Der 6. Sachstandsbericht des Weltklimarats (2.November 2022) Physik in unserer Zeit. https://doi.org/10.1002/piuz.202201651 (open access)

UBA-Erklärfilm: Treibhausgase und Treibhauseffekt. Video 4:10 min. https://www.youtube.com/watch?v=eI8L3wV3pBo 

6. IPCC-Sachstandsbericht:  https://www.ipcc.ch/assessment-report/ar6/

IIASA, 07.04.2022: Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

 Klimamodelle im ScienceBlog

(Artikelserie der britischen Plattform Carbon Brief - https://www.carbonbrief.org/)

[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch?

[5] Teil 5 (20.09.2018).: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

[6] Teil 6 (1.11.2018): Klimamodelle: wie werden diese validiert?

Teil 7 (06.12.2018): Grenzen der Klimamodellierungen


 

inge Thu, 10.11.2022 - 00:17

Comments

Wolfbeis (not verified)

Thu, 24.11.2022 - 13:10

Es ist alles schon gesagt, aber offensichtlich noch nicht von allen . . .

NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

Do, 3.11.2022 — Redaktion

Redaktion

Icon Astronomie

Im Juli 2022 hat die NASA eine neue Weltraummission zur "Untersuchung von Mineralstaubquellen an der Erdoberfläche (Earth Surface Mineral Dust Source Investigation - EMIT) gestartet. Mit Hilfe eines an der Internationalen Raumstation angedockten, bildgebenden Spektrometers sollen die Mineralstaubquellen auf der Erdoberfläche charakterisiert und kartiert werden. Man erhofft daraus besser verstehen zu können, welche Auswirkungen atmosphärischer Mineralstaub auf das Klima hat. Das Spektrometer zeigt noch eine weitere, für den Kampf gegen den Klimawandel entscheidende Anwendungsmöglichkeit: es kann auch Emissionen des starken Treibhausgases Methan aufspüren und hat bereits mehr als 50 "Super-Emitter" identifiziert.*

Die NASA-Mission EMIT (Earth Surface Mineral Dust Source Investigation) kartiert das Vorkommen wichtiger Mineralien in den staubproduzierenden Wüsten der Erde - es sind Informationen, die uns helfen werden die Auswirkungen von atmosphärischem Staub auf das Klima zu verstehen. Darüber hinaus hat EMIT aber noch eine weitere, enorm wichtige Anwendungsmöglichkeit gezeigt: es kann das starke Treibhausgas Methan nachweisen.

Mit den Daten, die EMIT seit seiner Installation auf der Internationalen Raumstation im Juli gesammelt hat, konnten die Wissenschaftler bereits mehr als 50 "Super-Emitter" identifizieren: in Zentralasien, im Nahen Osten und im Südwesten der Vereinigten Staaten. "Super-Emittenten" sind typischerweise in den Bereichen fossile Brennstoff-Förderung, Abfallwirtschaft oder Landwirtschaft mit hohem Methanausstoß angesiedelt.

"Die Eindämmung der Methanemissionen ist ein Schlüssel zur Eindämmung der globalen Erwärmung. Diese aufregende neue Entwicklung wird den Forschern nicht nur dabei helfen, präziser festzulegen, woher die Methanlecks kommen, sondern auch Aufschluss darüber geben, wie sie beseitigt werden können - und zwar schnell", sagt NASA-Administrator Bill Nelson. "Die Internationale Raumstation und die mehr als zwei Dutzend Satelliten und Instrumente der NASA im Weltraum sind seit langem von unschätzbarem Wert, um Veränderungen des Erdklima festzustellen. EMIT erweist sich als ein wichtiges Instrument in unserem Werkzeugkasten, um dieses starke Treibhausgas zu messen - und es an der Quelle zu stoppen."

Methan absorbiert infrarotes Licht in charakteristischer Weise - es gibt eine sogenannten spektralen Fingerabdruck, den das bildgebende Spektrometer von EMIT mit hoher Genauigkeit und Präzision detektieren kann. Abbildung 1. Das Instrument kann zusätzlich auch Kohlendioxid messen.

Abbildung 1. Daten vom bildgebenden Spektrometer. Der Würfel (links) zeigt auf der Vorderseite Methanfahnen (lila, orange, gelb) über Turkmenistan (siehe auch Abbildung 3). Die Regenbogenfarben an den Seiten sind die spektralen Fingerabdrücke der entsprechenden Punkte auf der Vorderseite. Die blaue Linie im Diagramm (rechts) zeigt den Methan-Fingerabdruck, den EMIT entdeckt hat; die rote Linie ist der erwartete Fingerabdruck, der auf einer atmosphärischen Simulation beruht. Credits: NASA/JPL-Caltech

Die neuen Befunde stammen aus dem breiten Bereich des Planeten, der von der umkreisenden Raumstation erfasst wird, sowie aus der Fähigkeit von EMIT, Streifen der Erdoberfläche zu scannen, die Dutzende von Kilometern breit sind, und dabei Bereiche aufzulösen, die so klein sind wie ein Fußballfeld sind.

"Die Ergebnisse sind spektakulär und zeigen, wie wertvoll es ist, eine Perspektive auf globaler Ebene mit der Auflösung zu verbinden, die für die Identifizierung von Methan-Punktquellen bis hinunter auf die Ebene der Anlagen erforderlich ist", sagt David Thompson, EMIT-Forschungstechniker; er ist Senior-Forscher am Jet Propulsion Laboratory der NASA in Südkalifornien, das die Mission leitet. "Es handelt sich um eine einzigartige Fähigkeit, welche die Messlatte für Bestrebungen zur Zuordnung von Methanquellen und Eindämmung von anthropogenen Emissionen höher legen wird."

Verglichen mit Kohlendioxid macht Methan nur einen Bruchteil der vom Menschen verursachten Treibhausgasemissionen aus. Es Ist aber in den 20 Jahren nach seiner Freisetzung etwa 80-mal wirksamer in der Speicherung von Wärme in der Atmosphäre als Kohlendioxid. Während Kohlendioxid in der Atmosphäre Jahrhunderte überdauert, hält sich Methan etwa ein Jahrzehnt; dies bedeutet, dass die Atmosphäre auf eine Verringerung der Emissionen in einem ähnlichen Zeitrahmen reagiert und dies zu einer verlangsamten kurzfristigen Erwärmung führt.

Die Identifizierung von punktuellen Methanquellen kann ein wichtiger Schritt in diesem Prozess sein. Mit dem Wissen um die Standorte der großen Emittenten können die Betreiber von Anlagen, Ausrüstungen und Infrastrukturen, die das Gas freisetzen, schnell handeln, um die Emissionen zu begrenzen.

Die Feststellung von Methan durch EMIT erfolgte, als die Wissenschaftler die Genauigkeit der Mineraldaten des bildgebenden Spektrometers überprüften. Während seiner Mission wird EMIT Messungen von Oberflächenmineralien in trockenen Regionen Afrikas, Asiens, Nord- und Südamerikas und Australiens durchführen. Die Daten werden den Forschern helfen, die Rolle der Staubpartikel in der Luft bei der Erwärmung und Abkühlung der Erdatmosphäre und -oberfläche besser zu verstehen.

"Wir sind sehr gespannt darauf, wie die EMIT-Mineraldaten die Klimamodellierung verbessern werden", sagte Kate Calvin, leitende Wissenschaftlerin und Klimaberaterin der NASA. "Die zusätzliche Fähigkeit zum Nachweis von Methan bietet eine bemerkenswerte Möglichkeit zur Messung und Überwachung von Treibhausgasen, die zum Klimawandel beitragen."

Methanfahnen aufspüren

Das Untersuchungsgebiet der Mission deckt sich mit bekannten Methan-Hotspots auf der ganzen Welt, was es den Forschern ermöglicht, in diesen Regionen nach dem Gas zu suchen und die Fähigkeiten des bildgebenden Spektrometers zu testen.

Abbildung 2. Methanfahne über einem Ölfeld. Eine 3 km lange Methanfahne, die von der NASA-Mission Earth Surface Mineral Dust Source Investigation südöstlich von Carlsbad, New Mexico, entdeckt wurde. Methan ist ein starkes Treibhausgas, das die Wärme in der Atmosphäre viel effektiver als Kohlendioxid speichert. Credits: NASA/JPL-Caltech

"Einige der von EMIT entdeckten Methanfahnen gehören zu den größten, die je gesehen wurden - anders als alles, was bisher aus dem Weltraum beobachtet wurde", sagt Andrew Thorpe, ein Forschungstechniker am Jet Propulsion Laboratory (JPL) der NASA, der die EMIT-Methanforschung leitet. "Was wir in der kurzen Zeit gefunden haben, übertrifft bereits unsere Erwartungen".

So entdeckte das Instrument beispielsweise eine etwa 3,3 Kilometer lange Abgasfahne südöstlich von Carlsbad, New Mexico, im Permian Basin. Das Permian-Becken ist eines der größten Ölfelder der Welt und erstreckt sich über Teile des südöstlichen New Mexico und des westlichen Texas. Abbildung 2.

In Turkmenistan hat EMIT über Öl- und Gasinfrastrukturen östlich der Hafenstadt Hazar am Kaspischen Meer 12 Abgasfahnen identifiziert. Einige Abgasfahnen erstrecken sich über mehr als 32 Kilometer In westlicher Richtung. Abbildung 3.

Abbildung 3. Methanfahnen über Erdöl- und Erdgas-Förderanlagen. Östlich von Hazar, Turkmenistan, einer Hafenstadt am Kaspischen Meer, strömen 12 Methanschwaden nach Westen, einige von ihnen über eine Länge von mehr als 32 km. Die Methanfahnen wurden von der NASA-Mission EMIT entdeck. Credits: NASA/JPL-Caltech

Das Team identifizierte auch eine Methanfahne südlich von Teheran, Iran, mit einer Länge von mindestens 4,8 Kilometern, die von einer großen Abfallverwertungsanlage ausgeht. Methan ist ein Nebenprodukt der Zersetzung, und Mülldeponien können eine wichtige Quelle sein. Abbildung 4.

Abbildung 4. Methanfahne über einer Mülldeponie. Eine mindestens 4,8 Kilometer lange Methanfahne steigt südlich von Teheran im Iran in die Atmosphäre auf. Die Wolke, die von der NASA-Mission Earth Surface Mineral Dust Source Investigation entdeckt wurde, stammt von einer großen Mülldeponie, in der Methan ein Nebenprodukt der Zersetzung ist.Credits: NASA/JPL-Caltech

Die Wissenschaftler schätzen , dass stündlich etwa 18.300 Kilogramm Methan am Standort Perm abgegeben werden, 50.400 Kilogramm aus den turkmenischen Quellen und 8.500 Kilogramm am Standort im Iran.

Die turkmenischen Quellen haben zusammen eine ähnliche Ausstoßrate wie das Gasleck im Aliso Canyon im Jahr 2015, bei dem zeitweise mehr als 50.000 Kilogramm pro Stunde austraten. Die Katastrophe im Gebiet von Los Angeles war eine der größten Methanfreisetzungen in der Geschichte der USA.

Mit einer breiten, wiederholten Erfassung von seinem Aussichtspunkt auf der Raumstation aus, wird EMIT möglicherweise Hunderte von Super-Emittern finden - einige, die man bereits aus Messungen in der Luft, im Weltraum oder am Boden kennt, andere, die bisher unbekannt sind.

"Bei der weiteren Erkundung des Planeten wird EMIT Orte beobachten, an denen bisher niemand nach Treibhausgasemittenten gesucht hat, und es wird Abgasfahnen finden, die niemand erwartet hat", so Robert Green, leitender Forscher von EMIT am JPL.

EMIT ist das erste aus einer neuen Klasse von weltraumgestützten bildgebenden Spektrometern zur Untersuchung der Erde. Ein Beispiel ist der Carbon Plume Mapper (CPM), ein Instrument, das am JPL entwickelt wird und Methan und Kohlendioxid aufspüren soll. Das JPL arbeitet mit der gemeinnützigen Organisation Carbon Mapper und anderen Partnern zusammen, um Ende 2023 zwei mit CPM ausgestattete Satelliten zu starten.


* Der vorliegende Artikel ist unter dem Titel " Methane ‘Super-Emitters’ Mapped by NASA’s New Earth Space Mission" am 25.Oktober 2022 auf der Web-Seite der NASA erschienen, https://earth.jpl.nasa.gov/emit/resources/100/emit-launch-and-post-launch-video/.  Der unter einer cc-by stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


Links

 EMIT launch and post-launch video 2:30 min. A video covering EMIT's launch and early post-launch activities, including first light data. https://earth.jpl.nasa.gov/emit/resources/100/emit-launch-and-post-launch-video/

Einige Artikel über Methan-Emissionen im ScienceBlog

IIASA, 7.4.2022: Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Redaktion, 9.11.2020: Bäume und Insekten emittieren Methan - wie geschieht das?

IIASA, 23.7.2020: Es genügt nicht CO₂-Emissionen zu limitieren, auch der Methanausstoß muss reduziert werden.

Redaktion, 07.11.2019: Permafrost - Moorgebiete: den Boden verlieren in einer wärmer werdenden Welt.

IIASA, 25.9.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima 36 Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher


inge Fri, 04.11.2022 - 00:46

Verringerung der Lärmbelastung durch abgelenkte Schallwellen und gummiasphaltierte Straßen

Verringerung der Lärmbelastung durch abgelenkte Schallwellen und gummiasphaltierte Straßen

Do, 27.10.2022 — Redaktion

Redaktion

Icon MINT

Laut WHO rangiert Umgebungslärm nach Luftverschmutzung an zweiter Stelle als Verursacher von Gesundheitsproblemen. Der Verkehr ist eine der Hauptursachen für beide Probleme. Neben Anstrengungen den Verkehr insgesamt zu reduzieren, wird an Lösungen zur Minimierung der Lärmbelastung gearbeitet. Zwei EU-finanzierte Projekte haben dazu marktfähige Lösungen entwickelt: Im WHISSPER-Projekt sind dies Lärmschutzwände, die mittels einer innovativen Technologie den Schall nach oben ablenken; im SILENT RUBBER PAVE-Projekt führt gummimodifizierter Asphalt zur erhöhten Absorption des Schalls.*

In den Städten der Europäischen Union stellt Lärm neben der Luftverschmutzung ein erhebliches Gesundheitsrisiko dar. Rund 22 Millionen Menschen leiden unter chronisch hoher Lärmbelastung und jedes Jahr sterben 12 000 Menschen vorzeitig an den Folgen einer langfristigen Belastung durch Umweltlärm, wobei der Verkehr eine der Hauptquellen ist. Abbildung 1.

Abbildung 2. Eine zentrale Herausforderung in städtischen Gebieten ist die Begrenzung der verkehrsbedingten Lärmbelastung. Bildnachweis: Pexels via Pixabay

Doch so wie beim Klimawandel geht es der EU bei der Bekämpfung der Lärmbelastung nicht nur um Schadensbegrenzung, sondern auch um Anpassung. Zwar kann der Verkehr durch eine bessere Stadtplanung reduziert werden, doch der motorisierte Verkehr wird auch weiterhin Lärm emittieren, und eine zentrale Herausforderung besteht darin, Wege zu finden, die Auswirkungen auf die Menschen zu begrenzen.

Hier betritt Bart Willems die Szene. Er ist begeistert von einer Art von Wand, die seiner Meinung nach die Menschen mehr vereinen als trennen kann. Willems war an einem Forschungsprojekt beteiligt, bei dem es darum ging, belastenden Straßen- und Eisenbahnlärm zu reduzieren, indem man Barrieren einsetzt, die Schallwellen ablenken und sie von den Gebäuden wegleiten. Das Phänomen ist als Beugung bekannt.

Nervenaufreibend

Das Ziel war ein ernstzunehmendes, jedoch unterschätztes Umweltproblem aus einer neuen Sichtweise anzugehen. Konventionell existieren zwei Methoden zur Lärmreduktion: Blockierung des Schalls durch hohe Lärmschutzwände und Verwendung von Materialien für Straßen und Schienen, die den Lärm besser absorbieren. Die Beugung bietet eine dritte Lösung", sagte Willems, dessen niederländisches Unternehmen 4Silence BV (https://www.4silence.com/) das EU-Horizon-finanzierte WHISSPER-Projekt koordiniert hat.

Das niederländische Unternehmen 4Silence hat Wände mit unterschiedlich breiten Rillen entwickelt, die den horizontalen Lärm reduzieren, indem sie ihn in vertikaler Richtung nach oben ablenken. Die Methode wird im WHISSPER-Projekt folgendermaßen beschrieben [1]: „Die Innovation nutzt das Prinzip aus, dass Schallwellen durch Überlagerung mit anderen Schallwellen gebrochen werden. Dabei erzeugen die aus vorbeifahrenden Fahrzeuge in die Rillen schießenden Schallwellen Resonanz. Der daraus entstehende Luftwiderstand hemmt wiederum die horizontale Ausbreitung der Schallwellen. Da sich Schall ähnlich wie Wasser den Weg des geringsten Widerstands sucht, tendieren problematische Schallwellen dazu, der in den Rillen erzeugten Resonanz nach oben „auszuweichen“, was die Lärmbelastung für das Straßenumfeld reduziert. Die innovativen Lärmschutzwände können auch neben Zuggleisen angebracht werden."

Mit dieser Technologie können niedrigere Wände verwendet werden, um mehr Lärm von den Menschen in der Umgebung abzulenken. "Wenn eine unserer Schallschutzwände einen Meter hoch ist, reduziert sie den Lärm um sieben bis neun Dezibel", so Willems. Eine normale Wand müsste drei Meter hoch sein, um den gleichen Effekt zu erzielen. Abbildung 2.

Abbildung 2. Ablenkung der Schallwellen: Die Lärmschutzwand WHISwall, installiert in Belgien an der N445 in der Nähe von Zele. Ein 1,00 m hohes Element in Kombination mit einem beugenden Element (Resonator) führt zu einer Lärmreduzierung, die einer 3,00 m hohen Schallschutzwand entspricht. © 4Silence, 2022

Diese Technologie wurde im Rahmen des WHISSPER-Projekts von 2019 bis Anfang 2022 getestet. Pilotversuche wurden in den Niederlanden, Belgien, Deutschland und Dänemark durchgeführt und die signifikante Minderung des Geräuschpegels und die Marktfähigkeit demonstriert; nach Angaben des Unternehmens sind die schallumlenkenden Wände einfach zu installieren und zu warten. Man will jetzt damit auf den Markt kommen.

"Wir haben inzwischen mit unseren ersten kommerziellen Projekten in den Niederlanden begonnen", so Willems. "Und wir sind bestrebt, unsere Wände in verschiedenen Ländern zu vermarkten."

Für diese Initiativen arbeitet 4Silence generell mit lokalen Behörden, wie denen der Stadt Eindhoven oder der Provinz Utrecht zusammen. In Deutschland und im Vereinigten Königreich wurden kommerzielle Projekte für das Staatliche Bauamt Augsburg und für Transport for London gestartet. Für die kommenden Monate sind neue Kunden aus ganz Europa angekündigt, wobei 4Silence Kunden in Ländern wie Belgien und Dänemark ins Auge fasst.

Entlastung des Budgets

Lärmschutzwände entlasten auch die öffentlichen Haushalte, denn sie sind nur halb so teuer wie herkömmliche Maßnahmen zur Lärmreduktion. Die öffentlichen Kassen für Infrastrukturen sind bereits stark strapaziert. Die Ausgaben für die Bekämpfung von Straßen- und Schienenlärm belaufen sich in Europa auf etwa 5,4 Milliarden Euro pro Jahr, das sind 6 % der jährlichen Gesamtausgaben für beide Verkehrsträger.

Doch die Belastung der Menschen durch Verkehrslärm nimmt in der EU zu. Mehr als jeder vierte Europäer ist zu Hause, in der Schule und am Arbeitsplatz gesundheitsgefährdenden Lärmpegeln ausgesetzt.

Gute Vibrationen

Inzwischen wird an Verbesserungen der klassischen Methoden zur Bekämpfung von Verkehrslärm gearbeitet. Ein separates, von Horizon finanziertes Projekt namens SILENT RUBBER PAVE [2] macht Asphalt auf umweltfreundliche Weise schwammiger und hoffentlich leiser. An dem Projekt ist ein spanisches Unternehmen namens Cirtec (https://cirtec.es/) beteiligt. Abbildung 3.

Abbildung 3. Der Flüsterbelag wird aufgebracht (Quelle: [2] © SILENT RUBBER PAVE)

Cirtec steht kurz vor dem Verkauf eines neuen Asphaltzusatzes namens RARx, der aus Gummi von Altreifen hergestellt wird. RARx wird dem Asphalt beigemischt, um einen Teil des Straßenverkehrslärms zu dämpfen.

Die Beimischung von Gummipulver zu Asphalt (auch als Bitumen bekannt) wurde zwar schon früher ausprobiert, aber es ergaben sich technische Schwierigkeiten. "Früher mischten die Bauunternehmer die Gummimischung direkt in das Bitumen, was viele Probleme verursachte", so Guillermo Rodríguez Marfil von Cirtec. "Probleme mit dem Mischung und mit der anschließenden Reinigung der Gerätschaften."

Bei RARx wird das Gummipulver vom Hersteller mit mineralischen Zusätzen wie Bitumen gemischt, so dass es für die Asphalthersteller einfacher zu verarbeiten ist. Rodríguez Marfil zufolge wird der Lärm der Fahrzeuge um 4-5 Dezibel reduziert. "Das Gemisch verringert die Steifigkeit des Asphalts, was zu einer geringeren Vibration im Reifen und damit zu weniger Lärm führt", sagt er.

Außerdem kann damit die Lebensdauer des Straßenbelags verlängert und so die Wartungskosten reduziert werden. Zudem entspricht RARx dem Recycling -Gedanken, da die Gummimischung aus Altreifen hergestellt wird.

RARx wird derzeit in Ländern wie Spanien eingeführt. Tests und Bauprojekte wurden auch in Deutschland, Italien, Portugal und Irland durchgeführt, teilweise unter dem Dach von SILENT RUBBER PAVE. Neben der Produktion in Spanien wird RARx auch in einer zweiten Fabrik hergestellt, die derzeit in Mexiko gebaut wird - laut Rodríguez Marfil der größte Markt für Cirtec.

Die Zukunft sieht rosig aus", sagte er. Wir arbeiten auf mehreren Kontinenten und unser Einfluss wächst. Wir sparen den öffentlichen Verwaltungen Geld und verringern den Lärm für die Bürger.

Regulatorische Hürden

Cirtec und 4Silence hoffen nicht nur auf neue Märkte für ihre neuen Produkte zur Lärmminderung, sondern auch auf Änderungen der Rechtsvorschriften, um ihr Geschäft auszubauen.

"Da Straßen oft von Regierungen und deren Subunternehmern gebaut werden, ist diese Tätigkeit stark reguliert. Im Straßenbau wird seit Ewigkeiten das Gleiche getan, und dies lässt sich nur schwer überwinden," so Rodríguez Marfil. Willems von 4Silence schließt sich diesem Standpunkt an: "Die Infrastruktur entwickelt sich nicht schnell, vor allem, wenn Gesetze geändert werden müssen, bevor wir unsere Technologie einführen können", sagt er. "Wir sind dennoch optimistisch, dass die Menschen in Europa in den kommenden drei Jahren an den Anblick unserer Barrieren gewöhnt sein werden."


 [1] WHISSPER-Projekt (06. 2019 - 03. 2022) - Ergebnisse: : https://cordis.europa.eu/article/id/442164-sound-wave-bending-innovation-cuts-noise-pollution/de . DOI10.3030/859337

[2] SILENT RUBBER PAVE-Projekt (04.2017 - 31.03.2020) - Ergebnisse: https://cordis.europa.eu/article/id/422356-novel-asphalt-additive-for-better-safer-and-environment-friendly-roads/de  DOI10.3030/760564


*Dieser Artikel wurde zuerst am 21.Oktober 2022 von Tom Cassauwers in Horizon, the EU Research and Innovation Magazine unter dem Titel "Reducing noise pollution with acoustic walls and rubberised roads https://ec.europa.eu/research-and-innovation/en/horizon-magazine/reducing-noise-pollution-acoustic-walls-and-rubberised-roads  publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt Ein Absatz zur Funktion der Lärmschutzwände und Abbildung 2. wurden aus [1] eingefügt, Abbildung 3 stammt aus [2].


Video: Horizon EU: Reducing noise pollution with acoustic walls and rubberised roads (1:17 min) https://www.youtube.com/watch?v=x5A9woyJd_w&t=77s


 

inge Thu, 27.10.2022 - 13:04

Neurokardiologie - Herz und Gehirn bilden ein System

Neurokardiologie - Herz und Gehirn bilden ein System

Do, 13.10.2022 — Nora Schultz

Nora SchultzIcon Gehirn

Das Herz spielt eine wichtige Rolle für das Gehirn. Nicht nur seine unmittelbare Gesundheit hängt daran: Je besser das Herz, desto besser das Gehirn. Auch schlägt Stress direkt durch aufs Gehirn. Bekannteste Krankheit ist vermutlich das Broken-Heart-Syndrom, doch es gibt einige mehr. Selbst auf Zellebene gibt es verblüffende Parallelen, weshalb die neue Richtung der Neurokardiologie Herz und Hirn als System betrachtet. Damit es ein Leben lang rund um die Uhr situationsgerecht pocht, hat es sich einige Tricks vom Gehirn abgeschaut und spezielle Muskelzellen in ein elektrisch erregbares Kommunikationsnetzwerk umgewandelt. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über das System "Herz-Gehirn".*

Neurokardiologie: Herz und Hirn als System betrachtet.

Beherzte Entscheidungen; Worte, die von Herzen kommen; Herzen, die auf der Zunge getragen werden oder in die Hose rutschen – Vieles, was wir im Kopf wälzen, scheint eng verknüpft mit dem Organ, das in unserer Brust schlägt (Abbildung 1), Aristoteles verortete im Herzen sogar den Sitz der Seele. Das Gehirn dagegen betrachtete er als bloßes Kühlsystem. Heute wissen wir, dass die Emotionen, die wir „im Herzen“ spüren, in Wirklichkeit durch Neuronengewitter im Kopf entstehen. Längst mehren sich aber die Hinweise auf Parallelen und Verbindungen zwischen Herz und Hirn, die biologisch und medizinisch in vielerlei Hinsicht bedeutsam sind: Psychische Gesundheit und Herzgesundheit hängen oft eng zusammen.

Ein Herzensleben

Das Herz spielt eine Hauptrolle im Leben, fast von Anbeginn. Nur in den ersten beiden Wochen nach der Befruchtung ist der menschliche Embryo herzlos. Kurz nachdem er sich in die Gebärmutter eingenistet hat, verschmelzen kleine Hohlräume in seinem Inneren zu einem Schlauch, der optisch zunächst noch an eine Nacktschnecke erinnert. Zu Beginn der vierten Entwicklungswoche fängt der Herzschlauch an zu pumpen – schon jetzt im Ultraschall messbar. In den folgenden fünf Wochen kringelt sich der Schlauch in eine Schleifenform. Anschließend bilden sich die verschiedenen Herzkammern aus, Wände und Klappen entstehen, um die Kammern voneinander abzutrennen. Und schließlich formen sich die großen Blutgefäße.

In nur neun Wochen ist das menschliche Herz im Wesentlichen fertig konstruiert und verrichtet fortan ein Leben lang seinen Dienst. Schlägt es ganz zu Beginn der Entwicklung noch gemächlich und ähnlich wie das Herz der Mutter etwa 80-mal pro Minute, drückt das Ungeborene bald danach erst einmal gehörig auf die Tube. In der siebten Entwicklungswoche rast das sich formende Herzchen mit 185 Schlägen pro Minute und verlangsamt dann nach und nach bis zum Erreichen des Erwachsenenalters wieder auf durchschnittlich 80 Schläge pro Minute.

Bei gesunden Erwachsenen pumpt jeder Schlag etwa 80 Milliliter Blut in den Körper. Pro Minute sind das ungefähr 5 Liter – etwa die gesamte Blutmenge im Körper. Regen wir uns auf oder strengen wir uns an, schafft das Herz zeitweise und je nach Alter mehr als 200 Schläge und bis zu 20 Liter pro Minute. Selbst wenn man nur die erwachsenen Durchschnittswerte zugrunde legt, kommt ein Mensch so auf über 115.000 Herzschläge und 7.200 Liter gepumptes Blut pro Tag. Das macht rund 42 Millionen Herzschläge und knapp 263.000 Liter Blut pro Lebensjahr und knapp dreieinhalb Milliarden Schläge sowie über 210 Millionen Liter Blut in einem 80-jährigen Menschenleben.

Zentrum des Blutkreislaufs

Der südafrikanische Chirurg Christiaan Barnard, der 1967 die erste Herztransplantation durchgeführt hat, soll gesagt haben: „Das Herz ist nur eine Pumpe.“ Ganz so schlicht sehen Fachleute die Sache heute nicht mehr. Doch ist gerade die Pumpfunktion des Herzens zentral für unser Leben. Wir sind darauf angewiesen, dass das Herz als Motor unseres Blutkreislaufs zuverlässig seinen Dienst verrichtet – und zwar rund um die Uhr.

Schema des menschlichen Herzens (Quelle: Jakov - Eigenes Werk based on image by Yaddah, https://commons.wikimedia.org/w/index.php?curid=3327983. Lizenz: cc-by-sa.)

Das Grundprinzip ist einfach: Das Herz besteht aus zwei von der Herzscheidewand getrennten Hälften. Jede Hälfte ist noch einmal in einen Vorhof und eine Kammer unterteilt. Blut kann nur auf einer Einbahnstraße durch die Herzhälften fließen. Dafür sorgen die Herzklappen, die sich jeweils nur in eine Richtung öffnen. Die zwei Hälften des Herzens bedienen zwei unterschiedliche Kreisläufe. Der Körperkreislauf versorgt den Körper mit Sauerstoff. Sauerstoffreiches Blut fließt über die Lungenvenen in den Vorhof und dann in die Kammer der linken Herzhälfte. Mit ihren kraftvollen Pumpbewegungen schickt die linke Herzkammer das sauerstoffreiche Blut anschließend über die Hauptschlagader bis in die entlegensten feinen Blutgefäße des Körperkreislaufs, die Kapillaren, wo das Blut Sauerstoff und Nährstoffe an die vielfältigen Gewebe abgibt. Auf der Rückreise fließt das nun sauerstoffarme Blut durch Körpervenen zurück zum Herzen: in den Vorhof und die Kammer der rechten Herzhälfte. Von hier aus gelangt es über die Lungenarterien in die Lunge, wo es wieder mit Sauerstoff angereichert wird. Dieser kleinere Kreislauf ist bekannt als Lungenkreislauf.

Arbeitstiere und Impulsgeber

Damit das Herz jeden Winkel des Körpers im Dauereinsatz versorgen kann – und zwar immer genau abgestimmt auf die aktuellen Bedürfnisse – verfügt es über eine Reihe von besonderen Eigenschaften, die teilweise erstaunliche Parallelen zum Gehirn aufweisen. Vereinfacht betrachtet arbeiten in der Hauptsache zwei Zelltypen im Herzen: die Zellen der Arbeitsmuskulatur und die Zellen des Erregungsleitungssystems. Wie der Name schon vermuten lässt, sorgt die Arbeitsmuskulatur dafür, dass das Herz sich verlässlich und kräftig rhythmisch zusammenzieht. Im Unterschied zur Skelettmuskulatur, deren Zellen schon vor der Geburt zu langen Muskelfasern mit mehreren Zellkernen verschmelzen, bewahren Herzmuskelzellen ihre Individualität. Sie enthalten meist höchstens zwei Zellkerne, die bei einer letzten DNA-Verdopplung entstehen, bevor die Zelle den Zellzyklus für immer verlässt.

Einzelkämpfer sind Herzmuskelzellen deshalb noch lange nicht. Vielmehr verketten sie sich über verzweigte Endungen mit ihren Nachbarn und bilden so ebenfalls lange Muskelfasern. An den Verbindungsstellen sitzen viele kleine Poren, die so genannten Gap Junctions. Über diese kann Zellplasma direkt von Zelle zu Zelle fließen. So lassen sich nicht nur chemische Botenstoffe, sondern – über den Austausch von Ionen – auch elektrische Signale besonders schnell übertragen. Das ist nützlich, wenn es wie im Herzmuskel gilt, die rhythmische Aktivität vieler Zellen zu koordinieren. Ähnliches findet sich im Gehirn: Auch hier verbinden Gap Junctions bestimmte, eng zusammenarbeitende Nervenzellen, so etwa im Hippocampus, der zentralen Schaltstelle zwischen dem Kurz- und Langzeitgedächtnis.

Noch mehr Parallelen zum Gehirn weist das Erregungsleitungssystem auf. Es besteht aus abgewandelten Herzmuskelzellen, die sich zu einem komplexen und mit diversen Backup-Mechanismen ausgestatteten Signalnetzwerk verschalten. Dieses Netzwerk übernimmt die Bildung und das Weiterleiten der elektrischen Impulse, die der Arbeitsmuskulatur ihren Takt vorgeben – und das fast ohne Zutun des Nervensystems. Herzmuskelzellen im Erregungsleitungssystem können sich weniger gut zusammenziehen als ihre Kolleginnen in der Arbeitsmuskulatur, sind dafür aber Spezialistinnen im Erzeugen und Weiterleiten von elektrischen Impulsen, den Aktionspotentialen.

Das Erregungsleitungssystem besteht aus mehreren Komponenten. Die primären Impulsgeber sind die Schrittmacherzellen im Sinusknoten. Hierbei handelt es sich um eine rund ein bis zwei Zentimeter lange, spindelförmige Struktur in der Wand des rechten Herzvorhofs. Die Schrittmacherzellen liefern spontan und idealerweise regelmäßig die elektrischen Impulse, die jeden Herzschlag in Gang bringen. Das funktioniert, weil Schrittmacherzellen die Fähigkeit haben, sich selbst immer wieder zu depolarisieren und so rhythmisch neue Aktionspotentiale zu erzeugen. Auf jedes Aktionspotential in elektrisch erregbaren Zellen folgt eine Repolarisationsphase, während der die Natriumkanäle in der Zellmembran sich schließen und den weiteren Einstrom positiv geladener Natriumionen stoppen. Gleichzeitig werden ebenfalls positiv geladene Kaliumionen aus der Zelle herausgepumpt. So wird die Ladung im Zellinnern nach und nach wieder negativer, die Zelle nähert sich ihrem Ruhepotential an. Die meisten elektrisch erregbaren Zellen – einschließlich Neuronen und Zellen der Herzarbeitsmuskulatur – verharren nun eine Weile im Ruhepotential. Anders die Schrittmacherzellen im Sinusknoten des Herzens: Sie verfügen über ganz besondere Natriumkanäle, die sich beim Erreichen der Hyperpolarisation sofort wieder öffnen. Das Zellinnere wird umgehend wieder positiver und es kommt zu einer erneuten Depolarisation.

Erregungsleitungssystem des menschlichen Herzens. 1: Sinusknoten, 2: Atrioventrikular(AV)knoten. ((Quelle: Heuser https://de.wikipedia.org/wiki/Sinusknoten#/media/Datei:Reizleitungssystem_1.png. Lizenz: cc-by) .

Dank dieser besonderen Ausstattung können die Schrittmacherzellen im Sinusknoten als autonome Taktgeber fungieren. Ganz unabhängig vom Rest des Körpers sind sie allerdings nicht. Vor allem das autonome Nervensystem kann über seine Transmitter die Entladungsfrequenz des Sinusknotens, und damit die gesamte Herzfrequenz, sowohl senken als auch erhöhen. Eine wichtige Rolle spielt dabei die Regulierung des Calcium-Haushalts – auch dies eine Gemeinsamkeit mit dem Gehirn, wo calciumabhängige Signale vielfältig an der Modulierung von Synapsen und Netzwerken mitwirken.

Vom Sinusknoten wandern die Impulse in den Atrioventrikularknoten, der in der Wand zwischen dem rechten und linken Vorhof nahe der Grenze zu den Herzkammern sitzt, und weiter in das so genannte His-Bündel. Es verläuft in zwei Strängen (Tawara-Schenkel) entlang der Herzscheidewand in Richtung Herzspitze. Dort verzweigen sie sich in die letzte Komponente des Erregungsleitungssystems, die so genannten Purkinje-Fasern. Diese sind mit den Zellketten der Arbeitsmuskulatur verbunden und diktieren ihnen unmittelbar den Takt. Interessanterweise können auch die Zellen, die im Erregungsleitungssystem dem Sinusknoten nachgeschaltet sind, als Schrittmacher arbeiten. Im Normalbetrieb kommen sie allerdings nicht zum Zug, können aber zum Beispiel einspringen, wenn der Sinusnoten ausfällt.

Energiehunger und Regenerationsfähigkeit

Das ständige Erzeugen und Weiterleiten elektrischer Impulse sowie die unermüdliche Pumpleistung der Arbeitsmuskulatur sind energetisch teuer. Um die Energieversorgung zu gewährleisten, enthalten Herzmuskelzellen daher besonders viele Mitochondrien. Dies ist eine weitere Parallele zum Gehirn, dessen Nervenzellen ebenfalls sehr energiehungrig sind. Beide Organe teilen sich noch eine Gemeinsamkeit: Die große Mehrheit ihrer Zellen verschreibt sich spätestens kurz nach der Geburt ihren spezialisierten Aufgaben, und zwar so rigoros, dass sie darüber die Fähigkeit verliert, sich zu teilen. Das bedeutet, dass beide Gewebe sich nach Verletzung oder Erkrankung, etwa einem Infarkt, kaum regenerieren können.

Lange dachte man, das menschliche Herz sei überhaupt nicht regenerationsfähig. Inzwischen steht fest, dass Regeneration zwar möglich ist, aber nicht in einem Maß, um auch größere Schäden reparieren zu können. Warum das so ist, dass andere Lebewesen wie beispielsweise der Zebrafisch keine Mühe haben, neues Herzgewebe zu bilden, weiß man bis heute nicht genau. Es wäre denkbar, dass diese Unfähigkeit direkt mit dem großen Energiebedarf von Herz und Hirn zusammenhängt. Wo besonders viele Mitochondrien energiehaltige Stoffe mit Hilfe von Sauerstoff zu ATP, der universellen Energiewährung des Körpers, verarbeiten, entstehen auch mehr freie Radikale, die aufgrund ihrer großen chemischen Reaktionsfreudigkeit die DNA schädigen können. In Zellen, die sich noch teilen, bedeutet dies ein erhöhtes Tumorrisiko. Der energieintensive Betrieb in Herz und Hirn ist also möglicherweise nicht kompatibel mit starker Zellteilung.

Wechselwirkungen

Die Ähnlichkeiten zwischen Herz und Gehirn sind umso interessanter, je näher man die vielfältigen Zusammenhänge und Wechselwirkungen zwischen beiden Organen betrachtet. Inzwischen ist bekannt, dass psychische Erkrankungen und Herzkrankheiten eng zusammenhängen. Funktioniert das Herz nicht gut, können Probleme in der Blutversorgung des Gehirns schnell zu Beeinträchtigungen seiner Funktionen führen – zum Beispiel zu einer Demenz ▸ Wenn Herz und Gehirn gemeinsam leiden. Umgekehrt kann nicht nur intensive physische Aktivität das Herz an die Belastungsgrenze treiben, sondern auch großer emotionaler Stress seine Funktionen bedrohen ▸ Wie Stress im Kopf dem Herzen schadet . Wie genau der Austausch zwischen beiden Systemen funktioniert ▸ Herz und Gehirn – das dynamische Duo und welche Faktoren sie aus dem Gleichgewicht bringen können ist daher zunehmend Gegenstand der Forschung. Das Herz, so zeigt sich dabei immer deutlicher, ist letztlich weder Sitz der Seele noch schnöde Pumpe, sondern hat ein bisschen was von beidem.


* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Oktober steht das Thema "Herz". Der vorliegende Artikel ist am 1.10.2022 unter dem Titel: "Mehr als eine Pumpe" https://www.dasgehirn.info/grundlagen/herz/mehr-als-nur-eine-pumpe erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


Zum Weiterlesen

Koehler U, Hildebrandt O, Hildebrandt W, Aumüller G. Herz und Herz-Kreislauf-System in der (kultur-)historischen Betrachtung [Historical (cultural) view of the heart and cardiovascular system]. Herz . 2021;46(Suppl 1):33-40. doi:10.1007/s00059-020-04914-2

 Elhelaly, Waleed M et al.: Redox Regulation of Heart Regeneration: An Evolutionary Tradeoff. Frontiers in cell and developmental biology vol. 4 137. 15 Dec. 2016, doi:10.3389/fcell.2016.00137

 Islam MR, Lbik D, Sakib MS, et al. Epigenetic gene expression links heart failure to memory impairment. EMBO Mol Med. 2021;13(3):e11900. doi:10.15252/emmm.201911900


 

inge Thu, 13.10.2022 - 22:26

Das Zeitalter des Pangenoms ist angebrochen

Das Zeitalter des Pangenoms ist angebrochen

Fr, 21.10.2022 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Nach der Entschlüsselung des menschlichen Genoms im Jahr 2001, wurden die hochfliegenden Erwartungen, man könne aus genetischen Veränderungen sehr bald Ursachen und Therapien für diverse Krankheiten entdecken, rasch enttäuscht. Nach der Analyse von zigtausenden unterschiedlichen Genomen stellt sich heraus, dass unser Erbgut viel stärker variiert als man bisher glaubte, und die Bedeutung einzelner Variationen unklar ist. Das Humane Pangenom-Projekt macht es sich zur Aufgabe die Variabilität des menschlichen Genoms zu kartieren und aus Sequenzanalysen von mehreren Hundert Menschen aus verschiedenen Weltregionen ein sogenanntes Referenz Genom zu erstellen, das Abweichungen in Zusammenhang mit physiologischen und pathologischen Unterschieden bringen kann. Die Genetikerin Ricki Lewis berichtet darüber.*

Die aus dem Griechischen stammende Vorsilbe "pan" bedeutet "alles, jedes, ganz und allumfassend". In der Sprache der Genetik ist das "menschliche Pangenom" mit "vollständige Referenz für die Diversität des menschlichen Genoms" zu übersetzen. Es ist als eine neue Art von Kartierung gedacht, die alle Variationen der Sequenz von 3.05 Milliarden DNA-Basenpaaren - den Bausteinen eines Genoms - darstellt, plus oder minus einiger weniger kurzer, sich wiederholender Sequenzen. Die Darstellung ist so dicht gepackt, dass sie einer Karte des New Yorker U-Bahn-Systems ähnelt.

In der Schaffung einer "Genom-Referenzdarstellung, die die gesamte menschliche Genomvariation erfassen und die Forschung über die gesamte Diversität der Populationen unterstützen kann" ist das Human Pangenome Reference Consortium federführend.

Eine solche Ressource ist natürlich längst überfällig. Jetzt, da bereits die Genome von mehr als 30 Millionen Menschen sequenziert worden sind, klingt es merkwürdig, von "dem" menschlichen Genom zu sprechen, so als wären wir alle identisch in Bezug auf jede der vier DNA-Basen - A, C, T oder G -, die jeden der 3 Milliarden Speicherplätze belegen. Wir sind keine Klone. Allerdings brauchen die meisten Biotechnologien etwa drei Jahrzehnte, um ausgereift zu sein, und da das Humangenom-Projekt Anfang der 1990er Jahre begonnen wurde, scheinen die Dinge nun genau im Zeitplan für eine umfassendere Betrachtung zu liegen.

Als ich Mitte der 1980er Jahre zum ersten Mal an Sitzungen teilnahm, auf denen die Idee der Sequenzierung des menschlichen Genoms aufkam, rechnete man damit, dass diese Aufgabe mindestens ein Jahrzehnt in Anspruch nehmen würde. Im ersten Entwurf der menschlichen Genomsequenz, die 2001 vom National Human Genome Research Institute (NHGRI) und seinen Partnern veröffentlicht wurde, stammten davon etwa 93 % von nur elf Personen, wobei 70 % vom gesamten von einem einzigen Mann kamen, der zu 37 % afrikanischer und zu 57 % europäischer Abstammung war. Das menschliche Genom, das von Celera Genomics veröffentlicht wurde, stammte Berichten zufolge von Craig Venter, dem Leiter dieses Unternehmens.

Danach begannen Genomsequenzen von Prominenten einzutrudeln, von anderen reichen Leuten, von einer Handvoll Journalisten, die Artikel und Bücher veröffentlichten, in denen sie ihr genetisches Selbst enthüllten, und von einer Reihe von "ersten Testpersonen" - Afrikanern, Han-Chinesen und mehreren Vertretern moderner Völker mit alten Wurzeln.

Es ist schon ein wenig verwunderlich, dass wir heute mit unseren Smartphones auf unsere Daten der Genomsequenzen zugreifen können.

Als das Humangenom-Projekt auslief, begannen die Forscher, die Diversität des menschlichen Genoms zu katalogisieren, indem sie im Genom einzelne Basen-Positionen identifizierten, die sich von Person zu Person unterscheiden. Dies sind sogenannte single nucleotid polymorphisms (Einzelnukleotid-Polymorphismen - SNPs). Als die Ansammlungen von SNPs auf den Chromosomen immer dichter wurden, erkannten die Forscher sehr rasch, dass es neuer Instrumente bedurfte, um die sich ausweitende Diversität unserer DNA darzustellen.

Trotz dieser Fortschritte in der Sequenzierung müssen wir aber noch viel über die genetische Diversität des Menschen lernen, und dazu sind Vergleiche erforderlich. Hier kommt das menschliche Pangenom ins Spiel.

Die Diversität unserer Genomsequenzen ist atemberaubend. Eine Studie der gesamten Genomsequenzen von 53.831 Menschen hat Unterschiede an 400 Millionen Positionen ergeben! Die meisten davon waren SNPs oder eine zusätzliche oder fehlende DNA-Base. Es kann aber sein, dass der Großteil unserer Variabilität von nur wenigen Menschen stammt. Etwa 97 Prozent der 400 Millionen unterschiedlicher Positionen stammten von weniger als einem Prozent der 53 831 Testpersonen, wobei 46 Prozent davon bei nur einer Person auftraten. Wir unterscheiden uns genetisch in vielerlei Hinsicht, und einige von uns unterscheiden sich stärker als andere, aber wir sind alle Menschen.

Einige Jahre lang haben Forscher "Referenz"-Genomsequenzen zusammen gestellt, um der Diversität in bestimmten Populationen Rechnung zu tragen. Diese digitalen Sequenzen zeigten an jeder Position die in vielen Genomen der Gruppe am häufigsten vorkommende häufigste DNA-Base an. Die Aktualisierung der Referenzgenome nahm jedoch viel Zeit in Anspruch und war eine undankbare Aufgabe, die nie abgeschlossen wurde. Um 2010, als weitere Daten von Asiaten und Afrikanern hinzu gekommen waren, blieben immer noch 5 Millionen Lücken in den Referenzsequenzen.

Da die Datenmengen schnell zu groß wurden, um die Diversität des Genoms mit einer einfachen, klaren visuellen Methode erfassen zu können, kam die Idee des menschlichen Pangenoms als "einer vollständige Referenz der Diversität des menschlichen Genoms" auf. Das Human Pangenome Project begann offiziell im Jahr 2019 und füllte innerhalb eines Jahres die verbleibenden Lücken in den Genomsequenzen. Ziel war es, die Genomsequenzen von zunächst 350 Menschen aus verschiedenen ethnischen Gruppen darzustellen, wobei "computational pangenomics"-Werkzeuge verwendet wurden, um visuelle Darstellungen, sogenannte "Genom-Graphen", zu erstellen.

In einem Genom-Graphen zeigen farblich gekennzeichnete Basen, die der DNA-Darstellung überlagert sind, wie sich die Menschen an den einzelnen Positionen unterscheiden. Wie eine geografische Karte mit Symbolen für Campingplätze, Rastplätze und interessante Orte zeigen Genom-Graphen die SNPs und auch fehlende Teile der Genomsequenz, zusätzliche Teile und invertierte Regionen an. Sie zeigen auch welche Bedeutung, welcher Zusammenhang damit verbunden ist, indem z. B. Gene, die für Proteine kodieren, von Kontrollsequenzen unterschieden werden und Positionen gekennzeichnet werden, an denen die DNA-Sequenz von verschiedenen Startpunkten aus gelesen werden kann, wodurch die Zelle die Anweisung erhält, unterschiedliche Proteine zu produzieren.

Die Daten, die in das menschliche Pangenomprojekt einfließen, stammen aus Bevölkerungs-Biobanken und verschiedenen Genomsequenzierungs-Projekten. Wenn all diese Informationen über die Länge der Chromosomen überlagert werden, beginnt der Genom-Graph tatsächlich einem U-Bahn-Plan zu ähneln.

Ich bin mit der New Yorker U-Bahn aufgewachsen. So wie die meisten Zuglinien im Zentrum der Stadt, in Manhattan, zusammenlaufen und sich nur wenige Linien in die Randbezirke erstrecken, so sind auch die proteinkodierenden Gene in Richtung des Zentromers jedes Chromosoms gruppiert und werden zu den Spitzen, den Telomeren, hin immer spärlicher.

Ich denke mit Rührung an die erste Humangenom-Tagung zurück, an der ich 1986, ich glaube in Boston, teilgenommen habe. Es ist eine lange, außergewöhnliche Reise geworden, aber wir fangen endlich an zu verstehen, wie eine Sprache mit vier Buchstaben die erstaunliche Vielfalt des menschlichen Wesens erklären kann.


* Der Artikel ist erstmals am 13.Oktober 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " The Age of the Pangenome Dawns" https://dnascience.plos.org/2022/10/13/the-age-of-the-pangenome-dawns/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


 

inge Fri, 21.10.2022 - 17:32

Herzliche Gratulation Anton Zeilinger zur höchsten Auszeichnung in Physik!

Herzliche Gratulation Anton Zeilinger zur höchsten Auszeichnung in Physik!

Di, 04.10.2022 — Redaktion

Redaktion

Icon Physik

Der diesjährige Nobelpreis für Physik geht an den österreichischen Quantenphysiker Anton Zeilinger, den französischen Physiker Alain Aspect und den US-Amerikaner John Clauser. Sie werden für ihre bahnbrechenden Experimente mit verschränkten Quantenzuständen ausgezeichnet. Im folgenden Text erzählt Anton Zeilinger von seiner Faszination für die Quantentheorie, wie sich aus dieser ursprünglich ausschliesslich als Grundlagenforschung gedachten Fachrichtung nun Anwendungen ergeben, die "unsere kühnsten Träume übertreffen."*

Anton Zeilinger: Von meiner Faszination für die Quantenphysik zu ersten Experimenten und konzeptuellen Überlegungen  

Anton Zeilinger, 2021.(Bild: Jaqueline Godany - https://godany.com/ cc-by

Mein Interesse an der Wissenschaft wurde wahrscheinlich durch meinen Vater geweckt, der Biochemiker war. Nachdem ich also neugierig geworden war, wie die Welt funktioniert, wurde ich durch einen motivierenden Lehrer im Gymnasium auf den Weg in Richtung Mathematik und Physik gebracht. Er konnte uns das Gefühl vermitteln, dass wir die Grundlagen der Relativitätstheorie oder der Quantenmechanik verstanden hatten. Im Nachhinein betrachtet war dieses Gefühl zwar nicht wirklich gerechtfertigt, aber es hat mich entscheidend motiviert. Als ich dann 1963 begann, an der Universität Wien Physik und Mathematik zu studieren, gab es überhaupt keinen festen Lehrplan. Man war im Wesentlichen frei, die Themen nach eigenem Gusto zu wählen. Nur am Ende musste man das Rigorosum - eine wirklich strenge Prüfung - ablegen und eine Dissertation vorweisen. Das führte dazu, dass ich nicht eine einzige Stunde Quantenmechanik belegte, sondern alles aus Lehrbüchern für die Abschlussprüfung lernte. Als ich diese Lehrbücher las, war ich sofort von der immensen mathematischen Schönheit der Quantentheorie beeindruckt. Aber ich hatte das Gefühl, dass die wirklich grundlegenden Fragen nicht behandelt wurden, und das steigerte meine Neugierde nur noch mehr.

Es gab zwei Punkte, die mir auffielen und mein Interesse noch mehr weckten.

Erstens die Feststellung, dass es keinen Konsens über die Interpretation der Quantentheorie zu geben schien. Damit meine ich die Interpretation dessen, was dies für unsere Weltanschauung oder vielleicht sogar für unsere Stellung in der Welt bedeuten könnte. Zweitens gab es nur sehr wenige experimentelle Belege für die Bestätigung der Vorhersagen der Quantenmechanik für einzelne Teilchen oder einzelne Quantensysteme, wie Teilchensuperposition oder Quantenverschränkung.

Verschränkung (Bild: © Johan Jarnestad/The Royal Swedish Academy of Sciences. cc-by-nc

Auf diese Weise bin ich dazu gekommen, Vorhersagen für einzelne Systeme im Detail zu studieren, und ich schätze mich sehr glücklich, dass ich durch meine Arbeit in der Gruppe von Helmut Rauch in Wien dazu ermutigt wurde, diese Ideen weiterzuverfolgen, und dass ich mich langsam an Experimente zu den Grundlagen der Quantenmechanik herantasten konnte. Damals gab es noch recht diffuse Ansichten über die Interpretation und Bedeutung der Quantenphysik für einzelne Systeme. Ich erinnere mich noch daran - als ich über einige der Neutronenexperimente (die von Helmut Rauch initiiert worden waren) referierte, dass sogar angesehene hochrangige Fachkollegen auf uns zukamen und ihre Verwunderung zum Ausdruck brachten: "Funktioniert Superposition wirklich so, Teilchen für Teilchen?"Meine Antwort war: "Was haben Sie denn sonst erwartet?"

Damals gab es erhebliche Uneinigkeit, z. B. darüber, ob die Quantenmechanik einzelne Systeme oder nur statistische Ensembles beschreibt, welche Rolle die Umgebung spielt oder was die Quanten-Nichtlokalität wirklich bedeutet. Die Erfahrung vieler Gruppen weltweit mit einer Vielzahl von Quantenphänomenen für einzelne Systeme hat auch zu einem viel besseren Verständnis der grundlegenden Fragen der Quantenmechanik geführt. Es wird nun allgemein akzeptiert und verstanden, dass die Natur nicht lokal beschrieben werden kann, dass die Verschränkung ein grundlegender Bestandteil unserer Beschreibung der Welt ist und dass es objektive Zufälligkeit gibt und vieles mehr. Der Standpunkt, dass die Quantenphysik bei richtiger Betrachtung das Verhalten einzelner Quantensysteme beschreibt, hat sich weitgehend durchgesetzt. Wir verstehen auch die Rolle der Umgebung und der Dekohärenz viel besser, und es wurden viele neue Phänomene auf fundamentaler Ebene entdeckt. Für viele setzt sich nun die Ansicht durch, dass die Information eine sehr grundlegende Rolle für das Verständnis der Quantenmechanik spielt.

Zur großen Überraschung aller, die das Glück hatten, früh in dieses Gebiet einzudringen, haben sich Anwendungen ergeben, die unsere kühnsten Träume übertreffen. Ich persönlich halte es für sehr wahrscheinlich, dass die Quanteninformationstechnologien eines Tages die traditionellen Informationstechnologien, wenn nicht vollständig, so doch in erheblichem Maße ersetzen werden.

Typisches und interessantes Beispiel aus jüngster Zeit ist das Aufkommen von Quantenexperimenten im Weltraum. Im Jahr 2016 wurde der erste Quantensatellit von der Chinesischen Akademie der Wissenschaften gestartet. Eine konkrete Vision für die Zukunft ist ein weltweites Quanteninternet, bei dem Bodenstationen direkt mit Quantenkommunikationsverbindungen über Glasfasern und über große Entfernungen und interkontinental über Quantensatellitennetze verbunden sind.

Sicherlich hat in den Anfängen der Experimente an einzelnen Systemen zur Erprobung der Grundlagen der Quantenmechanik niemand auch nur im Entferntesten geahnt, dass heute weltweit riesige Gruppen mit insgesamt wohl Tausenden von Wissenschaftlern an möglichen Anwendungen arbeiten. Dies ist einmal mehr die Bestätigung eines Musters, das in der Geschichte der Physik oder der Wissenschaft im Allgemeinen sehr häufig zu beobachten ist: Die tiefstgreifenden und wichtigsten Anwendungen werden nicht durch die Suche nach Anwendungen gefunden, sondern durch Grundlagenforschung, die völlig neue Türen öffnet.


 * Aus dem langen Artikel von Anton Zeilinger "Light for the quantum. Entangled photons and their applications: a very personal perspective" in Physica Scripta (2017), Volume 92, Number 7, https://iopscience.iop.org/article/10.1088/1402-4896/aa736d wurden einige Absätze ausgewählt und möglichst wortgetreu übersetzt. Der Artikel steht unter einer cc-by-Lizenz © 2017 The Royal Swedish Academy of Sciences.


The Nobelprize in Physics - Announcement: https://www.nobelprize.org/prizes/physics/2022/prize-announcement/


 

inge Tue, 04.10.2022 - 18:37

Paläogenetik: Svante Pääbo wird für seine revolutionierenden Untersuchungen zur Evolution des Menschen mit dem Nobelpreis 2022 ausgezeichnet

Paläogenetik: Svante Pääbo wird für seine revolutionierenden Untersuchungen zur Evolution des Menschen mit dem Nobelpreis 2022 ausgezeichnet

Mo, 03.10.2022 — Christina Beck Christina Beck

Icon Evolution

Der Nobelpreis für Physiologie oder Medizin 2022 geht an Svante Pääbo , den Direktor am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig. Svante Pääbo gilt als Pionier des neuen Forschungsgebietes "Paläontologie". Seine Arbeiten zur Entschlüsselung des Neandertaler-Genoms haben unser Verständnis zur Evolution des Menschen revolutioniert. In einem leicht verständlichen Artikel berichtet die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, über die angewandten Techniken und Ergebnisse von Svante Pääbos Forschung.*

Svante Pääbo © Fank Vinken / MPG

Wer sind wir? Woher kommen wir? – das sind zentrale Fragen, die uns Menschen schon seit mehr als einem Jahrhundert beschäftigen. Spätestens seit dem Jahr 1856 als Arbeiter im Neandertal, ungefähr zwölf Kilometer östlich von Düsseldorf, in einem Steinbruch eine kleine Höhle ausräumten und dabei Reste eines Skeletts entdeckten. Über die Zuordnung der Knochenfragmente wurde lange gestritten. Die Einschätzung einiger Anatomen, dass es sich hierbei um eine Frühform des modernen Menschen handle, wurde insbesondere von dem einflussreichen deutschen Pathologen Rudolf Virchow nicht geteilt. Gegen Ende des 19. Jahrhunderts jedoch hatte sich die Auffassung, dass der Neandertaler ein Vorläufer des anatomisch modernen Menschen war, durchgesetzt.

Dank der mehr als 300 Skelettfunde ist der Neandertaler die am besten untersuchte fossile Art der Gattung Homo. Wie ähnlich die Neandertaler uns waren, ob sie einen ausgestorbenen Ast im Stammbaum der Frühmenschen darstellten und ob sich einige ihrer Gene noch heute im modernen Menschen finden, all diese Fragen ließen sich aber auf Basis rein anatomischer Untersuchungen nicht beantworten. Svante Pääbo, Direktor am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, war überzeugt, dass die Neandertalerknochen noch einen größeren Schatz bereithalten.

2005 hatte ein wissenschaftliches Konsortium unter Beteiligung von Pääbos Arbeitsgruppe das Genom des Schimpansen sequenziert und nachgewiesen, dass sich nur etwas mehr als ein Prozent der Nucleotide in den DNA-Sequenzen, die der moderne Mensch mit dem Schimpansen gemeinsam hat, unterscheiden. „Die Neandertaler sollten uns natürlich noch viel näher stehen“, sagt Pääbo. „Wenn wir aus ihren Knochen die DNA extrahieren und dann analysieren könnten“, so die Überlegungen des Molekularbiologen, „dann würden wir zweifellos feststellen, dass die Neandertaler-Gene den unseren sehr ähnlich sind.“ Viel spannender aber wären die Unterschiede: „Unter den winzigen Abweichungen, die wir erwarteten, sollten auch genau jene sein, die uns von allen unseren menschlichen Vorläufern unterscheiden und die die biologische Basis dafür gewesen sind, dass der moderne Mensch eine vollkommen neue Entwicklungsrichtung eingeschlagen hat – kulturell und technologisch.“

Die Untersuchung alter DNA erweist sich jedoch gleich in zweierlei Hinsicht als schwierig: Der eigentliche Anteil alter DNA in einem Knochenfragment kann zwischen 100 bis weniger als 0.1 Prozent liegen. In vielen Fällen sind die Proben mit der DNA von Bakterien verunreinigt. Eine weitere Quelle für Verunreinigungen ist die DNA heutiger Menschen. Denn sie ist allgegenwärtig – wir hinterlassen unsere DNA mit kleinsten Hautschuppen etc. und kontaminieren so auch archäologische Funde. Bei der Untersuchung frühmenschlichen Erbguts ist diese Kontamination aufgrund der Ähnlichkeit der DNA-Sequenzen nur schwer zu entdecken.

Abbildung 1: Ohne Kontaminationen Um Verunreinigungen der Knochen mit eigener DNA zu verhindern, müssen die Forschenden umfangreiche Vorsichtsmaßnahmen treffen. © Frank Vinken / MPG

Um die Authentizität alter DNA-Sequenzen sicherzustellen, versuchen Forschende, Verunreinigungen an der Ausgrabungsstätte sowie bei ihren weiteren molekularbiologischen Untersuchungen zu verhindern (Abbildung 1) oder – wenn das nicht bzw. nicht mehr möglich ist – die Verunreinigung bei der Analyse der Sequenzdaten zu identifizieren. Dabei machen sie sich den Umstand zu Nutze, dass post mortem, also nach Eintreten des Todes, Buchstaben in der DNA ausgetauscht werden: So wird Cytosin durch Thymin ersetzt bzw. Guanin durch Adenin, wenn es sich um das Gegenstück des DNA-Stranges handelt. Außerdem steigt an beiden Enden des DNA-Moleküls der Anteil jener Cytosine, denen eine Aminogruppe abhandengekommen ist. Das Cytosin wird damit zu einem Uracil, einem Nukleotid, das normalerweise in der RNA vorkommt. Die DNA-Polymerase behandelt dieses „U“ wie ein „T“ – überproportional viele Ts in bestimmten Regionen sind daher ein ausgesprochen zuverlässiges Signal, um alte von neuer DNA zu unterscheiden.

Eine weitere Erschwernis liegt darin, dass alte DNA den chemischen Abbauprozessen schon länger ausgesetzt ist, was zu einer starken Fragmentierung führt. In den Knochenproben nimmt der Anteil von DNA-Sequenzen mit kürzeren Fragmentlängen daher zu. Mit der bestehenden Technologie zur DNA-Sequenzierung konnten diese kurzen Fragmente jedoch nicht schnell und in großer Zahl ausgelesen werden.

Ein technologischer Treiber für die Paläogenetik

Den Durchbruch brachte eine ganz neue Technologie der DNA-Sequenzierung. Das Grundprinzip des Sequenzierens ist dabei unverändert geblieben: Entlang eines abzulesenden DNA-Stückes wird eine komplementäre Sequenz hergestellt. Der Einbau erkennbarer (in den meisten Fällen mit Farbstoffen markierter) Nukleotide wird registriert und anhand der zeitlichen Abfolge der Einbauereignisse die gesuchte Sequenz ermittelt. Dieses Prinzip liegt auch der Next Generation Sequencing Technology (NGS) zugrunde – nur dass hierbei das Grundprinzip des Sequenzierens in unglaublich verdichteter, effizienter und extrem vervielfältigter Weise zur Anwendung gebracht wird. Im Rahmen von Next Generation Sequencing können so mehrere Tausend bis Millionen Sequenzierungsschritte gleichzeitig und hochgradig automatisiert ablaufen (Abbildung 2). Das ermöglicht einen enorm hohen Probendurchsatz, so dass ein komplettes menschliches Genom mit seinen 3,2 Milliarden Buchstaben, für das das Human Genome Project noch 10 Jahre und hunderte Labore weltweit brauchte, inzwischen innerhalb weniger Tage von einem einzigen Labor sequenziert werden kann!

Abbildung 2: Gesamtzahl der publizierten vollständigen frühgeschichtlichen Humangenome. © Investig Genet 6, 4 (2015). https://doi.org/10.1186/s13323-015-0020-4

Mittels NGS kann nun auch sehr alte, stark fragmentierte DNA mit Fragmenten, die kürzer als 60 oder 70 Basenpaare sind, sehr effektiv sequenziert werden. In Folge dessen setzte förmlich ein Boom bei der Sequenzierung alter DNA ein (Abbildung 2). Anfang 2006 präsentierten Stephan Schuster von der Pennsylvania State University und seine kanadischen Kollegen das 13 Millionen Basenpaare umfassende Kerngenom eines ausgestorbenen Wollmammuts. „Wir waren ein wenig enttäuscht, dass wir nicht als Erste die Sequenz einer alten DNA mit der neuen Sequenzierungstechnik aufgeklärt hatten“, berichtet Pääbo. Schließlich besaß seine Arbeitsgruppe schon seit Monaten die Daten aus den von ihr untersuchten Mammut- und Höhlenbärknochen. „Wir hatten aber weitere Analysen und Experimente durchgeführt, um ein möglichst vollständiges Bild zu veröffentlichen – die anderen hingegen wollten einfach nur schneller sein.“ Die Leipziger Forscherinnen und Forscher publizierten ihre Ergebnisse im September 2006 – und begannen noch im selben Jahr mit ihrem wohl riskantesten Projekt: der Sequenzierung des Neandertaler-Genoms. „Ich wusste, dass ein Erfolg nicht so einfach zu erzielen war“, erzählt Pääbo rückblickend. „Er hing vielmehr von drei Voraussetzungen ab: von vielen Sequenzierautomaten, viel mehr Geld und geeigneten Neandertalerknochen. Nichts davon hatten wir zu Beginn.“

Vier Jahre später war das scheinbar Unmögliche wahr geworden: Pääbo und sein Team konnten im Fachmagazin Science einen ersten Entwurf der Gensequenz unseres vor rund 30.000 Jahren ausgestorbenen Verwandten präsentieren. Der Entwurf basierte auf der Analyse von mehr als einer Milliarde DNA-Fragmenten aus mehreren Neandertaler-Knochen aus Kroatien, Spanien, Russland und Deutschland. Außerdem sequenzierten die Forschenden fünf menschliche Genome europäischer, asiatischer und afrikanischer Abstammung und verglichen diese mit dem Neandertaler-Genom. Der Vergleich förderte Erstaunliches zutage: In den Genomen aller außerhalb Afrikas lebender Menschen fanden sich Spuren vom Neandertaler. „Zwischen 1,5 und 2,1 Prozent der DNA im Genom der heutigen Nicht-Afrikaner stammen vom Neandertaler“, sagt Pääbo. „Asiaten tragen sogar noch etwas mehr davon in sich.“ Das waren klare Indizien für vielfachen artfremden Sex während der Eroberung Eurasiens.

Begonnen hatte das Techtelmechtel zwischen Neandertaler und Homo sapiens vor rund 50.000 bis 80.000 Jahren, als unsere Vorfahren den afrikanischen Kontinent verließen und sich in Europa und Asien ausbreiteten, wo sie auf die Neandertaler stießen. Während dieser Zeit kam es immer wieder zur erfolgreichen Fortpflanzung zwischen den eng verwandten Arten. Fügt man alle heute noch vorhandenen Schnipsel zusammen, lassen sich 40 Prozent des einstigen Erbmaterials der Neandertaler rekonstruieren. Von dieser DNA profitierten unsere Vorfahren. Während die meisten schädlichen Neandertaler-Gene durch Selektion aussortiert wurden, setzten sich nützliche in der menschlichen Population fest. Darunter auch solche, die mit der Beschaffenheit von Haut und Haaren in Verbindung stehen. Gut möglich also, dass unsere Vorfahren ihre weiße Haut von den Neandertalern erbten. Gerade in höheren Breiten war eine helle Körperoberfläche von Vorteil, weil damit die Produktion von Vitamin D aus Sonnenlicht effizienter ist. „Indem der moderne Mensch sich mit den Ureinwohnern seiner neuen Heimat mischte, konnte er sich besser an die neue Umgebung anpassen“, vermutet Pääbo.

Abbildung 3: Next Generation Sequenzing. Svante Pääbo und sein Team sequenzierten mehr als 1 Million Basenpaare Neandertaler-DNA (1) unter Verwendung eines als Pyrosequenzierung bekannten Ansatzes. Bei diesem Verfahren wird die DNA zunächst in Einzelstränge überführt (2) und dann an mit Oligonukleotiden bestückte Mikroperlen (engl. beads) gebunden. Die DNA beladenen Mikroperlen werden zusammen mit den PCR-Reagenzien in Öl emulgiert, wobei idealerweise Emulsionströpfchen erzeugt werden, die nur eine Mikroperle enthalten (3). In dieser Umgebung werden die DNA-Stränge nun vervielfältigt (emPCR) und anschließend in die Vertiefungen einer Picotiterplatte gebracht, bei der unter jeder Pore ein Lichtleiter zu einem Detektor führt (4). Die DNA-Polymerase wird nun gewissermaßen „in Aktion“ beobachtet, wie sie nacheinander einzelne Nukleotide an den neu zu synthetisierenden DNA-Strang anhängt. Der erfolgreiche Einbau eines Nukleotids wird auf der Basis eines Fluoreszenzsignals von einem Detektor erfasst (5). © Roche Diagnostics © Investig Genet 6, 4 (2015). https://doi.org/10.1186/s13323-015-0020-4

Spurensuche im Genom von Homo sapiens

Und welche Auswirkungen haben die geerbten Neandertalersequenzen heute? Anhand aktueller klinischer Daten lassen sich Einflüsse auf Funktionen der Haut, des Immunsystems und des Stoffwechsels erkennen. Einige Neandertaler-Gene, die wir in uns tragen, erhöhen das Risiko, an Diabetes Typ 2 oder Morbus Crohn zu erkranken. Im Kampf gegen Krankheitserreger kann der moderne Mensch allerdings von archaischen Gensequenzen auch profitieren: Sie kodieren für drei bestimmte Immunrezeptoren und verringern damit die Neigung zu Allergien.

Während der Neandertaler in bestimmten Regionen seines Genoms noch „Schimpansen-ähnliche“ Genvarianten besitzt, tragen die meisten modernen Menschen an derselben Stelle bereits abgeleitete Genvarianten. „Genau diese Bereiche unseres Genoms könnten entscheidend zur Entwicklung des modernen Menschen beigetragen haben, weil wir hier früh in unserer evolutionären Geschichte besonders vorteilhafte Mutationen erworben haben“, sagt Pääbo. Die Veränderungen im FOXP2-Gen, das mutmaßlich die Entwicklung unsere Sprechfähigkeit orchestriert, werden hingegen von Homo sapiens und Neandertaler geteilt. Möglich also, dass der Neandertaler in dieser Hinsicht über dieselben kognitiven Fähigkeiten verfügte. Insgesamt umfasst der Katalog der genetischen Unterschiede zwischen Frühmenschen und modernen Menschen 87 Proteine und eine Handvoll microRNAs (nichtcodierende RNA-Schnipsel, die eine wichtige Rolle bei der Genregulation spielen, insbesondere beim Stummschalten von Genen).

Und dabei stehen die Wissenschaftlerinnen und Wissenschaftler erst am Anfang, die funktionellen Folgen bestimmter genetischer Änderungen zu verstehen. So haben die Max-Planck-Teams zusammen mit Kollegen von den Universitäten Barcelona und Leipzig nicht nur die DNA-Sequenz einer frühmenschlichen Genvariante analysiert, sondern auch das entsprechende Protein hergestellt und seine Eigenschaften untersucht. Dabei fanden sie heraus, dass die Aktivität einer bestimmten Genvariante des Melanocortin-Rezeptors bei zwei Neandertalern deutlich reduziert war. Genvarianten mit einer ähnlich verringerten Aktivität sind auch beim modernen Menschen bekannt – mit sichtbaren Folgen: Ihr Träger hat eine rote Haarfarbe. Die Forschenden gehen daher davon aus, dass auch ein Teil der Neandertaler möglicherweise rote Haare besaß. Die Befunde der neuen Paläogenetik führen zu einer ganz neuen Sicht auf die evolutionären Prozesse, die einst den Homo sapiens hervorbrachten und ihm als letzten Vertreter seiner Gattung zum großen Auftritt auf unserem Planeten verholfen haben. Die Erkenntnisse zeigen: Die vielen Hunderttausend Jahre der Humanevolution verliefen anders, als man lange dachte. Seit es den Forschenden gelingt, die erhaltene Erbsubstanz in Knochenfunden zum Sprechen zu bringen, bröckelt die mühsam Knochen für Knochen aufgebaute Lehrmeinung. Homo sapiens steht nicht mehr als Krone der Evolution da, sondern eher als Spross diverser „Liebschaften“ in der Vorzeit.

Unsere Populationsgeschichte im Licht alter DNA

Die Vorgänger leben weiter, im heutigen Menschen, in unserem Erbgut. Im Jahre 2010 sequenzierten Svante Pääbo und sein Team DNA aus dem winzigen Fragment eines Fingerknochens, den sie in der Denisova-Höhle in Südsibirien entdeckt hatten. „Mittels Genanalysen konnten wir zeigen, dass es sich um eine bis dahin unbekannte Menschenform handelt“, erklärt Pääbo.

Abbildung 4: Modell zum Genfluss Die Abbildung zeigt die Richtung und den geschätzten Umfang der Genflüsse zwischen Neandertaler, Denisova-Mensch und modernem Menschen. Ob es einen direkten Genfluss vom Denisova-Menschen nach Asien gab, ist dabei ungewiss (gepunktete Linie). In drei von fünf Fällen konnten die Forscher eine Kreuzung zwischen vier verschiedenen Hominiden-Populationen nachweisen. Bei dem „potenziell unbekannten Frühmenschen“ könnte es sich um Homo erectus gehandelt haben. © aus: K. Prüfer et al., Nature 505, 43–49, 2. Januar 2014

Und dass dieser Denisova-Mensch, wie die Forschenden ihn genannt haben, sich mit den Vorfahren der heutigen Bewohner von Australien, Neuguinea und Ostasien gepaart hat. Genomvergleiche belegen, dass es zwischen Neandertaler, Denisova und Homo sapiens zum Austausch von Genen (Genfluss) gekommen sein muss (Abbildung 4). „Vor diesem Hintergrund müssen wir den modernen Menschen inzwischen als Teil einer hominiden Metapopulation betrachten“, sagt Pääbo. „Einzigartig sind eigentlich nur die letzten 20.000 Jahre, in denen wir als Menschen allein auf der Welt waren.“ Und der Paläogenetiker prophezeit: „In Zukunft werden wir aus minimalen Funden sicher noch viel mehr über die Bevölkerungsgeschichte erfahren.“


 *Der Artikel ist erstmals in Biomax 33 unter dem Titel: "Neandertaler mischen mit - Was DNA-Analysen über unsere Frühgeschichte verraten"  https://www.max-wissen.de/max-hefte/biomax-33-neandertaler// im Winter 2016/17 erschienen und wurde 7/2022 durchgesehen. Bis auf den Titel wurde der unter einer CC BY-NC-SA 4.0 Lizenz stehende Text unverändert wiedergegeben.


Weiterführende Links

Nobelprize in Physiology or Medicine 2022 https://www.nobelprize.org/prizes/medicine/2022/summary/

Der Neandertaler in uns | Max-Planck-Cinema: Video 7:37 min. https://www.youtube.com/watch?v=WnPXZIfEuco

Pionier der Paläogenetik: Max-Planck-Forscher Svante Pääbo im Porträt. Video 8:11 min. https://www.youtube.com/watch?v=P0pSCly-JW0&t=2s

 

Artikel im ScienceBlog

 

Christina Beck, 20.05.2021: Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution

Herbert Matis, 17.01.2019: Der "Stammbusch" der Menschwerdung

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Herbert Matis, 30.11.2017: Die Evolution der Darwinschen Evolution

Philipp Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns


 

inge Mon, 03.10.2022 - 17:23

Retinitis Pigmentosa: Verbesserung des Sehvermögens durch Gelbwurz, schwarzen Pfeffer und Ingwer

Retinitis Pigmentosa: Verbesserung des Sehvermögens durch Gelbwurz, schwarzen Pfeffer und Ingwer

Do, 29.09.2022 — Ricki Lewis

Ricki LewisIcon Medizin Retinitis pigmentosa ist die Sammelbezeichnung für eine Gruppe degenerativer Erkrankungen der Netzhaut (Retina), die durch genetische Mutationen verursacht werden und zu schwerem Sehverlust und Blindheit führen. Weltweit sind mehr eine Million Personen davon betroffen. Eine Reparatur der diversen Mutationen durch Gentherapie wird wohl erst in einiger Zeit möglich werden. Auf Grund seiner anti-oxidativen, anti-entzündlichen Eigenschaften wurde das In der Gelbwurz enthaltene Curcumin bereits bei verschiedenen Netzhauterkrankungen erprobt. Die Genetikerin Ricki Lewis erzählt hier über einen an Retinitis pigmentosa leidenden, nahezu erblindeten ehemaligen Schulkollegen, der mit der Gewürzkombination Curcumin, Piperin aus schwarzem Pfeffer und Ingwer einen Teil seiner Sehkraft wieder erlangte.*

Steve Fialkoff und ich waren keine Freunde an der James Madison High School in Brooklyn, NY in der Klasse von 1972. Während der superbeliebte Steve mit seinem riesigen blonden Afro überall zu sehen war, unsere Erlebnisse mit der Kamera festhielt und die Klasse bei Theateraufführungen anführte, war ich auf der Überholspur ins Strebertum. Ich verbrachte meine Zeit im Chemielabor mit dem tollen neuen Lehrer, einem 24-Jährigen, der meiner besten Freundin Wendy und mir zeigte, wie man Wasserpfeifen herstellt.

Es war nicht überraschend, dass Steve Filmeditor und jetzt Schriftsteller wurde. Überraschend war, dass er im Alter von 25 Jahren erfuhr, dass er Retinitis pigmentosa (RP) hatte, nachdem er in einem abgedunkelten Theater über einen Sitz gestolpert war und noch ein paar andere Stolperer hatte.

Von den mehr als vierzig Arten der RP, die jeweils durch ein anderes Gen verursacht werden, sind weltweit mehr als eine Million Menschen betroffen. Dieselbe Mutation kann sich jedoch bei verschiedenen Personen unterschiedlich manifestieren, sogar innerhalb derselben Familie. Die Zusammenhänge zwischen Genotyp - den Mutationen - und Phänotyp - den Symptomen - sind komplex.

Steve erbte das Usher-Syndrom Typ 2A von Eltern, die Träger sind. Das Nachtsehen würde allmählich verschwinden, dann Teile der Peripherie seines Gesichtsfeldes. In seinen 60ern würde er wahrscheinlich sein Augenlicht vollständig verlieren, sagte der Augenarzt, der Usher 2A seltsamerweise als "häufig und leicht" bezeichnete. Kein großer Trost.

Ein bisschen Biologie. Das USH2A-Gen, das für Steves RP verantwortlich ist, kodiert für ein Protein, Usherin, das als zellulärer Klebstoff und Gerüst fungiert. Usherin hält die Integrität der Stäbchen und Zapfen im hinteren Teil des Auges aufrecht, die das Sehen ermöglichen, sowie die Integrität der unterstützenden Zellschichten. Steve nennt das, was ich extrazelluläre Matrix und zelluläre Adhäsionsmoleküle nenne, "zellulären Mist, der Zellen erstickt".

Die Vorhersage des Augenarztes wurde wahr, als Steve 56 Jahre alt war. Als sich der Tunnel seiner Sehkraft unaufhaltsam verengte, meldete sich Steve für einen Blindenhund an, den er bekommen konnte, sobald er 95 Prozent seiner Sehkraft verloren hatte. Im August 2021 hatte er sich dafür qualifiziert.

Als kürzlich Steve mit seinem Hund spazieren ging, nahm seine Geschichte eine dramatische und unerwartete Wendung: Es wurde mehr von der Umgebung sichtbar. Wie ein Wissenschaftler versuchte Steve nachzuvollziehen, welche Umstände zur Erweiterung seines Gesichtsfelds geführt haben konnten.

Durch Überlegen und Ausprobieren fand er drei gängige Nahrungsergänzungsmittel - Curcumin, Piperin aus schwarzem Pfeffer und Ingwer -, die - zusammen eingenommen - ihm anscheinend einen Teil seiner Sehkraft zurückgaben. Abbildung

Abbildung: Gewürze als Heilmittel: Oben: Curcumin Hauptbestandteil der Gelbwurz (Kurkuma), das die gelbe Farbe des Curry bewirkt. Mitte: Piperin, Hauptalkaloid des schwarzen Pfeffers, Träger des scharfen Geschmacks. Unten: Gingerol

Ein halbes Jahrhundert nachdem wir uns auf den Gängen der James Madison High School begegnet sind, erfuhr ich die Geschichte von Steve.

Ein denkwürdiger Sonnenaufgang

Als Steve am frühen Morgen des 8. Februar 2022 sein Wohnhaus in Manhattan verließ, bog er nach Osten ab, "direkt in einen lodernden Feuerball aus Sonne, der zwischen den Gebäuden aufging. Ich schaute nach unten, schirmte meine Augen ab und sah einzelne Haare auf dem Körper meines Blindenhundes und konnte seinen ganzen Kopf sehen. Ich fing zu gehen an und schirmte meine Augen ab. Der Hund erledigte sein Geschäft, und ich drehte mich um und schaute zurück nach Westen, weg von der Sonne. Und ich konnte den ganzen Block entlang sehen, die Gebäudekanten und die Stelle, an der Bürgersteig und Bordsteinkante aufeinandertreffen. Normalerweise konnte ich nicht sehen, wo ich war, bis ich ein paar Meter entfernt war", erinnert er sich.

Aber das Sonnenlicht war keine so starke Veränderung oder so vollständig wie ein sich hebender Vorhang. Auf dem Weg nach Hause stolperte Steve über ein paar kleine eingezäunte Rasenflächen, die Bäume in Manhattans Seitenstraßen umgeben. Oben in seiner Wohnung angekommen sagte er seiner Frau und seiner Tochter, dass er "einen guten RP-Tag" habe. Und das war er auch.

In der Küche, wo Steve sich daran gewöhnt hatte, nur die Hälfte von einer der vier Herdplatten zu sehen, sah er jetzt drei. "Normalerweise muss ich meine Hand auf den Herd legen, um herauszufinden, wo ich einen Topf hinstellen soll. Mein Gesichtsfeld hatte sich über Nacht erweitert."

Was war passiert? Müsste sich die RP nicht verschlechtern? Könnte es an den Curcumin-Pillen liegen, die Steve vorbeugend gegen COVID einnahm?

Auf der Suche nach einem diätetischen Zusammenhang

Seine anfängliche Vermutung erwies sich als richtig. Curcumin ist der aktive Bestandteil von Kurkuma. Es verleiht dem pulverisierten Gewürz seine charakteristische leuchtend gelbe Färbung. Die Quelle ist die Pflanze Curcuma longa, die mit dem Ingwer verwandt ist. Steve nahm ein Ergänzungsmittel namens CurcumRx ein.

Seine Tochter googelte "Curcumin und RP" und fand bald einen Übersichtsartikel vom Mai 2021, in dem Curcumin mit verschiedenen Sehstörungen in Verbindung gebracht wurde, darunter ein langer Abschnitt über RP [1].

Aufgeregt überflog Steve den Artikel. "Ich dachte: Curcumin wirkt tatsächlich! Ich habe ein Viertel Gramm genommen, 250 Milligramm." 3,6 Gramm täglich wären für eine therapeutische Wirkung bei Menschen erforderlich, und bis zu 12 Gramm könnten vertragen werden, so die Extrapolation des Artikels aus Rattenstudien.

"Ich nahm es also weiter ein. Am 11. März erlebte ich einen weiteren Anstieg der Sehkraft." Steve hat den Artikel [1] erneut gelesen. Er erfuhr, dass Curcumin schon seit Tausenden von Jahren in der traditionellen chinesischen und ayurvedischen Medizin verwendet wird und um 1300 in den Westen gebracht wurde.

Die Anwendung des Gewürzes wurde mit seinen vielen "Antis" in Verbindung gebracht - antioxidativ, anti-inflammatorisch, antimutagen, antimikrobiell und sogar anti-Tumor. Es wurde als Mittel gegen Alzheimer, Diabetes, Krebs, rheumatische Erkrankungen, Allergien und Asthma, Arteriosklerose, Lungeninfektionen, chronische Darmentzündungen, Autoimmunerkrankungen, AIDS, Schuppenflechte und vieles mehr erprobt.

Mehr Wissenschaft: Steve hatte zunächst einen Zusammenhang zwischen der Einnahme des Gewürzes und einer besseren Sehkraft festgestellt. Falls er durch die Erhöhung der Dosis noch besser sehen konnte, so wäre das eine Korrelation. Und wenn er eine biologische Erklärung für die Wirkung finden könnte, wäre er auf dem Weg zum Nachweis der Kausalität.

Die Biologie der Netzhautschädigung

Curcumin hilft den Photorezeptorzellen (Stäbchen und Zapfen) der Netzhaut, die das Sehen ermöglichen. Diese Zellen, spezialisierte Neuronen, stehen unter starkem oxidativem Stress, da sie mit Licht bombardiert werden, ebenso wie nahe gelegene Unterstützerzellen und andere Neuronen, die visuelle Informationen an das Gehirn senden.

Unter oxidativem Stress entstehen durch chemische Reaktionen reaktive Formen von Sauerstoff, sogenannte freie Radikale mit ungepaarten Elektronen. Die freien Radikale schädigen Biomoleküle, insbesondere die empfindliche DNA. Mehrere Erkrankungen der Netzhaut entstehen durch ein Ungleichgewicht zwischen der Bildung freier Radikale und ihrer Beseitigung.

Curcumin wurde zur Bekämpfung von oxidativem Stress bei verschiedenen Netzhauterkrankungen eingesetzt, darunter Uveitis, altersbedingte Makuladegeneration, diabetische Retinopathie, zentrale seröse Chorioretinopathie, Makulaödem, retinale Ischämie-Reperfusionsschäden, proliferative Vitreoretinopathie, Tumore und verschiedene genetische Erkrankungen.

Curcumin fängt nicht nur freie Radikale ab, sondern wirkt auch auf das Pigment Rhodopsin, auch bekannt als Sehpurpur. Rhodopsin ist das am häufigsten vorkommende Protein in den Stäbchen, die die Oberflächen der äußeren Membranschichten auskleiden und das Nachtsehen ermöglichen. Bei einigen Formen von RP faltet sich das Rhodopsin bei seiner Bildung falsch, wodurch Teile der umgebenden Membran eingeklemmt werden und die Stäbchenzelle verkümmert und absterben kann. Im Tiermodell (Ratten) mit dieser Art von RP erhält Curcumin die Integrität der Stäbchen aufrecht.

Da die medizinische Wirkung hohe Curcumin-Dosen erfordert, synthetisieren Chemiker Analoga, verwandte Moleküle, die besser in den Blutkreislauf gelangen. Sie arbeiten auch an Verabreichungsmöglichkeiten mit Hilfe von Nanopartikeln, die sie aus Liposomen, Eiklar, Sand, Algen und sogar Seidenprotein herstellen. Natürlich verursachen Analoga und Nanopartikel zusätzliche Kosten.

Steve hat über einen besseren Verstärker der Curcumin-Wirkung gelesen: Piperin, eine Substanz in schwarzem Pfeffer, verzögert die Aufnahme von Curcumin in die Leber (und damit die Inaktivierung; Anm. Redn.). Damit sollte Curcumin länger im Blutkreislauf verbleiben, seine sogenannte Bioverfügbarkeit würde erhöht. Berichten zufolge erhöht der Pfefferanteil die Bioverfügbarkeit von Curcumin tatsächlich um 2000 Prozent.

Der Effekt des vietnamesischen Restaurants

Was hatte Steve gegessen, das besonders scharf gewesen war, bevor sich seine Sehkraft verbesserte? Er erinnerte sich vage an ein Ingwerhuhn in einem vietnamesischen Restaurant. "Wir hatten es dort am 4. Februar bestellt! Ich habe ein wenig recherchiert und gelesen, dass die Menschen in Indien und China dem Kurkuma Ingwer und schwarzen Pfeffer hinzufügen, damit es besser wirkt."

Steve kocht gerne. Es ist ihm aber nicht gelungen die Gewürzmischung des vietnamesischen Restaurants ganz nachzumachen und er wurde frustriert.

"Zwei Monate später sagte ich: Lass mich das verdammte Huhn noch einmal bestellen. Vielleicht ist da ja etwas Magisches drin. Also habe ich es noch einmal bestellt und meine Sehkraft hat sich verbessert." Seine Tochter fand das Rezept im Internet. "Und tatsächlich, das Restaurant marinierte Ingwerscheiben in schwarzem Pfeffer, Öl und Knoblauch."

Also erfand Steve seine eigene Variante vo mit Pfeffer und Kurkuma marinierten Ingwerstreifen und aß alle paar Tage 6 bis 8 davon mit Reis oder Nudeln. Und er erhöhte die Curcumin-Tabletten auf 500 Milligramm.

Der Kalender lieferte die restlichen Anhaltspunkte.

Rattenstudien zeigten, dass Curcumin mittels Piperin 48 Stunden brauchte, um in die Blutversorgung der Netzhaut zu gelangen. "Ich hatte das Ingwerhuhn am 4. Februar bestellt und hatte bis zum 6. Februar noch Reste übrig ... ich hatte es also drei Tage hintereinander gegessen. Am 8. Februar änderte sich meine Sehkraft scheinbar über Nacht. Das Gleiche passierte noch einmal. Am 8. März aß ich Ingwerhuhn und am 11. März veränderte sich mein Sehvermögen."

Davon weiter erzählen

Die Ingwerstreifen-Mischung scheint zu helfen. Im Juli konnte Steve bei seinen morgendlichen Spaziergängen auf den allgegenwärtigen Baustellen in Manhattan Gerüste und Masten sehen, die er vorher nicht kannte. "Ich konnte Metallstangen und Mülltonnen und Menschen sehen - das war eine große Veränderung." Jetzt versucht er, die Diät so konsequent wie möglich zu halten, um die Tage mit gutem Sehvermögen zu maximieren - manchmal ist seine Welt immer noch in Grau- und Schwarztöne gehüllt.

Im April zeigte sich bei einem Besuch in einer Klinik für Netzhauterkrankungen eine Verbesserung der Sehschärfe, also der Fähigkeit, Details von Objekten in einer bestimmten Entfernung zu erkennen. Aber Steves RP hatte sich seit der letzten Untersuchung vor sechs Jahren verschlechtert. Es gab also keine Möglichkeit zu messen, ob sich das Fortschreiten verlangsamt hatte. Als Steve seinen kulinarischen Eingriff erwähnte, sagte der Arzt: 'Das ist schön, wir sehen uns in einem Jahr wieder'.

Als Steve sich an die Foundation Fighting Blindness wandte, wurde er mit einem Wissenschaftsjournalisten in Verbindung gebracht, der ihm riet, die Ergebnisse von klinischen Doppelblindstudien abzuwarten. Das bedeutet allerdings eine lange Wartezeit, denn auf ClinicalTrials.gov sind nur sechs laufende Studien für Usher 2A RP aufgeführt - zwei um des Fortschreitens der Krankheit zu verfolgen und vier, bei denen Antisense-Oligonukleotide (Gen-Silencer) eingesetzt werden, um eine ganz bestimmte Mutation zu bekämpfen.

Klinische Studien abwarten? Wenn ein leicht erhältliches Präparat funktioniert, sollte man es ausprobieren!

Also verbreitete Steve die Nachricht auf einem Verteiler, und ein paar andere RP-Patienten probierten Curcumin-Piperin-Ingwer aus oder hatten bereits ähnliche Entdeckungen gemacht. Ein Mann weinte, als er das Gesicht seiner Frau sehen konnte. Eine Frau konnte ihre Hände auf einem Schneidebrett sehen - ein Defizit, das auch Steve das Kochen erschwert hatte, da er zwar das Messer, nicht aber seine Finger sehen konnte. "Mein Ziel ist es, genug Leute zu informieren, um den Ball ins Rollen zu bringen."

Den Phänotyp oder den Genotyp behandeln? Mein Gentherapie-Buch neu überdenken

Meine Freundin Wendy aus der Zeit des Wasserpfeifen-Baus in der High School hatte den Kontakt zu Steve aufrechterhalten und schickte mir kürzlich einen Artikel von Ingrid Ricks, die ebenfalls an RP leidet [2]. So erfuhr ich von seiner bemerkenswerten Geschichte, die er gerne weitererzählte. Seine abschließende Bemerkung ließ mich kurz innehalten. "Es gibt keine Heilung für diese Krankheit. Bei Niemandem, den ich mit RP kenne, ist eine Verbesserung eingetreten."

Die Botschaft meines 2012 erschienenen Buches The Forever Fix: Gentherapie und der Junge, der sie rettete [3], war genau das Gegenteil, allerdings für eine andere Netzhauterkrankung, die die Schicht unterhalb der Stäbchen und Zapfen betrifft.

Mein Buch erzählt die Geschichte eines Jungen, Corey, mit RPE65-Netzhautdystrophie, der als einer der ersten nach einer Gentherapie innerhalb weniger Tage sein Sehvermögen wiedererlangte. Luxturna war die allererste Gentherapie, die 2017 in den USA zugelassen wurde. Seitdem haben Hunderte von Menschen mit Coreys Form der Blindheit dank Luxturna ihr Sehvermögen wiedererlangt. Steve wusste alles darüber.

Aber die Gentherapie hat auch einige spektakuläre Rückschläge erlitten, und zwar nicht nur den traurigen Fall von Jesse Gelsinger in der Anfangszeit. In jüngster Zeit sind Kinder in klinischen Studien gestorben, wobei es schwierig ist, festzustellen, ob die Krankheit oder die Behandlung daran schuld war.

Einige Gentherapien haben einfach nicht funktioniert, oder die Dosierung für Wirksamkeit ohne Toxizität ist nach wie vor schwer bestimmbar. Die Kosten sind ein großes Problem, selbst wenn es sich um eine einmalige oder seltene Gentherapie handelt. Die allererste zugelassene Gentherapie - Glybera gegen Pankreatitis in Europa - wurde vom Markt genommen, weil niemand dafür bezahlen wollte.

So musste ich im letzten Kapitel von The Forever Fix meinen übertriebenen Optimismus bedauern. Ich hatte eine weite Zulassung und Akzeptanz von Gentherapien sowohl für häufige als auch für seltene genetische Krankheiten vorausgesagt. Das war nicht der Fall. Bislang wurden in den USA erst zwei Gentherapien zugelassen, während andere Strategien im Kommen sind.

Wenn also eine clevere Kombination von weithin verfügbaren und sicheren Präparaten die Sehkraft wiederherstellt, ist das großartig. Bei einigen Erkrankungen ist die Behandlung des Phänotyps - des Merkmals - wirksamer und sicherlich billiger und einfacher als die Behandlung des Genotyps - der DNA.

Inzwischen kann Steve sein Glück kaum fassen und testet sich immer wieder selbst. "Habe ich gestern diese Treppenstufe gesehen? Und heute? Ist die Beleuchtung heute anders? "Ich würde mich gerne so weit verbessern, dass ich die Schauspieler sehe, die meine Originalstücke auf der Bühne aufführen." Ich hoffe, dass sich seine Welt weiter aufhellen wird.


* Der Artikel ist erstmals am 8.September 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "Can Curcumin, Black Pepper, and Ginger Treat Retinitis Pigmentosa? Steve Fialkoff’s Excellent Experiment" https://dnascience.plos.org/2022/09/08/can-curcumin-black-pepper-and-ginger-treat-retinitis-pigmentosa-steve-fialkoffs-excellent-experiment/erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Der Artikel wurde geringfügig gekürzt, die Abbildung von der Redaktion eingefügt


[1] M. Nebbioso et al., Recent Advances and Disputes About Curcumin in Retinal Diseases. Clinical Ophthalmology 2021:15 2553–2571

[2] Ingrid Ricks: Late Stage RP Sufferer Yields Ongoing Vision Gains with Curcumin, Black Pepper and Ginger. https://determinedtosee.com/?p=1951&fbclid=IwAR0t2u4zqOaH-Fj9TgOcLFRncSZxoOhl2L5zskm5ws7Do6kN7TQBxiX3_BI

[3] Ricki Lewis, The Forever Fix: Gene Therapy and the Boy Who Saved It .https://www.rickilewis.com/the_forever_fix__gene_therapy_and_the_boy_who_saved_it_114268.htm


Weiterführende Links

NDR Visite: Retinitis pigmentosa: Gentherapie rettet das Augenlicht; 14.06.2022. Video 7:37 min. https://www.ardmediathek.de/video/visite/retinitis-pigmentosa-gentherapie-rettet-das-augenlicht/ndr/Y3JpZDovL25kci5kZS81NTU0YTcxYS01YzY1LTQzOGYtODY5Zi0zODZlZmI4YmY4YzU

Artikel zum Thema "Sehen" im ScienceBlog

Walter Jacob Gehring, 25.10.2012: Auge um Auge — Entwicklung und Evolution des Auges

Gottfried Schatz, 31.01.2013: Wie «unsichtbarer Hunger» die Menschheit bedroht

Ricki Lewis, 03.09.2019: Gentherapie - ein Update

Redaktion, 18.08.2022: Aus dem Kollagen der Schweinehaut biotechnisch hergestellte Hornhautimplantate können das Sehvermögen wiederherstellen


 

inge Fri, 30.09.2022 - 01:05

Epigenetik - Wie die Umsetzung unserer Erbinformation gesteuert wird

Epigenetik - Wie die Umsetzung unserer Erbinformation gesteuert wird

Do, 15.09.2022 — Christina Beck Christina Beck

Icon Molekularbiologie

Als im Jahr 2001 die Entschlüsselung des menschlichen Genoms fertiggestellt wurde, war die Euphorie groß: Mehr als drei Milliarden Buchstaben umfasst unsere DNA, und die waren endlich bekannt. Wenn es jetzt noch gelänge, in diesem Buchstabensalat die entsprechenden Gene ausfindig zu machen, würde man die Details unseres genetischen Bauplans und damit auch die Ursachen etlicher Krankheiten kennen, so die Meinung vieler Forschender. »Im Rückblick waren unsere damaligen Annahmen über die Funktionsweise des Genoms dermaßen naiv, dass es fast schon peinlich ist«, zitierte die ZEIT im Jahr 2008 den Biochemiker Craig Venter, der mit seiner Firma Celera an der Genomentschlüsselung beteiligt war. Die Epigenetik liefert nun ein neues Verständnis, wie Ablesung und Umsetzung der Gene durch Markierungen an den Genen - wie sie durch Umwelteinflüsse und Lebensstil zustande kommen und auch weiter vererbt werden können - gesteuert werden. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, berichtet darüber.*

Jahrzehntelang galt das Genom als unveränderlicher Bauplan, der bereits bei der Geburt festgelegt ist. Nicht umsonst wurde das Genom als „Buch des Lebens“ bezeichnet, geschrieben mit einem Alphabet aus vier Buchstaben – den Basen Adenin, Guanin, Cytosin und Thymin. Gene waren Schicksal: Sie sollten Aussehen, Persönlichkeit und Krankheitsrisiken bestimmen. Heute wissen wir, dass die in der DNA gespeicherten Informationen keine 1:1 Blaupause für den Organismus sind. Vielmehr stehen unsere Gene in Wechselwirkung mit verschiedenen Faktoren. Dazu gehören auch sogenannte epigenetische Markierungen. Sie dienen dazu, bestimmte Abschnitte der DNA – quasi wie mit einem „bookmark“ – als „lesenswert“ zu markieren, durch Verweise auf weiter entfernt liegende Abschnitte in neue Zusammenhänge zu bringen oder dem Zugriff der Übersetzungsmaschinerie durch eine Art „Passwort-Schutz“ zu entziehen.

Ein Code jenseits der DNA

Das Ganze darf man wohl als Informationsmanagement bezeichnen. Angesichts der ungeheuren Komplexität des Genoms, insbesondere von Säugetieren, eine absolute Notwendigkeit – aber auch Grundlage für Regulation: Schließlich müssen viele verschiedene Zelltypen koordiniert und aufrechterhalten werden. Und anders als die Buchstaben der DNA unterscheiden sich die epigenetischen Markierungen zwischen unterschiedlichen Arten von Zellen. Zusammengenommen ergeben sie das Epigenom – eine Art Code, der kontextabhängig ausgelesen wird und die Umsetzung der Erbinformation steuert: „Die Epigenetik ist eine zusätzliche Informationsebene, die festlegt, welche Gene potenziell aktivierbar sind“, sagt der Molekularbiologe Alexander Meissner, Direktor am Max-Planck-Institut für molekulare Genetik in Berlin. Gemeinsam mit seinem Team arbeitet er daran, die biochemischen Grundlagen dieser epigenetischen Steuerung zu entschlüsseln. Die Forschenden wollen verstehen, wie Gene an- oder ausgeschaltet werden, was ihre Aktivität verstärkt oder herunterdimmt.

Abbildung 1: Ausschnitt aus einem DNA-Molekül, bei dem an beiden Strängen ein Cytosin methyliert ist (gelbe Kugeln). Die DNA-Methylierung spielt eine wichtige Rolle bei der epigenetischen Genregulation und dient dazu, DNA-Abschnitte „stumm“ zu schalten. Neben einzelnen Basen können auch Histone methyliert sein.© links: HN; rechts: Christoph Bock/beide CC BY-NC-SA 4.0

Einer der Regelungsmechanismen setzt direkt an der DNA an: Chemische Markierungen – die Methylgruppen – werden von speziellen Enzymen an die Cytosinbasen der Erbsubstanz angehängt (Abbildung 1). Die so modifizierten DNA-Abschnitte werden daraufhin nicht mehr ausgelesen und in Proteine übersetzt – das Gen ist „stummgeschaltet“. Eine andere Möglichkeit besteht darin, das „Verpackungsmaterial“ der DNA mit chemischen Markierungen zu versehen. Die rund 3,3 Milliarden Nucleotidbasen des menschlichen Genoms ergeben aneinandergereiht einen Faden, der zwei Meter lang ist! Nur durch geschickte Verpackung ist es möglich, den DNA-Faden im Zellkern unterzubringen. Als „Spulen“ dienen dabei die Histone – spezielle Proteine, um die sich die DNA wickelt (Abbildung 2). Aus den so entstehenden Histon-DNA-Partikeln (Nucleosomen) ragen die Proteinschwänze der Histone heraus. An diesen Histonschwänzen sitzen bestimmte epigenetische Markierungen, die zahlreiche Eigenschaften des Chromatins kontrollieren. Dazu zählt etwa, ob das Chromatin locker oder dicht gepackt vorliegt. Die unterschiedlich dichte Verpackung reguliert, welche Gene exprimiert werden und damit, welche Proteine eine Zelle produziert.

Zugang für Ablese-Enzyme

Damit Enzyme die Erbinformationen lesen und abschreiben können, muss die betreffende DNA-Region für sie zugänglich sein. Zugang finden sie jedoch nur, wenn das Chromatin – etwa durch Acetylierung der Histonschwänze – in lockerer Form als sogenanntes Euchromatin vorliegt. Die zusätzlich angehängten Acetylgruppen heben die positiven Ladungen der Histonschwänze auf. So können die negativ geladenen DNA-Moleküle nicht mehr hin reichend neutralisiert werden, die Chromatinstruktur wird instabil und zugänglicher. Auch eine Phosphorylierung der Histonschwänze verändert durch zusätzliche negative Ladungen den Packungszustand des Chromatins und erleichtert das Ablesen bestimmter DNA- Regionen. Durch Reduktion der Acetylgruppen oder auch durch eine Methylierung der Histone nimmt dagegen die Packungsdichte des Chromatins zu. Damit sinkt die Wahrscheinlichkeit, dass eine DNA-Sequenz abgelesen wird und so ihre Funktion ausüben kann. Forschende bezeichnen solche Bereiche als Heterochromatin.

Ein Schritt bei der Öffnung des Chromatins ist die Bewegung der DNA, während sie in Nucleosomen eingewickelt ist. Wie alle molekularen Strukturen in unseren Zellen sind auch die Nucleosomen recht dynamisch. Sie bewegen sich, drehen sich um die eigene Achse, wickeln sich aus und dann wieder ein. Forschende am Max-Planck-Institut für molekulare Biomedizin in Münster haben mithilfe von Computersimulationen gezeigt, dass zwei Histonschwänze dafür verantwortlich sind, das Nucleosom geschlossen zu halten. Nur wenn diese sich von bestimmten Regionen der DNA wegbewegen, kann sich das Nucleosom öffnen, sodass die DNA für Enzyme zugänglich wird und abgelesen werden kann. Die typischen Bewegungen, mit der sich Nucleosomen öffnen und wieder schließen, bezeichnen Forschende als Nucleosomenatmung.

Abbildung 2: Forschende haben Nucleosomen in Bewegung untersucht. Die oben dargestellten statischen Ansichten sind um 90 Grad gedreht und zeigen die DNA (gelb) zusammen mit den unterschiedlichen Histonen H3 (dunkelblau), H4 (hellblau), H2A (rot) und H2B (hellgrün). Die Histonschwänze ragen aus dem Nucleosom heraus. Sie sind flexibel und spielen eine wichtige Rolle bei der Genexpression. © V. Cojocaru; MPI für molekulare Biomedizin Münster, Utrecht Universität, Babeș-Bolyai-Universität Cluj-Napoca / CC BY-NC-SA 4.0

Wie die Vielfalt der Zellen entsteht

Menschen besitzen mehr als 250 verschiedene Zelltypen. Dabei enthalten Hautzellen, Knochenzellen oder Nervenzellen alle dieselbe DNA-Sequenz, obwohl sie ganz unterschiedliche Funktionen erfüllen. Für die Spezialisierung sorgen epigenetische Mechanismen, die den genetischen „Basiscode“ erweitern und die Vielfalt an Expressionsmustern erhöhen: Sie schalten nicht benötigte Gene in bestimmten Zellen stumm, während sie in anderen Zellen aktiv sein können. Alexander Meissner und sein Team vom Max-Planck-Institut für molekulare Genetik in Berlin haben untersucht, wie epigenetische Mechanismen zur Bildung unterschiedlicher Gewebe und Organe im wachsenden Embryo beitragen. Dafür haben sie befruchtete Mäuse-Eizellen mit der Genschere Cas9 (siehe 1) so modifiziert, dass die Enzyme für das Anbringen epigenetischer Markierungen nicht gebildet wurden. Nach einer Entwicklungszeit von sechs bis neun Tagen untersuchten die Forschenden die sich entwickelnden Embryonen. Dabei zeigte sich, dass der Anteil der verschiedenen Zelltypen zum Teil stark verändert war. Von bestimmten Zellen wurden viel zu viele produziert, während andere komplett fehlten. Die Embryonen waren dadurch nicht überlebensfähig. „Wir verstehen jetzt besser, wie epigenetische Regulatoren dafür sorgen, dass wir so viele verschiedene Arten von Zellen im Körper haben“, fasst Meissner die Ergebnisse zusammen. Je nachdem, welche Funktion eine Zelle ausüben soll, versehen Enzyme die DNA mit unterschiedlichen epigenetischen Modifikationen. Sie sorgen dafür, dass sich Stammzellen etwa in Nerven-, Haut-, Herz- oder Muskelzellen weiterentwickeln, sodass sich im wachsenden Embryo unterschiedliche Gewebe und Organe ausbilden.

Folgenreiche Fehlprägung

Epigenetische Mechanismen stecken auch hinter einem Phänomen, das als genomische Prägung bekannt ist und bei verschiedenen Krankheiten eine Rolle spielt: Es tritt bei etwa einem Prozent unserer Gene auf und bewirkt, dass jeweils eine der beiden von den Eltern vererbten Genkopien stummgeschaltet wird. Schädliche Mutationen, die von der Mutter oder dem Vater erworben wurden, können somit nicht durch eine zweite Genkopie ausgeglichen werden. Dies kann zu Krankheiten wie dem Angelman-Syndrom oder dem Prader-Willi-Syndrom, aber auch zu Krebs und Herz-Kreislauf-Erkrankungen führen. Ließe sich das stummgeschaltete gesunde Gen wieder aktivieren, könnte man damit die Störungen des aktiven fehlerhaften Gens möglicherweise ausgleichen. Die Max-Planck-Forschenden wollen daher verstehen, welche Mechanismen für die Inaktivierung der Gene verantwortlich sind. „Erst in den vergangenen Jahren hat sich herauskristallisiert, dass die Prägung auf molekularer Ebene über verschiedene Wege erreicht wird“, sagt Alexander Meissner. Demnach kann auch bei der genomischen Prägung entweder die „Verpackung“ des Erbgutes oder die DNA selbst chemisch modifiziert sein. Um zwischen den verschiedenen Möglichkeiten zu unterscheiden, nutzten die Forschenden wiederum die Genschere Cas9. In befruchteten Mäuse-Eizellen verhinderten sie so die Bildung eines bestimmten Enzyms, das für das Anbringen epigenetischer Markierungen zuständig ist. Anschließend beobachteten sie, ob das fehlgeprägte, stumm geschaltete Gen im weiteren Entwicklungsverlauf wieder aktiv wurde. Auf diese Weise gelang es ihnen nicht nur, die Stummschaltung aufzuheben. Sie konnten auch unterscheiden, welche epigenetischen Mechanismen dahintersteckten. „In den meisten Fällen war das die DNA-Methylierung“, sagt Alexander Meissner.

Schutz vor Eindringlingen

Neben der Genregulation haben epigenetische Mechanismen auch noch eine andere lebenswichtige Funktion: Indem die Zelle bestimmte DNA-Abschnitte stilllegt, kann sie sich vor „parasitären“ Anteilen des Genoms, den Transposons, schützen. „In den meisten Genomen – auch denen von Menschen und Mäusen – verbergen sich tausende virusähnliche Sequenzen, die sich über die Jahrmillionen im Erbgut ihrer Wirte verewigt haben“, so Meissner. Diese auch als „springende Gene“ bekannten Transposons sind in der Lage, sich spontan zu vervielfältigen und an einer beliebigen Stelle der DNA einzubauen. Transposons haben sich im Genom ausgebreitet und machen etwa 40 Prozent des Erbmaterials in Mäusen und Menschen aus. „Methylierung hält diese potenziell schädlichen Erbgutabschnitte in Schach“, sagt Chuck Haggerty, Wissenschaftler in Meissners Team: „Wenn ein Transposon oder Virus mitten in ein Gen springt, könnte das dessen Funktionen beeinträchtigen.“ Die Zelle muss also unbedingt verhindern, dass sich solche Sequenzen unkontrolliert im Genom ausbreiten. Spezielle Enzyme fahnden daher gezielt danach und heften Methylgruppen als chemische Warnhinweise an. Die so markierten DNA-Abschnitte werden daraufhin von der Zelle ignoriert. Ein solches Enzym aus der Gruppe der Methyltransferasen haben die Berliner Forschenden charakterisiert: Es ist dafür zuständig, den epigenetischen Ist-Zustand aufrecht zu erhalten und kann virusartige Erbgutabschnitte auch gezielt stumm schalten.

Verschiedene Studien haben untersucht was passiert, wenn die für die Methylierung zuständigen Enzyme fehlen. In diesem Fall werden viele invasive Elemente wieder aktiviert, und die Mutationsrate der Zellen schnellt nach oben. Experimente wie diese werfen die Frage auf, ob epigenetische Änderungen möglicherweise das genetische Chaos befördern, das mit Krebserkrankungen einhergeht. Tumorzellen tragen nämlich insgesamt oft zu wenige Methylgruppen am Genom, an bestimmten Stellen jedoch wiederum zu viele. Gene für wichtige Reparaturenzyme oder Schutzmechanismen werden dadurch epigenetisch ausgeschaltet. Möglicherweise ergeben sich daraus aber auch Chancen für die Krebstherapie. Denn während Zellen ihre DNA mit hohem Aufwand vor Mutationen schützen, werden epigenetische Markierungen ständig neu gesetzt oder entfernt. Im Prinzip ließen sich daher Medikamente entwickeln, die ganze Gruppen von Genen über epigenetische Effekte wieder an- oder abschalten.

Markierung nach Maß

Alexander Meissner und sein Team wollen daher bestimmte Stellen im Genom gezielt methylieren, um herauszufinden, welchen Effekt die künstlich angebrachten Markierungen haben. Auch dabei kommt ihnen eine umgebaute Version von Cas9 zu Hilfe: Das zentrale Element der Genschere ist Cas9 – ein Enzym, das sich mithilfe von synthetisch hergestellten Führungs-RNAs (Single Guide RNA) gezielt an ausgewählte Regionen im Genom lenken lässt und dort die DNA schneiden kann. Dank der rasanten Entwicklung von Cas9 und ähnlichen Enzymen verfügen Molekularbiologinnen und -biologen heute auch über Cas9-Varianten ohne Schneidefunktion. Genauso wie die schneidende Variante sind auch sie in der Lage, bestimmte Regionen im Genom anzusteuern. Da sie sich darüber hinaus flexibel mit Methyltransferasen koppeln lassen, hoffen die Forschenden, damit künftig gezielt einzelne Basen im Genom methylieren zu können (Abbildung 3). Dafür müssen die Forschenden aber zuerst noch an den Details tüfteln: „Bisher ist die Methylierung leider noch zu unspezifisch“, sagt Alexander Meissner. Denn während der Enzymkomplex nach seinem Ziel sucht, werden hier und da bereits Methylgruppen angehängt. Der Wissenschaftler ist jedoch zuversichtlich, dass sich die Methylierung noch zielgenauer machen lässt. Die vielen neuen Möglichkeiten, die sich daraus ergeben würden, sind der größte Ansporn für ihn und sein Team: „Es hätte enormes Potenzial, wenn wir das Epigenom auf diese Weise gezielt verändern könnten.“

Abbildung 3. Gezielte Methylierung im Genom. Um Cytosinbasen im Genom gezielt zu methylieren, wird eine DNA-Methyltransferase mit einer speziellen Version von Cas9 ohne Schneidefunktion (dCas9) gekoppelt. Da die Führungs-RNA komplementär zur Zielregion ist, lässt sich die Methyltransferase so gezielt in bestimmte Regionen im Genom lenken. Dort versieht sie die Cytosinbasen mit Methylgruppen. Im Idealfall werden dabei nur bestimmte Cytosine methyliert, während weiter entfernt liegende unverändert bleiben. Mit der Methode wird erforscht, welche Methylierungen wann und wo für die Regulation bestimmter Gene verantwortlich sind. © A. Meissner, MPI für molekulare Genetik / CC BY-NC-SA 4.0

Gedächtnis für Umwelteinflüsse

Epigenetische Markierungen können angefügt, aber auch wieder entfernt werden. Dadurch ist das Epigenom im Gegensatz zur DNA-Sequenz relativ flexibel und kann auf Umwelteinflüsse reagieren. Andererseits lassen sich epigenetische Signaturen aber auch konservieren: Während der DNA-Replikation – d.h. bei der Verdopplung der Chromosomen in der teilungsbereiten Zelle – können Methylierungsmuster originalgetreu kopiert werden. Das ermöglicht es, die enthaltenen Informationen von einer Zellgeneration an die nächste weiterzugeben und damit dauerhaft zu speichern. Organismen bauen auf diese Weise ein zelluläres Gedächtnis für Umwelteinflüsse auf. Ob Stress, Ernährung, Sport oder Drogenkonsum – letztlich hinterlässt unsere gesamte Lebensweise Spuren im Epigenom. Zwillingsstudien zeigen dies besonders eindrucksvoll: Eineiige Zwillinge haben exakt die gleichen Gene, trotzdem unterscheiden sie sich in den Mustern ihrer Genaktivität und damit auch in ihren Eigenschaften. Die Unterschiede sind epigenetisch bedingt und nehmen mit dem Lebensalter zu: Während bei dreijährigen Zwillingen die Gene noch nahezu gleich „ticken“, sind die Unterschiede bei 50-jährigen fast viermal so häufig. Besonders ungleich sind jene Pärchen, die schon früh getrennte Wege gehen.

Wie der Großvater, so die Enkelin?

Ein besonders spannendes Gebiet der Molekularbiologie ist derzeit die transgenerationelle Epigenetik, die sich mit der Vererbung epigenetischer Informationen befasst: Immer mehr Studien an so unterschiedlichen Organismen wie Fruchtfliegen, Mäusen und Menschen deuten darauf hin, dass epigenetische Muster nicht nur zwischen verschiedenen Zellgenerationen innerhalb des Körpers weitergegeben werden, sondern zumindest in gewissen Situationen sogar über Generationen hinweg. Demnach können etwa die Ernährungslage während der Schwangerschaft, Traumata, Umweltgifte oder Nikotinkonsum nicht nur das Leben der Kinder bis ins hohe Alter beeinflussen, sondern sogar noch bei den Enkeln und darüber hinaus fortwirken. Inwieweit wir nicht nur unsere Gene, sondern auch epigenetische Veränderungen vererben, muss noch genauer erforscht werden. Es scheint, als könne das Leben unserer Großeltern – das Essen, das sie gegessen haben oder die Erfahrungen, die sie gemacht haben – uns womöglich noch Jahrzehnte später beeinflussen. Und das, obwohl wir selbst diese Dinge nie erfahren haben!

---------------------------------------

[1] Christina Beck,23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?


 * Der Artikel unter dem Titel "Epigenetik - das Gedächtnis unserer Gene" stammt aus dem BIOMAX 23-Heft der Max-Planck-Gesellschaft https://www.max-wissen.de/max-hefte/biomax-23-epigenetik/, das im Sommer 2022 unter Mitwirkung von Dr. Elke Maier (Redaktion Max-Planck-Forschung) aktualisiert wurde. Mit Ausnahme des Titels wurde der unter einer cc-by-n-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


 Weiterführende Links

Max Planck-Gesellschaft: Epigenetik - Änderungen jenseits des genetischen Codes. Video 5:04 min. https://www.youtube.com/watch?v=xshPL5hU0Kg&t=291s

Max Planck-Gesellschaft Epigenetik - Verpackungskunst in der Zelle. Video 8:09 min. https://www.youtube.com/watch?v=0VQ62pD5eqQ

Peter Spork, Newsletter Epigenetik:  https://www.peter-spork.de/86-0-Newsletter-Epigenetik.html

Epigenetik im ScienceBlog

inge Thu, 15.09.2022 - 01:03

Epigenetik: Verjüngungskur für alternde Stammzellen im Knochenmark

Epigenetik: Verjüngungskur für alternde Stammzellen im Knochenmark

Do, 22.09.2022 — Peter Tessarz Peter Tessarz height=

 

Icon Molekularbiologie

Wenn wir altern, werden unsere Knochen dünner, wir erleiden häufiger Knochenbrüche und es können Krankheiten wie Osteoporose auftreten. Schuld daran sind unter anderem alternde Stammzellen im Knochenmark, die nicht mehr effektiv für Nachschub für das Knochengewebe sorgen. Peter Tessarz und sein Team am Max-Planck-Institut für Biologie des Alterns (Köln) haben jetzt herausgefunden, dass sich diese Änderungen zurückdrehen lassen, und zwar durch die Verjüngung des Epigenoms. Eine solcher Ansatz könnte in Zukunft zur Behandlung von Krankheiten wie Osteoporose beitragen*

Das Epigenom verändert sich in alternden Stammzellen

Viele Alternsforscher haben bereits seit einiger Zeit die Epigenetik als eine Ursache von verschiedenen Alterungsprozessen im Blick. Bei der Epigenetik handelt es sich um Veränderungen an der Erbinformation und der Chromosomen, die nicht die Sequenz der DNA selbst verändern, aber ihre Aktivität beeinflussen können. Dies geschieht durch die Modifizierung von DNA und DNA-bindenden Proteinen, den sogenannten Histonen. An diesen Modifizierungen sind kleine Moleküle beteiligt, die aus dem Stoffwechsel der Zelle stammen und die DNA mehr oder weniger zugänglich machen können. Dies erlaubt nachfolgend die Bindung von Transkriptionsfaktoren, die die Gene an- oder abschalten. Durch diesen Prozess sind Stoffwechsel und Epigenetik eng miteinander verbunden und viele Stoffwechselprozesse selbst, aber auch die Ernährung jedes Einzelnen können so die Genexpression beeinflussen.

Abbildung 1: Angefärbtes Kalzium (dunkelbraun) in Stammzellen im Knochenmark: Junge Stammzellen (links) produzieren mehr Material für den Knochenaufbau als alte Stammzellen (Mitte). In alten Stammzellen wiederum sammelt sich mehr Fettgewebe an. Durch Zugabe von Natriumazetat lassen sie sich aber wieder verjüngen (rechts). © Max-Planck-Institut für Biologie des Alterns/Pouikli 0

Da sich der Stoffwechsel mit zunehmendem Alter ändert, ist das Zusammenspiel zwischen Epigenetik und Stoffwechsel ein wichtiger Bestandteil des Alterns. Wir wollen und müssen diesen Aspekt des Alterns besser verstehen, um Ansätze zu entwickeln, die die Lebenszeit eines Menschen verlängern, und zwar um die Zeitspanne, in der er gesund leben kann (Abbildung 1). Eine besonders entscheidende Komponente des Stoffwechsels sind außerdem die Mitochondrien, kleine Organellen in unseren Zellen, die für die Gewinnung von Energie und die Herstellung vieler Stoffwechselprodukte sind. Eines dieser Produkte ist Acetyl-CoA, ein Molekül, das unter anderem in den Zellen benutzt wird, um Fette herzustellen und auch, wie erwähnt, um Histone, zu acetylieren – also kovalent zu modifizieren. Die DNA wird zugänglicher für Transkriptionsfaktoren, die dann Gene effizient anschalten können.

Wie hängen nun also Stoffwechsel, Epigenetik und dünne Knochen zusammen?

Um diese Frage zu klären, haben wir das Epigenom, also alle epigenetischen Veränderungen an der DNA einer Zelle, von mesenchymalen Stammzellen untersucht. Diese Stammzellen finden sich im Knochenmark und können verschiedene Zellarten wie Knorpel-, Knochen- und Fettzellen hervorbringen.

Die Rolle von Acetyl-CoA und der Mitochondrien

Wir wollten wissen, warum diese Stammzellen im Alter weniger Material für die Knochen produzieren und sich so immer mehr Fettgewebe im Knochenmark ansammelt. Deswegen haben wir das Epigenom von Stammzellen aus jungen und alten Mäusen verglichen. Im Alter ändert sich in der Tat das Epigenom sehr, vor allem wird die DNA weniger zugänglich. Diese Veränderungen betreffen häufig diejenigen Gene, die wichtig für die Herstellung von Knochen sind. Weiterhin konnten wir zeigen, dass im Alter weniger Acetylierungen vorliegen, und eine Erklärung dafür könnte sein, dass sich der Stoffwechsel derart verändert ist, dass Mitochondrien weniger Acetyl-CoA produzieren. Dieses aber ist nach unseren Untersuchungen nicht der Fall. Allerdings fanden wir heraus, dass Mitochondrien dieses Stoffwechselprodukt nur noch gering, verglichen mit jungen Mitochondrien, aus ihrem Inneren ausschleusen können. Schuld daran sind reduzierte Mengen eines Proteins (Slc25a1), das dafür verantwortlich ist, Acetyl-CoA von den Mitochondrien in das Cytoplasma zu transportieren [1].

Verjüngung des Epigenoms

Ein spannendes Ergebnis dieser Untersuchungen war, dass es ausgereicht hat, den älteren mesenchymalen Zellen über rekombinante Viren wieder mehr des Proteins Slc25a1 zu verabreichen. So wurde wieder mehr Acetyl-CoA ins Cytoplasma transportiert, die Histone wurden wieder acetyliert und es wurden wieder diejenigen Gene angeschaltet, die dafür sorgen, dass mehr Knochenzellen gebildet werden. Wir konnten sogar zeigen, dass allein schon die kurzfristige Zugabe eines anderen Vorläufers von Acetyl-CoA, nämlich Natriumacetat, zu isolierten Stammzellen ausreicht, das Epigenom zu verjüngen.

Um abschließend zu verstehen, ob die hier vorgestellten Veränderungen im Epigenom auch beim Menschen die Ursache für das im Alter erhöhte Risiko für Knochenbrüche oder Osteoporose sein könnte, untersuchten wir menschliche mesenchymale Stammzellen, die wir nach einer Hüftoperation von Patienten erhielten. Die Zellen von älteren Patienten, die auch an Osteoporose litten, zeigten tatsächlich dieselben epigenetischen Veränderungen, wie sie bereits zuvor bei den Mäusen beobachtet wurden. Dieses zeigt, dass auch im Menschen die Ursachen von dünnen Knochen im Alter wahrscheinlich im Epigenom zu suchen sind.

Neben unserer Studie wurden in den letzten Jahren auch andere Beispiele vorgestellt, die aufgezeigt haben, wie eng Stoffwechsel und Epigenom miteinander verflochten sind. Diese Verbindung ist scheinbar nicht nur ein zentraler Bestandteil des Alterns, sondern spielt auch bei anderen biologischen Prozessen eine entscheidende Rolle. Als Beispiel sei die Embryonalentwicklung zu nennen, wo Änderungen im Stoffwechsel und nachfolgend im Epigenom eng miteinander gekoppelt sind. Auch Erkrankungen, wie zum Beispiel die Entstehung von Tumoren, bei denen sich sowohl Stoffwechsel als auch das Epigenom sehr stark verändern, müssen hier erwähnt werden. In den nächsten Jahren wird es von großer Bedeutung sein, das Zusammenspiel zwischen Stoffwechsel, Epigenetik und Genexpression noch besser zu verstehen, um darauf aufbauend Therapieansätze zu entwickeln. Vielleicht wird es dann in Zukunft auch möglich sein, alte Stammzellen wieder verjüngen zu können und sie im Rahmen einer Stammzelltherapie einzusetzen.

--------------------------------------

[1] Pouikli, A.; Parekh, S.; Maleszewska, M.; Nikopoulou, C.; Baghdadi, M.; Tripodi, I.; Folz-Donahue, K.; Hinze, Y.; Mesaros, A.; Hoey, D.; Giavalisco, P.; Dowell, R.; Partridge, L.; Tessarz, P. Chromatin remodeling due to degradation of citrate carrier impairs osteogenesis of aged mesenchymal stem cells Nature Aging 1, 810–825 (2021)


*Der Forschungsbericht mit dem Titel „Verjüngungskur für alternde Stammzellen im Knochenmark" (https://www.mpg.de/18101170/age_jb_2021?c=155461) stammt aus dem Jahrbuch 2021 der Max-Planck-Gesellschaft, das im Sommer 2022 erschienen ist; mit Ausnahme des marginal veränderten Titels wurde der Bericht unverändert in den Blog übernommen. Die MPG-Pressestelle hat freundlicherweise zugestimmt, dass wir von MPG-Forschern verfasste Artikel in den ScienceBlog stellen können.


 Weiterführende Links

Max-Planck-Institut für Biologie des Alterns: https://www.mpg.de/155461/biologie-des-alterns

Peter Tessarz: Epigenetics and Ageing: Fountain of youth for ageing stem cells in bone marrow (deutsche Untertitel). Video 3:09 min. (13.September 2021) https://www.youtube.com/watch?v=FbwcbFoNInI

Max-Planck-Cinema: Epigenetik - Änderungen jenseits des genetischen Codes.

Peter Spork, Newsletter Epigenetik:  https://www.peter-spork.de/86-0-Newsletter-Epigenetik.html

Epigenetik im ScienceBlog:

inge Thu, 22.09.2022 - 16:58

Photosynthese: Cyanobakterien überleben im dunklen fernroten Licht - das hat seinen Preis, eröffnet aber auch neue Anwendungsmöglichkeiten

Photosynthese: Cyanobakterien überleben im dunklen fernroten Licht - das hat seinen Preis, eröffnet aber auch neue Anwendungsmöglichkeiten

Fr, 09.09.2022 — Redaktion

Redaktion

Icon Biologie

Zwei Arten von photosynthetischen Cyanobakterien können unter Nutzung von energiearmen fernrotem Licht in unglaublich dunkler Umgebung gedeihen. Wie eine neue Untersuchung im Fachjournal e-Life zeigt, geht dies einerseits auf Kosten der Widerstandsfähigkeit gegen Lichtschäden, andererseits auf Kosten der Energieeffizienz. Ein besseres Verständnis der Balance zwischen Effizienz und Widerstandsfähigkeit sollte zur Entwicklung von Kulturpflanzen oder Algen mit zusätzlich eingebauten Fernrot-Photosystemen dienen, die zur Produktion von Nahrungsmitteln und Biomasse aber auch für technologische Anwendungen wie der Synthese von Kraftstoffen Anwendung finden können.*

Das Leben auf der Erde, wie wir es kennen, hängt von der Photosynthese ab. Bei diesem Prozess nutzen Pflanzen, Algen und Cyanobakterien die Sonnenenergie, um Wasser und Kohlendioxid in den Sauerstoff, den wir atmen, und in die Glukose umzuwandeln, die viele biologische Prozesse antreibt.

Die Maschinerie der Photosynthese besteht aus einer aufwändigen, komplizierten Ansammlung von Proteinkomplexen, die hauptsächlich Chlorophyll-a-Moleküle und Carotinoid-Moleküle enthalten. Mehrere dieser Komplexe arbeiten synchron zusammen und vollbringen eine erstaunliche Leistung: Sie spalten Wassermoleküle (eines der stabilsten Moleküle unserer Erde) zur Gewinnung von Elektronen und Erzeugung von Sauerstoff und sie übertragen die Elektronen auf Chinonmoleküle zur Weiterführung der Photosynthese. Die Effizienz dieses ersten Schrittes der Energieumwandlung entscheidet über das Ergebnis des gesamten Prozesses.

Wenn das Photosystem zu viel Licht absorbiert, werden sogenannte reaktive Sauerstoffspezies in einem Ausmaß produziert, dass sie das Photosystem schädigen und die Zelle töten. Um abzusichern, dass das Photosystem effizient arbeitet, und um es vor Schäden zu schützen, wird etwa die Hälfte der Energie des absorbierten Lichts als Wärme abgeleitet, während der Rest der Energie in den Produkten der Photosynthese gespeichert wird.

Abbildung 1: .Die unterschiedlichen Chlorophylle weisen zwei ausgeprägte Absorptionsmaxima im blauen und im roten Spektralbereich des sichtbaren Lichts auf. Grünes Licht, das nicht absorbiert sondern gestreut wird, lässt Blätter grün erscheinen. (Bild und Legende von Redn. eingefügt.)

Viele Jahre lang ist man davon ausgegangen, dass das von Chlorophyll a absorbierte rote Licht (bei einer Wellenlänge von 680 Nanometern) das energieärmste Licht ist, das für den Antrieb der Sauerstoff erzeugenden Photosynthese verwendet werden kann und das gleichzeitig die durch hohe Lichtintensität verursachten Schäden minimiert. Frühere Forschungen haben jedoch gezeigt, dass einige Cyanobakterien, die in dunklen Umgebungen leben, in fernrotem Licht gedeihen können, das nahe an der Grenze dessen liegt, was wir sehen können (Abbildung 1): Dieses Licht hat eine niedrigere Energie als rotes Licht, weil seine Wellenlänge länger ist (720 Nanometer). Diese Cyanobakterien enthalten neben Chlorophyll a auch Chlorophyll d und Chlorophyll f, können aber dennoch die gleichen Reaktionen durchführen wie Organismen, die nur Chlorophyll a enthalten. Bislang war jedoch nicht klar, ob diese Arten einen Preis in Form von Widerstandsfähigkeit gegenüber Lichtschäden oder Effizienz der Energieumwandlung zahlen.

In der Fachzeitschrift eLife berichten nun Stefania Viola und A. William Rutherford vom Imperial College London und Kollegen, die am Imperial College, am CNR in Mailand, an der Freien Universität Berlin, an der Sorbonne und am CEA-Saclay tätig sind, über neue Erkenntnisse zur Photosynthese im Fernrotbereich [1]. Das Team hat zwei Arten von Cyanobakterien untersucht, die im Fernrot Photosynthese betreiben: Acaryochloris marina, das in dunkler Umgebung vorkommt, und Chroococcidiopsis thermalis, das unter variablen Lichtbedingungen lebt und je nach Lichtenergie zwischen normaler Photosynthese und Photosynthese im Fernrot wechseln kann. Um festzustellen, ob diese Organismen die gleiche Widerstandsfähigkeit gegenüber Lichtschäden und die gleiche Effizienz der Energieumwandlung aufweisen wie Organismen, die nur Chlorophyll a enthalten, haben Viola und Kollegen etliche Aspekte des ersten Energieumwandlungsschritts in der Photosynthese (siehe oben) untersucht. Dazu hat die Messung der erzeugten Sauerstoffmenge gehört sowie das Ausmaß an reaktiven Sauerstoffspezies, die zu Lichtschäden führen können.

Abbildung 2: . Photosynthese in rotem und fern-rotem Licht. Pflanzen, Algen und Cyanobakterien verwenden Chlorophyll a (Chl-a), um rotes Licht zu absorbieren und den Prozess der Photosynthese anzutreiben. Studien haben gezeigt, dass Chl-a unempfindlich gegenüber Lichtschäden ist und die Lichtenergie effizient nutzt. Einige Cyanobakterien (grüne Kreise im blauen Teich; nicht maßstabsgetreu) haben sich an ihre dunklere Umgebung angepasst, indem sie andere Chlorophyllmoleküle - Chlorophyll d (Chl-d) und Chlorophyll f (Chl-f) - zur Absorption von fernrotem Licht (das weniger energiereich ist als rotes Licht) verwenden. Die Verwendung dieser Moleküle hat jedoch ihren Preis: Chl-d-Organismen sind energieeffizient, aber nicht widerstandsfähig gegen Lichtschäden; Chl-f-Organismen hingegen sind nicht energieeffizient, aber widerstandsfähig gegen Lichtschäden.

Dabei hat es sich gezeigt, dass beide Arten der Cyanobakterien vergleichbare Mengen an Sauerstoff produzierten wie reine Chlorophyll-a-Cyanobakterien. Das Photosystem II von A. marina, das 34 Chlorophyll-d-Moleküle und nur ein Chlorophyll-a-Molekül enthält, war hocheffizient, hat aber auch hohe Mengen reaktiver Sauerstoffspezies produziert, wenn es starkem Licht ausgesetzt war; dadurch wurde es weniger widerstandsfähig gegen Lichtschäden. Im Gegensatz dazu produzierte C. thermalis - das vier Chlorophylle f, ein Chlorophyll d und 30 Chlorophyll a-Moleküle enthält - bei weitem nicht so viele reaktive Sauerstoffspezies, war aber auch weniger energieeffizient, wenn es in fernem Rotlicht kultiviert wurde. Abbildung 2.

Viola et al. geben eine detaillierte Beschreibung davon, wie sich diese Organismen an die lichtarmen Bedingungen in ihrer Umgebung angepasst haben und welche Kosten mit ihren Eigenschaften verbunden sind [1]. Ein besseres Verständnis der Art und Weise, wie photosynthetische Organismen energiearmes Licht nutzen, könnte den Wissenschaftlern dabei helfen, in Algen oder Pflanzen, die nur Chlorophyll a enthalten, fernrote Photosysteme einzubauen und so die Nutzung des Sonnenlichts zu verbessern und die Ernteerträge zu steigern. Außerdem könnten in Zukunft künstliche Systeme entwickelt werden, die energiearmes Licht zur Erzeugung von synthetischen Kraftstoffen aus Solarenergie nutzen.


 [1] Stefania Viola et. al.,Impact of energy limitations on function and resilience in long-wavelength Photosystem II .  https://doi.org/10.7554/eLife.79890


* Der von E. Romera stammende Artikel: "Photosynthesis: Surviving on low-energy light comes at a price" ist am 02 September 2022 erschienen in: eLife/elifesciences.org/articles/82221 https://doi.org/10.7554/eLife.82221 4 als eine leicht verständliche Zusammenfassung ("Insight") der Untersuchung von S.Viola et al. [1]. Der Artikel wurde von der Redaktion ins Deutsche übersetzt und mit Abbildung 1 plus Text ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz -


Photosynthese im ScienceBlog:

Historisches

Photosynthese in der Biosphäre

Auf dem Weg zur künstlichen Photosynthese


 

inge Fri, 09.09.2022 - 15:50

Anders wirtschaften - Wachstumsmodelle und das Problem das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln

Anders wirtschaften - Wachstumsmodelle und das Problem das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln

Do, 01.09.2022 — Caspar Dohmen

Caspar Dohmen

Icon Politik & Gesellschaft

Passt ein Ökonomie-Artikel in den ScienceBlog? Sicherlich, denn ohne neue naturwissenschaftliche Erkenntnisse und Entwicklungen werden sich die gravierenden aktuellen Probleme nicht lösen lassen. Im ersten Jahr der Pandemie 2020 ist die Weltwirtschaft wohl geschrumpft, in Deutschland um fünf Prozent. Dennoch ist die globale Wirtschaft seit Mitte des 19. Jahrhunderts exorbitant gewachsen. Hauptursachen waren die Schaffung des kapitalistischen Wirtschaftssystems, technologische Erfindungen und die Nutzung fossiler Energie. Das hat einen enormen Zuwachs an Wohlstand für viele Menschen ermöglicht. Aber die Nebenwirkungen sind schwer – das zeigen unter anderem die Klimakrise und das Artensterben. Die Zukunft der Menschheit hängt davon ab, ob sie Wachstum und den Erhalt natürlicher Lebensgrundlagen in Einklang bringen wird. Caspar Dohmen, Ökonom, freier Journalist und journalistischer Fellow am Max-Plank-Institut für Gesellschaftsforschung in Köln berichtet. *

 

Europa litt lange Zeit unter Knappheit, alleine zwischen 1315 und 1317 verhungerten fünf Millionen Menschen. Die Bevölkerung nahm dies als schicksalhaft hin und konnte sich nicht einmal vorstellen, dass sie ihre materiellen Bedingungen gravierend selbst verändern könnte. An dieser Einstellung rüttelte die Aufklärung, die das Denken von Anfang des 18. Jahrhunderts an revolutionierte. Nun verbreitete sich rationales Denken, erlebten Geistes- und Naturwissenschaften einen Aufschwung, was auch gravierende technologische und soziale Innovationen ermöglichte. Die Menschen verwandelten die stationäre, nicht wachstumsorientierte Wirtschaft in eine dynamische Wirtschaft, vor allem indem sie menschliche und tierische Arbeit in einem steigendem Ausmaß durch Kapital ersetzten. Dank der Maschinen und der Nutzung fossiler Energie stieg die Produktivität enorm an, konnte mehr erwirtschaftet und verteilt werden. Wer in Westeuropa lebt, ist deswegen im Schnitt etwa 20-mal reicher als seine Ur-Ur-Urgroßeltern. In unseren Tagen könnte man sogar die elementaren Bedürfnisse aller Lebenden befriedigen. Wenn trotzdem mehr als 800 Millionen Menschen hungern, dann deshalb, weil vielen Menschen Geld fehlt, um sich in ausreichender Menge Nahrungsmittel kaufen zu können.

 

Löhne als Motor

„Wachstum hat in kapitalistischen Ökonomien einen zentralen Stellenwert als politische Zielsetzung, als diskursives Mittel zur Legitimierung politischer Weichenstellungen und auch als „Kitt“ der die Gesellschaft zusammenhält, indem er den Kapitalismus in Gang hält und damit Wohlstand sichert“, so die Politikökonomin Arianna Tassinari. Sie befasst sich am Max-Planck-Institut für Gesellschaftsforschung in Köln mit der „Politischen Ökonomie von Wachstumsmodellen“. Der Direktor des Instituts, Lucio Baccaro, hat den Forschungsbereich ins Leben gerufen. Sein Ziel ist es, unterschiedliche Spielarten des Kapitalismus zu untersuchen, mit denen Staaten im Europa unserer Zeit Wachstum erzeugen.

„Der Motor für das Wachstum in großen europäischen Staaten war bis etwa 1990 stetes Lohnwachstum“, sagt Lucio Baccaro. Weil die Reallöhne im gleichen Maße (oder manchmal sogar schneller) als die Arbeitsproduktivität stiegen, konnten die Verbraucher im Laufe der Zeit mehr Geld für Konsum ausgeben. Das veranlasste Unternehmen zu investieren und mehr zu produzieren, was wiederum für Wachstum sorgte. Das Modell kam infolge der beiden Ölkrisen in den 1970er-Jahren unter Druck, als gleichzeitig Inflation und Arbeitslosigkeit stiegen. Zur Bekämpfung der Inflation entschieden sich Regierungen für politische und institutionelle Reformen, etwa die Einführung unabhängiger Zentralbanken, wie es sie in der Bundesrepublik bereits gab. Negativ wirkte sich auf das lohnorientierte Wachstumsmodell in Europa eine veränderte Arbeitsteilung aus. Von 1990 an begannen hiesige Unternehmen in großem Umfang Arbeit in Billiglohnländer zu verlagern, nach Asien, aber auch in die Transformationsländer in Mittel- und Osteuropa. Nun nähten dort Menschen Jeans oder fertigten Autoteile. Alleine die 30.000 größten Konzerne der Welt konnten ihre Gewinne in den Jahren von 1989 bis 2014 verfünffachen, obwohl sie ihre Umsätze nur verdoppelten. Wenn sich der Umsatz verdoppelt und der Gewinn verfünffacht, müssen die Kosten drastisch gesunken sein, ganz nach der betriebswirtschaftlichen Gleichung: Umsatz – Kosten = Gewinn. Diese Entwicklung schwächte die Gewerkschaften, was ein wesentlicher Grund dafür ist, dass der Anteil der Beschäftigten am erwirtschafteten Volkseinkommen phasenweise deutlich sank, während der Anteil der Unternehmen in Form ihrer Gewinne anstieg.

Neue Wege zum Wachstum

Das lohnorientierte Wachstumsmodell wurde nach Analysen des Max-Planck-Instituts für Gesellschaftsforschung durch mindestens vier neue Modelle abgelöst (Abbildung 1): „Großbritannien steht exemplarisch für das konsumorientierte Wachstumsmodell, welches wesentlich auf günstigen Krediten für die Bevölkerung beruht“, erläutert Lucio Baccaro. Deutschland ist ein Beispiel für das exportorientierte Wachstumsmodell, welches auf drei Elementen basiert: einem Exportsektor, der ausreichend groß ist, um als Lokomotive für die gesamte Volkswirtschaft zu fungieren, einer institutionalisierten Lohnzurückhaltung und einem festen Wechselkurssystem. Schweden wiederum steht für eine Kombination der Wachstumstreiber Konsum und Export, zumindest bis zur Finanzkrise von 2008. Länder wie Italien fanden dagegen keinen tragfähigen Ersatz für ein lohnorientiertes Wachstum. „Die beschriebenen Modelle sind prinzipiell auch auf Volkswirtschaften außerhalb Europas übertragbar“, sagt Erik Neimanns aus dem Forschungsteam von Baccaro. „Nimmt man weitere Länder in den Blick, lassen sich zudem zusätzliche Wachstumsmodelle beobachten, die z. B. auf dem Export von Rohstoffen, dem Tourismus oder hohen staatlichen und privaten Investitionen beruhen.“

Abbildung 1. Wie die Wirtschaft wächst

  • GB: Hohes Leistungsbilanzdefizit (Importe übersteigen Exporte), hohe Konsumausgaben, starke Nachfrage nach Dienstleistungen auch im mittel- und geringqualifizierten Bereich
  • IT: Exportsektor klein, Spezialisierung auf arbeitsintensive Güter, realer Wechselkurs des Euro im Verhältnis zur Wirtschaftsleistung zu hoch, schwacher Konsum
  • SE: Gleichzeitiges Wachstum im Export u. im Konsum, preisunempfindliche Exporte v.a. IT-Dienstleistungen, Lohnzuwächse in der Industrie u. im Dienstleistungssektor
  • D: Anhaltende Leistungsbilanzüberschüsse (Exporte übersteigen Importe), realer Wechselkurs des Euro im Verhältnis zur Wirtschaftsleistung zu niedrig, wachsende Ungleichheit durch Niedriglohnsektor im Dienstleistungsbereich © GCO, HNBM, istock

Noch nie haben Bürgerinnen und Bürger in Deutschland explizit bei einer Bundestagswahl über das auf Export beruhende Wirtschaftsmodell abgestimmt, genauso wenig wie die Britinnen und Briten über ein konsumorientiertes Wachstumsmodell. Allerdings stärken Regierungen regelmäßig mit Gesetzen das jeweilige Modell, in Deutschland beispielsweise durch die Hartz-Reformen im Jahr 2005. Dazu zählten unter anderem deutliche Einschnitte in die Arbeitslosenunterstützung oder die Einführung von Leiharbeit, was die Wettbewerbsfähigkeit der Exportindustrie stärkte.

Politik bestimmt den Kurs

Politikökonominnen und -ökonomen beschäftigen sich mit der Wechselwirkung von Wirtschaft und Gesellschaftssystem. Drei Vertreter, Mark Blyth, Jonas Pontusson und Lucio Baccaro, haben die Hypothese aufgestellt, dass funktionierende Wachstumsmodelle wie in Deutschland oder Großbritannien von einer klassenübergreifenden Koalition getragen werden. Die Wissenschaftler verstehen darunter einen Zusammenschluss gesellschaftlicher Akteure, der die Kluft zwischen Arbeit und Kapital überwindet und all diejenigen Gruppen einer Gesellschaft einbezieht, die von dem jeweiligen Wachstumsmodell profitieren. Einer solchen Koalition können mehr oder weniger organisierte Interessengruppen aus Schlüsselsektoren der Wirtschaft angehören, z.B. wirtschaftliche Eliten, Unternehmen und Arbeitgeberverbände, aber auch Beschäftigte oder Gewerkschaften, die von den Erfolgen in wirtschaftlich bedeutsamen Sektoren profitieren, sowie Regierungsmitglieder, die einen reibungslosen Betrieb der Volkswirtschaft gewährleisten sollen. Zu den Schlüsselsektoren zählen die drei Forscher in Deutschland den Maschinenbau und die Automobilindustrie, in Großbritannien die Finanzindustrie oder in Irland die Europatöchter der US-Technologiekonzerne. „Ein Merkmal von dominanten gesellschaftlichen Koalitionen ist, dass ihre Mitglieder einen legitimierenden Diskurs vorgeben“, sagt Baccaro. Das bedeutet, dass sie in der Lage sind, ihre Interessen als mit dem nationalen Interesse übereinstimmend darzustellen. Parteipolitik spielt in der Politik der Wachstumsmodelle eine wichtige Rolle. Da die dominante gesellschaftliche Koalition in den meisten Fällen über keine Stimmenmehrheit verfügt, muss sie eine Wahlmehrheit um jene Politik herum aufbauen, die ihren Interessen nützt. Die großen Parteien stehen im Wettstreit darum, das gegebene Wachstumsmodell und die damit verbundene vorherrschende gesellschaftliche Koalition bestmöglich zu managen. Zumindest diese Parteien bieten den Wählern nach Ansicht der Wissenschaftler auch keine grundlegende Alternative zu dem ausgewählten Wachstumsmodell, egal ob sie links oder rechts der Mitte positioniert sind.

Die Vermessung des Wohlstands

Üblicherweise wird das Wachstum anhand der Zunahme des Bruttoinlandsprodukts (BIP) gemessen. Statistiker berechnen für Länder zunächst das Bruttosozialprodukt (BSP), also den Wert aller Güter und Dienstleistungen, die in einer Volkswirtschaft binnen eines Kalenderjahres hergestellt oder bereitgestellt worden sind. Zur Berechnung des BIP werden vom BSP alle Erwerbs- und Vermögenseinkommen abgezogen, die in der zeitlichen Periode ins Ausland gingen. Addiert werden die Einkommen, die Inländer aus dem Ausland erhalten haben. Das BSP zielt somit eher auf Einkommensgrößen ab und wird in der volkswirtschaftlichen Gesamtrechnung auch als Bruttonationaleinkommen bezeichnet. Das BIP misst dagegen die wirtschaftliche Leistung eines Landes von der Produktionsseite her und ist in der Wirtschaftsstatistik und der Berichterstattung das Maß aller Dinge. Von Anfang an gab es Kritik am BIP als Maßstab gesellschaftlichen Fortschritts, weil viele Leistungen wie Hausarbeit oder ehrenamtliche Arbeit unerfasst bleiben, obwohl sie für das Wohlergehen der Individuen und den Zusammenhalt in einer Gesellschaft wichtig sind. Das BIP lässt auch keine Rückschlüsse über die Verteilung des Wohlstands zu: Es kann durchaus wachsen, obwohl gleichzeitig die Zahl der Armen zunimmt. Außerdem steigt der Indikator, wenn Umweltschäden beseitigt werden müssen. In den Nationalen Wohlfahrtsindex (NWI) fließen 20 Größen ein. Im Gegensatz zum BIP erfasst er auch die Einkommensverteilung sowie diverse wohlfahrtssteigernde Komponenten (Hausarbeit, ehrenamtliche Tätigkeiten) und wohlfahrtsmindernde Aktivitäten (Kriminalität oder Umweltschäden wie Flächenverlust). Alle Dimensionen werden monetär in Euro bewertet und entweder aufaddiert oder abgezogen. Während das BIP in Deutschland seit 1991 relativ kontinuierlich stieg, entwickelte sich der Wohlstand gemessen am NWI unterschiedlich und nahm weit weniger zu (Abbildung 2). Es existieren diverse weitere Indikatoren zur Messung des Wohlstands, etwa der von den Vereinten Nationen erhobene Index der menschlichen Entwicklung, der Better-Life-Index der OECD, das Bruttonationalglück oder die Gemeinwohl-Bilanz.

Entwicklung von NWI und BIP in Deutschland. BIP und NWI zeigen unterschiedliche Bilder der gesellschaftlichen Entwicklung: Das Wachstum des BIP wird nur durch die Finanzkrise im Jahr 2009 und die Corona-Pandemie unterbrochen. Die Entwicklung des NWI verläuft in verschiedenen Phasen (Anstiege, Rückgang, Stagnation). Der NWI hat zwischen 1991 und 2019 um knapp 12 Punkte zugenommen – weniger als ein Drittel der Steigerung, die das BIP ausweist. © FEST e.V. – Institut für Interdisziplinäre Forschung

Grüne Wirtschaft

Bislang hat es die Menschheit nicht geschafft, das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln. Nicht zuletzt deswegen wird es immer schwieriger, die Klimaerwärmung in einem begrenzten Ausmaß zu halten. Auch die Ressourcen, die der Mensch für seine Wirtschaftsweise braucht, werden zunehmend knapp. Das gilt sogar schon für ein vermeintlich im Überfluss vorhandenes Gut wie Sand, das vor allem für den Immobilien- und Straßenbau benötigt wird. Die natürlichen Lebensgrundlagen schwinden immer mehr, mit erheblichen Folgen. „Ökonomisches Denken bezieht die Natur als Produktionsfaktor nicht ein“, sagte der Umweltökonom Sir Partha Dasgupta bei der Übergabe seines Berichts über die „Ökonomie der Artenvielfalt“ an die britische Regierung 2021. Auf dem Cover sind ein Stück Waldboden und ein Fliegenpilz abgebildet. Innen finden sich erschreckende Zahlen: Während sich das Sachkapital global von Anfang der 1990er-Jahre bis Mitte der 2000er-Jahre verdoppelt hatte und das Humankapital um 13 Prozent gestiegen war, sanken die Naturwerte um 40 Prozent. Die Menschheit sei daran gescheitert, „eine nachhaltige Beziehung zur Natur aufzubauen“, schreibt der Wissenschaftler. Statt einer die Natur zerstörende Ökonomie bräuchte es eine, die die Natur aufbaut: eine regenerative Ökonomie.

Abbildung 3. Kapitalformen und Wechselwirkungen Forschende haben in den vergangenen Jahrzehnten Methoden entwickelt, um den ökonomischen Wert natürlicher Ressourcen zu erfassen und damit den Begriff des Naturkapitals geprägt. Es umfasst die biologische Vielfalt und Ökosystemleistungen (z.B. sauberes Grundwasser, Bindung von Treibhausgasen, Blütenbestäubung, Erholungsfunktion von Naturräumen). © Verändert nach: The Economics of Biodiversity, 2021, S. 39

Die längste Zeit der menschlichen Evolution haben Menschen im Einklang mit der Umwelt gelebt und gewirtschaftet, so wie heute noch manche indigene Gemeinschaften. Mittlerweile ist es aber eine Frage des Überlebens, ob und wenn ja, wie sich Ökonomie und Ökologie in Einklang bringen lassen (Abbildung 3). Noch verschlingt alleine Europas Wirtschaft jährlich 16 Tonnen Material pro Kopf. Und am Ende fallen pro Person jährlich fünf Tonnen Müll an. Mehr Wachstum bedeutete eben bislang meist auch mehr Müll. Manche sehen die Lösung in einer Kreislaufwirtschaft, in der Abfall wieder zum Rohstoff eines neuen Verwertungszyklus wird, so wie bei Mehrwegflaschen oder Altpapier. Es wäre allerdings ein Irrtum zu glauben, dass eine Kreislaufwirtschaft den Konflikt zwischen Wachstum und Nachhaltigkeit ganz auflösen könnte. Denn ein permanentes Recycling ist bei anorganischen Stoffen aufgrund physikalischer Gesetzmäßigkeiten unmöglich. Jeder Verwertungsprozess führt immer auch zu einem Verlust von Material. Recycling benötigt zudem Energie, für deren Gewinnung wieder Ressourcen eingesetzt werden. Manche Rohstoffe wie seltene Erden sind auch nur begrenzt vorhanden – entsprechend lassen sich daraus nicht beliebig viele Produkte fertigen, die in immerwährenden Kreisläufen zirkulieren. Wenn die Menschheit ihre Lebensgrundlagen erhalten will, muss sie daher nicht nur anders wirtschaften, sondern auch mit weniger natürlichen Ressourcen auskommen.


 * Der Artikel ist erstmals unter dem Title: " Anders wirtschaften - Wachstumsmodelle in der Ökonomie" https://www.max-wissen.de/max-hefte/wachstumsmodelle-oekonomie/ in GeoMax 26/Sommer 2022 der Max-Planck-Gesellschaft erschienen und steht unter einer CC BY-NC-SA 4.0 Lizenz. Mit Ausnahme des abgeänderten Titels wurde der Artikel unverändert in den Blog übernommen.


 

inge Thu, 01.09.2022 - 18:28

Energiewende - jetzt Wasserstoff-Pipelines bauen

Energiewende - jetzt Wasserstoff-Pipelines bauen

Do, 25.08.2022 — Robert Schlögl

Robert Schlögl

Icon Energie

Vor drei Jahren hat Robert Schlögl, Direktor am Max-Planck-Institut für Chemische Energiekonversion (Mülheim a.d.R.) in einem, nicht nur für Deutschland richtungsweisenden Eckpunktepapier "Energie. Wende. Jetzt" (s.u.) für einen beschleunigten Umbau des Energiesystems appelliert, der nun durch Ukrainekrieg und drohende Gasknappheit noch an Tempo zulegen muss. In einem Interview spricht Schlögl über die prioritär zu setzenden Maßnahmen und was die Wissenschaft dazu beitragen kann. Er plädiert dafür, zügig die Infrastruktur für die Wasserstoffökonomie aufzubauen. In der Energieversorgung nach Autarkie zu streben, hält er ebenso für falsch wie eine Laufzeitverlängerung für Atomkraftwerke.*

 

Herr Prof. Schlögl, wie bewerten Sie die Maßnahmen, die angesichts der erwarteten Gaskrise ergriffen wurden?

Als erstes muss man mal sagen, dass die Regierung ziemlich viel unternommen hat. Man kann kurzfristig, glaube ich, nicht sehr viel mehr machen. Aber anstatt zu appellieren, wir sollen die Heizung über Nacht runterdrehen, wäre es besser, den Leuten klar sagen, dass wir durch einen historischen Fehler in eine gefährliche Situation gekommen sind. Den kann man nicht in ein paar Wochen ausbessern. Eine Minute weniger duschen und nachts die Temperatur runterregeln, löst das Problem nicht.

Was ist in der Vergangenheit falsch gemacht worden?

Das ist nicht nur die Abhängigkeit von russischem Gas, wir haben in Deutschland ein Systemproblem. Wir lösen unsere Probleme gerne auf Kosten anderer. Die Regelenergie, die wir für ein stabiles Netz brauchen, beziehen wir aus Frankreich, weil es dort Atomkraftwerke gibt. Und vor zehn Jahren haben wir noch 30 Prozent unseres Erdgases aus Russland bezogen, jetzt sind es 55 Prozent. Da hat man nicht aufgepasst, weil man nur aufs Geld geschaut hat. Jetzt begreift man vielleicht langsam, dass es ein energiepolitisches Dreieck gibt. Versorgungssicherheit, Nachhaltigkeit und Preis hängen miteinander zusammen. Wenn man sich in dem Dreieck in eine Richtung bewegt, dann werden die beiden anderen Richtungen automatisch schlechter.

Was muss also getan werden, um uns über den Winter zu bringen?

Man muss die Kohlekraftwerke hochfahren, damit man alles Gas, das nicht zum Heizen gebraucht wird, im Sommer in den Speicher füllen kann. Ein Füllstand von 60 Prozent ist alarmierend, das reicht nicht. In sechs Wochen ist das Fenster zu. Bis Ende August hat man Zeit, die Speicher zu füllen, nicht bis November. Denn im November laufen alle Heizungen.

Soll man auch die Atomkraftwerke weiterlaufen lassen?

Nein, auf keinen Fall – Atomkraftwerke weiterlaufen zu lassen ist Unsinn. Da gibt es drei Argumente dagegen: Erstens haben die Unternehmen die ganzen Materialien nicht mehr, um die AKW länger laufen zu lassen, auch wenn die vorhandenen vielleicht noch ein paar Monate länger reichen. Zweitens gibt es wahrscheinlich keine Arbeitskräfte mehr, weil man allen wichtigen Leuten in den AKWs zum Jahresende gekündigt hat. Und drittens muss man den politischen Schaden bedenken, wenn man zum dritten Mal eine Rolle rückwärts macht. Nein, das geht nicht. Die AKWs können fünf Prozent unserer Stromversorgung beitragen. Da kann ich auch zwei Kohlekraftwerke anschmeißen.

Klimapolitisch ist das aber natürlich nicht sinnvoll.

Wir emittieren 1000 Millionen Tonnen CO2 im Jahr. Wenn da noch zwei Millionen dazukommen, ist das völlig egal. Da muss man die Symbolpolitik von der Realität trennen. Wenn man nukleare Energie als einen Bestandteil der Energieversorgung zur Sicherung verwenden würde, wie das in Frankreich der Fall ist, wäre das etwas anders. Wir haben in einem demokratischen Prozess beschlossen, dass wir keine AKWs wollen – auch wenn das wissenschaftlich anfechtbar ist. Aber da jetzt eine Rolle rückwärts zu machen, würde, glaube ich, den sozialen Frieden in diesem Land aufkündigen. Das ist eine Scheintoten-Debatte, die von den wirklichen Problemen ablenkt.

Welche sind das?

Wir müssen schnellstens unsere Infrastruktur auf Vordermann bringen. Alle reden von erneuerbaren Energieträgern. Aber für die Tausenden von Windrädern, die jetzt gebaut werden sollen, gibt es keine Stromleitungen. Und für den grünen Wasserstoff, den wir kaufen wollen, gibt es keine Pipelines. Zumindest beginnt jetzt der Bau der Suedlink-Leitung von Nord- nach Süddeutschland, die schon vor zwölf Jahren versprochen wurde. Und sie kostet jetzt 25 bis 30 Milliarden statt 3 bis 4 Milliarden Euro, weil man die Leitung als Kabel in die Erde legt, damit man keine Masten sieht. Aber man wird die Stromleitungen auch so genau sehen, weil die Kabel so heiß werden, dass es an der Oberfläche 70 Grad warm wird und sich dort ein Wüstenstreifen bildet. Das war ein politischer Kompromiss, den Herr Seehofer durchgesetzt hat, der sachlich einfach nicht gerechtfertigt war. Das können wir uns eigentlich nicht leisten. Die Irrationalität in diesen Planungen ist ein Problem. Mich beunruhigt aber mehr, dass wir keinen Gesamtplan haben.

Was meinen Sie damit?

Es ist auch ein fundamentaler Unsinn, die Energiewende durch das Klimaschutzgesetz in Sektoren aufzuteilen, die wie die Ministerien zugeschnitten sind. Jetzt sind für die Energiewende fünf Ministerien zuständig, und jedes Ministerium macht wegen des Klimaschutzgesetzes irgendwas. Es gibt keine systemische Betrachtung. Das ist selbst dem Bundeskanzler schon aufgefallen. So ein großes Projekt wie die Energiewende braucht eine Steuerung.

Wie macht sich bemerkbar, dass die fehlt?

Das Gesamtsystem muss optimiert werden, nicht einzelne Sektoren, und vor allen Dingen nicht ein Sektor auf Kosten aller anderen. Denn alle Energieträger und alle Anwendungen stehen miteinander in Wechselwirkung, und deswegen auch alle Infrastrukturen. Wir haben ja nicht einmal eine gemeinsame Infrastruktur. In der Situation wollen jetzt alle auf die nicht vorhandene grüne Elektrizität zugreifen. Die einen wollen elektrisch Autofahren, die anderen wollen elektrisch heizen, und die dritten wollen ihre Industrie elektrifizieren. Ein großes Problem dabei ist, dass wir dafür viel mehr grünen Strom brauchen, als es unserem heutigen Energiebedarf entspricht. Denn um die Schwankungen von Wind und Sonne auszugleichen, muss man ungefähr 50 Prozent der Energie speichern. Wind- oder Sonnenstrom in eine speicherfähige Form umzuwandeln, kostet aber viermal mehr Energie als sie direkt zu verwenden. Die Leute, die die Energiewende verantworten, sagen aber, dass wir auch künftig nur so viel Energie haben können wie jetzt.

Müssen wir also unseren Energiebedarf senken?

Die Energie ist nicht begrenzt, aber die Gesellschaft begrenzt sie. In Zukunft schreibt Ihnen vielleicht jemand vor, dass Sie nur 1000 Kilowattstunden verbrauchen dürfen. Denn wir laufen auf ein Energiesystem zu, das bewusst auf Autarkie ausgelegt ist. Deshalb lesen Sie überall, dass der Bedarf an Primärenergie halbiert werden muss. Aber das ist natürlich Blödsinn. In einer freiheitlich-demokratischen Gesellschaft darf Ihnen niemand Ihren Energieverbrauch vorschreiben. Das Energiesystem muss so gebaut sein, dass es allen Sparten die Energie zur Verfügung stellt, die sie brauchen.

Ist das der Grund, warum Sie immer wieder für einen globalen Markt der erneuerbaren Energien werben?

Ja, genau. Aber die Energiewende, die jetzt politisch vertreten wird, geht nicht von einem globalen Energiemarkt aus, sondern von Unabhängigkeit. Das Streben nach Autarkie ist aber ein grober systemischer Fehler. Unser Land ist Exportweltmeister. Wie können wir denn autark sein? Wenn wir das versuchen, bricht unser Land sofort zusammen. Wir brauchen einen globalen Markt für erneuerbare Energie, nicht Autarkie.

Aber gerade die Abhängigkeit vom russischen Gas und die Tatsache, dass man sich jetzt mit anderen zweifelhaften Staaten arrangieren muss, ist doch jetzt ein Problem.

Da ist das Streben nach Autarkie doch verständlich. Dieses Argument habe ich schon sehr oft gehört, aber das ist ja vollkommen unzutreffend, weil die Situation eine völlig andere ist. Man muss den Import von Energie diversifizieren. Und das ist mit erneuerbarer Energie viel leichter möglich als mit fossiler. Denn die fossilen Energieträger bekommt man nur daher, wo eine Quelle ist. Erneuerbare Energie in transportierbarer Form kann man besonders effizient in einem Streifen plus/minus 20 Grad um den Äquator erzeugen. Da liegen 60 Prozent der Landmasse der Erde. Schon die Hälfte der Landfläche von Saudi-Arabien würde reichen, um den Energiebedarf der gesamten Welt zu decken. Bei uns geht das nicht so effizient, weil wir außerhalb dieser günstigen Zone liegen.

Sollten wir die regenerative Stromerzeugung dann bei uns massiv ausbauen?

Wir sollten die Energiewandlung, also zum Beispiel Fotovoltaik, Windturbinen und die Wasserstofferzeugung, bei uns in sinnvollen Dimensionen ausbauen. Aber es ist ehrlich gesagt dumm, bei uns die ganze Energie zu wandeln, die wir brauchen. Wir haben jetzt schon die höchste Dichte an Energiewandlern auf der ganzen Welt und damit decken wir nur zehn Prozent des Bedarfs. Wir müssten alles also zehnmal so dicht mit Solaranlagen und Windrädern zupflastern, um den ganzen Bedarf zu decken. Aber wir wollen doch nicht in einem landesweiten Windpark leben. Und das ist auch nicht nötig. Die Sturheit der Politik in dieser Hinsicht kritisiere ich wirklich stark. Die Energie dort zu erzeugen, wo es am effizientesten ist, würde das Problem lösen.

Wie sieht man das in anderen Ländern, vor allem denen, die uns künftig die Energie liefern sollen?

Die Welt wird diesen Weg gehen, egal ob die Deutschen das wollen oder nicht. Warum setzen wir uns nicht an die Spitze dieser Bewegung, anstatt das verhindern zu wollen. Wir haben ja jetzt auch einen globalen Energiemarkt, und den wird es immer geben. Sie glauben doch nicht im Ernst, dass die heutigen Akteure sich das einfach wegnehmen lassen – natürlich nicht, auch weil Energie einen großen Machtfaktor darstellt. Es gibt ja de facto keinen Mangel an Energieträgern auf dieser Welt. Die Knappheit, die wir gerade erleben, ist nur auf Spekulation und Politik zurückzuführen. Putin verkauft jetzt seine Energieträger irgendwem anders als uns und der, der die gekauft, kauft sie dann nicht mehr in Amerika. Aber deswegen ist doch der Verbrauch nicht anders geworden, und das Angebot ist auch nicht anders geworden, sondern nur die Spekulation ist anders geworden. Daran sieht man, welche Macht dahintersteckt.

Wie kann man diese Macht begrenzen?

Wir müssen als ein Land, das immer ein Nettoimporteur von Energie bleiben wird, dafür sorgen, dass in diesem globalen Markt möglichst viele Spieler mitspielen. Diversifizierung ist also die Aufgabe.

Gibt es in der Wissenschaft schon systemische Konzepte?

Das Bundesforschungsministerium hat vor zwei Jahren das Projekt TransHyDE aufgesetzt, das ich koordiniere. Darin untersuchen wir den Transport von Wasserstoff für Deutschland. In einem großen Teilprojekt geht es dabei um die Systemanalyse. Da entwickeln ungefähr 40 Unternehmen und 250 Leute systemische Konzepte. Auch die Betreiber heutiger Pipelines haben solche Konzepte. Die wollen die Gaspipelines künftig mit Wasserstoff füllen. Das geht aber nicht, weil es nicht so viel Wasserstoff gibt, dass sich das Erdgas von einem Tag auf den anderen ersetzen lässt. Wir sind in Deutschland toll darin, schnell aus etwas auszusteigen. Dann überlegen wir erst, wo wir einsteigen. Das ist auch ein Webfehler unserer Energiewende. Man muss aber erst in etwas Neues einsteigen, und wenn das funktioniert, schaltet man das alte ab.

Das heißt, man sollte für den Wasserstoff neue Pipelines bauen?

Ja genau, wir müssen jetzt Wasserstoff-Pipelines bauen, damit wir sie in fünf Jahren haben.

Aber eine Idee ist doch, die alten Erdgaspipelines für den Wasserstoff zu verwenden.

Dann müssen Sie aber warten, bis der Wasserstoff da ist, und das dauert noch 20 Jahre. Bis dahin sind die alten Pipelines 40 Jahre alt – dann kann man sie nicht mehr verwenden. Es ist doch unsinnig zu glauben, dass man einfach den Gashahn abdrehen kann. Gas trägt etwa ein Drittel zum gesamten deutschen Energiesystem bei. Die erneuerbaren Energien liefern aber nur zehn Prozent davon. Das passt also quantitativ nicht. Man muss jetzt mal warten, bis wir 500 Terawattstunden Wasserstoff verfügbar haben. Das ist eine irrsinnig große Menge. Wir haben heute 800 Terawattstunden Erdgas, soviel Wasserstoff wird es vielleicht in 20 Jahren geben – aber für die ganze Welt. Um das russische Gas durch Wasserstoff zu ersetzen, müssten alle Fabriken auf der Welt, die Elektrolyseure herstellen, 40 Jahre lang Elektrolyseure produzieren, damit man das ersetzen kann – aber nur für Deutschland. (Abbildung)

Abbildung Die Wasserstofftechnologie: Umwandlung volatiler Erneuerbarer Energien in Wasserstoff und flüssige Kraftstoffe. (Bild stammt von der homepage des Autors https://www.cec.mpg.de/de/forschung/heterogene-reaktionen/prof-dr-robert-schloegl und wurde von der Redaktion eingefügt)

Hat der Umstieg auf Wasserstoff, für den Sie immer plädieren, dann überhaupt eine Chance?

Der Umstieg auf Wasserstoff hat keine Chance, wenn man sagt, wir wollen das in zwei Jahren machen. Aber wir wollen das in 20 Jahren schaffen, dann funktioniert es schon. Wenn man aber nicht anfängt, dauert es 20 Jahre plus X. Die meiste Zeit verliert man in einem so großen Projekt am Anfang. Wenn die Bagger rollen, dauert es halt solange es dauert. Aber das Reden darüber, ob wir die Bagger rollen lassen, das kann man beschleunigen.

Derzeit hat man den Eindruck, dass sehr viel unternommen wird. Herrscht jetzt hektischer Aktionismus?

Ja, aber das geht auch nicht anders. Stellen Sie sich mal vor, was Herr Habeck seit dem Ukrainekrieg für eine Verantwortung trägt – meine Güte. Er sieht auch die Notwendigkeit einer systemischen Betrachtung. Der weiß das alles genau, was ich jetzt gesagt habe – das weiß ich. Aber Politik ist die Kunst des Machbaren, nicht die Kunst des Notwendigen. Und da haben auch wir als Wissenschaft schon eine Verantwortung, faktische Aufklärung zu betreiben. In unserer Demokratie sind Politikwechsel nur über das Verständnis des Problems möglich, das kann man nicht anordnen.

Wie kann die Grundlagenforschung der Max-Planck-Gesellschaft zur Energiewende beitragen? Kann die Kernfusion dabei helfen?

Aktuell kann die Kernfusion uns natürlich nicht helfen, sie ist etwas fürs 22. Jahrhundert. Trotzdem muss man das natürlich verfolgen. Aber im Maschinenraum der wirklichen Technik gibt es eine Million von wissenschaftlichen Schwierigkeiten. Katalysatoren werden zum Beispiel überall gebraucht, die meisten funktionieren aber nicht richtig. Dadurch verlieren wir wahnsinnig viel Energie. Bei den Umwandlungsprozessen in chemische Energieträger, die wir für einen globalen Energiemarkt brauchen, ist noch viel zu tun. Und da tun wir in der Max-Planck-Gesellschaft auch viel. Was uns zum Beispiel fehlt, ist eine Wissenschaft der chemischen Konversion, die so funktioniert wie die Entwicklung von Computerchips. Die designt heute ein Computer – für einen Menschen ist das viel zu kompliziert. Eine chemische Reaktion kann aber bislang niemand auf der Welt als Ganzes berechnen, weil es zu kompliziert ist. Diese Komplexität mit neuen Konzepten in der theoretischen Chemie zu reduzieren, ist ein lohnendes Ziel für die Max-Planck-Gesellschaft.

Das wirkt jetzt recht kleinteilig.

Gemessen an den Herausforderungen der Energiewende ist das natürlich kleinteilig, aber in vielen Fällen haben wir die wissenschaftlichen Grundlagen der Energiewende noch gar nicht. Nur geht es hier eben nicht nach dem Leitspruch von Max Planck, dem Anwenden muss das Erkennen vorausgehen. Wir müssen jetzt erst einmal anfangen und suchen dann das Optimum. Das Fehlen des Wissens ist keine Entschuldigung, nichts zu tun. Die Gegner der Energiewende sagen oft, wenn Ihr das alles rausgefunden habt, dann machen wir Energiewende. Das ist aber ganz falsch.

Das Interview führte Peter Hergersberg (Redaktionsleiter für Chemie, Physik, Technik), Abt. Kommunikation, www.mpg.de


*Das Interview ist am 1.8.2022 unter dem Titel „Wir müssen jetzt Wasserstoff-Pipelines bauen“ auf der Webseite der Max-Planck-Gesellschaft erschienen https://www.mpg.de/19042600/energiewende-gaskrise-schloeglund wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Text wurde unverändert übernommen; eine Abbildung von der Webseite von Robert Schlögl von der Redaktion eingefügt.


Energiewende im ScienceBlog

Eckpunktepapier von Robert Schlögl: "Energie.Wende.Jetzt"

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Teil 5: R.Schlögl, 22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.

Teil 6: R.Schlögl, 26.09.2019: Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

------------------------------------------------------------------------------------------

Artikel von Georg Brasseur:

Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

Georg Brasseur, 10.12.2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?


 

inge Thu, 25.08.2022 - 00:05

Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Fr, 14.08.2022 — Inge Schuster

Inge SchusterIcon Gehirn

Eine 2006 erschienene Untersuchung, die erstmals über einen kausalen Zusammenhang zwischen dem Auftreten des Amyloid-Komplexes Ab*56 und dem kognitiven Abbau bei der Alzheimerkrankheit berichtete, erregte enormes Interesse, da sie eine massive Untermauerung der Amyloid-Hypothese zur Entstehung der Krankheit war. Der mehr als 3000 Mal zitierte Artikel wurde so richtungsweisend für die weitere, milliardenschwere Finanzierung zu Forschung und Entwicklung neuer Alzheimer-Therapeutika. Wie sich nun herausstellte, dürften die Forscher in dieser und auch in einer Reihe darauf folgender Arbeiten ihre Aussagen mit manipulierten Abbildungen belegt haben. Darüber hat das Fachjournal Science nach ausführlichen Recherchen Ende Juli 2022 einen langen, bestürzenden Bericht gebracht [1].

116 Jahre nachdem der Arzt Alois Alzheimer vor Irrenärzten in Tübingen einen Vortrag "Über eine eigenartige Erkrankung der Hirnrinde" hielt, in dem er sogenannte Plaques im Hirn einer Demenzkranken zeigte, stellt die nach ihm benannte Erkrankung ein noch immer ungelöstes Problem für die Weltgesundheit dar. Es ist weder klar, wodurch die Krankheit ausgelöst wird, noch gibt es Therapien, die den fortschreitenden kognitiven Abbau stoppen oder gar heilen könnten. Charakteristisch für die Alzheimer-Krankheit sind Proteinablagerungen die sich in Form von Plaques zwischen den Nervenzellen (β- Amyloid-Plaques) und als Knäuel von Fibrillen des Tau-Proteins im Innern der Nervenzellen bilden. Alzheimer betrifft vor allem alte Menschen, kann aber auch schon in jüngerem Alter, d.i. unter 65 Jahren, auftreten; das zumeist langsame, sich über Jahre erstreckende Absterben von Nervenzellen ist für den überwiegenden Teil (bis zu 70 %) aller Demenzerkrankungen verantwortlich.

WHO hat Demenz zur Priorität für die Weltgesundheit erklärt

https://www.who.int/news-room/fact-sheets/detail/dementia

Laut WHO sind global derzeit rund 55 Millionen Menschen von Demenz - und dies bedeutet überwiegend von Alzheimer - betroffen, rund 10 Millionen Erkrankte kommen jährlich hinzu; mit der Zunahme der Bevölkerung und den noch schneller wachsenden älteren Gruppen wird die Zahl der Kranken im Jahr 2030 voraussichtlich auf 78 Millionen und im Jahr 2050 auf 139 Millionen (das sind dann rund 1,4 % der Weltbevölkerung) ansteigen. Demenz ist weltweit die siebenhäufigste Todesursache und einer der Hauptgründe für Behinderungen und Pflegebedürftigkeit von älteren Menschen. Die Erkrankung hat physische, psychische, soziale und wirtschaftliche Auswirkungen nicht nur für die Betroffenen, sondern auch für ihre Betreuer, Familien und die Gesellschaft insgesamt. Wurden die weltweiten gesellschaftlichen Gesamtkosten von Demenz im Jahr 2019 auf 1,3 Billionen US-Dollar geschätzt, so wird bis 2030 ein Anstieg auf 2,8 Billionen US-Dollar erwartet. Mit dem Global action plan on the public health response to dementia 2017-2025 ein umfassendes Handlungskonzept für politische Entscheidungsträger, internationale, regionale und nationale Partner und die WHO ins Leben gerufen worden.

Fehlende Therapeutika

Die einzigen zugelassenen Medikamente gegen Alzheimer können die Neurodegeneration nicht stoppen, sondern lediglich die Symptome behandeln - dies nicht sehr effizient und mit zum Teil schweren Nebenwirkungen.

Insgesamt wurden bis jetzt 7 Pharmaka zugelassen, 5 davon sind auf Neurotransmitter abzielende Wirkstoffe, die schon vor mehr als 25 Jahren auf den Markt kamen: Inhibitoren der Acetylcholinesterase (Donezepil, Galantamin, Rivastigmin und Tacrin) und ein NMDA-Rezeptor Antagonist (Memantin). Suvorexant, ein Antagonist des Orexin-Rezeptors wurde eigentlich zur Behandlung von Schlaflosigkeit zugelassen, von der häufig auch Alzheimer-Kranke betroffen sind. Basierend auf der Hypothese, dass eine Verringerung der zwischen den Nervenzellen abgelagerten Plaques ein Fortschreiten der Erkrankung aufhalten/umkehren könnte (s.u.), wurden 1984 als deren Beta-Amyloid-Peptide identifizierte Komponenten rasch zu wichtigen Zielstrukturen (Targets) der Alzheimer-Forschung und Entwicklung. Allerdings sind die Bemühungen jahrzehntelang an fehlender Wirksamkeit und/oder nicht tolerablen Nebenwirkungen gescheitert. Dass 2021 mit Aduhelm (Aducanumab) erstmals ein gegen β-Amyloid-Proteine gerichteter Antikörper, von der FDA zugelassen wurde, stellt wahrscheinlich keinen echten Durchbruch dar. Diese Zulassung ist bei führenden Experten auf heftige Ablehnung gestoßen, da Aduhelm zwar die Amyloid-Plaques reduzierte, dies aber nicht mit verbesserten kognitiven Fähigkeiten der Patienten korrelierte und dazu eine Reihe schwerer Nebenwirkungen auftraten. Die europäische Arzneimittelagentur EMA hat sich gegen eine Zulassung ausgesprochen.

Von insgesamt 331 gelisteten klinischen Alzheimer-Studien (klinische Phasen 1 - 3) gibt es 69, deren Target Beta-Amyloid ist - in den besonders großen klinischen Studien der entscheidenden Phase 3 sind es 9 von 23. Wie oben erwähnt sind viele der Amyloid-Studien bereits gescheitert, 30 wurden schon abgebrochen. (Eine detaillierte Auflistung verschiedener Targets in den einzelnen klinischen Phasen Liste findet sich in [2].)

Die Amyloid-Hypothese

geht von einer zentralen Rolle der Beta-Amyloid-Peptide in der Alzheimer-Erkrankung aus. Diese bestehen zumeist aus 38- 42 Aminosäuren langen Peptidketten, die mit Hilfe von Enzymen (Sekretasen) aus dem Vorläufer-Protein Amyloid-Precursor -Protein (APP) abgespalten werden. APP ist in vielen Körperzellen, insbesondere an den Synapsen der Nervenzellen exprimiert. Im gesunden Hirn dürften APP und auch seine Spaltprodukte wichtige Funktionen in physiologischen Prozessen spielen, u.a. in der Bildung von Synapsen und in der Neuroprotektion.

APP ist ein in der Zellmembran sitzendes Rezeptor-Protein, das mit dem Großteil seiner Sequenz aus der Zelle herausragt (Abbildung 1 oben). Die Abspaltung des langen, extrazellulären Teils (blau) der Kette führt u.a. zu kleinen, etwa 40 Aminosäuren großen, Bruchstücken (gelb), den sogenannten Beta-Amyloid-Peptiden. Diese können aggregieren und - wenn sie durch das glymphatische System des Gehirns nicht in ausreichendem Maße entsorgt und/oder abgebaut werden - zu unlöslichen Plaques zusammenwachsen (Abbildung 1 oben, rechts), die in weiterer Folge Entzündungen und Schädigungen von Nervenzellen und ihren Funktionen hervorrufen.

Durch geeignete Marker (in diesem Fall PiB) können solche Plaques nicht-invasiv mittels Positron-Emission-Tomographie (PET) sichtbar gemacht werden und damit die Alzheimer-Diagnose (AD) erhärten. Abbildung 1 (unten rechts) zeigt im Hirn eines Alzheimer-Kranken hohe Anreicherungen des Markers - und damit der Amyloid-Plaques - im Frontal- und Scheitellappen, Regionen, die für kognitive Prozesse, motorische Steuerung, operative Funktionen und Sinneswahrnehmungen verantwortlich sind. Dass solche massiven Ansammlungen schwere Beeinträchtigungen der lokalen Hirnfunktionen zur Folge haben sollten, erscheint einleuchtend.

Die Unterbindung von Nervenverbindungen und das massive Absterben von Nervenzellen führen bei fortschreitender Krankheit zu einer extremen Schrumpfung von Teilen des Gehirns insbesondere der Hirnrinde (Cortex) und des Hippocampus und zu hochgradig erweiterten Ventrikeln (Abbildung 1. links unten).

Abbildung 1: Von der Bildung der Beta-Amyloid-Peptide über die massive Anhäufung von Amyloid-Plaques in essentiellen Gehirnregionen von Alzheimer-Kranken (AD, sichtbar gemacht durch Positronen Emissions-Tomographie - PET) zur Gehirnschrumpfung. Erklärung: siehe Text. (Bilder oben aus http://www.nia.nih.gov/Alzheimers/Publications/UnravelingTheMystery/Part1/Hallmarks.htm ; Bild unten rechts: Klunkwe https://commons.wikimedia.org/wiki/File:PiB_PET_Images_AD.jpg, Lizenz: cc-by-sa; Bild unten links: gemeinfrei).

Im Laufe der Jahre kam allerdings die Abfolge "Generierung von Beta-Amyloid - Bildung von Plaques - Demenz" ins Wanken, da sich herausstellte, dass die Plaque-Belastung nicht mit dem Erscheinungsbild der Krankheit korrelierte, Nervenzellen auch an Orten ohne Plaques abstarben, es anderseits nicht-demente Personen mit ausgeprägten Plaques gab und in klinischen Studien die Reduktion der Plaques keinen Einfluss auf das Krankheitsgeschehen hatte. In der Folge kam es zu einem Paradigmenwechsel: Untersuchungen deuteten nun darauf hin, dass nicht Amyloid-Plaques sondern kleinere lösliche Aggregate - Beta-Amyloid Oligomere - die eigentlichen toxischen Strukturen sein könnten.

Wäre nun vielleicht ein Amyloid-Oligomeres Auslöser der Alzheimer-Krankheit und damit endlich ein erfolgversprechendes Target für das Design wirksamer Therapeutika in Sicht?

Ein neues, toxisches Amyloid-Oligomer

Ein 2006 im Fachjournal Nature erschienener Artikel bestätigte die Hypothese vom toxischen Amyloid-Oligomer [3]. Forscher am Department of Neuroscience der Universität von Minnesota (Minneapolis) hatten an einem validierten Alzheimer-Mäusemodell (s.u.) ein neues Amyloid-Oligomeres, Ab*56, im Hirngewebe identifiziert, dessen Menge mit dem nachlassenden Gedächtnis der alternden Mäuse korrelierte (dies wurde an Hand des von den Tieren zuvor erlernten Orientierungsvermögens im sogenannten Morris Wasser-Labyrinth untersucht). Isoliert und in gereinigter Form in junge, gesunde Ratten injiziert löste Ab*56 in diesen Tieren dann Gedächtnisverlust aus. Damit schien erstmals ein kausaler Zusammenhang zwischen dem toxischen Amyloid-Oligomer und dem Gedächtnisverlust, also eine Hauptursache für die Erkrankung gefunden worden zu sein. "Unsere Daten zeigen, dass Ab*56 das Gedächtnis gesunder, junger Ratten beeinträchtigt, und stützen die Hypothese, dass Ab*56 die Hauptursache für den Gedächtnisverlust bei Tg2576-Mäusen mittleren Alters ist." schrieben die Forscher. Ihre Daten stützten sich auf eine Reihe aussagekräftiger Fotos von sogenannten Western-Blots, die Ab*56 und seinen Verlauf im Alterungsprozess des Gehirns dokumentierten. (nb: In Western Blots werden Proteinlösungen, die mittels Gelelektrophorese im elektrischen Feld nach Größe getrennt wurden, auf eine Membran übertragen (Blotting) und die einzelnen Proteinbanden mit immunologischen Methoden nachgewiesen.)Ab*56 wurde dann auch in menschlichen Gehirnen identifiziert, sein Gehalt stieg mit dem Alter an und korrelierte im frühen Stadium der Alzheimer-Krankheit mit der Plaque-Last und dem pathologischen Tau-Protein.

Die 2006 Studie löste ein enormes Echo aus - wurde seitdem zur meistzitierten Alzheimer-Arbeit (laut Google Scholar kam es zu 3276 Zitierungen) - und gab der bis dato erfolglosen, bereits stark kritisierten Amyloid-Forschung neuen Aufwind. Die amyloid-bezogene Alzheimer-Forschung erhielt enorme Unterstützung - fast die Hälfte der gesamten Alzheimer-Gelder sollen in die Amyloid-Forschung geflossen sein. Die US-National Institutes of Health (NIH) haben allein im letzten Jahr 1,6 Milliarden US Dollars - die Hälfte ihres Alzheimer Budgets - an Amyloid-bezogene Projekte vergeben - zu Lasten von Forschern, die andere Ideen entwickelten. Natürlich wechselten viele Alzheimer-Forscher auf das erfolgversprechende, finanziell besser unterstützte neue Thema.

Es gab damals wenig Grund an den Ergebnissen zu zweifeln, handelte es sich bei den Autoren offensichtlich doch um erfahrene, brillante Experten:

Sylvain Lesné,ein junger französischer Wissenschaftler, der Erstautor der Studie und Entdecker des toxischen Ab-Oligomer, hatte bereits in seiner Doktorarbeit in Frankreich über den Metabolismus des Amyloid-Precursor-Proteins gearbeitet. Unmittelbar danach war er 2002 als PostDoc zur hochrenommierten Neurobiologin Karen Ashe, Professorin am Neuroscience Department in Minneapolis gekommen. Ashe ist Koautorin der Studie [3] und auch einiger späterer Studien von Lesne. Sie gilt als Pionierin der Alzheimerforschung. Als PostDoc hatte sie im Labor von Stanley Pruisiner wesentlich zu dessen Prionen-Forschung beigetragen (für die er mit dem Nobelpreis ausgezeichnet wurde); an der University of Minnesota forscht sie nun seit 30 Jahren am Gedächtnisverlust bei der Alzheimer-Krankheit und hat u.a. ein Alzheimer-Mausmodell - eine transgene Maus entwickelt, die menschliches Beta-Amyloid produziert, welches im Gehirn des Tieres Plaques bildet - das Modell wird weltweit angewandt.

In den folgenden 16 Jahren sind eine Reihe weiterer Publikationen von Lesné und Ashe - gemeinsam und auch einzeln - erschienen, welche die Befunde von 2006 bekräftigten und darauf aufbauten. Lesné wurde Assistant Professor, erhielt ein eigenes Labor und für seine Projekte insgesamt rund 10 Millionen US-Dollar Unterstützung von den NIH.

Merkwürdigerweise wurde - trotz des enormen Interesses an dem neuen Konzept - das toxische Ab*56 Amyloid von anderen Forschergruppen kaum nachgewiesen.

Ab*56 - Fact or Fiction...............

Im vergangenen Jahr ist der Neurowissenschaftler und Alzheimer-Forscher Matthew Schrag (Vanderbilt University) bei einer Recherche auf der PubPeer Website auf Kritik an den Lesné-Artikeln gestoßen, welche die Echtheit der Abbildungen zu Identifikation und Charakterisierung von Ab*56 in Frage stellten. Mit Hilfe von Software-Tools hat Schrag den 2006-Artikel und darauf folgende Artikel untersucht und in rund 20 davon mehr als 70 fragwürdige, manipulierte Western-Blots gefunden, die duplizierte, hineinkopierte Banden und Hintergründe aufwiesen [1].

Schrag hat seine Ergebnisse den NIH und den Fachjournalen Science und Nature gemeldet. Science beauftragte daraufhin unabhängige Bildanalytiker und mehrere führende Alzheimerforscher mit der Überprüfung von Schrags Ergebnissen zu den Artikeln von Lesné. Diese stimmten mit den Schlussfolgerungen von Schrag überein. "Die Bilder scheinen durch Zusammensetzen von Teilen von Fotos aus verschiedenen Experimenten zusammengestellt worden sein", sagte eine Expertin.[1]

Es sieht also derzeit so aus, als ob zahlreiche Abbildungen, die die Existenz und Funktion des Amyloid Oligomeren beweisen sollten, massiv manipuliert worden sind. Nach einem halben Jahr intensiver Recherche hat Science am 21. Juli 2022 über diesen Fall in einem langen ausführlichen Artikel berichtet.[1]

...........und Konsequenzen

Wie groß der durch diese Studien angerichtete Schaden für die Alzheimer Forschung aber auch ganz allgemein für das Vertrauen in die Wissenschaft ist, kann noch nicht abgeschätzt werden.

Gibt es das Amyloid-Oligomere Ab*56 überhaupt? Oder sind die publizierten Bilder vielleicht "nur" geschönt und das Amyloid in den Originalen vielleicht doch, wenn auch nicht so klar, nachgewiesen? Allerdings: Warum konnten es dann andere Forscher nicht finden? Lesné ist laut Science derzeit für eine Stellungnahme nicht erreichbar.

Warum sind die manipulierten Abbildungen Karen Ashe nicht aufgefallen, die ja Koautorin und anfangs Betreuerin ihres Postdocs Lesné war? Warum hat sie als Koautorin nicht in die Originalfotos Einsicht genommen? Auch als Alleinautorin eines Übersichtsartikels im Jahr 2010 bekräftigt sie in einem langen Kapitel die Ergebnisse aus dem 2006-Artikel und übernimmt einige der dortigen Abbildungen [4].

Warum sind die Abbildungen den Gutachtern der Publikationen nicht aufgefallen? Insbesondere im Journal of Neuroscience wurden fünf verdächtige Arbeiten veröffentlicht.

Was bedeutet dies aber nun für die Alzheimer-Forschung? Wurde diese durch die Befunde von Lesné 16 Jahre lang in die falsche Richtung gelenkt?

Der Direktors des National Institutes of Aging der NIH bemüht sich in einer "Erklärung zur Demenzforschung mit Amyloid-Beta-Protein" um Schadensbegrenzung [5]:

"Unter den identifizierten Oligomeren befindet sich eines mit der Bezeichnung Aβ*56. Während diese Entdeckung anfänglich ein gewisses Interesse weckte, führte sie zu einer begrenzten Reihe von nachfolgenden Forschungen, da es an spezifischen Markern fehlte, um es im Labor nachzuweisen, und da die anfänglichen Ergebnisse nicht reproduziert werden konnten. Es ist bemerkenswert, dass das Ab*56-Oligomer eines von vielen war, die damals erforscht wurden, und dass seitdem kein Alzheimer-Biomarker oder eine experimentelle Therapie auf der Grundlage von Ab*56 entwickelt wurde. Stattdessen stehen Immuntherapien, die auf Ab-Monomere (eine einzelne "Einheit" von Ab), andere Arten von Oligomeren und die längeren Amyloidfibrillen abzielen, im Mittelpunkt von Studien über potenzielle Medikamente zur wirksamen Behandlung von Demenz."

Deutlicher äußert sich der Nobelpreisträger Thomas Südhof, der selbst über Ursachen neuronaler Erkrankungen forscht [1]: "Der unmittelbare, offensichtliche Schaden ist die Verschwendung von NIH-Mitteln und die Verschwendung von Ideen in diesem Gebiet, weil die Leute solche Ergebnisse als Ausgangspunkt für ihre eigenen Experimente verwenden."


[1]Ch. Piller, Blots on a field? 21.7.2022. Science 377(6604):358-363. 10.1126/science.add9993  

[2] Alzforum:https://www.alzforum.org/therapeutics

[3] Sylvain Lesne et al., A specific amyloid-b protein assembly in the brain impairs memory. Nature 440|16 March 2006|doi:10.1038/nature04533

[4] Karen H. Ashe, Animal models to study the biology of amyloid-beta protein misfolding in Alzheimer disease; in Protein Misfolding Diseases: Current and Emerging Principles and Therapies (Marina Ramirez-Alvarado et al., John Wiley & Sons, 2010) rb.gy/tez5zz

[5] Richard J. Hodes, M.D., Director, National Institute on Aging : NIA statement on amyloid beta protein dementia research. https://www.nia.nih.gov/news/nia-statement-amyloid-beta-protein-dementia-research


Weiterführende Links

Sylvain Lesné: homepage https://lesnelab.org/  

Karen H. Ashe: homepage https://www.memory.umn.edu/research/ashe-lab/

National Institutes of Health (NIH).  https://www.nih.gov/

Alzheimer: Eine dreidimensionale Entdeckungsreise. https://www.youtube.com/watch?v=paquj8hSdpc

Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min, http://www.mpg.de/4282188/Tau-Protein_gegen_Gedaechtnisverlust

-----------------------------------------------

Artikel über die Alzheimer-Krankheit im ScienceBlog:

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein.

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Inge Schuster, 24.06.2016; Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie.

Gottfried Schatz, 03.07.2015:; Die bedrohliche Alzheimerkrankheit — Abschied vom Ich.


 

inge Sun, 14.08.2022 - 00:21

OrganEx regeneriert die Organfunktionen von Schweinen eine Stunde nach dem Tod - ein vielversprechender Ansatz für die Transplantationsmedizin

OrganEx regeneriert die Organfunktionen von Schweinen eine Stunde nach dem Tod - ein vielversprechender Ansatz für die Transplantationsmedizin

Fr, 04.08.2022 — Ricki Lewis

Ricki LewisIcon Medizin Die Transplantationsmedizin könnte einen riesigen Sprung nach vorn machen, wenn Spenderorgane länger Sauerstoff aufnehmen könnten und ihre Zersetzung verzögert würde. Genau das verspricht eine Technologie namens OrganEx, die ein Forscherteam von der Yale-University im Fachjournal Nature beschrieben hat [1]. Die Forscher haben bei Schweinen einen Herzstillstand erzeugt, eine Stunde später OrganEx angewandt und dann die Rückkehr der Körperfunktionen verfolgt. Die Genetikerin Ricki Lewis berichtet über diesen neuen Ansatz, der bestehende Technologien zur Verlängerung der Lebensfähigkeit von Organen bei weitem übertrifft.*

Schweine, ein populäres Modell

Schweine sind seit langem ein beliebtes Tiermodell für menschliche Krankheiten, da sie ungefähr unsere Größe haben und ihre Herzen und Blutgefäße recht ähnlich sind. So sind sie auch in medizinische Science Fiction eingegangen.

In der Twilight-Zone-Episode Eye of the Beholder (Im Auge des Betrachters) hat sich Janet Tyler mehreren Eingriffen unterzogen, um den "erbärmlichen, verdrehten Fleischklumpen", der ihr Gesicht darstellt, durch etwas Akzeptableres zu ersetzen. Am Ende, als die Verbände nach einem weiteren fehlgeschlagenen Eingriff langsam abgerollt werden, sehen wir, dass sie von Natur aus wie wir aussieht, was in ihrer Welt, in der die meisten Menschen, einschließlich der Krankenschwester und des Arztes, Schweinegesichter haben, als hässlich gilt. Janet und andere wie sie werden abgesondert, um unter sich zu leben.

Arnold Ziffel, auch bekannt als Arnold das Schwein, diente als Kinderersatz in der Fernsehserie Green Acres, die von 1965 bis 1971 lief. In einer Folge von Seinfeld aus dem Jahr 1993 glaubt Kramer, der einen Freund in einem Krankenhaus besucht, einen Schweinemenschen über den Flur rennen zu sehen, das Ergebnis eines schiefgelaufenen Experiments in einem oberen Stockwerk.

Im wirklichen Leben schrieb 1997 ein 15 Wochen altes, 118 Pfund schweres Schwein namens Sweetie Pie Medizingeschichte. Ein 19-Jähriger, der an Leberversagen litt, benötigte dringend ein Transplantat. Er überlebte 6 Stunden lang in Erwartung eines Spenderorgans, wobei sein Blut außerhalb seines Körpers durch Sweetie Pie's körperlose Leber zirkulierte. Sweetie Pie war kein gewöhnliches Schwein, nicht einmal ein so wunderbares wie Arnold. Ihre Zellen waren mit menschlichen Proteinen durchsetzt, die ihre Leber vor dem Immunsystem des Patienten abschirmten. Die Schweinegesichter der Twilight Zone waren eine Metapher, Arnold ein Kinderersatz, Pigman ein Rätsel und Sweetie Pie ein vorübergehender Leberersatz. Aber die Schweine in der neuen Studie [1] versprechen, viel mehr zu sein.

Den Tod rückgängig machen

Nach dem Hirntod oder dem Herzstillstand setzt eine charakteristische chemische Choreografie ein. Nur wenige Minuten nach dem Versiegen der Sauerstoffzufuhr bilden sich Säuren während die Zellen anschwellen an und empfindliche Membranen und Organelle verletzen. Die ausgeprägten Vorgänge des Zelltods beginnen sich zu entwickeln.

Auf Ganzkörperebene alarmiert eine Flut von Hormonen und Zytokinen die Zellen und löst Entzündungsprozesse aus. Das Nerven- und das Immunsystem sowie die Blutgerinnung schalten auf Hochtouren, während sich die Organe abschalten. Aber selbst Organe, die sich im Todeskampf befinden, haben noch einige lebensfähige Zellen, die entnommen und in Laborgläsern kultiviert werden können. Isolierte, ganze Organe, darunter Herzen, Lebern, Nieren und Lungen, können am Leben erhalten werden, wenn eine geeignete "Suppe" durch ihre Gefäße geleitet (perfundiert) wird.

Solche Beobachtungen haben dazu geführt, dass das Yale-Team 2019 die BrainEx-Technologie entwickelte. Damit wurde das Gehirn von Schweinen am Leben erhalten, das Organ, das durch Sauerstoffmangel am stärksten geschädigt werden kann.

"OrganEX ist eine Fortsetzung von BrainEx, die vom isolierten Gehirn auf den ganzen Körper übertragen wird. Ähnlich wie die vorherige Studie hat diese Studie gezeigt, dass wir bestimmte Zellfunktionen nach dem Tod wiederherstellen können, und wir sehen eine ähnliche Erholung der Zellen in anderen Organsystemen. Die Zellen sterben nicht so schnell ab, wie wir angenommen haben, was uns die Möglichkeit eröffnet, einzugreifen", sagte Zvonimir Vrselja in einem Webinar, das das Fachjournal Nature kurz vor der Veröffentlichung der Studie veranstaltete. Die Forscher lösten Herzinfarkte aus, um die in den BrainEx-Experimenten verwendeten Schweine zu töten, gefolgt von bis zu sechs Stunden Sauerstoffentzug.

Sowohl BrainEx als auch OrganEx verwenden ein "kryoprotektives Perfusat", ein Kälteelixier, das mit synthetischem Hämoglobin für den Sauerstofftransport angereichert ist. Das Gebräu enthält auch Antibiotika, Entzündungshemmer, Unterdrücker des Zelltods und verschiedene Moleküle, um die Zellen zu schützen und in der Lage zu sein, dem Einfrieren stand zu halten und die Blutgerinnung zu hemmen.

Das OrganEx-Rezept wurde so modifiziert, dass es für einen ganzen Schweinekörper passt, die wichtigste Änderung bestand aber in der Computersteuerung einer Pumpe, die das Mittel durch das Kreislaufsystem eines ganzen großen Säugetiers schickt. Der Aufbau ähnelt einer Herz-Lungen-Maschine. Eine Abbildung im Nature-Artikel zeigt die Zeichnung eines Schweins, das an verschiedene Sensoren (zur Messung von Hämoglobin, Herzschlag, Blutfluss und -Druck), Pumpen, einen Tank mit Medikamenten, darunter Heparin zur Aufrechterhaltung des Blutflusses, einen Oxygenator und ein Dialysegerät zur Aufrechterhaltung der Elektrolyte angeschlossen ist.

Ein Bioethiker war an Bord, um sicherzustellen, dass die Schweine - 10 bis 12 Wochen alte Weibchen - nicht leiden. Sie erhielten Fentanyl-Pflaster, waren in tiefer Narkose und dann wurde ihr Herz mit 9-Volt-Batterien angehalten.

Besser als ECMO

Eine Stunde nach dem Tod wurden einige Schweine an OrganEx angeschlossen, andere an ECMO (extrakorporale Membranoxygenierung), eine bestehende Technik, bei der das sauerstoffhaltige Blut eines Tieres rezirkuliert und für vielleicht 20 Minuten lang aufrechterhalten werden kann. OrganEx ersetzt das Blut - und das neue Rezept funktioniert besser.

Nach sechs Stunden hatte ECMO noch nicht alle Organe der Schweine erreicht, und viele kleinere Blutgefäße waren kollabiert. Aber die OrganEx-Schweine hatten eine vollständige Reperfusion und einen stabilen Sauerstoffverbrauch sowie keine Elektrolytstörungen und saure Körperflüssigkeiten, die durch Sauerstoffmangel entstehen. Zur Überprüfung ihrer wiederhergestellten physiologischen Funktionen bestanden die Schweine verschiedene Tests (auf Glukose, Blutgerinnung, Nierenfunktion, EEG und EKG).

Als die Forscher Teile der wichtigsten Organe - Gehirn, Herz, Lunge, Leber, Niere und Bauchspeicheldrüse - genauer untersuchten, stellten sie fest, dass sie nach OrganEx weniger geschädigt waren und sich besser erholten als nach ECMO. Die Nieren unter OrganEx zeigten sogar Anzeichen von Zellteilung.

Die Analyse der Genexpression ging noch weiter in die Tiefe und untersuchte, welche Gene in einzelnen Zellen der Nieren, der Leber und des Herzens an- oder abgeschaltet wurden. Die Ergebnisse stimmten mit denen auf Gewebe- und Organebene überein und bestätigten den Ansatz. Die wichtigsten Unterschiede zwischen OrganEx und ECMO, die sich bei allen Tests herausstellten, waren Ausmaß der Entzündung und Zelltod.

Nenad Sestan fasste die Ergebnisse zusammen. "OrganEx hat die Funktion zahlreicher Organe wiederhergestellt, Stunden nachdem sie eigentlich tot sein sollten. Das Absterben von Zellen kann aufgehalten werden, und Zellen können sogar noch eine Stunde nach dem durch Kreislaufstillstand herbeigeführten Tod neu starten."

Die nachweisbare Überlegenheit von OrganEx könnte Tore für künftige Behandlungen öffnen, so David Andrijevic. "Unsere Ergebnisse unterstreichen eine bisher unbekannte Fähigkeit eines großen Säugetierkörpers, sich nach dem Lebensende wieder zu erholen. Die Ergebnisse haben das Potenzial, die Verfügbarkeit von Organen für Transplantationen zu erhöhen oder lokale Organischämie zu behandeln", welche Gerinnungsprobleme wie Schlaganfälle und Herzinfarkte verursacht.

Wie geht es mit OrganEx weiter? Erprobung in speziellen klinischen Situationen.

OrganEx könnte den Pool an Spenderorganen erweitern. Heute kann ein hirntoter Mensch, dessen Organe noch durchblutet sind, als Spender in Frage kommen, nicht aber jemand, der zwar hirntot ist, dessen Kreislauf aber nicht mehr funktioniert. Sauerstoffmangel setzt die Kaskade von Organschäden und Absterben in Gang.

Die wertvollen Kühlboxen mit Organaufklebern, welche die Operationssäle in Fernsehsendungen ausschmücken, können nur ein wenig Zeit gewinnen. OrganEx könnte diese Zeit erheblich verlängern. Aber das bringt mich zurück in das Reich der Twilight Zone.

Was ist, wenn OrganEx zu gut funktioniert?

Könnten die Gehirnneuronen eines hirntoten Organspenders mit Herzstillstand plötzlich anfangen, Aktionspotenziale abzufeuern und sich dann durch die Bildung neuer Synapsen verbinden? Stellen Sie sich ein Autounfallopfer vor, das auf einem Tisch liegt, an Maschinen angeschlossen ist und auf die Organentnahme wartet. Und plötzlich beginnt das Gehirn zu erwachen.

Dies geschieht in einem meiner Lieblingsromane, Kazuo Ishiguros Never Let Me Go von 2005, der 2010 auch verfilmt wurde.

In einem gruseligen Internat in England werden junge Schüler vorbereitet, ihre Organe an reiche Leute "zu spenden"und bis zum jungen Erwachsenenalter damit "fertig zu werden".  Eine plappernde Lehrerin erklärt den Schülern, wie ihre Lebern, Nieren, Milzen und alle anderen Teile nach und nach entnommen werden, bis sie "fertig" sind.

Die neue Arbeit hat einen Bioethiker an Bord, der dafür sorgt, dass die Schweine schmerzlos sterben. Ich hoffe, dass er in der Nähe bleiben wird, um alle Möglichkeiten für die Folgen des gut gemeinten und vielversprechenden OrganEx zu prüfen. Weil in der Wissenschaft die Ergebnisse nicht immer so sind, wie wir sie erwarten.


[1]  Andrijevic, D., Vrselja, Z., Lysyy, T. et al. Cellular recovery after prolonged warm ischaemia of the whole body. Nature (2022). https://doi.org/10.1038/s41586-022-05016-1


 * Der Artikel ist erstmals am 4.August 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " OrganEx Revives Pigs an Hour After Death, Holding Promise for Transplants" https://dnascience.plos.org/2022/08/04/organex-revives-pigs-an-hour-after-death-holding-promise-for-transplants/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.  Das Foto mit den Schweinen wurde von der Redaktion eingefügt


 Bill Hathaway, August 3, 2022: Yale-developed technology restores cell, organ function in pigs after death. https://news.yale.edu/2022/08/03/yale-developed-technology-restores-cell-organ-function-pigs-after-death


 

inge Thu, 04.08.2022 - 23:59

Das virtuelle Fusionskraftwerk

Das virtuelle Fusionskraftwerk

Do, 28.07.2022 — Felix Warmer

Icon Physik

Felix Warmer Die Energiequelle der Sonne auf der Erde nutzbar zu machen ist das ehrgeizige Ziel der Fusionsforschung. Derzeit gibt es vor allem zwei mögliche Varianten, ein Kraftwerk zu realisieren: Tokamak und Stellarator. Felix Warmer vom Max-Planck-Institut für Plasma Physik (Greifswald), das den Stellarator Wendelstein 7-X beheimatet, beschreibt hier, wie seit Jahren eine Simulationsplattform entwickelt wird, mit der sich sowohl die physikalischen als auch technischen Anforderungen an einen Stellarator ganzheitlich simulieren lassen. Dieser digitale Zwilling soll das Zusammenwirken aller Systemkomponenten beschreiben, um ein Fusionskraftwerk schneller zu entwickeln und zur Marktreife zu bringen.*

Aus der Fusion von Wasserstoff (genauer: dessen schweren Varianten Deuterium und Tritium) Energie zu gewinnen ist ein lang gehegter Traum. Mit einem nahezu unerschöpflichen Brennstoffreservoir und dem CO2-freien Betrieb könnte diese Technik eine der Stützen einer nachhaltigen Energieversorgung werden. Mit ihrer großen elektrischen Leistung würden Fusionskraftwerke vor allem die Grundlast bedienen und so in idealer Weise die von der Witterung abhängigen Wind- und Sonnenkraftwerke ergänzen.

Im südfranzösischen Cadarache entsteht derzeit der Experimentalreaktor Iter. Er soll erstmals im großen Maßstab demonstrieren, dass diese Art der Energiegewinnung technisch möglich ist. Iter basiert auf dem Prinzip des sogenannten Tokamak. In ihm wird das rund hundert Millionen Grad heiße Plasma in einem Magnet feldkäfig eingesperrt. Dieser wird indes auf eine Weise erzeugt, dass ein Tokamak ohne Zusatzmaßnahmen nur in gepulstem Betrieb, also mit r egelmäßigen Unterbrechungen arbeiten kann.

Wegen dieser Einschränkung wird parallel dazu ein anderes Anlagenprinzip namens Stellarator erforscht. Es bietet eine attraktive Alternative, da Stellaratoren im Dauerbetrieb arbeiten können. Die größte und erfolgreichste Experimentieranlage dieses Typs ist der seit 2015 in Greifswald laufende Wendelstein 7-X.

Das Stellarator-Konzept erschien anfänglich herausfordernder, weil dabei zum Einschluss des Plasmas wesentlich komplexer geformte Magnetspulen nötig sind als in einem Tokamak. Wendelstein 7-X hat bewiesen, dass solche Spulen mit der erforderlichen Genauigkeit realisierbar sind. Diese Anlage hält den Stellarator-Weltrekord für das Fusionsprodukt aus Temperatur, Plasmadichte und Energieeinschlusszeit. Es gibt an, wie nahe man den Werten für ein selbstständig brennendes Plasma kommt.

Abbildung 1: , Das Modell eines Stellarators bildet ein Spulensystem mit realistischen Abmessungen und Betriebseigenschaften ab und berücksichtigt die technischen Randbedingungen. Der Farbcode gibt die Magnetfeldstärke in Tesla an. Die kleinen Pfeile stellen lokale elektromagnetische Kräfte an den Spulen dar, die großen Pfeile zeigen die Richtung und, qualitativ, die Stärke der summierten Kräfte für eine Spule.

Das Ziel: ein ökonomisches Kraftwerk

Die für die Planung des Stellarators verwendeten Computerprogramme wurden bereits in den 1990er-Jahren entwickelt. Sie berechnen das Magnetfeld, welches das heiße Fusionsplasma einschließt, sowie die Spulen, die das Feld erzeugen. Bislang existierte jedoch kein systematischer Rahmen, der weitere technische Anforderungen berücksichtigt, die für einen Betrieb große Bedeutung haben. Aufbauend auf den bisherigen erfolgreichen Codes haben wir in den vergangenen Jahren – weltweit erstmalig – neue Modelle entwickelt, die genau diese Randbedingungen in einer Simulationsplattform einbeziehen, um alle Komponenten eines Stellarators gewissermaßen ganzheitlich zu beschreiben. Unser Ziel ist es also, einen flexiblen digitalen Zwilling eines Fusionskraftwerks am Computer zu schaffen, mit dem man die Auswirkung neuer Techniken, physikalischer Erkenntnisse oder Unsicherheiten auf den Entwurf untersuchen und ein optimales Konzept für ein Stellarator-Fusionskraftwerk erstellen kann. Dieser digitale Zwilling optimiert dabei nicht nur die physikalischen, sondern auch die ingenieurstechnischen Aspekte einer solchen Anlage. Abbildung 1.

Die wissenschaftliche Herausforderung beim Erarbeiten eines Kraftwerkskonzepts besteht darin, aus laufenden Stellarator-Experimenten wie Wendelstein 7-X die physikalischen Erkenntnisse mit aktuellen technischen Entwicklungen zu verbinden, um daraus einen ökonomisch attraktiven Kraftwerksentwurf abzuleiten. Abbildung 2. Besonders anspruchsvoll ist es, alle technischen Komponenten miteinander in Einklang zu bringen: supraleitende Spulen, Stützstruktur, Kühlsysteme und viele weitere Systeme müssen aufeinander abgestimmt werden und genügend Platz für Vorrichtungen lassen, die eine Wartung aus der Ferne erlauben. Unsere Simulationsplattform öffnet neue Wege, um solch komplexe technische Herausforderungen virtuell darzustellen und zu bewältigen.

Abbildung 1: , 2016 und 2017 wurden in der Plasmakammer von Wendelstein 7-x unter anderem 8000 Graphitkacheln montiert. Daten, die Forschende in der Anlage seither gesammelt haben, fließen auch in das virtuelle Modell des Stellarators.

Test für unterschiedliche Reaktoren

Wendelstein 7-X hat bereits experimentell bewiesen, dass das Stellarator-Konzept funktioniert. Ein zukünftiger Reaktor kann jedoch in sehr unterschiedlichen Formen gebaut werden, wobei die optimale räumliche Gestalt erst noch gefunden werden muss. Wir haben unseren Code namens Process daher auf zwei unterschiedliche Stellarator-Konzepte angewendet. Zum einen haben wir drei reaktorgroße Stellaratoren mit unterschiedlichen Seitenverhältnissen simuliert. Zum anderen haben wir drei Spulensätze mit einer unterschiedlichen Zahl an Spulen durchgerechnet. Hierbei spielen Volumen und Oberfläche des Plasmas eine bedeutende Rolle, wenn es um weitere Berechnungen beispielsweise der Fusionsleistung, der Füllraten oder der Materialbelastung geht. Process berücksichtigt in Magnetfeldrechnungen die Materialeigenschaften von Supraleitern und technische Randbedingungen, etwa die Regeln für eine Schnellabschaltung der Spulen. Das Modell erzeugt somit ein funktionstüchtiges Spulensystem mit realistischen Abmessungen und Betriebseigenschaften. Diese Simulationen ermöglichen zum ersten Mal den Vergleich verschiedener Stellarator-Konfigurationen innerhalb des gleichen ganzheitlichen Systemcodes und tragen somit zur Stellarator-Optimierung bei.

Ein weiterer Clou von Process ist die Geschwindigkeit: Die Ergebnisse liegen bereits nach wenigen Sekunden vor. Das ermöglicht es uns, eine nahezu endlose Zahl alternativer Entwürfe parallel zu untersuchen und den großen Parameterbereich entscheidend einzugrenzen. Bei der Konstruktion der Codes haben wir auf die Rechengeschwindigkeit geachtet, wobei dies mit einem Kompromiss zwischen Supergenauigkeit und Schnelligkeit einhergeht. Haben wir mit Process einen optimalen Bereich eingegrenzt, kann diese Konfiguration mit hochauflösenden Simulationen detaillierter untersucht werden. Dies geschieht innerhalb des EU-Projekts EUROfusion. Es vereint derzeit 30 Forschungseinrichtungen in 25 EU-Mitgliedstaaten sowie der Schweiz, dem Vereinigten Königreich und der Ukraine. Koordiniert wird es vom IPP in Garching. In diesem Forschungsverbund sind Fachleute versammelt, die sich auf bestimmte Teilaspekte spezialisiert haben und diese detailliert berechnen können. Mit ihnen kooperieren wir intensiv. Diese Forschung erzeugt daher starke Synergie-Effekte und fördert länderübergreifenden Austausch und Zusammenarbeit.

Bislang sind längst nicht alle technischen Aspekte eines Stellarator-Kraftwerks abgedeckt. So arbeiten wir derzeit an Modellen, welche die mechanischen Spannungen in den Spulen und ihrer Stützstruktur hinreichend genau vorhersagen können. Solche Spannungen entstehen vor allem durch die starken elektromagnetischen Kräfte zwischen den Spulen. Letztlich müssen wir alle physikalischen und technischen Aspekte in unserem digitalen Zwilling zusammenzuführen. Wir sind davon überzeugt, dass unsere Strategie dazu beitragen kann, die Entwicklung eines Stellarator-Kraftwerks voranzutreiben.


 * Der Artikel ist unter dem Titel "Das virtuelle Fusionskraftwerk" in der Sammlung Highlights aus dem Jahrbuch der Max-Planck-Gesellschaft 2021 https://www.mpg.de/18802436/jahrbuch-highlights-2021.pdf im Mai 2022 erschienen und wird hier unverändert wiedergegeben . Die MPG-Pressestelle hat freundlicherweise der Verwendung von Jahrbuch-Beiträgen im ScienceBlog zugestimmt.


Kernfusion im ScienceBlog:

Roland Wengenmayr, 13.05.2022: Die Sonne im Tank - Fusionsforschung


 

inge Thu, 28.07.2022 - 18:01

Was Quantencomputer in den nächsten Jahren leisten können

Was Quantencomputer in den nächsten Jahren leisten können

Do, 07.07.2022 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Sie sollen Probleme lösen, an denen heute sogar die besten Computer scheitern. Mit dieser Erwartung investieren Regierungen, aber auch private Geldgeber massiv in die Entwicklung von Quantencomputern. Es wird vielleicht noch Jahrzehnte dauern, bis es einen universell programmierbaren Quantencomputer gibt, vor allem weil Rechnungen mit ihm sehr fehleranfällig sind und Quanteninformation sehr empfindlich ist. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über Arbeiten zur Fehlerkorrektur und Validierung von Quantenrechnungen am Max-Planck-Institut für Quantenoptik, über physikalische Systeme zur Hardware von Quantencomputern und dabei u.a. über die vom Institut für Quantenoptik und Quanteninformation (IQOQI; OEAW) und der Universität Innsbruck entwickelten Ionenfallentechnologie *

Eigentlich sollte Ignacio Cirac Grund zu Enthusiasmus haben. Der Direktor am Max-Planck-Institut für Quantenoptik in Garching bei München ist ein Pionier der Entwicklung von Quantencomputern. Solche Rechner sollen mithilfe der Quantenphysik manche Aufgaben etwa in der Logistik oder bei der Entwicklung neuer Medikamente und Werkstoffe wesentlich schneller bewältigen als heutige Computer. In dieser Hoffnung überbieten sich staatliche Institutionen geradezu bei der Förderung der Quantentechnologie, vor allem des Quantencomputers: Die deutsche Bundesregierung hat von 2021 bis 2025 zwei Milliarden Euro für das Gebiet zur Verfügung gestellt, die US-Regierung gibt ebenfalls für vier Jahre rund eine Milliarde Dollar, und die EU-Kommission hat in einem über zehn Jahre laufenden Flaggschiffprogramm etwa genauso viel ausgelobt. Doch China übertrifft alle anderen mit gleich zehn Milliarden Euro für ein Institut für Quanteninformationswissenschaft. Dazu kommt: neben zahlreichen Start-ups beteiligen sich auch große Unternehmen wie Google und IBM am Rennen zu den ersten Quantenrechnern – und sie begleiten jeden Fortschritt mit einigem medialen Tamtam. Hunderte Millionen Euro investieren die Firmen und ihre Kapitalgeber in die Entwicklung von Quantencomputern.

Das Forschungsfeld von Ignacio Cirac boomt also augenscheinlich. Doch das führt bei dem Physiker nicht nur zu Begeisterung, sondern auch zu Beunruhigung. Wie viele seiner Kollegen, die sich auf dem Gebiet der Quanteninformation gut auskennen, fürchtet er, dieser Hype um Quanteninformations-technologien könnte bei Misserfolgen bald ins Gegenteil umschlagen. „Wir werden jetzt nicht mehr nur durch die Forschung angetrieben, sondern auch durch Investoren“, sagt Cirac. Die aber könnten zu ungeduldig sein. Angesichts der enormen technischen Herausforderungen erwartet Cirac nämlich, dass es mindestens noch zehn Jahre, vielleicht sogar zwanzig bis dreißig Jahre dauern könnte, bis es wirklich anwendungsreife universelle Quantencomputer geben wird. „So lange wird aber kein Hype andauern“, betont er, „und am Ende werden wir Wissenschaftler als die Schuldigen ausgemacht, wenn der Quantencomputer noch nicht so weit ist.“ Die große Zukunftsvision sind universelle, das heißt frei programmierbare Quantencomputer. Sie sind das Gegenstück zu den digitalen Computern: Analog zu den digitalen Bits rechnen sie mit Quantenbits, kurz Qubits. Ihre Rechenmacht, wenn es um bestimmte Aufgaben geht, beziehen sie aus den Regeln der Quantenwelt: Anders als ein digitales Bit kann ein Qubit nicht allein die Zustände 0 und 1 annehmen, sondern sich auch in einer Überlagerung beider Zustände befinden. Darüber hinaus können mehrere Qubits miteinander überlagert werden. Diese Verschränkung bildet das Rechenwerk eines Quantencomputers. Abbildung 1.

Abbildung 1. Vieldeutiges Bit: Anders als ein klassisches Bit kann ein Quantenbit auch Überlagerungen der Zustände 0 und 1 annehmen, die sich mit den Koordinaten x, y und z auf einer Kugel darstellen lassen und bei einer Messung mit einer gewissen Wahrscheinlichkeit auftreten. Da Quantencomputer so verschiedene Lösungen parallel testen können, dürften sie manche Aufgaben schneller bewältigen als klassische Rechner.

Ein universeller Quantencomputer könnte vielfältige Anwendungen finden. „Ein typisches Beispiel ist das Problem des Handlungsreisenden“, sagt Cirac. Der Handlungsreisende soll eine gewisse Anzahl von Städten besuchen und will dafür die kürzeste Strecke errechnen. „Wie wächst nun mit der Anzahl der Städte die dafür auf einem digitalen Computer benötigte Rechenzeit?“, fragt der Physiker und antwortet gleich selbst: „Sie wächst exponentiell!“ Das sei typisch für derartige kombinatorische Probleme, und die lauern vielfältig darauf, zum Beispiel in der Technik, Rechenzeiten auf herkömmlichen Computern explodieren zu lassen. Und nicht nur das: Auch der für das Rechnen benötigte Speicherplatz kann lawinenartig anwachsen.

Die Sache mit der exponentiellen Explosion kennen wir alle seit Beginn der Coronapandemie. Die Legende von der Erfindung des Schachspiels kann sie veranschaulichen. Der von dem neuen Spiel begeisterte König will dem Erfinder eine Belohnung zukommen lassen, die dieser sich aussuchen darf. Der im Gegensatz zum König mathematisch versierte Erfinder überlegt und wünscht sich dann Reis, nach folgender Regel: für das erste Feld des Schachbretts ein Reiskorn, für das zweite zwei Körner und dann für jedes nächste Feld immer die doppelte Anzahl. Mathematisch ergibt dies bei 64 Spielfeldern die Zahl 264 – 1, die in dieser Form als Potenz harmlos aussieht, aber gigantisch groß ist. Der König müsste dem Erfinder des Schachspiels so viel Reis geben, dass die Menge umgerechnet jener von rund zweitausend heutigen Weltjahresproduktionen entspräche.

Eine solche exponentielle Explosion erschwert auch die Lösung von Aufgaben aus der Physik und Chemie, die Quantencomputer schon recht bald bearbeiten könnten. Zum Beispiel wenn es darum geht, gezielt neue medizinische Wirkstoffe oder neue Werkstoffe zu entwickeln – etwa praxistaugliche Materialien, die Strom ohne Widerstand leiten. Denn wer die Eigenschaften von chemischen Reaktionen, von Molekülen und Materialien möglichst exakt berechnen will, muss unweigerlich Quanteneigenschaften berücksichtigen, genauer gesagt: das komplexe Zusammenspiel von Elektronen. Das Verhalten eines solchen Quantenvielteilchensystems kann selbst ein heutiger Supercomputer nicht berechnen. Daher hantieren Programme etwa für die Materialentwicklung mit stark vereinfachten Näherungsmodellen. Entsprechend unterentwickelt ist deren Vorhersagekraft. Quantencomputer können im Prinzip ein viel präziseres Materialdesign ermöglichen. Die Grundidee geht auf den amerikanischen Physik-Nobelpreisträger Richard Feynman zurück. Sie lautet: Will man ein Quantensystem exakt berechnen, so nehme man ein angepasstes zweites Quantensystem, welches sich als adäquates Ersatzteam eignet. Doch anders als das schwer zugängliche Untersuchungsobjekt, etwa das Elektronenkollektiv in einem Supraleiter, muss dieses zweite Quantensystem wie ein Rechenwerk gut von außen steuerbar sein. Genau dadurch zeichnet sich ein Quantencomputer aus, und zwar in der Rolle eines Quantensimulators.

Simulatoren für die physikalische Forschung

Vergleicht man das mit der Geschichte der klassischen Computer, dann sind Quantensimulatoren das Pendant zu Analogrechnern. Das waren hochspezialisierte Computer, die zum Beispiel die aerodynamischen Eigenschaften eines zu entwickelnden Flugzeugs simulierten. Anders als digitale Computer, welche Information portionsweise als Bits verarbeiten, bildeten Analogcomputer ein bestimmtes System kontinuierlich nach, etwa mechanisch oder elektronisch. Analogcomputer hatten ihre große Zeit, als digitale Computer noch nicht so leistungsfähig waren. Heute, in der Frühphase der Quantencomputer, ist es ähnlich. Quantensimulatoren werden bereits zunehmend interessant, um zumindest Fragen der physikalischen Grundlagenforschung anzupacken. Daran forscht zum Beispiel die Gruppe von Immanuel Bloch, ebenfalls Direktor am Max-Planck-Institut für Quantenoptik, mit der Ciracs Team auch zusammenarbeitet.

Von dem universell programmierbaren Quantencomputer trennt einen Quantensimulator, der heute oder zumindest in naher Zukunft verfügbar ist, etwa so viel wie einen alten Analogrechner vom heutigen PC. Ciracs Team verfolgt daher eine doppelte Strategie. Ein Teil der von den Garchingern entwickelten Algorithmen wird erst in fernerer Zukunft auf leistungsfähigen, fehlerkorrigierten universellen Quantencomputern laufen können. Der andere Teil soll schon möglichst bald auf den bereits verfügbaren Quantenrechnern mit relativ wenigen Qubits einsetzbar sein und besonders in der Quantensimulation erste Vorteile demonstrieren. „Wir wollen zeigen, dass man schon jetzt auf Quantencomputern etwas Nützliches machen kann, das auf klassischen Computern nicht mehr geht“, sagt Cirac, „zum Beispiel die Eigenschaften von einigen neuen Materialien vorherzusagen.“ Dazu kooperiert er auch mit Google Research, der Forschungsabteilung von Google.

Für die Hardware von Quantencomputern sind verschiedene physikalische Systeme im Wettrennen. Immanuel Blochs Gruppe etwa setzt auf ultrakalte Atome als Qubits, die in einem räumlichen Gitter aus Laserstrahlen gefangen sind und über Laserlicht angesteuert werden. Google hingegen entwickelt Chips, die winzige supraleitende Schaltkreise als Quantenbits nutzen. Mit einem solchen Quantenprozessor namens Sycamore, der 53 funktionierende Qubits enthielt, konnte die Google-Forschung 2019 erstmals demonstrieren, dass ein Quantencomputer in der Berechnung einer Aufgabe den leistungsfähigsten konventionellen Supercomputer schlagen kann. „Allerdings war das eine rein akademische Aufgabe ohne sinnvolle Anwendung“, kommentiert Cirac diesen gefeierten Durchbruch. Und Markus Hoffmann von Google Research in München vergleicht es mit dem ersten Motorflug-Hüpfer der Gebrüder Wright: „Mit diesem Flug sind wir auf einer ersten Insel gelandet, die klassisch nicht erreichbar ist – aber diese ist noch unfruchtbar.“ Er betont auch, dass Google Research das technische Entwicklungsniveau von Quantencomputern realistisch einschätzt. Zugleich gibt er sich optimistisch. So erwartet Google, dass die nächsten Meilensteine hundert supraleitende Qubits sind, danach tausend und schließlich – etwa in einer Dekade – eine Million.

Die Grenzen von Quantencomputern

Schon mit hundert Qubits ließe sich in der Materialentwicklung etwas anfangen. Will man nämlich die Eigenschaften eines mikroskopisch kleinen Supraleiterstückchens exakt berechnen, die von hundert stark miteinander wechselwirkenden Elektronen bestimmt werden, landet man bei einem Problem mit 2100 Unbekannten. Das ist weit mehr, als das Universum Sterne hat, und überfordert absehbar alle herkömmlichen Großcomputer. Ein Quantencomputer würde hingegen nur hundert verschränkte Qubits benötigen, um die Aufgabe zu lösen. Aber wie macht er das?

Mari Carmen Bañuls, leitende Forscherin in Ciracs Abteilung, versucht, die Prozedur zu erklären: „Man schreibt seine Instruktionen in die Quantenbits hinein und präpariert sie so in einem bestimmten Quantenzustand.“ Die zu berechnende Aufgabe, die einen bestimmten Quantenalgorithmus nutzt, steckt dabei in der Art, wie die Quantenbits anfänglich verschränkt sind. „Dann lässt man das System sich eine gewisse Zeit entwickeln“, erklärt die Physikerin, „und macht dann eine Messung, um das Ergebnis zu bekommen.“ Das ist in gewisser Weise mit dem Kochen in einem Schnellkochtopf vergleichbar: Man gibt die Zutaten hinein, verschließt den Topf und startet den Kochvorgang. Nach einer vom Rezept festgelegten Zeit schaut man nach, ob der Eintopf gelungen ist. Während des Kochens hat man nur den Druckanzeiger als Information über die Vorgänge im Topf – aber immerhin.

In der Quantenwelt ist nicht einmal eine solche Anzeige erlaubt, solange die verschränkten Qubits vor sich hin werkeln. Denn hier kommt eine weitere Eigenheit ins Spiel: Quanteninformation ist ein extremes Sensibelchen. Selbst ein minimaler Eingriff entspricht einer Messung, welche die Verschränkung sofort kollabieren lässt. Also darf man erst nach Ablauf der im Quantenrezept festgelegten Zeit nachschauen, sprich: eine Messung machen, und bekommt dann das erwünschte Resultat – vielleicht. Denn es gibt noch eine Besonderheit der Quantenmechanik. Sie beschreibt nur Wahrscheinlichkeiten, mit denen sich bestimmte Quantenzustände einstellen.

Ein Quantencomputer würde also nicht 1 + 1 = 2 liefern, sondern das Resultat 2 nur mit einer gewissen, allerdings exakt berechenbaren Wahrscheinlichkeit ausgeben. Auch das ist ein Hinweis darauf, dass der Einsatz von Quantencomputern nur für spezielle Aufgaben sinnvoll sein wird, für die solch eine Unsicherheit tolerabel ist oder es keine Alternative gibt. Welche Aufgaben das sein könnten, das erforscht Ciracs Team ebenfalls. Denn hier ist trotz kühner Zukunftsvisionen noch sehr vieles offen: „Wir untersuchen auch, was Quantencomputer nicht können“, betont Cirac. Dies soll verhindern, dass wertvolle Ressourcen auf nicht erreichbare Ziele verschwendet werden.

Auch ein universell programmierbarer Quantencomputer kann also nicht beliebige Probleme lösen. Und um die Hoffnungen überhaupt zu erfüllen, die auf ihn gesetzt werden, reichen selbst die von Google in rund zehn Jahren angepeilten eine Million Qubits nicht. Das liegt nicht zuletzt am Unterschied zwischen physikalischen und logischen Qubits, wie Google-Forscher Markus Hoffmann erklärt. Ein physikalisches Quantenbit ist eben zum Beispiel ein in einem Lichtgitter schwebendes Atom oder ein mikroskopischer supraleitender Kreisstrom. Doch weil diese physikalischen Bits so anfällig gegenüber Störungen aus der Umwelt sind, gibt es den Plan, mehrere physikalische Qubits zu einem logischen Qubit zusammenzuschalten, um darin die Quanteninformation wesentlich stabiler zu speichern. Bei der supraleitenden Technik, wie Google sie erforscht, würde ein logisches Qubit aus tausend synchronisierten physikalischen Qubits bestehen.

Bei einem universellen Quantencomputer werden viele zwischen den und rund um die logischen Qubits verteilte Hilfsquantenbits hinzukommen. Sie sollen als zusätzliche Sensoren Störungen messen. All das ist der Herausforderung geschuldet, dass die eigentlich rechnenden logischen Qubitswährend ihrer Arbeit nicht auf Fehler geprüft werden dürfen, was ein herkömmlicher Computer täte. Eine Prüfung wäre ja eine verbotene Messung. Aber auf Basis der Informationen von den Hilfsqubits und der Ergebnisse der logischen Qubits kann der Algorithmus eine sinnvolle Fehlerkorrektur machen.

Solche Konzepte für einen universellen, fehlerkorrigierten Quantencomputer haben Schätzungen zufolge einen hohen Preis. „Das läuft auf vielleicht hundert Millionen physikalische Qubits hinaus“, sagt Cirac: „Ein solcher Quantencomputer würde mit seinen Vakuum- und Kühlvorrichtungen unser ganzes Institut füllen!“ Mit der heutigen Technik sind diese Anforderungen also „crazy“, wie Cirac betont, und genau deshalb macht ihm der gegenwärtige Hype Sorgen. Aus seiner Sicht sind auch noch grundlegende technische Herausforderungen nicht gemeistert.

Neue Ideen aus ersten Anwendungen

Erstaunlich gelassen ist hingegen Thomas Monz von der Universität Innsbruck. Er gehört zu einem Team um Rainer Blatt, das eine andere Technik vorantreibt. Die Forschenden nutzen elektrisch geladene Calciumatome, die – wie Perlen aufgereiht – in einer elektromagnetischen Falle, der sogenannten Paul-Falle, schweben. Angesteuert werden sie mit Laserstrahlen. Der Vorteil dieser Calciumionen besteht darin, dass sie wegen ihrer elektrischen Abstoßung sehr stark miteinander wechselwirken. Dies lässt sich für eine sehr kräftige Verschränkung nutzen. Bereits 24 Qubits konnten in diesem Ionen-Quantencomputer verschränkt werden. Abbildung 2.

„Das klingt nach wenig, aber diese Verschränkung ist sehr stabil“, sagt Monz. Er ist auch Geschäftsführer des Startups Alpine Quantum Technologies (AQT), das bereits Ionen-Quantencomputer kommerziell verkauft. Seine Gruppe an der Universität Innsbruck, unterstützt durch AQT, hat in Zusammenarbeit mit dem Forschungszentrum Jülich kürzlich erstmals eine erfolgreiche Quantenfehlerkorrektur demonstriert. „Dazu haben wir je sieben physikalische Qubits zu logischen Qubits zusammengeschaltet“, sagt Monz. Die Idee ist einfach: Nach einer gewissen Rechenzeit weichen gewöhnlich Zustände einiger physikalischer Qubits, die ein logisches Qubit formen, wegen Fehlern voneinander ab; dann zeigt die Mehrheit der Qubits, die im Zustand übereinstimmen, wahrscheinlich das korrekte Ergebnis an. „Bei der Quantenfehlerkorrektur geht es ja einfach um Redundanz“, sagt Monz.

Abbildung 2. Modell eines Quantensystems: Gekreuzte Laserstrahlen formen ein Gitter, das einem Eierkarton ähnelt. In dessen Kuhlen lassen sich Atome fangen, die Quantenphänomene simulieren können. Solche Systeme sind aber auch Kandidaten für universelle Quantencomputer. Grafik : Christoph Hohma nn (MCQST Cluster)

Um mit der Fehleranfälligkeit von Quantenrechnungen besser umgehen zu können, haben Cirac und sein Team ein Projekt gestartet: „Wir arbeiten an der Verifikation von Rechenergebnissen“, sagt er: „Ich denke, das ist eine wichtige Fragestellung.“ Denn es soll sichergestellt sein, dass Quantencomputer verlässliche Ergebnisse produzieren. Solch ein Debugging muss auch die etablierte Computertechnik immer wieder vornehmen. Trotz aller Einschränkungen, trotz der Hindernisse, die Quantencomputer noch nehmen müssen, ehe sie für breitere Anwendungen nutzbar sind, ist Cirac überzeugt: Gibt es sie erst einmal, werden sie zu unerwarteten Ideen führen. Der inspirierende Effekt der fortschreitenden Entwicklung motiviert ihn auch, schnell zu ersten, kleineren Anwendungen zu kommen. Er ist sicher: „Falls wir in fünfzehn Jahren wieder ein Interview führen, werden die wichtigsten Anwendungen der Quantenphysik nicht die sein, über die wir heute gesprochen haben!“


 * Der Artikel ist erstmals unter dem Title: "Quantenrechner auf dem Sprung" im Wissenschaftsmagazin 2/2022 der Max-Planck-Gesellschaft https://www.mpg.de/18900638/MPF_2022_2.pdf erschienen. Die MPG-Pressestelle und der Autor haben freundlicherweise der Verwendung von Wissenschaftsmagazin-Beiträgen im ScienceBlog zugestimmt. Mit Ausnahme des veränderten Titels und einer fehlenden Abbildung wurde der Artikel unverändert in den Blog übernommen.


Weiterführende Links:

Max-Planck-Instituts für Quantenoptik (Garching)

Prof. Dr. Ignacio Cirac, Direktor MPQ, Abt. Theorie. https://www.mpq.mpg.de/6497359/theory-homepage

Prof. Dr. Immanuel Bloch, Direktor MPG, Abteilung Quanten-Vielteilchensysteme (LMU, MPQ). https://www.quantum-munich.de/

Ignacio Cirac: Quantum computers: what, when and how (Vortrag 2020): Video 51:15 min. https://www.youtube.com/watch?v=2lp8aeyi4Dc

Institut für Quantenoptik und Quanteninformation (IQOQI) Innsbruck

Synergien nutzen: IQOQI und Universität Innsbruck (Rainer Blatt): Video 3:36 min. https://www.youtube.com/watch?v=3RslpA8i8fM&t=213s

Rechnen mit QuBits (IQOQI, Rainer Blatt): Video 14;59 min. https://www.youtube.com/watch?v=xRdlbjnLK6Q

Quanteninformation: Von der Idee zur Realität (IQOQI, Peter Zoller): Video 4:26 min. https://www.youtube.com/watch?v=c-pGT3ODcEg

Projekt Optoquant: Österreichische Forschung ebnet Weg für Quantencomputer: Video 4:48 min. https://www.youtube.com/watch?v=CkAtSQNfn-4&t=278s

Alpine Quantum Technologies (AQT):https://www.aqt.eu/

Google Research

Hello quantum world! Google publishes landmark quantum supremacy claim (23.10.2019): https://www.nature.com/articles/d41586-019-03213-z

Quantum supremacy: A three minute guide. Video 3:12 min. https://www.youtube.com/watch?v=vTYp5Kd9nMA&t=12s


 

inge Thu, 07.07.2022 - 00:27

Comments

Markus (not verified)

Tue, 20.12.2022 - 10:31

Kleiner Fehler im Text: Die Summe ist nicht 1+2^63 sondern 2^64-1, oder?

Markus (not verified)

Tue, 20.12.2022 - 10:39

P.S. Im Originaltext, der vielleicht inzwischen korrigiert wurde, habe ich auch meine Lösung, nämlich 2^64-1 gefunden...

Wie sich Schwärme von Immunzellen selbst organisieren

Wie sich Schwärme von Immunzellen selbst organisieren

Fr, 30.06.2022 - — Tim Lämmermann

Tim LämmermannIcon Medizin In einem früheren Artikel hat der Immunologe Tim Lämmermann (Forschungsgruppenleiter am Max-Planck Institut für Immunbiologie und Epigenetik) über neutrophile Granulozyten berichtet [1]. Diese Fresszellen der angeborenen Immunantwort und Ersthelfer unseres Immunsystems patrouillieren durch Blutgefäße und wandern bei Anzeichen einer Entzündung oder Infektion schlagartig ins Gewebe ein, um dort Krankheitserreger zu eliminieren. Im Gewebe angekommen, schließen sie sich zu beeindruckenden Zellschwärmen zusammen und greifen Erreger gemeinsam an. Nun zeigt Lämmermann, dass Neutrophile ein molekulares Start-Stopp-System entwickelt haben, um ihre Schwarmaktivität selbst zu kontrollieren und Bakterien in Geweben effektiv und ohne Nebenwirkungen zu beseitigen.*

Immunologische Erstabwehr von Infektionserregern

Unsere Körper sind durch Barrieren wie die Haut gut vor eindringenden Krankheitserregern geschützt. Durch Verletzungen, wie etwa bei einem Riss in der Haut, können jedoch Krankheitserreger durch die Wunde in den Körper eindringen und schwere Infektionen verursachen. In solchen Fällen übernimmt das angeborene Immunsystem die erste Verteidigungslinie mit einem effektiven Arsenal verschiedener zellulärer Waffen. Als einer der ersten Zelltypen vor Ort werden neutrophile Granulozyten, auch kurz Neutrophile genannt, innerhalb weniger Stunden aus dem Blutkreislauf in das verletzte Gewebe rekrutiert, um möglichst schnell mikrobielle Eindringlinge aufzunehmen und zu zerstören.

Schwärme von Fresszellen als angeborener Immunschutz

Neutrophile sind unscheinbar wirkende, runde Immunzellen mit einem Durchmesser von ca. 0,015 Millimetern, die im menschlichen Blut etwa 50-70% der weißen Blutkörperchen ausmachen. Nur an den Orten einer lokalen Entzündung oder Infektion treten sie aus den Blutgefäßen heraus, werden aktiviert und gehen dann im dortigen Gewebe auf die Jagd nach Erregern. Auf diese Weise patrouillieren diese Zellen fast alle Bereiche unseres Körpers.

Mittels molekularer Sensoren auf ihrer Zelloberfläche sind Neutrophile besonders darauf spezialisiert, die Alarmsignale von Zellen zu erkennen, die durch Verletzungen oder eindringende Mikroben geschädigt wurden. Sobald einzelne Neutrophile solche Signale erkennen, rufen sie mittels chemischer Botenstoffe weitere Neutrophile zu Hilfe. Im Zuge unserer Forschung ist es uns gelungen, die Schlüsselrolle des Lipids Leukotrien B4, kurz LTB4, für genau diese Kommunikation zwischen den Immunzellen aufzudecken (Abbildung 1).

Dieses Lipid wird von aktivierten Neutrophilen ausgeschüttet, um anderen Neutrophilen die Richtung vorzugeben, der sie folgen sollen. Durch diese interzelluläre Kommunikation bilden Neutrophile imposante Zellschwärme, die zum Teil mehrere Hundert Zellen umfassen können und wie ein Zellkollektiv gemeinsam und fein abgestimmt im Gewebe agieren.

Abbildung 1: Neutrophile (grün) bilden Zellschwärme und sammeln sich an Gewebestellen, wo sie beschädigte Zellen oder eindringende Mikroben eindämmen und bekämpfen. Die mehrfarbigen Bahnen zeigen die Bewegungspfade von Neutrophilen an. Zwischen dem linken und rechten Bild liegen 30 Minuten. © Max-Planck-Institut für Immunbiologie und Epigenetik/Lämmermann .

Neben ihrer besonderen Effektivität beim Jagen von Bakterien sind Neutrophile auch noch hervorragend ausgerüstet, um diese zu töten und aus dem Gewebe zu entfernen. Hierzu besitzen sie in ihrem Zellinneren mehrere antibakterielle Substanzen, die Krankheitserreger töten können. Gelangen diese Substanzen jedoch aus der Zelle in ihre Umgebung, dann können sie für die umliegenden Gewebestrukturen aus Eiweißen und Zuckern schädlich sein. Ein Überschießen der nützlichen Entzündungsreaktion kann auf diese Weise zu massiven Gewebeschäden führen und zur Gefahr für den Körper werden. Ein solches Ungleichgewicht liegt häufig bei starken Entzündungsreaktionen vor und wird aktuell auch als eine der Ursachen für Lungenschäden bei schweren Verläufen von Covid-19 Erkrankungen diskutiert.

Eine molekulare Bremse, um den Schwarm zu stoppen

Während in den letzten Jahren immer mehr Erkenntnisse zu den auslösenden Mechanismen von Neutrophilen-Schwärmen gewonnen wurden, blieben diejenigen Prozesse bislang unbekannt, die diesen Teil der Immunreaktion wieder beenden. Am Max-Planck-Institut für Immunbiologie und Epigenetik haben wir uns deshalb der Frage gewidmet, wie das Schwarmverhalten von Neutrophilen und deren unkontrollierte Anhäufung im Gewebe die damit verbundene schädliche Entzündungsreaktion verhindert wird. Abbildung 2.

Abbildung 2: Neutrophile geben Signalstoffe ab, die immer mehr Zellen anziehen (links). Übersteigt die Konzentration der Signale eine bestimmte Schwelle, kommt die Wanderung der Fresszellen zum Stillstand (rechts). Der so entstehende Schwarm kann eingedrungene Krankheitserreger (graue Kreise) abschirmen und bekämpfen. .

Unsere Studien zeigen, dass Neutrophile ihre Schwarmaktivität selbst begrenzen und somit eine optimale Balance zwischen Such- und Zerstörungsphasen bei der Beseitigung von Erregern ermöglichen. Diese Erkenntnisse sind überraschend, denn bisherige Annahmen gingen stets von externen Signalen aus der Gewebeumgebung aus, die die Aktivität der Neutrophilen während der Endphase einer Entzündung dämpfen oder beenden. Durch den Einsatz spezieller Mikroskope für die Echtzeit-Visualisierung der Immunzelldynamik in lebendem Mausgewebe konnten wir jedoch zeigen, dass schwärmende Neutrophile mit der Zeit gegenüber ihren eigenen Signalen wie dem Leukotrien LTB4 unempfindlich werden, mit denen sie den Schwarm ursprünglich initiiert haben.

Um dies zu bewerkstelligen, besitzen Neutrophile eine molekulare Bremse, mit der sie ihre Bewegung stoppen, sobald sie hohe Konzentrationen der sich anhäufenden Schwarmlockstoffe in den Neutrophilen-Clustern wahrnehmen.

Jagdstrategien der Fresszellen

Das die Bremswirkung vermittelnde Protein trägt den Namen „G-Protein gekoppelte Rezeptor Kinase 2 (GRK2)“. Es sorgt dafür, dass bei hohen Konzentrationen der sich anhäufenden Schwarmlockstoffe die Zellen nicht mehr auf diese Signale reagieren und somit stehen bleiben. Angesichts der Entdeckung des Start-Stopp-Systems in Neutrophilen lag es nahe, zeitgleich geläufige Hypothesen zu Bewegungsmustern und Jagdstrategien von Fresszellen zu überprüfen. In Experimenten mit Neutrophilen, denen der Start-Stopp-Mechanismus fehlte, beobachteten wir nämlich, dass sich diese Zellen ungebremst im Gewebe bewegten und dadurch in großen Gewebebereichen nach Bakterien Ausschau halten konnten. Die Neutrophilen selbst hatten jedoch keinen Vorteil davon, sich besonders schnell im Gewebe bewegen zu können und ungebremst umherzueilen. Im Gegenteil: Neutrophile agieren viel effektiver, wenn sie als Schwarm eine infizierte Zelle umzingeln und dann dort verharren. Auf diese Weise bilden sie nämlich eine zelluläre Barriere, welche die Vermehrung und die weitere Verbreitung von Bakterien lokal eindämmt.

Fazit

Unsere Ergebnisse haben einen wichtigen Aspekt der Biologie von Neutrophilen entschlüsselt, der besonders für die Immunabwehr gegen Bakterien von Bedeutung ist. Unsere unerwarteten Erkenntnisse zu den Jagdstrategien der Immunzellen können wichtige Impulse für neue therapeutische Ansätze darstellen. Darüber hinaus könnten die hier beschriebenen Mechanismen zum Schwarmverhalten der Neutrophilen auch die Forschungen zum kollektivem Verhalten von Zellverbänden bis hin zum kollektiven Verhalten einiger Insektenarten vorantreiben.

 [1] Tim Lämmermann, 08.07.2016: Schwärme von Zellen der angeborenen Immunantwort bekämpfen eindringende Mikroorganismen


* Der Artikel ist unter dem Titel "Wie sich Schwärme von Immunzellen selbst organisieren " im Jahrbuch der Max-Planck Gesellschaft 2021 h https://www.mpg.de/18167365/ie-freiburg_jb_2021?c=153825 und leicht modifiziert unter dem Titel "Schwärmende Fresszellen" in der Sammlung Highlights aus dem Jahrbuch 2021https://www.mpg.de/18802436/jahrbuch-highlights-2021.pdf  im Mai 2022erschienen. Die MPG-Pressestelle hat freundlicherweise der Verwendung von Jahrbuch-Beiträgen im ScienceBlog zugestimmt. Der Artikel erscheint hier ohne Literaturzitate; diese können im Original nachgesehen werden.


 

inge Thu, 30.06.2022 - 01:15

11 Jahre ScienceBlog.at

11 Jahre ScienceBlog.at

Do, 29.06.2022— Redaktion

Redaktion

 

Wir feiern Geburtstag!

 

 

inge Wed, 29.06.2022 - 18:12

Getrübtes Badevergnügen - Zerkarien-Dermatitis

Getrübtes Badevergnügen - Zerkarien-Dermatitis

So 26.06.2022  — Inge Schuster

Inge Schuster Icon Medizin Zerkarien-Dermatitis, auch Badedermatitis genannt, wird vor allem im Sommer durch freischwimmende Larven von Saugwürmern verursacht und tritt weltweit sowohl im Süßwasser als auch im Meerwasser auf. Als Parasiten von Vögeln, die im und am Wasser leben, durchleben gewisse Saugwürmer (Schistosomen) einen komplexen Zyklus mit mehreren Larvenstadien und Lungenschnecken als Zwischenwirten. Angelockt von ähnlichen Lipidkomponenten der Haut befallen Zerkarien nicht nur ihren Wirt - zumeist Enten - sondern auch Menschen. Letztere erweisen sich allerdings als Fehlwirte; die Erreger werden noch in der Haut durch rasch einsetzende entzündliche Immunreaktionen zerstört, bevor sie in das venöse System gelangen und sich weiter entwickeln können. An den Eindringstellen in der Haut entsteht - je nach Sensibilität der betreffenden Person - ein Hautauschlag mit geröteten Quaddeln und Bläschen, die tagelang sehr stark jucken können.

Viele von uns, die unter der Hitze des diesjährigen Mai stöhnten, haben in Seen, Bächen und Flüssen die ersehnte Abkühlung gefunden - in Badegewässern, die in Europa (laut Europäischer Umweltagentur) zum weitaus überwiegenden Teil exzellente Wasserqualität aufweisen. (Österreich nimmt mit 97,7 % den Spitzenplatz ein; https://www.umweltbundesamt.at/news220603). Aber auch, wenn das Wasser "kristallklar" erscheint, kann ein Befall mit Zerkarien vorliegen, kleinen Saugwürmerlarven, die mit dem bloßen Auge nicht erkennbar sind und auf die in den Analysen zur Wasserqualität nicht geprüft wird. Diese Larven können sich auch in die Haut von Menschen bohren - dieser ist zwar ein Fehlwirt - und einen massiven entzündlichen Hautausschlag (Erythem) mit sehr stark juckenden Quaddeln und Pusteln - die sogenannte Badedermatitis oder Zerkarien-Dermatitis - auslösen.

Aktuelle Meldungen weisen darauf hin, dass es sich dabei um ein erhebliches gesundheitliches Problem handelt, das für die Freizeitindustrie an betroffenen Badegewässern auch ökonomische Folgen hat. Abbildung 1 zeigt einige Schlagzeilen aus Deutschland und auch aus den USA.

Abbildung 1: Einige Beispiele von deutschen und amerikanischen Medien, die vor Zerkarienbefall in Badegewässern warnen.

Zerkarien-Dermatitis - ein lang bekanntes, weltweites Phänomen

Dass der Aufenthalt im Wasser zu Hautausschlägen führen kann, wurde bei Reisbauern in Japan, also arbeitsbedingt, bereits vor 175 Jahren festgestellt und vor rund 100 Jahren als unerwünschter Nebeneffekt bei Badenden in Deutschland berichtet. Kurz darauf (1927) entdeckte der amerikanische Parasitologe W.W. Cort die eigentlichen Verursacher dieser Erytheme, als er Schnecken am Ufer eines Sees in Michigan sammelte und an den Händen lang anhaltende, stark juckende Hautausschläge entwickelte. Die Untersuchung der Schnecken ergab, dass diese massenhaft winzige, stark bewegliche Saugwürmerlarven - Zerkarien - absonderten, die für die Hauterscheinungen verantwortlich gemacht werden konnten.

In der Folge wurden Ausbrüche dieser Zerkarien-Dermatitis in vielen Ländern Europas und in Nordamerika beschrieben. In Österreich wurde vor mehr als 50 Jahren über Fälle von Zerkarien-Dermatitis am Neusiedlersee berichtet, später dann über weitere Vorkommen an vielen Badegewässern und in allen Bundesländern [1].

Zerkarien-Dermatitis tritt offensichtlich überall dort auf, wo Wasservögel (vor allem Stockenten und Gänsesäger) als Wirtstiere der Saugwürmer und geeignete Schnecken als Zwischenwirte in einem Ökosystem zur Verfügung stehen (zum Lebenszyklus der Parasiten: s.u.). Dies trifft vermutlich für viele Gewässer auf der Nordhalbkugel zu:

  • Stockenten und Gänsesäger sind weit über die ganze Nordhalbkugel verbreitet und kommen fast überall vor, wo sie in und am Wasser leben können; teils sind sie dort ganzjährig angesiedelt, teils migrieren sie, haben Brutplätze im Norden und Überwinterungsplätze in südlicheren Gebieten. (Wo beispielsweise Stockenten siedeln, brüten und überwintern ist in Abbildung 2. dargestellt.) Dass migrierende infizierte Vögel die globale Verbreitung der Parasiten treiben, ist evident.

 

Abbildung 2: Weltweite Verbreitung der Stockenten. Ganzjährige Siedlungsgebiete: dunkelgrün, Brutgebiete: hellgrün, Überwinterungsgebiete: blau, Einführungsgebiete: braun, Streifzüge: pink. (Bild: AnasPlatyrhynchosIUCN2019 2.png. https://commons.wikimedia.org/wiki/File:AnasPlatyrhynchosIUCN2019_2.png. Lizenz cc-by-sa).
  • Verschiedene Arten von Lungenschnecken, die als Zwischenwirte dienen, werden im selben Ökosystem wie die Wasservögel angetroffen. Zwei wesentliche Vertreter, die Spitzschlammschnecke und die Ohrschlammschnecke, sind in vielen Teichen, Seen und Flüssen auf der gesamten Nordhalbkugel beheimatet.

 

Wirte und Zwischenwirte sind also im selben Ökosystem aufzufinden - die Zerkarien-Dermatitis hat die Menschheit wahrscheinlich von Anfang an begleitet.

Zum Entwicklungszyklus der Saugwürmer

Die Erreger der Zerkarien-Dermatitis sind Larven von Saugwürmern (Trematoden) aus der Familie der Schistosomatiden. In dieser großen Familie (die einige humanpathogene, Bilharziose-auslösende Arten enthält) wurden (bis jetzt) 85 Spezies als Parasiten charakterisiert, deren Wirte Vögel sind. In unseren Breiten sind es häufig verschiedene Arten der Gattung Trichobilharzia.

Der Entwicklungszyklus dieser Vogel-Schistosomen beginnt mit der Infektion eines Vogels (z.B. einer Stockente) durch freischwimmende Gabelschwanzlarven (Zerkarien). Diese saugen sich üblicherweise an der Haut der Füße des schwimmenden Vogels fest, werfen ihren Schwanzteil ab, durchbohren die Haut und dringen in das Gefäßsystem des Wirts vor. Dort reifen sie zu männlichen und weiblichen Parasiten heran und paaren sich. Die Ablage von befruchteten Eiern erfolgt je nach Art der Schistosomen dann in den Venen des Darmtrakts - von wo sie in das Darmlumen gelangen und mit dem Kot ins Wasser ausgeschieden werden - oder in der Nasenschleimhaut. Abbildung 3.

Abbildung 3: Charakteristischer Lebenszyklus eines Vogel-Schistosomen (hierTrichobilharzia stagnicolae). Ausführliche Beschreibung im Text. (Bild modifiziert nach E.S.Loker et al.,2022, 11 [2], Lizenz cc-by). Inserts: Unten links: Mirazidium 1 Stunde nach Eindringen in eine Schlammschnecke, a: Keimzellen, b: keine Infiltration von Haemozyten ("Immunzellen") des Wirts. Skala: 0,02 mm. (Bild: V.Skala et al., [3], Lizenz cc-by.) Unten Mitte: Ausstoß von Zerkarien aus einer infizierten Schnecke. Screen-shot aus: Snail releasing its schistosome parasites. Video 3:19 min. https://www.youtube.com/watch?v=c_p6cCj7OWU&t=14s. Rechts: Zerkarie von Trichobilharzia Skala: 0,1 mm. (Bild: N.Helmer et al., 2021,[4], Lizenz cc-by)

Innerhalb weniger Minuten entstehen aus den Eiern freischwimmende bewimperte Larvenformen, sogenannte Mirazidien, die in ihrer nur sehr kurzen Lebensspanne (sie können keine Nahrung aufnehmen) auf passende Schnecken stoßen müssen, um die Infektion weiter zu tragen. Mirazidien reagieren auf Lichtreize und auf von Schnecken abgesonderte chemische Signale (Glykoproteine), die ihnen die für sie spezifische Schnecke anzeigen. Treffen sie auf eine solche Schnecke, so bohren sie sich in deren Körper (Abbildung 3, Insert unten links) und verwandeln sich innerhalb von 2 - 3 Monaten in sogenannte Sporozysten, das sind Brutschläuche, in denen durch ungeschlechtliche Vermehrung (Knospung) die nächste Larvenform entsteht ("Redien") und aus dieser entwickeln sich schlussendlich die knapp 1mm großen Zerkarien (Abbildung 3, Insert rechts). Diese können in der Schnecke im Schlamm auch überwintern.

Mit steigenden Wassertemperaturen im Frühjahr/Sommer beginnen infizierte Schnecken Unmengen an Zerkarien auszustoßen (Abbildung 3, Insert unten Mitte). Untersuchungen an der Spitzschlammschnecke nennen einen mittleren täglichen Ausstoß von 2 600 Zerkarien/Schnecke und über eine Million Zerkarien über die Lebensdauer der Schnecke. Bezogen auf Gewicht sondern die Schnecken damit mehr Biomasse ab, als sie selbst besitzen [5]. Wie die Mirazidien leben Zerkarien von ihren Energiespeichern (Glykogen), da sie keine Nährstoffe aufnehmen können. In den 1 -1,5 Tagen ihrer Lebenszeit suchen sie aktiv nach ihrem Endwirt, zumeist Enten. Dabei werden sie negativ geotaktisch (d.i. sie schwimmen an die Oberfläche) und über pigmentierte Augen-Flecke von Lichtreizen getriggert und von chemischen Komponenten der Vogelhaut - Cholesterin, Ceramiden - angelockt. Mit dem Ansaugen an die Vogelhaut und durch Fettsäuren (Linolsäure, Linolensäure) stimulierte Penetration in die Haut schließt sich der Zyklus. Dies gelingt allerdings nur einem verschwindenden Bruchteil der Zerkarien, die erfolglosen Zerkarien enden als abgestorbene Biomasse und/oder als Beute anderer Organismen - sie sind also erhebliche Bestandteile des Ökosystems.

Bevor noch das Wasser für uns zum Schwimmen ausreichend warm geworden ist, können aus dem Vorjahr stammende Zerkarien, die in den Schnecken im Schlamm überwintert haben, Jungvögel ebenso wie die ältere Population und Vögel auf dem Durchzug infizieren und damit einen neuen Schistosomen Zyklus einleiten.

Der Mensch als Fehlwirt

Vogelhaut und Menschenhaut weisen eine ähnliche Zusammensetzung aus Lipidkomponenten auf. Dies führt dazu, dass Zerkarien auf Menschen, die im Wasser waten, schwimmen oder Arbeiten verrichten in gleicher Weise wie auf Vögel reagieren. Sie saugen sich an unserer Haut fest und beginnen Sekunden später in diese einzudringen. Im Schnitt ist dieser Prozess in 4 Minuten (1:23 min bis 13:37 min) abgeschlossen. Dann verhindern rasch einsetzende allergische Reaktionen offensichtlich ein weiteres Vordringen in den Organismus und die Entwicklung zu adulten Schistosomen, verursachen aber Entzündungsreaktionen in der Haut.

Vorerst kommt es zur Histamin-Freisetzung durch Mastzellen, gefolgt von Entzündungsreaktionen ausgelöst durch Cytokine von einwandernden Granulozyten und Makrophagen und einer T-Zell-Antwort. Je nach Sensibilität des Zerkarienopfers entsteht an den Penetrationsstellen der Haut ein Ausschlag mit geröteten, sehr stark juckenden Quaddeln und Bläschen, die u.U. auch von tagelang anhaltendem Fieber begleitet werden können [6]. Nach mehreren Tagen sind die eingedrungenen Zerkarien abgestorben und zersetzt. Die allergische Reaktion auf diese ist selbstlimitierend; nach 2 Wochen sind die Symptome zumeist abgeklungen. Ist man gegen Zerkarien bereits sensibilisiert, so bedeutet eine neuerliche Infektion - auch Jahre später - eine gesteigerte Entzündungsreaktion.

Wie kann man Zerkarien-Dermatitis behandeln/verhindern?

Als lästig, aber ungefährlich betrachtet gehört Zerkarien-Dermatitis zu den bislang wenig-beachteten Hauterkrankungen - als zu wenig interessant für Medizin, Pharma und biochemische Forschung. Es gibt kaum epidemiologische Untersuchungen zur Zahl der Fälle und auch keine klinischen Studien zur Behandlung. Und dies obwohl manche Studien berichten, dass  30 - 40 % der Menschen auf Zerkarien sensibel reagieren. 

So gibt es, wenn überhaupt, ein Standard-Procedere:  Zur Linderung des tagelangen, häufig fast unerträglichen Juckreizes können Antihistaminika oder Kortikosteroide eingesetzt werden. Ist durch Kratzen eine Sekundärinfektion entstanden, so wird diese topisch mit Antiseptika oder Antibiotika behandelt.

Ebenso wenig bekannt wie die Inzidenz der Zerkarien-Dermatitis ist vielerorts auch der Verseuchungsgrad von Wirtstieren und Zwischenwirten und damit von Badegewässern:

  • Bei Wasservögeln wurden sehr variable Infektionsraten von einigen % bis zu mehr als 60 % berichtet [7].
  • Für Schnecken, die man in Europa an unterschiedlichen Stellen von Flüssen, Teichen und Seen gesammelt hat, gibt es  sehr unterschiedliche Angaben zu Infektionsraten - zwischen 0,1 und mehr als 20 % (20 % mit Trichobilharzia verseuchte Schnecken wurden beispielsweise in der niederösterreichisch/burgenländischen Region zwischen Orth/Donau und Zicksee nachgewiesen: L.Gaub et al., 2020, Arianta 8, 13 -19).

Natürlich steigt die Gefahr infiziert zu werden mit der Infektionsrate der Schnecken; allerding skann bei dem hohen Ausstoß von Zerkarien (täglich mehrere tausend Spezies/Schnecke) auch eine einzelne Schnecke ausreichen, um in einem limitierten Bereich mehrere Personen zu infizieren. Schnecken und damit Zerkarien sind vor allem im seichten Wasser im Uferbereich anzutreffen; Kinder. die hier spielen, können besonders gefährdet sein.

Zur Bekämpfung der Zerkarien schreibt das Wisconsin Department of Natural Sciences [8]:

"Es gibt keine wirksame Methode, um die Zerkarien-Dermatitis am eigenen Strand zu beseitigen. Alle Versuche, bei der entweder die Zerkarien oder ihre Schneckenwirte abgetötet werden, sind unwirksam, da die Zerkarien in der Lage sind, über große Entfernungen von unbehandelten Bereichen her zu schwimmen/zu treiben. Es macht keinen Unterschied, ob Ihr Strandbereich sandig, felsig oder bewachsen ist. Die Wirtsschnecken leben an allen Standorten......"

"In den letzten Jahren gab es Versuche, die Wirtsvögel mit Arzneimitteln zu behandeln. Die Theorie ist, die Vögel von den erwachsenen Parasiten zu befreien, bevor sie die Schneckenpopulation mit Mirazidien infizieren können... Bislang wird das Verfahren in Wisconsin als nicht praktikabel für die gesamte Seefläche angesehen."

"Moderne Pestizidgesetze verbieten Behandlungen, wie sie in der Vergangenheit versucht wurden (d.i. Anwendung von Kupfersulfat, Anm. Redn.). Behandlungen zur Abtötung von Schnecken sind sehr aggressiv und töten viele Pflanzen und Tiere, die nicht zu den Zielgruppen gehören, und können auch zu kontaminierten Sedimenten führen. ..."

Wozu wird also geraten?

"Es ist am besten, die Zerkarien-Dermatitis genauso zu betrachten wie Mücken und Bremsen: Man kann wirklich nichts tun, um sie zu beseitigen, und es ist am besten, wenn man lernt, wie man die Exposition reduziert." [8]

Bedeutet dies also so viele verdächtige Badegewässer von vornherein zu meiden? (Dazu gehört leider auch mein Schwimmteich, in dem ich - vor Jahren bereits sensibilisiert - mir vor einem Monat, nach 10 Minuten im Wasser, eine fast 3 Wochen dauernde Dermatitis zugezogen habe.)


[1] H.Auer & H.Aspöck: „Vogelbilharzien" als Erreger einer Hautkrankheit: die Zerkarien-Dermatitis. Denisia 6, Nr. 184 (2002), 321-331

[2] E.S.Loker et al., Scratching the Itch: Updated Perspectives on the Schistosomes Responsible for Swimmer’s Itch around theWorld Pathogens 2022, 11, 587. https://doi.org/10.3390/pathogens11050587

[3] V.Skala et al., Influence of Trichobilharzia regenti (Digenea: Schistosomatidae) on the Defence Activity of Radix lagotis (Lymnaeidae) Haemocytes. PLoS ONE 2014, 9(11): e111696. https://doi.org/10.1371/journal.pone.0111696

[4] N.Helmer et al., First Record of Trichobilharzia physellae (Talbot, 1936) in Europe, a Possible Causative Agent of Cercarial Dermatitis. Pathogens 2021, 10(11), 1473; https://doi.org/10.3390/pathogens10111473

[5] M.Soldanova et al., The Early Worm Catches the Bird? Productivity and Patterns of Trichobilharzia szidati Cercarial Emission from Lymnaea stagnalis. PLoS ONE 2016, 11(2): e0149678. https://doi.org/10.1371/journal.pone.0149678.

[6] P. Kourilová et al, Cercarial Dermatitis caused by Bird Schistosomes Comprises Both Immediate and Late Phase Cutaneous Hypersensitivity Reactions. J Immunol 2004; 172:3766-3774; http://www.jimmunol.org/content/172/6/3766

[7]  E.K. lashaki et al., Association between human cercarial dermatitis (HCD) and the occurrence of Trichibilarizia in duck and snail in main wetlands from Mazandaran Province, northern Iran. 2021. Parasite Epidemiology and Control. https://doi.org/10.1016/j.parepi.2021.e00211

[8] Wisconsin Department of Natural Resources:  https://dnr.wi.gov/lakes/swimmersitch/


 

inge Sun, 26.06.2022 - 18:42

Manche Kontakt-Sportarten führen zu schweren, progressiven Gehirnschäden

Manche Kontakt-Sportarten führen zu schweren, progressiven Gehirnschäden

Do, 16.06.2022 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Die chronisch traumatische Enzephalopathie (CTE) war lange Zeit ein Waisenkind unter den Erkrankungen des Gehirns. 2017 lieferte die Neuropathologin Ann McKee von der Boston University of Medicine den Beweis, dass Kopfverletzungen, etwa wiederholte Schläge auf den Kopf, mit CTE in Zusammenhang stehen. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm schreibt im folgenden Artikel über diese bis jetzt größte Studie an 110 Gehirnen, die zeigt, wie groß dieses Problem wirklich ist.*

Tatort-Fans wissen Bescheid: Wenn in Münster der Fall mal wieder ins Stocken gerät, und selbst Kommissar Frank Thiel nicht mehr weiterweiß, schlägt die Stunde des Pathologen. Ein ums andere Mal findet Prof. Dr. Dr. Karl-Friedrich Boerne bei der Leichenschau den entscheidenden Hinweis zur Aufklärung des Verbrechens. Aber wäre Boerne nicht so unbescheiden, dann müsste selbst er den Hut ziehen vor der Arbeit, die Prof. Ann McKee von der Boston University of Medicine ganz real geleistet hat. Vor nunmehr fünf Jahren veröffentlichte die Neuropathologin und Expertin für neurodegenerative Erkrankungen im Fachblatt JAMA , eine Studie, die eine ganze Nation erschüttert hat – und deren Schlussfolgerungen bis heute nachhallen.

„110 Hirne“ titelte die New York Times noch am Tag der Veröffentlichung. Hinterlegt war der Text mit den Porträts Dutzender verstorbener American Football-Spieler und mit gefärbten Hirnschnitten, auf denen selbst Laien die Schäden erkennen konnten. Oft wirkte die Großhirnrinde verdünnt, die flüssigkeitsgefüllten Hohlräume (Ventrikel) im Inneren der Schädel waren vergrößert. Der jüngste Spieler war mit 23 Jahren gestorben, der älteste mit 89. Obwohl sie auf unterschiedlichen Positionen gespielt hatten, fand McKee eine glasklare Gemeinsamkeit: Mit einer einzigen Ausnahme waren von den 111 American Football-Spielern, die in der höchsten und härtesten Liga gespielt hatten, alle mit CTE gestorben. CTE steht für chronische traumatische Enzephalopathie und ist – wie die New York Times es formulierte – jene degenerative Hirnerkrankung, die mit wiederholten Schlägen auf den Kopf in Verbindung steht.

Die CTE – ein Waisenkind der Neurologie?

Wie eng dieser Zusammenhang ist, war bis dato unklar. Angesichts zahlreicher anderer und viel häufigerer degenerativer Hirnerkrankungen wie Alzheimer oder Parkinson gab es nur wenig Interesse für die CTE. Selbst in einem 800 Seiten dicken Standardlehrbuch des Fachgebietes fand sie noch vor 15 Jahren keine Erwähnung. Seitdem hatten sich bei einer ganzen Reihe von Kontaktsportarten zwar die Zeichen gemehrt, dass sie ein Risiko für langfristige geistige Beeinträchtigungen mit sich bringen. Allein: Wie groß dieses Risiko wirklich ist, und ob man dagegen ernsthafte Maßnahmen ergreifen müsse, war höchst umstritten. Abbildung 1.

Abbildung 1. Wiederholte Schläge auf den Kopf und Gehirnerschütterungen

Den Durchbruch brachte McKees Arbeit. Sie gilt heute nicht nur als anerkannter wissenschaftlicher Beweis für den Zusammenhang zwischen Kopfverletzungen und CTE, sondern auch als Meilenstein und Endpunkt einer viel zu langen Phase, in der Funktionäre, Manager, aber auch die Spieler selbst das Problem verdrängten.

Charakteristisch für die CTE ist der langsame Zerfall von Hirnzellen. Die Auslöser sind in der Regel Verletzungen des Kopfes wie Gehirnerschütterungen, aber auch Explosionen, wie sie Soldaten im Gefecht erleben können. Die CTE gehört im weiteren Sinne zur Krankheitsgruppe der Demenzen, bei denen eine beeinträchtigte Funktion des Gehirns dazu führt, dass die Patienten Probleme mit dem Gedächtnis, dem Denken und dem Lernen bekommen.

Zwei Namen für dieselbe Krankheit?

Tatsächlich hatte ein weiterer Pathologe – Harrison Martland – bereits 1928 festgestellt, dass viele Boxer offenbar langfristig Gehstörungen erleiden und zu zittern beginnen, dass es mit dem Gedächtnis bergab ging, und dass die alten Kämpfer psychische Probleme entwickelten. Er nannte das Phänomen Dementia pugilistica nach dem lateinischen Wort für Boxer, Pugil. Heute geht man davon aus, dass es sich um frühe Beschreibungen der CTE handelt.

Zu den Anzeichen der Krankheit gehören Stimmungsstörungen wie Depressionen, Reizbarkeit oder Hoffnungslosigkeit. Das Verhalten kann impulsiv und/oder aggressiv sein. Weiterhin können Gedächtnisstörungen oder andere Anzeichen einer Demenz auftreten. Die Patienten entwickeln zudem häufig Bewegungsstörungen, die denen von Parkinson-Kranken ähneln.

Die Ärzte unterschieden zwei verschiedene klinische Verläufe: Die erste Variante beginnt bereits im jungen Erwachsenenalter mit Stimmungs- und Verhaltensproblemen, während die geistigen Fähigkeiten erst später nachlassen. Bei der zweiten Variante, die sich erst relativ spät im Leben entwickelt, ist es genau umgekehrt: Erst lässt die Denkfähigkeit nach, dann folgen die Stimmungsschwankungen und Verhaltensprobleme.

Offensichtlich entwickelt aber längst nicht jeder, der einmal auf den Kopf geschlagen wurde oder eine Gehirnerschütterung erlitten hat, auch eine CTE. Nach aktuellen Schätzungen sind es bei den Sportlern beispielsweise „nur“ etwa drei Prozent jener, die mehrere – auch kleine – Gehirnerschütterungen hatten.

Dies wirft die Frage auf, ob weitere äußere Risikofaktoren dazukommen müssen, oder ob Menschen unterschiedlich empfindlich auf die gleichen Verletzungen reagieren. Auch hier lieferte die Studie Ann McKees entscheidende Hinweise. Sie hatte nämlich neben den 111 Hirnen von Profispielern aus der US nationalen Football League auch 91 weitere untersuchen können, die allesamt von ihren Besitzern noch zu Lebzeiten oder posthum von Verwandten einer Gewebesammlung für die Hirnforschung vermacht worden waren. 16 dieser Hirne stammten von Schülern, 53 hatten in einer College-Mannschaft gespielt, 22 in einer halb-professionellen beziehungsweise der kanadischen Liga.

Kopfballspieler und menschliche Rammböcke

In der Gesamtbilanz war CTE bei 177 von 202 der untersuchten Sportler diagnostiziert worden, ein Anteil von 87 Prozent. In den verschiedenen Gruppen waren die Schäden durch CTE aber unterschiedlich groß. In den unteren Spielklassen waren mehrere Männer von CTE verschont geblieben oder hatten vergleichsweise milde Spuren der Krankheit. Je mehr Spielpraxis und je höher die Liga, desto häufiger aber waren schwere Schäden durch die CTE. Bei den Profis war sie bei 99 Prozent der untersuchten Sportler die Todesursache. Abbildung 2. Andere Studien hatten übereinstimmend gezeigt, dass langfristige Hirnschäden bei jenen Sportlern besonders häufig sind, die aufgrund ihrer Position viele Kopfbälle spielen oder deren Aufgabe es ist – wie im American Football – als „Rammbock“ (Lineman) gegnerische Angriffe zu stoppen.

Abbildung 2. CTE zeigt einen progressiven Verlauf, Vergleich eines normalen Hirns mit einem Hirn im fortgeschrittenen CTE-Stadium. (Bild von Redn. eingefügt; Quelle: Boston University Center for the Study of Traumatic Encephalopathy, https://www-cache.pbs.org/wgbh/pages/frontline/art/progs/concussions-cte/h.png. Lizenz: cc-b-sa)

Die Forscher um Ann McKee betonen, dass ihrer Untersuchung keine repräsentative Stichprobe zugrunde liegen. Vielmehr handelt es sich um Menschen, bei denen bereits zuvor ein Verdacht auf Hirnschäden bestand. Entsprechend vorsichtig formulieren die Wissenschaftler auch ihre Schlussfolgerung: „Ein hoher Anteil verstorbener American-Football-Spieler, die ihre Hirne der Forschung zur Verfügung gestellt haben, zeigten in der neuropathologischen Untersuchung Hinweise auf CTE, was nahelegt, dass die Krankheit mit dem früheren Footballspiel zusammenhängt.“

Andere sehen die Spitze eines Eisbergs. Und warnen: Wenn manche Spieler nach Jahren Anzeichen für eine CTE entwickeln, ist es bereits zu spät, um den Verlauf zu stoppen. Gerade erst wurde eine Studie mit mehr als 150.000 Kindern und Jugendlichen veröffentlicht, die in Kanada eine Gehirnerschütterung erlitten hatten. Beim Vergleich mit 300.000 weiteren Kindern, die „nur“ Knochenbrüche erlitten hatten, stellte sich heraus, dass die erste Gruppe in der siebenjährigen Nachbeobachtungszeit ein um 40 Prozent höheres Risiko für psychische Probleme aller Art hatte. Einweisungen in psychiatrische Kliniken waren um 50 Prozent häufiger gewesen. Auch die Selbstmordrate schien erhöht, obwohl sich dies aufgrund kleiner Fallzahlen nicht eindeutig belegen ließ.

Derartige Studien haben dann auch zu Forderungen geführt, die vom verpflichtenden Kopfschutz im Jugendsport bis hin zum vollständigen Verbot mancher Kontaktsportarten führen. Doch jeder weiß, dass hier auch sehr viel Geld auf dem Spiel steht. Weder der Trainer noch der Spieler will in der entscheidenden Phase des Endspiels einer Weltmeisterschaft auswechseln, „nur“ weil man sich nach einem Zusammenprall kurzfristig benommen fühlt. Präzisere Schutzmaßnahmen könnten sich ergeben, wenn der genaue Verlauf der Krankheit besser bekannt wäre. Wenn es eindeutige Warnzeichen gäbe, so die Hoffnung, könnte man die Spieler rechtzeitig vom Platz nehmen, und müsste dennoch nicht vollständig auf die Sportspektakel verzichten.

Löcher und Proteinhäufchen

Tatsächlich wird die CTE auch vor diesem Hintergrund in Tierversuchen erforscht. So beobachteten Forscher um Prof. David Wassarman von der Universität Wisconsin an der Fruchtfliege Drosophila melanogaster schon früh, was häufige Schläge auf den Kopf bewirken können: In Dünnschnitten des Gehirns der „misshandelten“ Fliegen fanden sich sowohl große wie auch kleinste Löcher. „Es sieht aus wie Schweizer Käse“, so Wassarman. Die molekularen Mechanismen, die dabei im Fliegenhirn ablaufen, seien sehr wahrscheinlich auch für das Verständnis der CTE beim Menschen relevant. „Die Nervenzellen sind fast identisch mit denen des Menschen, und es spielen sich darin die gleichen Reaktionen ab.“ Außerdem könnten auch Genanalysen Hinweise liefern. Immerhin, so Wassarman, fänden sich drei Viertel aller Erbgutveränderungen, die bei Krankheiten des Menschen auftreten, in ähnlicher Form auch bei Drosophila.

Den direkten Weg ging der Neuropathologe und ehemalige Leichenbeschauer Bennet Omalu. Er gilt als Pionier für Fallstudien an American Football-Spielern. Sein berühmtester Fall war Mike Webster (Spitzname „Iron Mike“), ehemaliger Center-Spieler der Pittsburgh Steelers, der nach seiner Karriere bis zum Tod im Jahr 2002 mit Sprachstörungen, Stimmungsschwankungen und Selbstmordgedanken zu kämpfen hatte. Obwohl das Gehirn bei der Obduktion oberflächlich normal aussah, führte Omalu auf eigene Kosten weitere Feinanalysen des Gewebes durch. Dabei fand er – wie später auch bei einem weiteren Spieler – große Mengen abnormaler Ablagerungen des Proteins Tau . Obwohl beide Spieler nicht älter als 50 Jahre wurden, wären die Tau-Konzentration so hoch gewesen, wie bei einem 90-jährigen mit fortgeschrittener Alzheimer-Krankheit, so Omalu. Diese spezifische Veränderung gilt heute als Schlüsselmerkmal beider Krankheiten, wogegen Ablagerung des „Alzheimer-Proteins“ ( Beta-Amyloid ) bei der CTE nur selten zu finden sind.

Das vorläufige Bild der CTE ist, dass die Schläge auf den Kopf zu einer Art Keimbildung führen. Während sich immer mehr Zellmüll ansammelt, schreitet die Schädigung der Nerven voran. In bedeutend größerem Detail sind solche langjährigen Verfallsprozesse auch für die Alzheimer-Krankheit dokumentiert. Die schlechte Nachricht lautet: Trotz dieser Entdeckung ist es bis heute nicht gelungen, den Zerfall im Gehirn aufzuhalten. „Wir wissen einfach nicht, welche Menge an Schlägen auf den Kopf es braucht, um die degenerative Kaskade in Gang zu setzten“, beschreibt der Neuropathologe Daniel Perl von der Uniformed Services University of the Health Sciences das Dilemma. Alles, was die Mannschaftsärzte tun können, ist die geistige Leistung ihrer Spieler möglichst früh mit Psychotests zu vermessen und nach einer Gehirnerschütterung zu prüfen, ob sie sich verschlechtert hat. Unterschwellige Schäden, aus denen sich eine CTE entwickeln könnte, werden dabei aber womöglich übersehen.

So bleibt die Bilanz trotz einiger Fortschritte unbefriedigend. Immerhin, fasst McKee klar und deutlich zusammen: „Wir müssen nicht länger darüber reden, ob es im American Football ein Problem gibt. Es gibt ein Problem.“


*Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info am 15.06.2022 zum Thema "Gehirntrauma" unter dem Titel "110 Hirne" erschienen, https://www.dasgehirn.info/krankheiten/gehirntrauma/110-hirne Der Artikel steht unter einer cc-by-nc-sa Lizenz; der Text wurde von der Redaktion unverändert übernommen, es wurden jedoch zwei Abbildungen eingefügt.

"dasGehirn.info" ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Weiterführende Links

Ann McKee on CTE: Video 17:35 min. https://www.youtube.com/watch?v=lVo-XLMwEfM  Wer mit Fußball (soccer) oder American Football zu tun hat, sollte sich das vermutlich ansehen. (Lizenz cc-by-nc)

Mez J, Daneshvar DH et al. Clinicopathological Evaluation of Chronic Traumatic Encephalopathy in Players of American Football. JAMA. 2017;318(4):360-370 https://doi.org/10.1001/jama.2017.8334 .

Ledoux AA, Webster RJ et al. Risk of Mental Health Problems in Children and Youths Following Concussion. JAMA Netw Open. 2022;5(3):e221235. https://doi.org/10.1001/jamanetworkopen.2022.1235

inge Thu, 16.06.2022 - 17:37

Kann ein Kaugummi vor COVID-19 schützen?

Kann ein Kaugummi vor COVID-19 schützen?

Fr, 09.06.2022 — Ricki Lewis

Ricki LewisIcon Medizin Mund und Rachenbereich sind Einfallstor und großes Reservoir von SARS-CoV-2. Bereits dort werden Zellen infiziert, das Virus kann sich rasend schnell vermehren und - wenn das Immunsystem erst verzögert reagiert - seinen unheilvollen Weg in Lunge und andere Organe antreten . Um die Infektion an ihrem Ursprung zu stoppen haben Forscher um Henry Daniell einen Kaugummi entwickelt, der den für das Andocken an Wirtszellen und Eindringen des Coronavirus essentiellen Rezeptor ACE2 enthält. In Labortests bewirkte dieser Kaugummi eine dramatische Reduktion von Viruslast und Infektiosität im Speichel. Vor wenigen Tagen erfolgte die FDA-Genehmigung für die klinische Erprobung des ACE2-Kaugummi in der Phase I/II .Die Genetikerin Ricki Lewis berichtet über diese neue Strategie, die auch bei anderen oral übertragenen Infektionen Anwendung finden könnte.*

Als ich in den 1960er Jahren aufwuchs, war Kaugummikauen überaus populär. Es gab Teekaugummi mit Teegeschmack und einen köstlichen Lakritzkaugummi mit einem Namen, der wahrscheinlich nicht mehr politisch korrekt ist. Trident-Kaugummi bot eine zuckerfreie Alternative, während Dentyne die Illusion von Gesundheit vermittelte. Der Apotheker Franklin V. Canning aus New York City hatte den Kaugummi 1899 erfunden, laut Verpackung "um den Atem zu versüßen und die Zähne weiß zu halten". Dentyne kombiniert geschickt "Dental" und "Hygiene".

Ich hätte es nie für möglich gehalten, dass Kaugummi eines Tages vor einem tödlichen Pandemievirus, SARS-CoV-2, schützen würde.

Zielorte sind Mund, Nase und Rachenraum

In seiner Funktion als Wirkstoffträger hat der Kaugummi eine Vorgeschichte.

Als Kind habe ich bei Halsschmerzen Aspergum (einen Aspirin enthaltenden Kaugummi; Anm.Redn.) gekaut, der heute von Retrobrands USA vertrieben wird. Aspirin ist allerdings ein kleines, einfaches Molekül.

"In jüngerer Zeit sind Koffein- und Nikotinkaugummis weit verbreitet. Allerdings konnte niemand Proteine mit Hilfe von Kaugummi verabreichen, weil die Kaugummibasis eine sehr hohe Temperatur benötigt, um richtig gewalzt zu werden", sagt Henry Daniell von der University of Pennsylvania School of Dental Medicine. Hohe Temperaturen würden aber die äußerst wichtige dreidimensionale Form eines Proteins, das ja eines voluminöses Molekül ist, aufbrechen. "Die höhere Temperaturstabilität von in Pflanzenzellen hergestellten Proteinen hat uns aber geholfen, diese schwierige Hürde zu nehmen", fügt Dr. Daniell hinzu.

Der von seinem Team entwickelte, vor COVID schützende Kaugummi gibt Proteine ab, die von Salatpflanzen in Hydrokultur produziert werden. Darüber berichtet das Fachjournal Molecular Therapy [1].

Der COVID-Kaugummi gibt ACE2 (Angiotensin Converting Enzyme 2) ab, ein Protein, das auf der Oberfläche von vielen unserer Zelltypen vorkommt und eine Vielzahl von Funktionen steuert. ACE2 ist der hauptsächliche Rezeptor für SARS-CoV-2: Das Virus bindet mit seinen Spikes an ACE2 und dringt in die Zellen ein. Sodann übernimmt das Virus die Kontrolle über die Zellen und schüttet seine eigenen Proteine aus, die als Toolkit zur Herstellung weiterer Viren dienen. SARS-CoV-2 vermehrt sich in den Zellen des gesamten Nasen-Rachen-Raums wie wild und wandert, wenn sich die Immunreaktion verzögert, in die Lunge. Wie der Kaugummi das Virus abffangen und damit die Infektion der Wirtszellen verhindern kann, ist in Abbildung 1 dargestellt.

Abbildung 1: Ein Überschuss an ACE2 im Rachenraum fängt das Corona-Virus ab. A: Der Kaugummi enthält in Pflanzen produziertes humanes ACE2, das mit CTB (Chlolera-non Toxin B subunit) fusioniert wurde - CTB-ACE2- und Bindungsstellen für RBD und GM1des Spikeproteins (B) bietet. SARS-CoV-2 bindet an lösliches ACE2 und an CTB-ACE2, das unlösliche Pentamere bildet. (Das von der Redaktion eingefügte Bild stammt aus H. Daniell et al., [1] , Figure 2 und steht unter einer cc-by-nc-nd-Lizenz)

Rationale Maßnahmen wie im öffentlichen Bereich Maskentragen und Abstandhalten halten Viren fern, das Fluten des Mundes mit ACE2-Rezeptoren, die als Köder dienen, bietet einen starken zusätzlichen Schutz. Genau das macht der Kaugummi.

Der Kaugummi kann beispielsweise im Restaurant beim Warten auf Speisen und Getränke nützlich sein; unvermittelt können ja überall virusbeladene Tröpfchen ausgespuckt werden und werden es auch. Außer Coronaviren verbreiten Tröpfchen eine ganze Reihe anderer Krankheitserreger, darunter auch Masern, HPV, Epstein-Barr-Viren und Herpesviren. Um in unsere Zellen einzudringen, binden die verschiedenen Virustypen an unterschiedliche Rezeptormoleküle.

Ein ganz klein wenig Spucke reicht aus, um an COVID zu erkranken. Ein Milliliter Speichel, etwa ein Fünftel eines Teelöffels, kann 7 Millionen Kopien des RNA-Genoms von SARS-CoV-2 enthalten. Ein Tröpfchen mit einem Volumen von nur einem Tausendstel Milliliter ist immer noch groß genug, um das Virus zu übertragen. Die Studie "The airborne lifetime of small speech droplets and their potential importance in SARS-CoV-2 transmission" liefert dazu die Messwerte [2].

Offensichtlich verhält sich SARS-CoV-2 in keiner Weise so, wie wir es erwarten. Unabhängig davon, ob eine infizierte Person Symptome hat oder nicht, kann die Viruslast im Speichel hoch sein - und viele Menschen sind tatsächlich symptomlos. Ich bin mir ziemlich sicher, dass ich eine hohe Viruslast in meinem Nasen-Rachen-Raum hatte, denn mein Teststreifen war innerhalb von Sekunden positiv; auch nachdem COVID ein Monat vorbei ist, kippe ich manchmal noch immer tonnenweise Gewürze auf meine Speisen, die ich nicht schmecken kann. Das Virus vermehrt sich in Speicheldrüsen und Mundschleimhäuten.

Ein Kaugummi-Antiinfektivum blockiert Rezeptoren

Beim "Chewing Gum-Topical-Delivery-Approach" wird ein Pflanzenpulver aus Salatzellen eingesetzt, welches das Protein ACE2 enthält, den Rezeptor an den SARS-CoV-2 bindet und der das Einfallstor in unsere Zellen darstellt.

ACE2-Rezeptoren übersäen normalerweise Zellen in Nase, Mund, Lunge, Herz, Blutgefäßen, Nieren, Leber und Magen-Darm-Trakt. Ist zu wenig ACE2 vorhanden, weil das Virus die Rezeptoren blockiert, führt dies zu Entzündungen, Zelltod und Organversagen, insbesondere im Herzen und in der Lunge.

Mehrere Forschergruppen arbeiten an den ACE2-Proteinen, die als Fallen für das Virus fungieren sollen. Anum Glasgow und Kollegen an der University of San Fransisco, CA beschreiben die Entwicklung einer solchen "Rezeptorfalle", die SARS-CoV-2-Spikes bindet und so von unseren Zellen fernhält. Dank Computertechnik binden die manipulierten Rezeptoren den Hotspot des viralen Spikeproteins (die rezeptorbindende Domäne) 170-mal stärker als das ursprüngliche ACE2. Und die manipulierten ACE2-Rezeptoren halten das gesamte Virus fern.

Rezeptorfallen wurden von der FDA hat noch nicht als antivirale Wirkstoffe zugelassen, mehrere Kandidaten, die ACE2 in Form eines Nasensprays verabreichen, sind aber in der Entwicklung. Dies reicht vermutlich nicht aus.

Die in Molecular Therapy beschriebene Untersuchung [1] zielt auf die Speicheldrüsen ab, die auch von mehreren anderen Viren befallen werden - Zika, Herpes simplex, Hepatitis C, Cytomegalovirus und Epstein-Barr. Und da sich SARS-CoV-2 von Subvariante zu Subvariante weiterentwickelt hat, konzentriert sich mehr davon in den Speicheldrüsen - die Viruslast bei Menschen mit der Delta-Variante ist 1.260 Mal höher als bei Menschen mit früheren Versionen des Virus, wobei ein Großteil davon in den Speicheldrüsen schwimmt.

Dr. Daniell beschreibt den Hintergrund der Erfindung und wie diese funktioniert

"Unsere Universität hat den SARS-CoV-2-mRNA-Impfstoff entwickelt, und mehrere andere Gruppen haben wichtige Beiträge geleistet, doch die meisten Entwicklungsländer sind noch nicht geimpft. Sogar gespendete Impfstoffe konnten in Afrika wegen unzureichender Kühlkettennetze nicht ausgeliefert werden. So habe ich mich entschlossen, Wege zur Bekämpfung von Infektionskrankheiten zu finden, die ohne Kühlkette auskommen. In Pflanzenzellen hergestellte Proteine sind viele Jahre lang stabil, wenn sie bei Raumtemperatur gelagert werden. Da die orale Übertragung von SARS-CoV-2 um 3 bis 5 Größenordnungen höher ist als die nasale Übertragung - vier gesprochene Worte 'Aah' setzen mehr Viren im Aerosol frei als eine Stunde maskenfreies Atmen - und die Infektion im Rachen beginnt, sollte Kaugummi ideal sein, um Selbstinfektion und Übertragung zu verringern. Deshalb haben wir einen Kaugummi angewandt, der mit einem in Pflanzenzellen hergestellten Fallenprotein für das Virus beladen war, um SARS-CoV-2 im Speichel zu beseitigen."

Warum nicht mit einer Anti-COVID-Mundspülung gurgeln? Weil, wie jeder weiß, der schon einmal eine Stange Juicy Fruit oder ein Stück Bazooka gekaut hat, Kaugummi länger im Mund bleibt.

COVID-Kaugummi könnte auch während zahnärztlicher Eingriffe bei infizierten Patienten verwendet werden. "Dieses allgemeine Konzept könnte erweitert werden, um die Infektion oder Übertragung der meisten oralen Viren zu minimieren", schreiben die Forscher.

Testen, testen

Die Forscher haben getestet, inwieweit der Kaugummi Viren in Speichelproben von der Zunge und vom Zahnfleisch infizierter Krankenhauspatienten zu neutralisieren vermag, Orte wo die Rezeptoren besonders dicht vorliegen. Sie haben dazu den "Microbubble SARS-CoV-2 Antigen Assay" verwendet, einen Test zum Nachweis der viralen Nukleokapsidproteine, die das RNA-Genom abschirmen. Die Erhöhung des ACE2-Gehalts korrelierte mit einem Rückgang der Viruslast um bis zu 95 Prozent. Der Placebo-Kaugummi zeigte keinerlei Wirkung. Abbildung 2.

Abbildung 2: Der ACE2-Kaugummi reduziert die Viruslast in Speichelproben von Spitalspatienten dramatisch. Der Kaugummi enthielt 25 mg BCT-ACE2 bei Patient 1 und 2 und 50 mg BCT-ACE2 bei Patient 3. (Das von der Redaktion eingefügte Bild stammt aus H. Daniell et al., [1], Figure 3 und steht unter einer cc-by-nc-nd-Lizenz.)

Der Anti-COVID-Kaugummi ist - wie die Forscher schlussendlich  sagen -  "neuartig und erschwinglich und bietet Patienten in Ländern, in denen Impfstoffe nicht verfügbar oder zu teuer sind, Zeit zum Aufbau einer Immunität". Der Kaugummi kann die Menschen zu Hause und am Arbeitsplatz schützen und beim Essengehen  in die Wange geschoben oder auf höfliche Weise weggelegt werden. Und in den kommenden Monaten könnte der Kaugummi möglicherweise eine erneute Infektion verhindern - etwas, das unweigerlich passieren wird.

"Am 2. Juni haben wir die die Genehmigung der FDA für die klinische Untersuchung von ACE2-Kaugummi in Phase I/II erhalten! Die klinische Studie läuft über drei Tage an COVID-19-positiven Patienten, die zwölf Kaugummis erhalten. Mit den steigenden COVID-19-Fällen in Philadelphia sind wir nun in der Lage die klinischen Studien zu Ende zu bringen und die Herstellung und Markteinführung des Produkts zügig voranzutreiben", sagt Dr. Daniell.

Mit Hilfe von Rezeptorfallen für Viren im Kaugummi hat das Team bereits erfolgreich die Kontrolle virulenter Grippestämme untersucht und testet derzeit die Kontrolle von HPV bei Patienten mit oralem Carcinom und von Herpes bei Patienten mit Fieberbläschen, die, wie Daniell anmerkt, auf dem Universitätscampus häufig übertragen werden."Dies könnte also die nächste neue Plattformtechnologie zur Bekämpfung oraler Infektionen sein", sagt er. Der Marketingplan liegt auf der Hand.

Ich sehe der Werbung entgegen, die den antiviralen Kaugummis beiliegen wird und Bilder von Coronaviren, Pockenviren, Chikungunya und Coxsackie, Influenza und Hepatitis, Ebola und Zika und vielem mehr enthalten wird.


 [1] Henry Daniell et al., Debulking SARS-CoV-2 in saliva using angiotensin converting enzyme 2 in chewing gum to decrease oral virus transmission and infection. Molecular Therapy 30/5 May 2022. https://doi.org/10.1016/j.ymthe.2021.11.008.

[2] Valentyn Stadnytsky et al., The airborne lifetime of small speech droplets and their potential importance in SARS-CoV-2 transmission. PNAS May 13, 2020, 117 (22) 11875-11877 . https:// https://doi.org/10.1073/pnas.2006874117.


 * Der Artikel ist erstmals am 2.Juni 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "Can Chewing Gum Protect Against COVID?"

 https://dnascience.plos.org/2022/06/02/can-chewing-gum-protect-against-covid/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildungen 1 und 3 plus Legenden wurden von der Redaktion aus der zitierten Originalarbeit [1] eingefügt.


 

inge Thu, 09.06.2022 - 19:01

Comments

Dr. Henry Daniell ist Professor and Direktor of Translational Research an der University of Pennsylvania.

Daniell  hat Pionierarbeit auf dem Gebiet der Chloroplasten-Gentechnik geleistet, die eine neue Plattform zur Herstellung und oralen Verabreichung kostengünstiger Impfstoffe und biopharmazeutischer Produkte darstellt, welche in Pflanzenzellen bioverkapselt sind. Nature Biotechnology  zählt diese Technologie zu den zehn besten Erfindungen des letzten Jahrzehnts.

Daniell wird von Biomed Central zu den 100 wichtigsten Autoren der Welt gezählt. Er hat >250 wissenschaftliche Arbeiten veröffentlicht (h-Faktor 209) und ist Inhaber von > 100 weltweiten Patenten.  Henry Daniell ist Träger zahlreicher Auszeichnungen.

Sein Konzept erklärt er in:

Delivering Medicine Through Lettuce, World Altering Medical Advancements  (2014), Video 3:59 min. https://www.youtube.com/watch?v=6z7qwwtHQTY

Interview mit H. Daniell über COVID-Gum:

Pennsylvania researchers developing gum that could reduce COVID transmission (12.2021). Video 6:27 min. https://www.youtube.com/watch?v=k4f8jqIugS4

Hochhäuser werden zu Energiespeichern

Hochhäuser werden zu Energiespeichern

Do, 02.06.2022 — IIASA

IIASA Logo

Icon Energie

Mit den rasch sinkenden Kosten für die Erzeugung erneuerbarer Energien wie Wind- und Solarenergie entsteht ein wachsender Bedarf an Technologien zur Energiespeicherung, um sicherzustellen, dass Stromangebot und -nachfrage in Balance sind. Ein internationales Team um Julian Hunt vom International Institute of Applied Systems Analysis (IIASA) hat ein innovatives, auf der Schwerkraft basierendes Energiespeicherkonzept - Lift Energy Storage Technology (LEST) - entwickelt, mit dem in städtischen Gebieten zur Verbesserung der Netzqualität Hochhäuser in Batterien verwandelt werden können. In solchen Gebäuden sollen Aufzüge und leer stehende Wohnungen und Flure genutzt werden, um zur Energiespeicherung Container mit Materialien hoher Dichte von den unteren Etagen in die oberen Wohnungen zu transportieren und zur Stromerzeugung Container von den oberen Wohnungen in die unteren Etagen herab zu führen.*

Die weltweite Kapazität zur Erzeugung von Strom aus SolarPaneelen, Windturbinen und anderen erneuerbaren Technologien hat in den letzten Jahren stetig zugenommen und man erwartet, dass bis zum Jahr 2026 die weltweite Kapazität zur Erzeugung von Strom aus erneuerbaren Energien um mehr als 60 % gegenüber dem Stand von 2020 steigen wird. Dies entspricht der derzeitigen globalen Gesamtkapazität der Stromerzeugung aus fossilen Brennstoffen und Kernenergie zusammen genommen. Nach Angaben der Internationalen Energieagentur werden die erneuerbaren Energien bis 2026 fast 95 % des Anstiegs der weltweiten Stromerzeugungskapazität ausmachen, wobei die Photovoltaik mehr als die Hälfte dazu beitragen wird. Allerdings erfordert der Übergang zu einer CO2-armen oder -freien Gesellschaft innovative Lösungen und eine andere Art der Energiespeicherung und des Energieverbrauchs als die traditionellen Energiesysteme.

Das Lift Energy Storage Technology (LEST)- Konzept

Die Forscher des IIASA schlagen in ihrer in der Zeitschrift Energy veröffentlichten Studie eine originelle, auf der Schwerkraft basierende Speicherlösung vor, die Aufzüge und leer stehende Wohnungen in hohen Gebäuden zur Energiespeicherung nutzt [1]. Die Autoren nennen diese neue Idee Lift Energy Storage Technology (LEST). Die Speicherung von Energie erfolgt durch das Hochfahren von Behältern mit nassem Sand oder anderen Materialien mit hoher Dichte, die mittels autonom gesteuerten Fahrzeugen in einen Aufzug hinein und wieder heraus transportiert werden. Abbildung 1.

Abbildung 1. Hochhäuser als Energiespeicher - Das Konzept der Lift-Energy-Storage-Technology: Energiespeicherung durch Hochfahren von Lasten in leer stehende Räume oberer Stockwerke, Energierückgewinnung durch Bremsenergie beim Hinunterfahren der Lasten. a): Die Komponenten des Systems. b): Lasten im unteren Gebäudeabschnitt. c) "Voller" Energiespeicher. d): Aufladen der "Batterie". e): Stromerzeugung beim Hinunterfahren. f: Aufzug dient dem Personenverkehr und der Speicherung und Regeneration von Energie . (Bild aus Julian Hunt et al., 2022 [1]; Lizenz: cc-by)

LEST ist eine interessante Option: Aufzüge sind in den Hochhäusern ja bereits installiert. In anderen Worten: es besteht kein Bedarf für zusätzliche Investitionen oder Räume , es wird vielmehr das Vorhandene auf andere Weise verwendet, um einen zusätzlichen Nutzen für das Stromnetz und den Gebäudeeigentümer zu schaffen.

Wie es zu dem LEST-Konzept gekommen ist, erklärt Julian Hunt von der IIASA-Forschungsgruppe für nachhaltige Dienstleistungssysteme und Erstautor der Studie erklärt dazu: "Ich war schon immer von Themen fasziniert, die mit potentieller Energie zu tun haben, d. h. mit der Erzeugung von Energie durch Änderung der Höhenlage, wie es beispielsweise Wasserkraft, Pumpspeicherung, Auftrieb und Schwerkraftspeicherung sind. Das Konzept der Schwerkraftspeicherung hat in letzter Zeit auch in der wissenschaftlichen Gemeinschaft und bei Startups große Aufmerksamkeit erregt. Auf die Idee von LEST bin ich gekommen, als ich nach meinem Einzug in eine Wohnung im 14. Stock viel Zeit damit verbracht hatte mit dem Aufzug auf und ab zu fahren".

Wie viel Energie gespeichert werden kann**,

beschreibt die Gleichung:

E = m x h x g x e

E ist die potentielle Energie (J), m die Masse( kg) der beladenen Container, h der mittlere Höhenunterschied (m) zwischen oberen und unteren Lagerplätzen, g die Gravitationskonstante (m/s2) und e die Effizienz des Aufzugs (üblicherweise mit 80 % kalkuliert). Für ein Gebäude mit einer Lagerfläche für 5 000 Container (jeweils mit 1000 kg nassem Sand) und einer Höhendifferenz von 50 m ergibt dies eine Speicherkapazität von 545 kWh (entspricht der Batterie eines Elektro-LKWs). Mit zunehmendem Höhenunterschied und steigender Masse der Container erhöht sich die Speicherkapazität des Systems.

Die Kosten für die Energiespeicherung sind (abgesehen von etwaigen Mietkosten) im Wesentlichen auf die Beschaffung der Container plus Füllmaterial und die autonom fahrenden Vehikel beschränkt. So würde die Speicherung in einem System mit 5000 Containern und 100 m Höhendifferenz auf 62 $/kWh kommen, bei 300 m Höhendifferenz auf 21 $/kWh - bedeutend billiger als konventionelle Batterien. Wie viel Energie (W) beim Hinunterfahren regeneriert wird, hängt von der Transportgeschwindigkeit ab.

Vorteile von LEST ....

Um eine Lösung durch Schwerkraftspeicheung realisierbar zu machen, sind nach Ansicht der Autoren die Kosten für die Energieaufnahme und - Rückgewinnung (Energiekapazität) die größte Herausforderung, Der wichtigste Vorteil von LEST ist, dass diese Energiekapazität bereits in Aufzügen mit regenerativen Bremssystemen eingerichtet ist. Weltweit sind mehr als 18 Millionen Aufzüge in Betrieb; viele von ihnen stehen aber einen beträchtlichen Teil der Zeit still. Die Idee von LEST ist, Aufzüge in der Zeit, in der sie nicht der Beförderung von Personen dienen, zur Speicherung oder Erzeugung von Strom zu nutzen.

Die Möglichkeit, Energie dort zu speichern, wo der meiste Strom verbraucht wird, wie es in Städten der Fall ist, bedeutet großen Nutzen für das Energienetz; LEST kann erschwingliche und dezentrale Hilfsdienste bereitstellen, die wiederum die Qualität der Stromversorgung in einem städtischen Umfeld verbessern könnten.

Behnam Zakeri, Koautor der Studie und Forscher in der IIASA-Forschungsgruppe für integrierte Bewertung und Klimawandel betont dies: "Umweltfreundliche und flexible Speichertechnologien wie LEST werden in einer Zukunft, in der ein großer Teil des Stroms aus erneuerbaren Energien stammt, für die Gesellschaft immer wertvoller werden. Daher müssen die politischen Entscheidungsträger und die Stromnetz-Regulierungsbehörden Strategien entwickeln, um Anreize für die Endverbraucher, in diesem Fall die Hochhäuser, zu schaffen, ihre dezentralen Speicherressourcen - beispielsweise LEST - mit dem zentralen Netz zu teilen. Die koordinierte Nutzung solcher dezentraler Ressourcen verringert den Bedarf an Investitionen in große zentrale Speichersysteme".

.... und noch zu lösende Fragen

Wie bei jedem neuen System gibt es noch einige Details, die weiter ausgearbeitet werden müssen, bevor das System zum Einsatz kommen kann. Dazu gehört es nutzbare Räume zu finden, in denen die Gewichtscontainer gelagert werden können - in den in den obersten Etagen, wenn das System voll aufgeladen ist und unten im Gebäude, wenn das System entladen ist. Hier könnten leer stehende Wohnungen, Büroräume und Gänge in den oberen Bereichen und Eingangshallen und Garagen in den unteren Etagen praktikable Optionen sein.

Eine weitere Überlegung betrifft die Deckentragfähigkeit bestehender Gebäude, in denen das System installiert wird, d. h. die Gesamtlast in Kilogramm pro Quadratmeter, die die Decke tragen kann, ohne zusammenzubrechen.

Zum globalen Potential von LEST**

Abbildung 2. Zahl, Höhe und globale Verteilung von Hochhäusern. (Bild von der Redaktion eingefügt aus: J.Hunt et al., Figs 11,12 [1]. Lizenz: cc-by)

Auf Basis der über 22 000 in Datenbanken gelisteten, weltweit existierenden Hochhäuser (mit Höhen über 50 m) haben die Forscher eine grobe Abschätzung des globalen Potentials von LEST vorgenommen. (Abbildung 2 fasst die Zahl, Höhe und regionale Verteilung der Hochhäuser zusammen.) Bei einer mittleren Gebäudehöhe von 120 m und vorausgesetzt, dass in den obersten Etagen Platz und Tragfähigkeit für 5 000 Container vorhanden ist, schätzen die Forscher ein globales Potential von 30 GWh, bei 50 000 Containern käme das Potential auf 300 GWh.


 [1] Hunt, J.D., Nascimento, A., Zakeri, B., Jurasz, J., Dąbek, P.B., Franco Barbosa, P.S., Brandão, R., José de Castro, N., Filho, W.L., Riahi, K. (2022). Lift Energy Storage Technology: A solution for decentralized urban energy storage, Energy DOI: 110.1016/j.energy.2022.124102


 *Der Artikel " Turning high-rise buildings into batteries" https://iiasa.ac.at/news/may-2022/turning-high-rise-buildings-into-batteries  ist am 30. Mai 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch Untertitel und zwei mit ** markierte Absätze mit Texten und Abbildungen aus der zitierten Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Anmerkung der Redaktion:

Mit einem internationalen Team hat der noch recht jungen IIASA-Forscher Julian David Hunt (PhD in Engineering Science, University Oxford) vor wenigen Wochen zwei weitere hoch-innovative Konzepte zur Energiespeicherung publiziert, die wir im ScienceBlog vorgestellt haben:

IIASA, 30.03.2022: Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen


 

inge Thu, 02.06.2022 - 01:06

Comments

Günter Baca (not verified)

Sun, 12.06.2022 - 11:26

Das ist eine sehr schöne Phantasie. Die Realität ist weniger euphorisierend. Denn um die Träger der "Potentiellen Energie" (in diesem Beispiel nasse Sandsäcke) an den Speicherplatz zu verbringen benötigt man zuerst einmal Energie für die Fahrt nach oben.
Dabei ist der Einfluss der Systemeffizienz auf Energieverbrauch und Regeneration bedeutsam. Denn es gibt etwa folgende elektrische und mechanische Verluste.
Aufwärtsfahrt: Schacht-Verlust 5% Motor-Verlust 20% Steuerungs-Verlust 5%
Regenerationsfahrt: Schacht-Verlust 5% = 5 Motor-Verlust 20% = 20 Steuerungs- Verlust 5%
Tatsächlich können nur etwa 52% der eingesetzten Energie, die benötigt wird um die Sandsäcke hochzutransportieren, zurückgewonnen werden. 48% entfallen auf Systemverluste.
Es wird in jedem Fall weniger Strom gewonnen, als investiert.
Die Rekuperation kann aber auch ohne Sandsäcke erzielt werden, wenn leere Kabinen nach oben fahren.
Natürlich bleibt der Systemverlust davon unberührt.
Ein weiterer Punkt ist die äusserst kurze Zeitspanne, in der Strom "gewonnen" werden kann. Eine durchschnittliche Fahrtdauer liegt in herkömmlichen Gebäuden unter einer Minute. Von den rund 18 Millionen Aufzügen fährt nur ein kleiner Teil in Hochhäusern.
Etwa 50% der Aufzugspopulation ist älter als 25 Jahre. Regenerative Antriebe sind noch entsprechend selten und die elektrische Effizienz der Anlagen ist sicher nicht fit für diese Nutzung.
Zusätzlich ist der Strombedarf zu bedenken, der für die Steuerung und den Betrieb der "Roboter" benötigt wird. Die müssen vermutlich rund um die Uhr bereit stehen.
Die Bereitstellung des Lagerraums sowohl im oberen als auch unteren Bereich des Gebäudes wirft zusätzliche Fragen auf. Erstens die kommerzielle: Raum ist teuer und in Highrisegebäuden ganz besonders, je höher im Gebäude der Raum angeordnet ist. Zweitens, die Statik.
Ich würde mich freuen hier mehr zu erfahren, wie diese Punkte gelöst werden können.
Eine Dialogbox, welche einen Permalink zum Kommentar anzeigt

- auch zur Systemeffizienz, den Vorteilen und den offenen Fragen - gibt die unter [1] zitierte Arbeit von Hunt et al., in Energy, Energy DOI: 10.1016/j.energy.2022.124102

Die von Ihnen aufgeworfenen Fragen sieht Hunt natürlich auch: "This paper assumes that the lift installed already has regenerative braking capabilities and the cost for renting the space to store the containers in the upper and lower storage sites is zero. Thus, the only cost requirements are the containers, the material selected to increase the mass of the containers, and the autonomous trailers".         

Im Übrigen wird das Konzept der Schwerkraftspeicherung von einigen Firmen bereits umgesetzt:

 

 

Somatische Mutationen bei Säugetieren skalieren mit deren Lebensdauer

Somatische Mutationen bei Säugetieren skalieren mit deren Lebensdauer

Do, 26.05.2022 — Redaktion

Redaktion

Icon Molekularbiologie

Es liegt nun die erste Studie vor, in der bei vielen Tierarten die Zahl der während der Lebenszeit erworbenen Mutationen verglichen wurde. Insgesamt 16 Säugetierarten - von der Maus bis zur Giraffe - zeigten trotz großer Unterschiede in Körpergröße und Lebensdauer eine ähnlich hohe Zahl von im Laufe des Lebens erworbenen Mutationen. Diese von Forschern des Wellcome Sanger Institute durchgeführte Studie lässt jahrzehntelange Fragen zur Rolle solcher genetischer Veränderungen im Alterungsprozess und in der Krebsentstehung in einem neuen Licht erscheinen.*

Forscher vom Wellcome Sanger Institute haben herausgefunden, dass verschiedene Tierarten trotz enormer Unterschiede in Lebensspanne und Größe ihr natürliches Leben mit einer ähnlichen Anzahl genetischer Veränderungen beenden. In der kürzlich in Nature veröffentlichten Studie [1] wurden Genome von 16 Säugetierarten - von der Maus bis zur Giraffe - analysiert. Die Autoren belegten darin: je länger die Lebenserwartung einer Spezies ist, desto langsamer ist die Mutationsrate; dies stützt die schon seit langem bestehende Theorie, dass somatische Mutationen eine Rolle bei der Alterung spielen.

Genetische Veränderungen, sogenannte somatische Mutationen, treten über die gesamte Lebenszeit in allen Zellen eines Organismus auf. Dies ist ein natürlicher Prozess; beim Menschen häufen Zellen etwa 20 bis 50 Mutationen pro Jahr an. Die meisten dieser Mutationen sind harmlos, aber einige von ihnen können eine Zelle zur Krebszelle entarten lassen oder auch die normale Funktion der Zelle beeinträchtigen.

Seit den 1950er Jahren haben einige Wissenschaftler darüber spekuliert, dass diese Mutationen eine Rolle im Alterungsprozess spielen könnten. Auf Grund der Schwierigkeit somatische Mutationen in einzelnen Zellen oder kleinen Klonen zu bestimmen, war es allerdings bislang ein Problem diese Möglichkeit zu untersuchen. Technologische Fortschritte der letzten Jahren erlauben nun endlich genetische Veränderungen in normalem Gewebe zu verfolgen; dies lässt hoffen damit die Frage nun zu beantworten.

Eine weitere, seit langem bestehende Frage betrifft das sogenannte Peto-Paradoxon: Da sich Krebserkrankungen aus einzelnen Zellen entwickeln, müssten Spezies mit größeren Körpern (und damit mehr Zellen) theoretisch ein viel höheres Krebsrisiko haben. Tatsächlich ist aber die Krebshäufigkeit bei Tieren unabhängig von deren Körpergröße. Man nimmt an, dass Tierarten mit großen Körpern bessere Mechanismen zur Krebsprävention entwickelt haben. Ob einer dieser Mechanismen darauf beruht, dass sich weniger genetische Veränderungen in ihrem Gewebe anhäufen, wurde bislang nicht untersucht.

Die Wellcome Sanger Studie

Abbildung 1. Histologische Bilder von Dickdarmproben mehrerer Tierspezies wobei jeweils ein Krypte strichliert umrandet ist. Der durch den schwarzen Strich angezeigte Maßstab ist 0,25 mm. (Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

In der neuen Studie haben Forscher des Wellcome Sanger Institute diese Theorien untersucht; sie haben neue Methoden angewandt, um die somatische Mutation bei 16 Säugetierarten zu messen, die ein breites Spektrum an Lebenserwartung und Körpergröße abdecken. (Im Detail waren dies: Schwarz-weißer Stummelaffe, Katze, Kuh, Hund, Frettchen, Giraffe, Schweinswal, Pferd, Mensch, Löwe, Maus, Nacktmull, Kaninchen, Ratte, Ringelschwanzlemur und Tiger.) Erwähnt werden soll hier auch der langlebige, sehr krebsresistente Nacktmull.

Die Gewebeproben - Krypten aus dem Dickdarmbereich (Kolon) - wurden von mehreren Organisationen, u.a. der Zoological Society of London zur Verfügung gestellt. Krypten sind anatomische Strukturen im Epithel des Dickdarms (und auch des Dünndarms). Da alle Zellen einer Krypte sich von einer einzigen Stammzelle herleiten, sind sie ideal für die Untersuchung von Mutationsmustern und Mutationsraten geeignet. Wie diese Krypten aussehen, ist in Abbildung 1 für mehrere Spezies gezeigt.

Mit zunehmendem Alter einer Spezies steigen die Mutationen linear an

Abbildung 2. Mutationen in den Krypten-Zellen steigen linear mit dem Lebensalter an. Am Lebensende weisen die einzelnen Spezies eine ähnliche Anzahl von Mutationen in ihren Genomen auf. Beispiele von 4 Säugetierspezies.(Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

Um die Mutationsraten in einzelnen Darmstammzellen zu messen, wurden Gesamtgenom-Sequenzen aus 208 solcher Darmkrypten von insgesamt 48 Individuen analysiert. Die Analyse der Mutationsmuster (Mutationssignaturen - charakteristische Muster an Mutationen) lieferte Informationen über die ablaufenden Prozesse. Die Forscher fanden heraus, dass sich somatische Mutationen im Laufe der Zeit linear anhäufen (Abbildung 2.) und dass diese bei allen Spezies, einschließlich des Menschen - trotz sehr unterschiedlicher Ernährungsweisen und Lebensabläufen- durch ähnliche Mechanismen verursacht werden.

Mit steigender Lebenserwartung sinken die Mutationsraten

Einen Hinweis auf eine mögliche Rolle somatischer Mutationen im Alterungsprozess lieferte die Entdeckung der Forscher, dass die Rate somatischer Mutationen mit zunehmender Lebenserwartung der Spezies abnahm. Abbildung 3.

"Es war überraschend, ein ähnliches Muster genetischer Veränderungen bei so unterschiedlichen Tieren wie einer Maus und einem Tiger zu finden. Der interessanteste Aspekt der Studie ist jedoch die Feststellung, dass die Lebensspanne umgekehrt proportional zur somatischen Mutationsrate ist. Dies deutet darauf hin, dass somatische Mutationen eine Rolle bei der Alterung spielen, obgleich auch andere Erklärungen denkbar sind. In den nächsten Jahren wird es spannend werden, diese Studien auf noch diversere Arten, wie Insekten oder Pflanzen, auszuweiten." sagt der Erstautor der Studie Dr Alex Cagan vom Wellcome Sanger Institute

Abbildung 3. Somatische Mutationen in den Krypten des Dickdarms von 16 Spezies, die sich in ihrer Größe bis um das 39 000-Fache, in ihrer Lebensdauer bis um das 30-Fache und in ihrer jährlichen Mutationsrate um bis das 17-Fache unterscheiden. Die zum Lebensende angehäuften Mutationen differieren aber nur um das 3-Fache! (Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

 

 

 

 

Die Suche nach einer Antwort auf Petos Paradoxon geht jedoch weiter. Nach Berücksichtigung der Lebensspanne fanden die Autoren keinen signifikanten Zusammenhang zwischen der somatischen Mutationsrate und der Körpermasse, was darauf hindeutet, dass andere Faktoren an der Fähigkeit größerer Tiere beteiligt sein müssen, ihr Krebsrisiko im Verhältnis zu ihrer Größe zu verringern.

"Die Tatsache, dass die Unterschiede in der somatischen Mutationsrate offenbar durch Unterschiede in der Lebensspanne und nicht durch die Körpergröße erklärt werden können, deutet darauf hin, dass die Anpassung der Mutationsrate zwar nach einer eleganten Methode zur Kontrolle des Auftretens von Krebs bei verschiedenen Arten klingt, die Evolution diesen Weg aber nicht wirklich gewählt hat. Es ist durchaus möglich, dass die Evolution jedes Mal, wenn sich eine Art größer entwickelt als ihre Vorfahren - wie bei Giraffen, Elefanten und Walen - eine andere Lösung für dieses Problem findet. Um das herauszufinden, müssen wir diese Arten noch genauer untersuchen", sagt Dr. Adrian Baez-Ortega, Koautor der Studie [1] (Wellcome Sanger Institute)

 

 

 

 

Trotz der großen Unterschiede in Bezug auf Lebensdauer und Körpermasse zwischen den 16 untersuchten Arten war die Anzahl der somatischen Mutationen, die im Laufe des Lebens der einzelnen Tiere erworben wurden, relativ ähnlich. Eine Giraffe ist im Durchschnitt 40 000-mal größer als eine Maus, und ein Mensch lebt 30-mal länger, aber der Unterschied in der Anzahl der somatischen Mutationen pro Zelle am Ende der Lebensspanne zwischen den drei Arten betrug nur etwa den Faktor drei (Abbildung 3).

Die genauen Ursachen des Alterns sind nach wie vor eine ungelöste Frage und ein Bereich, in dem aktiv geforscht wird. Das Altern wird wahrscheinlich durch die Anhäufung verschiedener Arten von Schäden an unseren Zellen und Geweben im Laufe des Lebens verursacht, unter anderem durch somatische Mutationen, Proteinaggregation und epigenetische Veränderungen. Ein Vergleich der Raten dieser Prozesse bei verschiedenen Arten mit sehr unterschiedlicher Lebensdauer kann Aufschluss über ihre Rolle bei der Alterung geben.

"Die Alterung ist ein komplexer Prozess, der auf vielfältige Formen molekularer Schädigungen in unseren Zellen und Geweben zurückzuführen ist. Seit den 1950er Jahren wird vermutet, dass somatische Mutationen zur Alterung beitragen, doch deren Erforschung blieb schwierig. Mit den jüngsten Fortschritten in der DNA-Sequenzierungstechnologie können wir nun endlich die Rolle untersuchen, die somatische Mutationen beim Altern und bei verschiedenen Krankheiten spielen. Dass diese verschiedenen Säugetiere ihr Leben mit einer ähnlichen Anzahl von Mutationen in ihren Zellen beenden, ist eine aufregende und faszinierende Entdeckung", sagt Dr. Inigo Martincorena . korrespondierender Autor( [1] Wellcome Sanger Institute..

 

 

 

 

 


*Der vorliegende Artikel basiert auf einem News Article des Wellcome Trust Sanger Institute vom 13.April 2022: Mutations across animal kingdom shed new light on ageing.  https://www.sanger.ac.uk/news_item/mutations-across-animal-kingdom-shed-new-light-on-ageing/. Dieser Artikel wurde weitestgehend wörtlich übersetzt und durch 3 Abbildungen aus der zugrundeliegenden Publikation ergänzt:

[1] Alex Cagan, Adrian Baez-Ortega et al. (2022). Somatic mutation rates scale with lifespan across mammals. Nature. DOI: https://doi.org/10.1038/s41586-022-04618-z

Die Inhalte der Website des Sanger Instituts und auch [1] stehen unter einer cc-by 3.0 Lizenz.


 

inge Fri, 27.05.2022 - 00:07

Elektrisierende Ideen für leistungsfähigere Akkus

Elektrisierende Ideen für leistungsfähigere Akkus

Do, 19.05.2022 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Als Alessandro Volta um 1800 die Voltasche Säule erfand, ahnte er sicher nicht, dass ihn diese Ur-Batterie unsterblich berühmt machen würde. Heute ist das Volt die physikalische Einheit für die elektrische Spannung, und wir leben längst in einer elektrifizierten Kultur. Aufladbare Akkumulatoren und Einwegbatterien haben elektrische Energie praktisch überall verfügbar gemacht, das Smartphone ist unser ständiger Begleiter. Und die Elektromobilität nimmt nach der Schiene nun auch auf der Straße Fahrt auf, vom E-Roller bis zum Elektroauto. Sogar elektrisches Fliegen ist im Kommen. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr gibt einen Überblick über Aufbau und Funktion von Lithium-Batterien und Ergebnisse aus dem Max-Planck-Institut für Festköperforschung (Stuttgart) zur Optimierung solcher Batterien.*

Noch aber haben Elektroautos zwei gewichtige Nachteile im Vergleich zu Fahrzeugen mit Verbrennungsmotor: Laden dauert deutlich länger als Tanken, und eine entsprechende Reichweite erzwingt eine große, schwere „Batterie“. Das wiederum verschlechtert wegen des Ressourcenverbrauchs die Ökobilanz größerer Elektroautos. Zwar sind auch diese in ihrer Lebenszeit klimafreundlicher als die „Verbrenner“, wenn die elektrische Energie aus erneuerbaren Quellen kommt. Aber leistungsfähigere Akkumulatoren, wie die wieder aufladbaren Batterien korrekt heißen, wären ein großer Gewinn für das Klima.

Das ist das Forschungsziel der Chemikerin Jelena Popovic-Neuber am Max-Planck-Institut für Festköperforschung in Stuttgart. An den „Akkus“ gibt es noch viel zu optimieren. Selbst die besten Auto-Akkus mit Lithium-Ionen-Technologie können derzeit nur rund 0,12 Kilowattstunden (kWh) an Energie pro Kilogramm speichern. Ein Kilogramm Benzin oder Diesel enthält dagegen rund 12 kWh an nutzbarer chemischer Energie, also hundert Mal so viel Energie. Dafür allerdings sind elektrische Antriebe viel effizienter als Verbrennungsmotoren. Deshalb müssen Elektroautos deutlich weniger elektrische Energie an Bord mitführen, um auf vergleichbare Fahrleistungen zu kommen. Also muss die Forschung die spezifische Energiedichte der Akkus gar nicht auf das Niveau von fossilem Treibstoff steigern.

Akkumulatoren, Einweg-Batterien sowie Brennstoffzellen, die ebenfalls in Stuttgart erforscht werden, zählen zu den elektrochemischen Zellen. Deren Elektrochemie ist ein Forschungsthema der Abteilung von Joachim Maier, Direktor am Max-Planck-Institut für Festkörperforschung in Stuttgart. Maier interessiert sich schon sehr lange für das Verhalten von zum Beispiel Lithium-Ionen in solchen Zellen und gründete ein Forschungsgebiet, das Nano-Ionik heißt. Jelena Popovic-Neuber leitet bei ihm ein Team, das neue Ideen für effizientere Akkus auf Basis von Lithium und anderen Alkali- sowie Erdalkalimetallen entwickelt. Es ist Grundlagenforschung mit direkter Verbindung zur technischen Anwendung. Sogar einige Patente halten die Stuttgarter.

Lithium ist das dritte Element im Periodensystem. Man kann das silbrige Metall allerdings nicht einfach in die Hand nehmen. Es muss unter Paraffinöl oder in trockenem Argon-Schutzgas aufbewahrt werden, denn es reagiert schon mit Spuren von Wasser und Sauerstoff. Darin ist es seinem schwereren Vetter Natrium ähnlich. Auch Natrium eignet sich für Batterietechnologien, das Stuttgarter Team arbeitet damit ebenfalls. Es hat den Vorteil, dass es auf der Erde viel häufiger als Lithium vorkommt und leichter ohne negative ökologische und soziale Folgen gewonnen werden kann. „In China kommen 2023 erste Natrium-Akkus für Autos auf den Markt“, erzählt Jelena Popovic-Neuber.

Im Periodensystem der Elemente steht Lithium noch oberhalb von Natrium auf der „Linksobenaußen“-Position, unterhalb von Wasserstoff. Es ist generell ein chemischer Extremist. Für Hochleistungsakkus ist es aus zwei Gründen attraktiv: Erstens ist das Atom winzig und damit ein Leichtgewicht. Das steigert die speicherbare Menge an elektrischer Ladung pro Kilogramm Akku und damit Energie. Zweitens verhält sich Lithium innerhalb der elektrochemischen Spannungsreihe – dem Laufsteg der elektrochemischen Elemente – besonders „elektropositiv“. Es ist somit ein williger Elektronenspender. Aber warum ist das für Akkus gut?

Dazu muss man wissen, dass die zweite Stellschraube zur Optimierung der Speicherkapazität die elektrische Spannung zwischen dem Plus- und dem Minuspol ist. Je höher diese Zellspannung ist, desto mehr elektrische Energie passt im Prinzip in den Akku. Und hier kommt die Spannungsreihe ins Spiel: Würde man eine Lithium-Elektrode an eine Standard-Wasserstoffelektrode anschließen, die die Null-Volt-Linie markiert, läge das Lithium bei minus 3,04 Volt. Das ist Rekord in der Spannungsreihe. Wenn man nun leistungsfähige Akkus entwickeln will, paart man den Elektronenspender Lithium mit einem möglichst gierigen Elektronenempfänger am anderen Pol der Zelle. Dann sind Zellspannungen über 5 V erreichbar! Zum Vergleich: Handelsübliche Lithium-Ionen-Akkuzellen liegen derzeit bei 3,6 bis 3,8 V, Alkali-Einwegbatterien bei nur 1,5 V.

Einfach und schnell speichern

Die theoretisch höchstmögliche Zellspannung liegt bei fast 6 V. Dazu müsste man Lithium mit seinem extremsten Gegenspieler verkuppeln: Fluor, das elektronegativste Element. Nach dieser Überlegung würde also der stärkste aller Akkus eine Elektrode besitzen, in die Fluorgas geleitet wird. Die andere Elektrode wäre ein Klotz aus Lithiummetall, denn so wäre das Lithium am dichtesten zusammengepackt. Ein solcher Lithium-Fluor-Akku käme theoretisch auf eine spezifische Energiedichte von fast 10 kWh/kg. Er wäre mit Diesel und Benzin konkurrenzfähig. Allerdings ist Fluor so reaktiv, korrosiv und giftig, dass niemand ernsthaft einen solchen Akku bauen wollte.

Wiederaufladbare Akkus werden über einen Elektronenstrom geladen. Beim Entladen liefern sie einen entgegengesetzten Elektronenstrom, der Arbeit leistet. Dabei benötigen Laden und Entladen jeweils eine gewisse Zeit. Das liegt daran, dass Akkus die elektrische Energie zum Speichern erst in chemische Energie umwandeln müssen. Beim Entladen machen sie das wieder rückgängig.

Beim Laden werden die Elektronen mit einer zweiten Sorte elektrischer Ladungsträger zusammengebracht: positiv geladene Ionen, zum Beispiel Lithium-Kationen, denen im Vergleich zu den Lithium-Atomen jeweils ein Elektron fehlt. In Akkus sind diese positiven Ladungsträger beweglich. Die Ionen fließen im Zellinneren zwischen beiden Elektroden, wobei zwischen Laden und Entladen ihre Fließrichtung wechselt. Für die Ionen-Rennbahn sorgt ein flüssiger oder fester Elektrolyt. Der Elektrolyt muss einerseits die positiven Ionen möglichst gut leiten, andererseits die negativen Elektronen wie ein Isolator blockieren. Sonst würden die Elektronen kurzerhand durch das Zellinnere flitzen, anstatt im äußeren Stromkreis mühsam zu arbeiten. So ein interner Kurzschluss kann bei leistungsfähigen Akkus richtig gefährlich werden.

Mehr Platz für Energie

Abbildung 1: Funktionsprinzip einer Lithium-Ionen-Akkuzelle: Beim Laden „pumpt“ das Ladegerät im äußeren Stromkreis Elektronen (blaue Kugeln und Pfeile) von der in der Abbildung linken in die rechte Elektrode – und damit auch elektrische Energie. Im Inneren der Zelle wandern die Lithium-Ionen (rote Kugeln und Pfeile) von der linken Elektrode hinüber und lagern sich zwischen den Graphitschichten (schwarz) der rechten Elektrode ein. Beim Entladen kehren sich die Vorgänge um. Die Hin- und Herbewegung der Lithium-Ionen beim Laden und Entladen heißt Schaukelstuhl-Effekt. Die für die Ionen durchlässige Separatormembran (blau gestrichelte Linie) verhindert einen direkten Kontakt der Elektroden, also einen Kurzschluss.© R. Wengenmayr / CC BY-NC-SA 4.0

Jede Batterie- und Akkusorte hat ihre ganz eigene, oft komplizierte Elektrochemie. Beim Lithium-Ionen-Akku ist zumindest das chemische Grundprinzip einfach zu verstehen. Beim Laden des Akkus pumpt das Ladegerät Elektronen von der Lithiumverbindung-Elektrode in die Graphit-Elektrode, während gleichzeitig im Inneren der Batterie Lithium-Ionen durch den Elektrolyt zur Graphit-Elektrode fließen. Beim Entladen werden Elektronen an den Leiterdraht abgegeben, die über den äußeren Stromkreis zur Lithiumverbindung-Elektrode wandern. Im Inneren des Akkus wandern gleichzeitig Lithium-Ionen von der Graphit-Elektrode durch den Elektrolyt zur Lithiumverbindung-Elektrode (Abbildung 1).

Eine Elektrode besteht bei den etablierten Lithium-Ionen-Akkus aus Graphit. Es kann Lithium-Ionen wie ein Schwamm aufnehmen und trägt so maßgeblich zur hohen Speicherkapazität bei. Graphit ist aus mehreren Ebenen mit wabenförmigen Kohlenstoff-Sechserringen aufgebaut. Die kleinen Lithium-Ionen können in diese Ebenen wie in ein Parkhaus hineinfahren und dort chemisch einparken. Dabei bilden sie mit den ankommenden Elektronen in den Zwischenräumen zwischen den Kohlenstoff-Ebenen eine sogenannte Interkalationsverbindung (Abbildung 1, links).

Die andere Elektrode besteht in der Regel aus einer geeigneten Lithiumverbindung, die ebenfalls wie ein Schwamm für Lithium-Ionen wirkt. Bei kommerziell verbreiteten Zellen ist das oft noch Lithium-Cobaltoxid. Doch große Hersteller wie Tesla stellen zunehmend auf Lithium-Eisenphosphat um (Abbildung 2) und ersetzen so das umweltschädliche und seltene Cobalt. Das meiste Cobalt wird im Kongo abgebaut, oft unter menschenunwürdigen Bedingungen und großen Umweltschäden.

Abbildung 2: Aufbau einer Lithium-Ionen-Akkuzelle mit einer umweltfreundlichen Lithium-Eisenphosphat-Elektrode. In ihr laufen beim Laden und Entladen Redoxreaktionen ab, deren komplexe Mechanismen im Detail noch diskutiert werden. Einflussfaktoren sind zum Beispiel die Partikelgröße von LiFePO4 in der Verbundelektrode oder das verwendete Lösungsmittel. © R. Wengenmayr / CC BY-NC-SA 4.0

Neuartige Materialkombinationen für Elektroden und Elektrolyt sollen die Lithium basierten Akkus verbessern. Höhere Zellspannungen werfen dabei neue Probleme auf. Mehr als etwa 3,5 V hält nämlich kein Elektrolyt aus, ohne sich zu zerlegen. Zum Glück bilden sich beim allerersten Laden der Zelle Passivierungsschichten um die Elektroden. Diese schützen einerseits das Elektrodenmaterial vor dem chemisch aggressiven Elektrolyt. Andererseits reduzieren sie die elektrische Spannung, der der Elektrolyt direkt ausgesetzt ist. Der Clou: Trotzdem verbessert die hohe Zellspannung die Speicherfähigkeit. Um zu verstehen, wie das im Prinzip funktioniert, hilft der Vergleich mit den größten Speichern für elektrische Energie: Pumpspeicher-Wasserkraftwerke (Abbildung 3).

Abbildung 3: Energie über Potenzialgefälle speichern. Sowohl beim Lithium-Ionen-Akku (links) als auch einem Pumpspeicher-Wasserkraftwerk gibt es ein sogenanntes Potenzialgefälle (breite rote Linien): Beim Akku ist es die elektrische Spannung, beim Wasserkraftwerk die Energiedifferenz des Wassers im oberen und unteren Becken. Beim Akku sorgen die Passivierungsschichten um die Elektroden für einen „Spannungsabfall“ (kurze rote Linienstücke, die steiler verlaufen), der den Elektrolyt schützt. Analog schützen beim Kraftwerk zwei Reduzierventile oben und unten das Fallrohr vor zu heftig strömendem Wasser.© R. Wengenmayr / CC BY-NC-SA 4.0

Entklumpter Elektrolyt

Der Elektrolyt besteht aus Lithiumsalzen in einem organischen Lösemittel. Wasser scheidet nicht nur wegen des Lithiums aus, es zersetzt sich überdies ab einer Spannung von 1,2 V. Die komplexe Flüssigkeit enthält einfach positiv geladene Lithium-Ionen und eine entsprechende Anzahl negativer Ladungsträger, zum Beispiel Hexafluorphosphat-Anionen (PF6–). Zwischen ihnen herrschen starke elektrische Anziehungskräfte, weshalb beide Ionen-Sorten sich gerne zusammenlagern. So bleibt der Elektrolyt elektrisch neutral, was verhindert, dass er sich zersetzt und technische Probleme verursacht. Leider werden die Lithium-Ionen im Klammergriff der Anionen ziemlich unbeweglich. Das behindert den Ladungstransport in der Zelle und vernichtet einen Teil ihrer gespeicherten Energie. Jedes positiv geladene Ion ist zudem von einer Hülle negativ geladener Anionen umgeben, und solche Gebilde können sich aneinander lagern, was die Lithium-Ionen in ihrer Bewegung durch den Elektrolyt behindert (Abbildung 4, links).

Man kann sich das wie die Fans zweier gegnerischer Fußballmannschaften vorstellen, die wild durcheinander zu zwei verschiedenen Aufgängen im Stadion streben. Sie ziehen sich auch noch gegenseitig an, was natürlich zu Reibereien führt. Kurzum: Der Strom ins Stadion droht zu stocken, weshalb der Veranstalter Ordner einsetzt. Diese halten die Fans einer Mannschaft fest, um die gegnerischen Fans schnell in ihren Block zu schleusen. Genau diese Idee hatten die Stuttgarter. Sie mischten extrem feine, nur zehn bis hundert Nanometer (Milliardstel Meter) winzige Partikel in den Elektrolyten. Diese sind zum Beispiel aus Siliziumdioxid, also Nanosand! Die Sandkörnchen wirken als Ordner: Da ihre Oberfläche elektrisch positiv geladen ist, binden sie einen Teil der Anionen an sich. Das befreit zusätzliche Lithium-Ionen. Die größere Menge an (fast) ungehindert fließenden Lithium-Ionen senkt den elektrischen Widerstand des Elektrolyten deutlich. Das verringert den Energieverlust im Akku und beschleunigt das Laden und Entladen.

Auf den Trick mit dem Nanosand kam Joachim Maier vor einigen Jahren. Allerdings hat der feine Sand in dem flüssigen Elektrolyten auch Nachteile, zum Beispiel kann er sich unten im Akku absetzen. „So ein System lässt sich nur schwer mit reproduzierbaren Eigenschaften herstellen“, erklärt Jelena Popovic-Neuber. Das ist aber Voraussetzung für die industrielle Anwendung. Es gibt jedoch eine Lösung, an der ihr Team forscht. Aus den Oxiden von Silizium und Aluminium, SiO2 und Al2O3, lässt sich mit einem speziellen chemischen Verfahren eine Art mineralischer „Hartschaum“ herstellen. Dieses Material ist durchzogen von mikro- bis nanoskopisch kleinen Poren und Kapillaren. „Das legen wir über Nacht in die Elektrolytlösung ein, damit es sich vollsaugt“, erklärt die Forscherin. Danach funktioniert dieser Festelektrolyt im Prinzip wie der Nanosand – jetzt aber wie Sand, dessen Körner im Raum fixiert sind und damit nicht mehr der Schwerkraft folgen können (Abbildung 4, rechts). Das bringt die nötige Stabilität ins Spiel.

Abbildung 4: Links: Im flüssigen Elektrolyten einer normalen Akkuzelle sind die Lithium-Ionen (rot) zwischen negativ geladenen Anionen (blau) des Elektrolyts nahezu gefangen (grün: Lösemittelteilchen). Das behindert ihre Bewegung. Rechts: Die Mikro- und Nanokanäle im Festelektrolyten (grau) aus SiO2 oder Al2O3 binden die Anionen an ihren elektrisch positiv geladenen Oberflächen. Das setzt mehr Lithium-Ionen für den Ladungstransport zwischen den Elektroden frei. Der Akku arbeitet effizienter.© R. Wengenmayr / CC BY-NC-SA 4.0

Das Rätsel der Grenzflächen

So ein Festelektrolyt hat auch noch einen weiteren Vorteil, der zu Popovic-Neubers zweitem Forschungsgebiet führt. Das befindet sich in der schon erwähnten Passivierungsschicht auf den Oberflächen des Elektrodenmaterials. Die Forscherin will nämlich zurück zu den Wurzeln der Lithium-Akkus, und diese hatten ursprünglich metallische Lithiumelektroden. Der Vorteil besteht darin, dass das Lithium im Metall wesentlich dichter gepackt und außerdem extrem leicht ist. Also können solche Akkus theoretisch mehr Energie pro Kilogramm Gewicht speichern. Allerdings gab es bei den ersten Generationen in den 1980er-Jahren Unfälle, bei denen metallische Lithium-Akkus explodiert und in Brand geraten sind. Wegen dieser Gefahr verschwanden solche Akkus wieder vom Markt. Als sichere Alternative wurden Lithium-Ionen-Akkus mit Graphit-Elektroden entwickelt.

Das Problem der metallischen Elektroden liegt grundsätzlich darin, dass die Ionen einerseits Ladungsträger, andererseits Material sind. Sobald ein Lithium-Ion ein Elektron einfangen kann, wird es zu einem Metallatom. Die Gefahr: Metallisches Lithium kann sich an Stellen im Akku abscheiden, wo es stört oder gefährlich wird. So können zum Beispiel feine Metall-„Filamente“ wie Tropfsteine wachsen, bis sie eine elektrische Brücke zwischen den Elektroden herstellen. Die Folge ist ein Kurzschluss, der den Akku zerstört.

Wie solche unerwünschten Metallstrukturen entstehen, ist ziemlich kompliziert und deshalb bis heute nicht im Detail verstanden. Ihr Gegenspieler ist eine schützende Passivierungsschicht, die auf der Oberfläche einer metallischen Lithiumelektrode durch chemische Reaktion mit der Elektrolytlösung wächst. Sie ist sehr komplex aus vielen mikroskopischen Körnchen aufgebaut, die chemisch unterschiedlich zusammengesetzt sind. Daher ist es schwierig, ganz genau herauszufinden, wie eine unerwünschte Metallstruktur diese Schicht durchdringt.

Die Passivierungsschicht ist wie schon erwähnt wichtig, um die Elektrode ausreichend vom Elektrolyten zu trennen. Auf der anderen Seite muss diese Schicht durchlässig für die Lithium-Ionen sein. Sie darf auch im Lauf der Lade- und Entladezyklen nicht zu schnell weiterwachsen, weil das den Akku altern lässt. Das unerwünschte Schichtwachstum lässt sich zum Beispiel durch Einsatz eines sehr dünnen Festelektrolyten verhindern. Weil dieser mechanisch stabil ist, kann der „Sandwich“ Elektrode-Elektrolyt-Elektrode im Akkupack zusammengepresst werden. Das bremst einen unerwünschten Zuwachs der Passivierungsschicht.

Im Labor zeigt Jelena Popovic-Neuber zwei große Plexiglaskästen. Einer der beiden Kästen ist für Experimente mit Lithium, der andere für Natrium. Vorne gibt es jeweils zwei Öffnungen, durch die man in armlange, schwarze Handschuhe schlüpfen und so im Kasten hantieren kann. Die Kästen sind mit dem trockenen Edelgas Argon geflutet, um die Alkalimetalle vor dem Kontakt mit Luft zu schützen. Die Forscherin zeigt ein Stück Natrium, aus der mit einem Locheisen runde Stücke für Elektroden gestanzt werden. Daneben liegt eine zusammengeschraubte Testzelle. Spezielle elektrische Messungen, sogenannte Impedanzmessungen, verraten dem Team, wie die Grenzschicht auf den Elektroden chemisch und physikalisch aufgebaut ist.

Aber nicht nur für Alkalimetalle, auch für Erdalkalimetalle interessiert sich Jelena Popovic-Neuber. Magnesium- und Calcium-Ionen erlauben zwar nicht so hohe elektrische Spannungen wie Lithium, dafür kann jedes Ion eine zweifache positive Ladung tragen. „So kann man eine höhere Energiedichte erreichen“, sagt sie. Für bessere Akkus sind also viele Lösungen denkbar. Für Forschung und Entwicklung sind das elektrisierende Zukunftsaussichten.


 * Der Artikel ist erstmals unter dem Title: " Eine volle Ladung Energie – elektrisierende Ideen für leistungsfähigere Akkus" https://www.max-wissen.de/max-hefte/techmax-13-akkumulatoren/ in TECHMAX 13 (aktualisiert Frühjahr 2022) der Max-Planck-Gesellschaft erschienen und steht unter einer CC BY-NC-SA 4.0 Lizenz. Mit Ausnahme des verkürzten Titels wurde der Artikel wurde unverändert in den Blog übernommen.


Weiterführende Links

Matthias Kühne et al., 2016: Lithium ultraschnell zwischen zwei Graphenlagen. https://www.mpg.de/10977209/mpi-fkf_jb_20161?c=10583665&force_lang=de

Agora Verkehrswende (2019), Klimabilanz von Elektroautos. Einflussfaktoren und Verbesserungspotenzial, 2019: https://www.agora-verkehrswende.de/fileadmin/Projekte/2018/Klimabilanz_von_Elektroautos/Agora-Verkehrswende_22_Klimabilanz-von-Elektroautos_WEB.pdf

Alexander Freund , 2020: Natrium statt Lithium: Die Akkus der Zukunft. https://www.dw.com/de/natrium-statt-lithium-die-akkus-der-zukunft/a-54512116

Joachim Maier, 2011: Die Ausnützung von Größeneffekten für die elektrochemische Energieumwandlung. https://www.mpg.de/4647190/Elektrochemische_Energieumwandlung?c=11659628 und: Pioniere zwischen den Polen. https://www.mpg.de/1327542/lithiumbatterien


Artikel im ScienceBlog

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Inge Schuster, 05.03.2021: Trojaner in der Tiefgarage - wenn das E-Auto brennt

Georg Brasseur,10.12.2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg Brasseur, 24.09.20: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität

Erich Rummich, 02.08.2012: Elektromobilität - Elektrostraßenfahrzeuge


 

inge Thu, 19.05.2022 - 13:14

Wie globale Armut vom Weltraum aus erkannt wird

Wie globale Armut vom Weltraum aus erkannt wird

Do, 12.05.2022 — IIASA

IIASA Logo

Icon Energie

Trotz der Erfolge bei der weltweiten Armutsbekämpfung in den letzten zwei Jahrzehnten leben noch immer fast eine Milliarde Menschen ohne Zugang zu verlässlicher und erschwinglicher Elektrizität; dies wirkt sich wiederum negativ auf Gesundheit und Wohlergehen aus und beeinträchtigt eine nachhaltige Entwicklung. Wenn Hilfe und Infrastruktur diese Menschen erreichen sollen, ist es von entscheidender Bedeutung zu wissen, wo sie sich befinden. Eine neue, vom International Institute of applied System Analysis (IIASA) geleitete Studie schlägt eine neuartige Methode zur Schätzung des globalen wirtschaftlichen Wohlstands anhand von nächtlichen Satellitenbildern vor.*

Nächtliche Satellitenbilder

Seit fast 30 Jahren verwenden Forscher Satellitenbilder der Erde bei Nacht, um menschliche Aktivitäten zu untersuchen. Es hat sich gezeigt, dass diese Bilder - gemeinhin als "nighttime radiance" (nächtliche Lichtemission) oder "nighttime lights" (nächtliche Beleuchtung) bezeichnet - helfen können, Aspekte wie Wirtschaftswachstum, Armut und Ungleichheit zu erfassen, insbesondere dort, wo Messdaten fehlen. In Entwicklungsländern weisen nachts unbeleuchtete Gebiete in der Regel auf eine limitierte Entwicklung hin, während hell erleuchtete Gebiete auf besser entwickelte Gebiete wie Hauptstädte hinweisen, in denen reichlich Infrastruktur vorhanden ist.

Bislang haben sich Wissenschaftler eher für die Daten aus den beleuchteten Gebieten interessiert, während die unbeleuchteten Gebiete in der Regel unberücksichtigt blieben. In einer Studie, die eben in Nature Communications veröffentlicht wurde, haben sich Forscher des IIASA und Kollegen aus mehreren anderen Einrichtungen jedoch speziell auf die Daten der unbeleuchteten Gebiete konzentriert, um das globale wirtschaftliche Wohlergehen abzuschätzen [1]. Abbildung 1.

Nächtlich beleuchtete Siedlungsgebiete und Wohlstand

Abbildung 1. Nighttime lights über der Nordhalbkugel.

"Während sich frühere Arbeiten eher auf den Zusammenhang zwischen beleuchteten Gebieten und wirtschaftlicher Entwicklung konzentrierten, haben wir herausgefunden, dass es auch andersherum funktioniert, und dass unbeleuchtete Gebiete ein guter Indikator für Armut sind. Indem wir diese unbeleuchteten Gebiete identifizieren, können wir gezielt Maßnahmen zur Armutsbekämpfung ergreifen und uns auf Orte konzentrieren, um dort den Zugang zur Energie zu verbessern", erklärt Studienautor und IIASA Strategic Initiatives Program Director, Steffen Fritz.

Die Forscher haben dazu einen harmonisierten georäumlichen Wohlstandsindex für Haushalte in verschiedenen Ländern Afrikas, Asiens und Amerikas verwendet, der im Rahmen des Demographic and Health Surveys (DHS)-Programms errechnet wurde und die einzelnen Haushalte auf einer kontinuierlichen Skala des relativen Wohlstands von ärmer bis reicher einordnet. Anschließend haben sie diese Daten mit Daten aus Satellitenbildern der weltweiten nächtlichen Beleuchtung in diesen Ländern kombiniert und heraus gefunden, dass 19 % der gesamten Siedlungsfläche des Planeten keine nachweisbare künstliche Strahlung aufweisen. Der größte Teil der unbeleuchteten Siedlungsflächen befand sich in Afrika (39 %) und Asien (23 %). Betrachtet man nur die unbeleuchtete ländliche Infrastruktur, so steigen diese Zahlen für Afrika auf 65 % und für Asien auf 40 %. In fast allen Ländern zeigen die Ergebnisse einen eindeutigen Zusammenhang zwischen einem steigenden Anteil unbeleuchteter Gemeinden in einem Land und einem sinkenden wirtschaftlichen Wohlstand. Abbildung 2.

Abbildung 2. Klassifizierung der weltweiten unbeleuchteten Siedlungsflächen. a) Prozentsatz des unbeleuchteten Siedlungsgebietes in den einzelnen Ländern (ländliche und urbane gebiete zusammengenommen). Ranking afrikanischer Staaten mit mehr als 50 Millionen Einwohnern nach dem Prozentsatz an unbeleuchteten städtischen (b) und ländlichen (c) Siedlungsflächen. (Bild: leicht modifizierte Fig. 1 aus McCallum et al.,2022 [1]. Lizenz: cc-by.Bild von Redn. eingefügt-)

"Basierend auf dem Prozentsatz unbeleuchteter Siedlungen, die wir in nächtlichen Satellitenbildern feststellten, waren wir in der Lage, eine Klassifizierung des Wohlstands von rund 2,4 Millionen Haushalten in 49 Ländern in Afrika, Asien und Nord- und Südamerika mit einer Genauigkeit von insgesamt 87 % vorherzusagen und zu kartieren. Überraschenderweise gab es auch in den Industrieländern, insbesondere in Europa, relativ viele unbeleuchtete Siedlungen. Für dieses Ergebnis kann es mehrere Gründe geben, u. a. die Tatsache, dass die Satellitenbilder nach Mitternacht aufgenommen wurden: Es könnte aber auch auf eine gewissenhafte Energie- und Kosteneinsparungspolitik von Hausbesitzern, Regierungen und Industrie in Europa zurückzuführen sein", so Ian McCallum, Leiter der IIASA-Forschungsgruppe Novel Data Ecosystems for Sustainability, der die Studie leitete.

Elektrifizierung zur Steigerung des Wohlstands

Die Forscher merken an, dass Regierungsbehörden in der Regel der Ausweitung des Stromzugangs eher in städtischen als in ländlichen Gebieten Priorität einräumen. Die Elektrifizierung des ländlichen Raums ist jedoch ein vielversprechender Ansatz zur Steigerung des Wohlstands und kann auch erhebliche positive Auswirkungen auf Einkommen, Ausgaben, Gesundheit und Bildung der Haushalte haben. Die Ziele für nachhaltige Entwicklung der Vereinten Nationen (SDGs) beinhalten ausdrücklich den Zugang zu erschwinglicher, zuverlässiger, nachhaltiger und moderner Energie für alle. Während es Bemühungen gibt, dieses Ziel zu erreichen, und in den letzten zwei Jahrzehnten erhebliche Fortschritte erzielt wurden, so gibt es Anzeichen dafür, dass Regierungen und Industrie Schwierigkeiten haben werden, mit dem erwarteten Bevölkerungswachstum Schritt zu halten.

Vor allem in den afrikanischen Ländern südlich der Sahara werden den Prognosen zufolge bis 2030 immer noch über 300 Millionen Menschen in extremer Armut leben. Die Auswirkungen der COVID-19-Pandemie werden um 2030 herum wahrscheinlich weitere 88 bis 115 Millionen Menschen in die extreme Armut treiben und damit die Ziele der Vereinten Nationen zur Verringerung der Armut um etwa drei Jahre zurückwerfen. Studien wie die vorliegende können jedoch dazu beitragen die Entwicklungsländer bei der Elektrifizierung zu verfolgen und die Industrieländer bei der Verringerung ihres Lichtenergieverbrauchs.

"Wenn die Methode, die wir in unserer Studie verwendet haben, fortlaufend angewandt wird, könnte sie Möglichkeiten bieten, das Wohlergehen und den Fortschritt in Richtung der SDGs zu verfolgen. Im Hinblick auf die Politik kann sie dazu beitragen, die Energiepolitik auf der ganzen Welt besser zu informieren, und sie kann auch bei der Gestaltung der Entwicklungshilfepolitik hilfreich sein, indem sie sicherstellt, dass wir die abgelegenen ländlichen Gebiete erreichen, die wahrscheinlich energiearm sind. Darüber hinaus könnte sie nützlich sein, um Anzeichen für ein nachhaltiges und ökologisches Beleuchtungsmanagement in den Industrieländern zu erkennen", schließt Shonali Pachauri, Leiterin der Forschungsgruppe Transformative institutionelle und soziale Lösungen.


  [1] McCallum, I., Kyba, C.C.M., Laso Bayas, J.C., Moltchanova, E., Cooper, M., Crespo Cuaresma, J., Pachauri, S., See, L., Danylo, O., Moorthy, I., Lesiv, M., Baugh, K., Elvidge, C.D., Hofer, M., Fritz, S. (2022). Estimating global economic well-being with unlit settlements. Nature Communications DOI: 10.1038/s41467-022-30099-9


* Der Artikel " Identifying global poverty from space"https://iiasa.ac.at/news/may-2022/identifying-global-poverty-from-space ist am 5.Mai 2022 auf der IIASA Website erschienen. Er wurde von der Redaktion möglichst wortgetreu übersetzt und durch eine Abbildung aus der zitierten Originalarbeit [1] und drei Untertitel ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Thu, 12.05.2022 - 00:42

Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen

Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen

So 01.05.2022  — Inge Schuster

Inge Schuster Icon Biologie Die Nutzung der nachhaltigen Ressource "Pilze" kann einen wesentlichen Beitrag zur globalen Ökonomie, insbesondere zur zukünftigen Welternährung liefern. Voraussetzung dafür ist die Möglichkeit ein weites Spektrum an Pilzarten zu züchten, um Massenproduktionen auf minimalen Kulturflächen zu erzielen. Für Spitzmorcheln, deren exzellenter Geschmack und rares Vorkommen sie zu den wertvollsten aber - nach den Trüffeln - auch teuersten essbaren Pilzen haben werden lassen, ist dies nun offensichtlich gelungen. Nach 40 Jahren Forschung haben es die Brüder Jacob and Karsten Kirk, Biologen an der University of Copenhagen Denmark, geschafft Spitzmorcheln über das ganze Jahr in Innenräumen zu ziehen und hohe Erträge (10 kg/m2 Kulturfläche) erstklassiger Pilze zu ernten

Seit meiner frühen Jugend haben mich Pilze fasziniert."Schwammerlsuchen" und neue Spezies aus der unglaublichen Vielfalt des - neben Pflanzen und Tieren - dritten großen Reichs eukaryotischer Lebewesen Kennenlernen (und vielleicht auch Zubereiten) haben von jeher zu meinen Lieblingshobbies gehört. Später wurde das Spektrum durch humanpathogene Pilze erweitert - ein langfristiges Thema meiner beruflichen Tätigkeit im Wiener Sandoz-Forschungsinstitut, aus dem mit "Lamisil", ein Blockbuster unter den antifungalen Medikamenten herausgekommen ist.

Schwammerlsuchen hat für mich bereits früh im Jahr begonnen. Mit Ausnahme der Wintermonate haben Pilze ja das ganze Jahr Saison; diese erstreckt sich von den Morcheln im Frühjahr bis zu den Austernseitlingen und Schopftintlingen im Spätherbst. So bin ich meisten schon in den ersten Märztagen losgezogen, um nach der frühesten Morchel-Verwandten, der Böhmischen Verpel (Verpa bohemica) zu suchen. Diese kleinen, unter dichtem abgestorbenem Laub kaum erkennbaren Pilze sind bereits nach 2 - 3 Wochen wieder verschwunden, abgelöst u.a. von den ebenfalls nur kurze Zeit auffindbaren Spitzmorcheln (Morchella elata). Abbildung 1. Auch weitere Morchelverwandte wie die Käppchenmorchel (Morchella semilibera) und die größeren Speisemorcheln (Morchella esculenta) haben eine nur kurze Saison.

Das stundenlange konzentrierte Absuchen des Waldbodens war nicht immer mit einer reichen Morchelernte - d.i. mit einer Ausbeute von mehr 0,25 kg Pilzen - belohnt. In anderen Worten es war ein recht mühsames Unterfangen, andererseits aber Erholung und Hobby.

Abbildung 1: Morcheln tauchen nur über kurze Zeit auf und sind - im abgestorbenen Laub versteckt - auch auf Grund ihrer "Tarnfarbe" nur schwer zu finden (oben: rote Pfeile). Unten: Getrocknete Köpfe von Spitzmorcheln. Fundstellen werden geheim gehalten und nur an engste Angehörige weitergegeben. (Bilder: Funde im Gebiet des Bisambergs, Wien; I.S).

Allgemeines zu den Morcheln…

Man schätzt, dass es im Reich der Pilze an die 2 Millionen unterschiedliche Arten gibt, wovon allerdings nur 5 % beschrieben sind. Morcheln gehören zu einer der großen Abteilungen, den sogenannten Schlauchpilzen (Ascomycetes); phylogenetische Studien haben bis jetzt an die 80 unterschiedlichen Morchelarten identifiziert (http://www.indexfungorum.org/).

Morcheln sind in den gemäßigten Zonen der nördlichen Hemisphäre - von Europa über Nordamerika bis Asien - zu finden. Sie lieben helle, sonnige Standorte, die feucht und windgeschützt sein sollen und erscheinen - wie bereits erwähnt -, wenn sich die ersten Blätterknospen der Bäume und Sträucher öffnen; ist es um diese Jahreszeit allerdings noch zu kalt oder zu trocken, können Morcheln in einem solchen Jahr auch völlig ausbleiben. Morcheln wachsen auf Böschungen, Wegrändern, Waldwiesen und in Flussauen - häufig vergesellschaftet mit Eschen, Ulmen und auch Fichten - aber auch in Parks und in Gärten und sie sind standorttreu. Kennt man Fundstellen (überliefert aus Familie und engstem Freundekreis), dann kann man dort jahrelang Pilze ernten - ein Vorteil, wenn diese in einem warmen Frühjahr von schnellwachsendem Gras und anderen Pflanzen bereits völlig verdeckt sind. Im Gegensatz zu diesen wildwachsenden Morcheln findet man diese sogar auf Rindenmulch; die Freude ist allerdings kurz. Nach einer Saison ist offensichtlich das Substrat verbraucht und die Pilze kommen nie wieder.

…und zur Spitzmorchel

Der Fruchtkörper setzt sich aus Hut und Stiel zusammen, die miteinander verbunden sind und einen Hohlkörper bilden. Abbildung 2. Der dunkle, in verschiedenen Braun- bis Schwarztönen gefärbte Hut ist wabenförmig mit ausgeprägten Längsrippen strukturiert und zwischen 3 bis zu 10 cm hoch. Die Gruben der Waben sind von schlauchartigen Strukturen, den sogenannten Asci (davon leitet sich der Name der Ascomyceten ab), ausgekleidet, welche jeweils 8 Sporen enthalten, die der Vermehrung und Ausbreitung dienen und bei ungünstigen Umweltbedingungen lange überdauern können. Die Längsrippen trennen die Gruben voneinander und sind steril.

Abbildung 2: Eine alte Darstellung der Spitzmorchel von Giacomo Bresadola (1822). Im aufgeschnittenen Pilz ist die Hohlkörperstruktur zu erkennen (rechts). Jeweils 8 Sporen befinden sich in Schläuchen , sogenannten Asci (Skizze links), die in den Gruben der Waben liegen, die begrenzenden Rippen sind steril. (Bild Wikimedia commons, gemeinfrei)

Das Besondere an den eher unscheinbaren Morcheln ist ihr exquisiter Geschmack. Bereits seit der Antike werden Morcheln als Delikatesse geschätzt. Angeblich liebte der römische Kaiser Claudius Morchelgerichte, seine Frau Agrippina vergiftete ihn mit einem solchen, dem sie Knollenbätterpilze beigefügt hatte. Die Verwechslung der Morchel mit der verwandten, giftigen Lorchel, soll zum Tod von Buddha geführt haben.

Mit den verwandten Trüffeln zählt man Morcheln zu den besten Speisepilzen (meiner Ansicht gehört auch noch der seltene Kaiserling Amanita caesarea dazu); dementsprechend sind sie nicht nur aus der Gourmetküche nicht wegzudenken. Es sind Spezialitäten, die auf Grund ihres raren Vorkommens sehr hohe Preise erzielen: der Marktwert für frische Spitzmorcheln liegt in unseren Breiten aktuell um die 150 €/kg, für getrocknete Pilze, die beim Trocknen ein noch intensiveres Aroma entwickeln, werden bis zu 700 €/kg verlangt. Märkte und Küchen werden bei uns hauptsächlich von Pilzsammlern beliefert, in den letzten Jahren nehmen aber bereits Importe getrockneter Pilze aus China zu (s.u.).

Dass man sich beim Morchelsammeln aber keine goldene Nase verdienen kann, zeigt eine rezente Untersuchung aus Michigan: 163 befragte Sammler gaben an im Durchschnitt 16 Tage auf Morcheljagd zu sein; von denjenigen, welche die Pilze auch verkaufen, werden jährlich im Schnitt rund 13 kg frische Spitzmorcheln/Speisemorcheln (zu 70 US $) auf den Markt gebracht [1].

Züchtung von Spitzmorcheln

Versuche diese Pilze zu züchten gibt es bereits seit mehr als hundert Jahren, bis vor kurzem waren diese aber wenig erfolgreich. Im letzten Jahrzehnt ist es nun in China gelungen mehrere Arten von Spitzmorcheln im Freiland zu kultivieren. Wie bei den natürlich vorkommenden Morcheln ist die Erntezeit auf einige Wochen im Frühjahr beschränkt. Von 2011 bis 2020 stieg die Anbaufläche von 200 ha auf 10 000 ha und der Ertrag von weniger als 750 kg/ha auf 15 000 kg/ha und der Jahresertrag auf 15 000 t frische Pilze. [2]. Abbildung 3 zeigt ein besonders ertragreiches Feld.

Der Ernteertrag wirkt auf den ersten Blick sehr beeindruckend. Eine Untersuchung zum Morchelanbau von 2019 bis 2020 ergab jedoch, dass die Hälfte der Felder keine Früchte trugen oder nur schwaches Wachstum aufwiesen und mehr als 70 % der Produzenten keine stabilen Gewinne erzielen konnten [1]. Die Misserfolge können dabei auf viele Faktoren zurückzuführen sein: von ungeeigneter Bodenbeschaffenheit, ungünstigen Bodenmikroben, instabiler Qualität der Morchelstämme, bis hin zu Krankheitserregern und schlechten Umweltbedingungen (z. B. Temperatur, Feuchtigkeit [2].

Abbildung 3: Freilandkultur von Spitzmorcheln. Boden mit besonders hohem Ertrag.(Bild aus Yu F.M. et al., (2022) [1]. Lizenz:cc-by)

Bereits 1982 hatten Forscher der Michigan State University und San Francisco State University ein Verfahren zur Züchtung der Morchella rufobrunnea, einer verwandten gelben Morchel, unter kontrollierten Bedingungen in Innenräumen entwickelt, das sie später patentierten und in einer Produktionsstätte in Alabama zur Anwendung brachten. In den ersten Jahren soll die Ernte wöchentlich an die 700 kg Morcheln erbracht haben. Eine Infektion der Anlage und die Weltwirtschaftskrise 2008 brachten die Produktion zum Erliegen.

Es erscheint merkwürdig, dass seit vielen Jahren außer den Erfindern niemand in der Lage ist, Morcheln nach den Beschreibungen des Patents herzustellen.

Das dänische Morchelprojekt

In den späten 1970er Jahren haben die Brüder Jacob und Karsten Kirk, damals noch Biologie-Studenten an der Universität Kopenhagen, begonnen Pilze zu züchten und experimentierten vorerst mit leicht kultivierbaren Typen wie den Champignons und Austernseitlingen. Ihr Interesse wandte sich aber bald den Spitzmorcheln zu, die sie für eine zwar herausfordernde aber zugleich lohnendere Spezies hielten. Das angestrebte Ziel war eine Massenproduktion dieser Pilze unter kontrollierten Bedingungen in Innenräumen über das ganze Jahr. Nach fast 40 Jahren Entwicklungsarbeit scheinen sie nun dieses Ziel erreicht zu haben [3].

Spitzmorcheln stellen einen großen Artenkomplex von nahe verwandten Spezies dar, die unterschiedliche Wachstumsbedingungen aufweisen können. Auf Reisen in mehrere europäische Länder haben die Kirk-Brüder jedes Frühjahr Spitzmorcheln gesammelt und in Zusammenarbeit mit der Universität Kopenhagen daraus Mycelien isoliert, diese auf speziellem Nähragar aufgetragen und unter sterilen Bedingungen sogenannte Sklerotien hergestellt, das sind aggregierte, nährstoffreiche, winterharten, braune knotenartige Strukturen - eine bei Pilzen auftretende Dauerform - , die unter anderem den Nährstoffhintergrund für die Fruchtkörperbildung im Frühjahr bilden. Die (u.a. in flüssigem Stickstoff gelagerten) Sklerotien bildeten dann die Grundlage für Kultivierungsversuche, die in mindestens 20 m2 großen, angemieteten Klimakammern erfolgten. Über Jahre wurde an der Entwicklung einer optimalen Morchelerde getüftelt, die nun in Paletten mit witterungsbeständigen Kunststoff-Boxen eingebracht wird. Auch die Entwicklung eines optimalen Programms für Beleuchtung, Temperatur und Feuchtigkeit erstreckte sich über mehrere Jahre.

Insgesamt ist es nun gelungen aus 73 von 80 ganz unterschiedlichen genetischen Varianten der Spitzmorcheln Fruchtkörper zu ziehen, die allerdings in Wachstumsraten, Größe und Aussehehen sehr unterschiedlich waren. Zwei der Varianten erwiesen sich als besonders produktiv: bei einem Ernteertrag von rund 4,2 kg /m2 innerhalb von 22 Wochen ergibt vor allem Variante 195 prachtvolle, exzellent schmeckende überdurchschnittlich große Pilze von über 25 g, die allein stehen und leicht zu ernten sind. (Bezogen auf einen Jahresertrag von rund 10 kg/m2 ist das eine etwa 7 mal größere Ausbeute als in den saisonalen chinesischen Freilandanbauten erzielt wurde; s.o.) Insgesamt wurden so mehr als 150 kg Morcheln geerntet. Ein kurzes Video zeigt Methode und Pilze [4].

Outlook

Die Kultivierungsmethode der Kirk-Brüder kann als Meilenstein in der Pilzzucht betrachtet werden. Sie vereint beste Wachstumsbedingungen, optimale genetische Varianten, Böden und Nährstoffe. Die Kultivierung erfolgt ohne Pestizide und erfordert auch keine besonderen Schutzmaßnahmen beim Arbeiten in den Klimakammern. Morcheln können damit über das ganze Jahr hindurch geentet werden und voraussichtlich zu niedrigen Preisen, die denen von Champignons und anderen etablierten Pilzen entsprechen.

Die Methode ist nun soweit entwickelt, dass eine großtechnische Produktion ins Auge gefasst werden kann. Zweifellos werden die Erfolge mit den Spitzmorcheln auch auf viele andere Pilzarten übertragbar sein: Ohne Verbrauch wertvoller Agrarflächen kann so auf minimalem Raum eine Massenproduktion von Pilzen aufgebaut werden, die nicht nur einen Beitrag zur zukünftigen Welternährung liefern sondern auch als Ressource für viele großtechnische Verfahren dienen können.


[1] Malone, T. et al. Economic Assessment of Morel (Morchella spp.) Foraging in Michigan, USA. Econ Bot (2022). https://doi.org/10.1007/s12231-022-09548-5

[2] Yu, F.-M. et al., Morel Production Associated with Soil Nitrogen-Fixing and Nitrifying Microorganisms. J.Fungi 2022, 8, 299. https://doi.org/10.3390/jof8030299

[3] Jacob Kirk &Karsten Kirk: Controlled Indoor Cultivation of Black Morel (Morchella sp.) All-year-round.  https://thedanishmorelproject.com/

[4] The Danish Morel Project: Controlled Indoor Cultivation of Morel Mushrooms All-year-round. Video 1:15 min.  https://www.youtube.com/watch?v=A3E78Q20RlE

inge Sun, 01.05.2022 - 18:42

Grünes Tuning - auf dem Weg zur künstlichen Photosynthese

Grünes Tuning - auf dem Weg zur künstlichen Photosynthese

Do, 21.04.2022 — Christina Beck & Roland Wengenmayr Christina BeckRoland WengenmayrIcon Biologie

Eine Herausforderung des 21. Jahrhunderts ist die Eindämmung des Klimawandels. Und das heißt, dass es uns gelingen muss, den Anteil von Treibhausgasen in der Atmosphäre zu reduzieren. Kohlenstoffdioxid aus der Luft mithilfe von Sonnenenergie nutzbar machen – diesen Prozess beherrschen Pflanzen bereits seit Jahrmillionen. Eröffnet die künstliche Photosynthese einen Weg, um aus Kohlenstoffdioxid mithilfe von Licht nachhaltig Rohstoffe zu produzieren? Ein Team um Tobias Erb, Direktor am Max-Planck-Institut für terrestrische Mikrobiologie in Marburg, arbeitet daran, diesen Prozess so zu „tunen“, dass er mehr Kohlenstoff binden kann. Mit ihrem synthetisch-biologischen Ansatz wollen die Max-Planck-Forschenden biologische Prozesse jedoch nicht nur schrittweise verbessern, sondern auch ganz neue Lösungen umsetzen, die in dieser Form in der Natur nicht zu finden sind – eine Idee mit vielversprechendem Potenzial.*

Jedes Jahr holen Photosynthese treibende Organismen rund 400 Milliarden Tonnen Kohlenstoffdioxid (CO2) aus der Luft. Im natürlichen Kohlenstoffkreislauf entsprach das genau der Menge an CO2, die durch geologische und biologische Prozesse wieder freigesetzt wurde – bis mit Beginn des Industriezeitalters (etwa um 1750) der Mensch anfing, zunehmend fossile Brennstoffe wie Kohle, Erdöl und Erdgas, in denen der Kohlenstoff aus Jahrtausenden bis Jahrmillionen unterirdisch gespeichert war, zu verbrennen. Dadurch bringen wir den Kohlenstoffkreislauf zunehmend aus dem Gleichgewicht: Aktuell emittieren wir jährlich 38 Gigatonnen CO2 zusätzlich, also knapp ein Zehntel des natürlichen Kreislaufs. Ein Verfahren, welches das überschüssige Kohlenstoffdioxid wieder aus der Atmosphäre entfernt und gleichzeitig noch sinnvoll nutzt, wäre also hochwillkommen. Tobias Erb, Direktor am Max-Planck-Institut für terrestrische Mikrobiologie treibt aber nicht primär der Kampf gegen den Klimawandel an. Zunächst einmal will er verstehen, wie sich Kohlenstoffdioxid in organische Moleküle umwandeln lässt. „Wenn wir das Treibhausgas mit biologischen Methoden als Kohlenstoffquelle erschließen und dabei aus der Atmosphäre entfernen könnten, wäre das natürlich ein toller Nebeneffekt“, sagt der Max-Planck-Forscher.

Zentral für das Leben

Evolutionär betrachtet ist die Photosynthese ein ausgesprochen erfolgreicher biochemischer Prozess und sehr gut in der Lage, die Anforderungen der biologischen Funktionen zu erfüllen: Einfach zusammengefasst, wandelt sie das CO2 aus der Luft mithilfe von Sonnenenergie und Wasserstoff in Kohlenhydrate um. Um Wasserstoff zu gewinnen, müssen Pflanzen dabei Wassermoleküle spalten. Den überschüssigen Sauerstoff gibt die Pflanze an die Umwelt ab. Ein Teil der Kohlenhydrate liefert die nötige Energie zum Leben, der andere Teil wird zum Grundbaustein für die Produktion großer Biomoleküle. Mit diesen wächst die Biomasse an – die Pflanze speichert so den Kohlenstoff aus der Atmosphäre.

Der Prozess hat aber auch seine Grenzen. So beträgt die Effizienz der Umwandlung von eingestrahltem Sonnenlicht in Biomasse bei der biologischen Photosynthese (ohne den Eigenverbrauch der Pflanze) gerade mal ein Prozent. Das ist nichts im Vergleich zu gängigen Fotovoltaikanlagen, die rund 20 Prozent der eingesammelten Sonnenenergie in elektrische Energie umwandeln. Ein Flaschenhals für die Effizienz ist die Transpiration der Pflanzen. Über die Spaltöffnungen der Blätter, die sogenannten Stomata, nehmen Pflanzen nicht nur das CO2 aus der Luft auf, sondern verdunsten dabei gleichzeitig auch Wasser. Die Verdunstung verbraucht jedoch wesentlich mehr Wasser als die Photosynthese-Reaktion. Indem die Pflanze den Verlust an Wasser begrenzt, schränkt sie auch den Gasaustausch und die Photosyntheseleistung ein.

Begrenzte Leistung

Als einen weiteren limitierenden Faktor hat Axel Kleidon, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie, die Thermodynamik ausgemacht. Als Erdsystemforscher untersucht er wichtige chemische, geologische und physikalische Prozesse und Stoffkreisläufe auf der Erde. Das erfordert einen Blick auf das Große und Ganze: „Der CO2-Transport an die Blätter erfolgt durch die große Umwälzanlage der Thermik, indem erwärmte, befeuchtete und CO2-ärmere Luft vom Boden aufsteigt und kühlere, trockenere und CO2-reichere Luft absinkt“, erklärt Kleidon. Der Motor dafür ist die Erwärmung der Erdoberfläche durch die Sonnenstrahlung. Dadurch entsteht ein Temperaturunterschied, der eine atmosphärische Wärmekraftmaschine antreibt. „Diese Maschine leistet so viel wie möglich, sie begrenzt aber auch die Verdunstung und damit den Nachschub an CO2 für die Photosynthese“, so der Physiker. Denn der Wärmefluss, der die Maschine antreibt, baut auch den Temperaturunterschied wieder ab und reduziert so ihren Wirkungsgrad. Die biologische Photosynthese ist also immer nur so effektiv, wie der thermodynamisch geleistete Nachschub. „Natürliche Ökosysteme und auch die Landwirtschaft operieren schon nah an ihrer Leistungsgrenze, substanzielle Steigerungen sind hier kaum zu erwarten“, betont Kleidon daher.

Die Biologie lässt sich nicht weiter optimieren, wenn die Physik ihr Grenzen setzt. Aber die heute gut erforschten fotosynthetischen Prozesse in Pflanzen, Algen und Bakterien können als Vorbild dienen für die Entwicklung einer künstlichen Photosynthese. Der künstliche Nachbau der Photosynthese gilt dabei als eine Art „Apollo-Projekt“ unserer Zeit: Damit ließen sich Kohlenstoffverbindungen nachhaltig mithilfe von Licht aus Kohlenstoffdioxid herstellen. Sonnenlicht wäre dafür die ultimative Ressource, denn die Sonne sendet ungefähr 15 000-mal mehr Energie zur Erde als die Menschheit verbraucht. Die technische Umsetzung der beiden Teilprozesse der Photosynthese, der Primär– und der Sekundärreaktion, befindet sich dabei in unterschiedlichen Entwicklungsstadien. Für die Primärreaktion wurden fotovoltaische Lösungen realisiert, die hinsichtlich der Photonenausbeute dem natürlichen Prozess entsprechen. Für die technische Umsetzung der Sekundärreaktion konnte bisher keine mit dem natürlichen System konkurrierende katalytische Lösung gefunden werden. Doch genau das ändert sich gerade – dank der Forschungsarbeiten von Tobias Erb.

Die Umwandlung von atmosphärischem CO2 in energetisch höherwertige Kohlenstoffverbindungen erfolgt in Pflanzen über den nach seinem Entdecker benannten Calvin-Zyklus. Der US-amerikanische Biochemiker Melvin Calvin verfolgte mit seiner Arbeitsgruppe an der University of California in Berkeley Ende der 1940er Jahre, wie aus radioaktiv markiertem Kohlenstoffdioxid in einem Kreisprozess Kohlenhydrate hergestellt wurden. 1961 erhielt er für diese Arbeiten den Nobelpreis für Chemie. Für den Ablauf der chemischen Reaktionen, die im Stroma der Chloroplasten stattfinden, werden als Voraussetzung lediglich ATP als Energiequelle und NADPH/H+ als Reduktionsmittel benötigt. Das zentrale Enzym, das die Bindung von CO2 katalysiert, heißt Ribulose-1,5-bisphosphatcarboxylase/-oxygenase, kurz Rubisco (Abbildung 1). Es ist eines der häufigsten Proteine der Natur. „Nimmt man das Proteom, also alle Proteine zusammengefasst in einem Blatt, so besteht das zu fünfzig Prozent aus Rubisco“, erklärt Tobias Erb.

Abbildung 1: Das CO2-bindende Enzym des Calvin-Zyklus heißt Rubisco. Es ist sehr komplex gebaut und besteht aus 16 Untereinheiten. Auf jeden Menschen kommen etwa fünf Kilogramm Rubisco. Aus dem Kohlenstoffdioxid, das im Volumen eines gewöhnlichen Wohnzimmers vorhanden ist, kann die Pflanze mithilfe des Enzyms eine Prise Zucker produzieren.© Grafik: A. Bracher / © MPI für Biochemie

Dabei ist Rubisco keine optimale Lösung, wenn es um die Effizienz der Kohlenstofffixierung geht. Denn trotz seiner wichtigen Rolle arbeitet Rubisco relativ langsam: Ein Molekül kann nur etwa fünf bis zehn CO2-Moleküle in der Sekunde umsetzen. Und es ist sehr ineffizient, da es nicht nur CO2 bindet, sondern auch Sauerstoff. Als Rubisco vor rund drei Milliarden Jahren entstand, war das noch kein Problem – da gab es nämlich noch keinen Sauerstoff in der Atmosphäre. Als sich dieser jedoch mehr und mehr anreicherte, konnte sich das Enzym dieser Veränderung nicht anpassen. Zwanzig Prozent der Reaktionen laufen unerwünscht mit dem Sauerstoff ab. Die Pflanzenzelle kann mit dem daraus entstehenden toxischen Produkt nichts anfangen. Sie muss es in einem aufwändigen Prozess, der sogenannten Photorespiration, umwandeln, wobei wiederum CO2 freigesetzt wird. Dieser Prozess verpulvert bis zu einem Drittel der durch die Photosynthese eingefangenen Energie – was die Pflanzen sich aber angesichts der unbegrenzten Verfügbarkeit von Sonnenenergie leisten können.

Stoffwechsel 2.0

Tobias Erb setzt derweil auf eine effizientere Alternative zu Rubisco, die er vor einigen Jahren mit seinem Team im Bodenbakterium Kitasatospora setae entdeckt hat. Das betreibt zwar keine Photosynthese, musste aber lernen, seinen Bedarf an Kohlenstoff in einer kohlenstoffarmen Umwelt zu decken. Dazu entwickelte dieses Bakterium eine höchst wirksame Klasse von Enzymen mit dem Namen Enoyl-CoA Carboxylase/Reduktase, kurz ECR. Sie können das Kohlenstoffdioxid etwa zwanzigmal schneller verarbeiten als das pflanzliche Rubisco – nicht zuletzt deshalb, weil dabei auch kaum Fehler auftreten.

Dieser Fund brachte Erb auf die Idee, eine künstliche, hocheffiziente Alternative zum Calvin-Zyklus quasi neu zu erfinden und dabei Hochleistungsenzyme wie ECR zu nutzen. Die Herausforderung bestand darin, dass an dem Prozess noch ein gutes Dutzend anderer Enzyme beteiligt sind, die fein aufeinander abgestimmt sein müssen. Entfernt man auch nur eines davon, dann bricht der biochemische Prozess zusammen. „Das Enzym ist eigentlich nur so etwas wie ein neues Computerprogramm“, erklärt Erb. „Damit es aber funktioniert, mussten wir – um im Bild zu bleiben – ein komplettes neues Betriebssystem aufbauen.“ Dazu suchte das Team Enzyme zusammen, die jeweils ihre Aufgabe im „Betriebssystem“ möglichst optimal erledigen (Abbildung 2). Sie fanden sich in so unterschiedlichen Organismen wie Purpurbakterien, Gänserauke und sogar der menschlichen Leber. Einige Enzyme mussten auch chemisch umgebaut werden.

Abbildung 2: Entwurf und die Realisierung künstlicher Stoffwechselwege zur effizienteren CO2-Reduktion mithilfe der synthetischen Biologie: Der CETCH-Zyklus besteht aus 17 verschiedenen Enzymen, die aus insgesamt neun verschiedenen Organismen (farblich gekennzeichnet) stammen. Drei dieser Enzyme wurden mit Computerunterstützung maßgeschneidert, um eine entsprechende Reaktion zu katalysieren. © acatech/Leopoldina/Akademienunion auf Grundlage von T. Erb

Das Ergebnis nennt sich „CETCH-Zyklus“. Es ist der erste künstliche Stoffwechselweg zur biologischen CO2-Fixierung. Mit 15 bis 17 Einzelschritten ist er vergleichbar komplex wie sein natürliches Vorbild, arbeitet aber wesentlich effizienter und zudem fehlerfrei: Theoretische Berechnungen zeigen, dass der CETCH-Zyklus lediglich 24 bis 28 Lichtquanten pro fixiertem, also gebundenem CO2-Molekül benötigt. Verglichen mit der natürlichen Sekundärreaktion in Pflanzen (ca. 34 Lichtquanten pro CO2-Molekül) braucht der künstliche Stoffwechselweg damit bis zu 20 Prozent weniger Lichtenergie. Im Reagenzglas sei der Designer-Stoffwechselweg bereits funktionsfähig, so der Max-Planck-Forscher. Zu den aufgereinigten Proteinen, die beteiligt seien, müsse man noch ATP als Energielieferant hinzugeben, und der CETCH-Zyklus laufe los.

Photosynthese im Reagenzglas

Praktisch musste das Marburger Team dies erst einmal in einem künstlichen Photosynthesesystem beweisen. Doch wie konstruiert man eine künstliche photosynthetisch aktive Zelle? „Als allererstes benötigten wir ein Energiemodul, das es uns erlaubt, chemische Reaktionen nachhaltig zu betreiben. Bei der Fotosynthese liefern Chloroplasten-Membranen die Energie für die Kohlenstoffdioxid-Fixierung. Ihre Fähigkeiten wollten wir nutzen“, erklärt Erb. Der aus der Spinatpflanze isolierte Photosynthese-Apparat zeigte sich robust genug, um auch im Reagenzglas die Energie aus dem Licht, die Elektronen und den Wasserstoff bereitzustellen. Für die Sekundärreaktion setzten die Forschenden den von ihnen selbst entwickelten CETCH-Zyklus ein (Abbildung 3).

Der heutige Chloroplast (oben links) hat sich in 3,5 Milliarden Jahren zu einer effizienten molekularen Maschine entwickelt. Der künstliche Chloroplast (oben rechts) wurde in weniger als 7 Jahren entworfen und realisiert (grün: Thylakoidmembranen). Abb. D: links © Science History Images / Alamy Stock; rechts © T. Erb, MPI für terrestrische Mikrobiologie / CC-BY-NC-SA 4.0

Nach mehreren Optimierungsrunden gelang dem Team tatsächlich die lichtgesteuerte Fixierung des Treibhausgases Kohlenstoffdioxid in vitro. „Mit der Plattform können wir neuartige Lösungen umsetzen, die die Natur während der Evolution nicht beschritten hat“, sagt Erb. Nach seiner Einschätzung bergen die Ergebnisse großes Zukunftspotenzial. So konnten die Forschenden zeigen, dass der künstliche Chloroplast mithilfe der neuartigen Enzyme und Reaktionen Kohlenstoffdioxid 100-mal schneller bindet als bisherige synthetisch-biologische Ansätze. „Langfristig könnten lebensechte Systeme in praktisch allen technologischen Bereichen Anwendung finden, einschließlich Materialwissenschaften, Biotechnologie und Medizin“, hofft der Max-Planck-Forscher.

Noch sind die künstlichen Chloroplasten nur feine Wassertröpfchen von knapp 100 Mikrometern Durchmesser, die in einer Ölemulsion schwimmen (Abbildung 4). Sie sind nur zwei Stunden lang stabil. Trotzdem können sie erstaunlicherweise selbstständig aus dem gebundenen Kohlenstoff messbare Mengen der Verbindung Glykolat herstellen. Daraus lassen sich bereits eine Vorstufe des Antibiotikums Erythromycin oder ein Duftstoff auf Terpen-Basis herstellen, wie Erbs Team zeigen konnte.

Abbildung 4. Diese Tröpfchen haben 90 Mikrometer Durchmesser und sind ein Beispiel für halb künstliche Chloroplasten aus Marburg. Sie enthalten bereits Thylakoidmembranen aus echten Chloroplasten, in denen die Primärreaktion der Fotosynthese abläuft. © T. Erb, MPI für terrestrische Mikrobiologie / CC BY-NC-SA 4.0

Grüne Fabriken

Alternativ zum rein künstlichen Fotosynthesesystem forscht das Team auch daran, die Enzyme für den CETCH-Zyklus gentechnisch in lebende Zellen einzubauen. „In E. coli-Bakterien ist uns das bereits zu neunzig Prozent gelungen“, berichtet Tobias Erb. Der nächste Schritt ist der gentechnische Einbau des CETCH-Zyklus in den Stoffwechsel einzelliger Algen – eine viel größere Herausforderung, da sie weitaus weniger erforscht sind als E. coli und deutlich komplexere Zellstrukturen besitzen. Außerdem ist die Entwicklung synthetischer Algenstämme durch ihre niedrigere Wachstumsrate langwieriger. Gelingt der Einbau, so wären große „Algenfabriken“ denkbar, die CO2 besonders effektiv in Biomasse umwandeln können. Das wäre dann tatsächlich ein Schritt hin zur Bewältigung einer der größten Herausforderungen unserer Zeit: die Reduktion der ständig steigenden Konzentration von atmosphärischem Kohlenstoffdioxid.


 *Der Artikel ist erstmals unter dem Titel: "Grünes Tuning - auf dem Weg zur künstlichen Fotosynthese" https://www.max-wissen.de/max-hefte/kuenstliche-fotosynthese in BIOMAX 37, Frühjahr 2022 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


 Weiterführende Links

Tobias Erb, Max-Planck-Institut für terrestrische Mikrobiologie:  https://www.mpi-marburg.mpg.de/erb

MPG: Synthetic Chloroplast Production using a Microfluidic platform (Untertitel) Video 2,3 min. https://www.youtube.com/watch?v=NLf4LJ5Z4a4

Tobias Erb on Designing a More Efficient System for Harnessing Carbon Dioxide. Video 3,59 min. https://www.youtube.com/watch?v=CPFscyYRS10

Künstliche Photosynthese Forschungsstand, wissenschaftlich-technische Herausforderungen und Perspektiven:  https://www.acatech.de/publikation/kuenstliche-photosynthese-forschungsstand-wissenschaftlich-technische-herausforderungen-und-perspektiven/download-pdf/?lang=de

Rund um die Photosynthese - Artikel im ScienceBlog

Historisches

Photosynthese in der Biosphäre

Auf dem Weg zur künstlichen Photosynthese

inge Thu, 21.04.2022 - 00:16

Comments

KEINESWEGS ZU BAGATELLISIEREN - neue Befunde zum neuropathologischen Potential von COVID-19

KEINESWEGS ZU BAGATELLISIEREN - neue Befunde zum neuropathologischen Potential von COVID-19

Sa 16.04.2022  — Inge Schuster

Inge Schuster Icon Medizin Als vor nun bereits mehr als zwei Jahren die ersten COVID-19 Fälle auftraten, wurden diese primär als schwere, einen hohen Todeszoll fordernde Erkrankung der Atemwege klassifiziert. Mittlerweise gibt es weltweit mehr als eine halbe Milliarde bestätigte SARS-CoV-2 Infizierte (und knapp 6,2 Millionen daran Verstorbene) und es ist offensichtlich, dass das Virus auch in anderen Organen Schäden anrichten und Langzeitfolgen - long Covid - nach sich ziehen kann. Darunter fallen neurologische Beschwerden, deren Pathogenese noch wenig verstanden ist. Modelluntersuchungen an infizierten Affen, die milde bis moderate Atemwegserkrankungen entwickeln, aber vergleichbare neuropathologische Befunde in Hirngeweben wie an COVID-19 verstorbene Patienten aufweisen, geben erste Einblicke in die Virus-ausgelösten Entzündungsprozesse, die in vielen Hirnregionen auftreten und Schädigung und Absterben von Nervenzellen bewirken können.

Mehr als 30 % der hospitalisierten Patienten aber auch Personen mit milden Krankheitssymptomen und sogar asymptomatische Infizierte können ein weites Spektrum an neurologischen Beschwerden entwickeln, die häufig als unspezifisch, vielleicht sogar als eingebildet angesehen werden. Neben - zum Teil dauerhaften - Störungen des Geruchs- und Geschmacksinns sind dies u.a. kognitive Probleme, Konzentrationsstörungen ("Gehirnnebel"), dauernde Erschöpfung, Schlafstörungen und persistierende Kopfschmerzen. Am Ende des Spektrums stehen zweifelsfreie Diagnosen von Schlaganfällen, Gehirn- und Gehirnhautentzündungen (Enzephalitis, Meningitis) und dem Guillain-Barré Syndrom (Zerstörung der Myelinummantelung von peripheren Nerven durch überschießende Immunreaktion); mehrere Studien berichten auch über Parkinsonerkrankungen, die zwei bis fünf Wochen nach der Infektion auftraten.

Als Reaktion auf das Virus, kann die Immunantwort - selbst wenn das Virus nicht mehr nachweisbar ist - zu weiteren Entzündungsprozessen im Gehirn führen und Schädigungen von Gefäßen, Zellen und Funktionen, insbesondere der neuronalen Signalübertragung verursachen. Dies geht aus Untersuchungen hervor, die an Hirngeweben von an COVID-19 verstorbenen Patienten ausgeführt wurden: einerseits konnte das Virus und seine Genprodukte in Hirnarealen nachgewiesen werden, andererseits wurden - auch wenn das Virus dort nicht (mehr) detektierbar war - Entzündungen festgestellt, die zu undichten Blutgefäßen und Gerinnseln führten (dazu im ScienceBlog: [1, 2]). Die Pathogenese der neurologischen Symptome blieb allerdings weiterhin unklar.

Neue Befunde

In den letzten Tagen sind einige Studien erschienen, die das Verstehen der neuropathologischen Konsequenzen von COVID-19 erheblich verbessert haben. Untersuchungen zu ultrastrukturellen Veränderungen des Riechtrakts können erstmals die Schwächung des Riechsystems bis hin zum persistierenden vollständigen Geruchsverlust erklären [3]. An relevanten Modellen - nicht-menschlichen Primaten - konnte der Infektionsprozess verfolgt und damit erstmals eine umfassende Beschreibung der durch SARS-CoV-2 Infektion ausgelösten Neuropathologie möglich werden [4, 5]. In den Gehirnen von SARS-CoV-2 infizierten nicht-menschlichen Primaten wurden zudem Aggregate von alpha-Synuclein gefunden, einem Charakteristikum der Parkinsonerkrankung [5]. Dazu passend haben in vitro-Untersuchungen ergeben, dass das Nukleocapsid-Protein des Virus (das in Hirnarealen von Patienten nachgewiesen wurde [1]) mit dem für die neuronale Funktion wichtigen alpha-Synuclein interagiert und die Bildung zelltoxischer Faserbündel auslöst [6].

Wesentliche Ergebnisse dieser Studien werden im Folgenden skizziert.

Neuropathologische Veränderungen im Riechsystem

Neben den Beeinträchtigungen der Atemwege gehören Riech -und Geschmacksstörungen zu den häufigsten Symptomen von COVID-19. Bis zu 70 % der Infizierten leiden unter solchen, bis zum totalen Riechverlust gehenden Störungen. Dies ist auch bei jungen, zuvor gesunden Menschen der Fall, wie die kürzlich erschienene erste Human Challenge Studie zeigte: ein minimales Virus-Inokulum hatte dort ausgereicht, um eine milde Infektion der Atemwege hervorzurufen, allerdings waren zwei Drittel der Infizierten von Riechstörungen bis hin zu Riechverlust betroffen, die zum Teil auch nach 9 Monaten noch andauerten. [7]

Eine neue, aus verschiedenen US-amerikanischen Institutionen stammende Multicenter-Studie hat nun erstmals ultrastrukturelle Veränderungen des Riechkolbens und des Riechtrakts festgestellt, welche die Schwächung des Riechsystems bis hin zum vollständigen Geruchsverlust erklären können. [3]. Zur Erläuterung: Im Riechkolben, der an der Basis des Gehirns liegt, werden Nervensignale aus der Nasenschleimhaut zusammen mit Informationen über spezifische Gerüche an weiterführenden Neuronen im Gehirn übertragen (Abbildung 1).

Abbildung 1: Das menschliche Riechsystem (Olfacory System), vereinfachtes Schema. Duftstoffe, die in die Nasenschleimhaut (Regio olfactoria) der oberen Nasenhöhle gelangen, binden an Rezeptoren von bipolaren Riechneuronen, deren zentrales Axon durch die knöcherne Siebplatte hindurch in Form von Riechfäden in den Riechkolben gelangt. Diese von glialen Membranen (Gliazellen) umhüllten, dichten sphäroiden Nervengeflechte (sogenannte Glomeruli olfactorii) sind über Synapsen mit den Mitralzellen verbunden, Neuronen, die über ihre Axone Signale an Hirnareale zur Verarbeitung zu unbewussten und bewussten Geruchswahrnehmungen weiterleiten. (Bild modifiziert aus Andrewmeyerson, https://commons.wikimedia.org/wiki/File:Olfactory_System_Large_Unlabeled.jpg. Lizenz: CC-BY-SA-3.0

Um herauszufinden wie die Infektion auf zelluläre Prozesse des Riechens einwirkt, haben die Forscher Gewebe des Riechkolbens und des Riechtrakts von an COVID-19 Verstorbenen und von einer dazu passenden Kohorte an anderen Ursachen Verstorbener ("Kontrollgruppe") isoliert und mit (elektronen)mikroskopischen, histochemischen und molekularbiologischen Methoden analysiert [3]. In den Geweben wurde auf vorhandenes Virus geprüft und Strukturen und Charakteristika der Zellen, der Blutgefäße und die Zahl intakter Axone (welche die Signale der Neuronen weiterleiten) untersucht. Im Vergleich zu den Kontrollen, stellten die Forscher bei den COVID-Patienten schwere pathologische Veränderungen an den Axonen bis hin zum Verlust von Axonen fest und sogenannte Mikrovaskulopathie, d.i. Verletzungen kleinster Blutgefäße. Diese Veränderungen waren besonders ausgeprägt bei Patienten, die über Geruchsbeeinträchtigungen geklagt hatten, standen jedoch in keinem Zusammenhang mit dem Schweregrad der Atemwegserkrankung, dem Zeitverlauf der Infektion oder der Detektierbarkeit von Virus im Riechgewebe. Tatsächlich konnte in den Riechkolben der meisten COVID-19 Patienten kein Virus nachgewiesen werden.

Die Analysen weisen darauf hin, dass nicht das Virus direkt sondern Entzündungsreaktionen als Folge der Infektion zur Schädigung von Nervenzellen und Reduktion bis hin zur Zerstörung ihrer Axone führt. Sinkt die Zahl funktionsfähiger Axone, können Signale nur abgeschwächt bis gar nicht mehr an das Hirn weitergeleitet werden und dies kann - abhängig von der Fähigkeit neue Neuronen zu generieren (Neurogenese) - leider ein permanenter Zustand sein.

Neuropathologische Auswirkungen von SARS-CoV-2 auf nicht-menschliche Primaten

Tiermodelle, welche die neuropathologischen Befunde in Hirngeweben von an COVID-19 verstorbenen Patienten widerspiegeln, können einen essentiellen Beitrag zur Aufklärung der Neuropathogenese dieser Infektion leisten. Tracy Fisher und ihr Team am Tulane National Primate Research Center (Tulane University, New Orleans) haben langjährige Erfahrung mit Modellen unserer nächsten Verwandten, den Makaken (Rhesusaffen und grünen Meerkatzen), insbesondere mit Untersuchungen an deren Gehirnen. (Im übrigen: Makaken werden seit langem als aussagekräftige Modelle genutzt, um einerseits einen Einblick in die Pathogenese von Infektionskrankheiten zu gewinnen und anderseits, um Strategien zur deren Prävention und Behandlung  zu testen.) Seit dem Beginn der Corona-Pandemie haben die Forscher zudem die Gehirne von an COVID-19 Verstorbenen untersucht. Die Ergebnisse an den Affen stimmen mit Autopsiestudien von an COVID-19 verstorbenen Menschen überein, die Tiere dürften also geeignete Modelle für die Vorgänge im Menschen darstellen. Untersuchungen von Tracy Fischer haben so zum Verständnis des Infektionsgeschehens beigetragen, insbesondere wie eine Infektion mit dem Virus zu langfristigen Entzündungen und Schäden an zahlreichen Organen führen kann.

Abbildung 2: Die Infektion von Makaken mit SARS-CoV-2 führt zwar nicht zu schweren Atemwegserkrankungen, löst aber ausgeprägte morphologische Änderungen bis hin zum Zelltod von Neuronen aus . Dargestellt sind Hämatoxylin/Eosin gefärbte histologische Schnitte des Cerebellums von grünen Meerkatzen (Zellkerne: blau; oben: Körnerschicht). Im Bild links: eine gesunde Schichte von Purkinje-Zellen im Cerebellum eines nicht infizierten Kontrolltiers (RM6), Mitte und rechts: Pfeile weisen auf irreversibel verdichtete (pyknotische) und aufgelöste (karyolytische) Zellkerne und Ausbuchtungen der Zellmembran (cellular blebs) in infizierten Tieren (AGM3 und AGM4). (Bild modifiziert aus [4], Lizenz cc-by].

In der aktuellen Studie [4] wird nun gezeigt, dass eine Infektion mit SARS-CoV-2 (WA1/2020) im Gehirn von Makaken zu massiven Entzündungen des Nervengewebes, zu Mikroblutungen und reduzierter Sauerstoffzufuhr (Hirnhypoxie) führt, dass Neuronen degenerieren und absterben. Abbildung 2 zeigt als Beispiel die Schädigung von Purkinje-Zellen (multipolaren Neuronen mit stark verästeltem Dendriten in der Kleinhirnrinde (Cortex cerebelli)). Lecks in Blutgefäßen und durch Sauerstoffmangel hervorgerufene Schädigungen des Gehirngewebes dürften somit eine häufige Komplikation einer SARS-CoV-2-Infektion sein.

Die Tiermodelle erweisen sich dabei als besonders bedeutsam, weil die neuronalen Symptome bei infizierten Tieren beobachtet werden, die keine schweren Atemwegserkrankungen entwickeln: diese Modelle könnten somit einen Einblick in die bis dato "Black Box" von long-Covid erlauben.

SARS-CoV-2 Infektion von Makaken, Gehirnentzündung und Aggregation von alpha-Synuclein

Ein Team aus holländischen/belgischen Wissenschaftern hat ebenfalls Makaken (Rhesus- und Cynomolgus-Makaken) als Modell verwendet, um die neurologischen Auswirkungen einer Infektion mit SARS-CoV-2 (Beta Variante) zu untersuchen [5). Im Zentrum stand die Frage wieweit solche Auswirkungen fünf bis sechs Wochen nach leichten bis mittelschweren Infektionen auftreten können.

Abbildung 3: Überblick über die Auswirkungen einer leichten SARS-CoV-2-Infektion auf das Zentralnervensystem von Makaken. 15 Hirnregionen wurden untersucht. Infiltration aktivierter T-Zellen und Mikkrogliazellen wurde in praktisch allen Hirnregionen der infizierten Tiere in geringfügigem Ausmaß (hellblau) und moderatem Ausmaß (dunkelblau) detektiert. alpha-Synuclein Aggregate traten in den orangefarbenen Regionen auf. Virus (gelb) wurde in mehreren Regionen nur in einem Tier (C3) nachgewiesen. (Bild modifiziert aus [5], Lizenz cc-by].

Die Studie wurde an post-mortem entnommenen Gewebe aus 15 unterschiedlichen Gehirnregionen ausgeführt. Diese wurden auf Detektierbarkeit von Virus (Antigen und RNA) und Immunreaktion - Infiltration von aktivierten T-Zellen und Mikroglia-Zellen (das sind die primären Immunzellen des Gehirns, entsprechend den peripheren Makrophagen) - untersucht.

Virus wurde nur in einem Makaken (C3) in 7 Gehirnregionen nachgewiesen, Entzündungsreaktionen - Infiltrationen von Immunzellen - traten dagegen in allen infizierten Tieren, nicht aber in Kontrolltieren und mit Ausnahme des Markhirns (medulla oblongata) in allen untersuchten Hirnregionen auf, auch wenn dort weder virales Antigen oder RNA nachweisbar waren. Abbildung 3.

Eine ganz wesentliche neue Erkenntnis war, dass in den Gehirnen aller infizierter Rhesus Affen und eines Cynomolgus Affen, nicht aber in den Kontrollen, Aggregate von alpha-Synuclein entstanden waren [5]. Es sind dies runde Einschlüsse im Zytoplasma von Nervenzellen - sogenannte Lewis bodies -die als Charakteristikum der Parkinson-Erkrankung gelten und für das Absterben von Dopamin-produzierenden Neuronen verantwortlich gemacht werden. Interessanterweise kommt es bei Parkinson häufig zu einem Riechverlust noch bevor sich motorische Defekte zeigen. Ein Überblick über die Auswirkungen einer leichten SARS-CoV-2 Infektion auf das Zentralnervensystem ist in Abbildung 3 gegeben.

Wie kommt es zur alpha-Synuclein Aggregation?

Abbildung 4: Das Nukleocapsid-Protein (N-Protein) von SARS-CoV-2 interagiert mit mehreren Kopien von alpha-Synuclein und löst deren Aggregation zu zelltoxischen Faserbündeln aus. (Bild aus [7], Lizenz: cc-by-nc-nd) .

Wie eingangs erwähnt gibt es eine Reihe von Fallstudien, in denen bei relativ jungen Personen einige Wochen nach COVID-19 eine Parkinsonerkrankung ausgebrochen ist. Auf der Suche nach einem möglichen molekularen Zusammenhang zwischen den beiden Erkrankungen haben Forscher entdeckt, dass mehrere Kopien des neuronalen α-Synuclein zumindest in vitro an das Nukleocapsid-Protein (aber nicht an andere Proteine) von SARS-CoV-2 binden und die Bildung von zelltoxischen Aggregaten auslösen [7]. Wurden beide Proteine zusammen in ein Zellmodell von Parkinson injiziert, so führte dies zu einem beschleunigten Absterben der Zelle. Wie man sich diese Aggregation vorstellen kann, ist in Abbildung 4 dargestellt.

Fazit

SARS-CoV-2 Infektionen dürfen nicht auf die leichte Schulter genommen werden!

Nach einem milden Krankheitsverlauf und sogar in asymptomatischen Fällen können neurologische Langzeitfolgen - long-COVID - auftreten und es besteht die Gefahr, dass diese durch erhebliche Schädigungen im Gehirngewebe verursacht werden können. Dies lassen Untersuchungen an nicht-menschlichen Primaten (Makaken) befürchten - aussagekräftigen Modellen, die einen Einblick in die Pathogenese von Infektionskrankheiten erlauben und Möglichkeiten bieten deren Prävention und Behandlung  zu testen. Diese mit dem ursprünglichen SARS-CoV-2 Virus oder mit der beta-Variante infizierten Tiere haben zwar nur milde Atemwegserkrankungen entwickelt, wiesen aber in vielen Hirnregionen massive neuropathologische Veränderungen auf, die vergleichbar waren mit den Schädigungen der an COVID-19 verstorbenen Patienten: Entzündungsprozesse in weiten Hirnregionenm die zum Absterben von Nervenzellen führen, Lecks in Blutgefäßen und Blutgerinnsel können eine Erklärung für Langzeitfolgen bis hin zu Schlaganfällen, Hirn(haut)entzündungen und auch beobachteten Parkinson-Fällen bieten.


[1] Inge Schuster, 07.01.2022: Was ist long-Covid?

[2] Francis S.Collins, 15.01.2021: Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

[3] Ho C, Salimian M, Hegert J, et al. Postmortem Assessment of Olfactory Tissue Degeneration and Microvasculopathy in Patients With COVID-19. JAMA Neurol. Published online April 11, 2022. doi:10.1001/jamaneurol.2022.0154

[4] Ibolya Rutkai et al., Neuropathology and virus in brain of SARS-CoV-2 infected non-human primates. Nature Commun.(01.04. 2022) https://doi.org/10.1038/s41467-022-29440-z

[5] Ingrid HCHM Philippens et al., Brain Inflammation and Intracellular alpha-Synuclein Aggregates in Macaques after SARS-CoV-2 Infection. Viruses (08.04.2022) 14, 776. https://doi.org/10.3390/v14040776

[6] Slav A. Semerdzhiev et al., Interactions between SARS-CoV-2 N-Protein and α-Synuclein Accelerate Amyloid Formation. ACS Chemical Neuroscience, (03.12.2021); 10.1021/acschemneuro.1c00666

[7] Inge Schuster, 12.02.2022: Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie


Artikel über COVID-19 im ScienceBlog

Seit Beginn der Pandemie sind dazu bis jetzt 44 Artikel im Blog erschienen.

Die Links zu diesen Artikeln sind in chronologischer Reihenfolge in Themenschwerpunkt Viren gelistet.


 

inge Sat, 16.04.2022 - 18:56

Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Do, 7.04.2022 — IIASA

IIASA Logo

Icon Klima

Nach den ersten beiden Teilen des neuen Sachstandsberichts ( 6.Assessment Report, AR6), die sich mit den"Naturwissenschaftlichen Grundlagen" (Arbeitsgruppe 1: 9. August 2021) und mit "Folgen, Anpassung und Verwundbarkeit " (Arbeitsgruppe 2: 28. Feber 2022) des Klimawandels befassten, hat der Weltklimarat ((Intergovernmental Panel of Climate Change - IPCC) nun den dritten Teil (Arbeitsgruppe 3: 4. April 2022) herausgegeben, der die "Minderung des Klimawandels" zum Thema hat [1]. Der aus 17 Kapiteln bestehende, insgesamt 2913 Seiten lange Bericht untersucht, woher die globalen Emissionen stammen und erklärt die Entwicklungen zur Reduktion der Emissionen und zur Minderung der Erderwärmung. Es ist der erste IPCC-Report, der eine eingehende Untersuchung dazu abgibt, wie Verhalten, Entscheidungen und Konsum von uns Menschen zur Eindämmung des Klimawandels beitragen können. An dem Bericht haben 278 Experten federführend mitgewirkt, weitere Autoren haben zu spezifischen Fragen Beiträge geleistet. Drei Forscher vom International Institute of Systems Analysis (IIASA, Laxenburg) haben als Hauptautoren und Koordinatoren der Arbeitsgruppe mitgearbeitet.*

Abbildung 1. Aus anthropogenen Quellen stammende Treibhausgasemissionen in den letzten drei Jahrzehnten. (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf)

Im Zeitraum 2010 - 2019 befanden sich die durchschnittlichen globalen Treibhausgasemissionen auf dem höchsten Stand in der Menschheitsgeschichte, die Geschwindigkeit des Anstiegs hat sich aber (gegenüber dem vorhergehenden Jahrzehnt; Redn.) verlangsamt (Abbildung 1). Ohne sofortige und tiefgreifende Emissionsminderungen in allen Sektoren ist die Begrenzung der globalen Erwärmung auf 1,5 °C unerreichbar. Allerdings gibt es laut Aussagen der Wissenschafter Im jüngsten Sachstandbericht des Weltklimarates (IPCC) zunehmende Evidenz, dass Klimaschutzmaßnahmen erfolgreich sind. (Das Ziel der Null Emissionen wurde von mindestens 826 Städten und 103 Regionen angenommen. Einige Länder haben eine kontinuierliche Abnahme der Emissionen erreicht, die mit einer Erderwärmung um 2 °C kompatibel ist. Anm. Redn. aus [2] eingefügt.)

Seit 2010 haben sich die Kosten für Solar- und Windenergie sowie für Batterien fortlaufend um bis zu 85 % gesenkt. Durch immer mehr Richtlinien und Gesetze wurde die Energieeffizienz verbessert, die Abholzungsraten verringert und der Einsatz erneuerbarer Energien beschleunigt. Abbildung 2.

Abbildung 2. Kosten für erneuerbare Energie sind z.T. niedriger als für fossile Brennstoffe (oben) und ihr Anteil an elektrischen System steigt stark (unten). (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf.)

Wir stehen an einem Scheideweg. Die Entscheidungen, die wir jetzt treffen, können eine lebenswerte Zukunft sichern. Wir haben die Werkzeuge und das Know-how, die erforderlich sind, um die Erwärmung zu begrenzen“, sagte IPCC-Vorsitzender Hoesung Lee. „Die Klimaschutzmaßnahmen, die in vielen Ländern ergriffen werden, geben mir Mut. Es gibt Richtlinien, Vorschriften und Marktinstrumente, die sich als wirksam erweisen. Wenn diese verstärkt und breiter und gerechter angewendet werden, können sie tiefgreifende Emissionsminderungen unterstützen und Innovationen anregen.“

Der Bericht der Arbeitsgruppe III bietet eine aktualisierte globale Bewertung der Fortschritte und Zusagen zur Eindämmung des Klimawandels und untersucht die Quellen der globalen Emissionen. Er erläutert Entwicklungen bei den Bemühungen zur Emissionsreduzierung und -minderung und bewertet die Auswirkungen nationaler Klimaschutzverpflichtungen in Hinblick auf langfristige Emissionsziele.

In allen Sektoren gibt es Optionen die Emissionen bis 2030 mindestens zu halbieren

Laut den Autoren wird die Begrenzung der globalen Erwärmung große Veränderungen im Energiesektor erfordern. Abbildung 3. Dies wird eine erhebliche Reduzierung im Verbrauch fossiler Brennstoffe bedeuten, eine weitreichende Elektrifizierung, eine verbesserte Energieeffizienz und die Verwendung alternativer Brennstoffe (etwa wie Wasserstoff). Mit den richtigen Regeln, Infrastrukturen und verfügbaren Technologien zur Änderung unseres Lebensstils und Verhaltens, können die Treibhausgasemissionen bis 2050 um 40–70 % gesenkt werden. Dass solche Änderungen des Lebensstils die Gesundheit und das Wohlbefinden verbessern können, ist evident.

Abbildung 3. Vom Energie- bis zum Transportsektor: In allen Sektoren gibt es Möglichkeiten die Emissionen bis 2030 auf die Hälfte zu reduzieren. (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf.)

Städte und andere urbane Gebiete bieten ebenfalls erhebliche Möglichkeiten zur Reduzierung von Emissionen. Dies kann durch einen geringeren Energieverbrauch (z. B. durch die Schaffung kompakter, in Gehdistanz angelegter Städte), die Elektrifizierung des Verkehrs kombiniert mit emissionsarmen Energiequellen und eine verbesserte Kohlenstoffaufnahme und -speicherung unter Nutzung der Natur erreicht werden. Es gibt Optionen für etablierte, schnell wachsende und neue Städte.

Die Reduzierung von Emissionen in der Industrie wird die effizientere Nutzung von Materialien, die Wiederverwendung und das Recycling von Produkten und die Minimierung von Abfall beinhalten. Für Grundstoffe, einschließlich Stahl, Baumaterialien und Chemikalien, befinden sich treibhausgasarme oder treibhausgasfreie Produktionsverfahren in Phasen, die von Pilot- bis zu nahezu kommerziellen Stadien reichen. Dieser Sektor ist für etwa ein Viertel der weltweiten Emissionen verantwortlich. Das Erreichen von Netto-Null wird eine Herausforderung sein und neue Produktionsprozesse, emissionsarmen und emissionsfreien Strom, Wasserstoff und gegebenenfalls die Abscheidung und Speicherung von Kohlenstoff erfordern.

Land- und Forstwirtschaft sowie andere Landnutzungen können in großem Maßstab Emissionen reduzieren und Kohlendioxid in großem Maßstab entfernen und speichern. Land kann jedoch verzögerte Emissionsminderungen in anderen Sektoren nicht kompensieren. Reaktionsoptionen können der Biodiversität zugute kommen, uns bei der Anpassung an den Klimawandel unterstützen und Lebensgrundlagen, Nahrungsmittel, Wasser und Holzvorräte sichern.

Eine wichtige neue Komponente des Berichts der Arbeitsgruppe III ist ein neues Kapitel zu den sozialen Aspekten der Emissionsminderung, das die „Nachfrageseite“ untersucht, mit anderen Worten, was treibt die Konsumation und die Treibhausgasemissionen an. Signifikante Veränderungen in den Bereichen Verkehr, Industrie, Gebäude und Landnutzung werden es den Menschen erleichtern, einen kohlenstoffarmen Lebensstil zu führen, und gleichzeitig das Wohlbefinden verbessern. Bis 2050 hat eine Kombination aus wirksamen Strategien, verbesserter Infrastruktur und Technologien, die zu Verhaltensänderungen führen, das Potenzial, die Treibhausgasemissionen um 40 bis 70 % zu reduzieren.

"Die Vorgangsweise im kommenden Jahrzehnt ist entscheidend dafür das 1,5-Grad-Ziel in Reichweite zu halten. Gleichzeitig ist es wichtig zu erkennen, dass – selbst wenn es uns nicht gelingt, die globale Erwärmung auf 1,5 °C zu begrenzen, – es wichtig ist, die Klimaschutzmaßnahmen weiter voranzutreiben. Weniger Klimawandel ist aus Sicht des Risikomanagements eindeutig besser“, sagt Volker Krey, Leiter der IIASA Integrated Assessment and Climate Change Research Group und einer der Hauptautoren des Berichts.

Investitionslücken schließen, Ungleichheiten überbrücken und die Ziele für nachhaltige Entwicklung erreichen

Abseits von den Technologien zeigt der Bericht, dass die Finanzströme zwar um einen Faktor drei- bis sechsmal niedriger sind als das Niveau, das bis 2030 erforderlich ist, um die Erwärmung auf unter 2 °C zu begrenzen, es jedoch genügend globales Kapital und Liquidität gibt, um Investitionslücken zu schließen. Dies hängt jedoch von klaren Signalen der Regierungen und der internationalen Gemeinschaft ab, einschließlich einer stärkeren Angleichung von Finanzen und Politik im öffentlichen Sektor.

„Die Abschätzung hebt die großen Unterschiede im Beitrag verschiedener Regionen, Nationen und Haushalte zu den globalen Treibhausgasemissionen hervor. Beispielsweise haben die am wenigsten entwickelten Länder (LDCs) und die kleinen Inselentwicklungsstaaten (SIDS) in der Vergangenheit nicht wesentlich zu den globalen Treibhausgasemissionen beigetragen, und sie tun dies auch jetzt nicht“, bemerkt die Hauptautorin des Kapitels, Shonali Pachauri, die die Forschungsgruppe für Transformative institutionelle und soziale Lösungen am IIASA leitet. „Für die Bevölkerung in emissionsarmen Ländern, die keinen Zugang zu modernen Energiediensten und einem angemessenen Lebensstandard haben, hat die Bereitstellung eines universellen Zugangs zu diesen Diensten keine wesentlichen Auswirkungen auf das globale Emissionswachstum.“

Beschleunigte und gerechte Klimaschutzmaßnahmen zur Minderung und Anpassung an die Auswirkungen des Klimawandels sind für eine nachhaltige Entwicklung von entscheidender Bedeutung. Einige Optionen können Kohlenstoff absorbieren und speichern und gleichzeitig den Gemeinden helfen, die mit dem Klimawandel verbundenen Auswirkungen zu begrenzen. Beispielsweise können in Städten Netze von Parks und Freiflächen, Feuchtgebiete und städtische Landwirtschaft das Hochwasserrisiko verringern und Hitzeinseleffekte reduzieren.

Minderung in der Industrie kann Umweltauswirkungen verringern und Beschäftigungs- und Geschäftsmöglichkeiten erhöhen. Die Elektrifizierung mit erneuerbaren Energien und Verlagerungen im öffentlichen Verkehr können Gesundheit, Beschäftigung und Gerechtigkeit verbessern.

Die nächsten Jahre sind kritisch

Die von Arbeitsgruppe III bewerteten Szenarien zeigen, dass eine Begrenzung der Erwärmung auf etwa 1,5 °C voraussetzt, dass die globalen Treibhausgasemissionen spätestens vor 2025 ihren Höhepunkt erreichen und bis 2030 um 43 % reduziert werden müssen. Abbildung 4. Gleichzeitig müsste auch Methan um etwa ein Drittel reduziert werden. Selbst wenn dies getan wird, ist es fast unvermeidlich, dass wir diese Temperaturschwelle vorübergehend überschreiten, aber bis zum Ende des Jahrhunderts wieder unterschreiten könnten.

Abbildung 4. Globale Treibhausgasemissionen: Modellierte Pathways (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf) . Zu den Klimamodellen siehe unten: Artikelserie im ScienceBlog.

Die globale Temperatur wird sich stabilisieren, wenn die Kohlendioxidemissionen netto Null erreichen. Für eine Begrenzung auf 1,5 °C bedeutet dies, dass wir Anfang der 2050er Jahre weltweit Netto-Null-Kohlendioxidemissionen erreichen; für 2 °C ist dies in den frühen 2070er Jahren der Fall. Die Bewertung zeigt, dass die Begrenzung der Erwärmung auf etwa 2 °C immer noch erfordert, dass die globalen Treibhausgasemissionen spätestens vor 2025 ihren Höchststand erreichen und bis 2030 um ein Viertel reduziert werden.

„Der Bericht zeigt, wie wichtig die nächsten Jahre bis 2030 dafür sind, ob wir die Erwärmungsziele des Pariser Abkommens erreichen können. Wir haben die notwendigen Optionen und Investitionen aufgezeigt. Der Ball liegt jetzt bei der Politik, um die Umsetzung zu beschleunigen“, schließt Keywan Riahi, koordinierender Hauptautor und IIASA-Programmdirektor für Energie, Klima und Umwelt.


 [1] Working Group III Report to the Sixth Assessment Report of the IPCC: Climate Change 2022. Mitigation of Climate Change https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_FinalDraft_FullReport.pdf

[2] Sixth Assessment Report of the IPCC: Press Conference 4.4.2022, Slide Show https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf


 * Die Presseaussendung "New IPCC Report: we can halve emissions by 2030." https://iiasa.ac.at/news/apr-2022/new-ipcc-report-we-can-halve-emissions-by-2030  ist am 6. April 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 4 Abbildungen aus den IPCC-Report/Press Conference slides [2] ergänzt. (Alle Abbildungen stehen unter einer cc-by-nc-nd-Lizenz, sind daher in der Originalversion (englische Beschriftung) wiedergegeben.) IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

Weitere Details zum IPCC-Sixth Assessment Report: https://report.ipcc.ch/ar6wg3/

Video on Sixth Assessment Report of the IPCC CLIMATE CHANGE 2022: Mitigation of Climate Change. Video 2:14:36.https://www.youtube.com/watch?v=STFoSxqFQXU

Artikel im Scienceblog

Artikelserie über Computermodelle, dem zentralen Element der Klimaforschung :


 

inge Thu, 07.04.2022 - 18:05

Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

Do, 30.03.2022 — IIASA

IIASA Logo

Icon Energie

Die Wasserstoffwirtschaft ist eine Energiealternative , die viel Aufmerksamkeit erhält. Für die Entwicklung einer solchen Wirtschaft gibt es jedoch einige zentrale Herausforderungen, wie beispielsweise die hohen Investitionskosten für Produktion, Verdichtung, Speicherung und Transport des Wasserstoffs. Der IIASA-Forscher Julian Hunt und seine Kollegen haben die Tiefsee ins Auge gefasst, um ein innovatives Konzept zu erstellen, das diese Probleme lösen könnte.* 

Das Hydrogen Deep Ocean Link (HYDOL) Konzept

Zur Produktion von grünem Wasserstoff sind teure Elektrolyseanlagen erforderlich. Diese sollten nach Möglichkeit in Betrieb bleiben, um die Produktionskosten zu senken. Erneuerbare Energiequellen wie Wind und Sonne sind jedoch intermittierend und liefern keine konstante Energiemenge. Dieses Problem könnte durch den Bau eines Elektrolyseschiffs gelöst werden, das den Jahreszeiten entsprechend zu Orten mit im Überschuss erzeugter erneuerbarer Energie fahren kann. So kann das Schiff im Sommer beispielsweise in Japan Wasserstoff mit überschüssigem Solarstrom erzeugen und dann nach Süden fahren, um mit überschüssigem Solarstrom im Sommer in Australien Wasserstoff zu produzieren.

Was die Verdichtung, Speicherung und den Transport von Wasserstoff betrifft, so steht in dem von uns explorierten Grundkonzept [1] die Tatsache im Mittelpunkt, dass verdichteter Wasserstoff in Tiefseetanks gefüllt werden kann, wobei das gleiche Volumen an Meerwasser aus den Tanks entfernt wird. Dadurch wird der Druck in den Tanks auf dem gleichen Niveau wie in der Umgebung des Tanks gehalten. So kann der unter hohem Druck stehende Wasserstoff mit billigen Kunststofftanks (aus Polyethylen hoher Dichte) in der Tiefsee gespeichert werden, wodurch die Kosten für die Langzeitspeicherung erheblich gesenkt werden. Damit die Wasserstofftanks nicht zur Oberfläche treiben, wird Sand hinzugefügt, um ihr Gewicht zu erhöhen. Ein weiterer wichtiger Aspekt, der diese Lösung ermöglicht, ist, dass Wasserstoff auch bei sehr hohen Drücken in Wasser unlöslich ist. Wäre Wasserstoff in Wasser löslich, so würde sich ja ein großer Teil des Wasserstoffs in den Tanks lösen und im Ozean verloren gehen.

Abbildung 1. Hydrogen Deep Ocean Link (HYDOL). a: Gesamtkonzept mit den verschiedenen Einrichtungen.b: Vorschlag für das Design einer Pipeline. (cc-by, Hunt et al., [1])

Der isotherme (d.i. bei konstanter Temperatur arbeitende; Anm. Redn.) Kompressor, mit dem der Wasserstoff verdichtet und in die Tiefsee transportiert wird, hat einen Wirkungsgrad der Verdichtung von rund 80 %; im Prozess des Komprimierens lässt das leichte Übergewicht des Sandes die Wasserstofftanks in der Tiefsee langsam auf den Meeresboden sinken, während Wasser in die Rohre gelangt (siehe Abbildung 1a).

Die tiefen Tanks für die Langzeitspeicherung von Wasserstoff (in Abbildung 1a unten dargestellt) sind am Meeresboden fixiert und können bei niedrigen Kosten große Mengen an Wasserstoff speichern. Das ebenfalls in der Abbildung gezeigte Tiefsee-Wasserstoff-U-Boot ist im Grunde ein Wasserstoff-Langzeitspeichertank, der mit einem Propeller angetrieben wird. Der Hauptzweck des Tiefsee-Wasserstoff-U-Bootes besteht darin, den Sand in den Container zu tragen. Das Tiefsee-Wasserstoff-U-Boot mit Sand ist jedoch immer noch leichter als ein Lkw mit auf 500 bar verdichtetem Wasserstoff an Land.

Die tiefe Wasserstoffpipeline ist dazu ausgelegt, Wasserstoff von einem Punkt zum anderen zu liefern, wobei der Wasserstofffluss mit dem Neigungswinkel der Pipeline variiert. Abbildung 2. Aufgrund der hohen Kosten von Hochdruckleitungen an Land ist es günstiger Wasserstoff in tiefen Pipelines zu transportieren als in Pipelines an Land.

Abbildung 2. Hydrogen Deep Ocean Link (HYDOL).Links: Querschnitt durch eine Wasserstoff-Pipeline. Rechts: Vorschlag für Tiefsee-Wasserstoff Pipelines. (cc-by, Hunt et al., [1])

Eine Abschätzung der Kosten

Für die isotherme Verdichtung von Wasserstoff von 100 bar auf 500 bar belaufen sich nach unserer Berechnung die Investitionskosten auf 15.000 US-Dollar pro Kubikmeter und Tag. Für eine langfristige Energiespeicherung bei 500 bar sind nach unseren Schätzungen rund 0,02 USD pro kWh einzuplanen, während die Kosten für eine Tiefsee-Wasserstoffpipeline bei 400 bar und einer Länge von 5.000 km auf 60 Millionen USD pro Gigawatt kommen. Die Kosten für das Tiefsee-Wasserstoff-U-Boot bei 400 bar und 500 km werden auf 40 Millionen Dollar pro Gigawatt geschätzt.

Diese Kosten sind sechsmal billiger als die übliche Wasserstoffverdichtung (mit Kompressionsturbinen), 50-mal billiger als die normale Wasserstoff-Langzeitspeicherung (Oberflächen-Druckbehälter) und dreimal billiger als der normale Ferntransport (mit verflüssigtem Wasserstoff). Dabei ist zu beachten, dass das Verflüssigen von Wasserstoff die Gesamtenergiespeichereffizienz des Systems erheblich verringert.

Fazit

Der Hydrogen Deep Ocean Link kann Wasserstoff bei niedrigen Kosten sowohl innerhalb als auch zwischen Kontinenten transportieren, was zu einem globalen nachhaltigen Energienetz führt.


[1] Hunt, J., Nascimento, A., Zakeri, B., & Barbosa, P.S.F. (2022). Hydrogen Deep Ocean Link: a global sustainable interconnected energy grid. Energy 249 e123660. 10.1016/j.energy.2022.123660. [pure.iiasa.ac.at/17854]


 *Der Artikel " Hydrogen Deep Ocean Link: A global sustainable interconnected energy grid " https://iiasa.ac.at/blog/mar-2022/hydrogen-deep-ocean-link-global-sustainable-interconnected-energy-grid ist am 28.März 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Untertitel ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt. Es wird darauf hingewiesen, dass der Artikel ausschließlich die Ansichten des Autors J. Hunt widerspiegelt.


Weiterführende Links

In der vergangenen Woche ist im ScienceBlog ein weiteres innovatives Konzept des IIASA-Forschers Julian Hunt und seiner Kollegen erschienen, das auf der Basis von Elektro-Lkw eine flexible und saubere Lösung für die Stromerzeugung in Bergregionen bieten könnte:

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Wasserstoff im ScienceBlog:


 

inge Thu, 31.03.2022 - 01:16

Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Do, 24.03.2022 — IIASA

IIASA Logo

Icon Energie

Bergregionen besitzen ein großes Potenzial für Wasserkraft, das mit herkömmlichen Technologien nicht ausreichend effizient genutzt werden kann. Ein internationales Team um den IIASA-Forscher Julian Hunt hat auf der Basis von Elektro-Lkw eine innovative Wasserkrafttechnologie entwickelt, die eine flexible und saubere Lösung für die Stromerzeugung in Bergregionen bieten könnte. Dazu soll in großen Höhen Wasser aus Gebirgsbächen in Vorratsbehälter gefüllt, den steilen Berg hinunter transportiert, die potentielle Energie des Wassers mit den Rekuperationsbremsen der Elektro-Lkw in Strom umgewandelt und in der Batterie des Lkw gespeichert werden.*

Beim Übergang zu einer nachhaltigeren Zukunft wird die Wasserkraft als erneuerbare Energiequelle wahrscheinlich an Bedeutung gewinnen. Trotz ihres Potenzials erfolgten Innovationen in der Wasserkrafttechnologie im letzten Jahrhundert langsam. Herkömmliche Verfahren setzen heute auf zwei miteinander verbundene Stauseen mit unterschiedlichen Wasserständen, in denen die potentielle Energie des Wassers in Strom umgewandelt wird. Abbildung 1, links.

Elektro-Lkw-Wasserkraft…

In steilen Gebirgsgegenden ist das Potenzial zur Stromerzeugung aus einem kleinen Wasserlauf hoch, jedoch bleibt das Wasserkraftpotenzial dieser Regionen ungenutzt, da es Speicherbecken benötigt, die ökologische und soziale Auswirkungen haben. Der IIASA-Forscher Julian Hunt und ein internationales Forscherteam haben eine neue Technologie namens Electric Truck Hydropower (ETH, Elektro-Lkw-Wasserkraft) entwickelt, die zu einer Schlüsselmethode für die Stromerzeugung in steilen Bergregionen werden könnte. Die Ergebnisse der Studie wurden im Fachjournal Energy veröffentlicht [1].

Abbildung 1. Wasserkraft in steilen Bergregionen. Links: Konventionelle Wasserkraft im steilen Gebirge. Wasser- und Pumpspeicherkraftwerk Kaprun in Österreich. Die Anlage besteht aus hohen Staumauern und Stollen zur Vergrößerung des Einzugsgebietes der Anlage und zur Verbindung mit der Salzach und dem Zeller See. Rechts oben: Schematische Beschreibung des ETH-Systems, bei dem der leere LKW den Berg hinauffährt, um die mit Wasser gefüllten Behälter an der Ladestelle abzuholen, und der LKW mit dem vollen Behälter den Berg hinunterfährt, um Strom zu erzeugen. Das Wasser wird dann an der Einleitungsstelle entladen. Rechts unten: Luftbild des ETH-Systems im Vergleich zu einem bestehenden Wasserkraftprojekt, das die Flexibilität von ETH-Systemen unterstreicht. (Bild: Fig.1 und 2 plus Legenden aus Julian Hunt et al., 2022 [1]von der Redn. eingefügt. Lizenz cc-by)

Elektro-Lkw-Wasserkraft würde die vorhandene Straßeninfrastruktur nutzen, um Wasser in Containern den Berg hinunter zu transportieren, die rekuperativen Bremsen des Elektro-Lkw zu betätigen, um die potenzielle Energie des Wassers in Strom umzuwandeln und die Batterie des Lkw aufzuladen. Die erzeugte Energie könnte dann in das Netz eingespeist oder vom Lkw selbst zum Transport anderer Güter verwendet werden. Elektro-Lkw-Wasserkraft könnte auch in Kombination mit Solar- und Windressourcen Strom erzeugen oder Energiespeicherdienste für das Netz bereitstellen. Abbildung 1, rechts.

„Die ideale Systemkonfiguration ist in Bergregionen mit steilen Straßen, wo die gleichen Elektro-Lkw zur Erzeugung von Strom aus Wasserkraft an verschiedenen Orten eingesetzt werden können. Das erhöht die Chancen, dass Wasser zur Verfügung steht“, sagt Hunt.

…mit anderen erneuerbaren Technologien konkurrenzfähig…

Die vorgeschlagene Technologie ist eine innovative, saubere Stromquelle, die mit Solar-, Wind- und konventioneller Wasserkraft konkurrenzfähig ist. Kostenschätzungen zeigen, dass die Gestehungskosten für Elektro-Lkw-Wasserkraft 30 - 100 US-Dollar pro MWh betragen, was erheblich billiger ist als herkömmliche Wasserkraft mit 50 - 200 US-Dollar pro MWh. Abbildung 2.

Abbildung 2. Globales Potential für Elektro-Lkw-Wasserkraft (ETH). Oben: Maximales ETH-Potenzial in den einzelnen Regionen. Unten: Kosten von ETH versus Potential der mittels ETH produzierten Energie Produktion. (Bild: Ausschnitte aus Fig.4 plus Legenden aus Julian Hunt et al., 2022 [1]von der Redn. eingefügt. Lizenz cc-by.)

…und mit geringeren Auswirkungen auf die Umwelt

Auch die Auswirkungen von Elektro-LKW-Wasserkraft auf die Umwelt sind deutlich geringer als die von konventioneller Wasserkraft.

„Diese Technologie erfordert keine Staumauern, Stauseen oder Stollen und stört nicht die natürliche Strömung des Flusses und die Fischwanderung. Das System benötigt nur bereits vorhandene Straßen, Lade- und Entladestationen ähnlich kleinen Parkplätzen, eine an das Stromnetz angeschlossene Batterieanlage und die Lkw“, erklärt Hunt.

In Hinblick auf die globale Reichweite dieser Technologie kam das Forscherteam zu der Abschätzung, dass Electric Truck Hydropower 1,2 PWh Strom pro Jahr erzeugen könnte, was etwa 4 % des weltweiten Energieverbrauchs im Jahr 2019 entspricht. Mit dieser  Technologie könnte das bisher ungenutzte Potenzial für Wasserkraft auf steilen Bergketten genutzt werden. Die Regionen mit dem größten Potenzial sind der Himalaya und die Anden. Abbildung 2, oben.

„Aufgrund seiner hohen Flexibilität ist es eine interessante Alternative zur Stromerzeugung. Befindet sich ein Land beispielsweise in einer Energiekrise, kann es mehrere Elektro-Lkw kaufen, um Wasserkraft zu erzeugen. Sobald die Krise vorbei ist, können die Lastwagen für den Frachttransport eingesetzt werden“, schließt Hunt.


[1] Hunt, J., Jurasz, J., Zakeri, B., Nascimento, A., Cross, S., Schwengber ten Caten, C., de Jesus Pacheco, D., Pongpairoj, P., Leal Filho, W., Tomé, F., Senne, R., van Ruijven, B. (2022). Electric Truck Hydropower, a Flexible Solution to Hydropower in Mountainous Regions. Energy Journal DOI:  10.1016/j.energy.2022.123495


*Die Presseaussendung "Electric Truck Hydropower, a flexible solution to hydropower in mountainous regions" https://iiasa.ac.at/news/mar-2022/electric-truck-hydropower-flexible-solution-to-hydropower-in-mountainous-regions ist am 7.März 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Untertitel und zwei Abbildungen aus der zitierten Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

Energie gehört zu den Hauptthemen im ScienceBlog. Rund 10 % aller Artikel befassen sich mit diversen Aspekten der Energie, wobei deren Spektrum vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende reicht. Ein repräsentativer Teil dieser Artikel ist nun in einem Themenschwerpunkt Energie aufgelistet.

inge Wed, 23.03.2022 - 18:50

Phänologische Veränderungen - Der Klimawandel verändert den Rhythmus der Natur

Phänologische Veränderungen - Der Klimawandel verändert den Rhythmus der Natur

Fr, 18.03.2022 — Redaktion

Redaktion

Icon Klima

In dem kürzlich erschienenen Bericht „Frontiers 2022: Emerging Issues of Environmental Concern“ hat die Umweltorganisation der Vereinten Nationen (UNEP) vor drei drohenden und bisher unterschätzten Umweltgefahren gewarnt, darunter vor den durch den Klimawandel verursachten phänologischen Veränderungen, die zu Störungen der Ökosysteme führen [1]. Das schon seit Jahrhunderten etablierte Gebiet der Phänologie befasst sich mit den im Jahresablauf periodisch wiederkehrenden Wachstums- und Entwicklungserscheinungen von Organismen. Pflanzen und Tiere nutzen oft die Temperatur als Zeitgeber, um in das nächste Stadium eines saisonalen Zyklus einzutreten. Das Timing dieser Phasen ist entscheidend, um beispielsweise Pflanzenblüte und bestäubende Insekten oder eintreffende Zugvögel und deren Nahrungsangebot zu synchronisieren. Der Klimawandel beschleunigt sich nun schneller, als sich viele Pflanzen- und Tierarten anpassen können. Dies führt zu einem Auseinanderdriften (Mismatch) von synchronen pflanzen- und tierphänologischen Phasen. Die Wiederherstellung von Lebensräumen, der Bau von Wildtierkorridoren zur Verbesserung der Habitatkonnektivität, die Verschiebung der Grenzen von Schutzgebieten und die Erhaltung der Biodiversität in produktiven Landschaften können als Sofortmaßnahmen hilfreich sein. Allerdings: ohne starke Anstrengungen zur Reduzierung von Treibhausgas-Emissionen, werden diese Schutzmaßnahmen den Zusammenbruch wesentlicher Ökosystemleistungen nur verzögern.*

Timing bedeutet Alles für die Harmonie des Ökosystems

In der Natur ist das Timing entscheidend. Vogelküken müssen geschlüpft werden, wenn für sie Nahrung vorhanden ist, Bestäuber müssen aktiv sein, wenn ihre Wirtspflanzen blühen, und Schneehasen müssen ihre Farbe von Weiß zu Braun ändern, wenn der Schnee verschwindet. Die Phänologie untersucht das Timing von wiederauftretenden Phasen im Lebenszyklus, welche von Umwelteinflüssen angetrieben werden, und wie interagierende Arten auf Änderungen im Timing innerhalb eines Ökosystems reagieren. Pflanzen und Tiere nutzen häufig Temperatur, Tageslänge, den Beginn der Regenfälle oder andere physikalische Veränderungen als Zeitgeber für die nächste Phase in ihrem jahreszeitlichen Kreislauf. Setzt der Frühling früher ein, reagieren viele Vögel mit einem früheren Brüten, passend zur schneller aufkommenden Nahrung für ihre Nestlinge, wenn es warm wird. Da die Temperatur einen so starken Einfluss als Auslöser hat, gehören die phänologischen Veränderungen der letzten Jahrzehnte zu den sichtbarsten Folgen des globalen Klimawandels, zumindest in den gemäßigten und polaren Regionen der Erde. Abbildung 1.

Abbildung 1. Die Kirschblüte als Symbol des wiedererwachenden Lebens wird in Japan mit rauschenden Festen gefeiert. Beobachtungsreihen existieren seit 705 a.D.; von 1830 an hat sich die Kirschblüte schrittweise zu früheren Zeitpunkten hin verlagert, parallel zu den meteorologischen Daten der steigenden Temperaturen. Trendlinie: 50-Jahre-Mittelwerte. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Die Temperatur ist nicht die einzige Umgebungsvariable, welche die Phänologie beeinflusst. Eine weitere kritische Variable ist in höheren Breiten die jahreszeitlich variierende Tageslänge (Photoperiode). Während die Tageslänge selbst nicht vom Klimawandel beeinflusst wird, kann das Ausmaß des Temperatureffekts auf die Phänologie davon abhängen: in einigen Systemen können hohe Temperaturen das nächste Stadium während langer Tage, nicht aber während kürzerer Tage auslösen. In höheren Breitengraden brauchen einige Pflanzen und Insekten auch einen Zeitraum niedriger Temperatur, einen sogenannten Kältereiz, um richtig zu reagieren, sobald es wärmer wird. Einige Arten sind auf Brände angewiesen, um Lebenszyklusstadien zu initiieren, wie beispielsweise die Freisetzung von Samen aus den Zapfen und die Samenkeimung, die durch Feuer stimuliert werden. Ein Beispiel aus der Wasserwelt ist der Einfluss von Regen auf die Abflüsse, die - zusammen mit Faktoren wie Wassertemperatur und Tageslänge - wiederum Timing und Dauer der Fischwanderung beeinflussen.

Die Phänologie in tropischen Regionen ist aufgrund geringerer Schwankungen von Temperatur und Tageslänge schwieriger zu erkennen, als in Regionen mit deutlichen jährlichen saisonalen Zyklen. Tropische Arten zeigen unterschiedliche phänologische Strategien, so können sich Individuen innerhalb einer Population nicht synchronisieren und Zyklen kürzer als 12 Monate dauern. Verschiedene Faktoren, darunter Regen, Dürre, vorhandene Feuchtigkeit und reichlich Sonneneinstrahlung können die nächste Lebenszyklusphase in tropischen Regionen auslösen.

Ein wesentliches Problem von den, auf den Klimawandel zurückzuführenden, phänologischen Veränderungen besteht darin, dass in einem bestimmten Ökosystem sich nicht alle voneinander abhängigen Arten in die gleiche Richtung oder mit dem gleichen Tempo verändern. Der Grund dafür ist, dass jeder Organismus auf verschiedene treibende Faktoren der Umwelt reagiert oder unterschiedliche Grade von Sensitivität gegenüber einem einzelnen Umweltfaktor aufweist. Innerhalb der Nahrungsketten können Pflanzen ihre Entwicklung schneller ändern als Tiere, die diese als Futter nutzen - dies führt zu phänologischen Fehlanpassungen (Mismatches). Detaillierte Studien zu verschiedenen Phasen des Lebenszyklus bei einer Vielzahl von Pflanzen- und Tierarten haben signifikante phänologische Mismatches entdeckt. Solche Fehlanpassungen zwischen Räuber und Nahrungsquelle innerhalb eines Nahrungsnetzes beeinflussen Wachstum, Fortpflanzungs- und Überlebensraten der Individuen und haben schlussendlich Auswirkungen auf ganze Populationen und Ökosysteme.

Störungen in der Harmonie des Ökosystems

Durch Klimawandel verursachte phänologische Veränderungen wurden in unterschiedlichen Stadien festgestellt: u.a. in Reproduktion, Blüte, Blattaustrieb, Beginn der Larvenentwicklung, Mauser, Winterschlaf und Migration. Daten dazu kommen aus vergleichenden Studien zu phänologischen Veränderungen in großen Gruppen von Arten – Pflanzen, Insekten, Fische, Amphibien, Vögeln und Säugetieren -, die in Langzeitreihen in beiden Hemisphären aufgezeichnet wurden. In mehreren Regionen haben Forscher zudem eine zunehmende Wahrscheinlichkeit für phänologische Mismatches verfolgt, unter anderem wurden 10.000 Datensätze zu Pflanzen und Tieren im gesamten Vereinigten Königreich, zu terrestrischen Spezies in den Alpen, mehr als 1.200 Zeitreihen phänologischer Trends in der südlichen Hemisphäre und von marinen Spezies in verschiedenen Ozeanen verwendet. Abbildung 2

Abbildung 2. Veränderungen erkennen, Trends verfolgen. Jüngste Abschätzungen um wie viele Tage pro Dekade sich die Lebensstadien von Tieren und Pflanzen verschoben haben. A: Terrestrische Spezies, B: Marine Spezies. Kreise: quantifizierte Rate der beobachteten phänologischen Reaktion einer bestimmten Spezies, wenn sie ein Lebenszyklusstadium um eine Anzahl von Tagen pro Jahrzehnt nach früher oder später verschiebt. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Studien an Vögeln liefern zahlreiche Beweise für Fehlanpassungen, die eine erfolgreiche Vermehrung beeinträchtigen. Arten wie Trauerschnäpper (Ficedula hypoleuca) und Kohlmeisen (Parus major) müssen ihre Küken schlüpfen lassen, wenn ihr normales Nahrungsangebot an Raupen am reichlichsten ist. Diese Zeit des maximalen Nahrungsangebots ist kurz und dauert nur wenige Wochen. Das richtige Timing ist also entscheidend. Andere Vögel, wie die gemeinen Trottellummen (Uria aalge), müssen ihre Fortpflanzung genau auf die Küstenwanderung ihrer Hauptbeute, kleinen Futterfischen, abstimmen.

Innerhalb des Jahreszyklus ist es notwendig, dass sich verschiedene Lebensphasen synchronisieren. Für wandernde Arten umfassen die Jahreszyklen Phasen des Umzugs in die Brutgebiete, der Fortpflanzung, der Mauser und der Rückkehr in die Überwinterungsgebiete. Einige Stadien des Lebenszyklus, wie die Reproduktion, sind überaus temperaturempfindlich. Mit steigenden Temperaturen verschiebt sich die reproduktive Phänologie, während andere Stadien, wie die Mauser, empfindlicher auf Lichtverhältnisse reagieren, sodass sie nicht synchron auftreten.

Die phänologischen Reaktionen unterscheiden sich überall in marinen Ökosystemen und in saisonalen Zyklen, was zu Mismatches zwischen Arten und Gruppen im Nahrungsnetz führt. Wie Untersuchungen zeigen, erfolgen phänologische Reaktionen auf den Klimawandel in marinen Umgebungen schneller als an Land. Die verschiedenen Meeresspezies, vom Plankton bis hin zu höheren Räubern, verändern ihre Phänologie mit unterschiedlicher Geschwindigkeit; dies bedeutet, dass der Klimawandel auch zu Mismatches in gesamten ozeanischen Gemeinschaften führen kann.

Unterschiede in den Geschwindigkeiten mit denen die Phänologie auf die Erwärmung in terrestrischen Systemen, Süßwasser- und Meeresökosystemen reagiert, könnten sich letztendlich auf Arten auswirken, die von verschiedenen Ökosystemen abhängig sind, um phänologische Übergänge in die nächste Lebenszyklusphase mitzunehmen. Beispiele hierfür sind Fische, die zwischen Meeres- und Süßwasserökosystemen wandern, und viele Insekten, Amphibien und Vögel, deren Lebenszyklusstadien sowohl von terrestrischen als auch von aquatischen Ökosystemen abhängen. Nicht übereinstimmende phänologische Verschiebungen könnten weit verbreitete Störungen des Nahrungsnetzes und ökologische Folgen verursachen.

Während phänologische Reaktionen auf den Klimawandel gut dokumentiert sind, verlangen weitere Fragen zu den Zusammenhängen mit Populationen und zu den Folgen für Ökosysteme größere Aufmerksamkeit. In der Arktis hat sich nach der Schneeschmelze die Vegetation, auf die Karibus (Rangifer tarandus)-Mütter und -Kälber angewiesen sind, auf Grund der höheren Temperaturen schneller entwickelt. Jetzt werden Karibu-Kälber zu spät geboren, was zu einem75-prozentigen Rückgang der Nachkommen führt. Auch bei Rehen (Capreolus capreolus) verringert das zunehmende Auseinanderlaufen von Geburtsdatum und Nahrungsverfügbarkeit die Überlebenschancen der Kälber.

Asynchrone phänologische Veränderungen bei einem breiten Spektrums interagierender Arten haben das Potenzial, das Funktionieren ganzer Ökosysteme und die Bereitstellung von Ökosystemleistungen, von denen menschliche Systeme abhängen, zu stören. Verschiebungen in der Phänologie kommerziell wichtiger Meeresarten und ihrer Beute haben erhebliche Folgen für alle Aspekte der Fischerei. Die phänologischen Reaktionen von Nutzpflanzen auf jahreszeitliche Schwankungen werden angesichts des Klimawandels eine Herausforderung für die Nahrungsmittelproduktion darstellen. Zum Beispiel führen Obstbäume, die früh blühen und dann in der Spätsaison Frost erleiden, zu großen wirtschaftlichen Verlusten für Obstplantagen. Phänologische Veränderungen erschweren weltweit bereits jetzt eine klimafreundliche landwirtschaftliche Anpassung für wichtige Nutzpflanzen.

Unglaubliche Reisen: Die Herausforderung der Migration zum falschen Zeitpunkt

Migration ist eine Verhaltensanpassung an die Saisonalität. Periodische Wanderungen von Tieren zwischen Lebensräumen ermöglichen es ihnen, die Ressourcen an mehreren Orten zu verschiedenen Jahreszeiten zu optimieren. Migration ist auch erforderlich, wenn saisonale Luft- oder Wassertemperaturen für die Zucht oder Aufzucht von Nachkommen ungünstig werden. Die meisten wandernden Arten stammen daher aus Regionen in hohen Breiten, in denen die Jahreszeiten und die verfügbaren Ressourcen am ausgeprägtesten sind. Verschiedene Arten von Insekten, Krebstieren, Reptilien, Fischen und Säugetieren wandern, und viele legen bemerkenswerte Entfernungen zurück. Einige Migranten unter den Vögeln nisten in der hohen Arktis und entfliehen ihrem Winter in niedrigere Breiten; Wale wandern zwischen Äquator und polaren Nahrungsgründen; und wandernde pflanzenfressende Säugetiere folgen saisonalen Veränderungen in der Vegetation über Kontinente hinweg.

Über Langstrecken migrierende Spezies sind besonders anfällig für phänologische Veränderungen durch Effekte der Klimaerwärmung, die über die Regionen hinweg nicht einheitlich sind. Lokale klimatische Zeitgeber, die normalerweise eine Migration auslösen, können nicht mehr genau vorhersagen wie die Bedingungen am Zielort und auch an den Zwischenstopps entlang der Route sind. Die Herausforderung ist noch größer für migrierende Arten, die in Polarregionen zurückkehren, wo Voranschreiten und Ausmaß des Klimawandels am größten sind. Folglich haben viele wandernde Arten Schwierigkeiten anzukommen, wenn hochwertige Nahrung noch reichlich vorhanden ist, das Wetter für bestimmte Lebenszyklusstadien geeignet ist, Raubtier- oder Konkurrenzdruck geringer ist, oder es weniger Parasiten und Krankheitserreger gibt. Eine frühere Frühlings-Phänologie in hohen Breiten hat zu einem zunehmenden Grad an ökologischer Fehlanpassung für wandernde Arten geführt, mit möglichen demografischen Folgen.

Arten haben bewiesen, dass sie fähig sind ihr Migrationsverhalten zu ändern, vom Anpassen des Zeitpunkts bis hin zur Änderung von Routen und Orten. Ihre Anpassungsfähigkeit als Reaktion auf den Klimawandel wird aber bereits durch andere anhaltende Bedrohungen beeinträchtigt. Ökologischer Abbau, Zersplitterung und Verlust von Nahrungs-, Brut- und Rasthabitaten, Jagd, Umweltverschmutzung und andere Gefahren bedrohen wandernde Arten auf langen Reisen mit steigendem Druck, sich an schnelle Umweltveränderungen anzupassen.

Maßnahmen zur Maximierung des Anpassungspotenzials und zur Stärkung der Resilienz von Artenpopulationen erfordern eine Reduzierung konventioneller Bedrohungen und eine Änderung bestehender Naturschutzrichtlinien und -strategien angesichts des Klimawandels. Ein umfangreiches Netzwerk verschiedener kritischer Standorte und geschützter Lebensräume könnte das Anpassungspotenzial wandernder Arten maximieren. Es ist auch unerlässlich, die Konnektivität von Land- und Meereslebensräumen, die für die Ausbreitung jetzt und in Zukunft entscheidend sind, sicherzustellen und zu verbessern. Eine zunehmende Konnektivität von Lebensräumen wird dazu beitragen, die adaptive genetische Variation und die Überlebensfähigkeit zu erhalten, die für den Fortbestand der Arten erforderlich sind.

Entwicklung zu neuen Synchronitäten

Um beobachtete Fehlanpassungen dem Klimawandel zuzuschreiben bedarf es einer Langzeit-Forschung zur Phänologie interagierender Arten innerhalb eines Ökosystems. Langzeitstudien sind unerlässlich, aber die größte Herausforderung ist der Nachweis der Kausalität. Der Klimawandel kann Temperaturen und Niederschläge beeinflussen, aber andere Faktoren können gleichzeitig die Reaktionen der Arten beeinflussen, wie z. B. Änderungen der Landnutzung, Übernutzung von Ressourcen, invasive Arten und andere ökologische Stressoren. Die Unsicherheit in Bezug auf die Kausalität kann teilweise durch Minimierung von Variablen angegangen werden: Beobachtung von Reaktionen entweder an verschiedenen Orten - indem Populationen in Gebieten mit starker Erwärmung mit solchen mit geringer Erwärmung verglichen werden - oder in verschiedenen Zeiträumen - indem Populationen in Jahren mit schnell steigenden Temperaturen mit solchen in Jahren mit langsamerer Erwärmung verglichen werden. Solche Ansätze ermöglichen es die spezifische Wirkung des Temperaturanstiegs auf die Phänologie der Spezies besser abzuschätzen, auch wenn sie Probleme mit anderen Temperatur-sensitiven Umweltfaktoren nicht lösen. In vielen Regionen ändern sich beispielsweise die Niederschlagsmuster unter variierenden klimatischen Bedingungen dramatisch, wobei Zeitpunkt, Häufigkeit und Intensität der Regenzeiten verändert werden. Mit zunehmender Datenfülle erkennen die Forscher, dass Kombinationen phänologischer Mechanismen – beispielsweise Temperatur, Photoperiode und Niederschlag – zusammenkommen müssen, um als phänologisches Signal zu wirken.

Eine starke phänologische Veränderung einer Population infolge von Umweltveränderungen ist ein Hinweis darauf, dass ein großer Teil der Individuen in der Lage ist, das Timing in die gleiche Richtung zu ändern - bekannt als phänologische Plastizität. Empirische Hinweise legen nahe, dass diese Plastizität der wesentliche Ursprung für die beobachteten Klima-bezogenen phänologischen Verschiebungen ist. Die Plastizität von Individuen oder Populationen kann möglicherweise aber nicht mit den schnellen Umweltveränderungen, die wir erleben, Schritt halten. Arten benötigen auch genetische Veränderungen, um sich erfolgreich anzupassen; dies ist bei Arten mit kurzer Generationszeit, wie Insekten, wahrscheinlicher,als bei Bäumen, die sich über Jahrzehnte regenerieren. Es gibt eine Handvoll Beispiele - hauptsächlich bei Insekten und einigen Vögeln -, bei denen genetische Veränderungen als Reaktion auf den Klimawandel als Mikroevolution erkannt werden können. Gesamt gesehen erfolgen genetische Veränderungen viel langsamer als der Klimawandel.

Die phänologische Mikroevolution - der Prozess der natürlichen Selektion, bei dem genetische Veränderungen die Phänologie von Arten verändern, um diese besser an das veränderte Klima anzupassen - hat höchstwahrscheinlich eine wichtige Rolle bei der Anpassung von Arten und Ökosystemen an vergangene Erwärmungsperioden gespielt. Da die Erwärmung jetzt jedoch viel rascher erfolgt – vielleicht um den Faktor 100 – wird wahrscheinlich sogar die Mikroevolution sich als zu langsam für die derzeitige Geschwindigkeit des Klimawandels herausstellen.

In der Praxis könnten Maßnahmen zu Erhaltung und Management von Ökosystemen ergriffen werden, um günstige Bedingungen für eine Mikroevolution zu fördern. Eine Maßnahme besteht darin, die genetische Vielfalt von Populationen zu unterstützen und zu pflegen, da dies die entscheidende Voraussetzung für Mikroevolution und natürliche Selektion ist. Habitatkorridore zur Erhöhung der ökologischen Konnektivität würden die Besiedlung durch Pflanzen und die Mobilität von Tierarten mit neuem genetischem Material innerhalb eines bestimmten Ökosystems ermöglichen, die genetische Vielfalt fördern und die Chancen einer erfolgreichen Anpassung erhöhen.

Brücken zu neuen Harmonien

Phänologische Veränderungen können nur aus Langzeitaufzeichnungen ermittelt werden. Die Datenerhebung wird von wissenschaftlichen Einrichtungen, Universitäten, Regierungen und NGOs durchgeführt. Initiativen wie das African Phenology Network, das Australia's TERN-Projekt, Indiens SeasonWatch, der UK Nature’s Calendar und das USA National Phenology Network inkludieren Beobachtungen von Bürgern zur Verfolgung von Pflanzen, Insekten, Vögeln und Säugetieren. Diese umfassenden Datensätze ermöglichen es den Wissenschaftlern Arten und Standorte herauszusuchen, die am meisten gefährdet sind. Sie liefern auch Daten für den Weltklimarat (IPCC) zur Abschätzung der für Ökosysteme tolerierbaren Erwärmungsraten und untermauern die Ziele von Regierungen, die globale Erwärmung auf die im Pariser Abkommen festgelegten Grenzen zu reduzieren.

Seit Jahrhunderten haben in der ganzen Welt Landwirte, Gärtner und Naturliebhaber ihr Wissen über phänologische Phasen genutzt. Regionale und lokale Netzwerke ermöglichen es den Mitgliedern Wissen und Ratschläge zu verschiedenen Umgebungen und Ökosystemen auszutauschen. Mit modernen Kommunikationsmitteln ist die Identifizierung und Verfolgung der Entwicklung von Pflanzen und Tieren in vielen Ländern zu einem weit verbreiteten Zeitvertreib geworden. Citizen Science-Beiträge zum phänologischen Wissen reichen von der Notierung von Blütedaten in den Gärten bis hin zu Beobachtungen wandernder Herden zur Verifizierung von Luft- und Satellitenbildern Abbildung 3.

Abbildung 3. Phänologische Beobachtungen und Citizen Science. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Phänologische Veränderungen und Mismatches, die dem Klimawandel zugeschrieben werden, haben die landwirtschaftlichen Ökosystemleistungen seit Jahrzehnten belastet. Um die Probleme längerer Vegetationsperioden, durch Hitze oder Dürre verkürzter Wachstumsphasen und anderer Auswirkungen des Klimawandels zu mildern, haben Landwirte klimaresistentere Sorten ausgewählt. Die Einführung neuer Techniken, das Ausprobieren neuen Saatguts, die gemeinsame Nutzung von Saatgutbanken und die Nutzung von Beratungsdiensten sind alles Aspekte einer klimafreundlichen Landwirtschaft, die von der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen, vielen NGOs und nationalen und sub-nationalen Stellen gefördert wird.

In eingeschränktem Maß wurde untersucht, wie sich phänologische Veränderungen und Mismatches auf das Management natürlicher Ressourcen und den Erhalt der biologischen Vielfalt auswirken, wobei es für die Manager oft nicht klar ist, wie sie die Daten in die Praxis einbauen sollen. Phänologische Daten könnten Klimamaßnahmen anzeigen, die Implementierung der Überwachung optimieren und die Abschätzung der Vulnerabilität durch den Klimawandel unterstützen. Dies ist besonders in weniger gut untersuchten Gebieten wichtig, wie z. B. an vielen Orten der südlichen Hemisphäre. Manager müssen berücksichtigen, wie sich phänologische Veränderungen auf ihre aktuellen Strategien auswirken. Beispielsweise machen Fischereimanager in der Regel jährlich eine Erhebung der Fischpopulationen und bestimmen Zeitpunkte, an denen die Populationen in einem Gebiet am häufigsten vorgekommen sind. Phänologische Veränderungen könnten dazu führen, dass Erhebungen zur falschen Jahreszeit durchgeführt werden, was Populationsschätzungen und erlaubte Fangquoten verfälschen würde.

Aktuelle Übersichtsartikel zu mehreren spezifischen Fallstudien haben Beispiele für Phänologie, phänologische Veränderungen und phänologische Mismatches in erweiterter Form dargestellt. Mit der höheren Anzahl an Spezies, Ökosystemen und Regionen und diversen phänologischen Mechanismen, kann über Ansätze informiert werden, die zur Unterstützung menschlicher Gemeinschaften und Ökosysteme bei der Anpassung an die Bedingungen des Klimawandels erforderlich sind.

Größere Anstrengungen zur Unterstützung der Intaktheit der biologischen Vielfalt werden die Widerstandsfähigkeit und Anpassungsfähigkeit aller Ökosysteme stärken. Sanierung von Lebensräumen, Bau von Lebensraumkorridoren zur Verbesserung der ökologischen Konnektivität und genetischen Vielfalt, Anpassung der Grenzen von Schutzgebieten an die veränderten Verbreitungsgebiete der Arten und Erhaltung der biologischen Vielfalt in produktiven Landschaften sind alles notwendige sofortige Eingriffe des Managements.

Fazit

Der anthropogene Klimawandel führt zu phänologischen Verschiebungen sowohl in terrestrischen als auch in aquatischen Ökosystemen. Diese Veränderungen können zu Mismatches führen, mit schwerwiegenden Folgen für einzelne Individuen, Populationen, Gemeinschaften und ganze Ökosysteme. Der Klimawandel beschleunigt sich zu schnell, als dass sich viele Arten durch ihre natürlichen phänologischen Fähigkeiten anpassen könnten. Die Erhaltung der Integrität einer funktionierenden biologischen Vielfalt, die Beendigung der Zerstörung von Lebensräumen und die Wiederherstellung von Ökosystemen werden die natürlichen Systeme stärken, von denen wir abhängig sind. Ohne fortgesetzte Bemühungen zur drastischen Reduzierung der Treibhausgasemissionen werden diese Schutzmaßnahmen jedoch den Verlust dieser wesentlichen Ökosystemleistungen nur verzögern. Damit sich Arten und Ökosysteme den beschleunigten Rhythmen anpassen können, den der Klimawandel vorgibt, werden Zeit und Möglichkeit neue Harmonien zu erreichen nötig sein.


[1] Marcel E. Visser: "Phenology - Climate change is shifting the rhythm of nature" in: UN-Environment Programme. Frontiers 2022 Report. Emerging Issues of Environmental Concern. https://www.unep.org/resources/frontiers-2022-noise-blazes-and-mismatches  


*Der Artikel "Phenology - Climate change is shifting the rhythm of nature“ verfasst von Marcel E. Visser (Institut of Ecology, Wageningen; Netherlands) stammt aus dem unter [1] angeführten UNEP-Report „Frontiers 2022: Noise, Blazes and Mismatches“ (17. Feber 2022). Der Text des unter einer cc-by Lizenz stehenden Artikels wurde in etwas verkürzter Form von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und durch 3 Bilder aus dem Original ergänzt.


 UN-Environment Programme: https://www.unep.org/

UNEP's Frontiers Reports: Emerging environmental issues that we should be paying attention to. The 2022 Report: Video 2:06 min.  https://www.youtube.com/watch?v=PPniKJyH_rg&t=14s


 

inge Fri, 18.03.2022 - 17:48

SARS-CoV-2: Varianten können in verschiedenen Zelltypen eines Infizierten entstehen und ihre Immunität adaptieren

SARS-CoV-2: Varianten können in verschiedenen Zelltypen eines Infizierten entstehen und ihre Immunität adaptieren

Fr, 11.03.2022 — Ricki Lewis

Ricki LewisIcon Medizin Bei Infektionen mit SARS-CoV-2 können sich innerhalb eines Wirts Varianten des Virus an unterschiedlichen Stellen des Organismus entwickeln, die veränderte Präferenzen für Zelltypen aufweisen und sich vor dem Angriff des Immunsystems tarnen. Wie diese Tarnung erfolgen kann, zeigen neue Untersuchungen an synthetisch hergestellten Virionen: wenn bestimmte Fettsäuren, wie sie bei einer Entzündungsreaktion freigesetzt werden, in einer hochkonservierten Tasche des Spikeproteins binden, so verändert dieses seine Form und wird für das Immunsystem weniger sichtbar. Die Genetikerin Ricki Lewis berichtet darüber.*

Als ob es nicht schon genügt hätte, dass Wellen neuartiger SARS-CoV-2 Varianten - Varianten unter Beobachtung (Variants of Interest VOI) und besorgniserregende Varianten (Variants of Concern, VOC) - den Planeten überschwemmen, und dass wir Virus-Versionen finden, die in einem komplexen Muster von Integration und De-Integration in Arten eindringen und aus Arten austreten! Nun entdecken wir, dass das Ganze noch gefährlicher ist. Von einer Forschergruppe am Max Planck Bristol Center of Minimal Biology sind zwei neue Artikel in Nature Communications erschienen, die beschreiben, wie sich das Virus in verschiedenen Teilen desselben Wirts genetisch unterscheiden kann [1,2].

Was kann dies bedeuten

Auch, wenn Impfstoffe und Therapien das Virus in den Atemwegen besiegen, könnte der Erreger anderswo weiter persistieren. Und an neuen Plätzen könnten sich – möglicherweise – Viren unserer Immunantwort besser entziehen, sich besser replizieren und höher infektiös sein.

Bedenkt man, dass der Schutz durch Impfung oder Genesung von COVID-19 nachlässt, sind das keine guten Nachrichten.

Es war uns bereits bekannt, dass das Virus im Körper einer Person mit geschwächtem Immunsystem neue Mutationen erzeugen kann. Und es mutiert schnell in den Ungeimpften. Aber die aktuelle Forschung zeigt, dass bei ein und demselben Individuum neue Varianten in verschiedenen Körpernischen entstehen.

Virus-Varianten, die in ein und demselben Individuum entsehen

„Unsere Ergebnisse haben gezeigt, dass man mehrere verschiedene Virusvarianten im Körper haben kann. Einige dieser Varianten können Nieren- oder Milzzellen als Nische nutzen, um dort geborgen zu sein, während der Körper damit beschäftigt ist, sich gegen den dominanten Virustyp zu verteidigen. Dies könnte es den infizierten Patienten schwer machen, SARS-CoV-2 vollständig loszuwerden“, sagt Kapil Gupta, der Erstautor des einen Artikels [1].

Eine hochkonservierte, essentielle Tasche im Spikeprotein

Der Vorgang beim Eindringen eines Virus in eine Wirtszelle konzentriert sich auf eine Region – eine Tasche – in dem Teil des viralen Spike-Proteins, welches das Immunsystem erkennt. Eine Änderung der dreidimensionalen Form der Tasche wirkt auf das Virus wie die Tarnvorrichtung der Romulaner aus Star Trek, die deren Kriegsschiffe unsichtbar macht, wenn sich ein Raumschiff der Föderation nähert.

Die Forscher haben die Tasche in Viren untersucht, die von einem einzelnen englischen Patienten stammten und eine Deletionsmutation im Spike-Protein aufwiesen, in welcher 8 der 1273 Aminosäuren fehlten. Dabei handelt es sich um eine Deletion in Nachbarschaft zur sogenannten Furin-Spaltstelle, einer kritischen Stelle, an der das Spikeprotein (von einem Enzym der Wirtszelle, Anm. Redn.) in seine zwei Untereinheiten gespalten wird, worauf eine Untereinheit die menschliche Zelle akquiriert und die andere das Virus in die Zelle hineinzieht.

Aber statt dass der fehlende Teil das Virus nun inaktiv macht, haben die Forscher heraus gefunden, dass sich der Erreger in einer Weise verformt, dass er noch in menschliche Zellen eindringen kann.

Das ist ein Weg, wie sich das Virus ständig neu erfindet - auf unterschiedliche Weise in verschiedenen Ritzen und Schlupfwinkeln des unglücklichen Wirtsorganimus'.

Die BriSdelta-Variante

Die Version des Virus aus dem englischen Patienten – BriSdelta genannt – repliziert sich stark in Kulturen von Affennierenzellen und von menschlichen Dickdarmkrebszellen, aber nicht in menschlichen Lungenkrebs-Epithelzellen. Abbildung 1. Das könnte bedeuten, dass sich die Präferenz des Wildtyps für Oberflächen der Atemwege anders wohin verlagert, wenn das Virus beschädigt ist.

Abbildung 1: Verglichen mit dem SARS-CoV-2 Wildtyp (blau) ist die BriSDelta-Variante (rot) stärker infektiös in Affennierenzellen (Vero E6) und Dickdarmkrebszellen (Caco-2, dagegen schwächer infektös in Lungenepithelzellen (Calu-3). Bilder aus K. Gupta et al., [1] von Redn. eingefügt,Lizenz: cc-by.

Die neue Version des Virus kann sich besser replizieren und ist stärker infektiös als frühere Varianten.

„In der heterogenen Umgebung des menschlichen Körpers können solche Deletionsvarianten in geeigneten Zelltypen entstehen, welche als potenzielle Nischen zur Weiterentwicklung oder Spezialisierung von SARS-CoV-2 fungieren“, schreiben die Forscher.

Das ist beängstigend.

Synthetische Minimal-Virionen

Die Forscher haben dann untersucht, wie dies geschieht, indem sie künstliche Versionen des Virus verwendeten, die mit Techniken der synthetischen Biologie zusammengebaut wurden. Abbildung 2.

Abbildung 2: Menschliche Epithelzellen (grün mit blauen Kernen) werden mit synthetischen Sars-CoV-2-Viren (magenta) inkubiert, um den Beginn der Infektion und die Immunabwehr zu untersuchen. (Halo Therpeutics). Bilder aus K. Gupta et al., [1] von Redn. eingefügt,Lizenz: cc-by.

Die zweite Veröffentlichung beschreibt diese „synthetischen Minimalvirionen“, auch bekannt als MiniVs, des Wildtyps SARS-CoV-2 und Kombinationen der Mutationen aus der Parade der Varianten [2].

Dabei haben sie herausgefunden, dass Fettsäuren, wie sie während eines Entzündungsprozesses freigesetzt werden (das ist die initiale Reaktion des angeborenen Immunsystems auf eine Infektion), an die neue Mutante binden und dabei ein subtiles Zusammenfalten der Form des Spikeproteins bewirken, die dieses vor dem Ansturm von Antikörpern aus der spezifischeren Reaktion des adaptiven Immunantwort tarnt. Abbildung 3.

Abbildung 3: Das Spike-Protein ändert bei der Bindung einer Fettsäure seine Form - damit kann es nicht mehr an den ACE-2-Rezeptor der Wirtszelle andocken und es wird für das Immunsystem weniger sichtbar. Abbildung aus O. Staufer et al., [2] von Redn. eingefügt. Lizenz cc-by

Die Forscher haben ein Unternehmen, Halo Therapeutics, gegründet, um antivirale Pan-Coronavirus-Mittel zu entwickeln, basierend auf dem Tanz von Spikeprotein-Tasche mit den ACE-2-Rezeptoren auf menschlichen Zellen  – egal wo diese sich im Körpebefinden.

Fazit

Wenn wir also unsere Masken abnehmen und fröhlich zu einem Anschein von Normalität zurückkehren, dürfen wir nicht vergessen, dass SARS-CoV-2 immer noch überall da draußen lauert und sich ständig verändert.

Wir müssen für das nächste Mal bereit sein!

 

 


 [1] Kapil Gupta et al., Structural insights in cell-type specific evolution of intra-host diversity by SARS-CoV-2. Nature Comm. (2022) 13:222 https://doi.org/10.1038/s41467-021-27881-6
[2] Oskar Staufer et al., Synthetic virions reveal fatty acid-coupled adaptive immunogenicity of SARS-CoV-2 spike glycoprotein. Nature Comm. (2022) 13:868  https://doi.org/10.1038/s41467-022-28446-x 


* Der Artikel ist erstmals am 3.März 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "SARS-CoV-2 Pops Up, Mutated, Beyond the Respiratory Tract"

https://dnascience.plos.org/2022/03/03/sars-cov-2-pops-up-mutated-beyond-the-respiratory-tract/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Einige Überschriften und Abbildungen 1 und 3 plus Legenden wurden von der Redaktion eingefügt.

inge Fri, 11.03.2022 - 01:29

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben

Fr,04.03.2022 — Redaktion

RedaktionIcon Friede Ein Tsunami des Protests geht quer durch Russland und schwillt weiter an: Über 1,18 Millionen Russen - Wissenschaftler und Lehrer, Architekten und Designer, Ärzte und IT-Spezialisten, Journalisten und Schriftsteller, Werbefachleute und Psychologen, Kulturschaffende und Vertreter des Klerus, und, und, und... - haben bereits Petitionen gegen den Krieg mit der Ukraine unterschrieben und stündlich werden es um rund 900 mehr. Aufrufe, die wie nahezu alle Staaten der Welt den Krieg als ungerechtfertigt, schändlich und kriminell sehen, sind derzeit noch öffentlich einzusehen. Kann das neue Gesetz, das die Verbreitung angeblicher „Falschinformationen“ und Diskreditierung russischer Armeeangehöriger verbietet, den Protest der Russen zum Schweigen bringen?

Wenn man Presse und Medien verfolgt, gewinnt man den Eindruck, dass die Menschen in Russland kaum erfahren, was sich derzeit in der Ukraine abspielt und/oder dass sehr viele den Lügen der Regierung Glauben schenken. Diejenigen, von denen man annimmt, dass sie Bescheid wissen, hält man aber für zu apathisch und vor allem zu mutlos, um gegen die kriminellen Militäraktionen ihrer Machthaber die Stimme zu erheben. Dass bereits 6440 Anti-Kriegs Demonstranten in brutaler Weise von den russischen Sicherheitskräften festgenommen wurden, zeigt ja, dass solche Proteste mit einem nicht zu unterschätzenden Risiko für Leib und Leben verbunden sind.

Nun, viele Russen sind nicht apathisch, viele Russen zeigen Mut offen den Krieg mit der Ukraine zu verurteilen, den sie ebenso wie nahezu alle Staaten der Welt als ungerechtfertigt, schändlich und kriminell sehen. Seit dem Tag des Einmarsches in die Ukraine wurden von unterschiedlichsten russischen Bevölkerungsgruppen "Offene Briefe" gegen den Krieg verfasst und unterzeichnet. Einer dieser, von russischen Wissenschaftlern und - Journalisten verfassten "offenen Briefe" wurde bereits von über 7 000 Russen unterzeichnet; er ist im ScienceBlog unter Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg nachzulesen.

Lew Ponomarjow: Gegen den Krieg - Net Voyne

Der russische Physiker und Mathematiker Lew Ponomarjow , ein bekannter Politiker und Menschenrechtsaktivist hat auf dem Portal www.change.org/ eine Petion gestartet, in der er gegen den Krieg in der Ukraine aufruft und klare Worte spricht:

Abbildung 1: Abbildung 1. Der Aufruf von Lew Ponomarjow Njet Woynje wurde bereits von mehr als 1,18 Mio Menschen unterzeichnet. (Grafik nach den Zahlen auf www.change.org/ (https://rb.gy/ctnvxk) von der Redaktion erstellt.)

"Wir betrachten alle als Kriegsverbrecher, die die Entscheidung für kriegerische Aktionen im Osten der Ukraine und für die von den Machthabern abhängige kriegsauslösende Propaganda in den russischen Medien rechtfertigen. Wir werden versuchen, sie für ihre Taten zur Rechenschaft zu ziehen.

Wir appellieren an alle vernünftigen Menschen in Russland, von deren Taten und Worten etwas abhängt. Werden Sie Teil der Antikriegsbewegung, stellen Sie sich gegen den Krieg. Tun Sie dies zumindest, um der ganzen Welt zu zeigen, dass es in Russland Menschen gab, gibt und geben wird, die die von den Machthabern begangene Niederträchtigkeit nicht akzeptieren werden, die den Staat und die Völker Russlands selbst zu einem Instrument ihrer Verbrechen gemacht haben. "

Am Tag 9 des Krieges um 12:00 h haben bereits 1 175 786 Menscchen ihre Unterschriften unter den Aufruf gesetzt, um 23:00 waren es 1.181.101, Tendenz weiter steigend. Abbildung 1.

Wir sind nicht allein - My ne odni

Die Webseite https://we-are-not-alone.ru/ hat eine Liste der zahlreichen russischen Petitionen gegen den Krieg in der Ukraine erstellt mit Links zu den Originaldokumenten - die meisten auf der Plattform https://docs.google.com/ - und laufend aktualisierten Zahlen der Unterzeichner. Die Seite gibt an:

"Wir möchten, dass Sie wissen, dass Lehrer und Nobelpreisträger, Ärzte und Designer, Journalisten und Architekten, Schriftsteller und Entwickler, Menschen aus dem ganzen Land bei Ihnen sind. Wir sind nicht alleine"

Gestern nachts hat diese Webseite noch funktioniert, heute kann sie leider nicht mehr aufgerufen werden. Laut  https://ura.newssind diverse Medienportale - u.a. we are not alone.ru - in der Ukraine einem Cyberangriff zum Opfer gefallen.

Proteste aus ganz Russland

Bis gestern war es einfach die "offenen Briefe" diverser Berufsgruppen/Institutionen von der Seite https://we-are-not-alone.ru/ abzurufen. Einige dieser Texte sollen als Beispiele für den furchtlosen Protest russischer Bürger dienen (s. unten). Mit Stand 3.3.2022 hatten bereits mehr als 156 000 Mitglieder einzelner Berufsgruppen Aufrufe gegen den Krieg mit der Ukraine unterschrieben; die Tendenz war stark steigend. Zur Veranschaulichung ist eine kleine Auswahl von Berufsgruppen in Abbildung 2. dargestellt.

Abbildung2: Aufrufe "Gegen den Krieg in der Ukraine" von Migliedern der IT-Branche und der Wirtschaft und von Vertretern aus Politik, Recht und Gesellschaft. Berufsgruppen und deren Aufrufe konnten von der nun nicht mehr einsehbaren Seite https://we-are-not-alone.ru/ entnommen werden. Die Zahlen der jeweiligen Unterschriften wurden am 3.3.2022 erhoben.

Zweifellos beweisen zahlreiche Vertreter politischer Parteien, Anwälte aber auch Mitglieder des Klerus den Mut namentlich gegen den Krieg Stellung zu beziehen!

Auch Ärzte und andere im Gesundheitssektor Beschäftigte, Kunst- und Kulturschaffende, Sportler und Vertreter der Freizeitindustrie, Architekten und Designer, Vertreter in allen möglichen Branchen von Industrie, und, und, und,..... wurden aufgerufen die Protestnoten gegen den Krieg zu unterzeichnen und die Zahl der Unterschriften steigt und steigt.

Eine Auswahl von Institutionen und Vertretern aus Wissenschaft und Bildung findet sich in Abbildung 3. Hier sind vor allem Aufrufe von verschiedenen Fakultäten der berühmtesten russischen Universität, der Lomonosow Universiät hervorzuheben.

Abbildung 3: Aufrufe "Gegen den Krieg in der Ukraine" von Vertretern aus Wissenschaft und Bildungssektor. Links zu den einzelnen Aufrufen wurden der nun nicht mehr aufrufbaren Seite https://we-are-not-alone.ru/. entnommen, Die Zahl der jeweiligen Unterschriftenwurde am 3.3.2022 erhoben.

Um einen Eindruck von den Protestschreiben zu gewinnen , sind im Folgenden einige dieser Texte wiedergegeben. (Siehe auch Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg).

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

https://msualumniagainstwar.notion.site/0378ab0a0719486181781e8e2b360180

(Bis jetzt : 5795 Unterschriften)

Wir, Studenten, Doktoranden, Lehrer, Mitarbeiter und Absolventen der ältesten, nach M.V. Lomonosov benannten Universität Russlands, verurteilen kategorisch den Krieg, den unser Land in der Ukraine entfesselt hat.

Russland und unsere Eltern haben uns eine fundierte Ausbildung vermittelt, deren wahrer Wert darin liegt, das Geschehen um uns herum kritisch zu bewerten, Argumente abzuwägen, einander zuzuhören und der Wahrheit treu zu bleiben – wissenschaftlich und humanistisch. Wir wissen, wie man die Dinge beim richtigen Namen nennt und wir können uns nicht absentieren.

Das was die Führung der Russischen Föderation in deren Namen als „militärische Spezialoperation“ bezeichnet, ist Krieg, und in dieser Situation ist kein Platz für Euphemismen oder Ausreden. Krieg ist Gewalt, Grausamkeit, Tod, Verlust geliebter Menschen, Ohnmacht und Angst, die durch kein Ziel zu rechtfertigen sind. Krieg ist der grausamste Akt der Entmenschlichung, der, wie wir innerhalb der Mauern von Schulen und Universität gelernt haben, niemals wiederholt werden sollte. Die absoluten Werte des menschlichen Lebens, des Humanismus, der Diplomatie und der friedlichen Lösung von Widersprüchen, wie wir sie an der Universität erfahren durften, wurden sofort mit Füßen getreten und weggeworfen, als Russland auf verräterische Weise in das Territorium der Ukraine eindrang. Seit dem Einmarsch der Streitkräfte der Russischen Föderation in die Ukraine ist das Leben von Millionen Ukrainern stündlich bedroht.

Wir bringen dem ukrainischen Volk unsere Unterstützung zum Ausdruck und verurteilen kategorisch den Krieg, den Russland gegen die Ukraine entfesselt hat.

Als Absolventen der ältesten Universität Russlands wissen wir, dass die Verluste, die in den sechs Tagen eines blutigen Krieges angerichtet wurden – vor allem menschliche, aber auch soziale, wirtschaftliche und kulturelle – irreparabel sind. Wir wissen auch, dass Krieg eine humanitäre Katastrophe ist, aber wir können uns nicht ausmalen, wie tief die Wunde ist, die wir als Volk Russlands dem Volk der Ukraine und uns selbst gerade jetzt zufügen.

Wir fordern, dass die Führung Russlands sofort das Feuer einstellt, das Territorium des souveränen Staates Ukraine verlässt und diesen schändlichen Krieg beendet.

Wir bitten alle russischen Bürger, denen ihre Zukunft am Herzen liegt, sich der Friedensbewegung anzuschließen.

Wir sind gegen Krieg!


Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

https://rb.gy/ppxx09

(Bis jetzt : 1 071 Unterschriften)

Wir Absolventen der Philologiefakultät der Staatlichen Universität Moskau fordern ein sofortiges Ende des Krieges in der Ukraine.

Der Krieg wurde unter Verletzung aller denkbaren internationalen und russischen Gesetze begonnen.

Der Krieg hat bereits zahlreiche Opfer, darunter auch Zivilisten, gefordert und wird zweifellos weitere Opfer fordern.

Der Krieg spiegelt die Entwicklung einer Welt wider, wie sie vor vielen Jahren bestand.

Der Krieg führt zur internationalen Isolation Russlands, die gigantische wirtschaftliche und soziale Folgen haben wird und auch einen verheerenden Schlag der russischen Wissenschaft und Kultur versetzen wird.

Uns wurde beigebracht, Konflikte mit Worten zu lösen, nicht mit Waffen. Vor unseren Augen beginnt die russische Sprache weltweit als Sprache des Aggressors wahrgenommen zu werden, und wir wollen dies nicht auf uns nehmen.

Wir fordern eine sofortige Waffenruhe und eine diplomatische Lösung aller Probleme.


Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine

https://rb.gy/fphkqs

 (Bis jetzt : 3 321 Unterschriften)

Wir, Absolventen, Mitarbeiter und Studenten des Moskauer Instituts für Physik und Technologie, sind gegen den Krieg in der Ukraine und möchten an die Absolventen, Mitarbeiter und das Management des MIPT appellieren.

Seit vielen Jahren wird uns beigebracht, dass unser Institut eine Gemeinschaft ist, in der sich Physiker gegenseitig zu Hilfe kommen. Jetzt ist genau so ein Moment. Wir bitten Sie, Ihre Meinung offen zu äußern und nicht zu schweigen. Wir sind sicher, dass das MIPT diesen sinnlosen und empörenden Krieg nicht unterstützt. Einen Krieg auch gegen ehemalige und jetzige Studenten, MIPT-Mitarbeiter, deren Verwandte und Freunde.

Uns wurde gesagt, dass Physik- und Technologieabteilungen beispielgebend sind. Und wir fordern unser Institut auf, ein Beispiel für andere Universitäten und Organisationen zu werden und das Vorgehen der Führung des Landes und von Präsident Putin öffentlich zu verurteilen. Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Folgen einer Militärinvasion sind katastrophal für die Ukraine, für Russland und möglicherweise für die ganze Welt.

Wir bitten Sie, haben Sie keine Angst sich gegen einen schrecklichen Krieg auszusprechen und alles zu tun, um ihn zu stoppen.

Wir warten auf eine offene Stellungnahme des Managements und der offiziellen Vertreter.

Mit Hoffnung für die Welt


Ein offener Brief russischer Geographen gegen Militäroperationen in der Ukraine

https://rb.gy/cxml9v

  (Bis jetzt : 1 818 Unterschriften)

An Wladimir Putin, Präsident der Russischen Föderation

Wir, Bürger der Russischen Föderation, Geographen, Lehrer, Wissenschaftler, Studenten, Doktoranden und Absolventen, die diesen Appell unterzeichnet haben, sind uns unserer Verantwortung für das Schicksal unseres Landes bewusst und lehnen militärische Operationen auf dem Territorium des souveränen Staates Ukraine kategorisch ab. Wir fordern von allen Seiten einen sofortigen Waffenstillstand und den Abzug russischer Truppen auf russisches Territorium.

Wir halten es für unmoralisch, jetzt zu schweigen, wo jeden Tag und jede Stunde Menschen infolge von Feindseligkeiten sterben. Die Feindseligkeiten bedrohen so gefährdete Standorte wie das Kernkraftwerk Tschernobyl, Wasserkraftwerke am Dnjepr und die einzigartigen Biosphärenreservate der Ukraine. Im 21. Jahrhundert ist es nicht akzeptabel, politische Konflikte mit Waffen in der Hand zu lösen; alle Widersprüche innerhalb der Ukraine und zwischen unseren Staaten sollten nur durch Verhandlungen gelöst werden. Egal, was die Invasion russischer Truppen rechtfertigt, alle Russen und zukünftige Generationen von Russen werden dafür bezahlen.

Die Militäroperation macht die langjährigen Bemühungen von Geographen und anderen Experten zur Erhaltung von Landschaften, zur Bekämpfung des Klimawandels, zur Schaffung besonders geschützter Naturgebiete, zur Analyse und Planung der friedlichen territorialen Entwicklung der Volkswirtschaften Russlands und der Ukraine und ihrer grenzüberschreitenden Zusammenarbeit sinnlos . Wir können die Mission der Fortsetzung der friedlichen und harmonischen Entwicklung unseres Landes, seiner Integration in die Weltwirtschaft nicht aufgeben.

Wir wollen unter einem friedlichen Himmel leben, in einem weltoffenen Land und einer weltoffenen Welt, um die wissenschaftliche Forschung für den Frieden und das Wohlergehen unseres Landes und der ganzen Menschheit fortzusetzen.

Die Kämpfe müssen sofort eingestellt werden!


Lehrer gegen Krieg. Ein offener Brief russischer Lehrer gegen den Krieg auf dem Territorium der Ukraine

https://rb.gy/pogi8f

(Bis jetzt rund 4600 Unterschriften)

Jeder Krieg bedeutet Menschenopfer und Zerstörung. Er führt unweigerlich zu massiven Verletzungen der Menschenrechte. Krieg ist eine Katastrophe.

Der Krieg mit der Ukraine, der in der Nacht vom 23. Februar auf den 24. Februar begann, ist nicht unser Krieg. Die Invasion des ukrainischen Territoriums begann für russische Bürger, aber gegen unseren Willen.

Wir sind Lehrer und Gewalt widerspricht dem Wesen unseres Berufs. Unsere Studenten werden in der Hölle des Krieges sterben. Krieg wird unweigerlich zu einer Verschlimmerung der sozialen Probleme in unserem Land führen.

Wir unterstützen Anti-Kriegsproteste und fordern eine sofortige Waffenruhe.


Ausblick

Eben melden unsere Medien, dass Moskau in Sachen Meinungsfreiheit im eigenen Land die Daumenschrauben weiter anzieht (https://orf.at/stories/3251037/ ). Das Parlament hat ein Gesetz auf den Weg gebracht, das die Verbreitung von „Falschinformationen“ über die Streitkräfte und deren Diskreditierung unter strenge Strafen stellt. Des weiteren wurde der Zugang zu social media wie Facebook und Twitter blockiert.

Kann dieses neue Gesetz den Protest der Russen zum Schweigen bringen?

inge Sat, 05.03.2022 - 01:04

Comments

Wenige Stunden nach Erscheinen von einigen der zahlreichen Aufrufe im Blog sind diese bereits gelöscht oder blockiert:

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

Der Appell wurde (um 00:10, 5. März 2022) von mehr als 7.500 Absolventen, Mitarbeitern und Studenten der Staatlichen Universität Moskau unterzeichnet. Namensunterschriften werden vorübergehend ausgeblendet, stehen aber den Beschwerdeführern zur Verfügung.

------------------------------------------

Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

* UPDATE VOM 03.05.2022 (21.43 Uhr Moskauer Zeit): Aus Angst, dass die Unterzeichner des Schreibens von den russischen Behörden verfolgt würden, habe ich als Initiator der Unterschriftensammlung beschlossen, sie zu verbergen. Alexander Berdichevsky, PhD, Jahrgang 2007.*

-------------------------------------------

Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine https://rb.gy/fphkqs

Wir sind in Sorge um die Sicherheit derer, die diesen Brief unterzeichnet haben. Sie laufen Gefahr, unter ein neues Gesetz zu fallen, das die Diskreditierung des russischen Militärs und die Behinderung seines Einsatzes bestraft. Seine Verletzung ist mit Geld- und Freiheitsstrafen von bis zu 15 Jahren Gefängnis verbunden. Daher haben wir den Text des Schreibens gelöscht und das Aufnahmeformular geschlossen.

-------------------------------------------------

Ein offener Brief gegen den Krieg [jetzt können wir nicht genau sagen, welcher] wurde von 5.000 russischen Lehrern unterzeichnet

Wir haben den vollständigen Text des Appells von russischen Lehrern entfernt, da am 4. März ein neues Gesetz verabschiedet wurde. Jetzt kann eine Person für Antikriegsappelle verwaltungs- oder strafrechtlich bestraft werden. Aber wir sind sicher, dass der Krieg eine Katastrophe ist und beendet werden muss.

-------------------------------------------------

Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg

Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg

Mo, 28.02.2022 — Redaktion

RedaktionIcon Friede In einem an die weltweite Öffentlichkeit gerichteten "offenem Brief" auf der Webseite https://trv-science.ru protestieren russische Wissenschaftler und Wissenschaftsjournalisten gegen die Invasion Russlands in der Ukraine: "Wir fordern einen sofortigen Stopp aller gegen die Ukraine gerichteten Militäroperationen". Bei den meisten, der auf der Webseite ersichtlichen ersten rund 100 Unterzeichner handelt es sich um Top-Wissenschaftler des Landes (viele sind Physiker, Chemiker, Mathematiker, Biologen), die der Russischen Akademie der Wissenschaften angehören. Inzwischen haben bereits 7400 (Stand 4.3.2022; 12:50) Wissenschaftler und Journalisten den Brief unterzeichnet. Kann der Kreml einen Protest so vieler Spitzenwissenschaftler ignorieren? *

Ein offener Brief russischer Wissenschaftler und Wissenschaftsjournalisten gegen den Krieg mit der Ukraine

Wir russischen Wissenschaftler und Wissenschaftsjournalisten protestieren mit Nachdruck gegen die von den Streitkräften unseres Landes begonnene militärische Offensive auf dem Territorium der Ukraine. Dieser fatale Schritt führt zu enormen Verlusten an Menschenleben und untergräbt die Grundlagen des etablierten Systems der internationalen Sicherheit. Die Verantwortung für die Entfesselung eines neuen Krieges in Europa liegt ausschließlich bei Russland.

Abbildung 1: Der offene Brief der russischen Wissenschaftler und Wissenschaftsjournalisten im Faksimile. (Abgerufen am 28.2.2022)

Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Versuche, die Situation im Donbass als Vorwand für eine Militäroperation zu nutzen, sind nicht glaubwürdig. Es ist klar, dass die Ukraine keine Bedrohung für die Sicherheit unseres Landes darstellt. Der Krieg gegen sie ist unfair und offen gesagt sinnlos.

Die Ukraine war und ist ein uns nahestehendes Land. Viele von uns haben Verwandte, Freunde und wissenschaftliche Kollegen, die in der Ukraine leben. Unsere Väter, Großväter und Urgroßväter haben gemeinsam gegen den Nationalsozialismus gekämpft. Für die geopolitischen Ambitionen der Führung der Russischen Föderation einen Krieg zu entfesseln, angetrieben von dubiosen geschichtsphilosophischen Fantasien, ist ein zynischer Verrat an ihrem Andenken.

Wir respektieren die ukrainische Staatlichkeit, die auf tatsächlich funktionierenden demokratischen Institutionen ruht. Wir verstehen die Einstellung unserer Nachbarn zu Europa. Wir sind davon überzeugt, dass alle Probleme in den Beziehungen zwischen unseren Ländern friedlich gelöst werden können.

Mit der Entfesselung des Krieges hat sich Russland selbst zur internationalen Isolation verurteilt, zur Position eines Paria-Landes. Das bedeutet, dass wir Wissenschaftler unsere Arbeit nicht mehr in üblicher Weise erledigen können, denn wissenschaftliche Forschung ist ohne intensive Zusammenarbeit mit Kollegen aus anderen Ländern undenkbar. Die Isolierung Russlands von der Welt bedeutet einen weiteren kulturellen und technologischen Abbau unseres Landes bei völligem Fehlen von positiven Perspektiven. Der Krieg mit der Ukraine ist ein Schritt ins Nirgendwo.

Es ist bitter für uns festzustellen, dass unser Land zusammen mit anderen Republiken der ehemaligen UdSSR, die einen entscheidenden Beitrag zum Sieg über den Nationalsozialismus geleistet haben, nun zum Anstifter eines neuen Krieges auf dem europäischen Kontinent geworden ist.

Wir fordern einen sofortigen Stopp aller gegen die Ukraine gerichteten Militäroperationen.

Wir fordern die Achtung der Souveränität und territorialen Integrität des ukrainischen Staates.

Wir fordern Frieden für unsere Länder.


* Der "offene Brief" der russischen Wissenschaftler ist am 24. Feber 2022 auf der Webseite https://trv-science.ru/2022/02/we-are-against-war/ erschienen. Der russische Text wurde mit Hilfe von google-Übersetzer und Wörterbüchern ins Deutsche übertragen.


Anmerkung der Redaktion

Herausgeber der Webseite "Troitzki-Variant-science"  https://trv-science.ru/ ist der Astrophysiker Boris Stern, Institute of Nuclear Research der Russischen Akademie der Wissenschaften.

trv-science ist auch auf facebook in russisch - deutsche Übersetzungen sind aber durchaus akzeptabel. Hier finden sich weitere Aufrufe zu Protesten gegen den Krieg mit der Ukraine https://www.facebook.com/trvscience/:

inge Mon, 28.02.2022 - 13:28

Comments

Von Vererbung und Entwicklungskontrolle zur Reprogrammierung von Stammzellen

Von Vererbung und Entwicklungskontrolle zur Reprogrammierung von Stammzellen

Do, 17.02.2022 — Christina Beck Christina Beck

Icon Molekularbiologie

Auf adulten Stammzellen ruhen die Hoffnungen der regenerativen Medizin. Es sind dies Stammzellen, die auf ein bestimmtes Gewebe spezialisiert sind und für dessen Erneuerung, Reparatur und den Umbau sorgen. Durch geeignete Kulturbedingungen lassen sie sich in pluripotente Stammzellen reprogrammieren, die sich - wie embryonale Stammzellen - zu beliebigen Zelltypen weiterentwickeln können und mögliche "Ersatzteillager" für alte, defekte Gewebe darstellen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, führt uns auf eine Zeitreise, die von den ersten Erkenntnissen in der Genetik über die Kontrolle von Entwicklungsprozessen bis hin zur Entdeckung von Stammzellen, ihrer Reprogrammierung in beliebige Zelltypen und die Erzeugung organähnlicher Strukturen (Organoiden) führt.*

Eine Zeitreise, die im Jahr 1864 beginnt, zeigt, wie der Erkenntnisfortschritt in der Genetik funktioniert: Im Klostergarten des Augustinerstifts in Alt-Brünn führt der Mönch Johann Gregor Mendel Kreuzungsversuche u.a. mit Erbsen durch. Dabei stößt er auf Gesetzmäßigkeiten, nach denen bestimmte Merkmale von Generation zu Generation weitergegeben werden. Mendel schickt seine Arbeit an einen namhaften Biologen, der diese – wohl auch aus Abneigung gegen die Mathematik – mit ablehnendem Kommentar zurücksendet. 1865 wird der Aufsatz dann doch noch vom Brünner Naturforschenden Verein veröffentlicht, ohne jedoch größere Aufmerksamkeit zu erlangen. Erst ein Zufall bringt Mendels Arbeit im Jahr 1900 an die wissenschaftliche Öffentlichkeit.

Seither plagen sich ganze Schülergenerationen mit den Mendelschen Regeln – und der dazugehörigen Mathematik. Die Chromosomen, die an der Vererbung beteiligten Grundstrukturen, sind in den achtziger Jahren des 19. Jahrhunderts von Walter Fleming entdeckt und untersucht worden. Doch niemand ahnt zu diesem Zeitpunkt, dass sie mit der Vererbung zu tun haben könnten. Auch die Desoxyribonukleinsäure (DNA) in Zellkernen ist durch die Entdeckung von Friedrich Miescher bereits seit 1869 bekannt. Aber erst die wissenschaftlichen Fortschritte im 20. Jahrhundert lassen die Zusammenhänge sichtbar werden: das Zeitalter der Gene beginnt.

1907 startet Thomas Hunt Morgan Züchtungsversuche an der Taufliege Drosophila. Morgan gelingt es zu zeigen, dass Gene, die sich entlang der Chromosomen aneinanderreihen, die Träger der Vererbung sind. Die Natur dieser „Gene“ ist zu diesem Zeitpunkt jedoch noch vollkommen unklar. Es dauert fast vierzig Jahre, bis der US-Amerikaner Oswald Avery nachweisen kann, dass die Weitergabe erblicher Information von einem Bakterien-Stamm auf einen anderen auf der Übertragung von DNA beruht. 1953 entwickeln James Watson und Francis Crick das Doppelhelix-Modell der DNA, bei dem sich zwei DNA-Fadenmoleküle schrauben förmig umeinanderwinden mit den Basenpaaren in der Mitte. Dieses Modell ist der Schlüssel zum Verständnis des genetischen Codes und bedeutet den Durchbruch für die genetische Forschung. Zusammen mit Maurice Wilkins erhalten die beiden Wissenschaftler dafür 1962 den Nobelpreis für Medizin.

Es hat also fast hundert Jahre gedauert, um die verschiedenen Puzzleteile zusammenzufügen. Wir wissen jetzt, dass die DNA die Basen Adenin, Thymin, Guanin und Cytosin enthält. Die Reihenfolge der Basen bedingt in verschlüsselter Form die Zusammensetzung der Proteine: Jeweils drei Basen der DNA bestimmen eine Aminosäure im Protein. Insgesamt kennt man zwanzig verschiedene Aminosäuren, die sich im menschlichen Körper zu Tausenden von Proteinen zusammenbauen lassen.

Die Suche nach dem Fehler

Proteine stellen die eigentlichen Bau- und Wirkstoffe der Zellen dar – sie bedingen am Ende die Eigenschaften, die das Leben ausmachen. Gene machen ihren Einfluss geltend, indem sie kontrollieren, welche Proteine zu welchem Zeitpunkt und an welchem Ort hergestellt werden. Sie steuern damit Zellverhalten und Entwicklung, das heißt, wie Zellen auf geordnete Weise verschieden werden.

Wie das genau funktioniert, wollen Ende der 1970er Jahre Christiane Nüsslein-Volhard und Eric Wieschaus am Europäischen Laboratorium für Molekularbiologie (EMBL) in Heidelberg herausfinden. Systematisch suchen sie nach mutierten Genen, die auf die embryonale Entwicklung der Taufliege Drosophila einwirken. In umfangreichen Screenings erforschen sie die Nachkommenschaft Tausender einzelner Fliegen (Abbildung 1) unter dem Mikroskop, eine Sisyphus-Arbeit.

Abbildung 1: Der Schlüssel zum Verstehen. Eine der interessantesten Quellen zum Verständnis des menschlichen Genoms bietet der Vergleich mit dem Genom von Modellorganismen wie der Taufliege. Die Funktionen vieler Gene sind bei Drosophila nämlich aufgrund von Experimenten bekannt. © Pavel Masek

Sie finden Fliegen, die an beiden Körperenden einen Kopf aufweisen, denen Brust- und Hinterleibssegmente fehlen oder die anstelle der Fühler ein Beinpaar auf dem Kopf tragen. Die Defekte lassen sich in drei Kategorien einteilen: sie beeinflussen entweder die Polarität, also die Ausrichtung des Embryos, seine Segmentierung oder die Positionierung von Strukturen innerhalb eines Segments. Die dreiteilige Klassifikation der Gene könnte, so die Hypothese, die schrittweise Verfeinerung des Körperbauplans in der frühen Embryogenese widerspiegeln. Bei ihren Arbeiten können sich die beiden Entwicklungsbiologen nur auf die beschreibende Analyse von Phänotypen stützen. Erst die molekularbiologischen Methoden der Genklonierung in den späten 1980er Jahren ermöglichen die Charakterisierung vieler Entwicklungsmutanten auf Molekülebene und erbringen schließlich den eindeutigen Beweis für die Richtigkeit der Hypothese. Ihre Ergebnisse markieren einen Wendepunkt in der Embryologie und werden deshalb 1995 mit dem Nobelpreis für Medizin ausgezeichnet.

Alles unter Kontrolle

Inzwischen sind etwa 150 entwicklungsregulierende Gene beschrieben worden, die die grobe Morphologie von Drosophila beeinflussen. Viele der Gene kodieren für sogenannte Transkriptionsfaktoren. Sie besitzen die Fähigkeit, im Zellkern an die DNA zu binden und so Gene an- oder abzuschalten. Auf diese Weise steuern Transkriptionsfaktoren die Produktion von Proteinen in der Zelle, die diese für die Wahrnehmung ihrer spezifischen Aufgaben benötigt. Nun ist nicht anzunehmen, dass die kleine Taufliege ein Patent für diesen Mechanismus der Entwicklungskontrolle besitzt. Forschende haben deshalb auch im Erbgut anderer Organismen nach Entwicklungskontrollgenen gefahndet: Im Genom von Wirbeltieren stoßen sie auf Sequenzbereiche, deren Sequenzen deckungsgleich mit den Entwicklungsgenen von Drosophila sind. Aus dieser strukturellen Homologie lässt sich aber nicht unmittelbar auch auf eine funktionelle Homologie schließen; denn entwicklungsgeschichtlich gesehen ist Drosophila ein Oldtimer. Die homologen Sequenzen könnten, obgleich noch strukturell bewahrt, ihre ursprüngliche Bedeutung längst verloren haben.

In einem Schlüsselexperiment können Peter Gruss und sein Team am Max-Planck-Institut für biophysikalische Chemie in Göttingen zeigen, dass Entwicklungskontrollgene von Drosophila auch bei der Maus funktionieren. Die molekularen Steuerungsmechanismen sind also über mehr als 600 Millionen Jahre der Evolution erhalten geblieben. Die Untersuchung von Genen mit Homologie zu Drosophila-Genen wird in den neunziger Jahren des 20. Jahrhunderts einer der erfolgreichsten Ansätze, um auch die Kontrolle der Entwicklung bei Wirbeltieren auf genetischem Niveau zu verstehen. Eine Voraussetzung für diese wegweisenden Experimente war die erfolgreiche Gewinnung und Kultivierung embryonaler Stammzellen bei der Maus.

Toti-, Pluri- und Multi-Talente

Was sind Stammzellen?

Abhängig von der Säugetierart können bis zum 8-Zellstadium (nach drei Zellteilungen) die aus einer befruchteten Eizelle hervorgegangenen Tochterzellen, jede für sich alleine einen kompletten Organismus aufbauen. Sie sind totipotent. Zu späteren Stadien geht diese Fähigkeit jedoch allmählich verloren. Im sogenannten Blastozysten-Stadium besteht die innere Zellmasse, der Embryonalknoten, aus pluripotenten Stammzellen. Diese sind zwar nicht mehr totipotent, ihr Differenzierungspotenzial ist jedoch nach wie vor sehr groß. Aus diesen Vielkönnern entstehen im Verlauf der weiteren Embryonalentwicklung nämlich alle im Organismus benötigten Zelltypen. Aus dem Embryonalknoten lassen sich embryonale Stammzellen gewinnen. So werden pluripotente Stammzellen genannt, die als Zelllinie im Labor wachsen. Wie die pluripotenten Stammzellen in der Blastozyste können diese auch in der Kulturschale durch Zugabe bestimmter Wachstumsfaktoren alle Zelltypen des Körpers bilden.

Darüber hinaus finden sich in vielen Geweben des ausgewachsenen Organismus adulte Stammzellen. Sie sorgen für den gewebespezifischen Ersatz von ausgefallenen Zellen. So wird beispielsweise die Haut alle 28 Tage einmal „runderneuert“ – was nach einem Sonnenbrand durchaus hilfreich ist. Im Blut werden innerhalb von 24 Stunden mehrere Milliarden Zellen durch neue ersetzt und auch Muskelgewebe wird, beispielsweise nach Muskelabbau infolge eines Beinbruchs, regeneriert. Das Entwicklungspotenzial dieser Stammzellen gilt aber als eingeschränkt und man bezeichnet sie daher, je nachdem wie stark ihr Potential eingeschränkt ist, als multi- bzw. unipotent.

Streit um Stammzellen

1998 gelingt es dem US-Amerikaner James Thomson und seinem Team erstmals, auch aus menschlichen Embryonen pluripotente Stammzellen zu isolieren und durch Zugabe bestimmter Substanzen zum Nährmedium ihre weitere Ausdifferenzierung in Laborkultur zu verhindern. Über viele Jahre hinweg können so humane embryonale Stammzellen (hES) kultiviert werden und dabei ihre Pluripotenz erhalten, also ihre Fähigkeit, sich in eine Vielzahl von Zelltypen weiterzuentwickeln. Diese Ergebnisse nähren die Hoffnung, dass es gelingen könnte, beschädigte Gewebe mit Hilfe von Stammzellen zu ersetzen und somit Krankheiten wie Schlaganfall, Parkinson, Alzheimer, Osteoporose, Herzinfarkt oder Diabetes zu behandeln.

An einer Ausweitung der Forschung mit menschlichen embryonalen Stammzellen entzündet sich Ende der 1990er Jahre jedoch eine heftige Debatte. Ethisch umstritten ist vor allem die Herstellung der Zelllinien: Menschliche embryonale Stammzellen werden aus überzähligen Embryonen gewonnen, die im Rahmen von künstlichen Befruchtungen entstanden sind. In Deutschland ist die Gewinnung embryonaler Stammzellen aus menschlichen Embryonen verboten. Das 2001 beschlossene Stammzellgesetz erlaubt jedoch die Einfuhr und Verwendung solcher Stammzellen zu genehmigungspflichtigen Forschungszwecken. Mit der im Frühjahr 2008 beschlossenen Gesetzesnovelle wurde der Stichtag bezüglich der Herstellung humaner embryonaler Stammzelllinien verschoben. Seitdem dürfen nur solche Linien importiert werden, die vor dem 1. Mai 2007 gewonnen wurden.

A(du)lte Zellen reprogrammiert

Doch Wissenschaft steht nicht still und schickt sich an, auch als unverrückbar geglaubte Dogmen zu stürzen und so ganz neue Optionen zu eröffnen: 2006 gelingt es dem Japaner Shinya Yamanaka und seinem Team an der Universität Kyoto, Hautzellen einer Maus so umzuprogrammieren, dass sie sich wie embryonale Stammzellen verhalten. Ein Jahr später schaffen sie dieses Kunststück auch mit menschlichen Zellen – und kippen damit endgültig das uralte Dogma der Biologie, wonach spezialisierte Zellen nicht wieder in eine ursprüngliche Zelle umgewandelt werden können. Um die begehrten Multitalente zu erzeugen, haben die Japaner mithilfe viraler Genfähren vier Transkriptionsfaktoren mit den kryptischen Kürzeln Oct4, Sox2, Klf4 und cMyc in die Zellen eingeschleust – also jene entwicklungsregulierenden Gene, denen die Forscher schon länger auf der Spur sind. Die so entstandenen Zellen werden als induzierte pluripotente Stammzellen, kurz iPS bezeichnet (Abbildung 2). Weltweit gilt dies als detektivische Meisterleistung. Schließlich wusste bis dahin niemand, ob und wenn ja, mit welchen Faktoren sich eine Zelle überhaupt reprogrammieren lässt. 24 Kandidaten in allen erdenklichen Kombinationen testeten die Japaner, bis sie die richtige Kombination von vier Faktoren – salopp auch als Yamanaka-Cocktail bezeichnet – gefunden hatten, mit der genau jene Gene angeschaltet und abgelesen werden, die zur Pluripotenz führen. Für diesen wissenschaftlichen Durchbruch erhält Shinya Yamanaka bereits sechs Jahre später, im Jahre 2012, den Nobelpreis für Medizin.

Abbildung2: Vom Spezialisten zum Alleskönner. Die Zugabe von vier Wachstumsfaktoren reicht aus, um aus Körperzellen wieder Alleskönner-Zellen zu machen. Diese pluripotenten Stammzellen sind in der Lage, sich zu einem beliebigen Zelltyp weiterzuentwickeln. © University of Utah

2009 gelingt es dem Team um Hans Schöler, Direktor am Max-Planck-Institut für molekulare Biomedizin in Münster, adulte Stammzellen aus dem Gehirn von Mäusen durch Zufügen eines einzigen Transkriptionsfaktors, des Oct4, in induzierte pluripotente Stammzellen (iPS-Zellen) umzuwandeln – sie brauchen lediglich etwas mehr Geduld, bis der Prozess der Reprogrammierung abgeschlossen ist. Oct4 scheint dabei eine Schlüsselrolle zu spielen: „Das Gen ist in allen pluripotenten Zellen des Embryos aktiv“, sagt Schöler. Dabei regulieren sich Oct4, Sox2 und zahlreiche andere Gene bzw. Proteine gegenseitig. Wie genau, wird immer noch in zahlreichen Laboren untersucht. Und wie so oft sind die Zusammenhänge komplizierter als ursprünglich gedacht. So haben Schöler und sein Team inzwischen herausgefunden hat, dass Oct4 für die ersten einleitenden Schritte von Pluripotenz gar nicht benötigt wird – weder in der sich entwickelnden Maus noch bei der Reprogrammierung. Ohne Oct4 ist Pluripotenz allerdings auch nicht möglich: „Es wird dann essenziell, wenn die Pluripotenz von Zellen aufrechterhalten werden muss“, erklärt Schöler.

Ersatzteillager bald praxistauglich?

Die Reprogrammierung von menschlichen Körperzellen zu humanen iPS-Zellen (hiPS) stellt nicht nur einen Durchbruch für die Forschung dar, sondern hat auch die teilweise sehr erhitzte Debatte um embryonale Stammzellen beruhigt. Dazu kommt, dass die Reprogrammierungs-Technik durch weitere Forschungen in rasantem Tempo praxisfreundlicher wird.

So gelang es dem Max-Planck-Team zusammen mit kalifornischen Wissenschaftlerinnen und Wissenschaftlern Zellen ohne virale Gen-Fähren in iPS-Zellen umzuwandeln. Dazu schleusten sie die entsprechenden Proteine direkt in die Hautzellen von Mäusen ein. „Das ist nicht trivial, denn zumindest im molekularen Maßstab sind Proteine extrem groß“, so Schöler. Doch ein Trick half: Sie koppelten eine kleine Kette aus Bausteinen der Aminosäure Arginin an die zuvor eigens in Bakterien hergestellten Proteine. Dieses molekulare Zugangsticket erleichtert deren Eintritt in die Zellen.

Die Zugabe der Proteine birgt nach heutigen Kenntnissen kein Risiko – auch weil sie im Inneren der Zelle recht schnell abgebaut werden. „piPS-Zellen“ haben die Forscher ihre neuen Kreationen getauft: Protein induzierte pluripotente Stammzellen. Inzwischen haben andere Labore auch Verfahren entwickelt, die die chemische Reprogrammierung von iPS-Zellen („ciPS-Zellen“) erlauben. Vor dem Hintergrund einer therapeutischen Anwendung am Menschen scheint damit eines der Kernprobleme der Zell-Reprogrammierung gelöst. „Wir haben jetzt den Fuß in der Tür, aber die Verfahren müssen noch wesentlich effizienter werden“, betont Schöler. Die Hoffnung der Forschenden ist zumindest rein technisch gesehen nicht mehr utopisch:

      Sie wollen Patienten mit Herzinfarkt, Diabetes, Parkinson oder anderen Erkrankungen eines Tages Zellen entnehmen, sie in iPS-Zellen umprogrammieren und diese dann wiederum in die gewünschten Zelltypen umwandeln, um das kranke oder verletzte Gewebe durch frische und vitale Zellen zu ersetzen. Damit gäbe es dann endlich das gewünschte Ersatzteillager aus Zellen, die vom Patienten selbst stammen und von seinem Immunsystem nicht abgestoßen werden.

Tatsächlich hat die US-Gesundheitsbehörde FDA mittlerweile grünes Licht für den Start einer klinische Phase-I-Studie gegeben, die aus pluripotenten Stammzellen gewonnene Dopamin-Neurone für die Behandlung der fortgeschrittenen Parkinson-Krankheit nutzen will.

Der Jungbrunnen – ein Menschheitstraum

Abbildung3: Organ-Modelle der Zukunft. Gehirn-Organoide in der Petrischale. Mit zunehmenden Alter wird die Komplexität der Organoide größer. Zu Beginn bestehen sie aus neuralen Stamm- und Vorläuferzellen. Nach 70 Tagen dominieren reife und junge Nervenzellen sowie Gliazellen. © T. Rauen, MPI für molekulare Biomedizin

Inzwischen denken Wissenschaftlerinnen und Wissenschaftler darüber nach, wie man Zellen direkt im Körper reprogrammieren kann. Gerade der Verlust an Stammzellen im gealterten Körper macht solche Überlegungen attraktiv. Wie schön und gesundheitlich wichtig wäre es, wenn man im Alter noch genug Kraft in den Armen und Beinen hätte. Als Modellsystem nutzen Forscher u.a. sogenannte menschliche Organoide, das sind aus Stammzellen abgeleitete Organ-ähnliche Strukturen (Abbildung 3).

Das Team um Hans Schöler setzt beispielsweise Gehirnorganoide ein, um einerseits Medikamente gegen Parkinson zu finden, andererseits um Verfahren der „Zellverjüngung“ direkt im Körper zu entwickeln. Ein wichtiges Hilfsmittel dazu ist das von ihnen im Jahr 2020 publizierte vollautomatisierte Verfahren der Organoid-Züchtung. Die uralte Vision eines „Jungbrunnens“ könnte so vielleicht doch noch Wirklichkeit werden.


 *Der Artikel ist erstmals unter dem Titel: "Der Griff nach den Genen. Wie sich Zellen neu programmieren lassen" https://www.max-wissen.de/max-hefte/biomax-10-stammzellen/ in BIOMAX Ausgabe 10, Neuauflage Herbst 2021 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links


Stammzellen in ScienceBlog.at:

inge Thu, 17.02.2022 - 12:38

Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie

Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie

Sa 12.02.2022  — Inge Schuster

Inge Schuster Icon Medizin Wesentliche Fragen zu Übertragung und Verlauf der Infektion mit SARS-CoV-2 konnten bislang nicht geklärt werden. Aus der ethisch umstrittenen britischen Challenge-Studie konnten erstmals konkrete Aussagen über den gesamten Verlauf der Infektion, insbesondere über deren frühe Phasen und Infektiosität getroffen werden, die in die Überlegungen zu verbesserten Teststrategien einfließen sollten. In dieser Studie wurden 34 junge, gesunde Probanden mit einer sehr niedrigen Dosis des Coronavirus (einer "prä-alpha" Variante) inokuliert, wovon 18 Probanden eine Infektion davontrugen, die zu vorübergehenden, leichten bis mittelschweren Symptomen führte. Es zeigte sich, dass früher als bisher angenommen (aktives) Virus im Rachenraum und dann in den Nasenhöhlen detektierbar wird und damit die Infektiosität - für die ein Nasentröpfchen reicht - früher als erwartet einsetzen kann, dass es sehr schnell zu einem sehr hohen Anstieg der Viruslast vor allem in der Nase kommt und Symptome offensichtlich nicht direkt mit der Viruslast korreliert sind. Besonders erwähnenswert: Die Infektion führt bei einem hohen Anteil auch junger, gesunder Menschen zu (sehr) lang anhaltenden Beeinträchtigungen des Geruchsinns: In dieser Studie waren zwei Drittel der Infizierten davon betroffen.

Nach nunmehr 2 Jahren Corona-Pandemie mit nahezu 400 Millionen Infizierten, über 5,7 Millionen an/mit COVID-19 Verstorbenen und einem bisher nie dagewesenen globalen Forschungsaufwand, der uns neuartige, hochwirksame Vakzinen und wirksame antivirale Medikamente bescherte, sind wesentliche Fragen zu Übertragung und Verlauf der Infektion bislang ungeklärt geblieben. Eine sogenannte Human-Challenge-Studie sollte hier Einblick schaffen, d.i. eine Studie, bei der gesunde Menschen gezielt dem Virus ausgesetzt werden, um Zeitverlauf (die Kinetik) der Infektion, Viruslast, Infektiosität und Krankheitssymptome quantitativ erfassen zu können. In weiterer Folge lässt sich dann untersuchen, wieweit eine Infektion durch Impfstoffe oder Medikamente unterdrückt werden kann. Mit einer relativ kleinen Zahl an Studienteilnehmern kann so zeit-und kostensparend zwischen potentiellen Vakzinen/Medikamenten selektiert und optimiert werden. Die erste derartige Challenge Studie mit SARS-CoV-2 startete im März 2021 in Großbritannien, ihre (vorläufigen) Ergebnisse wurden vorige Woche auf einem preprint Server von Springer Nature publiziert (sind also noch nicht peer-reviewed) [1].

Ethische pros und cons

Human-Challenge-Studien konnten bereits in der Vergangenheit die Entwicklung von Therapien in anderen Infektionskrankheiten, wie Typhus, Cholera, Malaria und Influenza wesentlich vorantreiben [2] - als ältestes Beispiel kann wohl die Geburtsstunde der Vakzinologie - die 1798 von Edward Jenner durchgeführte Impfung mit Kuhpocken - gesehen werden, die schlussendlich zur Ausrottung der Pocken führte. Solche Studien werden heute vom ethischen Standpunkte aus kontrovers diskutiert: einem für die öffentliche Gesundheit äußerst wertvollen Erkenntnisgewinn steht das vielleicht sehr hohes Risiko gegenüber gesunde freiwillige Probanden schwerkrank zu machen. Dabei werden freilich Erinnerungen an verbrecherische Untersuchungen auch aus jüngerer Zeit wach, die an Personen ohne deren Information und Einverständnis stattfanden - Häftlinge, Kriegsgefangene, aber auch geistig zurückgebliebene Patienten in psychiatrischen Anstalten waren die bedauernswerten Opfer.

Auch im Vorfeld der Human Challenge Studien mit SARS-CoV-2 hat es ernste Bedenken gegeben, beispielsweise hat John Mascola, Direktor am NIH-Vaccine Research Center (VRC), im Juli 2020 dazu geäußert: "Für Challenge-Studien wäre es vorzuziehen, eine sehr wirksame Behandlung mit synthetischen Arzneimitteln oder Antikörpern zur Hand zu haben. Wenn jemand krank wird, kann man sehr schnell mit den Behandlungen gegen die Infektion beginnen. Wir haben keine kurativen Behandlungen, daher sind wir derzeit noch nicht für COVID-19-Challenge-Studien gerüstet"[3].

Tatsächlich war damals erst eine einzige antivirale Substanz - Remdesivir - zur Behandlung zugelassen, die sich später in zahlreichen Studien allerdings als wenig bis völlig unwirksam herausstellen sollte (so auch in der Challenge-Studie, s. Abbildung 2). Ab Dezember 2020 stand dann auch ein Antikörpercocktail von Regeneron zur Verfügung, der vor schweren Krankheitsverläufen schützen sollte (auch Präsident Trump wurde damit behandelt).

Die britische Challenge-Studie

Bereits im Oktober 2020 kündigte ein britisches Forscherteam die erste Human-Challenge-Studie mit dem Coronavirus an. Das Versuchsprotokoll sah eine streng kontrollierte klinische Untersuchung unter Quarantänebedingungen an jungen gesunden Freiwilligen vor, die mit einer definierten niedrigen Dosis eines gut charakterisierten Virus infiziert werden sollten. Die Ethikkommission der UK Health Research Behörde genehmigte im Feber 2021 die den internationalen Ethikrichtlinien (incl. der Helsinki-Deklaration) genügende Studie und diese startete im März 2021, finanziert von der britischen Regierung mit rund 40 Millionen €. Unter der Leitung des Imperial College London waren mehrere britische Forschungsinstitutionen daran beteiligt, in Partnerschaft mit dem kommerziellen Unternehmer hVIVO Services Ltd.(Teil von Open Orphan), der weltweit als Pionier und führender Experte für das Testen von Impfstoffen und antiviralen Medikamenten in Human Challenge-Studien gilt.

Das Interesse an der Studie war groß, nahezu 30 000 Personen registrierten sich als potentielle Teilnehmer; von diesen wurden in einem Screening-Verfahren 34 junge, gesunde Personen (26 Männer, 8 Frauen) im Alter von 18 - 29 Jahren ausgewählt; diese hatten noch keine SARS-CoV-2 Infektion hinter sich und waren auch nicht dagegen geimpft. Das Design der Studie ist in Abbildung 1 skizziert

Abbildung 1: Design der klinischen Challenge Studie. Bild aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Bereits 2 Tage vor der Infektion mit dem Virus bezogen die Freiwilligen Einzelzimmer mit 24stündiger medizinischer Überwachung in der Quarantänestation des Royal Free London NHS Foundation Trust. Die Inokulation mit dem Virus erfolgte in die Nasenhöhle mit einem Tröpfchen der niedrigsten noch quantifizierbaren Dosis einer Variante, die noch weitgehend dem ursprünglichen Wildtyp entsprach ("prä-Alpha-Variante). Täglich zweimal entnommene Nasen-und Rachenabstriche (in jeweils 3 ml Medium) ermöglichten Infektionsverlauf und Viruslast zu bestimmen. Auftretende Symptome haben die Probanden 3 x täglich in einem Tagebuch notiert. Zur Sicherheit der Probanden wurden tägliche Bluttests, Lungenfunktionstests, Tests auf diverse klinische Parameter, EKGs und Thorax-CTs durchgeführt. Beeinträchtigungen des Geruchsinns wurden mittels des von der University of Pennsylvania entwickelten Smell Identification Tests (UPSITs) festgestellt. Die Probanden blieben mindesten 14 Tage nach Inokulation in Quarantäne und wurden erst entlassen, wenn an 2 aufeinanderfolgenden Tagen kein Virus in den Nasen-/Rachen-Abstrichen mehr nachweisbar war. Weitere Tests erfolgten nach 28 Tagen und sollen auch noch nach einem Jahr stattfinden.

Als Kompensation für die Teilnahme an der Studie wurden 4500 Pfund pro Proband vorgesehen.

Der Infektionsverlauf

Erstmals konnte ein Einblick in die Anfangsphase der Infektion gewonnen werden, d.i. wie lang es nach dem definierten Zeitpunkt der Inokulation dauert bis Virusausscheidung detektierbar wird, Infektiosität eintritt (Latenzzeit) wie schnell und wie hoch die Virenlast ansteigt und wann es zu Symptomen kommt (Inkubationszeit).

Abbildung 2: Zeitverlauf der Viruslast in Nasen-und Rachenabstrichen. Oben: Bestimmung der Viruslast mittels PCR-Test in Kopien des Nucleocapsid-Gens/ml (blau) und mittels Test auf funktionelles Virus in Kultur in Foci-bildenden Einheiten (FFU)/ml (rot). Unten: Die präventiv verabreichte antivirale Substanz Remdesivir (blau) kann weder die Viruslast reduzieren noch den Zeitverlauf beeinflussen. Die Viruslast ist logarithmisch dargestellt in Form von Mittelwerten+/- Standardabweichung. Bild modifiziert aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Das niederdosierte Inokulum des vermehrungsfähigen Virus (5,5 Mio Kopien/ml, 55 FFU/ml) führte bei 18 der 34 Probanden zur Infektion (das entsprach der angepeilten Inzidenz von 50 %). Bereits früher als man bislang angenommen hat, wurde Virusausscheidung in Nase und Rachen detektierbar: mittels PCR-Test (auf das Nucleocapsid-Gen) und auch mittels des Foci-Forming Tests in Zellkultur auf aktives Virus wurde die Viruslast im Rachen bereits nach 40 Stunden, in der Nase nach 58 Stunden nachgewiesen. Die Virusmengen stiegen dann rasant an, erreichten einen Maximalwert im Rachen von im Mittel 65 Mio Kopien/ml (800 FFU/ml) nach rund 4,7 Tagen und einen um eine Größenordnung höheren Wert von 750 Mio Kopien/ml (8000 FFU/ml) in der Nase nach 6,2 Tagen. Abbildung 2.

Auch der weitere Infektionsverlauf brachte eine neue Erkenntnis: Die Virusausscheidung klang nur langsam ab - auch 14 Tage nach Inokulation war bei allen Infizierten das Virus noch quantifizierbar, sodass bis zur fehlenden Detektierbarkeit die Quarantäne noch bis zu 5 Tage länger andauern musste.

Remdesivir erweist sich als wirkungslos

In der Hoffnung mit dem antiviralen Medikament Remdesivir den Infektionsverlauf beeinflussen zu können, wurden 10 Teilnehmer präventiv - sobald das Virus in den Abstrichen detektierbar wurde - über 5 Tage mit täglich 200 mg der Substanz behandelt. Weder der Zeitverlauf noch die Höhe der Viruslast zeigten einen Unterschied zu den nicht mit Remdesivir Behandelten (Abbildung 2). Auch hinsichtlich der Symptome gab es keinen Unterschied.

Bildung von Antikörpern

In allen infizierten Probanden hat das Immunsystem mit der Bildung von Virus-neutralisierenden - also vor der Vermehrung des Virus schützenden - Antikörpern geantwortet. Gesamt gesehen stieg deren Serumspiegel in den ersten beiden Wochen nach Infektion rasch an, um sich dann bis zum 28. Tag nur mehr zu verdoppeln. Abbildung 3. Speziell gegen das Spikeprotein, mit dem das Virus an unsere Zellen andockt, entstanden Antikörper wesentlich langsamer und zeigten dabei große individuelle Unterschiede im Zeitverlauf. Im Mittel erfolgte dann zwischen 14. und 28. Tag nach Infektion ein Anstieg der Spikeprotein- Antikörper auf das 10-fache.

Abbildung 3: Neutralisierende Antikörper (links, gemessen im Serum mittels Mikroneutralisationstest; NT50: Verdünnung des Serums bei der die Virusvermehrung in der Zellkultur um 50 % reduziert wird) und Antikörper speziell gegen das virale Spikeprotein (rechts). Bild modifiziert aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Symptome

Von den 18 Infizierten entwickelten 16 Symptome, die sich 2 - 4 Tage nach Infektion bemerkbar machten. Es gab keine schweren Erkrankungen, keine Veränderungen der Lunge. Der Antikörpercocktail (Regeneron), der zur Behandlung schwerer Fälle hätte dienen können, brauchte nicht eingesetzt werden.

Trotz der stark ansteigenden, sehr hohe Titer erreichenden Virusausscheidung in Nase und Rachen, waren die Symptome leicht bis mittelschwer und zum überwiegenden Teil Erkältungssymptomen ähnlich. Sie betrafen vor allem den oberen Atmungstrakt - verstopfte/rinnende Nase, trockene Kehle - waren aber auch systemisch - Fieber, Muskel-/Gelenksschmerzen, Kopfschmerzen - anzutreffen. Abbildung 4 (rechts).

Ein für COVID-19 charakteristisches Symptom ist die Beeinträchtigung des Geruchsinns. Diese trat bei zwei Drittel (12/18) der infizierten Probanden (nicht aber bei den Nichtinfizierten) auf, bei 9 davon (50 %) kam es zu völligem Riechverlust. Riechminderung/Riechverlust setzte wesentlich später ein als die anderen Symptome und blieb auch länger bestehen (Abbildung 4, lila Kurve). Am Tag 28 berichteten noch 11 Probanden über Beeinträchtigungen, nach 90 Tagen waren es 4 und 5 nach 180 Tagen (Table 1, [1]).

Nach Ablauf eines Jahres sollen die Probanden nochmals auf potentielle Langzeitfolgen der Infektion untersucht werden.

Abbildung 4: Die Infektion mit SARS-CoV-2 hat zu häufigen milden, bis mittelschweren Symptomen geführt, die mit dem Zeitverlauf nicht aber mit der Höhe der Viruslast in Nase und Rachen (siehe Abbildung 2) korrelieren . Dies ist insbesondere für den sehr häufig auftretenden Riechverlust der Fall. Links: Gesamtscore der Symptome der Infizierten (rot), Riechverlust (lila, gemessen mittels University of Pennsylvania Smell Identification Tests - UPSIT). Gesamtscore der Symptome der Nichtinfizierten (schwarz). Bild aus Ben Killingley et al.,[1]. Lizenz cc-by 4.0.

Ausblick

 

Die Challenge-Studie hat gezeigt, dass ein sehr niedriges, gerade noch quantifizierbares Inokulum des aktiven Virus ausreicht, um eine Infektion hervorzurufen. Derartig niedrige Virusmengen können bereits in frühen Infektionsphasen in einem einzigen Nasentröpfchen, in einem Atemlufttröpfchen vorhanden sein, Infizierte früher als angenommen ansteckend sein. (Demzufolge erweist sich wiederum die Mund-Nasenmaske als besonders wirksame Schutzmöglichkeit) Eine wesentliche Frage ist, warum einige Menschen angesteckt werden und andere nicht. Um herauszufinden, welche Faktoren Schutz bieten können, wertet das Forscherteam der Challenge-Studie eine Fülle weiterer Ergebnisse aus, analysiert lokale und systemische immunologische Marker, darunter mögliche kreuzreaktive Antikörper, T-Zellen und lösliche Mediatoren (Cytokine) und molekularbiologische Parameter wie Genexpression.

In Hinblick auf sogenannte Impfdurchbrüche will das Forscherteam in weiteren Challenge-Studien vormals infizierte und geimpfte Probanden mit steigenden Dosierungen des Wildtyps und/oder mit anderen Virusvarianten zu inokulieren, um herauszufinden, welche Faktoren zu einem klinischen Befund führen.

In Zukunft können Challenge-Studien eine Plattform bieten, um im frühen Entwicklungsstadium schnell und effizient antivirale Entwicklungssubstanzen, Impfstoffkandidaten und Diagnostika auf Eignung zu testen und Studien zu vermeiden, die auf einer kontinuierlichen Übertragung der Infektion in der Gemeinschaft beruhen.

-----------------------------------------

Nachsatz (I.S.)

Mit Ausnahme des gestörten Riechsinns hat die Challenge-Studie rasch vorübergehende leichte bis mittelschwere Symptome hervorgerufen. Minderung bis hin zum Verlust des Riechsinn, von dem 2/3 der Infizierten betroffen war, gehört zu dem sehr häufig auftretenden, noch weithin unverstandenen Kranheitsbild von long-COVID, das eine erhebliche Reduzierung der Lebensqualität mit sich bringt [4]. Weitere Challenge-Studien, vor allem auch mit aggressiveren Virus-Varianten, sollten erst starten, wenn man in der Lage ist die langzeitigen negativen Folgen für die jungen, geunden Probanden zu minimieren.


[1] Ben Killingley et al., Safety, tolerability and viral kinetics during SARSCoV-2 human challenge. (posted 1. Feb. 2022) https://doi.org/10.21203/rs.3.rs-1121993/v1

[2] Euzebiusz Jamrozik and Michael J. Selgelid: History of Human Challenge Studies. Human Challenge Studies in Endemic Settings . 2021 : 9–23. doi:10.1007/978-3-030-41480-1_2

[3] Francis S. Collins. 16.07.2020: Fortschritte auf dem Weg zu einem sicheren und wirksamen Coronaimpfstoff - Gepräch mit dem Leiter der NIH-COVID-19 Vakzine Entwicklung

[4] Inge Schuster, 7.1.2022:Was ist long-COVID?


Artikel in ScienceBlog.at

Zu COVID19 sind bis jetzt 42 Artikel erschienen. Die Links finden sich zusammengefasst unter: Themenschwerpunkt Viren


inge Sat, 12.02.2022 - 13:47

100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert

100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert

Sa. 05.02.2022  — Inge Schuster

Inge Schuster Icon Medizin Zum 100. Geburtstag von Vitamin D ist eine klinisch überaus bedeutsame Wirkung von Vitamin D nachgewiesen worden. In einer Begleitstudie zur 5 Jahre dauernden, randomisierten, doppelblinden, Placebo-kontrollierten VITAL-Studie mit 25.871 Teilnehmern konnte erstmals gezeigt werden, dass Supplementierung mit Vitamin D vor Autoimmunerkrankungen schützt. Diese zu den häufigsten Erkrankungen zählenden Defekte sind derzeit unheilbar und können die Lebensqualität enorm beeinträchtigen. Die Prävention mit dem billigen, ungefährlichen und chemisch stabilen Vitamin D bietet einen neuen Zugang zur Bewältigung von Autoimmundefekten.

Ein kurzer Rückblick

Vor 100 Jahren wurde die antirachitische Wirkung einer Komponente - des sogenannten Vitamin D - im Lebertran entdeckt (Abbildung 1). Etwa zeitgleich konnte gezeigt werden, dass die schwere, auf eine gestörte Mineralisation der Knochen zurückzuführende Erkrankung durch Bestrahlung mit UV-Licht verhindert und geheilt werden kann. Auch hier wird die Wirkung durch Vitamin D hervorgerufen: dieses entsteht in der Haut aus der unmittelbaren Vorstufe des Steroidmoleküls Cholesterin durch UV-Licht, wie es auch im Sonnenlicht enthalten ist.

Abbildung 1: Vor 100 Jahren hat der amerikanische Biochemiker Elmer McCollum die antirachitische Wirkung einer im Lebertran enthaltenen Substanz beschrieben, die er als Vitamin D bezeichnete (Screenshot aus J.Biol. Chem 53: 293-312 (1922),cc-by-Lizenz)

Vitamin D ist Vorstufe zu einem Hormon mit diversen Funktionen

Das vom Körper selbst produzierte Vitamin D allerdings noch nicht die eigentlich wirksame Substanz; dies haben drei voneinander unabhängige Forscherteams vor 50 Jahren festgestellt. Sie haben gezeigt, dass aus Vitamin D in zwei aufeinanderfolgenden Schritten das Hormon Calcitriol entsteht, das - gebunden an seinen spezifischen Rezeptor - in der Weise von Steroidhormonen die Expression diverser Gene reguliert. Mit Hilfe neuer effizienter Methoden konnte in den 1990er Jahren dann untersucht werden, um welche Gene es sich dabei handelt: insgesamt sind es hunderte Gene - rund 3 % aller unserer Gene -, die direkt oder indirekt durch Calcitriol reguliert werden können.

Neben Genen, welche die klassische Rolle von Vitamin D in der Mineralisierung des Skeletts, im Wachstum und Umbau der Knochen und insgesamt im Calciumhaushalt erklären, gibt es eine Fülle weiterer Gene, die Schlüsselfunktionen in Wachstum und Differenzierung von Zellen innehaben, die diverse neurophysiologische Prozesse steuern und wichtige Rollen in der Regulierung der angeborenen und erworbenen Immunantwort spielen und viele andere mehr. Über diese sogenannten pleiotropen Funktionen des hormonell aktiven Vitamin D wurde bereits ausführlich im Blog berichtet [1].

Vitamin D-Mangel

Unterversorgung mit Vitamin D führt zu den eingangs erwähnten, altbekannten Störungen des Calciumhaushalts, des Knochenaufbaus und -Umbaus. Wieweit durch Vitamin D Mangel andere Funktionen des Hormons gestört werden und damit das Risiko für weitere Erkrankungen steigt, wird intensiv erforscht. Tatsächlich wird ja bei vielen Krankheiten ein Zusammenhang mit niedrigen Vitamin D- Spiegeln geortet: Dazu zählen u.a. Krebserkrankungen, Erkrankungen des Immunsystems, des kardiovaskulären Systems, metabolische Defekte, neuronale Erkrankungen und Infektionen.

Die primäre Quelle für das in unserem Organismus zirkulierende Vitamin D ist die Eigenproduktion in der dem Sonnenlicht ausgesetzten Haut; mit Ausnahme von fettem Fisch enthalten die meisten unserer Nahrungsmittel viel zu wenig Vitamin D, um nennenswerte Mengen davon aufzunehmen. Durch Lebensumstände und Gewohnheiten bedingt kommt es in der westlichen Welt häufig zu Vitamin D Mangel. Der Vitamin D-Status wird dazu an Hand der Blutspiegel des als Marker dienenden Vitamin D Metaboliten 25(OH)D bestimmt. Vitamin D-Mangel, der die Knochen-/Muskel-Gesundheit beeinträchtigt , wird allgemein (beispielsweise von der European Food Safety Authority) mit 25(OH)D -Blutspiegeln unter 20 ng/ml (50 nmole/l) definiert, wobei schwerer, zu Rachitis bei Kindern und Osteomalazie bei Erwachsenen führender Mangel vorliegt, wenn25(OH)D den Grenzwert von 10 - 12,5 Nanogramm/ml (25 - 30 nmole/l) unterschreitet. Testungen des Vitamin D-Status haben in den letzten Jahren eine enorme Steigerung erfahren. Eine rezente Metaanalyse von weltweit dazu erfolgten Studien zeigt auf, dass ein beträchtlicher Anteil der Menschheit von Vitamin D-Mangel betroffen ist: 25(OH)D -Blutspiegel unter 20 ng/ml weisen im Schnitt rund 40 % der Europäer, 37 % der Kanadier, dagegen nur 24 % der US-Amerikaner (die ja einige mit Vitamin D angereicherte Nahrungsmittel konsumieren) auf. Schweren Vitamin D-Mangel mit 25(OH)D-Spiegeln unter 10 - 12,5 ng/ml haben im Schnitt 13 % der Europäer, 7,4 % der Kanadier und 5,9 % der US-Amerikaner [2].

Dass Supplementierung von Vitamin D vor Erkrankungen des Muskel-/Knochensystems schützt, ist erwiesen. Wieweit kann Vitamin D aber auch vor den oben angeführten weiteren Krankheiten schützen? Und in welchen Dosierungen müsste Vitamin D angewandt werden, um Wirksamkeit ohne schädliche Nebenwirkungen zu erzielen?

Zu diesen Themen wurden und werden weltweit nahezu unzählige klinische Studien unternommen, die meisten davon sind in der US-amerikanische Datenbank https://clinicaltrials.gov/ gelistet: Unter dem Stichwort "vitamin D deficiency" finden sich dort insgesamt 791 Studien, von denen rund 500 bereits abgeschlossen sind. Die meisten dieser Studien leiden allerdings unter methodischen Schwächen. Abgesehen von häufig zu niedrigen Teilnehmerzahlen, kann die wesentlichste Frage nicht beantwortet werden: wie unterscheiden sich die Ergebnisse der Vitamin-D supplementierten Kohorte von denen einer Placebo-Kohorte - d.i. Vitamin D-Mangel -Kohorte?  An Letzterer sind aus ethischen Gründen ja keine Langzeitstudien verantwortbar.

Die VITAL-Studie

Das Fehlen einer solchen Vitamin D-Mangel-Gruppe trifft auch auf die bislang größte Placebo kontrollierte, randomisierte klinische Studie zu. Diese sogenannte VITAL-Studie zur präventiven Wirkung von Vitamin D3 auf Herz-Kreislauferkrankungen und Krebs wurde in dem der Harvard Medical School angegliederten Brigham and Women’s Hospital in Boston ausgeführt, deren Ergebnisse Ende 2018 publiziert. In diese Studie waren insgesamt 25 871 anfänglich gesunde Personen im Alter über 50 (Männer) bzw. 55 Jahren (Frauen) involviert, die über einen Zeitraum von etwa fünf Jahren täglich hochdosiertes Vitamin D3 (2 000 IU = 50 µg) oder Placebo und/oder parallel dazu 1 g Omega-3 Fettsäuren erhielten. Über diese Studie und ihr Ergebnis habe ich in [3] berichtet. Zum besseren Verständnis der neuen, darauf aufbauenden Begleitstudien wird das Design von VITAL nochmals in Abbildung 2 dargestellt.

Abbildung 2. Das Design der VITAL-Studie. Die primäpräventive Wirkung von Vitamin D3 und von Fischöl (EPA + DHA) auf kardiovaskuläre Ereignisse (Infarkt, Schlaganfall, CV-Tod) sowie auf invasive Krebserkrankungen wurden im Vergleich zu Placebo in randomisierten Gruppen mit N Teilnehmern untersucht. EPA: Eicosapentaensäure, DHA: Docosahexaensäure. (Bild aus [3] übernommen, Daten aus: JoAnn Manson et al.,: Vitamin D Supplements and Prevention of Cancer and Cardiovascular Disease. NEJM (10.11.2018) DOI: 10.1056/NEJMoa1809944)

Die Placebo-Gruppe wies - wie erwähnt - keinen Vitamin D-Mangel auf; es war ihr erlaubt bis zu 800 IU (20 µg) Vitamin D täglich zu sich nehmen (eine Reihe von Nahrungsmittel in den US sind ja Vitamin D supplementiert); dies entspricht der von der Deutschen Gesellschaft für Ernährung (DGE) empfohlenen Tagesdosis für ausreichende Vitamin D-Versorgung. Demzufolge lagen die Blutspiegel der Placebo-Gruppe im Schnitt bei 30,8 ng/ml (78 nM); nur 12,7 % der Teilnehmer hatten Spiegel unter 20 ng/ml, d.i. fielen unter die Definition Vitamin D-Mangel.

Das Ergebnis der Studie war enttäuschend. Die Supplementierung mit Vitamin D3 (und/oder mit Omega-3 Fettsäuren) hatte zwar eine Erhöhung der 25(OH)D-Spiegel auf etwa 41.8 ng/ml (104 nmole/l) zur Folge, im Vergleich zur Placebo-Gruppe konnte jedoch kein signifikanter Schutz vor kardiovaskulären Ereignissen oder Krebserkrankungen beobachtet werden [3]. Es ist nicht auszuschließen, dass in der Placebo-Gruppe Vitamin D seine Wirkung bereits voll entfalten konnte und ein rund 40 %iger Anstieg der Blutspiegel kaum mehr eine Steigerung der Effekte erbrachte.

Begleitende Studien zu VITAL

Design und Durchführung der VITAL-Studie haben einen enormen Aufwand bedeutet, dabei aber auch die Möglichkeit für Begleitstudien geboten, welche die Auswirkung von Vitamin D und/oder Omega-3-Fettsäuren auf andere Gesundheitsrisiken untersuchen konnten. Dabei nahm man ein weites Spektrum von Krankheiten ins Visier, das von Depression, Gedächtnisverlust, kognitivem Verfall über Infektionen bis hin zur großen Gruppe der Autoimmunerkrankungen reichte (unter "VITAL, vitamin D" sind 66 Studien in https://clinicaltrials.gov gelistet).

Autoimmunerkrankungen

Mehr als hundert unterschiedliche Autoimmunerkrankungen sind derzeit bekannt und rund 4 % der Weltbevölkerung sind davon betroffen. Zu den bekanntesten Autoimmundefekten zählen u.a. Typ 1-Diabetes, multiple Sklerose, Psoriasis, chronisch entzündliche Darmerkrankungen, rheumatoide Arthritis, Polymyalgie und autoimmune Schilddrüsenerkrankung. In der industrialisierten Welt gehören Autoimmunerkrankungen zu den häufigsten Krankheitsursachen. Einer aktuellen Umfrage der Plattform Statista zufolge sind an die 7 % der US-Amerikaner, 6 % der EU-Bürger und 5 % der Chinesen daran erkrankt (https://www.statista.com/statistics/418328/diagnosed-autoimmune-conditions-prevalence-in-selected-countries/). Die Inzidenz von Autoimmunerkrankungen steigt stark an - zum Teil dürfte da auch die höherer Informiertheit und eine verbesserte Diagnostik beitragen.

Ausgelöst werden Autoimmunerkrankungen durch ein fehlgeleitetes Immunsystem , das Komponenten des Körpers als fremd ansieht und attackiert. Autoreaktive T-Zellen und B-Zellen richten sich gegen Antigene, die aus körpereigenen Proteinen stammen. Es werden gesunde Zellen angegriffen - organspezifisch, wie im Fall von Typ1-Diabetes im Pankreas oder auch Zellen im gesamten Körper, wie im Fall des systemischen Lupus erythematodes. Was im Einzelnen zur Fehlleistung des Immunsystems führt, ist noch nicht hinreichend bekannt - eine Rolle spielen offensichtlich genetische Veranlagung, Infektionen, Ernährung und Exposition zu Umweltstoffen.

Autoimmundefekte sind chronische Erkrankungen, die derzeit nicht heilbar sind und deren Behandlung mit Immunsuppressiva von schweren Nebenwirkungen begleitet werden kann. Es wird daher nach Möglichkeiten zur Prävention dieser Erkrankungen gesucht.

VITAL-Studie zeigt: Vitamin D-Supplementierung reduziert das Risiko von Autoimmunerkrankungen

(Design der Studie: siehe Abbildung 2)

Eine der VITAL-Begleitstudien zur Auswirkung auf Autoimmunerkrankungen haben Forscher des Brigham and Women's Hospital (Boston, MA, US), an dem die VITAL-Studie gelaufen war, durchgeführt; die vielversprechenden Ergebnisse wurden kürzlich publiziert [4].

Die Studienteilnehmer hatten in jährlichem Abstand Fragebögen erhalten, in denen sie u.a. angaben, ob, wann und welche Autoimmunerkrankungen neu aufgetreten und ärztlich bestätigt worden waren. Dabei wurden explizit rheumatoide Arthritis, rheumatische Polymyalgie, autoimmune Schilddrüsenerkrankung, Psoriasis und entzündliche Darmerkrankungen angeführt , zusätzlich konnten alle anderen neu diagnostizierten Autoimmunerkrankungen eingetragen werden. Für die einzelnen Krankheiten spezialisierte Fachärzte prüften die Krankenakten und bestätigten die noch geblindeten Angaben (d.i. ohne Kenntnis ob sie aus der Vitamin D oder Placebo-Gruppe stammten) oder lehnten sie ab.

Es zeigte sich, dass Personen, die mit Vitamin D oder Vitamin D plus Omega-3-Fettsäuren supplementiert wurden, eine signifikant niedrigere Inzidenz von Autoimmunerkrankungen aufwiesen als Personen der Placebo-Gruppe. So wurden während der 5-jährigen Studiendauer bei 123 Teilnehmern in der Vitamin D-Gruppe Autoimmunerkrankungen neu diagnostiziert, in der Placebogruppe dagegen bei 155 Teilnehmern - entsprechend einer Reduktion um 22 % (Abbildung 3).

Abbildung 3. Inzidenz von Autoimmunerkrankungen in der VITAL-Studie. Kumulierte Inzidenzen in der Vitamin D-Gruppe (blau) verglichen mit der Plazebo.Gruppe (gelb).(Bild modifiziert nach J. Hahn et al., 2022 [4], Lizenz cc-by-nc.).

Autoimmunerkrankungen entwickeln sich langsam, die hemmende Wirkung von Vitamin D beginnt erst nach 2 Jahren sichtbar zu werden und könnte bei über die 5 Jahre hinaus dauernder Supplementierung noch stärker ausfallen. Werden nur die letzten 3 Jahre der VITAL-Studie betrachtet, so ergibt sich eine Reduktion der Krankheitsfälle um fast 40 %. (Was die alleinige Supplementierung mit Fettsäuren betrifft, so ergab sich eine leichte Reduktion der Erkrankungsrate, die aber erst für die letzten 3 Jahre mit 10 % Signifikanz erlangte. Auch hier ist möglicherweise erst nach längerer Anwendungsdauer eine stärkere Wirkung zu erwarten.)

Fazit

Autoimmunerkrankungen zählen zu den häufigsten Erkrankungen; sie vermindern die Lebensqualität, erhöhen die Mortalitätsrate, ihre Behandlung verursacht enorme Kosten (laut Statista wurden 2019 global US $ 140 Milliarden ausgegeben) und sie sind bis jetzt nicht heilbar. Dass Supplementierung mit Vitamin D einen Schutz vor Autoimmunerkrankungen bietet, ist von hoher klinischer Bedeutung. Bei Vitamin D handelt es sich ja um eine stabile, billige Substanz, die chronisch auch in höherer Dosis angewandt werden kann, ohne schwere Nebenwirkungen zu verursachen.


[1] Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype?

[2] Karin Amrain et al., Vitamin D deficiency 2.0: an update on the current status worldwide. Eur. J.Clin. Nutrition (2020) 74:1498–1513. https://doi.org/10.1038/s41430-020-0558-y

[3] Inge Schuster, 15.11.2018: Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht

[4] Jill Hahn et al., Vitamin D and marine omega 3 fatty acid supplementation and incident autoimmune disease: VITAL randomized controlled trial. BMJ 2022;376:e066452 | doi: 10.1136/bmj-2021-066452


inge Sat, 05.02.2022 - 16:29

Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln

Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln

Do, 27.01.2022 — Redaktion

Redaktion

Icon Energie

Der Umstieg auf erneuerbare Energie konkurrenziert mit der Landwirtschaft um geeignete Bodenflächen. Eine grandiose Lösung zur optimierten Nutzung der begrenzten Ressource Land kann von Agrophotovoltaik erwartet werden, der gleichzeitigen Landnutzung sowohl für die Produktion von Energie als auch von Nahrung. Weltweit laufen Pilotprojekte, um die Effizienz solcher "Anbausysteme unter Solarpaneelen" und deren Marktfähigkeit zu testen. Wesentliche Aspekte dieser Forschungen, zu denen auch von der EU-unterstützte Projekte (PanePowerSW und HyPErFarm) beitragen, wurden kürzlich im EU-Research & Innovation Magazine "Horizon" beschrieben*. .*

 

In einem Photovoltaikpark auf dem griechischen Festland wird eine Mischung aus aromatischen Kräutern und Blumen angebaut. In Spanien teilen sich Artischocke und Brokkoli Felder mit Solar-Paneelen. In Belgien wurden Paneele direkt über Birnbäumen und Zuckerrübenbeeten installiert. Abbildung 1.

Abbildung 1: Forscher testen die Effizienz von Pflanzenwachstum unter Solarpaneelen und deren Marktfähigkeit. (Bild: © Brite, 2022, siehe unten)

Dies sind Beispiele für Agrophotovoltaik – eine neue nachhaltige Lösung, die auf dem Vormarsch ist. In ganz Europa tauchen Pilotprojekte auf, die aufzeigen sollen, wie die Ernte von Sonnenlicht für landwirtschaftliche Betriebe eine Win-Win-Situation sein könnte, insbesondere für Kleinbauern, die nach Möglichkeiten suchen, ihre Erträge zu steigern und gleichzeitig weniger Energie und Wasser zu verbrauchen.

Laut den Vereinten Nationen ist der Wasser-Nahrung-Energie-Nexus der Schlüssel für eine nachhaltige Entwicklung unserer Gesellschaften (1]. Nach allen drei Ressourcen steigt die Nachfrage - Treiber sind die steigende Weltbevölkerung, die rasche Urbanisierung, veränderte Ernährungsgewohnheiten und das Wirtschaftswachstum. Aus den Daten der Vereinten Nationen geht auch hervor, dass die Landwirtschaft heute der größte Verbraucher der weltweiten Süßwasserressourcen ist, und mehr als ein Viertel der weltweit verbrauchten Energie für die Nahrungsmittelproduktion und -versorgung aufgewendet wird.

Die Welt wird in den nächsten 30 Jahren Heimat von unglaublichen 10 Milliarden Menschen sein. Das sind nicht nur sehr viele Menschen, sondern auch viele Mäuler zu stopfen – viel zu viele, als dass die heutigen Landwirtschaften sie zufrieden stellen könnten. Um diese zukünftige Bevölkerung zu ernähren, müssen wir tatsächlich doppelt so viel Nahrung produzieren wie heute – eine Aufgabe, die voll von Herausforderungen ist.

Erst einmal gibt es die Herausforderung, wo mehr Pflanzen angebaut werden sollen. Von insgesamt 13 Milliarden Hektar Land auf diesem Planeten stehen nur 38 % für die Landwirtschaft zur Verfügung. Um diese Fläche zu vergrößern müssten Wälder – einschließlich Regenwälder – in Ackerland umgewandelt werden, was zu einem großen Verlust an Biodiversität führen würde. Und weil Bäume eine essentielle Rolle im Kampf gegen den Klimawandel spielen, würde eine solche Entwaldung auch zu einem Anstieg der Treibhausgasemissionen führen.

Zusätzlich zur Entwaldung besteht auch die Herausforderung der Umweltverschmutzung, da die Landwirtschaft für mindestens 10 % der weltweiten Treibhausgasemissionen verantwortlich ist. Diese sind größtenteils auf Methan zurückzuführen, das von Nutztieren produziert wird, auf die Verwendung von Düngemitteln auf Stickstoffbasis (die Stickoxid verursachen, ein 300 Mal stärkeres Treibhausgas als CO2) und auf die von fossilen Brennstoffen abhängigen landwirtschaftlichen Maschinen und Transportmittel.

Agrophotovoltaik könnte die Antwort sein

Ungeachtet des Ziels der EU, 30 % ihrer Energie bis 2030 aus Erneuerbaren Quellen zu erzeugen, sind derzeit fast alle Schritte in der Lebensmittelproduktion auf Gas und Öl angewiesen. In Anbetracht dieses Umstands würde jede Steigerung der Nahrungsmittelproduktion mit Sicherheit einen Anstieg im Verbrauchs fossiler Brennstoffe bedeuten und daraus resultierende Treibhausgasemissionen.

Agrophotovoltaik könnte der Ausweg sein. Pflanzen benötigen Sonnenlicht, um zu wachsen, landwirtschaftliche Betriebe können das Sonnenlicht nutzen, um ihre Produktionsprozesse zu betreiben. Schließlich sind landwirtschaftliche Felder in der Regel große offene Flächen, die einer Menge Sonnenlicht ausgesetzt sind. Warum also nicht Solarpaneele installieren?

„Leider nehmen Solarpaneele Platz ein“, antwortet Ilse Lenaerts, Leiterin der Wissenschafts-, Ingenieur- und Technologieeinrichtung TRANSfarm, die Forschungsgruppen der Katholieke Universiteit (KU) Leuven unterstützt [2]. „Da dieser Raum nicht mehr für den Anbau von Pflanzen genutzt werden kann, können sie den Ernteertrag eines Betriebs verringern.“

Aber es ist nicht alles verloren. „Die Agrophotovoltaik zielt darauf ab, die Produktion von Nutzpflanzen auf derselben Landfläche fortzuführen, die für Solarpaneele genutzt wird“, erklärt Lenaerts.

Im Rahmen des EU-Projekts HyPErFarm (Hydrogen and Photovoltaic Electrification on Farm; [3]) arbeitet das Team der KU Leuven daran, die Nutzung der Agrophotovoltaik voranzutreiben und sie von einem innovativen Konzept zu einer tragfähigen kommerziellen Lösung zu machen. „Wir wollen einen unanfechtbaren Business Case dafür liefern, warum Landwirte erneuerbare Energie auf ihren Höfen produzieren und nutzen sollten und warum Agrophotovoltaik der beste Weg dazu ist“, sagt sie.

Was den Produktionsprozess betrifft hat das Projekt eine einmalige Technik zur Installation von Solarpaneelen auf landwirtschaftlichen Feldern entwickelt. Anstatt die Paneele auf dem Boden zu platzieren, installiert HyPErFarm sie als eine Art Überdachung über den Pflanzen oder neben den Pflanzen als schützende Windschutzscheibe.

„Indem man die Solarpaneele über den Feldfrüchten installiert, geht kein Ackerland verloren; dies bedeutet, dass Solarenergie ohne Beeinträchtigung der Ernteerträge erzeugt werden kann“, bemerkt Lenaerts. „Die Paneele bieten den Pflanzen auch Schatten und Schutz vor widrigen Wetterbedingungen, was ebenfalls zu höheren Erträgen beitragen kann.“

Mit den installierten Solarpaneelen können Landwirte die Energie erzeugen, die für einen Großteil des Betriebs ihrer Farm (z. B. Beleuchtung, Heizung und Kühlung) benötigt wird. Das wiederum senkt die Betriebskosten – und den CO2-Ausstoß. HyPErFarm erforscht auch Möglichkeiten, diese Sonnenenergie zur Erzeugung von sauberem Wasserstoff zu nutzen, der dann zum Antrieb landwirtschaftlicher Maschinen und Geräte verwendet werden könnte.

Agrophotovoltaik-Systeme öffnen das Tor zur vollständigen Elektrifizierung landwirtschaftlicher Betriebe“, fügt Lenaerts hinzu. „Dies kommt den Landwirten nicht nur in Bezug auf Ernteerträge und Betriebskosten zugute, sondern stellt auch sicher, dass die Landwirtschaft ihren Teil dazu beiträgt, Europa dabei zu helfen, seine Klimaziele zu erreichen.“

Lass' den Sonnenschein herein

Während Solarpaneele großartig sind, wenn sie auf offenen Feldern verwendet werden, sind sie für Gewächshäuser von begrenztem Nutzen. „Da Solarpaneele Sonnenlicht absorbieren sollen, sind sie normalerweise undurchsichtig, sogar schwarz“, sagt Dr. Nick Kanopoulos, CEO von Brite Solar [4]. „Da Gewächshäuser jedoch die Menge der einfallenden Sonne maximieren müssen, sind Solarpaneele eher unpraktisch.“

Das ist bedauerlich, da die Feldbestellung in Gewächshäusern die zehnfache Menge der auf freiem Feld angebauten Früchte produziert. „Das Problem ist, dass die Produktion dieser Menge an Nahrungsmitteln zehnmal mehr Energie erfordert als ein Feld im Freien benötigt“, fügt er hinzu.

Der CEO von Brite Solar glaubt, dass der Schlüssel zur Senkung des Energieverbrauchs eines Gewächshauses darin besteht, seine Nutzung der Solarenergie zu erhöhen. Und dafür hat sein Unternehmen mit Unterstützung des PanePowerSW-Projekts (Transparent Solar Panel Technology for Energy Autonomous Greenhouses and Glass Building; [5]) das sogenannte Solarglas erfunden: ein transparentes Paneel für Gewächshäuser, das wie ein normales Fenster aussieht und gleichzeitig Sonnenlicht hereinlassen und Solarstrom erzeugen kann.

Das Geheimnis der Doppelfunktion des Solarglases ist eine innovative nanostrukturierte Beschichtung. „Die Nanobeschichtung absorbiert nur das UV-Licht, das für die Pflanzen und die Solarzellen nutzlos ist“, erklärt Kanopoulos. „Die Beschichtung transformiert dieses UV-Licht dann in das sogenannte rote Lichtspektrum, das Pflanzen zum Wachstum und Solarzellen zur Energiegewinnung nutzen.“

Um zu demonstrieren, wie bahnbrechend diese Anwendung ist, hat Brite Solar ein 1.000 Quadratmeter großes Gewächshaus für einen Weingarten in Griechenland gebaut. Das von nanostrukturbeschichteten Solarzellen völlig eingehüllte Gewächshaus kann 50 kW Leistung erzeugen – genug, um fast den gesamten Energiebedarf des Gewächshauses zu decken. „Zum ersten Mal in der Geschichte der Landwirtschaft haben wir einen negativen Kohlendioxid-Fußabdruck pro Kilogramm produzierter Feldfrüchte gemeldet“, sagt Kanopoulos.

Doch beim Demo-Gewächshaus geht es um mehr als nur um die Stromerzeugung. Es geht auch um Steigerung der Ernteerträge. Tatsächlich war es das Ziel, den Ertrag gegenüber dem zu verdoppeln, was in einem vergleichbar großen Freilandweingarten erreicht werden kann.

Gewächshäuser haben hier einen besonderen Vorteil gegenüber landwirtschaftlichen Feldern: Sie können das ganze Jahr über ernten. Beispielsweise produziert der Gewächshaus-Weingarten in Griechenland zwei Ernten, eine im Herbst und eine zweite im Winter. Dies ist eine hervorragende und relativ einfache Möglichkeit, die Erträge zu steigern, ohne mehr Ackerland schaffen zu müssen, was letztendlich weniger Entwaldung bedeuten könnte.

„All dies hat tiefgreifende Auswirkungen auf die Umwelt und weist auf eine neue Art der Landwirtschaft hin – eine, die vollständig elektrisch ist, mit erneuerbaren Ressourcen betrieben wird und in der Lage ist, nachhaltig die Lebensmittel zu produzieren, die wir für die Ernährung der Zukunft benötigen“, schließt Kanopoulos.

Dabei unterstützen Projekte wie PanePowerSW und HyPErFarm so wichtige Strategien wie die Farm2Fork-Initiative [6] und beschleunigen Europas Übergang zu einem nachhaltigen Ernährungssystem (Abbildung 2).

Abbildung 2 Farm to Fork strategy - for a fair, healthy and environmentally-friendly food system . https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de#Strategy

-

 


[1] Water, Food and Energy: https://www.unwater.org/water-facts/water-food-and-energy/

[2] TRANSFARM: https://set.kuleuven.be/en/about-us/transfarm

[3]HyPerFarm - Eine Doppelnutzung für die Energie- und Nahrungsmittelerzeugung. EU-Projekt. https://cordis.europa.eu/project/id/101000828/de

[4] Brite Solar: https://www.britesolar.com/ dazu Brite Solar Presentation, Video 3:58 min. https://www.youtube.com/watch?v=GJ6CDqIdJww&t=198s  

[5] PanePowerSW - Transparent Solar Panel Technology for Energy Autonomous Greenhouses and Glass Buildings.EU-Projekt. EU-Strategy. https://cordis.europa.eu/project/id/804554

[6] Farm to Fork Strategy: https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de


 *Dieser Artikel wurde ursprünglich am 21. Jänner 2022 von Nick Klenske in Horizon, the EU Research and Innovation Magazine unter dem Titel " To feed a growing population, farmers look to the Sun"https://ec.europa.eu/research-and-innovation/en/horizon-magazine/feed-growing-population-farmers-look-sun publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 - Farm to Fork Strategy - wurde von der Redaktion eingefügt und stammt von der EU-Seite https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de.


Ein kurzes Video zum Artikel:

To feed a growing population, farmers look to the Sun. Video 1:12 min. https://www.youtube.com/watch?v=rgx-0M5uP9k


inge Thu, 27.01.2022 - 12:59

COVID-19 - ist ein Ende der Pandemie in Sicht?

COVID-19 - ist ein Ende der Pandemie in Sicht?

Do, 20.01.2022 — Ricki Lewis

Ricki LewisIcon Medizin Die Infektionszahlen mit der neuen hochmutierten Omikron-Variante nehmen rasant zu. Impfungen und auch eine dritte Auffrischungsimpfung - Booster - bieten nur eingeschränkten Schutz vor einer Infektion. Grund dafür dürfte sein, dass die gegen den ursprünglichen Corona- Wildtyp gerichteten Vakzinen zwar in beschränktem Ausmaß neutralisierende Antikörper auch gegen Omikron initiieren, diese aber sehr rasch absinken. Dass es dennoch zu milderen Krankheitsverläufen kommt als bei Infektionen mit früheren Corona-Varianten, wird dem Schutz durch eine starke Vakzinen-induzierte T-Zellantwort zugeschrieben. Trotz der katastrophalen Infektionszahlen sehen führende Immunologen und Virologen nun eine positive Wendung im Infektionsgeschehen. Die Genetikerin Ricki Lewis berichtet darüber.*

Ein Ende könnte in Sicht sein. Zum ersten Mal seit Beginn der Pandemie habe ich mir eine Pressekonferenz von medizinischen Experten angehört, die mir keine Albträume bescherte.

Dies war am 11. Dezember 2021, der wöchentliche Zoom des Massachusetts Consortium on Pathogen Readiness (MassCPR). Die Gruppe eloquenter Experten hatte sich zu Beginn der Pandemie gebildet: Seither haben sie sporadische Informationsveranstaltungen für Journalisten abgehalten, die, als sich Anfang Dezember Omikron abzeichnete, bis auf wöchentliche Veranstaltungen steigerten

Von JAMA zu MassCPR

Am Anfang war ich ein Fan der Online-Gespräche mit Howard Bauchner, der damals Chefredakteur des medizinischen Fachjournals Journal of the American Medical Association war. Dr. Bauchners entspannte Art brachte die Superstars der Pandemie – von Anthony Fauci (Direktor des National Institute of Allergy and Infectious Diseases (NIAID) and Chief Medical Advisor to the President; Anm. Redn.) über Rochelle Walensky ((Leiterin der Centers for Disease Control and Prevention - CDC; Anm. Redn.) bis hin zu Paul Offit (Leiter des Vaccine Education Center)– dazu, auch entspannt zu sein. Das war noch die Zeit, als die Experten vom Ziel einer Herdenimmunität sprachen. Ich vermute, keiner von ihnen hätte daran gedacht, dass so viele Menschen lebensrettende Impfstoffe ablehnen würden. Dass die Entscheidung dafür gar zum Politikum würde, das uns alle gefährdet und einen fruchtbaren Boden für Omikron und die anderen Varianten bietet, dass sie evolvieren, auftreten und uns bedrohen. Ich muss zugeben, dass ich davon überrumpelt wurde.

Eines der ersten Gespräche von Dr. Bauchner war mit Maurizio Cecconi vom Humanitas Research Hospital in Mailand. In Coronavirus in Italy, Report from the Front Lines, beschrieb Cecconi die schreckliche Situation in der Lombardei. Es war der 16. März 2020. Ich starrte auf meinen Bildschirm, auf das Bild einer düsteren und scheinbar endlosen Parade von Särgen, die sich langsam eine breite Allee entlang bewegten. Ich hätte nie gedacht, dass meine Tochter bald einen noch schlimmeren Ausblick aus ihrem Fenster auf eine Notaufnahme in Astoria, Queens (Stadtteil von New York; Anm. Redn.) haben würde. Diese Leichen lagen nicht horizontal wie auf der italienischen Promenade, sondern vertikal gestapelt und warteten auf die weißen Kühllaster, um sie abzutransportieren.

Bedauerlicherweise ging Dr. Bauchner im Juni 2021 "über Bord", nachdem er es versäumt hatte, einen rassistischen Podcast zu stoppen, den JAMA leider und unerklärlicherweise gesponsert hatte (“Structural Racism for Doctors—What Is It?” nicht mehr verfügbar; Anm. Redn.). Darin behaupteten zwei weiße Redakteure, dass es in der Medizin keinen strukturellen Rassismus gibt, weil er illegal ist.

Ja, Dr. Bauchner hat es versäumt, auf die beiden Redakteure loszugehen; ich vermisse aber nun seine Podcasts.

So bin ich zu den MassCPR-Pressekonferenzen abgewandert. Eine davon vor etwa einem Jahr habe ich zu einem Blog-Beitrag in DNA-Science gemacht ("Überholt der COVID-Optimismus endlich den Pessimismus? Harvard-Experten stimmen zu"[1]). Impfstoffe wurden auf den Markt gebracht, Ärmel hochgekrempelt und Idee und Idealvorstellung einer Herdenimmunität mussten noch begraben werden. Ich hatte gerade meine erste Impfung bekommen, was mir meine Polio-Impfung in der Grundschule in Erinnerung rief.

Omikron taucht auf

Die Frequenz der MassCPR-Briefings nahm zu, wurde wöchentlich, als sich seit Anfang Dezember Omikron von Südafrika aus zu verbreiten begann.

Was die Redner uns auf der Grundlage von Vorabdrucken und dem, was sie von Kollegen und direkten Erfahrungen mit an COVID-Erkrankten und Sterbenden wussten, erzählten, war den Nachrichten immer Tage, wenn nicht Wochen voraus. So hatte ich in den folgenden Tagen dieses Gefühl des Untergangs, als Freunde mir Artikel aus den Mainstream-Medien und von anderen Journalisten im Zoom schickten.

Die MassCPR-Pressekonferenz vom 14. Dezember 2021 bildete den größten Teil meines DNA-Wissenschaftsbeitrags „Pandemie zu schnell, um ihr zu folgen, da drei Infektionswellen über die USA hinwegfegen: Delta, Omicron und Grippe“ [2]. Ich endete in Finsternis und Untergangsstimmung unter der Überschrift „Was mich nachts wach hielt“ mit einem ausführlichen Zitat von Jacob Lemieux, einem Spezialisten für Infektionskrankheiten am Massachusetts General Hospital. Die zu befürchtende ausgedehnte Reisetätigkeit über Weihnachten und Silvester machte mir Angst.

Das erste MassCPR-Briefing des neuen Jahres habe ich ausgelassen, nachdem ich in den Abendnachrichten die steil ansteigenden Kurven von Krankenhauseinweisungen gesehen hatte - katastrophale Spitzenwerte, die hauptsächlich von denen verursacht wurden, die sich immer noch weigerten, sich impfen zu lassen. Sie dürften nun endlich Plateauwerte erreichen.

Die Hoffnung kommt von T-Zellen

Am 11. Januar hat wieder der faszinierende Dr. Lemieux das MassCPR -Briefing beendet, und ich war fassungslos über seinen positiven Ton. Vieles davon stammte aus einer Zusammenstellung von Ergebnissen und daraus sich ergebenden Folgerungen, dass sinkende Spiegel neutralisierender Antikörper gegen Omikron und die allgemein milden Symptome bedeuten, dass T-Zellen Schutz bieten.

Kurze Biologiestunde

T-Zellen induzieren B-Zellen zur Ausscheidung von Antikörpern und sie zerstören auch virusinfizierte Zellen. Der Nachweis von T-Zellen ist allerdings wesentlich schwieriger und länger dauernd als der von Antikörpern; T-Zellen dürften aber das verlässlichste „correlate of protection“ [3]– Indikator für das Überwinden einer Infektion sein . Abbildung 1. In anderen Worten: Antikörper erzählen nicht die ganze Geschichte. Die meisten Medienberichte, die ich gesehen habe, haben aufgehört, irgendetwas über Antikörper hinaus zu erklären, und die lebenswichtige zelluläre Immunantwort -der T- und B-Zellen - ignoriert. Antikörper bilden die humorale Immunantwort („humor“ bedeutet „Flüssigkeit“; Antikörper werden im Blutserum nachgewiesen). Ende des Biologieunterrichts.

Abbildung 1: . Schematische Darstellung der adaptiven Immunantwort nach einer Virus-Infektion. Das Virus wird von Makrophagen oder dendritischen Zellen inkorporiert und zu Bruchstücken (zu kurzen Peptiden) abgebaut, die als Antigene an der Zelloberfläche präsentiert werden. T-Zellen heften sich an diese Antigene. Ihre Aktivierung führt einerseits zur Generierung von B-Zellen, die gegen das Antigen spezifische Antikörper generieren und sezernieren (humorale Immunantwort) und cytotoxische (Killer)-T-Zellen, die infizierte Zellen zerstören (zelluläre Immunantwort). Die Aktivierung führt auch zu Gedächtniszellen von B-Zellen und T-Zellen, die bei erneutem Kontakt mit demselben Erreger eine sekundäre Immunantwort einleiten. (Bild und Beschriftung von Redn. eingefügt. Bild modifiziert nach Sciencia58 https://commons.wikimedia.org/wiki/File:Immunantwort_1.png. Lizenz: cc-by-sa)

Am 11. Jänner spürte man bei den Rednern insgesamt eine Veränderung. Klischees schwappten hoch wie: Licht am Ende des Tunnels. Sehr finster vor der Morgendämmerung. Und so schließe ich mit dem, was Dr. Lemieux zu sagen hatte:

„Bei diesen Briefings wird es immer schwieriger Fragen zu beantworten. Wir wissen nicht, was die Zukunft bringt.

Am Anfang dachte ich, ok, was können wir von Omikron annehmen? Wir wussten, dass es beängstigend aussieht, und dass wir herausfinden müssten ob damit eine Zunahme der Übertragbarkeit signalisiert wird. In den nächsten Wochen wurde klar, dass Omikron viel stärker übertragbar ist. Und als experimentelle Labordaten eintrafen, zeigten sie, dass Omikron die bislang der Immunantwort am weitesten ausweichende Variante ist. Von da an war der Weg vorbestimmt - außerordentlich übertragbar und immunausweichend, also würde sich Omikron ausbreiten und das tat es auch. Es war leicht zu konstatieren, dass es in der folgenden Woche mehr Fälle geben würde; wir wussten allerdings nicht, wie gut die Impfung funktioniert und ob es einen Unterschied in der Schwere der Erkrankung geben würde.

Glücklicherweise zeigen Impfstoffe immer noch Wirksamkeit und die Variante ist weniger virulent. Aber in Bezug auf die Vorhersage, was jetzt passiert, ist es viel schwieriger. Alles, was wir sagen, muss mit einem viel größeren Vorbehalt aufgenommen werden.

Wir können jetzt über die grundlegenden wissenschaftlichen Fragen sprechen, wie die Beobachtung, dass weniger Menschen mit Omikron sterben. Das sind gute Neuigkeiten. Aber wieso ist das so? Was ist die Quelle ihrer anhaltenden Immunität? T-Zellen? Eine nicht neutralisierende Funktion von Antikörpern? Alles Hypothesen, die im Begriff sind evaluiert zu werden, und wir beginnen, eine Flut an Veröffentlichungen zu sehen, die sich mit diesen Fragen befassen. Es fühlt sich an wie ein normaler wissenschaftlicher Prozess. Aber in Bezug auf das, was jetzt passiert, würde ich einfach sagen, dass wir alle zusammen daran sind und wir werden es bald herausfinden.

Erstens befinden wir uns in der Pandemie an einem ganz anderen Punkt als vor zwei Jahren. Es hat damals düster ausgesehen, mit null Behandlungen oder Impfstoffen und einer hohen Anzahl von Fällen, aber es gibt Licht am Ende des Tunnels. Wir sind immer noch im Tunnel, aber die Impfstoffe wirken und wir haben gelernt, welche Maßnahmen im Bereich der öffentlichen Gesundheit funktionieren, wie Masken und soziale Distanzierung. Und wir stehen kurz vor der Markteinführung von Medikamenten, die derzeit nur begrenzt verfügbar sind, aber zunehmen und an ambulante Patienten verabreicht werden und ein hohes Maß an Wirksamkeit aufweisen werden.

Wir sehen auch, dass das Virus im Laufe der Zeit weniger virulent wird. Wird sich dieser Trend fortsetzen? Wir hoffen es, wissen es aber nicht genau. Wir blicken auf etwas in Richtung einer normaleren Zukunft, insbesondere wenn der Winter langsam aufhört.

Aber ist das Virus schon endemisch? Nein. Es ist ganz klar immer noch eine Epidemie, weil die Fälle zunehmen.

Wird es noch eine Variante geben? Ja, denn Mutationen finden statt.

Werden neue Varianten die gleiche Auswirkung wie Omikron haben? Wir wissen es nicht, aber wir können sicherlich wissen, dass wir uns als Gesellschaft auf das mögliche und unvermeidliche Auftreten von Varianten vorbereiten müssen. Und das bedeutet, die Qualität der Überwachungssysteme zu verbessern und auch den Zugang zu bereits vorhandenen Impfstoffen und Medikamenten. Wir müssen eine Strategie entwickeln, wie wir langfristig mit Varianten umgehen. In den kommenden Monaten werden wir eine Rückkehr zur Normalität erleben.

Moderator Bruce Walker, Direktor des Ragon Institute of MGH, MIT und Harvard, fügte hinzu: „Es gibt viele Gründe für Optimismus. Unter dem Strich müssen wir alles tun, um zu verhindern, dass wir uns im nächsten Monat infizieren, während wir uns mitten in einem Anstieg befinden. Dann, meine ich , werden uns erneut damit befassen, wie wir vorankommen und zu einer Balance mit dieser Pandemie gelangen.“


[1] Ricki Lewis, 04.03.2021: Is COVID Optimism Finally Overtaking Pessimism? Harvard Experts Weigh In. https://dnascience.plos.org/2021/03/04/is-covid-optimism-finally-overtaking-pessimism-harvard-experts-weigh-in/

[2] Ricki Lewis, 16.12.2021: Pandemic Too Fast to Follow as Three Waves of Infection Wash Over the US: Delta, Omicron, and Flu. https://dnascience.plos.org/2021/12/16/pandemic-too-fast-to-follow-as-three-waves-of-infection-wash-over-the-us-delta-omicron-and-flu/

[3] Ricki Lewis, 21.09.2021: Viewpoint: Does mounting evidence for vaccine “durability” suggest we delay boosters for all until we learn more? https://geneticliteracyproject.org/2021/09/21/viewpoint-does-mounting-evidence-for-vaccine-durability-suggest-we-delay-boosters-for-all-until-we-learn-more/ ------------------------------------------------------ *

* Der Artikel ist erstmals am 13.Jänner 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " Pandemic Predictions Take a Turn Towards the Positive – Finally" https://dnascience.plos.org/2022/01/13/pandemic-predictions-take-a-turn-towards-the-positive-finally/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildung 1 und Legende wurden von der Redaktion eingefügt.


Weitere Links:

Massachusetts Consortium on Pathogen Readiness  https://masscpr.hms.harvard.edu/

Inge Schuster, 11.12.2021: Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2? https://scienceblog.at/omikron-impfschutz

Inge Schuster, 16.12.2021: Omikron - was wissen wir seit vorgestern? https://scienceblog.at/omikron-wirksamkeitsstudie


inge Thu, 20.01.2022 - 20:07

Nanokapseln - wie smarte Polymere Chemie und Medizin revolutionieren

Nanokapseln - wie smarte Polymere Chemie und Medizin revolutionieren

Do, 13.01.2022 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Nanokapseln im medizinischen Bereich sollen Arzneistoffe sicher einschließen und diese an einen bestimmten Ort im Körper bringen. Welche Herausforderungen gibt es beim Bau bioverträglicher Kapseln, und wie gelangen sie genau zu den Stellen, an denen sie wirken sollen? Wie solche winzige Transporter hergestellt werden und welche Rolle Polymere dabei spielen, beschreibt der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr*.

Ohne die Eigenschaften der Nanowelt ist chemische Forschung heute kaum noch denkbar. Das gilt besonders für die Nanokapseln von Katharina Landfester, Direktorin am Max-Planck-Institut für Polymerforschung in Mainz. Diese Objekte sind mit einigen Hundert Nanometern Durchmesser zwar winzig. Sie sind aber immer noch viel größer als typische Moleküle. Deshalb können an ihren Oberflächen chemische Reaktionen ablaufen, zum Beispiel eine Polymerisation. Sind nun viele Nanoobjekte im Spiel, bieten sie dafür eine gigantisch große Oberfläche an. Genau diese Stärke der Nanowelt nutzt die Mainzer Forscherin in ihren Miniemulsionen aus fein verteilten Nanotröpfchen.

Abbildung 1: Schematische Darstellung von Nanokapseln als Träger von Wirkstoffen im Blut. Nanokapseln (Durchmesser etwa 100 Nanometer) sind wesentlich kleiner als Erythrozyten (rot, Durchmesser rund 7,5 Mikrometer (µm), Dicke 2 µm) und Lymphozyten (weiß, Durchmesser : 10 - 15 µm ). © Dr_Microbe/istock

Wer in die Forschungsprojekte von Katharina Landfester eintaucht, erkennt, wie faszinierend und vielfältig Chemie sein kann. Grundlagenforschung und Anwendung gehen dabei Hand in Hand. Über 50 Patente hält die Chemieprofessorin inzwischen, und in allen spielen Nanokapseln eine tragende Rolle. Die Anwendungen reichen von eingekapselten Farbpigmenten, die dadurch nicht mehr zusammenklumpen, über Parfüm-Mikrokapseln für Waschmittel oder verkapselten Korrosionsschutz für Metalle, der nur bei Beschädigung freigesetzt wird, bis hin zur Zukunftsvision einer völlig neuen Art von Medizin. Zu ihren Partnern zählen große Konzerne – und ein durch die Corona-Pandemie berühmt gewordenes Mainzer Start-up-Unternehmen: BioNTech. „Viele junge Chemikerinnen und Chemiker aus meiner Abteilung arbeiten inzwischen dort“, berichtet die Max-Planck-Direktorin über die spannenden beruflichen Perspektiven. Landfester forscht auf einem Gebiet, das ihr ganz besonders am Herzen liegt. Es geht um die Verwirklichung des Traums, Medikamente im Körper gezielt zu den Zellen zu bringen, wo sie wirken sollen. Dazu sollen die Mainzer Nanokapseln sozusagen als winzige „Transport-U-Boote“ im Blut dienen (Abbildung 2). Doch zuerst geht es im Gespräch mit der Max-Planck-Direktorin darum, wie der chemische Zauberkasten funktioniert, den sie seit ihrer Zeit als Nachwuchsforscherin so enorm kreativ weiterentwickelt hat.

Abbildung 2: Winzige Behälter. Mainzer Nanokapseln aus Hydroxyethylstärke, die eines Tages zum Beispiel ein Medikament im Körper genau ans Ziel bringen könnten. Die Aufnahme wurde mit einem Raster-Elektronenmikroskop gemacht.© MPI für Polymerforschung / CC BY-NC-ND 4.0

Grundlegende Mixtur

Die Basis sind sogenannte Miniemulsionen. Eine Emulsion ist beispielsweise ein fein verteilter Mix aus kleinen Öl- oder Fetttröpfchen in einer wässrigen Umgebung – oder umgekehrt. In Miniemulsionen sind diese Tröpfchen besonders klein, bei Landfester sogar Nanoobjekte. Die Nanowelt ist auf der Größenskala zwischen der Mikrowelt mit Objekten in Mikrometergröße und der Welt der Atome und der meisten Moleküle angesiedelt. Der Durchmesser von Atomen bemisst sich in Zehntel-Nanometern (siehe [1]). Emulsionen begegnen uns vielfach im Alltag, etwa in Lebensmitteln oder Kosmetika. Milch ist eine Mixtur aus feinen Fetttröpfchen in einer wässrigen Lösung, bei Butter oder Hautcreme ist es umgekehrt. Eigentlich sind Emulsionen etwas Unmögliches, aber Chemie und Physik machen sie doch möglich. Das erlebt man beim Anmachen einer Salatsoße. Der Essig als wässrige Phase und das Salatöl bleiben zunächst getrennt voneinander. Schnelles Durchquirlen sorgt zwar für feinere Öltröpfchen in der Soße, aber stabil wird die Vinaigrette erst durch Zugabe von etwas Senf.

Der Grund, warum wässrige und fettige Flüssigkeiten sich schlecht mischen, liegt in den Eigenschaften ihrer Moleküle. In einem Wassermolekül zieht das Sauerstoffatom die Elektronen der beiden Wasserstoffatome an. Damit bekommt das Molekül elektrisch negative und positive „Pole“. Als polares Lösungsmittel kann Wasser daher Stoffe, deren Moleküle ebenfalls elektrisch geladene Abschnitte haben, gut lösen. Beim Anlagern der Wassermoleküle entstehen Wasserstoffbrückenbindungen, die in Landfesters Forschung eine wichtige Rolle spielen: Die Wassermoleküle docken sozusagen mit ihren positiv geladenen Wasserstoffatomen an den negativ geladenen Teil eines anderen Moleküls an.

Stoffe mit solchen „hydrophilen“, also wasserliebenden Eigenschaften sind wasserlöslich. Unpolaren Lösungsmitteln wie Fetten und Ölen hingegen fehlen diese von elektrischen Ladungen dominierten Eigenschaften. Ihre Moleküle wechselwirken untereinander durch sogenannte Van-der-Waals-Kräfte. Daher können sich die Wassermoleküle nicht so gut an Fettmoleküle anlagern, was die geringe oder fehlende Löslichkeit von Fetten in Wasser erklärt. Sie sind daher hydrophob, also „wasserängstlich“. Es gibt aber „amphiphile“ Stoffe, deren Moleküle diese lipophilen, „fettliebenden“ Abschnitte und dazu noch hydrophile Teile besitzen. Als Kontaktvermittler können sie so auf der Grenzfläche zwischen den beiden Phasen dafür sorgen, dass zum Beispiel Fetttröpfchen sich sehr fein in Wasser verteilen, also emulgieren. Das geschieht beim Abwaschen von fettigem Geschirr, dank der Tensidmoleküle des Spülmittels. „Ein Beispiel für ein verbreitetes Tensid ist das Natriumdodecylsulfat in Waschmitteln“, erklärt die Chemikerin.

Das Besondere an Landfesters Miniemulsionen ist nun, dass extrem winzige Nanotröpfchen eine riesige Gesamtoberfläche formen. Auf diesem Spielfeld können chemische Reaktionen viel effizienter ablaufen als zwischen den unvermischten wässrigen und öligen Phasen. Sind diese getrennt übereinandergeschichtet, kommen sie nur auf der vergleichsweise kleinen Querschnittsfläche des Gefäßes in Kontakt. „In einer Miniemulsion gleichen Volumens entspricht dagegen die gesamte Grenzfläche zwischen beiden Phasen ungefähr einem Fußballfeld“, sagt Landfester.

Abbildung 3: Herstellung von Nanokapseln © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Wie die Herstellung von Miniemulsionen funktioniert, erklärt Landfester im Labor anhand der Geräte. „Der erste Schritt beginnt tatsächlich mit einem Turbomixer, also im Prinzip einem besseren Pürierstab“, sagt sie (Abbildung 3). Das ergibt eine Voremulsion, die dann in das eigentliche „Herzstück“ kommt. Das ist ein Hochdruck-Homogenisator, wie er im Prinzip auch zum Homogenisieren von Milch eingesetzt wird. In ihm wird die Voremulsion unter hohem Druck von bis zu 2000 bar durch einen schmalen Spalt gegen eine Art Prallwand geschossen, was die Tröpfchen bis in den Nanobereich zerkleinert. Zum Vergleich: Ein Druck von 1000 bar herrscht in einer Wassertiefe von 10 km, also ungefähr der tiefsten Stelle aller Ozeane im Marianengraben. Benötigt das Team nur kleinere Mengen, dann verwendet es alternativ ein Ultraschallgerät zur Zerkleinerung.

Spontane Kugelbildung

Aber wie setzt Landfesters Team die winzigen Tröpfchen als chemische Nanoreaktoren ein? Angefangen haben die Mainzer mit technischen Polymeren und den dazu nötigen Polymerisationsreaktionen. Grundsätzlich verketten diese Reaktionen immer gleiche chemische Grundbausteine, die Monomere, zu langen Polymeren. Mono bedeutet auch im Altgriechischen so viel wie „allein“, während Poly für „viel“ steht. „Das Polymer darf bei uns aber nur an der Kapselwand entstehen“, betont Landfester den entscheidenden Punkt. Ein Beispiel, wo das funktioniert, ist Nylon. „Nylon geht im Prinzip in der Miniemulsion, wenn auch nicht sehr gut, es ist zudem wissenschaftlich nicht so interessant für uns“, sagt Landfester.

Besser funktioniert die Nanokapsel-Herstellung mit einer ähnlichen Reaktion, bei der Polyurethan entsteht (Abbildung 4). Beide Kunststoffe haben grundsätzlich gemeinsam, dass die Polymerisationsreaktion zwei verschiedene Monomer-Bausteine zu einer langen Polymerkette verknüpft. Polyurethan entsteht in einer Polyadditionsreaktion, die Polyamidfasern des Nylons hingegen in einer Polykondensationsreaktion. Bei einer Polykondensationsreaktion muss immer ein Nebenprodukt abgespalten werden, damit die funktionellen Gruppen beider Monomere verbunden werden können. Bei einer Polyadditionsreaktion ist das nicht nötig.

Entscheidend für Landfesters Strategie ist nun, dass eine Bausteinsorte besser in der öligen, die andere in der wässrigen Phase löslich ist. Folglich kommen sie nur an der Grenzfläche miteinander in Kontakt. Damit läuft auch nur dort die Polymerisationsreaktion ab. Da das entstehende Polymer amphiphil ist, verbleibt es zwischen der wässrigen und öligen Phase und baut die Kugel des eingeschlossenen Tropfens nach. So formt sich die Nanokapsel selbstorganisiert. Bei Polyurethan ist einer der beiden Monomerbausteine ein Diol. Das ist eine organische Verbindung, die zwei alkoholische Gruppen enthält und damit oft wasserlöslich ist. Das zweite Monomer ist ein Diisocyanat, das sich besser in der öligen Phase löst. Sobald beide Monomere an der Grenzfläche in Kontakt kommen, startet die Polyadditionsreaktion, denn das Diisocyanat ist hochreaktiv.

Abbildung 4: Polyurethan-Nanokapsel. Herstellung einer Nanokapsel aus Polyurethan durch eine Polyadditionsreaktion. Links unten ist das Diisocyanat, darüber das Diol, rechts vom Reaktionspfeil das fertige Polymer. © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Verträgliche Transporter

Allerdings eignen sich solche technischen Kunststoffe nicht für Nanokapseln, die medizinische Wirkstoffe ans Ziel bringen sollen. Der Einsatz im Körper erfordert biokompatible Alternativen für das Kapselmaterial. Und noch etwas sei wichtig, sagt Landfester: „Die meisten Wirkstoffe sind wasserlöslich.“ Das ist typisch für biologische Moleküle, ein Beispiel ist das mRNA-Molekül im Covid-Impfstoff von BioNTech. „Also müssen wir unsere Miniemulsion sozusagen umdrehen“, fährt die Chemikerin fort (Abbildung 3 rechts). Das Team musste Nanokapseln mit einem wässrigen Inhalt erzeugen, die während der Reaktion in einer öligen Flüssigkeit emulgiert sind – sozusagen High-Tech-Creme. Für das Material der Kapsel experimentierten die Mainzer mit verschiedenen biokompatiblen Stoffen, die sich polymerisieren lassen. Dazu müssen diese reaktive Gruppen besitzen, die sich für chemische Bindungen an weitere Moleküle eignen. So sind die Mainzer zu Kohlenhydraten und Proteinen gekommen. „Zucker haben OH-Gruppen, mit denen man solche Grenzflächenreaktionen machen kann“, erzählt Landfester, „und bei Proteinen sind es Amino.(NH2)-Gruppen an bestimmten Aminosäuren, die man zur Reaktion nutzen kann“.

Proteine sind besonders interessant für das Ziel, Medikamente im Körper genau dorthin zu bringen, wo sie wirken sollen. Das liegt daran, dass man Proteinoberflächen von Nanokapseln gewissermaßen mit chemischen Versandadressen versehen kann, die bestimmte Zellen erkennen können. Das können Immunzellen sein, die gegen ein Virus oder eine Krebsart aktiviert werden sollen – oder Tumorzellen. Targeting heißt dieser Traum der Medizin, nach dem englischen Wort „target“ für Ziel. Proteine sind als große Biomoleküle bereits Polymere. Die Grenzflächenreaktion, die aus ihnen Nanokapseln formen soll, muss daher etwas anderes tun als zu polymerisieren. Sie muss benachbarte Polymerstränge miteinander so vernetzen, dass diese eine stabile Kapsel bilden. Das Resultat einer Vernetzung von Proteinen begegnet uns im Alltag zum Beispiel in Form von Gelatine. Für die biokompatiblen Nanokapseln kommen verschiedene Vernetzungsreaktionen zum Zug. Ein besonders interessanter Ansatz sind sogenannte „Click-Reaktionen“. Ein herkömmliches Reagenz, das eine Vernetzung starten soll, funktioniert „unspezifisch“, also nicht zielgerichtet. Dadurch besteht die Gefahr, dass es auch mit den Wirkstoffen reagiert, die eingekapselt werden sollen. „Viele Wirkstoffe haben ebenfalls OH- oder NH2-Gruppen“, erklärt die Professorin: „Das heißt, wir würden sie ungewollt mit der Kapsel vernetzen.“ Das darf aber nicht passieren, und hier spielt die Click-Chemie ihren Vorteil aus: Sie funktioniert zielgerichtet und schnell.

Es gibt verschiedene Vernetzungsreaktionen mit Hilfe der Click-Chemie. Eine ist die Alkin-Azid-Reaktion. Entscheidend ist hier die N3-Gruppe der Azide, mit der zuerst die zu vernetzenden Proteine „funktionalisiert“, sozusagen für die Vernetzung vorbereitet werden. Dabei werden die NH2-Gruppen des Proteins genutzt, um ein Molekül anzubinden, an dessen Ende sich eine N3-Gruppe befindet. Diese Azid-Gruppe reagiert dann mit einem Dialkin, das die Rolle eines „Vernetzermoleküls“ übernimmt. Die Dreifachbindung des Dialkins öffnet sich und sorgt dafür, dass sich mit den am Protein hängenden Azid-Gruppen Ringmoleküle ausbilden. Diese verknüpfen dann benachbarte Proteine zum Netzwerk (Abbildung 5).

Abbildung 5: Click-Chemie. Proteinmoleküle, die durch die Reaktion einer Azid-Gruppe mit einem Dialkin miteinander vernetzt wurden. Das Fenster zeigt, wie die Reaktion an der Kapselwand abläuft (rote Pfeile). R1: Proteinmolekül, R2: Dialkin, blau: wässriger Nanotropfen, gelb: umgebende ölige Phase, grün: Proteinmoleküle. © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Eine Click-Vernetzungsreaktion hat noch einen Vorteil: Es entstehen keine Nebenprodukte, die gesundheitsschädlich sein könnten. Außerdem muss die Vernetzung so ablaufen, dass sie die biologische Funktion der Kapselproteine selbst nicht verändert. Das ist wichtig für die smarte Funktion beim Targeting im Körper. Bei den Nanokapseln gibt es allerdings noch eine Herausforderung: Sie müssen so dicht sein, dass die Wirkstoffmoleküle sicher eingekapselt bleiben, solange sie nicht am Ziel sind. Nun ist so eine Kapsel mit einem Durchmesser von etwa hundert Nanometern wirklich winzig. Die Kapselwand ist folglich nur 15 bis 20 Nanometer dünn – eine Extremfolie sozusagen. „Jetzt versuchen Sie mal, das dicht zu machen“, sagt Landfester. Je dünner so ein Polymernetzwerk ist, desto durchlässiger wird es auch. Die Folge: Die Wirkstoffmoleküle drohen die Kapsel zu verlassen, bevor sie am Ziel sind. Zum Glück gibt es Möglichkeiten, diese superdünnen Kapselwände dichter zu bekommen. Als ersten Schritt kann man sie noch stärker vernetzen, also das Molekülgitter engmaschiger machen. „Das reicht aber häufig nicht aus“, sagt die Chemikerin. Abhilfe können nun zusätzliche Wasserstoffbrückenbindungen bringen. „Die ziehen das Netzwerk der Proteinstränge noch näher zusammen und machen es dichter“, betont Landfester. Vor allem ordnen die Stränge sich teilweise so sauber nebeneinander, dass sie ansatzweise Kristalle bilden. Diese Teilkristallinität macht zum Beispiel auch Kunststofffolien wasserdichter. „Wenn Plastiktüten knistern, dann hört man diese Teilkristallinität sogar“, erklärt die Max-Planck-Direktorin einen Effekt, den alle kennen.

Zielgenaue Lieferung

Eine Nanokapsel, die einen Wirkstoff sicher eingeschlossen transportieren kann, ist aber nur der erste Schritt. Der nächste ist das Targeting, also das erfolgreiche Adressieren an ein Ziel im Körper. Das erfordert Lösungen, bei denen Chemie auf Biologie und Medizin trifft. Deshalb arbeitet Landfesters Team seit 2013 in einem großen Sonderforschungsbereich mit diesen Disziplinen zusammen, auch die Physik ist dabei. Ein Ziel ist es, die Kapseln an ihrer Oberfläche mit Molekülen zu versehen, die nur von den zu bekämpfenden Erregern im Körper erkannt werden. Dazu muss die Kapsel allerdings chemisch so getarnt sein, dass sie nicht vorher schon im Blut von den falschen Adressaten wie den Fresszellen erkannt und aufgenommen wird. „Angesichts von 1600 Proteinen im Blut ist das eine echte Herausforderung“, sagt Landfester. Inzwischen hat das Team Lösungen für eine solche Tarnkappenfunktion gefunden. Eine wichtige Rolle spielen dabei sogenannte Apolipoproteine. Diese Moleküle führen dazu, dass die Nanokapseln von den Zellen nicht erkannt werden.

Beim Targeting, das Krebszellen bekämpfen soll, gibt es eine schlauere Alternative als die Tumorzellen direkt zu vergiften: Das Immunsystem selbst soll gegen die versteckten Tumorzellen fit gemacht werden. Dazu werden die Nanokapseln an der Oberfläche so präpariert, dass die T-Zellen des Immunsystems sie erkennen und zerstören. In der Kapsel befinden sich Moleküle, die das Immunsystem auf Merkmale der Tumorzellen trainieren. So lernen die T-Zellen, diese Feinde im Körper aufzuspüren und zu vernichten. Tatsächlich funktionieren diese „Nanotherapeutika“ schon bei erkrankten Mäusen im Labor. Katharina Landfester ist optimistisch, dass der Einsatz solcher Therapeutika auch bald beim Menschen möglich sein wird. Chemische Grundlagenforschung kann also auf unterschiedlichsten Gebieten Fortschritte bringen. Das ist das Faszinierende an ihr.


 *Der Artikel ist unter dem Titel " Smarte Polymere – wie Nanokapseln Chemie und Medizin revolutionieren" in TECHMAX 29 der Max-Planck-Gesellschaft erschienen, https://www.max-wissen.de/max-hefte/techmax-29-polymere-nanokapseln/.. Der unter einer CC BY-NC-SA 4.0 Lizenz stehende Artikel ist hier ungekürzt wiedergegeben. Abbbildung1 wurde von der Redaktion mit einer Beschriftung versehen.


Weiterführende Links

Katharina Landfester: Physikalische Chemie der Polymere. Max-Planck-Institut für Polymerforschung.  https://www.mpip-mainz.mpg.de/de/landfester

Volker Mailänder & Katharina Landstätter: Wirkstofftransporter für die Nanomedizin (2016). https://www.mpg.de/11344118/wirkstofftransporter-fuer-nanomedizin.pdf

Max-Planck.Institut für Polymerforschung: Kunststoff Bildungspfad: https://sites.mpip-mainz.mpg.de/kunststoffbildungspfad  

Universität Mainz: Sonderforschungsbereich 1066 - Die vier Teile der Videoreihe zum SFB 1066 im Überblick (30.10.2020):

inge Thu, 13.01.2022 - 17:30

Was ist long-Covid?

Was ist long-Covid?

Fr. 07.01.2022  — Inge Schuster

Inge Schuster Icon Medizin Weltweit haben sich bisher über 300 Millionen Menschen mit SARS-CoV-2 Infiziert, 5,47 Millionen sind an oder mit COVID-19 gestorben, etwa die Differenz gilt als "genesen". Dass ein beträchtlicher Anteil der "Genesenen" aber unter massiven Langzeitfolgen, dem sogenannten long-COVID, leidet, wird häufig übersehen. Die Fülle an Symptomen lassen long-COVID als eine Multiorgan-Erkrankung erscheinen. Deren Pathomechanismen sind aber noch weitgehend unverstanden. Es fehlen auch eindeutige Definitionen des Krankheitsbildes ebenso wie eine verlässliche Diagnostik und darauf aufbauende Maßnahmen zu Prävention und Rehabilitation. Impfungen könnten nicht nur vor der Erkrankung an COVID-19 schützen, sondern auch das Risiko von long-COVID reduzieren.

Vor mehr als einem Jahr infizierte sich unser Nachbar mit SARS-CoV-2 . Glücklicherweise kam es zu einem recht milden Verlauf: er hatte Symptome, wie man sie von einer sogenannten Erkältung kennt Schnupfen, Husten, Halsweh, etwas Fieber - und diese klangen rasch ab. Nicht abgeklungen sind allerdings nun mehr als ein Jahr danach die Langzeitfolgen: ein völliger Verlust von Geruchs- und Geschmacksempfindungen und eine bleierne Müdigkeit. Unser Nachbar ist damit kein Einzelfall.

Von COVID-19 genesen bedeutet nicht immer gesund.

Nach der akuten Phase einer Corona-Infektion treten häufig Langzeitfolgen auf. Es sind vielfältige, oftmals wenig spezifische Symptome wie u.a. dauernde Erschöpfung, Atemnot, Schlafstörungen, kognitive Probleme und Konzentrationsstörungen ("Gehirnnebel"), die sich nach einem schweren lebensbedrohenden, längerem Krankheitsverlauf, aber ebenso nach milden, 2-3 Wochen dauernden Verläufen und sogar nach asymptomatischen Verläufen einstellen können. Auch junge, gesunde und sportliche Personen und sogar Kinder können von solchen Langzeitfolgen betroffen sein.

Mit diesem neuartigen Krankheitsbild haben sich bereits sehr viele internationale und auch nationale Studien – klinische Untersuchungen, Internet-basierte Umfragen und Metaanalysen – befasst (allein in der Datenbank PubMed (MEDLINE) sind dazu schon 938 wissenschaftliche Artikel gelistet; 5.Jänner 2022); sehr viele Studien sind aktuell am Laufen. Dennoch ist Vieles noch ungeklärt – von der Epidemiologie (insbesondere bei Kindern) bis zur Charakterisierung und Definition der Krankheit, d.i. zu den Pathomechanismen vieler Symptome, zu deren Verlauf/Rückbildung, zur Lebensqualität und Funktionsfähigkeit der Betroffenen, zu Diagnose und Ansätzen zur Rehabilitation. Eine erste (zweifellos verbesserbare) Definition (Fallbeschreibung) hat die Weltgesundheitsorganisation (WHO) am 6. Oktober 2021 veröffentlicht:

       "Eine Post-COVID-19-Erkrankung kann bei Personen mit einer wahrscheinlichen oder bestätigten SARS-CoV-2-Infektion auftreten, in der Regel drei Monate nach Auftreten von COVID-19 mit Symptomen, die mindestens zwei Monate andauern und nicht durch eine andere Diagnose zu erklären sind. Zu den allgemeinen Symptomen zählen Erschöpfung, Kurzatmigkeit, kognitive Fehlleistungen sowie weitere, die sich im Allgemeinen auf den Tagesablauf auswirken. Die Symptome können neu auftreten nach einer anfänglichen Genesung von einer akuten COVID-19-Erkrankung oder die anfängliche Krankheit überdauern. Die Symptome können fluktuieren oder mit der Zeit wiederkehren. Eine gesonderte Definition kann für Kinder erforderlich sein." [1]

Von den unterschiedlichen Bezeichnungen, die für diese neuartige Erkrankung geprägt wurden - dem WHO angeregten Begriff "Post-COVID-19-Erkrankung" oder „long-haul COVID“ oder „long COVID“ - wird im folgenden Text long-COVID verwendet.

Wie viele SARS-CoV-2-Infizierte sind von long-COVID betroffen?

Über die Häufigkeit von long-COVID variieren die Aussagen. Während die WHO eine Inzidenz von 10 - 20 % der zuvor an COVID-19 Erkrankten schätzt [2], gehen zahlreiche nationale (u.a. in Norwegen, Großbritannien, USA, Deutschland, China, etc.) und internationale Studien davon aus, dass bis zu 75 % (und sogar noch mehr, siehe [5]) zumindest ein oder mehrere mit long-COVID assoziierte Symptome aufweisen.

Neueste Ergebnisse aus der bislang größten deutschen Studie - der EU-geförderte Gutenberg COVID-19 Studie - wurden in einer Pressekonferenz am 20. Dezember 2021 vorgestellt [3]. Die von Oktober 2020 bis März 2022 laufende Studie untersucht(e) eine repräsentative Bevölkerungsstichprobe von insgesamt 10.250 Personen aus Rheinhessen zu zwei Zeitpunkten im Abstand von 4 Monaten sowie nach einem Jahr. Ziel dieser Studie ist es das Krankheitsbild von long-COVID "evidenzbasiert charakterisieren und definieren zu können. Das beinhaltet beispielsweise betroffene Organe und Systeme, aber auch Risikofaktoren zu identifizieren" [3]. PCR- und Antigen-Tests ergaben, dass rund 5 % der Probanden sich mit dem Coronavirus - wissentlich oder unwissentlich - angesteckt hatten. Von diesen berichteten jeweils rund 40 % über mindestens 6 Monate nach der Infektion andauernde/neu aufgetretene long-COVID-Symptome. Etwa die Hälfte der Symptome verursachten eine mäßige bis schwere Beeinträchtigung des Alltagslebens und/oder Berufslebens.

Für eine der bisher größten internationalen Studien wurde eine Internet-basierte Umfrage designt, mit der sowohl das breite Profil der long-COVID Symptome, als auch deren zeitlicher Verlauf und die Auswirkungen auf Alltags- und Berufsleben erfasst werden sollten. Unter Leitung des University College London wurden damit 3762 COVID-19 Fälle aus 56 Ländern über 7 Monate verfolgt [4]. Von diesen gaben etwa 65 % an 6 Monate nach der Erkrankung noch unter Symptomen zu leiden: mehr als die Hälfte unter Erschöpfung (Fatigue), Verschlechterung des Zustands nach physischer oder mentaler Belastung, kognitiven Störungen ("Gehirn-Nebel"), Gedächtnisproblemen, Bewegungseinschränkungen, Kopfschmerzen; bis zu 50 % litten an Atemnot, Muskelschmerzen, Arrhythmien, Schlaflosigkeit, Gleichgewichtsstörungen, u.a.m. Wie schwer solche Symptome sind und, dass sie offensichtlich noch länger als 6 Monate anhalten dürften, ist in Abbildung 1 dargestellt.

Abbildung 1: Wahrscheinlichkeiten von leichten bis sehr schweren Symptomen nach COVID-19 und deren zeitlicher Verlauf. Schwere bis schwerste Symptome nehmen nach der Akutphase ab, sind aber nach 6 Monaten noch nicht abgeklungen. Mäßig starke und milde Symptome nehmen zu und dominieren die Spätphase. Bild modifiziert nach H. E. Davis et al.,2021 [4] (Lizenz cc-by 4.0).

Symptome von long-COVID

Das Krankheitsbild äußert sich in einer Fülle von sehr unterschiedlichen Symptomen, deren Pathomechanismen Gegenstand intensiver Forschung sind. In diesem Zusammenhang sollte darauf hingewiesen werden, dass sehr viele Typen unserer Körperzellen mit Rezeptoren ausgestattet sind, welche dort das Andocken und Eindringen von SARS-CoV-2 ermöglichen. So kann das Virus neben dem Atmungstrakt verschiedene andere Organe und Gewebe - von Herz, Niere, Leber bis zum Gehirn - befallen. Dies ist in Einklang mit klinischen Studien und Autopsien (s.u.), in denen strukturelle Schädigungen in Organen, Geweben, Blutgefäßen beobachtet werden, ausgelöst möglicherweise durch zurückbleibendes Virus, durch chronische Entzündungsprozesse und/oder durch Virus-verursachte Dysregulierungen des Immunsystems.

Dass das Krankheitsbild von long-COVID den gesamten Körper betreffen kann, soll an Hand von 2 repräsentativen Studien gezeigt werden, die bezüglich der am häufigsten auftretenden Symptome übereinstimmen:

     Eine systematische, umfassende Übersicht basierend auf Metaanalysen aller Artikel (peer-reviewed) mit Originaldaten zu long-COVID, die an mindestens 100 Personen stattfanden und vor dem 1. Jänner 2021 veröffentlicht wurden, ist im August 2021 im Fachjournal Nature erschienen [5]. Insgesamt wurden knapp 48 000 Patienten (im Alter von 17 - 87 Jahren) in einem Zeitraum von 14 - 110 Tagen nach der Virusinfektion erfasst und 55 Symptome identifiziert, die mit long-COVID assoziiert sind. Laut Schätzung der Autoren entwickelten rund 80 % der infizierten Patienten in dieser Zeit ein oder mehrere solcher Symptome. Zu den 5 am häufigsten vorkommenden Symptomen zählten Erschöpfung (58 %), Kopfschmerzen (44 %), Aufmerksamkeitsstörungen (27 %), Haarausfall (25 %) und Atemnot (24 %). Einen Überblick über alle 55 Symptome und deren Häufigkeit gibt Abbildung 2.

Abbildung 2. Symptome von long-COVID. Die Häufigkeit (%) der 55 Symptome ist durch Größe und Farben der Kreise gekennzeichnet; rund 80 % der Patienten litten im Zeitraum 14 - 110 Tage nach Infektion mit Beginn von COVID-19 unter zumindest einem der Symptome. Bild leicht modifiziert nach S. Lopez-Leon et al., [5] (Lizenz: cc-by).

     Die bereits oben erwähnte, vom University College London geleitete Studie berichtet über eine noch höhere Zahl an Symptomen [4]: Insgesamt finden sich über 200 Symptome in der Liste, die 10 Organsystemen zugeordnet wurden:

  • systemische Beeinträchtigungen (u.a. Erschöpfung, Schwäche, Fieber),
  • neuropsychiatrische Symptome (von kognitiven Beeinträchtigungen bis zur Ageusie),
  • Symptome des Atmungstraktes (u.a. Atemnot),
  • Symptome des Verdauungstraktes,
  • Symptome des Reproduktions-und endokrinen Systems,
  • Symptome des Herz-Kreislaufsystems,
  • Symptome des Skelett-Muskelsystems,
  • Symptome der Haut,
  • Symptome an Schädel, Auge, Ohr, Rachen,
  • immunologische / Autoimmun-Symptome.

Long-COVID oder nicht-long-COVID - das ist die Frage

Eine Vielfalt und Vielzahl an Symptomen lassen long-COVID als eine Multiorgan-Erkrankung erscheinen; es fehlen aber eindeutige Definitionen des Krankheitsbildes ebenso wie eine verlässliche Diagnostik und darauf aufbauende Maßnahmen zu Prävention und Rehabilitation. Viele der mit long-COVID assoziierten Beschwerden sind ja unspezifisch und können auch bei Personen auftreten, die nicht mit SARS-CoV-2 infiziert sind. Die Abgrenzung ist schwierig; vielen Studien, die long-Covid Symptome beschreiben, fehlen ausgewogene Kontrollgruppen aus der nicht-infizierten Bevölkerung.

Die bereits erwähnte Gutenberg-Studie [3] kann auf solche Kontrollgruppen zurückgreifen. Hier hatten 40 % der nachgewiesen Infizierten über diverse Langzeitfolgen berichtet - allerdings auch rund 40 % der nachgewiesen nicht-Infizierten. In dieser Gruppe überwogen allerdings unspezifische Symptome wie Müdigkeit, Schlafstörungen und Stimmungsschwankungen. Die Infizierten gaben dagegen spezifischere Symptome wie u.a. den Verlust von Geruch- und Geschmacksinn (Ageusie) an.

In einer schwedischen Studie (COMMUNITY) wurden an Spitalsbeschäftigten Langzeit-Symptome nach milden Verläufen von COVID-19 und an entsprechenden Kontrollgruppen untersucht: 26 % der Infizierten (gegenüber 9 % der nicht-Infizierten) gaben an längerfristig zumindest an einem mittelschweren bis schweren Symptom zu leiden, welche die Lebensqualität beeinträchtigten, wobei der Verlust von Geruch und Geschmack, Erschöpfung und Atemprobleme im Vordergrund standen. Kognitionsstörungen, Muskelschmerzen oder auch Fieber traten nicht häufiger als in der Kontrollgruppe auf [6].

Langzeitfolgen nach COVID-19 und Influenza. Langzeitfolgen sind auch nach anderen Virusinfektionen wie beispielsweise Influenza bekannt. Ein Forscherteam von der Oxford University hat - basierend auf den elektronischen Gesundheitsdaten von 81 Millionen Personen inklusive 273,618 von COVID-19 Genesener - das Auftreten von 9 langfristigen mit post-COVID assoziierten Symptomen an den COVID-19-Genesenen untersucht und an einer vergleichbaren Gruppe von im selben Zeitraum von Influenza genesenen Personen.[7] Insgesamt traten Symptome nach COVID -19 wesentlich häufiger auf als nach Influenza: im Zeitraum 3 - 6 Monate nach Infektion litten 42,3 % nach COVID-19 gegenüber 29,7 % nach Influenza an derartigen Symptomen. Auch nach einzelnen Symptomen betrachtet traten diese nach COVID-19 häufiger auf als nach Influenza. Abbildung 3. Ein beträchtlicher Teil der Beschwerden könnte auch bei nicht-infizierten Personen vorkommen.

Abbildung 3. Wesentliche langfristige Symptome nach COVID-19 treten auch nach Influenza auf, allerdings mit geringerer Häufigkeit. Bild zusammengestellt aus Daten von Table 1 in M. Taquet et al., [7](Lizenz: cc-by).

Long-COVID eine Multiorganerkrankung: Evidenz für die systemische Ausbreitung und Persistenz von SARS-CoV-2 in diversen Körperregionen

Vor wenigen Tagen ist die Untersuchung eines NIH-Forscherteams um Daniel Chertow erschienen (als preprint), die eine Erklärung für die breite Palette und Persistenz der long-COVID Symptome bieten könnte.

An Hand der Autopsien von 44 hospitalisierten (größtenteils intubierten) Patienten, die bis zu 230 Tage nach dem Auftreten von Symptomen an oder mit COVID-19 verstarben, wird erstmals ein Bild über die breite Verteilung von SARS-CoV-2 über nahezu den gesamten Organismus, seine Replikation, Mutierbarkeit und Persistenz - und das auch im Gehirn - aufzeigt [8]. (Die Autopsieproben wurden dabei zu einem Zeitpunkt analysiert , an dem sich die virale RNA noch nicht zersetzt hatte):

Gene des Virus wurden in den Lungen praktisch aller Verstorbenen in höchster Kopienzahl nachgewiesen, in niedrigerer Konzentration aber auch an mehr als 80 anderen Orten. Unter anderem wies bei 80 % der Patienten das Herz-Kreislauf-System Virus-RNA auf, bei 86 % das Lymph-System, bei 72 % der Magen-Darmtrakt, bei 64 % Nieren und Hor¬mondrüsen, bei 43 % die Fortpflanzungsorgane, bei 68 % Muskel-, Fett- und Hautgewebe einschließlich periphe¬rer Nerven, Augen bei 58 % und Hirngewebe bei 91 % (in 10 von 11 analysierbaren Proben). Neben den Genen des Virus wurden auch seine Genprodukte -Virus Proteine - in den Organen detektiert. Abbildung 4 zeigt, dass das virale Nucleocapsidprotein NP1 in allen Schichten des Cerebellums detektiert werden kann.

Abbildung 4. Das SARS-CoV-2 Protein Np1 (grün) wird in allen Schichten des Cerebellums detektiert (MS: Molekulare Schicht, KS: Körnerschicht, WS: weiße Substanz). Zellkerne: Neronen-spezifische Kerne wurden mit NeuN rot-violett gefärbt, andere Zell sind blau. Rechts. ein vergrößerter Ausschnitt aus der weißen Substanz zeigt ein angeschnittenes Blutgefäß, in dessen umhüllenden Endothelzellen das Virusprotein eingelagert ist. Bild: modifizierter Ausschnitt aus D. Chertow et al., 2021 [8].(Lizenz cc-by) .

Bei längerer Dauer der Infektion ging die Zahl der Virus RNA-Kopien in den Organen zurück, ließen sich jedoch bis zu 230 Tage nach Symptombeginn noch nachweisen; auch bei Patienten die symptomlos oder mit milden Symptomen verstarben.

Die Sequenzierung der RNA ergab, dass bei einigen Patienten bereits mehrere durch einzelne Mutationen unterschiedliche Varianten auftraten, die auf die fehlerhafte Replikation - Evolution - des Virus schließen ließen.

Kann die Impfung vor long-COVID schützen?

Dafür gibt es erste Hinweise aus der britischen Zoe-COVID-Studie, einer Initiative zu der weltweit via App Millonen Menschen beitragen. Für Großbritannien zeigen die Daten, dass zweifach geimpfte Personen nicht nur vor schweren Krankheitsverläufen mit Hospitalisierungen geschützt sind (Reduktion um 73 %), sondern auch - falls es zu einem Impfdurchbruch kommt - nur ein halb so großes Risiko haben long-COVID  zu entwickeln wie ungeimpfte Personen [9].

Fazit

Von den global bereits über 300 MIllionen mit SARS-CoV-2 Infizierten, gelten rund 97 % bereits als genesen. Tatsächlich dürfte ein beträchtlicher Teil (> 30 Millionen) an z.T. schweren Langzeitfolgen - long-COVID - leiden, welche die Lebensqualität beeinträchtigen und bis zur Funktionsunfähigkeit in Alltag und Berufsleben führen. Das Krankheitsbild äußert sich in einer Fülle von sehr unterschiedlichen Symptomen, deren Pathomechanismen bislang nicht bekannt sind und die auf eine Involvierung sehr vieler Organe und Gewebe hindeuten. (Der Großteil der zugrundeliegenden Studien stammt allerdings aus einem Zeitraum, in dem die neuen Virus-Varianten Delta und Omikron noch nicht entstanden waren; diese könnten zu einer unterschiedlichen Virusbelastung des Organismus führen.)

Bislang gibt es noch keine Definition für dieses neuartige Krankheitsbild, auch keine eindeutige Diagnose und Strategien zur Rehabilitation Betroffener. Welche Auswirkungen long-COVID auf unsere Gesundheitssysteme haben kann, wenn auch nur 10 % der Infizierten long-COVID entwickeln und langfristig behandelt werden müssen, lässt größte Befürchtungen aufkommen. Eine Intensivierung der Forschung zu long-COVID ist unabdingbar.


[1] WHO: Klinische Falldefinition einer Post-COVID-19-Erkrankung gemäß Delphi-Konsens (6.10.2021).https://apps.who.int/iris/bitstream/handle/10665/350195/WHO-2019-nCoV-Post-COVID-19-condition-Clinical-case-definition-2021.1-ger.pdf?sequence=1&isAllowed=y

[2]WHO: Coronavirus disease (COVID-19): Post COVID-19 condition (16 December 2021) https://www.who.int/news-room/questions-and-answers/item/coronavirus-disease-(covid-19)-post-covid-19-condition

[3] Die Gutenberg COVID-19 Studie. https://www.unimedizin-mainz.de/GCS/dashboard/#/app/pages/AktuelleErgebnisse/ergebnisselc

[4] Hannah E. Davis et al., Characterizing long COVID in an international cohort: 7 months of symptoms and their impact. July 2021, EClinicalMedicine.  DOI: 10.1016/j.eclinm.2021.101019

[5] Sandra Lopez-Leon et al., More than 50 long‑term effects of COVID‑19: a systematic review and meta‑analysis. Nature, Scientific Reports (2021) 11:16144; https://doi.org/10.1038/s41598-021-95565-8

[6] Sebastian Havervall et al., “Symptoms and Functional Impairment Assessed 8 Months After Mild COVID-19 Among Health Care Workers” April 2021, JAMA: Journal of the American Medical Association.  DOI: 10.1001/jama.2021.5612

[7] Maxime Taquet et al., Incidence, co-occurrence, and evolution of long-COVID features: A 6-month retrospective cohort study of 273,618 survivors of COVID-19. (28.09.2021) PLoS Med 18(9): e1003773. https://doi.org/10.1371/journal.pmed.1003773

[8] Daniel Chertow et al., SARS-CoV-2 infection and persistence throughout the human body and brain. Biological Sciences - Article, DOI:https://doi.org/10.21203/rs.3.rs-1139035/v1

[9] Michela Antonelli et al., Risk factors and disease profile of post-vaccination SARS-CoV-2 infection in UK users of the COVID Symptom Study app: a prospective, community-based, nested, case-control study. 2022, The Lancet, Infectious Diseases 22 (1): 43 - 55

inge Fri, 07.01.2022 - 18:53

Comments

2021

2021 mat Thu, 07.01.2021 - 06:20

Sinne und Taten - von der einzelnen Sinneszelle zu komplexem Verhalten

Sinne und Taten - von der einzelnen Sinneszelle zu komplexem Verhalten

Do, 30.12.2021 — Nora Schultz

Nora SchultzIcon Gehirn

Tiere sind häufig in Bewegung – auf der Suche nach Futter, Partnern oder Sicherheit. Dafür brauchen sie ein Nervensystem, das Sinneseindrücke und Verhalten gut aufeinander abstimmt. Wichtige Sinneseindrücke müssen schnell erkannt und korrekt interpretiert werden, um daraus angemessene Verhaltensbefehle für das motorische System zu entwickeln. In der einfachsten Variante reicht ein Reiz, um eine eindeutige Reaktion auszulösen. Manches Verhalten lässt sich daher bottom-up, von unten nach oben erklären, etwa manche Reflexe. Oft ist die Lage aber komplizierter. Dann beeinflussen höhere Netzwerke aufgrund von Erfahrungen, Erwartungen und multiplen sensorischen Informationen die Verarbeitung in den senso-motorischen Netzwerken – eben top-down. Dabei laufen Informationen oft in komplizierten und dynamischen Rückkopplungen zwischen Sensorik, Motorik und assoziativen „höheren“ Netzwerken. Die Entwicklungsbiologin Nora Schultz berichtet über dieses neue Kapitel der Hirnforschung*

Die Welt wahrnehmen und auf sie reagieren – das kennzeichnet alles Leben, vom schlichtesten Einzeller bis zum komplexesten Primaten. Am virtuosesten interagieren Tiere mit ihrer Umwelt, denn sie sind im Gegensatz zu vielen anderen Organismen zumindest für einen Teil ihres Lebens in reger Bewegung: auf der Suche nach Nahrung, Partnern oder Sicherheit. So ein Lebensstil setzt die Fähigkeit voraus, schnell und flexibel auf die sich ständig verändernde Außenwelt zu reagieren – Chancen bestmöglich zu nutzen und Risiken möglichst zu umschiffen. Der Schlüssel zum Erfolg, geschmiedet in mehr als 500 Millionen Jahren der Evolution, ist ein Nervensystem, in dem Sinne und Motorik geschickt zusammenspielen.

Los ging es wahrscheinlich ganz langsam. Charnia, das Lebewesen, von dem man annimmt, dass es das erste Tier gewesen sein könnte, ähnelte einem Farnblatt und lebte vor über 550 Millionen Jahren im Meer, vermutlich noch recht unbeweglich. Allein das in Fossilien dokumentierte Wachstumsmuster mutet tierisch an. Die ersten Tiere mit bilateralen Bauplänen verwendeten dann zur Koordination ihrer Aktivitäten einen zentralen Datenprozessor – ein Gehirn. Und vor rund 541 Millionen Jahren spülte der steigende Meeresspiegel einer sich erwärmenden Erde Mineralien ins Meer, die Tiere erstmals als Baustoffe für Skelette und Panzer nutzen konnten.

Ganz im Hier und Jetzt

Im sich nun entfaltenden Reigen der Jäger, Sammler und Gejagten, der balzenden, rivalisierenden oder migrierenden Tiere wurden Sensorik und Motorik entscheidend für das Überleben. Das Erfolgsrezept erscheint einfach: von Moment zu Moment gilt es wahrzunehmen, was wichtig ist, um dann zu tun, was richtig ist. Dafür braucht es drei Komponenten: 1. ein sensorisches System, das Reize aus der Umwelt aufnimmt, 2. Prozessoren, die diese Informationen verarbeiten und korrekte Verhaltensempfehlungen berechnen und 3. ein motorisches System, das diese umsetzen kann.

Schlicht gedacht

Einigen tierischen Verhaltensmustern kann man sich mit einem solchen schlichten Schema nähern. Schaltkreise mit klaren Bahnen, die von unten nach oben, von einem sensorischen Reiz zur Verarbeitung und dann weiter zur motorischen Reaktion verlaufen, gibt es beispielsweise bei Reflexen, mit denen ein Tier schnell und unwillkürlich in immer gleicher Weise auf bestimmte äußere Reize reagiert.

Manche Reflexe sind angeboren. Mit dem Lidschlussreflex etwa reagiert der Körper auf plötzliche Reize oder Gefahrensignale, um das empfindliche Auge vor Schäden zu schützen. Andere Reflexe werden erst im Laufe des Lebens erworben, wenn ein Tier lernt, dass sich ein konkretes Verhalten in bestimmten Situationen bewährt. Ein berühmtes Beispiel hierfür ist der Sabberreflex, mit dem die Hunde von Iwan Petrowitsch Pawlow auf einen Glockenton reagierten, der immer kurz vor der Fütterung erklang. Die Tiere hatten gelernt, den Ton als verlässliches Signal für den bevorstehenden Verdauungsprozess wahrzunehmen.

Planung ist komplexer

Mit derart starren Verhaltensmustern lässt sich aber längst nicht alles erreichen, was in einer wandelbaren Welt notwendig oder wünschenswert wäre. Das gilt erst recht, wenn es um komplexeres Verhalten geht, das viele Faktoren berücksichtigen muss und vielleicht sogar längerfristiger geplant wird. Wie ein Nervensystem solche Aufgaben löst und dabei die richtige Balance zwischen Reizwahrnehmung und Reaktionswahl findet, lässt sich besser top-down betrachten – also von oben nach unten. Denn Planung bezieht auch Erfahrungen mit ein und Erfahrung führt zu Erwartung. Höherliegende Schaltkreise beeinflussen entsprechend die Verarbeitung bestimmter Reize durch vorgeschaltete Netzwerke, indem sie wie ein Filter wirken. Eine solche Verschaltung ermöglicht ein deutlich komplexeres Verhalten.

Die komplexe Realität

Die Realität liegt meist irgendwo zwischen beiden Extremen. Die Nervenbahnen von Sensorik und Motorik funken selten nur einspurig. Stattdessen gilt es schon für scheinbar schlichtes Verhalten, oft Informationen aus mehreren Quellen zu verrechnen und das Ergebnis dann wiederum an mehrere Empfängerregionen im Körper zurückzuspielen. Diese Integrations- und Verteilungsleistungen laufen auf unterschiedlichen Ebenen ab. Anfangs registrieren Sinneszellen bestimmte Reize. Die mit ihnen verknüpften Neurone und Netzwerke funktionieren dann wie eine Reihe von Filtern, die auf unterschiedliche Aspekte der Sinneseindrücke reagieren. Die extrahierten Informationen geben sie jeweils an die nächste Ebene zur Verrechnung weiter: Sie werden weiter gefiltert, und mit den Informationen aus anderen Sinnesorganen oder zentralen neuronalen Netzwerken integriert.

Fruchtfliegen zum Beispiel müssen sich in einer dreidimensionalen Welt zurechtfinden, wenn sie durch die Luft navigieren und dabei Hindernissen und Räubern ausweichen wollen. Die Fotorezeptoren in ihren Augen reagieren auf bestimmte Lichtintensitäten oder Wellenlängen, andere Sinneszellen auf die Position des eigenen Körpers oder Geräusche. Unterschiedlich spezialisierte Zellen auf der nächsten Ebene, filtern weitere Details aus den Informationen heraus, zum Beispiel die Richtung, aus der verschiedene Signale kommen, oder die Geschwindigkeit, mit der sie sich verändern. Auf einer noch höheren Ebene integrieren weitere Zellen die Komponenten zu raumzeitlichen Mustern, die einem Gesamtbild der aktuellen Situation und der Verhaltensmöglichkeiten entsprechen.

Bewegung in 3D

„Manche Zellen reagieren nur auf Veränderungen von dunkel nach hell, andere, nachgeschaltete Zellen, auf Verschiebungen von unten nach oben oder von vorne nach hinten“, erklärt Alex Mauss. Er hat gemeinsam mit Alexander Borst am Max-Planck-Institut für Neurobiologie in München erforscht, wie der Austausch zwischen einzelnen Zelltypen und verschiedenen Schaltkreisen abläuft, wenn Fruchtfliegen ihren Flugkurs korrigieren. Dabei muss das Tier nicht nur die Außenwelt berücksichtigen, sondern auch, wie sich diese zur eigenen Bewegung verhält. Mithilfe optogenetischer Methoden lassen sich einzelne Zelltypen durch Lichteinwirkung ein- oder ausschalten um so ihren Beitrag zum Verhalten der Fliege zu untersuchen. „Was eine einzelne Zelle tut, kann als Steuersignal funktionieren, um den Kurs der Fliege zu korrigieren, sodass sie beispielsweise ihr Laufverhalten oder ihren Flügelschlag ändert“, sagt Mauss.

Sender = Empfänger

Sensorik und Motorik interagieren dabei nicht nur mehrspurig, sondern auch in beide Richtungen: Sie funken in einem regen Gegenverkehr vielfältige Rückmeldungen hin und her. Abbildung.

Abbildung .Informationen laufen nicht nur in eine Richtung, sondern oft in komplizierten und dynamischen Rückkopplungen zwischen Sensorik, Motorik und assoziativen „höheren“ Netzwerken.

Schon einfach gestrickte Nervensysteme können so Sinneseindrücke und Verhaltensbefehle virtuos aufeinander abstimmen. Räuberisch lebenden Würfelquallen etwa besitzen noch nicht einmal ein Gehirn, sondern lediglich einen Nervenring, der mit einer Reihe von Sinnesorganen verbunden ist. Zu diesen Sinnesorganen gehören mehrere Augen und Gleichgewichtsorgane mit unterschiedlichen Aufgaben und Ausrichtungen, die gut miteinander und mit dem motorischen System der Qualle vernetzt sind. Diese lokale Vernetzung reicht, um den Quallen komplexe Schwimmmanöver zu erlauben. „Das klappt, weil die Sensorik hier einen direkten Zugriff auf die Motorik hat – und umgekehrt“, erklärt Benedikt Grothe von der Ludwig-Maximilians-Universität München. „Die Augen beeinflussen direkt, wie die Qualle sich bewegt."

Manche Rückkopplungen zwischen Sensorik und Motorik sind schon länger bekannt. So weiß man seit Mitte des 20. Jahrhunderts, dass Kopien motorischer Befehle (so genannte Efferenz-Kopien) an sensorische Areale geschickt werden, damit Informationen über die Bewegung des eigenen Körpers dort mit neuen Sinnesinformationen verrechnet werden können. Das ist nötig, um korrekt einzuschätzen, wie sich die Wahrnehmung der Umwelt durch eigene Bewegungen verändert. Andernfalls entstünden verzerrte Eindrücke.

Wie vielfältig und komplex sich die Interaktion von Sensorik und Motorik jedoch tatsächlich gestaltet, um Verhalten optimal an die Umwelt anzupassen, wird erst neuerdings richtig deutlich. „Nervensysteme funktionieren nicht nur als externe sondern auch als interne Kommunikationssysteme“, sagt Grothe: „Auf der Suche nach Regeln für die Informationsverarbeitung von Ebene zu Ebene haben wir zu oft nur in die eine Richtung geschaut und dann festgestellt, dass das nur die halbe Wahrheit ist.“

Im menschlichen Hörsystem zum Beispiel geht es entgegen ursprünglicher Erwartungen keineswegs darum, ein möglichst akkurates Abbild der Umwelt aufzubauen und etwa eine Schaltquelle genau zu orten. So ein Konzept passt zwar in schalldichten Kammern ohne Störgeräusche, aber im echten Leben, in dem zahlreiche Reize permanent auf alle Sinne einprasseln und sich auch gegenseitig in die Quere kommen, funktioniert das System anders.

Erwartung und Realität

„Wir dachten, wir bauen ein Bild unserer Umgebung auf, aber das ist eine Illusion“, sagt Grothe. Stattdessen verrechnen Schaltkreise innerhalb von Millisekunden etliche lokale und systemweite Rückkopplungen und berücksichtigen dabei sowohl äußere Reize als auch interne Erfahrungen, Erwartungen und Reaktionen. Auf Grundlage solcher Erkenntnisse sind Konzepte wie predictive coding und active sensing entstanden, nach denen Sinneseindrücke im Cortex mit Erfahrungen, Erwartungen und Handlungsdispositionen integriert werden, die wiederum zu bestimmten Erwartungshaltungen führen. Diese schärfen das Sinnessystem besonders für Reize, die diesen Erwartungen gerade nicht entsprechen. Solche Überraschungen werden nun bevorzugt registriert und lösen Alarm aus. Die Vorteile eines derartigen Feintunings liegen auf der Hand: Wer im Alltagstrott feine Antennen für unerwartete Gefahren – oder Chancen – bewahrt, sichert sich so vielleicht den entscheidenden Überlebensvorteil.

Die Erkenntnis, dass Sensorik und Motorik nicht in fest verschalteten, hierarchischen Bahnen verlaufen, sondern hochdynamisch und flexibel miteinander und mit der Umwelt interagieren, bringt neue Herausforderungen für die Forschung mit sich. Die Fragen werden komplizierter und Experimente anspruchsvoller. Nun gilt es zu beobachten und zu verstehen, wie Gruppen verschiedener Zellen zusammenarbeiten, wenn ein Tier sich durch die Welt bewegt. Methodische Fortschritte wie die gleichzeitige Ableitung vieler Zellen, Virtual-Reality-Simulationen für Versuchstiere und Leistungssprünge in der Datenanalyse und Algorithmenentwicklung öffnen hier neue Perspektiven. Die neue ökologische Sichtweise auf das Nervensystem alleine reicht allerdings nicht, sondern muss ergänzt werden durch ein besseres Verständnis davon, wie dynamisch verknüpfte Nervenzellen die Interaktionsfülle meistern, betont Benedikt Grothe: „Die Rechenleistungen des einzelnen Neurons haben wir bislang völlig unterschätzt.“


 Zum Weiterlesen (open access)

• Ferreiro DN et al: Sensory Island Task (SIT): A New Behavioral Paradigm to Study Sensory Perception and Neural Processing in Freely Moving Animals. Front. Behav. Neurosci., 25 September 2020.   https://doi.org/10.3389/fnbeh.2020.576154 ]

• Lingner A et al: A novel concept for dynamic adjustment of auditory space. Sci Rep 8, 8335 (2018). https://doi.org/10.1038/s41598-018-26690-0

• Busch, C., Borst, A., & Mauss, A. S. (2018). Bi-directional control of walking behavior by horizontal optic flow sensors. Current Biology, 28(24), 4037-4045.https://doi.org/10.1016/j.cub.2018.11.010


 * Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Der vorliegende Artikel ist am 18.Dezember 2021 unter dem Titel: "Sinne und Taten. Von der einzelnen Sinneszelle zu komplexem Verhalten: Das gelingt dem Nervensystem mit vielen hochdynamischen Rückkopplungen." erschienen (https://www.dasgehirn.info/grundlagen/struktur-und-funktion/sinne-und-taten). Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt.


Artikel von Nora Schultz auf ScienceBlog.at


 

inge Thu, 30.12.2021 - 23:40

Francis S. Collins: Abschied vom NIH

Francis S. Collins: Abschied vom NIH

Do, 23.12.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin An diesem Wochende hat Francis S. Collins seinen Abschied als Direktor der US-National Institutes of Health (NIH) , der weltweit größten Forschungs-und Forschungsförderung-Einrichtung, genommen. Collins, zuvor bereits einer der berühmtesten Pioniere der Genforschung (Entdecker einiger wichtiger krankheitsverursachender Gene, Leiter des Human Genome Projekts) kann in seiner 12-jährigen Amtszeit auf große Erfolge verweisen: abgesehen von 39 Nobelpreisträgern, deren Arbeiten durch NIH-Förderung ermöglicht wurden, wurden die Brain Initiative, die Präzisionsmedizin Initiative (All of Us) gestartet , ein neues Zentrum für "Advancing Translational Sciences" eröffnet und schließlich in Zusammenarbeit mit Moderna innerhalb kürzester Zeit ein sicherer Impfstoff gegen COVID-19 entwickelt, der sich auch als der derzeit wirksamste erweist. Bestrebt neue Entdeckungen in Biologie und Medizin einem breiten Publikum zu kommunizieren, hat Collins dies in seinem NIH-Director's Blog getan. 2016 hat er unserem ScienceBlog gestattet seine Beiträge übersetzt, unter seinem Namen in unseren Blog zu stellen. Wir sind dafür ungemein dankbar und stolz auf bislang 32 seiner leicht verständlichen Artikel über Spitzenforschung, die wir  in unseren Blog stellen durften.

So viel zum Wissenschafter Collins. Den Menschen Collins kann man wohl nicht besser charakterisieren, als dies Rebeecca Baker, Direktor der NIH HEAL Initiative in 3 Worten getan hat. Er vereint in seiner Person: "Human, Kindness, Action". (Humanity und Hoffnung spricht auch aus seiner Paraphrasierung von "Somewhere  over the Rainbow", s.u.)

Wir wünschen Francis Collins nun allen seinen bislang zu kurz gekommenen Hobbies nachkommen zu können und weiterhin eine nicht abreißende Erfolgssträhne, wenn er wieder in sein Labor zurückkehrt.*

Euch Allen ein frohes Fest!

Wie Ihr vielleicht gehört habt, ist dies mein letzter Urlaub als Direktor der National Institutes of Health (NIH) – eine Position, die ich in den letzten 12 Jahren und vier Monaten unter drei US-Präsidenten innehatte. Und, wow, es kommt mir wirklich vor, als wäre es erst gestern gewesen, als ich diesen Blog gestartet habe!

Als ich den Blogs startete, nannte ich als mein Ziel, „neue Entdeckungen in Biologie und Medizin aufzuzeigen, welche meiner Meinung nach bahnbrechend, bemerkenswert oder einfach nur cool sind“. Mehr als 1.100 Beiträge, 10 Millionen einzelne Besucher und 13,7 Millionen Aufrufe später, stimmen Sie mir hoffentlich zu, dass dieses Ziel erreicht wurde. Ich habe auch festgestellt, dass das Bloggen sehr viel Spaß macht und eine großartige Möglichkeit ist, meinen eigenen Horizont zu erweitern und ein wenig von dem, was ich über biomedizinische Fortschritte gelernt habe, mit Menschen im ganzen Land und auf der ganzen Welt zu teilen.

Wenn ich mich also als NIH-Direktor abmelde

und in mein Labor am National Human Genome Research Institute (NHGRI) des NIH zurückkehre, möchte ich allen danken, die diesen Blog jemals besucht haben – von Gymnasiasten bis hin zu Menschen mit Gesundheitsproblemen, von biomedizinischen Forschern bis hin zu politischen Entscheidungsträgern. Ich hoffe, dass die evidenzbasierten Informationen, die ich bereitgestellt habe, für meine Leser ein wenig hilfreich und informativ waren. In diesem meinem letzten Beitrag teile ich ein kurzes Video, das nur einige der vielen spektakulären Bilder des Blogs hervorhebt; viele davon sind von NIH-finanzierten Wissenschaftlern im Laufe ihrer Forschung erstellt worden (Anmerkung der Redaktion: zahlreiche der hier aufgezeigten Einträge sind übersetzt im ScienceBlog erschienen):

In dem Video seht Ihr eine etwas ungewohnte Sammlung von Einträgen. Ich hoffe aber, dass Ihr daraus meine Begeisterung für das Potential der biomedizinischen Forschung verspüren könnt, welches diese für den Kampf gegen Erkrankungen des Menschen und für die Verbesserung seiner Gesundheit innehat – das Spektrum reicht hier von innovativen Immuntherapien zur Behandlung von Krebs bis hin zum Geschenk von mRNA-Impfstoffen, die zur Bekämpfung einer Pandemie eingesetzt werden.

Im Laufe der Jahre habe ich über viele von den kühnen, neuen Grenzen der Biomedizin gebloggt, die jetzt von NIH geförderten Wissenschaftlerteams erforscht werden. Wer hätte sich vorstellen können, dass sich die Präzisionsmedizin innerhalb von einem Dutzend Jahren von einer interessanten Idee zu einer treibenden Kraft hinter der größten NIH-Initiative aller Zeiten ("All of us") entwickeln würde, einer Initiative, die versucht, die Prävention und Behandlung häufiger Erkrankungen auf die individuelle Basis zuzuschneiden? Oder, dass wir heute bereits tief in die genaue Funktionsweise des menschlichen Gehirns vorgedrungen sind oder wie die menschliche Gesundheit von einigen der Billionen von Mikroorganismen profitieren kann, die unseren Körper als ihr zuhause bezeichnen?

Meine Beiträge haben sich auch mit einigen der erstaunlichen technologischen Fortschritte befasst, die in einer Vielzahl von wissenschaftlichen Disziplinen Durchbrüche ermöglichen. Diese innovativen Technologien umfassen leistungsstarke neue Möglichkeiten, um die atomaren Strukturen von Proteinen zu kartieren, genetisches Material zu editieren und verbesserte Gentherapien zu designen.

Was kommt demnächst für das NIH?

Ich kann Euch dazu versichern, dass sich das NIH in sehr ruhigen Händen befindet, wenn es einen hellen Horizont ansteuert, der vor außerordentlichen Möglichkeiten für die biomedizinische Forschung nur so übersprudelt. Wie Ihr erwarte ich Entdeckungen, die uns den lebensrettenden Antworten, die wir alle wollen und brauchen, noch näher bringen.

Während wir darauf warten, dass der US-Präsident einen neuen NIH-Direktor ernennt, wird Lawrence Tabak als amtierender NIH-Direktor fungieren - Tabak war in den letzten zehn Jahren stellvertretender NIH-Direktor und mein rechter Arm. Wartet also Anfang Januar auf seinen ersten Beitrag!

Was mich selbst betrifft,

werde ich mir wahrscheinlich ein wenig Auszeit gönnen, um bereits dringend benötigten Schlaf nachzuholen, um ein bischen zu lesen und zu schreiben und hoffentlich noch ein paar Fahrten auf meiner Harley mit meiner Frau Diane zu unternehmen. In meinem Labor mit dem Schwerpunkt auf Typ-2-Diabetes und einer seltenen Krankheit des vorzeitigen Alterns, dem sogenannten Hutchinson-Gilford-Progerie-Syndrom, gibt es allerdings viel zu tun. Ich freue mich darauf, diesen Forschungsmöglichkeiten nachzugehen und zu sehen, wohin sie führen.

Abschließend möchte ich Euch allen meinen aufrichtigen Dank für Euer Interesse aussprechen, während der letzten 12 Jahre vom NIH-Direktor hören zu wollen - und die NIH-Forschung zu unterstützen. Es war eine unglaubliche Ehre, Euch an der Spitze dieser großartigen Institution, die oft als National Institutes of Hope bezeichnet wird, zu dienen. Und nun senden Diane und ich Euch und Euren Lieben ein letztes Mal unsere herzlichsten Wünsche für ein frohes Fest und ein gesundes neues Jahr!


*Dieser Artikel von NIH-Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 19. Dezember 2021) im NIH Director’s Blog unter dem Titel: "Celebrating NIH Science, Blogs, and Blog Readers!" https://directorsblog.nih.gov/2021/12/19/celebrating-nih-science-blogs-and-blog-readers/ Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit einigen Untertiteln versehen. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


A Farewell for Dr. Francis Collins: Anthony Fauci. Video 5:11 min. https://www.youtube.com/watch?v=kWa9528JbF8

Francis Collins: Somewhere Past the Pandemic.https://www.youtube.com/watch?v=ftvkgpmgMao American Academy of Arts & Sciences; Video 2:03 min

Zur Gitarre singt Collins:

"Somewhere past the pandemic, where we're free,

there's a life I remember, full of activity,

Somewhere past the pandemic, no quarantine

We'll all stay well and healthy thanks to a safe vaccine.

 

Thank God these shots came very fast.

so all my fears are now behind me.

My family now can leave our home,

visit stores and freely roam

Masks off finally!

 

Somewhere past the pandemic life will resume.

We'll all complain about the traffic,

forgetting how we hated Zoom.

 

Somewhere past the pandemic, I'll hug my friends.

And thank God, science. and people,

have brought the pandemic's end.

 

But though we're doing better here,

those other countries' cries we hear

they're our family too.


Artikel von Francis S. Collins in ScienceBlog.at unter:

https://scienceblog.at/francis-s-collins


 

inge Thu, 23.12.2021 - 12:44

Omikron - was wissen wir seit vorgestern?

Omikron - was wissen wir seit vorgestern?

Do. 16.12.2021  — Inge Schuster

Inge Schuster Icon Medizin Die Omikron-Variante von SARS-CoV-2 weist eine hohe Zahl an Mutationen auf, insbesondere im Spikeprotein, mit dem es an unsere Zellen andockt. Wie Labortests zeigen kann Omikron deshalb in hohem Maße der schützenden Immunantwort durch Antikörper entkommen, die durch Impfung oder Infektion gegen ein nicht-(weniger-)mutiertes Spikeprotein erzeugt worden waren. Eine großangelegte britische Studie an mehr als 180 000 Personen zeigt nun erstmals in welchem Ausmaß die aktuellen Vakzinen von Pfizer und AstraZeneca vor symptomatischen Infektionen mit den Omikron-und Delta-Varianten schützen können. Auch wenn über die Zeit hin neutralisierende Antikörper bereits verschwunden sind, bleibt ein gewisser Schutz noch bestehen, möglicherweise durch eine substantielle Beteiligung von T-Zellen an der Immunantwort.

Die neue Omikron-Variante von SARS-CoV-2 breitet sich mit einer bisher nie gekannten, rasanten Geschwindigkeit über den ganzen Erdball aus - bereits 77 Länder sind davon betroffen (WHO, Status 15.12.2021), auch solche mit hohen Durchimpfungsraten. In nicht minder rasantem Tempo versuchen Forscherteams auf der ganzen Welt die Gefährlichkeit dieser Variante zu ergründen und Mittel und Wege zu ihrer Eindämmung zu finden. Weil es ja so schnell gehen muss, werden die Ergebnisse in Form vorläufiger Berichte sofort auf online- Plattformen wie medRxiv oder bioRxiv gestellt und sind für jedermann zugänglich.

Seit einer Woche häufen sich Berichte, die übereinstimmend zeigen, dass Antikörper, die durch die aktuellen Impfungen oder auch Infektionen erzeugt wurden, in Labortests Omikron sehr viel schwächer neutralisieren als die bisherigen Varianten (zusammengefasst in (1]). Ein britisches Team aus akademischen Institutionen und Gesundheitseinrichtungen hat nun eine großangelegte erste - ebenfalls vorläufige - Untersuchung aus der "realen Welt" vorgelegt, nämlich eine Studie zur Wirksamkeit der aktuellen Impfungen gegen symptomatische Erkrankungen durch die Omikron-Variante und die (noch) dominierende Delta-Variante [2].

Die Situation in Großbritannien

Hier begannen die Impfungen gegen COVID-19 bereits im Dezember 2020, wobei jeweils 2 Mal hauptsächlich mit der Vakzine von Pfizer/Biontech-Impstoff (BNT162b2) oder von AstraZeneca (ChAdOx1-S) (oder in geringem Ausmaß von Moderna (mRNA-1723)) geimpft wurde. Im September 2021 begann man 6 Monate nach der letzten Impfung mit einem dritten Stich, einem Boostern mit dem Pfizer- oder Moderna-Impfstoff.

Die Durchimpfungsrate der Bevölkerung ist hoch. Insgesamt sind rund 70 % zwei Mal geimpft, von den über 50 Jährigen sind es über 80 %; und rund 37 % der Bevölkerung haben bereits einen dritten Stich erhalten. (UK Health Security Agency, Stand 15.12.2021).

Die ersten symptomatischen Omikron-Infektionen wurden mittels Genom-Sequenzierung Mitte November 2021 festgestellt. Inzwischen hat deren Zahl exponentiell auf insgesamt 10 017 Fälle zugenommen - von vorgestern auf gestern waren es um 4671 Fälle mehr (UK Health Security Agency, Stand 15.12.2021).

Die Studie in Großbritannien

Insgesamt erfolgten Testungen zwischen dem 27.11. und 6.12.2021 an 187 887 Personen, die über Symptome einer möglicher COVID-19 Erkrankung klagten. Damals gab es erst "nur" 581 Fälle mit bestätigter Omikron-Infektion, in 56 439 Fällen war die damals bei weitem dominierende Delta-Variante der Verursacher. In 130 867 Fällen verlief der Test negativ (Table 1 in [2]).

Der bei weitem überwiegende Teil der Untersuchten war geimpft. Man wusste aber bereits , dass der Impfschutz gegen die Delta-Variante mit zeitlicher Distanz zur Impfung stetig abnahm. Eine Aufschlüsselung der Inzidenzen nach geimpft/ungeimpft ergab aber einen deutlichen Vorteil für die Geimpften: 72 % der Geimpften waren nicht mit SARS-CoV-2 infiziert, 28 % mit der Delta-Variante und 0,27 % mit der neuen Omikron Variante. Dagegen waren 49 % der Ungeimpften mit der Delta-Variante und 1 % mit der Omikron-Variante infiziert. Abbildung 1.

Abbildung 1: Die aktuellen Vakzinen sind gegen die dominierende Delta-Variante und die neue Omikron- Variante wirksam. (Abbildung mit Daten aus Tabelle 1,[2] zusammengestellt, die unter einer cc-by-nc-nd: Lizenz stehen).

Die Wirksamkeiten gegen die Omikron- und Delta-Varianten nehmen innerhalb weniger Monate ab

Im Detail erfassten die Testungen Zeiträume von 2 -9 Wochen bis 25 (und mehr) Wochen nach der 2. Dosis Impfstoff und (zumindest) 2 Wochen nach dem Booster, der sowohl nach 2 x Pfizer als auch nach 2 x AstraZeneca mit dem Pfizer-Impfstoff erfolgte.

Insgesamt war die Wirksamkeit gegen die Delta-Variante bedeutend höher als gegen die Omikron-Variante und nahm in beiden Fällen über die Zeit hin stark ab.

Nach etwa einem halben Jahr (25 + Wochen) war die Wirksamkeit der Pfizer-Doppelimpfung gegen die Delta-Variante von anfänglich (d.i. 2- 9 Wochen nach dem 2. Stich) rund 88 % auf im Mittel rund 63 % gesunken, 2 Wochen nach dem Booster stieg die Wirksamkeit aber wieder auf 92,6 %. Abbildung 2. Gegen die Omikron-Variante wirkte die Pfizer-Vakzine bedeutend schwächer: bereits 10 -14 Wochen nach der 2. Impfdosis war die anfängliche Wirksamkeit von im Mittel 88 % auf 48 % gesunken, nahm noch weiter auf rund 35 % ab und blieb dann über den weiteren Zeitverlauf konstant. 2 Wochen nach dem Booster wurden dann rund 75,5 % Wirksamkeit erreicht. Abbildung 2.

Abbildung 2. Wirksamkeit der Pfizer-Vakzine gegen die Delta-Variante (Quadrate) und Omikron-Variante (Kreise). Zeitverlauf nach dem 2. Stich und 2 Wochen nach dem Booster. . Ab 15 Wochen nach dem 2. Stich bleibt die Wirksamkeit gegen Omikron auf konstantem Niveau von rund 35 % .Auf Grund der zum Testzeitpunkt noch geringen Omikron-Fallzahlen, sind die Werte mit großen Streuungen behaftet. (Bild aus [2], Figure 1; Lizenz: cc-by-nc-nd).

Die mit der AstraZeneca-Vakzine gegen Delta und Omikron erzielten Ergebnisse waren weit schlechter. (Keine Abbildung.) Die Wirksamkeit gegen die Delta-Variante war nach 25 Wochen auf rund 42 % gesunken, gegen die Omikron-Variante gab es bereits 15 Wochen nach dem 2. Stich keine schützende Wirkung mehr. Ein dritter Stich mit der Pfizer Vakzine ergab 2 Wochen später eine gesteigerte Wirkung gegen Delta von rund 92 %, gegen Omikron von 71,4 %.

Fazit

2 Dosen der aktuellen Impfstoffe von Pfizer oder AstraZeneca reichen nicht aus, um vor symptomatischen Infektionen insbesondere mit der Omikron-Variante geschützt zu werden. Durch einen dritten Stich - Boostern - mit dem Pfizer-Impfstoff werden kurz danach adäquate Schutzwirkungen erzielt; darüber, wie lange dieser Schutz anhält, sind aber noch keine Daten erhoben.

Neutralisierende Antikörper und Impfschutz

Allgemein wird der Impfschutz vor symptomatischen Infektionen mit dem Vorhandensein neutralisierender Antikörper korreliert, die hochselektiv an Bereiche (Epitope) eines Pathogens binden und so dessen Eintritt in unsere Körperzellen und Vermehrung blockieren - das Pathogen neutralisieren.

In der vergangenen Woche hat das Team um die Frankfurter Immunologin Sandra Ciesek über Labortests berichtet, in denen untersucht wurde wieweit die in Serumproben Geimpfter enthaltenen Antikörper die authentischen Omikron- und Delta-Varianten zu neutralisieren vermögen [3] [1]. Gleichgültig ob 2 x mit der Pfizer-, der Moderna- oder der AstraZeneca-Vakzine geimpft worden war, konnten 6 Monate nach dem 2. Stich in keiner Serumprobe mehr Omikron-neutralisierende Antikörper nachgewiesen werden. Auch gegen die Deltavariante enthielten nur 47 % der Serumproben von Pfizer-Geimpften, 50 % der Moderna-Geimpften und 21 der AstraZeneca-Geimpften neutralisierende Antikörper. Das Boostern von 2 x Pfizer-Geimpften mit einem dritten Pfizerstich führte zu gesteigerten Antikörperspiegeln: 2 Wochen danach enthielten nun 100 % der Seren Antikörper gegen Delta, aber nur 58 % gegen Omikron; 3 Monate nach dem dritten Stich hatten noch 95 % der Seren messbare Titer gegen Delta, aber nur mehr 25 % gegen Omikron.

Abbildung 3. Der Impfschutz gegen Omikron- und Delta-Varianten ist höher als auf Grund von Antiköpertests geschätzt. Bestimmungen: 6 Monate nach 2 x Pfizer(2x6m), 2 Wochen nach 3. Pfizerstich (3x2w) und 3 Monate nach dem 3. Pfizerstich (3x3m) . Angaben in % der Serumproben, die neutralisierende Antikörper enthalten und % Wirksamkeit gegen symptomatische Infektionen n.b.: nicht bestimmt. (Daten zusammengestellt aus [2] und[3].)

Diese Antikörpertiter aus der Neutralisationsstudie und die aus der britischen Studie hervorgehende Wirksamkeit der Impfungen zeigen keine quantitative Korrelation. Dies ist für die 2x, 3x Impfung mit der Pfizer-Vakzine in Abbildung 3 dargestellt.

6 Monate nach 2x Pfizer sind in den Serumproben zwar keine neutralisierenden Antikörper gegen Omikron mehr enthalten [3], dennoch hat die Impfung noch 33 % Wirksamkeit (Abbildung 2, [2]). Auch gegen die Deltavariante ist die Wirksamkeit der Impfung nach 6 Monaten höher als aus den Antikörperspiegeln vermutet und ebenso 2 Wochen nach dem Boostern gegen die Omikron-Variante. Dies könnte auf eine substantielle, langanhaltende Beteiligung von CD8+ T-Zellen an der Immunantwort hinweisen, gegen die Omikron noch keine Fluchtmutationen entwickelt hat [4]; die Folge davon:

                   Wenn neutralisierende Antikörper verschwinden, besteht zwar ein hohes Risiko mit Omikron infiziert zu werden, patrouillierende T-Zellen können aber infizierte Zellen erkennen, deren Zerstörung einleiten und so einen schweren Krankheitsverlauf verhindern/mildern.


[1] I. Schuster, 11.12.2021.: Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2?

[2] Nick Andrews et al., Effectiveness of COVID-19 vaccines against the Omicron (B.1.1.529) variant of concern; medRxiv preprint (14.12.2021), doi: https://doi.org/10.1101/2021.12.14.21267615

[3] A. Wilhelm et al., Reduced Neutralization of SARS-CoV-2 Omicron Variant by Vaccine Sera and monoclonal antibodies. doi: https://doi.org/10.1101/2021.12.07.21267432

[4] Andrew D Redd et al., Minimal cross-over between mutations associated with Omicron variant of SARS-CoV-2 and CD8+ T cell epitopes identified in COVID-19 convalescent individuals. doi: https://doi.org/10.1101/2021.12.06.471446


Artikel in ScienceBlog.at

Zu COVID-19 sind bis jetzt 38 Artikel erschienen. Die Links finden sich zusammengefasst unter: Themenschwerpunkt Viren

inge Fri, 17.12.2021 - 00:13

Comments

Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2?

Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2?

Sa. 11.12.2021  — Inge Schuster

Inge Schuster Icon Medizin Die neue, von der WHO als besorgniserregend eingestufte Omikron-Variante von SARS-CoV-2 breitet sich auch in Ländern mit hoher Durchimpfungsrate rasant schnell aus. Omikron weist eine ungewöhnlich hohe Zahl an Mutationen auf, insbesondere am Spikeprotein mit dem das Virus an unsere Zellen andockt und gegen das - durch Impfung - die schützende Immunantwort im Organismus erzeugt werden soll. Mehrere präliminäre Berichte aus den letzten Tagen zeigen übereinstimmend, dass bei Geimpften die Antikörper gegen Omikron sehr viel schwächer wirken als gegen die bisherigen Varianten, inklusive der derzeit noch dominierenden Delta-Variante und ein Booster nach der Zweifach-Impfung dringend angezeigt ist. In Hinblick auf die T-Zellantwort spielen die Mutationen offensichtlich (noch) keine Rolle, bei Geimpften sollte auch die Omikron-Variante von den T-Zellen erkannt werden.

Es sind gerade vier Wochen her, dass eine neue SARS-CoV-2-Variante in Botswana und Südafrika identifiziert wurde, die sich rasant verbreitet und von der WHO bereits am 26. November 2021 als besorgniserregende Variante ("variant of concern" -VOC) eingestuft wurde. Inzwischen hat diese mit Omikron bezeichnete Variante B.1.1.529 bereits globale Verbreitung gefunden und ist in mehr als 55 Staaten (darunter in 21 Ländern der EU; Status 8.12.2021) nachgewiesen worden. Basierend auf Analysen gehen Risikoeinschätzungen in UK davon aus, dass Omikron dort innerhalb der nächsten 2 - 4 Wochen als dominierende Variante die Delta-Variante ablösen wird.

Eine ungewöhnlich hohe Zahl an Mutationen

Im Vergleich mit den bisherigen Varianten weist das Omikron Genom eine ungewöhnlich hohe Zahl an Mutationen auf. Gegenüber dem ursprünglichen, aus Wuhan stammenden Virus, sind es 60 Mutationen, wobei 32 davon das an der Virusoberfläche sitzende Spikeprotein betreffen, mit dem dieses an unsere Körperzellen andockt. Abbildung 1. Dieses Spikeprotein spielt die zentrale Rolle bei den derzeit zugelassenen Vakzinen und Antikörpern, die bis jetzt höchst erfolgreich vor symptomatischen Infektionen mit den im Verlauf der Pandemie neu entstandenen SARS-CoV-2- Varianten - von Alpha bis Delta - schützen.

Abbildung 1. Das Spikeprotein in seiner Struktur als Trimer mit den Positionen der Omikron Mutationen von oben in Richtung Membran gesehen Die Domäne, mit der das Protein an den Rezeptor (ACE-2) auf unseren Zellen andockt ist im hellblauen und grauen Monomer nach oben, im dunkelblauen Monomer nach unten gerichtet. 15 der insgesamt 32 Mutationen des Monomers liegen in der jeweiligen Bindungsdomäne. Aminosäure-Substitutionen: gelb, Deletionen: rot, Insertionen: grün. Bild: https://commons.wikimedia.org/wiki/User: Opabinia_regalis. Lizenz: cc-by-sa. 4.0

Neutralisationstest und .....

Die Vielzahl der Mutationen, welche die neue Variante an entscheidenden Positionen des Spikeproteins aufweist und die rasante Verbreitung auch in Staaten mit hoher Durchimpfungsrate (wie den UK) haben die Frage aufgeworfen, wieweit dagegen einsetzbare Vakzinen/Antiköper überhaupt noch einen Schutz bieten können. Mit Laborexperimenten - sogenannten Neutralisationstests (NT) - war man überzeugt bereits in wenigen Wochen dazu Informationen zu erhalten: Sind Antikörper im Serum Geimpfter noch in der Lage die neue Variante zu blockieren und am Eintritt in Wirtszellen zu hindern, so sollte dies zu einer Reduktion der Virusvermehrung führen. Eine Maßzahl dafür ist der Neutralisationstiter - NT50- : dazu wird eine Serumprobe schrittweise verdünnt (1:2, 1:4, 1:8, 1:16,......) und in Zellkulturen gegen das Virus getestet bis zur Verdünnung, bei der die Virusvermehrung um 50 % reduziert wird. Mehrere Forscherteams haben sich sofort an diese überaus dringende Aufgabe gemacht.

.....in vitro Untersuchungen zur Wirksamkeit von Seren Geimpfter

2 Wochen später erleben wir nun ein Stakkato an Ergebnissen. Diese sind wohl präliminär - es sollten ja so schnell als möglich Daten generiert werden -, wurden erst auf Seiten wie bioRxiv oder medRxiv (vorerst sogar nur auf Twitter) mitgeteilt, sind natürlich noch keinem peer review unterzogen worden und mit einigen "caveats" zu betrachten. Aber, auch wenn die Testmethoden der einzelnen Teams unterschiedlich waren, so zeigen sie übereinstimmend, dass die Antikörperantwort gegen Omikron bei Geimpften sehr viel schwächer ausfällt als gegen die bisherigen Varianten, inklusive der derzeit noch dominierenden Delta-Variante.

Daten aus Südafrika

Am Dienstag (7.12.2021) hat ein Team um Alex Sigal in Durban, Südafrika Daten vorgelegt, in denen sie die Neutralisierung von authentischen Omikron-Viren in Lungenzellen, die den SARS-CoV-2-Rezeptor ACE-2enthielten, durch die Antikörper im Plasma von 12 mit der Pfizer/Biontech-Vakzine geimpften Personen (rund 2 - 4 Wochen nach der Impfung) untersuchten; 6 dieser Personen hatten (mehr als ein Jahr) zuvor eine Infektion mit COVID-19 durchgemacht. Das niederschmetternde Ergebnis: die neutralisierende Wirkung der Antikörper war um das 41-Fache reduziert. Allerdings gingen die zuvor Infizierten und dann Geimpften von einer rund 100-fach höheren neutralisierenden Wirkung aus [1].

Daten aus Schweden

Ebenfalls am 7.12.2021 hat eine Gruppe um D. Murrell vom Karolinska Institut in Stockholm Daten aus einem Pseudovirus-Test präsentiert [2]. Es handelte sich dabei um die Neutralisierung eines Lentivirus, das mit einem alle Mutationen der Omikron Variante enthaltenden Spikeprotein-Fragment bestückt war. Das Plasma stammte von geimpften Blutspendern (n = 17) und von Krankenhausbediensteten (n = 17), die nach einer COVID-19 Infektion geimpft worden waren. Auch hier wurde ein, im Vergleich zum Wuhan Wildtyp und auch zur Delta-Variante, deutlicher Rückgang der Antikörperwirkung beobachtet, wobei allerdings dessen Ausmaß enorm variierte. Frühe Plasmaproben, die zur Standardisierung des Tests dienten - sogenannte WHO Neutralisierungs-Standards - zeigten eine 40-fache Reduktion der Antikörperwirkung gegen Omikron verglichen mit dem Wuhan-Virus.

Daten aus Frankfurt

Am 8. Dezember hat das Team um Sandra Ciesek vom Institut für Medizinische Virologie der Universität Frankfurt einen ausführlichere Studie mit SARS-CoV-2-Isolaten der Delta- und Omikron-Varianten in medRxiv vorgestellt [3]. Die Omikron-Variante war aus Nasen-Rachen Abstrichen eines infizierten Heimkehrers aus Südafrika isoliert worden. Serumsproben von Personen, die nach verschiedenen Schemata mit den Vakzinen von Pfizer/Biontech (BNT162b2) , von Moderna (mRNA1273) und AstraZeneca (ChAdOx1) geimpft worden waren, wurden auf ihre Fähigkeit die beiden Varianten zu neutralisieren getestet. Abbildung 2.

Abbildung 2. Antikörper-vermittelte Neutralisierung der Delta Variante graue Punkte)und Omikron-Variante(rote Punkte)nach verschiedenen Impfschemata: 6 Monate nach Zweifachimpfung, Dreifachimpfung 0,5 Monate nach Booster und 3 Monate nach Booster (nur BNT) und nach 6 - 7 Monate nach Infektion und Doppelimpfung (nur BNT). NT50: Serum-Titer bei dem 50 % des Virus neutralisiert sind. %-Angaben: Anteil der Serumproben, die einen meßbaren Titer zeigten. X-fache Reduktion: NT50- Delta - NT50-Omikron. (Quelle: Bilder A, B und C von Figure 1 aus [3]; Lizenz: cc-by-nd)

Generell war die Wirksamkeit gegenüber der Omikron-Variante bedeutend niedriger als gegen die Delta-Variante. Gleichgültig mit welchen Vakzinen 2 mal geimpft worden war, ließ sich 6 Monate danach keine Neutralisierung der Omikron Variante nachweisen; auch die Wirkung gegen die Delta-Variante war stark reduziert: 47 % der Serumproben nach Doppelimpfung mit Biontech/Pfizer, 50 % nach 2 x Moderna und 21 % nach der heterologen Impfung mit AstraZenca/Pfizer hatten noch messbare Titer. (Abbildung 2. A,B,C).

2 Wochen nach dem dritten Stich mit BNT162b2 war die Antikörperwirksamkeit NT50 stark angestiegen, allerdings für die Omikron-Variante 37 mal niedriger als für die Delta-Variante; während 100 % der Serumsproben gegen die Delta-Variante messbare Titer hatten, waren es nur 58 % gegen die Omikron-Variante. 3 Monate nach dem dritten Stich hatten noch 95 % der Seren messbare Titer gegen Delta, aber nur mehr 25 % gegen Omikron. Die Seren Genesener hatten nach Aussage der Autoren nur geringe Wirksamkeit gegen beide Varianten [3]; nach dem Boostern stieg diese im Mittel stark an (die Streuung ist allerdings sehr groß), aber auch in diesem Fall hatten nur 25 % messbare Titer gegen Omikron (alles Abbildung 2 A).

Auch im Fall der 2-fach Impfung mit Moderna oder mit AstraZeneca/Pfizer brachte das Boostern mit jeweils Pfizer einen starken Anstieg der Wirkung gegen beide Varianten. 2 Wochen nach dem 3. Stich hatten 78 % der Seren nach 2 x Moderna/Pfizer und 38 % nach AstraZeneca/2 x Pfizer messbare Titer gegen Omikron (Abbildung 2, B und C). Ergebnisse nach längeren Zeitintervallen sind offensichtlich noch nicht vorhanden.

Zwei derzeit gegen COVID-19 therapeutisch eingesetzte monoklonale Antikörper- Imdevimab und Casirivimab - verhindern zwar effizient die Infektion mit der Delta-Variante, sind aber aber auf Grund einer Mutation im Bindungsbereich gegen die Omikron-Variante völlig wirkungslos [3].

Daten aus China

Ein großes Team um Yunlong Cao von der Peking University, der Chinesischen Akademie der Wissenschaften und anderen Institutionen hat insgesamt 247 gegen die Bindungsdomäne des Spikeproteins gerichtete, neutralisierende Antikörper auf Wirksamkeit gegen die Omikron-Variante untersucht [4]. Diese Antikörper waren aus den Seren Geimpfter und Genesener isoliert worden. Wie die Forscher in einem preprint in medRxiv am 9.12.2021 berichten, versagten 85 % dieser Antikörper auf Grund der zahlreichen Mutationen der Omikron-Variante, ebenso wie eine Reihe therapeutischer Antikörper-Cocktails. Nur gegen eine konservierte Region des Spikeproteins gerichtete Antikörper zeigten Wirksamkeit.

Anmerkung: Die Ergebnisse bieten eine Anleitung, um wirksame Vakzinen und Antikörper-Cocktails gegen Omikron und auch gegen zukünftige Corona-Varianten zu entwickeln.

Meldung von Pfizer

Am 8.12. hat auch Pfizer in einer Aussendung zur Wirksamkeit seines Impfstoffs gegen die Omikron-Variante Stellung genommen [5]. Serumproben von 2 mal mit BNT162b2 Geimpften wurden nach 3 Wochen , von 3 mal Geimpften einen Monat nach der 3. Dosis genommen, der Antikörper Titer gegen das Spikeprotein des Wuhan-Wildtyps und gegen die Omikron-Variante in einem Pseudovirus-Neutralisierungstest bestimmt (siehe oben). Nach dem 2. Stich war der Titer gegen Omikron 25-fach niedriger als gegen den Wildtyp; der dritte Stich führte zu einer 25-fachen Erhöhung der Wirksamkeit (allerdings ist die Wirkung gegen die Deltavariante 2,6-mal höher als gegen Omikron).

Anmerkung: wie lange die Antikörperwirkung anhält, ist noch nicht untersucht. Den Daten des Frankfurter Teams zufolge, ist bereits nach 3 Monaten mit einer starken Reduktion zu rechnen (Abbildung 2A).

Pfizer hat am 25.11.2021 mit der Entwicklung einer Omikron spezifischen Vakzine begonnen. Abhängig von den Bescheiden der Behörden rechnet Pfizer mit deren Verfügbarkeit im März 2022 [5].

Impfschutz vor Omikron durch die T-Zell Antwort

Auf eine Impfung/Infektion antwortet unser Immunsystem mit einer Reihe von Abwehrstrategien. Neben der Bildung von Antikörpern, die im Blutplasma transportiert das Eindringen und die Ausbreitung der Erreger im Körper blockieren, wird auch die zelluläre Abwehr durch T-Zellen (T-Lymphozyten) stimuliert. Wird im gegebenen Fall als Folge der Impfung/Infektion nun das Spikeprotein produziert, so wird es in unseren sogenannten Antigen-präsentierenden Zellen in kleine Bruchstücke abgebaut und diese an der Zelloberfläche präsentiert. Cytotoxische T-Zellen (CD8+ T-Zellen), die genau an verschiedene Bereiche (Epitope) des Spikeproteins angepasst sind, erkennen die präsentierten Bruchstücke als fremd und lösen über eine Signalkaskade die Zerstörung der Zellen aus. Solche Cytotoxische Zellen entstehen bereits wenige Tage nach der Infektion/Impfung (früher als Antikörper) und können in langlebige Gedächtniszellen umgewandelt werden, um bei späteren Infektionen mit dem Pathogen wieder aktiviert zu werden.

Abbildung 3. Aminosäuresequenz für das Spikeprotein des ursprünglichen Wuhan-SARS-CoV-2 Virus. Die CD8+ Epitope sind hellgrün hervorgehoben, alle Mutationen und Deletionen (durchgestrichen) durch große blaue Buchstaben gekennzeichnet. Aminosäuren sind abgekürzt als Einbuchstabencode. (Quelle: Redd et al., [6], Lizenz: cc0).

Die zahlreichen Mutationen der Omikron-Variante im Spikeprotein haben zum massiven Wirkungsverlust der gegen frühere Varianten erzeugten Antikörper geführt. Ob diese Mutationen auch in Epitopen der T-Zell Antwort auftreten und diese kompromittieren, wurde von einem Team am National Institute of Allergy and Infectious Diseases der NIH und an der John Hopkins University (Baltimore) untersucht und am 9.12.2021 als preprint in bioRxiv veröffentlicht [6]:

Periphere mononukleare Blutzellen von 30 Genesenen, die im Jahr 2020 an Covid-19 erkrankt waren, dienten als Ausgangsmaterial für die umfangreiche Analyse. Diese prüfte ob Epitope des Virus, gegen welche die CD8+ -Zellen generiert worden waren, nun in der Omikron-Variante Mutationen aufweisen würden. Unter den 52 identifizierten Epitopen gab es nur eines, das in der Omikron-Variante eine mutierte Aminosäure enthält. Abbildung 3.

SARS-CoV-2 hat derzeit also noch keine T-Zell Fluchtmutationen entwickelt. Bei praktisch allen Personen mit einer aufrechten CD8+ T-Zell Antwort gegen SARS-CoV-2 nach Impfung/Infektion sollte auch die Omikron-Variante erkannt werden.


[1] Sandile Cele et al.,; SARS-CoV-2 Omicron has extensive but incomplete escape of Pfizer BNT162b2 elicited neutralization and requires ACE2 for infection. medRxiv 2021.12.08.21267417; https://doi.org/10.1101/2021.12.08.21267417

[2] Daniel E, Sheward et al.,: Preliminary Report - Early release, subject to modification. Quantification of the neutralization resistance of the Omicron Variant of Concern. https://tinyurl.com/ycx4x4d4

[3] A. Wilhelm et al., Reduced Neutralization of SARS-CoV-2 Omicron Variant by Vaccine Sera and monoclonal antibodies. doi: https://doi.org/10.1101/2021.12.07.21267432

[4] Yunlong Cao et al.,: B.1.1.529 escapes the majority of SARS-CoV-2 neutralizing antibodies of diverse epitopes. doi: https://doi.org/10.1101/2021.12.07.470392  

[5] Pfizer and BioNTech Provide Update on Omicron Variant. https://www.businesswire.com/news/home/20211208005542/en/

[6] Andrew D Redd et al., Minimal cross-over between mutations associated with Omicron variant of SARS-CoV-2 and CD8+ T cell epitopes identified in COVID-19 convalescent individuals. doi: https://doi.org/10.1101/2021.12.06.471446

 


Artikel in ScienceBlog.at

Zu COVID-19 sind bis jetzt 38 Artikel erschienen. Die Links finden sich zusammengefasst unter: Themenschwerpunkt Viren


inge Sun, 12.12.2021 - 00:01

Brennstoffzellen: Knallgas unter Kontrolle

Brennstoffzellen: Knallgas unter Kontrolle

Do, 02.12.2021 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Brennstoffzellen ermöglichen die direkte Umwandlung von chemischer Energie in elektrische Energie. Verglichen mit der von fossilen Brennstoffen ausgehenden Stromerzeugung haben Brennstoffzellen dementsprechend einen sehr hohen Wirkungsgrad. Die im folgenden Artikel beschriebene Zelle verwendet kontinuierlich zuströmenden Wasserstoff als Brennstoff, der Reaktionspartner ist Sauerstoff. Dabei entstehen Strom, Wasserdampf und Wärme. Wie diese Zelle funktioniert, wovon ihre Effizienz abhängt und wie sie praxistauglicher gemacht werden kann, erklärt der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr*.

„Houston, wir haben hier ein Problem.“ Mit dieser Meldung von Apollo 13 wurde die Brennstoffzelle schlagartig berühmt. Am 11. April 1970 war ein Sauerstofftank an Bord des Raumschiffs auf dem Weg zum Mond explodiert. Das Merkwürdige war, dass damit die Stromproduktion an Bord ausfiel. Was aber hat Sauerstoff mit elektrischer Energie zu tun? Die mitfiebernden Fernsehzuschauer erfuhren, dass eine „Brennstoffzelle“ aus Sauerstoff und Wasserstoff elektrischen Strom machte. Das Abfallprodukt war praktischerweise Trinkwasser für die Astronauten.

Die erste Brennstoffzelle bastelte 1838 Christian Friedrich Schönbein. Wasser kann man mit elektrischer Energie in Wasserstoff und Sauerstoff spalten, und diese Elektrolyse (Abbildung 1) drehte Schönbein um. Er steckte zwei Platindrähte in Salzsäure und umspülte den einen Draht mit Wasserstoff, den anderen mit Sauerstoff. Zwischen den Drähten konnte er eine elektrische Spannung messen. fast zur gleichen Zeit kam der Engländer Sir William Grove auf dieselbe Idee. Beide gelten heute als Väter der Brennstoffzelle. Welches Energiepotenzial eine Wasserstoff-Brennstoffzelle hat, vermittelt ein Schulversuch: Mischt man gasförmigen Wasserstoff mit Sauerstoff und entzündet dieses Knallgas, dann gibt es eine Explosion. Chemisch verbinden sich dabei jeweils zwei Wasserstoffatome mit einem Sauerstoffatom zu einem Wassermolekül. Dabei wird viel Energie als Wärme frei. eine Brennstoffzelle bringt diese heftige chemische Reaktion unter Kontrolle und zwingt sie, ihre Energie zum guten Teil in elektrisch nutzbarer Form abzugeben. Abbildung 1.

Abbildung 1: Knallgas unter Kontrolle

Brennstoffzellen gehören, wie Batterien und Akkumulatoren, zu den elektrochemischen Zellen. Diese wandeln chemische Energie in elektrische Energie um. Akkus sind über den umgekehrten Prozess auch aufladbar. Im Unterschied zu Batterien müssen Brennstoffzellen permanent von außen mit den elektrochemisch aktiven Stoffen, Sauerstoff und Brennstoff, versorgt werden. Nur dann produzieren sie elektrische Energie.

Wie Batterien haben Brennstoffzellen zwei Elektroden, die über einen Elektrolyten Kontakt haben. Zusätzlich brauchen sie noch einen Anschluss für den Brennstoff, in der Regel reinen Wasserstoff. Durch eine weitere Öffnung müssen sie Sauerstoff aus der Luft aufnehmen können. Als Abgas entsteht in der Wasserstoff-Brennstoffzelle reiner Wasserdampf.

Die Elektroden der Zellen sind porös, damit Luft, der Brennstoff und das Abgas sie möglichst gut durchströmen können. Sie bestehen zum Beispiel aus mikroskopisch kleinen Kohlenstoffkörnern, die zusammengepresst sind. Diese Körnchen sind zusätzlich mit Katalysatorteilchen belegt, die ungefähr zehn Mal kleiner sind. als Reaktionsbeschleuniger spielt der Katalysator eine entscheidende Rolle. Wasserstoff-Brennstoffzellen benötigen hierfür Edelmetalle wie Platin, was teuer ist.

Das Team des Chemikers Klaus- Dieter Kreuer am Max-Planck-Institut für Festkörperforschung forscht an der Verbesserung von Niedertemperatur-Brennstoffzellen. Die Betriebstemperatur solcher Zellen liegt normalerweise unterhalb von 100 °C, dem Siedepunkt von Wasser unter Normaldruck. ihre kompakte Bauweise erlaubt enorme Leistungsdichten. im Gegensatz zu Hochtemperatur-Brennstoffzellen, die bei bis zu 1000 °c arbeiten, reagieren sie agil auf Lastwechsel, zum Beispiel beim Beschleunigen und Bremsen von Fahrzeugen. Das macht sie besonders geeignet für Elektroautos und elektrische Züge auf Strecken ohne Oberleitung.

Im Fokus von Kreuers Team steht ein zentrales Bauteil der Niedertemperatur-Brennstoffzellen: eine hauchdünne Kunststoffmembran. Diese muss beide Elektrodenräume der Brennstoffzelle effizient trennen. Deshalb heißen solche Zellen auch Polymermembran-Brennstoffzellen. „Heute sind solche Membranen bis zu zehn Mikrometer dünn“, erklärt Kreuer. Menschliches Kopfhaar ist grob zehnmal so dick. Da es an den bisher verwendeten Membranen noch Verbesserungsbedarf gibt, forschen die Stuttgarter Chemikerinnen und Chemiker seit vielen Jahren an neuen Membranmaterialien.

Abbildung 2: Grundprinzip der Wasserstoff-Niedertemperatur-Brennstoffzelle. In der Anode links wird das Wasserstoffgas H2 (H–H) in je zwei Protonen (H+, rot) und Elektronen (e–, blau) zerlegt. Die Elektronen fließen durch einen Verbraucher und leisten dort Arbeit. Die Protonen wandern durch die Membran als Elektrolyt in die Kathode (rechts). Dort treffen sie auf die vom Verbraucher kommenden Elektronen. Zusammen mit Sauerstoff ( O2) aus angesaugter Luft entsteht Wasser (H2O). © R. Wengenmayr / CC BY-NC-SA 4.0

Um zu verstehen, was eine solche Membran leisten muss, schauen wir uns zuerst an, wie eine Wasserstoff-Brennstoffzelle grundsätzlich funktioniert. In ihr laufen zwei einfache chemische Teilreaktionen ab, räumlich getrennt an den beiden Elektroden (Abbildung 2). An der Anode wird das Wasserstoffgas H2 elektrochemisch in zwei Wasserstoffatomkerne, also Protonen (H+), und zwei Elektronen (e–) zerlegt. Oxidation heißt eine solche Reaktion. Vom Anodenkontakt fließen die Elektronen (e–) durch den äußeren Stromkreis und leisten Arbeit. Sie treiben zum Beispiel den Elektromotor eines Autos an. Danach fließen sie über den Kathodenkontakt zurück in die Zelle. An der Kathode treffen die Elektronen wieder auf die Protonen. Über diese Elektrode saugt die Zelle auch Luft und damit Sauerstoff (O2) an. In der Kathode läuft die zweite Teilreaktion ab. Dabei wird das Sauerstoffmolekül an der Katalysatoroberfläche in zwei Sauerstoffatome zerlegt, die sich mit je zwei Protonen und zwei Elektronen zu Wassermolekülen (H2O) verbinden. Diese Teilreaktion stellt eine chemische Reduktion dar. Die Zelle gibt den reinen Wasserdampf zusammen mit überschüssiger Luft als Abgas ab. Theoretisch liefert so eine Zelle bei Raumtemperatur 1,23 Volt Spannung. Verluste durch elektrische Widerstände drücken diese aber in der Praxis unter 1 Volt.

Aber wie gelangen die Protonen in die Kathode? Hier kommt die Membran ins Spiel. Als Elektrolyt muss sie den Protonen eine möglichst gute Rennstrecke von der Anode zur Kathode bieten. Der Protonenstrom durch den Elektrolyten ist nämlich genauso hoch wie der Elektronenstrom durch den Verbraucher. Zugleich muss die Membran verhindern, dass Elektronen direkt durch die Zelle fließen – sie ist also ein Elektronen-Isolator. Ein elektronischer Kurzschluss in ihr wäre gefährlich. Außerdem sollen die Elektronen im Stromkreis außerhalb der Zelle Arbeit leisten. Also muss dieser äußere Stromkreis die Elektronen gut leiten. Dafür sorgen Metalle wie Kupfer in den Kabeln und zum Beispiel Motorwicklungen. Solche Metalle leiten wiederum keine Protonen, wirken also umgekehrt als Protonen-Isolatoren.

Je wärmer, desto effizienter

Gegenüber konventionellen Verbrennungsmotoren bieten Elektrofahrzeuge mit Brennstoffzellen prinzipielle Vorteile. Reine Wasserstoff-Brennstoffzellen emittieren kein klimaschädliches Kohlenstoffdioxid (CO2), wenn der Wasserstoff mit erneuerbaren Energiequellen erzeugt wurde. Das kann etwa mit überschüssigem Strom aus Windenergie- oder Photovoltaikanlagen geschehen. Damit zerlegt eine Elektrolyseanlage Wasser zu Wasserstoff und Sauerstoff. Es gibt auch die Möglichkeit, Brennstoffzellen mit Methanol zu betreiben, dann arbeiten sie aber nicht CO2-frei. Zudem muss das Methanol zu Wasserstoff und CO2 zersetzt werden, was den technischen Aufwand erhöht. Ein weiterer Vorteil der Brennstoffzelle ist ihr hoher Wirkungsgrad, der sich noch steigern lässt. Grob die Hälfte der im Treibstoff chemisch gespeicherten Energie könne eine moderne Niedertemperatur-Brennstoffzelle in nutzbare elektrische Energie umwandeln, erklärt Kreuer. Wegen weiterer Verluste, wie durch die Kompression des Wasserstoffs im Drucktank, sind es am Ende aber nur etwa 40 Prozent. Das ist zwar immer noch viel besser als Dieselfahrzeuge mit rund 25 Prozent Wirkungsgrad.

Doch dieser Vorsprung in der Effizienz und die Klimafreundlichkeit reichen noch nicht, um die Nachteile auszugleichen: Noch sind die Herstellungskosten hoch, und die Infrastruktur für den Wasserstoff von der Herstellung bis zur Tankstelle fehlt bislang. Wären Niedertemperatur-Brennstoffzellen noch effizienter und kostengünstiger, dann könnten sich Brennstoffzellenautos leichter durchsetzen. Eine Lösung bietet die Erhöhung der Betriebstemperatur. Je wärmer eine Zelle ist, desto schneller laufen die elektrochemischen Prozesse in ihr ab. Das steigert ihre Effizienz. Auf der anderen Seite ist eine zu hohe Temperatur gefährlich für die Zellen. Je nach Hersteller wird die Kunststoffmembran spätestens bei 100 °C weich und verliert durch Austrocknen einen Teil ihrer Protonenleitfähigkeit. In der Zelle entsteht auch Abwärme, die der Wasserdampf als Abgas nicht ausreichend nach außen abführt. Deshalb brauchen Niedertemperatur-Brennstoffzellen ein aufwendiges Kühlsystem. Eine höhere Arbeitstemperatur würde das vereinfachen. Zudem würde sie die Menge an teurem Platin als Katalysator reduzieren, weil die Reaktion besser abliefe. Das würde die Kosten eines Brennstoffzellensystems spürbar senken.

Die neue Stuttgarter Membran

Kreuers Team forscht deshalb an alternativen Kunststoffmaterialien. Vor einigen Jahren gelang ihm die Entwicklung einer Kunststoffmembran, die Temperaturen bis zu 180 °C aushält. Zudem verhindert sie viel effizienter, dass gasförmiger Wasserstoff und Sauerstoff durchdringen. Kommen diese auf den Katalysatoren zusammen, dann reagieren sie dort zu aggressiven Radikalen. „Die greifen die Membran an“, erklärt Kreuer. Noch vor etwa 15 Jahren hat das die Lebensdauer der Brennstoffzellen auf unter 2000 Stunden begrenzt. Heute werden Radikalfänger eingebaut, was die Lebensdauer auf praxistaugliche 10000 Stunden steigert.

Das Urmaterial der Membranen heißt Nafion. Damit sind alle heute eingesetzten Membranen chemisch verwandt. Entwickelt wurde das Material bereits in den 1960er- Jahren von amerikanischen Chemikern. Sie zwangen damals zwei gegensätzliche Partner zu einem Molekül zusammen: Teflon und Sulfonsäure. Teflon ist extrem wasserabweisend, hydrophob, während die Sulfonsäuregruppe extrem wasserliebend, hydrophil, ist. Sie wird in dem neuen Molekül zur Supersäure. Eine Supersäure ist stärker als konzentrierte Schwefelsäure.

Abbildung 3: Mikrostruktur einer Nafion-Membran. Grün sind die hydrophoben Molekülketten, gelb die hydrophilen Supersäuren (Sulfonsäuregruppen), blau: Wasser, rot: positiv geladene Protonen. © MPI für Festkörperforschung / CC BY-NC-SA 4.0

Da sich beide ungleichen Partner eigentlich heftig abstoßen, organisieren sich die hydrophoben Teile der Moleküle zu einem feinen Netzwerk (Abbildung 3). Die Säuregruppen zwingen sie dabei an die Oberfläche dieses Netzwerks. In der Gegenwart von Wasser lagern die Säuregruppen Wassermoleküle an und bilden so eine Wasserstruktur, die sich durch das gesamte Netzwerk zieht. Wie alle Brønsted-Säuren geben diese Supersäuren liebend gerne Protonen an Wasser ab. Damit wird das feinverteilte Wasser in der Membran protonenleitend. Für den effizienten Betrieb in der Brennstoffzelle braucht die Membran einen optimalen Wassergehalt.

Allerdings hat der Teflonanteil im Nafion zwei Nachteile. Erstens ist er als Fluorchlorkohlenwasserstoff nicht umweltfreundlich. Zweitens sorgt diese chemische Struktur dafür, dass Nafion schon bei relativ niedrigen 80 °C kritisch weich wird. Modernere Varianten sind zwar temperaturstabiler, aber spätestens bei 100 °C ist Schluss. Die viel temperaturstabilere Stuttgarter Membran basiert auf einem umweltfreundlicheren Kohlenwasserstoff: Polyphenylen besteht als Polymer aus langen Ketten einzelner Phenylmoleküle. Jeder Grundbaustein (Monomer) enthält ebenfalls eine Sulfonsäuregruppe (Abbildung 4). Allerdings ist das Polymer viel steifer als Nafion. Damit können sich das Polymernetzwerk und der wässrige Teil mit den Ionen schlechter voneinander trennen. Als Folge lagern sich die Säuregruppen weniger gut zusammen. Das glich Kreuers Team durch einen Trick aus: sie bauten in das Material viel mehr Sulfonsäuregruppen ein, als Nafion enthält. Damit erreichten sie sogar eine höhere Leitfähigkeit für Protonen als im Nafion.

Abbildung 4: Ein Monomer-Baustein aus der Polymerkette des neuen Stuttgarter Membrankunststoffs. Rechts oben: Sulfonsäuregruppe. Sie wird zur protonenspendenden Supersäure, weil die SO2-Gruppe (rechts) über den Phenylring (Mitte) elektronische Ladung (blauer Punkt mit Minus) teilweise anzieht. Das lockert das Proton (H+) in der Sulfonsäuregruppe, das sich leicht lösen kann. © MPI für Festkörperforschung, R. Wengenmayr / CC BY-NC-SA 4.0

Eine große Gefahr im Betrieb von Polymermembran-Brennstoffzellen besteht darin, dass die Membran trockenfällt oder zu stark geflutet wird. Muss die Zelle dann volle Leistung bringen, altert das Membranmaterial vorzeitig. Das soll ein Diagnosesystem verhindern, das ein Team von Tanja Vidakovic-Koch am Max-Planck-Institut für Dynamik komplexer technischer Systeme in Magdeburg entwickelt hat. Herkömmliche Diagnosemethoden schicken elektrische Signale durch die Elektroden in die Brennstoffzelle und messen deren elektrische „Antwort“. Diese zeigt, ob es der Zelle gut geht oder ob sie ein Wasserproblem hat.

„Man kann aber nicht unterscheiden, ob die Membran ausgetrocknet oder geflutet ist“, erklärt die Ingenieurin. Mit der neuen Diagnosemethode gelingt das nun. Dazu rüsten die Magdeburger die Zelle mit einem Sensor aus, der den Fluss von Sauerstoff in sie hinein aufzeichnet. Aus den Messdaten bestimmt das Diagnosesystem auch den Fluss des Wassers durch die Zelle hindurch. Um deren Gesundheitszustand zu erfassen, braucht es noch einen Trick: Der Fluss von Sauerstoff und Wasser in die Zelle hinein muss wellenförmig an- und abschwellen.

Diese Wellen sind zum Beispiel sinusförmig. Die Brennstoffzelle reagiert darauf wie ein Musikinstrument: Je nach Frequenz schwächt oder verstärkt sie das Eingangssignal wie ein Resonanzkörper in ihrer elektrischen Antwort. Diese unterscheidet sich nun für die Fälle „zu trocken“ und „zu nass“. Damit könnte ein zukünftiges Diagnosesystem an Bord eines Autos automatisch erfassen, wie es der Brennstoffzelle geht. Erkenne es einen kritischen Zustand früh genug, dann ließen sich sogar anfängliche Schäden in der Membran „ausheilen“, erklärt die Wissenschaftlerin.

Optimal für schwere Elektrofahrzeuge

Abbildung 5: Von oben nach unten: Energiewandlungsketten vom Rohstoff zu der Energiemenge (11,6 kWh), die nötig ist, um das Auto 100 km weit fahren zu lassen. Aus erneuerbaren Energiequellen stammen der Wasserstoff (blaue Kette) und der Strom (hellgraue Kette). Je größer die oben eingekreiste Energiemenge ist, desto größer sind die Verluste. © Verändert nach: Gregor Hagedorn / CC BY 4.0; Daten: WELL-TO-WHEELS Report Version 4.1 European Commission, 2014

Im Verkehr haben Brennstoffzellen auch scharfe Konkurrenz durch die Batterie. Beide Systeme haben Vor- und Nachteile. In Brennstoffzellenautos wird das Wasserstoffgas in einem soliden Drucktank bei 700 bar gespeichert, der gegen Unfälle abgesichert ist. In diesem Zustand hat Wasserstoff eine fast 200 -mal höhere Energiedichte als Lithiumionen-Batterien. Auch wenn man das Gewicht des Drucktanks hinzurechnen muss, schleppt aber ein Elektroauto ein viel höheres Batteriegewicht im Verhältnis zur gespeicherten Energiemenge mit sich. Als Vorteil wiederum kann es Strom ohne größere Verluste speichern.

Für die Brennstoffzelle hingegen muss der Strom erst elektrolytisch Wasserstoff herstellen (Abbildung 5). Dieser muss dann wieder in der Brennstoffzelle elektrische Energie erzeugen. „Wegen dieses Umwegs ist der Wirkungsgrad vom Windrad bis hin zum Rad am Fahrzeug um den Faktor zwei- bis dreimal niedriger als beim Batteriefahrzeug“, erklärt Kreuer.

Diese Vor- und Nachteile hängen aber von der Größe und dem Gewicht beider Typen von Elektrofahrzeugen ab. Bei einem LKW wiegt eine Batterie, die brauchbare Reichweiten ermöglicht, viele Tonnen. Diese „tote“ Masse muss ein Brennstoffzellen- LKW nicht mitschleppen, außerdem braucht er kein so dichtes Wasserstoff-Tankstellennetz wie PKW. Busse, Bahn und LKW könnten also der Brennstoffzelle zum Durchbruch verhelfen.


* Der Artikel ist in aktualisierter Form unter dem Titel: "Knallgas unter Kontrolle - Brennstoffzellen für den breiten Einsatz fit gemacht" in TECHMAX 16 der Max-Planck-Gesellschaft erschienen, https://www.max-wissen.de/max-hefte/techmax-16-brennstoffzelle/ und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Weiterführende Links

Artikel im ScienceBlog:

 

 

inge Thu, 02.12.2021 - 17:06

Umwelt-DNA (eDNA) erlaubt einen Blick in die Dämmerzone der Meere

Umwelt-DNA (eDNA) erlaubt einen Blick in die Dämmerzone der Meere

Do, 25.11.2021 — Ricki Lewis

Ricki Lewis

Icon MeereDie Dämmerzone der Ozeane ist eine Wasserschicht, die sich in einer Tiefe von 200 bis 1000 m unter der Meeresoberfläche über den ganzen Erdball erstreckt. Es ist eine kalte Zone, in die Sonnenlicht nicht mehr durchdringt, in der es aber von unterschiedlichsten Lebewesen nur so wimmelt - insgesamt dürften davon hier mehr zuhause zu sein als in den gesamten übrigen Schichten der Meere. Bislang ist dieses, vermutlich größte Ökosystem auf Erden kaum erforscht. Die Woods Hole Oceanographic Institution hat 2018 das Ocean Twilight Zone Project gestarted, das mit neuesten Methoden, u.a mittels Bestimmung der Umwelt-DNA (eDNA) Forschern Hinweise darauf gibt, welche Arten sich in der Dämmerzone befinden, wie häufig sie vorkommen und wie sie sich dort bewegen. Die Genetikerin Ricki Lewis berichtet darüber.*

Die Dämmerzone - auch mesopelagische Zone oder Mesopelagial genannt (von griechisch pelagos = offenes Meer) - reicht von etwa 200 bis 1.000 Meter Tiefe. Es ist eine kalte und dunkle Zone, aufgehellt durch Blitze von biolumineszenten Organismen, mit denen diese sich vor Räubern schützen. Der Druck in dieser Zone kann bis zu 100 Bar betragen. Die Biomasse der Fische in der Dämmerungszone dürfte die des restlichen Ozeans übersteigen – über ihre Verbreitung wissen wir jedoch wenig. (Abbildung 1)

Abbildung 1: Die Meereszonen (Pelagials) und einige Bewohner der Dämmerzone (Mesopelagia), die Biolumineszenz ausstrahlen. (Abbildung und Text von der Redn. eingefügt; Quelle: links: Wikipedia, gemeinfrei; rechts: modifiziert nach Drazen et al., 2019; https://commons.wikimedia.org/wiki/File:Organisms_inhabiting_the_mesopelagic_zone_-_Oo_257140.jpg. Lizenz cc-by)

Die Bewohner der Dämmerzone erstrecken sich von winzigen Bakterien und Plankton bis hin zu Fischen, Krustentieren, Tintenfischen und allen möglichen klebrigen Variationen der Tierwelt, wie Quallen und Rippenquallen. In der Zone leben Billiarden von Borstenmaulfischen, die nach ihren stacheligen Zähnen benannt sind. Und wir haben keine Ahnung, wie viele Arten noch auf eine Beschreibung warten.

Die Tiere in der Dämmerzone unterstützen das riesige Nahrungsnetz, transportieren Kohlenstoff von der Oberfläche in die Tiefe und wirken so auf das Klima regulierend.

Die größte Tierwanderung auf dem Planeten

Aus den Tiefen der Dämmerzone schwimmen Tiere in den dunklen Stunden auf der Suche nach Nahrung nach oben und tauchen tiefer, wenn die Sonne herauskommt, um den Kontakt mit Räubern zu vermeiden. Die Sonar-Operatoren der US-Marine während des Zweiten Weltkriegs hielten diese täglichen Bewegungen für einen sich wellenden Meeresboden. „Dies ist die größte Tierwanderung auf dem Planeten, und sie findet alle 24 Stunden statt und fegt in einer massiven lebenden Welle über die Weltmeere“, heißt es auf der Website der Woods Hole Oceanographic Institution (WHOI; https://www.whoi.edu/know-your-ocean/ocean-topics/ocean-life/ocean-twilight-zone/). Abbildung 2.

Abbildung 2: Das vertikale tägliche Auf- und Absteigen in der Wassersäule der Dämmerzone. Oben: Echogram der täglichen Wanderung. Die Farbskala zeigt die Intensität des von den Tieren reflektierten Schalls an (Sonar auf einem Schiff). Image courtesy of Kevin Boswell, Florida International University and the DEEPEND https://oceanexplorer.noaa.gov/technology/development-partnerships/21scattering-layer/features/scattering-layer/scattering-layer.html. Unten: Screenshot aus dem Video Bioluminescence, October 25, 2021. https://oceanexplorer.noaa.gov/edu/multimedia-resources/dsd/dsd.html, (Beide Bilder stehen unter einer cc-by Lizenz und wurden von der Redn. eingefügt,)

Die kalten, dunklen Tiefen nach Lebenszeichen zu durchsuchen, ist für den Menschen eine Herausforderung. Die kleinste Störung lässt Tiere fliehen, und manche Organismen sind so weich, dass sie beim Hochziehen in Netzen oder in Probenahmebehältern geradezu dahinschmelzen.

Umwelt-DNA

Um dieses Szenario zu untersuchen, ohne das Leben zu stören, sammeln die am Dämmerzonen-Projekt arbeitenden WHOI-Forscher Umwelt-DNA – auch bekannt als eDNA – und führen mithilfe von Computermodellen eine Art Volkszählung durch, die das Geschehen aus der Verteilung von DNA aus Exkrementen, Hautschuppen und anderen Partikeln mit Nukleinsäuren, die von Körpern abschiefern, ableitet. Die Muster der DNA-Verteilung und -Konzentration geben Hinweise auf die Häufigkeit, Bewegung und Wanderung von Arten. Abbildung 3.

Diese Untersuchung kann in Scientific Reports nachgelesen werden [1].

Das Simulationsmodell berücksichtigt zwei Größen von eDNA. Große Partikel im Bereich von mehreren zehn Mikrometern (1 µm = 1 Millionstel Meter) bis zu einem Millimeter erfassen Kotpellets, Gewebestücke sowie Eier und Spermien. Kleine Partikel bis zu einem Zehntel Mikrometer sind aus den großen entstanden. Das Modell berücksichtigt Bewegungen, die Teil des Verhaltens eines Tieres sind, Attribute der eDNA wie Sedimentieren und Abbau und physikalische Einflüsse wie Mischung und horizontale Bewegung.

Abbildung 3: Modell der vertikalen Profile der eDNA in der Wassersäule der Dämmerzone - welche Faktoren beitragen. (Bild von der Redn. in modifizierter Form eingefügt aus: E. Andruszkiewicz Allan et al.(2021), https://doi.org/10.1038/s41598-021-00288-5 [1], Lizenz cc-by)

Ich konnte mir diese Experimente vorstellen, indem ich mich lebhaft an den Blick auf das Hinterende eines Nilpferds in der Hippoquarium-Ausstellung im Detroiter Zoo erinnerte. Das Tier entleerte sich und drehte dann seinen Schwanz wie ein riesiges Windrad hoch und ließ die Exkremente weit kreisen. Die DNA der Tiefe scheint nach dem Modell der ozeanischen eDNA nicht ganz so dynamisch zu sein.

„Eine wichtige Erkenntnis unserer Arbeit ist, dass das eDNA-Signal nicht sofort verschwindet, wenn sich das Tier in der Wassersäule nach oben oder unten bewegt. Das hilft uns, einige große Fragen zu beantworten, die wir mit Netzschleppen oder akustischen Daten nicht beantworten können. Welche Arten wandern? Wie viel Prozent von ihnen wandern jeden Tag aus? Und wer ist ein früher oder später Einwanderer?“ sagte die Erstautorin Elizabeth Andruszkiewicz Allan in einer Pressemitteilung.

Physikalische Prozesse wie Strömungen, Wind und Mischung sowie dasSedimentieren des Materials hatten keinen großen Einfluss auf die vertikale Verteilung der eDNA, die die Tendenz hatte innerhalb von 20 Metern von ihrem Ursprung zu bleiben. Das bedeutet, dass das eDNA-Muster zeigen kann, wo sich bestimmte Arten zu verschiedenen Tageszeiten aufhalten, wie lange sie in bestimmten Tiefen verweilen und welcher Anteil einer Spezies während eines Tages aus der Dämmerzone an die Oberfläche wandern.

„Vor dieser Untersuchung konnten wir nicht sicher sagen, was mit der eDNA passiert ist, die von Arten der Dämmerzone abgegeben wurde. Aber im Modell zeigte sich ein sehr klares Muster, das ein grundlegendes Verständnis der Konzentration von eDNA zwischen der Oberfläche und den tiefen Schichten im Zeitverlauf lieferte “, sagte Teammitglied und Ozeanograph Weifeng Zhang. „Mit diesem neuen Wissen werden Feldforscher in der Lage sein, gezielt zu bestimmen, wo sie die wertvollen Wasserproben entnehmen, um die wandernden Arten zu identifizieren und den Anteil der Tiere in jeder Artengruppe zu schätzen, die jeden Tag wandern“, fügte er hinzu.


[1] Elizabeth Andruszkiewicz Allan et al., Modeling characterization of the vertical and temporal variability of environmental DNA in the mesopelagic ocean. Scientific Reports, 2021,https://doi.org/10.1038/s41598-021-00288-5


* Der Artikel ist erstmals am 4.November in PLOS Blogs - DNA Science Blog unter dem Titel "A Glimpse of the Ocean’s Twilight Zone Through Environmental DNA" https://dnascience.plos.org/2021/11/04/a-glimpse-of-the-oceans-twilight-zone-through-environmental-dna/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Drei passende Abbildungen plus Legenden und einige Untertitel wurden von der Redaktion eingefügt.

 


Weiterführende Links

Woods Hole Oceanic Institution (WHOI) is the world's leading, independent non-profit organization dedicated to ocean research, exploration, and education. Our scientists and engineers push the boundaries of knowledge about the ocean to reveal its impacts on our planet and our lives. https://www.whoi.edu/who-we-are/

NOAA Ocean Exploration is the only federal program dedicated to exploring our deep ocean, closing the prominent gap in our basic understanding of U.S. deep waters and seafloor and delivering the ocean information needed to strengthen the economy, health, and security of our nation. https://oceanexplorer.noaa.gov/welcome.html

Zahlreiche Videos von den beiden Institutionen:

Value Beyond View: The Ocean Twilight Zone, Video 2:04 min https://www.youtube.com/watch?v=w-MmLhQDfao&t=3s

Ocean Encounters: Weirdly Wonderful Creatures of the twilight zone. Video 1:12:0 min. https://www.youtube.com/watch?v=GpI2RiUDS6Y&t=572s Sommer 2021

Our beautiful ocean from surface to seafloor Video: 13:34 min. https://www.youtube.com/watch?v=MV3OtxB9BKE

The discoveries awaiting us in the ocean's twilight zone | Heidi M. Sosik, TED, Video 10:01 min. https://www.youtube.com/watch?v=rJmwZhy9Suk 

Deep Sea Dialogues - Bioluminescence. Video 8:03 min. https://oceanexplorer.noaa.gov/edu/multimedia-resources/dsd/dsd.html


 

inge Thu, 25.11.2021 - 18:06

Comments

Milla (not verified)

Sat, 04.12.2021 - 07:18

I think the admin of this site is actually working
hard in support of his site, because here every data is quality based material.

Zwischenergebnisse aus der Klinik deuten darauf hin, dass die Pfizer-Pille Paxlovid schweres COVID-19 verhindern kann

Zwischenergebnisse aus der Klinik deuten darauf hin, dass die Pfizer-Pille Paxlovid schweres COVID-19 verhindern kann

Do, 18.11.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Auf der Basis von außerordentlich positiven klinischen Interims-Ergebnissen hat der Pharmagigant Pfizer vorgestern bei der FDA um die Notfallzulassung für sein neues, oral anwendbares COVID-19 Therapeutikum Paxlovid angesucht. Laut Pressemitteilung von Pfizer konnte Paxlovid -innerhalb von 5 Tagen nach Diagnosestellung/Auftreten von Symptomen angewandt - weitestgehend Hospitalisierung und Letalität verhindern. Noch fehlen allerdings Angaben zur Sicherheit einer breiten Anwendung dieses möglichen Game-changers. Wie Paxlovid wirkt und welches Potential dieses neue Therapeutikum haben kann, beschreibt Francis S. Collins - ehem. Leiter des Human Genome Projects, Entdecker mehrerer krankheitsverursachender Gene und seit 2009 Direktor der NIH.*

Im Verlauf dieser Pandemie wurden erhebliche Fortschritte bei der Behandlung von COVID-19 und der Rettung von Menschenleben erzielt. Zu diesen Fortschritten gehören die Entwicklung lebenserhaltender monoklonaler Antikörperinfusionen und die Wiederverwendung bestehender Medikamente, zu denen die öffentlich-private Partnerschaft von NIH zur Beschleunigung von COVID-19 therapeutischen Interventionen und Impfstoffen (ACTIV) einen wichtigen Beitrag geleistet hat.

Seit vielen Monaten hegen wir aber die Hoffnung auf ein sicheres und wirksames orales Arzneimittel, welches - kurz nach Erhalt einer COVID-19 -Diagnose verabreicht - das Risiko eines schweren Krankheitsverlaufs verringern kann. Den ersten Anhaltspunkt, dass sich diese Hoffnungen erfüllen könnten, gab es vor gerade einem Monat: es war die Meldung, dass das von Merck und Ridgeback stammende Medikament Molnupiravir Krankenhausaufenthalte um 50 % reduzieren könnte (das Medikament wurde ursprünglich mit NIH-Förderung an der Emory University (Atlanta) entwickelt). Nun kommt die Meldung von einem zweiten Medikament mit einer möglicherweise noch höheren Wirksamkeit: es ist eine antivirale Pille von Pfizer Inc., die auf einen anderen Schritt im Vermehrungszyklus des SARS-CoV-2 Virus abzielt.

Erste Daten zur antiviralen Pfizer-Pille…

Die aufregenden neuesten Nachrichten kamen Anfang dieses Monats heraus, als ein Pfizer-Forschungsteam in der Zeitschrift Science einige vielversprechende erste Daten zur antiviralen Pille und ihrem Wirkstoff veröffentlichte [1]. Einige Tage später gab es dann noch wichtigere Neuigkeiten, als Pfizer Zwischenergebnisse einer großen klinischen Phase 2/3-Studie bekannt gab. Die Studie an Erwachsenen mit hohem Risiko für einen schweren Krankheitsverlauf zeigte, dass die Pille das Risiko eines Krankenhausaufenthalts oder eines letalen Ausgangs um 89 Prozent reduzierte, wenn sie innerhalb von drei Tagen nach Auftreten von COVID-19-Symptomen eingenommen wurde [2].

Auf Empfehlung des unabhängigen Ausschusses, der die klinische Studie überwachte und in Absprache mit der US-amerikanischen Food and Drug Administration (FDA) hat Pfizer die Studie nun aufgrund der großartigen Zwischenergebnisse gestoppt. Pfizer plant, die Daten sehr bald bei der FDA zur eine Notfallzulassung (Emergency Use Authorization - EUA) einzureichen (diese Anmeldung ist am 16.11.2021erfolgt; Anm.Redn.)

…und wie sie gegen SARS-CoV-2 wirkt

Die antivirale Pille von Pfizer enthält einen Protease-Inhibitor, der ursprünglich PF-07321332 oder kurz "332" genannt wurde. Eine Protease ist ein Enzym, das ein Protein an einer bestimmten Sequenz von Aminosäuren spaltet. Das SARS-CoV-2-Virus kodiert für seine eigene Protease, um ein großes, viral kodiertes Polyprotein in kleinere Segmente zu verarbeiten, die es für seinen Vermehrungszyklus benötigt; ein Medikament, das die Protease hemmt, kann dies verhindern. Wenn der Begriff Protease-Hemmer bekannt erscheint, so liegt das daran, dass Medikamente mit diesem Wirkungsmechanismus bereits zur Behandlung anderer Viren verwendet werden, u.a. zur Behandlung des humanen Immunschwächevirus (HIV) und des Hepatitis-C-Virus.

Im Fall von 332 ist eine von SARS-CoV-2 kodierte Protease namens Mpro (auch 3CL-Protease genannt) die Zielstruktur. Das Virus verwendet dieses Enzym, um einige längere virale Proteine in kürzere Abschnitte zu zerschneiden, die es zur Replikation benötigt. Wenn Mpro außer Gefecht gesetzt ist, kann das Coronavirus keine Kopien zur Infektion anderer Zellen mehr produzieren. Abbildung 1.

Abbildung 1. Wie Paxlovid funktioniert. Wenn das Virus in die Wirtszelle eintritt, beginnt es (unter Verwendung der Wirtssysteme) seine RNA in Polyproteine (pp1a und pp1ab) umzuschreiben (Translation). Daraus entstehen durch Proteolyse die Virusprotease Mpro und einige Nicht-Strukturproteine (Nsps), welche für den Zusammenbau zum aktiven Virus essentiell sind. PF-0731332 ist ein sehr starker Inhibitor von Mpro, Ritonavir blockiert den Abbau von PF-0731332 und verlängert/erhöht ("boostert") so seine Wirksamkeit.(Bild und Beschriftung von Redn. eingefügt; Quelle: adaptiert nach H.M. Mengist et al., Signal Transduction and Targeted Therapy (2020) 5:67, https://doi.org/10.1038/s41392-020-0178-y. Lizenz: cc.by)

Breite Wirksamkeit gegen andere Coronaviren?

Das Bestechende an diesem therapeutischen Ansatz ist, dass Mutationen an den Oberflächenstrukturen von SARS-CoV-2, wie dem Spike-Protein, die Wirksamkeit eines Protease-Inhibitors nicht beeinträchtigen sollten. Das Medikament zielt auf ein hochkonserviertes, essentielles virales Enzym ab. Ursprünglich hat Pfizer bereits vor Jahren Protease-Inhibitoren synthetisiert und präklinisch als potenzielle Therapeutika für das schwere akute respiratorische Syndrom (SARS) evaluiert, das durch ein mit SARS-CoV-2 nahe verwandtes Coronavirus verursacht wird. Dieses Medikament könnte somit sogar gegen andere Coronaviren wirksam sein, die eine Erkältung (grippalen Infekt) verursachen.

In der Anfang dieses Monats in Science [1] veröffentlichten Studie hat das Pfizer-Team unter der Leitung von Dafydd Owen (Pfizer Worldwide Research, Cambridge, MA) berichtet, dass die neueste Version ihres Mpro-Inhibitors in Labortests nicht nur gegen SARS-CoV-2 eine starke antivirale Aktivität zeigte, sondern auch gegen alle von ihnen getesteten Coronaviren, deren Infektiosität für Menschen bekannt ist. Weitere Studien an menschlichen Zellen und Modellen der SARS-CoV-2-Infektion an der Maus deuteten darauf hin, dass die Behandlung eine Limitierung der Infektion und eine Reduzierung der Schädigung des Lungengewebes bewirken könnte.

In dem Science-Artikel berichteten Owen und Kollegen auch über die Ergebnisse einer klinischen Phase-1-Studie an sechs gesunden Personen [1]. Sie zeigten, dass ihr Protease-Inhibitor bei oraler Einnahme sicher war und zur Bekämpfung des Virus ausreichende Konzentrationen im Blutkreislauf erreichen konnte.

Präliminäre Ergebnisse zu Paxlovid

Aber kann es gelingen, COVID-19 bei einer infizierten Person zu behandeln? Die vorläufigen Ergebnisse der größeren klinischen Studie mit der jetzt als PAXLOVID™ bekannten Pille sehen zweifellos ermutigend aus. PAXLOVID™ ist eine Formulierung, die den neuen Proteasehemmer mit einer niedrigen Dosis eines eingeführten Medikaments namens Ritonavir kombiniert. Ritonavir verlangsamt den Metabolismus einiger Proteasehemmer und hält sie dadurch länger im Körper aktiv (Ritonavir blockiert vor allem CYP3A4, das den Metabolismus und damit die Inaktivierung von 332 dominierende Enzym; Anm. Redn.).

An der klinischen Studie der Phase 2/3 nahmen rund 1.200 Erwachsene aus den USA und der ganzen Welt teil. Um rekrutiert zu werden, mussten die Studienteilnehmer eine in den letzten 5 Tagen bestätigte Diagnose von COVID-19, sowie leichte bis mittelschwere Krankheitssymptome haben. Dazu mussten sie zumindest auch ein Merkmal oder ein Befinden aufweisen, das mit einem erhöhten Risiko für einen schweren Krankheitsverlauf von COVID-19 verbunden ist. Die Studienteilnehmer wurden nach dem Zufallsprinzip ausgewählt, um fünf Tage lang alle 12 Stunden entweder das experimentelle antivirale Mittel oder ein Placebo zu erhalten.

Laut Pfizer-Mitteilung wurden bei Patienten, die innerhalb von drei Tagen nach dem Auftreten von COVID-19-Symptomen behandelt wurden, 0,8 Prozent (3 von 389) der PAXLOVID™ Gruppe innerhalb von 28 Tagen ins Krankenhaus eingeliefert, dagegen 7 Prozent (27 von 385) derjenigen, die das Placebo erhalten hatten. Ähnlich ermutigende Ergebnisse wurden bei denen beobachtet, die innerhalb von fünf Tagen nach Auftreten der Symptome behandelt worden waren. Von den mit dem antiviralen Medikament Behandelten wurde ein Prozent (6 von 607) ins Krankenhaus eingeliefert gegenüber 6,7 Prozent (41 von 612) aus der Placebo-Gruppe. Insgesamt gab es keine Todesfälle bei Personen, die PAXLOVID™ einnahmen; dagegen starben 10 Personen in der Placebogruppe (1,6 Prozent) in weiterer Folge.

Paxlovid - die Pille für zuhause?

Wenn der FDA-Review positiv ausgeht, besteht die Hoffnung, dass PAXLOVID™ als eine Behandlung für zu Hause verschrieben werden könnte, um einen schweren Krankheitsverlauf, Hospitalisierungen und Todesfälle zu verhindern.

Paxlovid würde dann längstens 5 Tage nach COVID-19-Diagnose/Auftreten von Symptomen über 5 Tage lang 2 x täglich in einer Dosierung von 300 mg PF-07321332 und 100 mg Ritonavir angewandt werden (Anm. Redn., [3])

Pfizer hat außerdem zwei zusätzliche Studien mit Paxlovid gestartet: i) eine bei Erwachsenen mit COVID-19, die ein normales Risiko für einen schweren Krankheitsverlauf haben (1140 Personen) und ii) eine andere Studie, die die Eignung von Paxovid zur Vorbeugung einer Infektion bei Erwachsenen untersucht, die dem Coronavirus durch ein Haushaltsmitglied ausgesetzt sind (2634 Teilnehmer).

Mittlerweile hat Großbritannien das andere kürzlich entwickelte antivirale Medikament Molnupiravir zugelassen, welches die Virusreplikation auf andere Weise verlangsamt: es blockiert die Fähigkeit des Virus sein RNA-Genom exakt zu kopieren. Die FDA wird am 30. November zusammentreffen, um den Antrag von Merck und Ridgeback auf eine Notfallzulassung von Molnupiravir zur Behandlung von leichtem bis mittelschwerem COVID-19 bei infizierten Erwachsenen mit hohem Risiko für schwere Erkrankungen zu erörtern [4].

Mit Thanksgiving und den schon nahen Winter- Feiertagen sind diese beiden vielversprechenden antiviralen Medikamente sicherlich weitere Gründe in diesem Jahr dankbar zu sein.


 [1 ]An oral SARS-CoV-2 M(pro) inhibitor clinical candidate for the treatment of COVID-19.
Owen DR, Allerton CMN, Anderson AS, Wei L, Yang Q, Zhu Y, et al. Science. 2021 Nov 2: eabl4784.

[2] Pfizer’s novel COVID-19 oral antiviral treatment candidate reduced risk of hospitalization or death by 89% in interim analysis of phase 2/3 EPIC-HR Study. Pfizer. November 5, 2021.

[3]  https://www.pfizer.com/news/press-release/press-release-detail/pfizer-seeks-emergency-use-authorization-novel-covid-19 Pfizer. November 16, 2021

[4] FDA to hold advisory committee meeting to Discuss Merck and Ridgeback’s EUA Application for COVID-19 oral treatment. Food and Drug Administration. October 14, 2021.


 *Dieser Artikel von NIH-Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 16. November 2021) im NIH Director’s Blog unter dem Titel: "Early Data Suggest Pfizer Pill May Prevent Severe COVID-19". https://directorsblog.nih.gov/2021/11/16/early-data-suggest-pfizer-pill-may-prevent-severe-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit einigen Untertiteln und mit "Anm. Redn." gekennzeichneten Ergänzungen versehen. Zur anschaulichen Erläuterung des Wirkmechanismus von Paxlovid wurde von der Redn. auch eine Abbildung (plus Legende) eingefügt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health: https://www.nih.gov/

COVID-19-Research: https:/covid19.nih.gov/

ClinicalTrials.gov: Accelerating COVID-19 Therapeutic Interventions and Vaccines (ACTIV): https://www.nih.gov/research-training/medical-research-initiatives/activ

 Artikel von Francis S. Collins über COVID-19 im ScienceBlog


 

inge Thu, 18.11.2021 - 16:03

Ein klimapolitischer Rahmen zur Finanzierung von klimabedingten Verlusten und Schäden

Ein klimapolitischer Rahmen zur Finanzierung von klimabedingten Verlusten und Schäden

Do, 11.11.2021 — IIASA

IIASA Logo Icon Klima

Während die Auswirkungen des Klimawandels gravierender werden und Adaptierungen bald an ihre Grenzen stoßen, werden vulnerable Gemeinschaften verschiedene Arten der Finanzierung benötigen, um Resilienz (Widerstandsfähigkeit) aufzubauen und Umgestaltungen für ihren Selbstschutz vorzunehmen. IIASA-Forscher haben nun ein neues Dossier erarbeitet, das einen Finanzierungsrahmen für solche Klimarisiken vorlegt und relevante Modelleinblicke zur Information internationaler Debatten über Adaptierung und "Loss and Damage" - Verluste und Schäden - bietet.*

Wenn der Meeresspiegel steigt, Überschwemmungen zunehmen, Hitze existenzbedrohend wird und Riffe auf Grund von Hitze und Übersäuerung zusammenbrechen, werden Gemeinschaften gezwungen sein, eine Änderung in ihrem Umgang mit klimabedingten Risiken vorzunehmen – für manche wird dies bis hin zur Aufgabe ihrer Wohnstätten gehen. Die Auswirkungen werden in erster Linie auf weniger wohlhabende und zudem vulnerable Nationen treffen, die auf sich allein gestellt nicht in der Lage sind, effizient zu reagieren. Wo immer aber eine Katastrophe eintritt, werden die Auswirkungen zunehmend erheblicher – insbesondere dort, wo die Grenzen der Adaptierung bereits nahe gerückt sind (Abbildung 1).

Abbildung 1. Existenzielle klimabedingte Risiken und Grenzen der Anpassung. (Starre Grenzen sind unveränderliche Grenzen,die Kipppunkte von Erdsystemen sind, weiche Grenzen sind zwar technisch beherrschbar,können aber von gesellschaftlicher und politischer Seite behindert werden. Anm. Redn.) (basierend auf Mechler und Deubelli, 2021 und Deubelli und Venkateswaran, 2021)

„Vermeidung, Minimierung und Umgang“ von/mit klimabedingten Verlusten und Schäden

Das bedeutet, dass wir überdenken müssen, wie wir mit klimabedingten Risiken umgehen. Die Industrienationen – die seit Jahrzehnten die Haupttreiber des Klimawandels sind – haben eine moralische Verpflichtung die notwendigen Veränderungen in Richtung Resilienz zu unterstützen und im Katastrophenfall zu helfen. Es wurden zwar Schritte unternommen, um den diesbezüglichen Dialog zu fördern, doch sind weitere Maßnahmen erforderlich, insbesondere in Hinblick darauf, wie solche Maßnahmen finanziert werden können. Darüber hinaus verweist die nicht eindeutige Diktion des aktuellen Diskurses auf „Vermeidung, Minimierung und Umgang“ von/mit Verlusten und Schäden; Vermeidung und Minimierung werden aber auch durch Milderung des Klimawandels, Adaptierung und Risikomanagement abgedeckt; übrig bleibt der Umgang mit Verlusten und Schäden, die nicht verhindert werden können.

Abbildung 2. Risiko-Layering-Architektur für das Management von Klimarisiken (RKR: Reduzierung des Katastrophenrisikos; AKW: Anpassung an den Klimawandel)

IIASA-Forscher haben Ideen aus verschiedenen Disziplinen zusammengetragen, um einen umfassenden Rahmen für die Finanzierung von Verlusten und Schäden vorzuschlagen, der alle drei Säulen des "Verlust und Schaden" Diskurses umfasst, wie er jetzt in Publikationen und einem neuen Grundsatzpapier für den Glasgower Klimagipfel ( COP26) dargelegt wird.

Die Forscher haben die Risikoanalyse angewandt, um zwischen vermiedenen, nicht vermiedenen und unvermeidbaren Risiken zu unterscheiden, die als Teil eines Portfolioansatzes zu handhaben sind. Mit den verschiedenen Risikoebenen in Verbindung gebracht führte dies zu einer Hierarchie der Risikoebenen. Abbildung 2.

Finanzierung des Risikomanagements .............

bedeutet in diesem Zusammenhang eine direkte Finanzierung, um für Anpassung, Risikomanagement und Aufbau von Resilienz zu zahlen – es ist dies eine Umwandlung von nicht vermiedenen Risiken in vermiedene Risiken. Dafür ist mehr Risikoprävention nötig und Vorbereitetsein erforderlich. Staatshaushalte und Entwicklungsförderung könnten durch innovativere Finanzierungsmechanismen, wie beispielsweise durch Klimaresilienz-Anleihen, aufgestockt werden. Wo eine zunehmende Adaptierung nicht mehr ausreichend ist, sind zusätzliche Mittel und Engagement für eine radikalere, transformative Anpassung von entscheidender Bedeutung. Dies kann bedeuten, dass man den Menschen hilft, eine neue Existenzgrundlage zu finden, beispielsweise - dort wo die Landwirtschaft nicht mehr realisierbar ist -durch den Wechsel von der Landwirtschaft in die Dienstleistungsbranche; oder aber auch, dass ein gesteuerter Rückzug aus den Bereichen mit dem höchsten Risiko unterstützt wird. Es sind dies transformatorische Initiativen, die im Rahmen des "Loss and Damage"-Dialogs derzeit noch keine ausreichende Unterstützung finden.

..........Risikofinanzierung......

bedeutet im weitesten Sinne private und öffentliche Versicherungen, beispielsweise durch regionale Risikobündelung, um einen schnellen Wiederaufbau und Wiederaufschwung zu finanzieren, wenn ein Sturm Hochwasserschutzanlagen fortgerissen hat. Traditionell steht die Risikofinanzierung im Mittelpunkt der Debatte um die Finanzierung von Verlusten und Schäden – sie ist jedoch nur ein Trostpflaster, wenn die Abwendung und Minimierung von Schäden aussichtslos gewesen ist.

.....kurative Finanzierung

Schlussendlich stellt kurative Finanzierung einen letzten Ausweg für übrige Risiken dar, um die Kosten eines erzwungenen Rückzugs und des Verlusts der Lebensgrundlage zu decken. Wo sich Risiken an den starren Grenzen der Anpassung manifestieren, kann auch die Finanzierung der transformativen Anpassung einen Ort nicht wieder bewohnbar machen; daher werden neue Finanzierungsquellen und -mechanismen benötigt, wie beispielsweise nationale und internationale Verteilung- der- Verluste- und Entschädigungssysteme.

Nach Meinung der Forscher sollten solche Systeme idealerweise global angelegt sein; in Ermangelung globaler Mechanismen, um ausreichende Mittel bereitzustellen und die ethischen Verpflichtungen reicherer Nationen zu erfüllen, bietet aber die offizielle Entwicklungshilfe für nationale Verlustverteilungs- und Entschädigungssysteme einen nützlichen Ausweg.

„Wie der Weltklimarat (IPCC) gezeigt hat, stoßen einige Systeme und Länder bereits an die Grenzen der Anpassung oder sind nahe daran“, sagt Reinhard Mechler, Leiter der Forschungsgruppe für Systemisches Risiko und Resilienz. „Beispielsweise besteht eine hohe Wahrscheinlichkeit, dass um das Jahr 2050 tropische Korallenriffe verschwunden sind und Gemeinden, die einst auf diese vertraut haben - für Küstenschutz, Ökosystemdienstleistungen und Tourismus - nun" gestrandet" sind– selbst wenn die Erwärmung auf 1,5 ° C begrenzt bleibt.“

Abbildung 3. Strategischer Rahmen für limitanfällige Systeme

Modellierung

IIASA hat auf der Grundlage seines CatSim-Modells (Catastrophic Simulation-odell) Tools entwickelt, um die verschiedenen Risikoebenen zu modellieren. Insbesondere die Frage, wer kurative Finanzierungen für die Hochrisiko-Abwanderungsebene „jenseits der Anpassung“ bereitstellt, ist umstritten – aber sie ist dringend geworden und eine Angelegenheit von gemeinschaftlichem globalem Interesse. Abbildung 4 zeigt die weltweite Finanzierungslücke für mehrere Risiken, um Länder und Regionen zu identifizieren, die internationale Unterstützung benötigen.

Abbildung 4. Abschätzung der Ebene Abwanderungsrisiko mit CatSim; Hochrainer-Stigler, 2021

Der Ansatz der Risikoebenen bietet einen wissenschaftlich fundierten und umsetzbaren Rahmen für einen globalen Ansatz zur Aufnahme zunehmend existenzieller Risiken und zur Schaffung von Eigenverantwortung für Risikoschichten „jenseits der Anpassung". Weitere Studien sind erforderlich, um Grenzen der Anpassung, Kapazitäten und Risiken im großen Maßstab zu verstehen und Chancen im Bereich der internationalen Klimapolitik auf der COP26 und darüber hinaus zu erkennen. Die Kurzfassung zum neuen Rahmenwerk kann hier abgerufen werden: https://iiasa.ac.at/web/home/resources/publications/IIASAPolicyBriefs/PB32.pdf-


 * Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 10.November 2021 auf der IIASA Webseite unter dem Titel: " A climate policy framework to deal with existential climate risk" https://iiasa.ac.at/web/home/about/211110-loss-and-damage-finance-policy-brief.html
erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch Untertitel ergänzt.

 


Relevante Publikationen

Deubelli, T.M. & Mechler, R. (2021). Perspectives on transformational change in climate risk management and adaptation. Environmental Research Letters 16, e053002 [[pure.iiasa.ac.at/17003

Deubelli, T.M. & Venkateswaran, K. (2021). Transforming resilience-building today for sustainable futures tomorrow. IIASA Working Paper. Laxenburg, Austria: WP-21-005 [pure.iiasa.ac.at/17398]]

Hochrainer-Stigler, S. (2021). Changes in fiscal risk against natural disasters due to Covid-19. Progress in Disaster Science, e100176 [pure.iiasa.ac.at/17198]

Mechler, R. & Deubelli, T.M. (2021). Finance for Loss and Damage: a comprehensive risk analytical approach. Current Opinion in Environmental Sustainability 50, 185-196 [pure.iiasa.ac.at/17239]


 

inge Fri, 12.11.2021 - 00:47

Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Sa. 30.10.2021  — Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Von Medien, akademischen Institutionen, Wirtschaft und Politik noch völlig ignoriert ist vor wenigen Wochen das Ergebnis der bislang umfangreichsten, von der Europäischen Kommission beauftragten Umfrage zum Thema Wissenschaft und Technologie erschienen (Special Eurobarometer 516). Es geht dabei um "Kenntnisse und Ansichten der europäischen Bürger zu Wissenschaft und Technologie". Aus der enormen Fülle der dort erhobenen Informationen wurde kürzlich im Scienceblog über die Aspekte "Interesse an Wissenschaft &Technologie und Informiertheit" berichtet - beide Voraussetzung für den Erwerb von Kenntnissen in den Wissenschaften, die das moderne Leben prägen. Mit diesen Kenntnissen und den Ansichten der Europäer zu Naturwissenschaften befasst sich der aktuelle Artikel, wobei speziell auch auf die Situation in Österreich Bezug genommen wird.

 

 

Wissenschaft* und Technologie spielen eine enorm wichtige Rolle für unsere Gesellschaften, sie sind die Grundlage für unser heutiges und zukünftiges wirtschaftliches und soziales Wohlergehen.Dass unter den EU-Bürgern aber nicht immer ein breites Verständnis für Naturwissenschaften und deren Methoden vorhanden ist, wurde in mehreren, von der EU beauftragten Umfragen ("Special Eurobarometer") zu verschiedenen Aspekten von Wissenschaft und Technologie aufgezeigt. Dies geht auch aus den Ergebnissen der letzten EU-weiten Umfragen 2010, 2013 und 2014 hervor. Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013 und 2014 wurde mit speziellem Fokus auf Österreich im ScienceBlog berichtet [1 - 4].

Sieben Jahre später hat nun wieder eine europaweite Umfrage zu Wissen und Ansichten der europäischen Bürger zu Wissenschaft und Technologie ("European citizens’ knowledge and attitudes towards science and technology") stattgefunden. Diesmal wurden nun nicht nur Bürger der EU27 interviewt, sondern auch Bürger der Beitrittskandidaten in Südosteuropa und andere Nicht-EU-Mitglieder (Island, Norwegen, UK, Schweiz). Zu einer Menge neuer Fragen kamen bereits früher gestellte dazu und ermöglichen damit einen Vergleich der wissenschaftlichen Entwicklung einzelner Länder. Der vor vier Wochen erschienene Report dieser bislang umfangreichsten Studie enthält auf 322 Seiten eine so enorme Fülle an wichtigen Ergebnissen, dass diese auch nicht ansatzweise in einem Artikel zusammengefasst werden können [5]. Dass allerdings weder die europäische noch die internationale Presse darüber berichtete, erscheint dennoch verwunderlich.

Über den Aufbau dieser Studie und über die Ergebnisse zum Teilaspekt "Interesse der europäischen Bürger an Wissenschaft & Technologie und Informiertheit" hat kürzlich der ScienceBlog berichtet [6]. Daraus ging hervor, dass das Interesse der Europäer naturwissenschaftlichen und technologischen Themen seit 2010 gestiegen war und nun der überwiegende Anteil (82 - 89 %) der Befragten angab daran (sehr oder eher) interessiert zu sein. Gleichzeitig bedauerten die Menschen aber über naturwissenschaftliche Themen nicht sehr gut informiert zu sein - eine Situation, die sich seit 2010 nur schwach verbessert hat.

In Fortsetzung zu diesem Artikel wird heute ein weiterer Fragenkreis der Studie zu "Kennnissen und Ansichten der Europäer zu Naturwissenschaften und Technologie" behandelt. Wie auch in [6] wird dabei der Fokus auf die Ansichten der Österreicher im Vergleich zu den Ansichten anderer Europäer gelegt

Wie denken die europäischen Bürger über Wissenschaft und Technologie?

Nicht in Einklang mit dem bekundeten Interesse steht der persönliche Bezug vieler Europäer zu den Naturwissenschaften. Abbildung 1.

Abbildung 1: Persönliche Standpunkte zu den Naturwissenschaften: Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Standpunkt 1 und 3 waren neu, die Bedeutung der Naturwissenschaften im täglichen Leben wurde bereits in früheren Umfragen erhoben (hier 2010). Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports [5] entnommen.

Zu kompliziert - ich verstehe ja kaum etwas

Knapp die Hälfte der befragten EU-Bürger (46 %) beklagt, dass Naturwissenschaften derart kompliziert sind, dass sie davon kaum etwas verstehen, nur 28 % sind der gegenteiligen Meinung. Es besteht dabei ein starker Süd/Ost - Nord/West- Trend: den höchsten Mangel am Verständnis geben Bulgarien (70 %), Zypern (69 %) und Griechenland (67 %) an, den niedersten Belgien (23 %), Irland (24 %) und Holland (24 %) am andern Ende der Reihung. Fünf der EU-Beitrittskandidaten in Südosteuropa (incl. Kosovo) fügen sich mit 57 - 60 % in das Ranking der süd/östlichen EU-Staaten ein. Albaniens Angabe - nur für insgesamt 23 % erscheinen Naturwissenschaften zu kompliziert - steht in krassem Widerspruch zu den weiter unten festgestellten geringfügigen Kenntnissen.

Österreich (51 % ) liegt - etwas schlechter als der EU27 Schnitt - an 13. Stelle der EU-Länder umgeben von zahlreichen ehemaligen Oststaaten.

Bedarf für mehr Informationen zu wissenschaftlichen Entwicklungen

Im EU27-Schnitt erklären mehr als die Hälfte (54 %) der Befragten, dass sie sich beispielsweise in Museen, Ausstellungen und Büchereien über wissenschaftliche Entwicklungen informieren möchten. Besonders interessiert erscheinen die Befragten in Portugal (80 %), Irland (68 %), Luxemburg (65 %) und Zypern (64%), am wenigsten interessiert in Bulgarien, Österreich und Kroatien (jeweils 41 %). Österreich steht in dieser Reihung an vorletzter (26.) Stelle und hat mit 35 % ablehnenden Antworten den Spitzenplatz an Desinteresse inne. Nur im Beitrittsland Serbien ist das Desinteresse noch etwas höher (37 %).

Naturwissenschaftliche Kenntnisse im täglichen Leben? Es geht auch ohne

Abbildung 2: In einigen europäischen Ländern braucht nur eine Minderheit naturwissenschaftliche Kenntnisse, um im täglichen Leben zurechtzukommen. Antworten (%) der EU27-Länder und der EU-Beitrittskandidaten (rechts: RS: Serbien, ME: Montenegro, BA: Bosnien-Herzegowina, XK: Kosovo, MK: Nord-Mazedonien, Al: Albanien). Die Grafiken stammen aus dem Special Eurobarometer 516-Report.

Während im EU27-Schnitt ein Drittel der Bürger diese Ansicht vertreten, fast die Hälfte (46 %) aber angibt solche Kenntnisse im täglichen Leben zu brauchen, hält mehr als die Hälfte (53 %) der befragten Österreicher solche Kenntnisse für unwichtig und nur 29 % erklären darauf angewiesen zu sein. Im Vergleich zu den Erhebungen von 2010 ist der Anteil derer, die damals ohne Kenntnisse auskamen (57 %), nur leicht gesunken, derer die damals solche benötigten (25 %) etwas gestiegen (Abbildung 1). In dieser "es geht auch ohne" Reihung nimmt Österreich Platz 3 nach Bulgarien (57 %) und Griechenland (53 %) ein, gefolgt von ehemaligen Ostblockländern wie Slowakei, Ungarn, Polen und Rumänien. Ähnlich negative Werte sehen wir ansonsten nur bei den Beitrittsländern Serbien und Montenegro. Abbildung 2.

Am anderen Ende der Reihung stehen Länder wie Portugal, Malta, Tschechei und Finnland, in denen bis über 70 % der Befragten naturwissenschaftliche Kenntnisse im täglichen Leben für wichtig erachten.

Soll sich die Jugend für Naturwissenschaften interessieren?

Abbildung 3: Ist das Interesse junger Menschen an Naturwissenschaften Grundvoraussetzung für einen künftigen Wohlstand? Antworten (%) der EU27-Länder und der EU-Beitrittskandidaten (rechts: RS: Serbien, ME: Montenegro, BA: Bosnien-Herzegowina, XK: Kosovo, MK: Nord-Mazedonien, Al: Albanien). Die Grafiken stammen aus dem Special Eurobarometer 516-Report.

Die überwiegende Mehrheit in den EU27 Staaten stimmt voll oder eher zu (insgesamt 68 - 98 %) , dass das Interesse junger Menschen an Naturwissenschaften Grundvoraussetzung für einen künftigen Wohlstand ist. Abbildung 3. Auch hier ist ein starker Nord/West - Süd/Ost Trend bemerkbar. In 16 EU- Staaten stimmt mehr als die Hälfte der Befragten voll zu, angeführt von Portugal (80 %), Schweden (64 %), Estland (67 %) und Irland (69 %), am anderen Ende sind hauptsächlich ehemalige Ostblockländer, Italien und - leider wiederum - Österreich. Nur 27 %, die voll zustimmen und 11 %, die meinen "brauchen wir (eher) nicht", sind ein Armutszeugnis für ein Land, das so viel in Bildung investiert.

Kenntnisse in naturwissenschaftlichen Gebieten

Insgesamt wurde den befragten Personen eine Liste mit 11 Aussagen vorgelegt, welche die Kenntnisse über einen weiten Bereich naturwissenschaftlicher Gebiete - Naturgeschichte und Geographie, Bio- und physikalische Wissenschaften - und dazu auch den Glauben an Verschwörungstheorien - testeten. Aufgabe war es zu entscheiden ob die Aussagen richtig oder falsch wären, bzw. "ich weiß nicht" anzugeben.

Naturgeschichte und Geographie

Dieses Themengebiet enthielt 4 Aussagen; die Antworten im EU27-Schnitt und aus Österreich sind in Abbildung 4 zusammengefasst. Auch hier ist ein starker Nord/West - Süd/Ost Trend richtiger Antworten ersichtlich (die auch den Trends in Abbildung 2 und 3 entsprechen) und ein ähnliches Abschneiden der EU-Beitrittskandidaten wie in deren EU-Nachbarländern (die Trends sind im Report [5] nachzusehen).

"Die Kontinente, auf denen wir leben, haben sich seit Millionen Jahren bewegt und werden sich auch in Zukunft bewegen". Dass dieses Statement richtig ist, weiß der bei weitem überwiegende Teil der Befragten in den EU27-Staaten. Angeführt wird die Reihung der richtigen Antworten von Deutschland (92 %), Schweden (91 %) und Irland (91 %), am anderen Ende der Liste sind Polen (72 %), Bulgarien (67 %) und Rumänien (62 %). Österreich steht mit 78 % in dieser Reihung an 20. Stelle und hat sich seit 2005 (88 %) um 10 Punkte verschlechtert. Die richtigen Antworten der Beitrittskandidaten liegen zwischen 35 % (Albanien) und 74 % (Montenegro).

Abbildung 4: Kenntnisse in Naturgeschichte und Geographie in den EU27-Staaten. Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Frage 1,2 und 4 wurden bereits auch 2005 gestellt. Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports entnommen.

Dass der Mensch sich aus früheren Tierspezies entwickelt hat, wissen im EU27-Schnitt rund 2/3 der Befragten: die meisten davon gibt es in Irland (84 %), Schweden (83 %) und Luxemburg (83 %), die wenigsten in Zypern (48 %), Lettland (39 %) und der Slowakei (36 %). Richtige Antworten der Beitrittskandidaten gibt es von 22 % (Kosovo) bis 51 % (Nord-Mazedonien). Österreich rangiert in der EU am 13. Platz und hat seit 2005 dazugelernt.

Es gibt derzeit mehr als 10 Milliarden Menschen auf der Erde. Ein relativ hoher Anteil der Bevölkerung hält diese falsche Aussage für richtig: 37 % im EU27-Schnitt, gleich viele in Österreich. Die höchste Rate der Fehleinschätzungen gibt es in Zypern (51 %), Spanien (45 %) und Polen (44 %), die geringste Rate in Lettland (24 %), Dänemark (23 %) und Luxemburg (21 %). Die Fehlschätzungen in den Beitrittskandidaten liegen zwischen 54 % (Montenegro) und 26 % (Kosovo). Österreich liegt im Mittelfeld auf Stelle12.

Die frühesten Menschen lebten gleichzeitig mit den Dinosauriern. Zwei Drittel der Befragten im EU27-Schnitt konstatierten diese Aussage als falsch. Die Meisten in der Tschechei, Belgien und Schweden (82 -86 %), die Wenigsten in Rumänien, Italien und Ungarn, wo rund ein Drittel der Personen diesen Satz für richtig hielt. In der Reihung nach falschen Einschätzungen nimmt Österreich mit 28 % den 6. Platz ein und hat sich seit 2005 um 12 Punkte verschlechtert. Von den Beitrittskandidaten liegt nur noch Albanien (48 %) schlechter als Ungarn.

Naturwissenschaften/Physik ("Science")

Dieses Themengebiet enthielt 5 Aussagen; die Antworten im EU27-Schnitt und aus Österreich auf 4 dieser Aussagen sind in Abbildung 5 zusammengefasst. (Auf das 5. Statement "The methods used by the natural sciences and the social sciences are equally scientific", dass sich also Naturwissenschaften und Sozialwissenschaften gleichwertiger wissenschaftlicher Methoden bedienen" wird hier nicht eingegangen, da nicht klar ist, was unter "equally scientific" zu verstehen ist; die Analyse kann in [5] nachgelesen werden.)

Wie in den Aussagen zu Naturgeschichte und Geographie besteht auch hier ist ein starker Nord/West - Süd/Ost Trend der richtigen Antworten (die einzelnen Trends sind im Report [5] nachzusehen).

Abbildung 5: Kenntnisse in Biowissenschaften und Physik. Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Fragen 1 - 3 wurden bereits 2005 gestellt. Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports [5] entnommen.

Der Sauerstoff, den wir atmen, kommt von den Pflanzen. Der bei weitem überwiegende Anteil der Bevölkerung weiß, dass diese Aussage richtig ist: 82 % im EU27 Schnitt, mit höchsten Werten in Schweden, Lettland und Finnland (89 - 97 %). Auch am andern Ende der Reihung in Rumänien, Ungarn und Belgien gibt es 70 - 75 % richtige Antworten. Österreich liegt mit 81 % an 19. Stelle der Reihung - immerhin 16 % - 6 Punkte mehr als 2005 - halten die Aussage für falsch. Mit Ausnahme Albaniens (52 % richtig) gaben die Beitrittskandidaten zwischen 70 und 89 % richtige Antworten.

Antibiotika töten Viren ebenso wie Bakterien. Mehr als die Hälfte (55 %) der Befragten im EU27-Schnitt betrachtet diese Aussage als falsch - um 9 Punkte mehr als 2005. Auch die meisten EU-Staaten haben hier dazugelernt. Dies ist leider nicht der Fall in Staaten wie Griechenland (68 %), Bulgarien (65 %) und Rumänien (63 %), die sich seit 2005 um 10 - 20 Punkte verschlechtert haben. Zypern mit 71 % (2005: 74 %) nimmt den obersten Platz in der Reihung der falschen Antworten ein. Am anderen Ende der Skala stehen Finnland, Schweden und Belgien mit 7 - 10 % Personen, die grippale Infekte vermutlich mit Antibiotika zu behandeln versuchen. In Österreich ist der Anteil derer, die bei viralen Erkrankungen Antibiotika geben von 40 % im Jahr 2005 auf nun 26 % gesunken; es steht auf Stelle 13 der Reihung.

Laser arbeiten indem sie Schalwellen fokussieren. Dass diese Aussage falsch ist wird im EU27-Schnitt von nur 42 % der Befragten erkannt, rund ein Viertel (26 %) halten sie für richtig und etwa ein Drittel (32 %) gibt zu darüber nichts zu wissen. Die Liste der falschen Antworten führen Polen (43 %), Österreich (42 %) und Italien (40 %) an, die wenigsten falschen Antworten stammen aus Irland, Belgien und Portugal (8 - 10 %). Bei den Beitrittskandidaten liegen die richtigen Antworten zwischen 20 und 38 %.

Der Klimawandel wird größtenteils durch natürliche Kreisläufe und nicht durch menschliche Aktivitäten verursacht. Dieser Meinung ist im EU27-Schnitt rund ein Viertel (26 %) der Befragten, zwei Drittel (67 %) sehen den Menschen als Verursacher. Problematisch für einen EU-weiten effizienten Kampf gegen den Klimawandel erscheint der relativ hohe Anteil an Klima(wandel)leugnern in den ehemaligen Ostblockstaaten, vor allem in Ungarn (48 %), Rumänien (47 %) und der Slowakei (43 %). In den Staaten am anderen Ende der Skala - Belgien, Holland und Portugal - gibt es immerhin auch noch noch 13 -14 % Klima(wandel)leugner. Österreich nimmt mit 30 % den 9.Platz unter den Klimaleugnern ein. Mit Ausnahme Albaniens (56 %) rangieren die Beitrittskandidaten zwischen 31 und 39 % Klima(wandel)leugnern, gleichauf mit dem Großteil ihrer EU-Nachbarstaaten.

Glaube an Verschwörungstheorien

Der Test umfasste hier zwei falsche Thesen mit medizinisch-biologischem Background. Wie auch bei den Antworten zu den wissenschaftlichen Fragen besteht in beiden Fällen ein sehr starker Süd/Ost - Nord/West Gradient.

Es gibt Mittel Krebs zu heilen, von denen die Öffentlichkeit aus kommerziellen Gründen nichts erfährt. Daran glaubt im Schnitt rund ein Viertel (26 %) in den EU27-Ländern, 56 % sind gegenteiliger Meinung und 18 % enthalten sich der Einschätzung. Besonders viele Verschwörungstheoretiker sind in Zypern (58 %), Griechenland (52 %) und Ungarn (48 %) anzutreffen, gefolgt von den Oststaaten. Auch in den Beitrittskandidaten-Ländern finden sehr viele Bürger diese These richtig (44 - 68 %). Die wenigsten der daran glaubenden Menschen gibt es in Finnland, Dänemark und Schweden (4 - 7 %). Österreich liegt mit 21 % auf Platz 16 der Skala der Verschwörungstheoretiker.

Viren sind in staatlichen Labors produziert worden, um unsere Freiheit einzuschränken. Hier ergibt sich ein ganz ähnliche Bild wie zur ersten These. 28 % im EU27-Schnitt halten dies für richtig, 55 % für falsch und 17 % geben dazu keine Meinung ab. Wiederum sind die meisten daran Glaubenden in Süd/Ost anzutreffen, mit Rumänien, Zypern und Bulgarien in den obersten EU-Rängen (52 - 53 %) - und ebenfalls sehr hohen Zahlen in den EU-Beitrittskandidaten-Ländern (51 - 71 %). Schweden, Holland und Dänemark liegen mit 6 - 7 % am unteren Ende der Skala. In Österreich sind 21 % der falschen Meinung - dies ergibt wiederum Platz 16 der Skala der Verschwörungstheoretiker.  

Wie gut sind in Summe die naturwissenschaftlichen Kennnisse der Europäer und wie korrelieren sie mit dem bekundeten Interesse?

Abbildung 6: Kenntnisse der europäischen Bürger in den Naturwissenschaften getestet anhand von 11 Fragen (oben) und geäußertes Interesse an naturwissenschaftlichen Entdeckungen und Entwicklungen (unten; diese Grafik wurde auch in [6] gezeigt). Die Grafiken sind aus dem Special Eurobarometer 516-Reports [5] entnommen.

 

Die Bewertung der 11 Antworten erfolgte nach dem Schlüssel mehr als 8 richtige, 5 - 8 richtige und weniger als 5 richtige Antworten - in Schulnoten ausgedrückt wäre das in etwa: gut bis sehr gut, befriedigend bis genügend und nicht genügend. Abbildung 6.

Im EU27-Schnitt erzielten 24 % der Befragten mehr als 8 richtige Antworten, 56 % zwischen 5 und 8 richtige und 20 % weniger als 5 richtige Antworten - in Summe ergibt das ein zwischen befriedigend und genügend liegendes Resultat.

Zwischen den einzelnen Ländern herrschen sehr große Wissensunterschiede. Die besten Resultate erzielten nordwestliche Staaten wie Luxemburg, Belgien, Schweden, Irland. Finnland und Dänemark mit 39 - 46 % mehr als 8 richtigen Antworten und nur 7 - 10 % weniger als 5 richtigen Antworten. Die schlechtesten Ergebnisse liefern  EU-Länder des ehemaligen Ostblocks, dazu Zypern und Griechenland; noch schlechter sieht es in Albanien und im Kosovo aus. Diese Staaten haben zweifellos ein Manko zu verstehen, was in der Welt um sie herum vorgeht, um auf diverseste Engpässe und Bedrohungen in adäquater Weise zu reagieren.

Österreich erreicht mit Platz 11 ein befriedigendes Ergebnis. Problematisch erscheint der relativ hohe Anteil (17 %) der Personen, die weniger als 5 Fragen richtig beantworten konnten.

Wie korrelieren nun Interesse und Wissen?

Im Allgemeinen gehören die Länder, die im Test am besten abschnitten auch zu denen, die hohes Interesse an Naturwissenschaften bekundeten. Abbildung 6. Im Umkehrschluss bedeutet die Aussage sehr interessiert zu sein aber nicht auch entsprechendes Wissen zu haben (oder anzustreben). Dies zeigen die Beispiele Portugal, das nur mittelmäßig abschnitt, Zypern, das zu den Ländern mit geringstem Wissen zählt und der Kosovo, wo das vorgebliche Interesse sich keineswegs in Kenntnissen wiederspiegelte. (Eine derartige Diskrepanz war auch im Fall der Türkei zu sehen, die in diesem Artikel aber fehlt.) Es erscheint durchaus möglich, dass das Interesse den Interviewern also nur vorgespiegelt wurde.

Fazit

Durch Europa zieht sich ein Graben. Zwar hat eine überwiegende Mehrheit in allen Staaten (sehr großes oder mäßiges) Interesse an Wissenschaft und Technologie bekundet [6], doch besteht ein enormer Unterschied darin, wie der Norden und Westen Europas und die Länder im Süden und Osten diese Gebiete tatsächlich einschätzen und in Folge agieren. Abgesehen vom persönlichen Interesse, das sich auch in guten Kenntnissen manifestiert, sehen die Länder im Norden und Westen auch das Potential von Wissenschaft und Technologie zur Schaffung neuer Anwendungsgebiete und damit von Arbeitsplätzen. Wissenschaft und Technologie gehören für diese Länder zum täglichen Leben, sie schneiden in Wissenstests gut ab und es ist ihnen wichtig die Jugend für diese Gebiete zu interessieren.

Das Gegenteil ist der Fall in den Ländern im Süden und im Osten Europas. Dort sind für viele Wissenschaft und Technologie viel zu kompliziert - sie verstehen nichts davon, ihre Kenntnisse sind dürftig, im Alltagsleben kommen sie auch ohne diese zurecht und sie schließen daraus, dass dies auch für ihre Jungen genügen wird. Noch krasser sieht es in den EU-Beitrittskandidaten am Balkan aus.

Trotz eines sehr hohen Lebensstandards und hohen Ausgaben für Erziehung und Bildung reihen sich die Ergebnisse aus Österreich im Wesentlichen in die der ehemaligen Oststaaten ein. Es ist eine Grundhaltung die unser großer Kabarettist Helmut Qualtinger vielleicht so subsummiert hätte: "Wos, Travnicek, geben Ihnen Wissenschaft und Technologie?" Antwort: "Wos brauch i des; de san ma Wurscht!" Eine überaus blamable Situation!

 


*Unter Wissenschaft sind hier – dem englischen Begriff „science“ entsprechend – ausnahmslos die Naturwissenschaften gemeint.


 [1] J.Seethaler, H.Denk, 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme [2]

J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

[3] I. Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

[4] I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

[5] [Special Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology. 23. September 2021. ebs_516_science_and_technology_report - EN

[6] I. Schuster, 3.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

inge Sat, 30.10.2021 - 18:36

Signalübertragung: Wie Ionen durch die Zellmembran schlüpfen

Signalübertragung: Wie Ionen durch die Zellmembran schlüpfen

Do, 21.10.2021 — Christina Beck Christina Beck

Icon Biologie

Der diesjährige Nobelpreis für Physiologie oder Medizin wurde für die Entdeckung von Ionenkanälen vergeben, die zwei essentielle Sinnesempfindungen vermitteln: die Temperaturwahrnehmung und die Druckwahrnehmung des Körpers. Ionenkanäle spielen eine universelle Rolle im „Nachrichtenwesen“ eines Organismus: Ihre Aufgaben reichen von der elektrischen Signalverarbeitung im Gehirn bis zu langsamen Prozessen wie der Salz-Rückgewinnung in der Niere. Ermöglicht wurden alle derartigen Untersuchungen durch die sogenannte Patch-Clamp Technik, die in den 1970er Jahren am Göttinger Max-Planck-Institut für Biophysikalische Chemie von Erwin Neher und Bert Sakman entwickelt wurde (beide wurden dafür 1991 mit dem Nobelpreis ausgezeichnet). Wie Ionenkanäle identifiziert wurden und wie sie funktionieren beschreibt die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft.*

Als Rod MacKinnon am Neujahrstag 1998 erwachte, fürchtete er, dass alles nur ein Traum gewesen sein könnte. Bis spät in die Nacht hatte er an der Synchrotron-Strahlungsquelle der Cornell-Universität in Ithaka (NY) Daten aufgenommen, um die Struktur eines Kaliumkanals aus der Zellmembran zu ermitteln – einer Art Schleuse für geladene Teilchen. Seine Kollegen waren nach Hause gegangen, und er hatte alleine weitergearbeitet. Mitternacht war vorüber, und mit jeder Neuberechnung der Daten gewann das Bild des Kanals auf seinem Computerschirm an Schärfe. Schließlich begannen sich die Umrisse einzelner Kaliumionen abzuzeichnen, aufgereiht wie die Spielkugeln eines Flipper-Automaten – genauso, wie es Alan Hodgkin fast fünfzig Jahre zuvor prophezeit hatte: „Ions must be constrained to move in a single file, and there should on average, be several ions in the channel at any moment“. MacKinnon war total aus dem Häuschen …

Festgesetzt – Ein Molekül in Handschellen

Es war kein Traum. Tatsächlich hatte Rod MacKinnon eine wissenschaftliche Glanztat vollbracht, die ihm fünf Jahre später den Nobelpreis für Chemie einbringen sollte. Dabei hatten viele Kollegen die Erfolgsaussichten von MacKinnons Vorhaben, die Struktur von Ionenkanälen zu enthüllen, stark bezweifelt. Es galt als extrem schwierig, tierische oder pflanzliche Membranproteine für Röntgenstruktur-Untersuchungen zu kristallisieren. Gewohnt, sich einzeln in eine Lipidschicht einzubetten, zeigen Membranproteine nämlich wenig Neigung, sich mit ihresgleichen zu einem Kristall zusammenzulagern.

Warum kam der Amerikaner zum Erfolg, wo andere gescheitert waren? Zunächst wählte Mac Kinnon für seine Arbeiten einen Ionenkanal, der aus einem sehr wärmeliebenden (hyperthermophilen) Bakterium stammt. Die Proteine solcher Organismen erlangen die für ihre Funktion notwendige Beweglichkeit erst bei hohen Temperaturen, im Bereich um 20°C sind sie sehr viel starrer als entwicklungsgeschichtlich verwandte Moleküle anderer Organismen. Sie lassen sich daher etwas einfacher in eine gemeinsame Form bringen.

Diesen ersten Kristallen fehlte aber immer noch die notwendige exakte innere Ordnung. Die Forscher mussten daher zu einem weiteren Trick greifen: Um das Proteinmolekül endgültig festzusetzen, entwickelten sie einen monoklonalen Antikörper, der sich mit einer speziellen Bindungsstelle genau an jene Region des Kanalproteins heftet, in der offenbar die größte Beweglichkeit herrscht. Auf die unspezifischen Teile des Antikörpers konnten die Forscher im Weiteren verzichten – für ihre Kristallisationsexperimente nutzten sie lediglich das spezifische Teilstück, das so genannte Fab-Fragment. Die damit hergestellten Kristalle lieferten dann die Röntgenbeugungsdaten, aus denen sich jene hoch aufgelöste Struktur des Ionenkanals ableiten ließ, die im Mai 1998 die Titelseite der renommierten Fachzeitschrift Nature zierte.

Die Suche nach Kanälen

Das war nahezu ein halbes Jahrhundert nachdem Alan Hodgkin, Andrew Huxley und Bernhard Katz in Großbritannien Aktionspotenziale am Riesenaxon des Tintenfisches untersucht hatten. Ihre Messungen bestätigten das so genannte Membrankonzept: Danach basieren alle bekannten elektrischen Signale – Aktionspotenziale, synaptische Signale und Rezeptorpotenziale – auf Änderungen in der Membranpermeabilität, also der Durchlässigkeit der Membran für Ionen. Um die bei einem Aktionspotenzial auftretenden Änderungen in der Leitfähigkeit der Membran formal beschreiben zu können, entwickelten Hodgkin und Huxley die Vorstellung von spannungsgeregelten Ionenkanälen. Dafür erhielten die beiden Physiologen aus Cambridge 1963 den Nobelpreis für Medizin. Die Bezeichnung Natriumkanal und Kaliumkanal wurde seither vielfach benutzt, obwohl es keinen direkten Beweis für die Existenz solcher Kanäle auf der Basis biologischer Präparationen gab.

Im Falle künstlicher Membranen war das anders. Diese „black lipid membranes“ dienten seit Ende der 1960er Jahre als experimentelles Modellsystem und ähnelten in vielerlei Hinsicht der Lipidmembran lebender Zellen. Die Membranen stellten sehr gute Isolatoren dar; aber versetzt mit Antibiotika oder Proteinen wurden sie elektrisch leitfähig. Weil der hindurchfließende Strom sich stufenartig änderte, vermuteten die Wissenschaftler, dass einzelne Proteinmoleküle Kanäle durch die künstliche Membran bilden, wobei die Stufen dem Öffnen und Schließen dieser Kanäle entsprechen. Ähnliche Untersuchungen an biologischen Membranen ließen sich zu diesem Zeitpunkt noch nicht durchführen. Die Methoden zur Messung elektrischer Ströme an lebenden Zellen lieferten ein Hintergrundrauschen, das zwar nur zehn Milliardstel Ampere (100 pA) betrug, damit aber immer noch hundert Mal größer war, als die an den künstlichen Membranen beobachteten Einzelkanalströme. Also mussten die Forscher über neue Messmethoden nachdenken.

Am Max-Planck-Institut für biophysikalische Chemie in Göttingen taten das in den 1970er Jahren Erwin Neher und Bert Sakmann. Die Messgeräte würden, so die Überlegung der beiden Wissenschaftler, nur dann mit der gewünschten Empfindlichkeit ansprechen, wenn es gelänge, aus der Zellmembran ein sehr kleines Areal zu isolieren (einen Membranfleck oder „patch“). Dazu benutzten sie eine mit einer elektrisch leitenden Flüssigkeit gefüllte Glaspipette, die sie auf eine enzymatisch gereinigte Muskelfaser aufsetzten – in der Hoffnung auf diese Weise einige wenige Ionenkanäle von der übrigen Membran isolieren zu können und damit ein klares Messsignal zu erhalten. Es erwies sich allerdings als äußerst schwierig, eine dichte Verbindung zwischen der Glaspipette und der Membran herzustellen. Die beiden Max-Planck- Forscher kämpften mit Lecks, durch welche die Flüssigkeiten außerhalb und innerhalb der Pipette in Kontakt gerieten. Also optimierten sie die Pipettenspitze und reinigten die Zelloberfläche noch sorgsamer. Abbildung 1.

Abbildung 1: Durch einen halboffenen Käfig (oben) wird die Messapparatur im Labor vor elektrisch störenden Einflüssen abgeschirmt. Detailbild (rechts) von der Mess- und Haltepipette unter dem Mikroskopobjektiv bei einer Patch-Clamp-Me ssung © W. Filser, MPG / CC BY-NC-SA 4.0

Lauschangriff auf die Zellmembran

1976 wurden ihre Mühen endlich belohnt: Erstmals konnten die Wissenschaftler an der neuromuskulären Synapse, der Kontaktstelle zwischen Nervenfaser und Muskelzelle, Ströme durch einzelne Kanäle beobachten. Diese ersten Messungen bestätigten viele ältere Annahmen über Einzelkanalströme – insbesondere die Vermutung, dass die elektrischen Signale in Pulsen stets gleicher Amplitude (Stromgröße), aber von unterschiedlicher Dauer auftreten.

Einige Jahre später entdeckten Neher und Sakmann durch Zufall, dass sich der elektrische Widerstand der Signalquelle um mehrere Zehnerpotenzen auf mehr als eine Milliarde Ohm (GΩ) erhöhen ließ, wenn man in der Glaspipette einen kleinen Unterdruck erzeugte und so den Membranfleck leicht ansaugte. Damit wurde das Hintergrundrauschen noch geringer, und die Forscher konnten nun auch Ionenkanäle anderer Synapsen-Typen untersuchen. Für diese mittlerweile zum Standard in den elektrophysiologischen Forschungslabors zählende Methode, die „Patch-Clamp-Technik“, bekamen die beiden Deutschen 1991 den Nobelpreis für Medizin (Abbildung 1).

Ein passgenauer Tunnel für Ionen

Auch Nobelpreisträger Rod MacKinnon hatte zunächst mit der Patch-Clamp-Technik versucht, die Eigenschaften von Ionenkanälen zu erforschen (Abbildung 3). Dazu veränderte er Schlüsselstellen des Kanals mit gentechnischen Methoden – er tauschte also bestimmte Aminosäuren aus – und prüfte anschließend, wie sich das auf die Kanaleigenschaften (z. B. die Leitfähigkeit) auswirkte. Auf diese Weise konnte er grundsätzliche Aussagen zur Struktur des von ihm untersuchten bakteriellen Kaliumkanals treffen: Demnach besteht diese Ionenschleuse aus vier Untereinheiten, die die Zellmembran durchspannen und sich dabei um eine zentrale Pore gruppieren. MacKinnon konnte genau zeigen, welche der Aminosäuren die Selektivität des Kanals festlegen – ihn also nur für Kaliumionen, nicht aber für andere Ladungsträger durchlässig machen. Zu ähnlichen Einsichten war man zuvor schon beim Studium von Natriumionen leitenden Kanälen gelangt.

Doch alle diese Ergebnisse warfen neue Fragen auf, die sich mit molekularbiologischen und elektrophysiologischen Methoden alleine nicht beantworten ließen. Wie waren die Untereinheiten räumlich angeordnet? Und wie war es möglich, dass diese Kanäle hochselektiv waren und gleichzeitig enorme Durchflussraten erlaubten?

Abbildung 2: Oben: Ionenkanäle (orange) sind Proteine, die in die Membran (grün) von Zellen eingebettet und auf den Transport von Ionen spezialisiert sind. Unten: Die Kanalpore stellt den Selektivitätsfilter dar – hier entscheidet sich, welches Ion durchgelassen wird und welches nicht. Kaliumionen (lila) passieren die Kanalpore ohne ihre Hydrathülle. © W. Filser, MPG / CC BY-NC-SA 4.0

Um diese Fragen zu klären, begann MacKinnon sich mit Kristallographie zu beschäftigen – Voraussetzung für Röntgenstruktur – Untersuchungen. Seine daraus resultierenden Arbeiten enthüllten schließlich die molekulare Basis dieses Phänomens, über das sich die Forscher jahrzehntelang den Kopf zerbrochen hatten: Durch die dreidimensionale Struktur des Ionenkanals wirkt dieser als hocheffizienter Filter. Die engste Stelle im Kanal, der sogenannte Selektivitätsfilter sorgt dafür, dass nur Kaliumionen mit ihrer charakteristischen Größe und Ladung passieren können. Doch wie gelingt es, Kaliumionen so rasant durchzuschleusen (pro Millisekunde strömen etwa 10.000 Kaliumionen durch die Membran)?

Forscher am Max-Planck-Institut für biophysikalische Chemie und der Universität Dundee (UK) haben herausgefunden, dass der Kanal in der Lage ist, die Ionen trotz ihrer starken elektrostatischen Abstoßungskräfte direkt hintereinander zu leiten. „Tatsächlich funktioniert dieser Mechanismus völlig anders als bisher gedacht“, erklärt der Chemiker Bert de Groot. Mithilfe aufwändiger Computersimulationen konnte sein Team die vorhandenen kristallografischen Daten viel genauer auswerten als bisher und den Kaliumkanälen direkt „bei ihrer Arbeit“ zuschauen (Abbildung 3). An der Engstelle des Kanals, dem Selektivitätsfilter, sitzen die Kaliumionen aufgereiht wie auf einer Perlenschnur sehr eng beieinander. Und anders als bisher vermutet, gibt es keine Wassermoleküle, die die geladenen Teilchen voneinander abschirmen. Weniger als ein millionstel Millimeter sind die Ionen voneinander entfernt. Diese räumliche Nähe führt dazu, dass sich die positiven Ladungen gegenseitig abstoßen. Durch anziehende Wechselwirkungen mit den kanalbildenden Polypeptidketten wird jedoch ein Gleichgewicht der Kräfte eingestellt. Diese feine Balance wird empfindlich gestört, wenn ein neues Kaliumion in den Kanal eintritt. Denn jetzt überwiegt die Abstoßung der positiven Ladungen und das Kaliumion, das am nächsten zum Kanalausgang sitzt, wird hinausgedrängt. Dadurch wird der Durchfluss durch den Kanal beschleunigt.

Abbildung 3: Der schnelle Durchtritt von Kaliumionen und die Ionenselektivität beruhen auf einem gemeinsamen Prinzip. Starke abstoßende Wechselwirkungen zwischen den Kaliumionen ohne Wasserhülle (lila) im Selektivitätsfilter beschleunigen den Durchfluss. Die Bindungsstellen im Selektivitätsfilter (rot) begünstigen dabei die erforderliche räumliche Nähe der Kaliumionen zueinander. Da Natriumionen (gelb) ihre Wasserhülle – anders als Kaliumionen – nicht so leicht ablegen, wird ihr Durchtritt durch den Kanal nicht durch Kanal-Wechselwirkungen gefördert. Zudem sind Natriumionen samt ihrer Wasserhülle für die Pore des Kaliumkanals zu groß.© W. Kopec, MPI für biophysikalische Chemie / CC BY-NC-SA 4.0© W. Filser, MPG / CC BY-NC-SA 4.0

Bleibt die Frage nach der Selektivität: Wieso erlauben Kaliumkanäle den Durchfluss von Kaliumionen, während die kleineren Natriumionen zuverlässig ausgeschlossen werden? An der Ladung kann es nicht liegen, denn diese ist bei beiden gleich. Dem Forschungsteam ist es gelungen, auch diese Frage zu beantworten. Wojciech Kopec, Mitglied in der Forschungsgruppe von de Groot erklärt: „Kaliumionen legen ihre Wasserhülle komplett ab, um durch die enge Pore zu gelangen. Natriumionen hingegen behalten ihre Wasserhülle. Damit sind sie letzten Endes größer als ‚entkleidete‘ Kaliumionen – und zu groß für den engen Kaliumkanal-Filter.“ Doch weshalb legen Natriumionen ihre Wasserhülle nicht ebenso ab wie die Kaliumionen? „Die kleineren Natriumionen gehen stärkere Wechselwirkungen mit den Wassermolekülen der Umgebung ein, da ihre Ladung kompakter ist. Daher wäre mehr Energie nötig, um sie von ihrer Wasserhülle zu befreien“, so Kopec. Die Natriumionen passieren die Membran zusammen mit ihrer Wasserhülle. Dies erklärt auch, weshalb die Natriumkanäle fast dreimal breiter als Kaliumkanäle sind.

Schlüsselstellen im Zellgeschehen

Ionenkanäle spielen eine universelle Rolle im „Nachrichtenwesen“ eines Organismus: Ihre Aufgaben reichen von der elektrischen Signalverarbeitung im Gehirn bis zu langsamen Prozessen wie der Salz-Rückgewinnung in der Niere. Wie viele unterschiedliche Ionenkanäle es im menschlichen Körper gibt, hat die Sequenzierung des Humangenoms eindrucksvoll belegt. Dabei stellen Kaliumkanäle unter den Ionenkanälen die größte Proteinfamilie. Sie finden sich in den Membranen der meisten Zelltypen – ein Hinweis auf ihre entscheidende Rolle bei der Weiterleitung von Signalen. Ihre am besten bekannte Funktion ist die Regulation des Membranpotenzials in Nervenzellen, d. h. der Aufbau und die Aufrechterhaltung einer Spannungsdifferenz zwischen dem Inneren und Äußeren einer Zelle. Es gibt sie aber auch in nicht-erregbaren Zellen. Die so genannten ATP-abhängigen Kaliumkanäle beispielsweise finden sich in den meisten Organen und sind mit zahlreichen Stoffwechselvorgängen verknüpft – wie der Insulinausschüttung, der Steuerung des Muskeltonus der Blutgefäße oder der körpereigenen Antworten auf Herzinfarkt oder Schlaganfall. Das Verständnis der Funktion von Ionenkanälen auf molekularer Ebene ist daher Voraussetzung, um Antworten auf wichtige medizinische Fragen zu erhalten. „Wenn wir den molekularen Mechanismus kennen, der den extrem schnellen Durchstrom der Kaliumionen durch den Kanal ermöglicht, können wir zukünftig auch sehr viel besser verstehen, warum sich bestimmte genetische Veränderungen des Ionenkanals so fatal auswirken und zu Krankheiten wie Herzrhythmusstörungen führen können“, so Bert de Groot.


 *Der Artikel ist erstmals unter dem Titel: " Spannung auf allen Kanälen - Wie Ionen durch die Zellmembran schlüpfen" https://www.max-wissen.de/max-hefte/biomax-15-ionenkanal/print/ in BIOMAX Ausgabe 15, Neuauflage Frühjahr 2021 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links

José Guzmán, et al-. Patch-Clamp 2.0 – die nächste Generation der Patch-Clamp-Methode (2017). http://laborjournal.de/rubric/essays/essays2017/m_e17_17.php

Mitteilung MPG: Forscher enthüllen rasend schnellen, hocheffizienten Filtermechanismus in lebenden Zellen (2014).  https://www.mpibpc.mpg.de/14744909/pr_1432

Mitteilung MPG: Struktur von Channelrhodopsin aufgeklärt (2017). https://www.mpg.de/11808464/channelrhodopsin-struktur

Nobelpreis 2021 für Physiologie oder Medizin: https://www.nobelprize.org/prizes/medicine/
 


 

inge Fri, 22.10.2021 - 00:12

Alles ganz schön oberflächlich – heterogene Katalyse

Alles ganz schön oberflächlich – heterogene Katalyse

Do, 08.10.2021 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Sowohl die Synthesen biologischer Verbindungen in der belebten Natur als auch über neunzig Prozent aller von der industriellen Chemie genutzten Reaktionen benötigen Katalysatoren, um die Prozesse effizient in der gewünschten Weise ablaufen zu lassen. In der Biosphäre vermitteln Enzyme in hochselektiver Weise den Kontakt und die Umsetzung der Ausgangsprodukte, in der Industrie vermitteln meistens Metalloberflächen - in der sogenannten heterogenen Katalyse - das Aufeinandertreffen und die Aktivierung der Reaktanten . Wie im zweiten Fall die einzelnen Schritte auf der molekularen Ebene ablaufen, konnte mit neuen Methoden der exakten Oberflächenforschung untersucht werden. Gerhard Ertl, ehem. Direktor am Fritz Haber Institut der Max-Planck-Gesellschaft, konnte so den Prozess der Ammoniaksynthese aus Stickstoff und Wasserstoff und die Oxydation von Kohlenmonoxid zu Kohlendioxid im Detail aufklären. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr beschreibt diese Vorgänge.*

Im frühen 19. Jahrhundert führten Wohlhabende ihren Gästen gerne ein Tischfeuerzeug vor, das sensationell mühelos eine Flamme produzierte. Erfunden hatte es der Chemieprofessor Johann Wolfgang Döbereiner im Jahr 1823. Es enthielt verdünnte Schwefelsäure und ein Stück Zink an einem Haken. Durch Betätigen des Auslösers wurde das Zink in das Säurebad getaucht und eine chemische Reaktion gestartet, bei der unter Bildung von Zinksulfat (Zinksalz der Schwefelsäure) Wasserstoff frei wurde. Dieser verbrannte mit dem Luftsauerstoff zu Wasser. Normalerweise sind Wasserstoff und Sauerstoff reaktionsträge, weshalb man ihnen durch Anzünden erst Energie zuführen muss. Im Feuerzeug entzündete sich der Wasserstoff jedoch spontan, indem er durch einen kleinen Platinschwamm geleitet wurde: das Platin wirkte als Katalysator.

Katalysatoren reinigen heute nicht nur Abgase. Über neunzig Prozent aller von der industriellen Chemie genutzten Reaktionen benötigen einen Katalysator als quasi „Heiratsvermittler“ der jeweiligen Ausgangsstoffe (Chinesen gebrauchen für beide Funktionen übrigens das gleiche Wort). Ohne Biokatalysatoren, vor allem Enzyme, gäbe es kein Leben. Der dänische Chemiker Jöns Jakob Berzelius leitete den Namen vom altgriechischen Wort katálysis für „Loslösung“ ab, denn offensichtlich nahmen diese Stoffe an der Reaktion nicht teil. Der deutsche Chemiker und Nobelpreisträger Wilhelm Ostwald prägte die heute noch gängige Definition: „Ein Katalysator ist jeder Stoff, der, ohne im Endprodukt einer chemischen Reaktion zu erscheinen, ihre Geschwindigkeit verändert.“ In Lehrbüchern steht allerdings meist, dass der Katalysator beschleunigend wirkt – „Reaktionsbremsen“ sind selten interessant.

Katalysatoren wirken als chemischer „Sesam öffne dich!“: Sie eröffnen einer Reaktion einen günstigen Pfad durch die Energielandschaft, der sonst verschlossen ist. Während einer Reaktion brechen zuerst chemische Bindungen in den Ausgangsmolekülen (Edukte) auf, dann bilden sich neue Bindungen. Dabei entstehen die Moleküle des Endstoffes (Produkt). Den Reaktionsweg verstellt jedoch oft ein mächtiger Energieberg.

Um diesen zu bezwingen, brauchen die Moleküle Energie. Im Labor führt man sie meist als Wärmeenergie zu, was aber in der industriellen Großproduktion die Energiekosten explodieren lassen kann. Zudem kann starkes Erhitzen die beteiligten Moleküle zerstören. Der Katalysator umgeht diesen hemmenden Energieberg und lässt die Reaktion ohne viel Energiezufuhr ablaufen. Abbildung 1.

Abbildung 1: Ein hoher Energieberg (rot) verstellt die Reaktion zweier Mo¬leküle (blaue und grüne Kugel links). Sie kann nur ablaufen, wenn man ihr viel Energie zu¬führt (roter Pfeil). Ein Katalysator eröffnet einen alternativen, ener¬giesparenden Weg (grüner Pfeil): Über dessen Gefälle läuft die Reaktion dann von selbst ab, bis hin zum Endprodukt (rechts)

Chemiker unterscheiden grundsätzlich zwei Arten von Katalyse: Bei der homogenen Katalyse befinden sich die Reagenzien und der Katalysator in der gleichen Phase, zum Beispiel in einer Lösung. Bei der heterogenen Katalyse dagegen stecken das Hochzeitspärchen und der Heiratsvermittler in verschiedenen Phasen. Bei technischen Anwendungen sind es oft Gase, während das Katalysatormaterial fest ist, zum Beispiel beim Autokat.

Eine dreifach harte Nuss

Einen besonderen Beitrag hat die heterogene Katalyse zur Welternährung geleistet – denn ohne sie gäbe es keine Ammoniaksynthese. Diese bindet den Stickstoff aus der Luft chemisch im Ammoniak, aus dem wiederum Stickstoffdünger produziert wird. Ohne diesen Dünger würden Ackerböden wesentlich weniger Frucht tragen. Nach einer Schätzung von Wissenschaftlern im Fachmagazin Nature müssten vierzig Prozent der Menschheit, also 2,4 Milliarden Menschen, verhungern, gäbe es nicht ausreichend Stickstoffdünger. Als sich Ende des 19. Jahrhunderts der Weltvorrat an natürlichem Salpeter, aus dem Stickstoffdünger produziert wurde, erschöpfte, drohte tatsächlich eine Hungerkatastrophe.

Dass Luft einen riesigen Stickstoffvorrat enthält (sie besteht zu 78 Prozent aus Distickstoffmolekülen), war den Chemikern bekannt. Allerdings verschloss eine chemische Dreifachbindung den Zugang: Sie „klebt“ die zwei Stickstoffatome bombenfest aneinander. Mit diesem Trick füllen die beiden Atome sich gegenseitig ihre lückenhaften Elektronenschalen und sparen viel Energie ein. An der dreifach harten Nuss scheiterten alle Chemiker – bis Fritz Haber sie 1909 knackte. Er entdeckte, dass Osmium als Katalysator unter hohem Druck die Ammoniaksynthese aus dem Distickstoff ermöglicht.

Leider ist Osmium extrem selten, doch der BASF-Chemiker Carl Bosch und sein Assistent Alwin Mittasch fanden Ersatz: Eisen in Form – wie wir heute wissen – winziger Nanopartikel, erwies sich ebenfalls als guter Katalysator. Allerdings benötigte die Reaktion einen Druck von mindestens 200 Atmosphären und Temperaturen zwischen 400 und 500 °C. Boschs Gruppe meisterte die Herausforderung und konstruierte einen Durchflussreaktor, der unter diesen Bedingungen kontinuierlich arbeitete. Schon 1913 startete die industrielle Produktion nach dem Haber-Bosch-Verfahren, das bis heute im Einsatz ist. Haber erhielt den Nobelpreis für Chemie im Jahr 1919, Bosch 1931.

Die chemische Reaktion der Ammoniaksynthese sieht eigentlich einfach aus: Aus einem Stickstoffmolekül und drei Wasserstoffmolekülen entstehen zwei Ammoniakmoleküle. Den Forschern gelang es jedoch nicht aufzudecken, was sich auf dem Eisenkatalysator genau abspielt. Klar war nur, dass die Anlagerung der Distickstoff-Moleküle an seiner Oberfläche, ihre Adsorption, die Geschwindigkeit der Reaktion bestimmte. Offen blieb aber, ob die Stickstoffmoleküle auf der Fläche zuerst in einzelne Stickstoffatome zerfallen und dann mit dem Wasserstoff reagieren oder ob das komplette Stickstoffmolekül reaktiv wird.

Neue Energielandschaften

Erst 1975 konnten der deutsche Physikochemiker Gerhard Ertl und sein Team zeigen, dass das Distickstoffmolekül tatsächlich zuerst zerfällt. Der spätere Max-Planck-Direktor setzte dafür die damals neuesten Methoden der Oberflächenforschung ein. Er untersuchte die katalytische Wirkung von perfekt glatten Eisenoberflächen im Ultrahochvakuum. Schneidet man durch nahezu fehlerlose Einkristalle, dann sind die Atome auf diesen Flächen in einem regelmäßigen Muster angeordnet. Unter solchen Idealbedingungen sollten sich die einzelnen Schritte des Katalyseprozesses leichter entschlüsseln lassen, so vermutete Ertl, als am Nanopartikel-Chaos echter Industriekatalysatoren.

Die Eisenatome an der Oberfläche unterscheiden sich von denjenigen, die tiefer im Kristall stecken. Jedes Atom ist dort auf allen Seiten von Nachbaratomen umgeben, die seinen Hunger nach chemischen Bindungen sättigen. An der Oberfläche dagegen liegen die Atome offen; sie haben sozusagen eine chemische Hand frei. Kommt ein Stickstoffmolekül vorbei, dann können sie es an sich binden. Das passiert allerdings nur in etwa einem von einer Million Fällen. Das gebundene Stickstoffmolekül erfährt auf der Eisenoberfläche eine radikal veränderte Energielandschaft: Plötzlich verliert die starke Dreifachbindung ihren Energiegewinn. Die Stickstoffatome lösen sich und werden frei. Dem Wasserstoff-Molekül des gasförmigen Wasserstoffs ergeht es genauso, doch dessen Einfachbindung ist ohnehin recht locker. Die freien Stickstoff- und Wasserstoffatome können nun ihre chemische Hochzeit feiern.

Ertls Gruppe schaffte es, den kompletten Ablauf der komplexen Ammoniaksynthese zu entschlüsseln und zu zeigen, wie man sie optimiert. (Abbildung 2) Doch für viele kinetisch anspruchsvollere Reaktionen gilt Katalyseforschung auch heute noch als „Schwarze Kunst“ – nach wie vor müssen die Forscher viele Mixturen ausprobieren. Gerhard Ertl führte in das Gebiet die exakten Methoden der Oberflächenforschung ein. Dafür bekam der Direktor am Berliner Fritz-Haber-Institut der Max-Planck-Gesellschaft, der inzwischen im Ruhestand ist, 2007 den Nobelpreis für Chemie.

Abbildung 2: Die wichtigsten Schritte der Ammoniaksynthese (rote Energiekurve ohne, grüne mit Katalysator). 1. Die N2¬- und H2¬-Moleküle (blaue bzw. grüne Kugeln) liegen frei vor. 2. Das N2¬-Molekül haftet sich an die Eisenoberfläche. 3. Die adsorbierten N2¬- und H2¬-Moleküle zerfallen zu freien N¬- und H¬-Atomen. Es enstehen NH (4.), NH2, (5.) und NH3 (6.). 7. Das fertige Ammoniakmolekül NH3 hat sich von der Eisenoberfläche gelöst. Die Produktion von 1 kg Ammoniak würde ohne Katalysator rund 66 Millionen Joule verbrauchen (etwa die Verbrennungswärme von 1,5 kg Rohöl). Auf der idealen Einkristalloberfläche setzt sie dagegen 2,7 Millionen Joule an Energie frei. © Grafik: R. Wengenmayr nach G. Ertl

Zu Ertls Forschungsobjekten gehörte auch der Drei-Wege-Katalysator in Benzinautos. Er heißt so, weil er drei gefährliche Abgasbestandteile, die während der Verbrennung entstehen, in harmlose Gase umwandelt. Geeignete Katalysatoren sind Platin, Rhodium und Palladium. Auf einem Reaktionsweg oxidiert der „Kat“ das giftige Kohlenmonoxid (CO) mit Sauerstoff (O2) zum ungiftigen Kohlendioxid (CO2). Der zweite Weg ist die Oxidation giftiger Kohlenwasserstoff-Verbindungen zu Kohlendioxid und Wasser. Auf dem dritten Weg reduziert er schädliche Stickoxide (NOx) zu ungefährlichem Distickstoff (N2).

Der Max-Planck-Forscher untersuchte die Oxidation von Kohlenmonoxid (2CO + O2 zu 2 CO2) allerdings auf Platinoberflächen. „Die Kohlenmonoxid-Oxidation an Platin ist unsere Drosophila“, spielt Ertl auf das Modelltierchen der Biologen an. Sie testet stellvertretend für komplexere Reaktionen zuverlässig, wie aktiv die Oberfläche eines Oxidationskatalysators ist. Die Berliner trieben Anfang der 1980er-Jahre diese Reaktion in einen extremen Ungleichgewichtszustand. Die Katalyse produzierte daraufhin nicht mehr gleichmäßig Kohlendioxid, sondern schwang wie ein Pendel zwischen „keine Reaktion“ und „Reaktion“ hin und her. Abbildung 3.

Dabei breiten sich die Gebiete, die gerade CO2 produzieren, als Spiralwellen über die Platinfläche aus. Die Platinatome schwingen mit den CO¬- und O2¬-Molekülen im Wechsel, und die atomare Landschaft der Katalysatoroberfläche springt zwischen zwei verschiedenen Formen hin und her. Gerhard Ertl faszinieren solche Selbstorganisationsprozesse fernab langweiliger Gleichgewichte: „Das ist auch die Grundlage der ganzen Biologie!

Abbildung 3: Die schwingende Oxidationsreaktion des Kohlenmonoxids wandert in Spiralwellen über die Oberfläche des Platin-Katalysators. An den hellen Stellen sitzen Kohlenmonoxid-Moleküle, die noch nicht reagiert haben. Das Bild hat ei¬nen Durchmesser von etwa 500 Mikrometern (Millionstel Meter). © Fritz-Haber-Institut

Offenbar ist die Lehrbuchmeinung, dass Katalysatoren von der Reaktion unbeeindruckt bleiben, idealisiert. Das bestätigt auch Ferdi Schüth, Direktor am Max-Planck-Institut für Kohlenforschung in Mülheim: „Manche Katalysatoren verändern sich unter Reaktionsbedingungen ganz dramatisch!“ Viele technische Katalysatoren brauchen erst eine Anlaufphase, um aktiv zu werden. Diese Aktivität verlieren sie dann wieder allmählich durch Alterungsprozesse.

Die Mülheimer erforschen feste Katalysatoren, wie sie technisch eingesetzt werden. Wie schwierig dieses Terrain ist, demonstriert Schüth mit elektronenmikroskopischen Aufnahmen. Anstatt glatter Flächen zeigen sie wild zerklüftete Mikrolandschaften des Trägermaterials, in denen die Nanopartikel des Katalysators wie verstreute Felsbrocken stecken. Diese poröse Struktur verleiht technischen Katalysatoren eine riesige Oberfläche, die den reagierenden Molekülen ein möglichst großes Spielfeld bieten soll. Ein Gramm der Eisenkatalysatoren für die Ammoniaksynthese zum Beispiel birgt in sich zwanzig Quadratmeter Oberfläche – also einen kompletten, zusammengeknüllten Zimmerboden! Das macht sie so enorm aktiv.

Ähnlich sieht es auch im Drei-Wege-Katalysator aus. Wie viele technische Katalysatoren leidet er zum Beispiel an der hohen Betriebstemperatur, die bis auf 800 °C steigen kann. Auf dem heißen Trägermaterial beginnen die Nanopartikel des Katalysators zu wandern. Bei diesem „Sintern“ lagern sie sich gerne zu größeren Klumpen zusammen. Das kann ihre gesamte Oberfläche und damit ihre Aktivität empfindlich reduzieren. „Deshalb wollen wir einen Katalysator entwickeln, der sinterstabil ist“, sagt Schüth. Dazu sperren die Mülheimer ihre Katalysatorpartikel in molekulare Käfige, die so klein sind, dass die Partikel ihnen nicht entkommen und zusammen sintern können. Diese Käfige besitzen aber Poren, die groß genug sind, damit die an der Oxidationsreaktion beteiligten Moleküle hindurch schlüpfen können. Das Mülheimer Modellsystem besteht aus Goldpartikeln. Seine Aktivität testen die Forscher wieder mit der Standardreaktion, der Oxidation von Kohlenmonoxid zu Kohlendioxid. Erprobt ist die Technik an Goldteilchen mit 15 Nanometern (Milliardstel Meter) Durchmesser.

Nanorasseln für`s Auto

Schüths Mitarbeiter Michael Paul erklärt das Verfahren (Abbildung 4): „Wir bedecken zuerst die Goldpartikel mit einer Schicht aus Polyvinylpyrrolidon.“ Diese Polymermoleküle, kurz PVP genannt, verhindern, dass die Goldpartikel sich am Gefäßboden absetzen oder aneinander haften.

Abbildung 4: Herstellungsschritte des sinterstabilen Katalysators. (von links nach rechts): Die Goldpartikel bekommen eine Schicht aus PVP¬-Polymeren.Die Chemiker umgeben es mit einer Schicht aus Siliziumdioxid, danach mit einer dünnen Schicht aus Zirconiumoxidkristallen. Durch deren Poren lösen sie das Siliziumdioxid auf. Übrig bleibt eine hohle Zirconiumoxidkugel (rechts), die das lose Goldpartikel einschließt. Unten: elektronenmikroskopische Bilder zu diesen Schritten (ein Nanometer entspricht einem Milliardstel Meter). © Grafik: R. Wengenmayr und M. Paul

Im nächsten Schritt setzen die Mülheimer der Lösung eine Silicatverbindung zu. Nun wirken die langen PVP-Moleküle wie Anker, in denen sich Siliziumdioxid (SiO2) aus der Lösung verfängt. „Sie funktionieren wie molekulare Staubsauger“, sagt Paul. Die Forscher lassen diesen Stöber-Prozess, benannt nach dem Physiker Werner Stöber, eine Weile laufen. Dabei wächst um das Goldpartikel ein Mantel aus Siliziumdioxid – wie bei einer Perle. Seine Schichtdicke können die Mülheimer zwischen 100 und 400 Nanometern einstellen, indem sie entsprechend lange warten.

„Danach packen wir die Partikel in eine sehr dünne Hülle aus Zirconiumoxidkristallen ein“, erläutert Paul, „und erhitzen sie auf 900 Grad Celsius, um sie zu stabilisieren“. Nun kommt der Trick: Die nur 15 bis 20 Nanometer dünne Zirconiumoxidhülle hat kleine Poren mit grob fünf Nanometern Durchmesser. Durch diese lassen die Forscher eine Natriumhydroxidlösung eindringen, die das Siliziumdioxid auflöst. Übrig bleibt eine hohle Zirconiumoxid-Nanokugel mit einem losen Goldpartikel. „Wir haben eine Nanorassel“, lacht Paul.

Tests zeigen, dass diese Nanorasseln über 800 Grad Celsius aushalten und zudem auch mechanisch sehr stabil sind. Als Katalysatoren oxidieren sie Kohlenmonoxid zuverlässig zu Kohlendioxid, ohne durch Sintern an Aktivität zu verlieren. Allerdings sind die 15-Nanometer-Goldpartikel kein sehr guter Katalysator. Technisch interessant werden erst kleinere Partikel mit nur wenigen Nanometern Durchmesser. Zudem sind andere Materialien wie zum Beispiel Platin aktiver. Deshalb arbeiten die Mülheimer Verpackungskünstler derzeit an einem System mit kleineren Platinpartikeln. Vielleicht haben unsere Autos bald Nanorasseln im Auspuff.


 * Der Chemie-Nobelpreis ist eben für die Entdeckung einer neuen Art von Katalysatoren - kleinen organischen Molekülen - vergeben worden, die eine Revolution für Synthesen in Akademie und Industrie darstellen (s.u.). Wie die bislang, größtenteils auf Metallen basierenden Katalysatoren funktionieren, zeigt der obige Artikel. Er ist erstmals unter dem Title: "Alles ganz schön oberflächlich –warum Forscher noch mehr über Katalyse wissen wollen" in TECHMAX 10 der Max-Planck-Gesellschaft erschienen https://www.max-wissen.de/230626/Techmax-10-Web.pdf und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Nobelpreis für Chemie 2021: Press release: https://www.nobelprize.org/prizes/chemistry/2021/press-release/und

Popular information: Their tools revolutionised the construction of molecules. https://www.nobelprize.org/prizes/chemistry/2021/popular-information/

B. List, 07.10.2021: Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode


 

inge Fri, 08.10.2021 - 18:58

Auszeichnungen für die Grundlagenforschung: Fünf NIH-geförderte Forscher erhalten 2021 den Nobelpreis

Auszeichnungen für die Grundlagenforschung: Fünf NIH-geförderte Forscher erhalten 2021 den Nobelpreis

Do, 14.10.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Die US-National Institutes of Health (NIH) sind weltweit die größten öffentlichen Förderer der biomedizinischen Grundlagenforschung und investieren in diese jährlich 32 Milliarden $. Als return-on investment sind über ein Jahrhundert lang grundlegende Entdeckungen gemacht worden, die Leben retten und die Gesundheit verbessern und 163 NIH-unterstützte Forscher wurden mit Nobelpreisen ausgezeichnet. Francis S. Collins - ehem. Leiter des Human Genome Projects und Entdecker mehrerer krankheitsverursachender Gene - ist seit 2009 Direktor der NIH. In seine Ära fallen 39 NIH-geförderte Nobelpreisträger in den Disziplinen Medizin oder Physiologie, Chemie und nun auch Ökonomie. Mit diesem triumphalen Ergebnis für die Grundlagenforschung tritt Collins nun als Direktor ab, um wieder voll als Forscher in seinem Labor zu arbeiten.*

Die letzte Woche war sowohl für die NIH (US National Institutes of Health) als auch für mich von großer Bedeutung. Ich habe nicht nur meine Absicht angekündigt mit Jahresende als NIH-Direktor zurückzutreten, um voll in mein Labor zurückzukehren; die Bekanntgabe der Nobelpreise 2021 hat mir auch wieder vor Augen geführt, welche Ehre es bedeutet einer Institution anzugehören, die mit einem so starken, andauernden Engagement die Grundlagenforschung unterstützt.

Fünf neue vom NIH-unterstütze Nobelpreisträger

In diesem Jahr begann für die NIH die Nobel-Begeisterung in den frühen Morgenstunden des 4. Oktobers, als zwei vom NIH unterstützte Neurowissenschaftler in Kalifornien die Nachricht aus Schweden erhielten, dass sie den Nobelpreis für Physiologie oder Medizin gewonnen hatten. Ein „Weckruf“ ging an David Julius, University of California, San Francisco (UCSF), der für seine bahnbrechende Entdeckung des ersten Proteinrezeptors ausgezeichnet wurde, der die Temperaturwahrnehmung des Körpers - die Thermosensation - steuert. Der andere Ruf ging an seinen langjährigen Mitarbeiter Ardem Patapoutian, Scripps Research Institute, La Jolla, CA, für seine bahnbrechende Arbeit, die den ersten Proteinrezeptor identifizierte, der unseren Tastsinn steuert. Abbildung 1.

Abbildung 1. Nobelpreis 2021 für Physiologie oder Medizin. Die Arbeiten von David Julius und Ardem Patapoutian wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach.

Aber das war nicht das Ende der guten Nachrichten. Am 6. Oktober wurde der Nobelpreis für Chemie 2021 dem NIH-finanzierten Chemiker David W.C. MacMillan von der Princeton University, N.J verliehen, der sich diese Ehre mit Benjamin List vom deutschen Max-Planck-Institut teilte. (List erhielt auch zu Beginn seiner Karriere NIH-Unterstützung.) Die beiden Forscher wurden für die Entwicklung einer genialen Methode ausgezeichnet, die eine kosteneffiziente Synthese „grünerer“ Moleküle ermöglicht mit breiter Anwendung in Wissenschaft und Industrie, inklusive Design und Entwicklung von Medikamenten. Abbildung 2.

Abbildung 2. Nobelpreis 2021 für Chemie Die Arbeiten von David W.C. MacMillan wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach

Um daraus einen echten Nobelpreis 2021-„Hattrick“ (im Sport ein Ausdruck für dreimaligen Erfolg desselben Spielers in Serie, Anm. Red.) für die NIH zu machen, erfuhren wir am 12. Oktober, dass zwei der drei diesjährigen Nobelpreisträger für Wirtschaftswissenschaften auch NIH-finanziert wurden. David Card, ein NIH-unterstützter Forscher an der Universität of California, Berkeley, wurde „für seine empirischen Beiträge zur Arbeitsökonomie“ ausgezeichnet. Er teilte sich den Preis 2021 mit dem NIH-Stipendiaten Joshua Angrist vom Massachusetts Institute of Technology, Cambridge, und dessen Kollegen Guido Imbens von der Stanford University, Palo Alto, CA, „für ihre methodischen Beiträge zur Analyse kausaler Zusammenhänge“. Abbildung 3.

Abbildung 3. Nobelpreis 2021 für Wirtsschaftswissenschaften.Nobelpreis für Wirtschaftswissenschaften 2021. Die Arbeiten von David Card und Yoshua D. Angrist wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach

Was war das für ein Jahr!

Investieren in Grundlagenforschung

Die Leistungen dieser und der 163 früheren Nobelpreisträger der NIH zeugen davon, welche Bedeutung das Investment in die biomedizinische Grundlagenforschung in der langen und stabilen Geschichte unserer Behörde hatte. In diesem Forschungsbereich stellen Wissenschaftler grundlegende Fragen dazu wie Leben funktioniert. Die Antworten, die sie aufzeigen, helfen uns, die Prinzipien, Mechanismen und Prozesse zu verstehen, die lebenden Organismen zugrunde liegen, inkludieren den menschlichen Körper in Gesundheit und Krankheit.

Dazu kommt, dass jeder Fortschritt auf früheren Entdeckungen aufbaut - oft auf unerwartete Weise - und es manchmal Jahre oder sogar Jahrzehnte dauert, bis diese in praktische Anwendungen umgesetzt werden können. Zu den jüngsten Beispielen für lebensrettende Durchbrüche, die auf jahrelanger biomedizinischer Grundlagenforschung aufbauen, gehören die mRNA-Impfstoffe gegen COVID-19 und die Immuntherapieansätze, die heute Menschen mit vielen Krebsarten helfen.

Sensoren für Temperatur und Druck

Nehmen Sie den Fall der neuesten Nobelpreisträger. Es waren grundlegende Fragen zur Reaktion des menschlichen Körpers auf Heilpflanzen, welche Julius an der UCSF zu seinen Arbeiten ursprünglich inspirierten. Er hatte aus ungarischen Studien gesehen, dass eine natürliche Chemikalie in Chilischoten, genannt Capsaicin, eine Untergruppe von Neuronen aktiviert, um das schmerzhafte, brennende Gefühl zu erzeugen, das die meisten von uns durch ein bisschen zu viel scharfe Soße erfahren haben. Was jedoch nicht bekannt war, war der molekulare Mechanismus, durch den Capsaicin diese Empfindung auslöste.

Nachdem Julius und Kollegen sich 1997 für einen optimalen experimentellen Ansatz zur Untersuchung dieser Frage entschieden hatten, haben sie Millionen DNA-Fragmente von Genen gescreened (durchgemustert), die in den sensorischen, mit Capsaicin interagierenden Neuronen exprimiert wurden. Innerhalb weniger Wochen hatten sie das Gen lokalisiert, das für den Proteinrezeptor kodiert, über den Capsaicin mit diesen Neuronen interagiert [1]. In Folgestudien stellten Julius und sein Team dann fest, dass der Rezeptor, später TRPV1 genannt, auch als Wärmesensor auf bestimmte Neuronen im peripheren Nervensystem wirkt. Wenn Capsaicin die Temperatur in einen schmerzhaften Bereich steigert, öffnet der Rezeptor einen porenartigen Ionenkanal im Neuron, der dann ein Signal für das unangenehme Gefühl an das Gehirn weiterleitet.

In Zusammenarbeit mit Patapoutian hat Julius dann seine Aufmerksamkeit von heiß auf kalt geschwenkt. Die beiden nutzten die Empfindung von Kälte, die Menthol, die aktive Substanz in Minze vermittelt, um ein Protein namens TRPM8 zu identifizieren: den ersten Rezeptor, der Kälte wahrnimmt [2, 3]. Es folgte die Identifizierung weiterer porenartiger Kanäle, die mit TRPV1 und TRPM8 in Verbindung stehen und durch eine Reihe unterschiedlicher Temperaturen aktiviert werden.

Zusammengenommen haben diese bahnbrechenden Entdeckungen Forschern auf der ganzen Welt die Tür geöffnet, um genauer zu untersuchen, wie unser Nervensystem die oft schmerzhaften Reize von Hitze und Kälte erkennt. Solche Informationen können sich bei der ständigen Suche nach neuen, nicht süchtig machenden Schmerztherapien als wertvoll erweisen. Die NIH verfolgen aktiv einige dieser Wege durch die Initiative „Helping to End Addiction Long-termSM“ (HEAL).

Währenddessen war Patapoutian damit beschäftigt, die molekulare Grundlage einer anderen fundamentalen Sinnesempfindung - der Berührung - zu knacken. Zuerst identifizierten Patapoutian und seine Mitarbeiter eine Mauszelllinie, die ein messbares elektrisches Signal erzeugte, wenn einzelne Zellen angestoßen wurden. Sie vermuteten, dass das elektrische Signal von einem Proteinrezeptor erzeugt wurde, der durch physikalischen Druck aktiviert wurde, mussten aber noch den Rezeptor und das dafür kodierende Gen identifizieren. Das Team hat 71 Kandidaten-Gene ohne Erfolg überprüft. Bei ihrem 72. Versuch haben sie dann ein Gen identifiziert, das für den Berührungsrezeptor kodiert, und es Piezo1 genannt, nach dem griechischen Wort für Druck [4].

Patapoutians Gruppe hat seitdem weitere Piezo-Rezeptoren gefunden. Wie so oft in der Grundlagenforschung wurden die Forscher durch ihre Ergebnisse in eine Richtung gelenkt, die sie sich so nie hätten vorstellen können. Sie haben beispielsweise entdeckt, dass Piezo-Rezeptoren an der Kontrolle des Blutdrucks beteiligt sind und dass sie erkennen, ob die Harnblase voll ist. Faszinierenderweise scheinen diese Rezeptoren auch eine Rolle bei der Kontrolle des Eisenspiegels in den roten Blutkörperchen zu spielen sowie bei der Regulation der Wirkung bestimmter weißer Blutkörperchen, der sogenannten Makrophagen.

Organokatalyse - kleine organische Moleküle als neuartige Katalysatoren

Wenden wir und nun dem Nobelpreis 2021 für Chemie zu. Hier hat die Grundlagenforschung von MacMillan und List den Weg geebnet, um einen großen ungedeckten Bedarf in Akademie und Industrie zu decken: den Bedarf an kostengünstigeren und umweltfreundlicheren Katalysatoren. Und was ist ein Katalysator? Um die synthetischen Moleküle zu bauen, die in Medikamenten und einer Vielzahl anderer Materialien verwendet werden, verlassen sich Chemiker auf Katalysatoren, das sind Substanzen, die chemische Reaktionen steuern und beschleunigen, ohne Teil des Endprodukts zu werden.

Lange dachte man, es gebe nur zwei Hauptkategorien von Katalysatoren für die Synthese organischer Verbindungen: Metalle und Enzyme. Enzyme sind aber große, komplexe Proteine, die sich nur schwer auf industrielle Prozesse skalieren lassen. Metallkatalysatoren andererseits können für Arbeiter giftig und für die Umwelt schädlich sein. Dann, vor etwa 20 Jahren, entwickelten List und MacMillan unabhängig voneinander eine dritte Art von Katalysator. Dieser Ansatz, bekannt als asymmetrische Organokatalyse [5, 6], basiert auf Katalysatoren aus kleinen organischen Molekülen, die ein stabiles Gerüst aus Kohlenstoffatomen aufweisen, an die aktivere chemische Gruppen binden können, die häufig Sauerstoff, Stickstoff, Schwefel oder Phosphor enthalten.

Die Anwendung von Organokatalysatoren hat sich als kostengünstiger und umweltfreundlicher erwiesen als die Verwendung herkömmlicher Metall- oder Enzymkatalysatoren. Tatsächlich wird dieses präzise neue Werkzeug für die Konstruktion von Molekülen derzeit verwendet, um alles zu bauen, von neuen Pharmazeutika bis hin zu lichtabsorbierenden Molekülen, die in Solarzellen verwendet werden.

Arbeitsökonomie und Analyse von Kausalzusammenhängen

Damit sind wir beim Nobelpreis für Wirtschaftswissenschaften. Die diesjährigen Preisträger zeigten, dass es möglich ist, auf sozialwissenschaftliche Fragen Antworten zu Ursache und Wirkung zu finden. Der Schlüssel liegt darin, Situationen in Gruppen von Menschen zu bewerten, die unterschiedlich behandelt werden - ganz ähnlich wie es im Design klinischer Studien in der Medizin stattfindet. Mit diesem Ansatz des „natürlichen Experiments“ erstellte David Card Anfang der 1990er Jahre neuartige Wirtschaftsanalysen, die zeigten, dass eine Erhöhung des Mindestlohns nicht unbedingt zu weniger Arbeitsplätzen führt. Mitte der 1990er Jahre verfeinerten Angrist und Imbens dann die Methodik dieses Ansatzes und zeigten, dass aus natürlichen Experimenten, die Kausalzusammenhänge aufzeigen, präzise Schlüsse gezogen werden können.

Ausblick

Letztes Jahr hat das NIH die Namen von drei Wissenschaftlern in seine illustre Liste von Nobelpreisträgern aufgenommen. In diesem Jahr sind fünf weitere Namen hinzugekommen. In den kommenden Jahren und Jahrzehnten werden zweifellos noch viele weitere hinzukommen. Wie ich in den letzten 12 Jahren oft gesagt habe, ist es eine außergewöhnliche Zeit, ein biomedizinischer Forscher zu sein. Während ich mich darauf vorbereite, als Direktor dieser großartigen Institution zurückzutreten, kann ich Ihnen versichern, dass die Zukunft von NIH nie besser war.


 [1] The capsaicin receptor: a heat-activated ion channel in the pain pathway. Caterina MJ, Schumacher MA, Tominaga M, Rosen TA, Levine JD, Julius D. Nature 1997:389:816-824.

[2] Identification of a cold receptor reveals a general role for TRP channels in thermosensation. McKemy DD, Neuhausser WM, Julius D. Nature 2002:416:52-58.

[3] A TRP channel that senses cold stimuli and menthol. Peier AM, Moqrich A, Hergarden AC, Reeve AJ, Andersson DA, Story GM, Earley TJ, Dragoni I, McIntyre P, Bevan S, Patapoutian A. Cell 2002:108:705-715.

[4] Piezo1 and Piezo2 are essential components of distinct mechanically activated cation channels. Coste B, Mathur J, Schmidt M, Earley TJ, Ranade S, Petrus MJ, Dubin AE, Patapoutian A. Science 2010:330: 55-60.

[5] Proline-catalyzed direct asymmetric aldol reactions. List B, Lerner RA, Barbas CF. J. Am. Chem. Soc. 122, 2395–2396 (2000).

[6] New strategies for organic catalysis: the first highly enantioselective organocatalytic Diels-AlderReaction. Ahrendt KA, Borths JC, MacMillan DW. J. Am. Chem. Soc. 2000, 122, 4243-4244. -


 *Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 12. Oktober 2021) im NIH Director’s Blog unter dem Titel: "NIH’s Nobel Winners Demonstrate Value of Basic Researchwinners-demonstrate-value-of-basic-research/.https://directorsblog.nih.gov/2021/10/12/nihs-nobel-winners-demonstrate-value-of-basic-research/. Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health (NIH): https://www.nih.gov/

Nobelpreise 2021:

Artikel im ScienceBlog:

Benjamin List, 07.10.2021; Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode


 

inge Thu, 14.10.2021 - 18:41

Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode

Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode

Do 07.10.2021 — Benjamin List

Benjamin ListIcon Chemie Wilhelm Ostwald hatte 1901 den Begriff des Katalysators definiert: "Ein Katalysator ist jeder Stoff, der, ohne im Endprodukt einer chemischen Reaktion zu erscheinen, ihre Geschwindigkeit verändert." Bis vor 20 Jahren kannte man 2 Gruppen von Katalysatoren: i) in der Biosphäre eine schier unendliche Zahl an Enzymen, die hochselektiv die Synthese aller organischen Verbindungen (d.i. Gerüste aus Kohlenstoff, Wasserstoff und N-, O-, S- Und P-Gruppen) ermöglichen und ii) Metalle (Metallverbindungen), die von Akademie und Industrie zur zielgerichteten chemischen Synthese diverser organischer Moleküle eingesetzt werden. Eine dritte Klasse von Katalysatoren haben um 2000 Benjamin List (damals Scripps-Research Institute, US) und David MacMillan (Princeton University) voneinander unabhängig entdeckt: kleine organische Moleküle, die hochselektiv und effizient chemische Reaktionen katalysieren und ein enormes Potential für die industrielle Anwendung haben. Die beiden Forscher wurden für diese fundamentale Entdeckung mit dem diesjährigen Chemie-Nobelpreis ausgezeichnet. Im Folgenden findet sich ein kurzer Bericht von Benjamin List (Direktor am Max-Planck-Institut für Kohlenforschung, Mülheim, D) , den er nach seiner Rückkehr nach Deutschland 2003 über das neue Gebiet der Organokatalyse verfasst hat.*

Organokatalyse ist eine neue Katalysestrategie, bei der kleine, rein organische Katalysatoren verwendet werden. Obwohl die Natur eine ähnliche metallfreie Katalyse in vielen Enzymen verwendet, haben Chemiker erst vor kurzem das große Potenzial der Organokatalyse als einer hochselektiven und umweltfreundlichen Synthesemethode realisiert. In den letzten Jahren wurden spektakuläre Fortschritte auf dem Gebiet erzielt und seit kurzem wird Organokatalyse auch am Max-Planck-Institut für Kohlenforschung in Mülheim betrieben. Sie ergänzt dort bereits existierende Forschung auf den Sektoren der Biokatalyse, Metallkatalyse und der Heterogenen Katalyse.

Chemiker bemühen sich seit langem, die Effizienz und Selektivität von Enzymen mit synthetischen Katalysatoren nachzuahmen. Insbesondere ist es ein Ziel, die hohe Selektivität, die Enzyme gegenüber spiegelbildlichen Molekülen aufweisen, auch in chemisch katalysierten Reaktionen zu erreichen. Diese so genannte Enantioselektivität ist von herausragender Bedeutung in der Synthese von Wirkstoffen, da spiegelbildliche Moleküle unterschiedliche biologische Aktivitäten aufweisen.

Überraschenderweise basieren die für diesen Zweck entwickelten Katalysatoren fast ausschließlich auf Metallkomplexen, während etwa die Hälfte aller Enzyme völlig metallfrei ist. Erst seit kurzem realisiert man, dass auch niedermolekulare organische Katalysatoren hoch effizient und selektiv chemische Reaktionen katalysieren können. Das Potenzial solcher organokatalytischer Reaktionen ist insbesondere für die industrielle Synthese sehr groß, da die verwendeten Katalysatoren robust, günstig erhältlich, ungiftig und einfach zu synthetisieren sein sollen. Außerdem werden organokatalytische Reaktionen häufig bei Raumtemperatur durchgeführt und sind unempfindlich gegenüber Luft und Feuchtigkeit; viele Reaktionen lassen sich in der Tat in wässrigen Lösungsmitteln durchführen. Eine bedeutend leichtere Anbindung an die feste Phase zur effizienten Abtrennung und Rückgewinnung des Katalysators ist ebenfalls möglich. Das große Potenzial dieses Gebiets wird inzwischen akzeptiert und eine exponentiell wachsende Anzahl von Forschergruppen beschäftigt sich weltweit mit dieser noch nicht einmal ansatzweise ausgeschöpften Thematik.

Abbildung: Produkte neu entdeckter Prolin-katalysierter Reaktionen. Ausbeuten enantioselektiver Produkte (ee rot) in Prozent. (In das Bild wurde von Redn. die Strukturformel des Prolin eingefügt.)


Eine wichtige Klasse von organokatalytischen Reaktionen, die insbesondere am Max-Planck-Institut für Kohlenforschung untersucht werden, sind solche, die durch Amine und Aminosäuren katalysiert werden können. So konnten in den letzten Jahren eine Reihe von Reaktionen entwickelt werden, die durch die Aminosäure Prolin katalysiert werden, so zum Beispiel hochselektive Aldol-, Mannich-, Michael- und Aminierungsreaktionen (Abbildung). Diese neuen Reaktionen liefern in exzellenten Ausbeuten und Enantioselektivitäten chirale Alkohole, Amine und Aminosäurederivate von potenziellem Nutzen für die Synthese funktionaler Moleküle, insbesondere von Wirkstoffen. Vor kurzem wurden außerdem neuartige Zyklisierungsreaktionen entdeckt.


* Der vorliegende Artikel von Bejamin List ist dem Jahrbuch 2003 der Max-Planck-Gesellschaft unter dem Titel "Organokatalyse: Eine neue und breit anwendbare Synthesemethode" (https://www.mpg.de/870377/forschungsSchwerpunkt1?c=154862) erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle im ScienceBlog verbreitet werden. Der Abstract (kursiv) zum Artikel wurde von der Redaktion eingefügt. Der folgendeText und eine Abbildung wurden unverändert übernommen, allerdings fehlt der abschließende Teil über eine Reihe weiterer wichtiger Prolin-katalysierter Reaktionen und die Darstellung ihrer Synthesewege, da dafür eine Vertrautheit mit der Sprache der organischen Chemie nötig ist. Auch für die Literaturzitate wird auf den Originalartikel verwiesen.

 


Weiterführende Links

Benjamin List homepage: https://www.kofo.mpg.de/de/forschung/homogene-katalyse

Catarina Pietschmann: Eine Perspektive fürs Leben (6. Oktober 2021), Ein Porträt des Direktors am Max-Planck-Institut für Kohlenforschung und Chemie-Nobelpreisträgers 2021. Chemie (M&T) Preise

Nobelpreis für Chemie 2021: Press release: https://www.nobelprize.org/prizes/chemistry/2021/press-release/und

Popular information: Their tools revolutionised the construction of molecules. https://www.nobelprize.org/prizes/chemistry/2021/popular-information/

BR Mediathek: Benjamin List erklärt seine Methode der asymmetrischen Organokatalyse. (ARD alpha campus talk 2019). Video 11;26 min. https://www.br.de/mediathek/video/nobelpreis-fuer-chemie-benjamin-list-erklaert-seine-methode-der-asymmetrischen-organokatalyse-av:615da7fdeb179f00072e4570

inge Fri, 08.10.2021 - 01:04

Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

So. 03.10.2021  — Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Über die jüngste EU-weite Umfrage zum Thema Wissenschaft und Technologie "European citizens’ knowledge and attitudes towards science and technology" ist eben der bislang umfangreichste Report erschienen. Aus der enormen Fülle an wichtigen Ergebnissen wird hier eine Auswahl getroffen. Es wird über das Interesse der Europäer (und speziell das Interesse der Österreicher) an Wissenschaft und Technologie berichtet und über deren Informiertheit - beides Grundlagen für den Erwerb von Kenntnissen und einem breiten Verständnis für die Wissenschaften, die das moderne Leben prägen.

Im Jahr 2000 war mit der Lissabon Strategie ein überaus ehrgeiziges Ziel gesteckt worden: die Europäische Union sollte sich bis 2010 zur weltweit wettbewerbsfähigsten und dynamischsten wissensbasierten Ökonomie entwickeln. Zielorientierte Investitionen in Forschung & Entwicklung sowie Innovation - sogenannte Forschungsrahmenprogramme - sollten dabei das Wachstum im Bereich von Wissenschaft (science) und Technik ermöglichen (NB: unter science sind hier die Naturwissenschaften zu verstehen!). Allerdings ergab eine 2001 von der EU-Kommission in Auftrag gegebene EU-weite Umfrage [1], dass die Europäer im Durchschnitt Wissenschaft und Technik nicht in der zur Zielerreichung erforderlichen Weise wahrnahmen, dass es an Wissen und Information, vielfach aber auch einfach an Interesse mangelte. Weitere Umfragen in den Jahren 2005 und 2010 [2] zeigten eine positive Entwicklung auf dem Weg zur angestrebten Wissensgesellschaft, aber auch enorme Verbesserungsmöglichkeiten.

Jedenfalls wurden 2010 die Kernziele von Lissabon auch nicht annähernd erreicht; diese sollten - neben neuen Zielen - nun in der Nachfolgestrategie Europa 2020 weiterverfolgt werden. Um nicht an finanziellen Engpässen zu scheitern, wurde die Mittelausstattung der Forschungsrahmenprogramme massiv erhöht - das von 2014 - 2020 laufende Programm Horizon 2020 wurde mit 70 Milliarden € dotiert, das neue bis 2027 laufende Horizon Europa wird 95,5 Milliarden € erhalten.

Anknüpfend an die 2010-Umfrage folgten in den Jahren 2013 und 2014 zwei weitere EU-weite Umfragen. Diese untersuchten einerseits die Einbindung der Gesellschaft in Wissenschaft und Innovation [3], andererseits wieweit die europäische Bevölkerung davon überzeugt war, dass sich der Einsatz von Wissenschaft und Technologie in naher Zukunft positiv auf die wesentlichsten Aspekte des täglichen Lebens - von Gesundheit über Bildung, Arbeitsplätze, Energieversorgung, Mobilität, Wohnen bis hin zu Umweltschutz und Kampf gegen den Klimawandel - auswirken werde [4].

Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013 und 2014 wurde (mit speziellem Fokus auf Österreich) im ScienceBlog berichtet [5 - 8].

Special Eurobarometer 516

Nach einer langen Unterbrechung von sieben Jahren ist vor 10 Tagen der mit 322 Seiten bislang umfangreichste Bericht über die jüngste Umfrage zu "Wissen und Einstellungen der europäischen Bürger zu Wissenschaft und Technologie" erschienen [9]. Neben 26 827 Personen in den 27 Mitgliedstaaten wurden 10 276 Personen in weiteren 11 Ländern befragt (in den Beitrittskandidaten Albanien, Montenegro, Nordmazedonien, Serbien und Türkei, sowie in Bosnien und Herzegowina, Island, Kosovo, Norwegen, Schweiz und UK). Die Befragung hat vom 13 April bis 10 Mai 2021 stattgefunden - soweit es pandemiebedingt möglich war in Form von face-to-face Interviews bzw. online - in der jeweiligen Muttersprache und soziodemografisch repräsentativ gewichtet.

Die Ergebnisse bieten Einblicke in

  • das Wissen der Bürger über Wissenschaft und Technologie, ihr Interesse daran und ihre Informationsquellen,
  • Ihre Ansichten zu den Auswirkungen von Wissenschaft und Technologie - auch auf die Gesellschaft - und zu Risiken und Vorteilen neuer Technologien,
  • ihre Ansichten zur Governance von Wissenschaft und Technologie,
  • ihre Einstellung zu Wissenschaftlern, zu deren angenommenen Eigenschaften, deren Glaubwürdigkeit und Rolle in der Gesellschaft,
  • ihr Engagement in Wissenschaft und Technologie,
  • Aspekte in Bezug auf junge Menschen,
  • die Geschlechtergleichstellung und soziale Verantwortung
  • den Vergleich des Status in Wissenschaft und Technologie der EU und anderen Teile der Welt.
  • Themen, die bereits in früheren Befragungen angesprochen wurden und die diesbezügliche Entwicklung der Bevölkerung aufzeigen.

Insgesamt liegt eine derart immense Fülle an wichtigen Ergebnissen vor, dass diese hier auch nicht ansatzweise in entsprechender Form zusammengefasst werden können. Fürs Erste wird daher nur der Teilaspekt  Interesse an Wissenschaft &Technologie und Informationsstand ausgewählt. Die Aussagen dazu sind offensichtlich von den derzeitigen beispiellosen Krisen geprägt: vom Klimawandel, vom Verlust der biologischen Vielfalt und vor allem von der COVID-19 Pandemie.

Wie auch in den vorangegangenen Berichten werden die  Ansichten der Österreicher mit den Ansichten anderer Europäer verglichen.

Wissenschaft & Technologie: Interesse und Information

Die weitaus überwiegende Mehrheit der EU-Bürger gibt an sich für Wissenschaft und Technologie zu interessieren, insbesondere für Umweltprobleme, für neue Entdeckungen in Medizin und Naturwissenschaften und für technologische Entwicklungen, fühlt sich aber nicht in gleicher Weise darüber informiert. Abbildung 1.

Abbildung 1: Wieweit sind die EU-Bürger im Durchschnitt an Wissenschaft und Technologie interessiert, wieweit informiert? Interessiert = Summe aus sehr hohem und mäßigen Interesse, informiert = Summe aus sehr gut und mäßig gut informiert. (Bild modifiziert nach ebs_516_science and technology_Infographic.pdf und [9])

Dabei ist aber zwischen großem Interesse und mäßigem Interesse (was immer das ist) zu unterscheiden. Großes Interesse zeigen im EU27-Schnitt i) an Umweltproblemen (inklusive Klimaschutz) 42 % der Befragten, ii) an Entdeckungen in der Medizin 38 % und iii) an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen 33 %. (Dass an Umweltproblemen und medizinischen Entdeckungen ein so hohes Interesse besteht, ist zweifellos den derzeitigen Krisen geschuldet.)

Der Anteil der sehr Interessierten hat in allen 3 Gebieten seit 2010 um einige  Prozentpunkte zugenommen (siehe unten, Abbildung 5). Der Anteil der völlig Desinteressierten liegt in den drei Themen im EU27-Schnitt bei 11 %, 14 % und 18 %, allerdings ist in allen Themen eine sehr starke Zunahme des Desinteresses von Nordwest nach Südost zu beobachten. Dies soll am Beispiel des Interesses an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen aufgezeigt werden (Abbildung 2): In Ländern wie Italien, Rumänien, Bulgarien, Polen sind bis zu 37 % der Befragten daran desinteressiert. Noch geringer ist das Interesse der Beitrittskandidaten am Balkan und hier vor allem in Serbien (39 % desinteressiert); Serbien weist auch den höchsten Anteil Desinteressierter an medizinischen Entdeckungen (34 %) und an Umweltproblemen (29 %) auf.

Abbildung 2: Europa zeigt einen starken Nordwest - Südost-Trend im Interesse an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen. Auch in einigen (noch)Nicht-EU-Ländern ist ein beträchtlicher Teil der Bevölkerung (vor allem in Serbien) desinteressiert . XK: Kosovo, ME: Montenegro, BA: Bonien/Herzegovina, MK: N-Mazedonien, Albanien: Al, RS: Serbien. (Bild modifiziert nach [9]).

Auch in puncto Informiertheit ist zwischen sehr guter und mäßig guter Information zu unterscheiden. So fühlten sich im EU27-Schnitt i) über Umweltprobleme (inklusive Klimaschutz) nur 21 % der Befragten sehr gut, 61 % aber mäßig gut Informiert und ii) über neue Entdeckungen in der Medizin 13 % sehr gut, 54 % aber mäßig gut informiert. Auch ihren Informationsstand über Entdeckungen in den Naturwissenschaften und über technologische Entwicklungen empfanden nur 13 % als sehr gut und 53 % als mäßig gut (Abbildung 3). Die Angaben "sehr gut informiert" sind seit 2010 in allen drei Sparten nur um 2 % gestiegen (siehe unten, Abbildung 5).

Abbildung 3 zeigt als Beispiel die Informiertheit an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen der einzelnen EU-Länder. Besonders problematisch erscheint hier der sehr starke Nordwest-Südost-Trend: in Italien, Ungarn und Bulgarien bezeichnen sich 50 % bzw. 53 % der Befragten als schlecht informiert. Im Beitrittskandidaten Serbien sind es gar 57 % (ohne Abbildung).

Es besteht also dringender Handlungsbedarf für Maßnahmen zur Steigerung des Interesses und auch zur Bereitstellung von nötiger, leicht verständlicher Information!

Abbildung 3: Bis zur und über die Hälfte der EU-Bürger sind über wissenschaftliche Entdeckungen und technologische Entwicklungen schlecht informiert. (Bild modifiziert nach [9].)

Zur Situation in Österreich

Österreich zeichnet sich nicht durch besonders hohes Interesse an den drei Gebieten aus. Auch, wenn die Angaben "sehr interessiert" seit 2010 gestiegen sind, entsprechen die Zahlen in etwa nur dem EU27-Schnitt und liegen damit näher den südöstlichen als den nordwestlichen Ländern: sehr interessiert i) an Umweltproblemen sind 44 % der Befragten (um 6 % mehr als 2010), ii) an Entdeckungen in der Medizin 33 % (um 10 % mehr als 2010) und iii) an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen 27 % (um 6 % mehr als 2010). Der Anteil der völlig Desinteressierten in den drei Sparten liegt bei 11 %, 16 % und 21 %.

Ein wesentlich niedrigerer Anteil der Befragten sieht sich als sehr gut informiert an: 27% über Umweltthemen, 14 % über medizinische und auch über naturwissenschaftliche Entdeckungen. Als schlecht informiert bezeichnen sich 16 % in Umweltfragen, 31 % in medizinischen Entdeckungen und mehr als 1/3 der Befragten (36 %) in neuen naturwissenschaftlichen Erkenntnissen.

Soziodemographische Unterschiede

Aufgeschlüsselt nach Alter, Geschlecht und Ausbildung sind deutliche Unterschiede im Interesse an Wissenschaft und Technologie erkennbar. Abgesehen von einem insgesamt niedrigeren Interesse folgt Österreich demselben Trend wie der EU27-Schnitt. Abbildung 4.

Befragte in jüngerem Alter zeigen höheres Interesse als ältere. Ein sehr großer Unterschied ist zwischen Männern und Frauen erkennbar - Männer geben sehr viel häufiger an, dass sie an Entwicklungen in Wissenschaft und Technologie sehr interessiert wären.

Bestimmend für das Interesse ist auch die Dauer der Ausbildung. Je länger diese dauerte, desto mehr Interessierte an Entwicklungen in Wissenschaft und Technologie gibt es.

Abbildung 4: Wer ist an wissenschaftlichen Entdeckungen und technologischen Entwicklungen sehr interessiert? Soziodemographische Aufschlüsselung. (Bild modifiziert nach: ebs_516_science and technology_Infographic.pdf)V

Wissenschaften versus Nicht-Wisssenschaften

Interesse und Informiertheit wurden auch zu 3 anderen Sphären des täglichen Lebens abgefragt: i) zu Kunst und Kultur, ii) zu Politik und iii) zu Sportnachrichten.

Erstaunlicherweise besteht ein höheres Interesse an den wissenschaftlichen Themen als an den nicht-wissenschaftlichen, für Letztere zeigten sich im EU27-Schnitt jeweils rund ein Viertel der Befragten sehr interessiert. Abbildung 5.

Der Anteil der an Kunst & Kultur und an Politik sehr Interessierten hat seit 2010 zugenommen (um 4 bzw. 6 %), der Anteil der Sportfans um 4 % abgenommen.

Der Anteil der sehr gut Informierten in Politik und Sport liegt etwas höher als  in Umweltproblemen; der Erstere hat seit 2010 um 4 % zugenommen und entspricht dem Anteil der an Politik sehr Interessierten. Parallel zum sinkenden Anteil der Sportbegeisterten ist auch der Anteil der sehr gut Informierten stark gesunken, der Anteil der schlecht Informierten auf 39 % gestiegen.

Ebenso hat der Anteil an sehr gut Informierten in Kunst & Kultur leicht zugenommen.

Abbildung 5: Im EU27-Schnitt zeigen mehr Menschen großes Interesse an wissenschaftlichen Themen als an nicht-wissenschaftlichen, sind aber nicht entsprechend gut informiert. Interessanterweise hat die Sportbegeisterung im letzten Jahrzehnt stark abgenommen. (Bild modifiziert nach [9].)

In Österreich punkten auch die nicht-wissenschaftlichen Themen: Im Vergleich zu den wissenschaftlichen Themen, an denen 27 - 44 % der Befragten großes Interesse äußerten (siehe oben), waren 28 % sehr an Politik interessiert (2010 waren es noch 18 %) und 32 % an Sport (2010: 30 %). Überraschend war allerdings, dass der Anteil der Kunst- & Kultur-Fans mit 22 % (2010: 15 %) unter allen Sparten am niedrigsten ausfiel (und das bei dem Anspruch Österreichs als Kulturland!).

Hinsichtlich Informiertheit fühlten sich 23 % (2010: 13 %) über Politik sehr gut informiert, 27 % über Sport (2010: 26 %) und 16 % (2010: 12 %) über Kunst & Kultur.

Woher stammen die Informationen über Wissenschaft und Technologie?

Den Befragten wurde eine Liste möglicher Informationsquellen für Wissenschaft und Technologie vorgelegt, aus der sie die zwei für sie wichtigsten Quellen nennen sollten.

Wie auch in der Vergangenheit ist für den Großteil der Europäer TV die wichtigste Informationsquelle (EU27-Schnitt 63 %, Österreich 53 %), mit großem Abstand folgen das Internet mit sozialen Netzwerken und Blogs und dann Tageszeitungen (online oder gedruckt), die 4.häufigste Quelle ist wieder das Internet mit Lexika wie Wikipedia. Die Präferenzen für diese Quellen sind in Abbildung 6 zusammengefasst.

Weitere Quellen wie Radio, Bücher, wissenschaftliche Fachzeitschriften werden von wesentlich kleineren Personenkreisen vorgezogen.

Abbildung 1: Die vier im EU27-Schnitt und in Österreich am häufigsten genannten Informationsquellen für Wissenschaft und Technologie. (Bild modifiziert nach ebs_516_science and technology_Infographic.pdf und [9])

Fazit

Das Interesse der Europäer an naturwissenschaftlichen und technologischen Themen ist seit 2010 gestiegen und im EU27-Schnitt höher als an den nicht-wissenschaftlichen Themen Kunst & Kultur, Politik und Sportnachrichten. Allerdings fühlen sich die Menschen über die wissenschaftlichen Themen als nicht sehr gut informiert und diese Situation hat sich seit 2010 nur schwach verbessert. Sowohl Interesse als auch Informiertheit fallen von Nordwest nach Südwest stark ab, wo sich bis zu 37 % der Befragten als desinteressiert und über 50 % als uninformiert bezeichnen.

Es wäre Aufgabe des Fernsehens, das als wichtigste Informationsquelle genannt wird und ebenso des Internets seriöse, leicht verständliche aber auch unterhaltsame naturwissenschaftliche Themen anzubieten, um sowohl das Interesse daran als auch das Wissen zu steigern.


[1] Eurobarometer 55.2 “Wissenschaft und Technik im Bewusstsein der Europäer” (2001)

[2] Spezial-Eurobarometer 340 „Wissenschaft und Technik“; Juni 2010 (175 p.)http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_de.pdf

[3] Spezial- Eurobarometer 401 „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie; November 2013 (223 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_401_de.pdf

[4] Special Eurobarometer 419 “Public Perceptions of Science, Research and Innovation” (6.10.2014) http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_en.pdf

[5] J.Seethaler, H.Denk, 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme [6]

J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

[7] I. Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

[8] I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

[9] Special Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology. 23. September 2021. ebs_516_science_and_technology_report - EN


 

inge Mon, 04.10.2021 - 01:17

Wie Eiweißablagerungen das Gehirn verändern

Wie Eiweißablagerungen das Gehirn verändern

Do, 23.09.2021 — Irina Dudanova

Irina DudanovaIcon Gehirn

  Neurodegenerative Erkrankungen sind verheerende Krankheiten, deren grundlegende Mechanismen noch nicht ausreichend erforscht sind. Ein gemeinsames Merkmal sind Eiweißablagerungen im Gehirn. Fehlgefaltete Proteine, die vom Qualtitätskontrollsystem gesunder Zellen korrigiert oder entsorgt werden, überfordern dieses bei neurodegenerativen Erkrankungen. Dr. Irina Dudanova, Leiterin der Forschungsgruppe "Molekulare Neurodegeneration" am Max-Planck-Institut für Neurobiologie (Martinsried, D), untersucht mit ihrem Team die Auswirkungen dieser Eiweißablagerungen auf Nervenzellen. Dabei kommen histologische und biochemische Methoden, Verhaltensanalysen sowie mikroskopische Untersuchungen an lebenden Organismen (Invitralmikroskopie) zum Einsatz. Mit einem neuen Mausmodell kann das Team erstmals den Zustand der kontrollierten Funktion der Proteine - der Proteostase - in Säugetier-Nervenzellen sichtbar machen. Diese Studien sollen dabei helfen, die Entstehung neurodegenerativer Erkrankungen besser zu verstehen, um in Zukunft effiziente Therapien entwickeln zu können.*  

Manche Gehirnerkrankungen wie die Alzheimer-Krankheit, die Parkinson-Krankheit oder Chorea Huntington zeichnen sich durch fortlaufende Schädigung und Tod von Nervenzellen aus und sind als neurodegenerative Erkrankungen bekannt. Im Verlauf der Erkrankung bilden sich Ansammlungen von fehlgefalteten Eiweißen im Gehirn, die man als Einschlusskörperchen oder Plaques bezeichnet. Welche Wirkung haben diese Eiweißablagerungen auf die Nervenzellen, und wie beeinflussen sie die Gehirnfunktion? Um diese Fragen zu beantworten, forschen wir sowohl an Zellkulturen als auch an Mäusen, die als Modelle der humanen Erkrankungen dienen.

Störungen des Abwehrsystems von Eiweißfehlfaltung

Eiweißablagerungen sind eine Folge von Eiweißfehlfaltung, durch die sich die dreidimensionale Struktur der Eiweiße verändert. Jede Zelle ist mit einem Abwehrsystem gegen Eiweißfehlfaltung ausgestattet. Dazu gehören mehrere Faltungshelfer-Moleküle, die geschädigte Proteine erkennen und reparieren bzw. ihren Abbau fördern, um eine stabile Funktion der Proteine („Proteostase“) in der Zelle zu gewährleisten. Es wird angenommen, dass die Fähigkeiten dieses Abwehrsystems mit dem Alter nachlassen, was zu Proteostasestörungen und zur Eiweißablagerung führt und somit neurodegenerative Erkrankungen begünstigt.

Bisher war es jedoch nicht möglich, diesen Prozess im Mausgehirn im Krankheitsverlauf mikroskopisch zu beobachten. Durch den Einsatz eines fluoreszierenden Sensors ist es uns gelungen, den Proteostase-Zustand in Nervenzellen sichtbar zu machen. Mithilfe dieser Methode kann man nun die Proteostasestörungen bei verschiedenen Krankheiten genauer untersuchen. Wenn das Fehlfaltungsabwehrsystem überfordert ist, bildet der normalerweise diffus verteilte Sensor kleine Punkte innerhalb der Zellen (Abbildung 1). In der Zukunft kann der Sensor dabei helfen, die Wirksamkeit von möglichen Therapien einzuschätzen.

Abbildung 1: Oben: Funktionsweise des Proteostase-Sensors. In gesunden Nervenzellen (links) ist der Sensor gleichmäßig verteilt. Eine Proteostasestörung erkennt man daran, dass der Sensor sich in der Zelle umverteilt und kleine Punkte bildet (rechts). Unten: Proteostasestörung in einem Mausmodell der Alzheimer-Krankheit, das Ablagerungen des Tau-Eiweißes (rot) aufweist. Die Umverteilung des Sensors (grün) ist mit Pfeilen markiert. Nervenzellen sind blau gefärbt. © MPI für Neurobiologie / Dudanova, Blumenstock

Defekte Abfallentsorgung in Nervenzellen

Um die allgemeinen Vorgänge bei der Eiweißablagerung in Zellkultur nachzubilden, haben wir in Kooperation mit Kollegen vom Max-Planck-Institut für Biochemie künstlich erzeugte Proteine eingesetzt, die spontan Einschlusskörperchen bilden. Mithilfe von hochauflösender Elektronenmikroskopie untersuchten wir die Struktur der Nervenzellen mit solchen Ablagerungen im Detail. Dabei fanden wir Veränderungen der Lysosomen, den zellulären Strukturen, die für die Abfallentsorgung zuständig sind. In Anwesenheit von Eiweißablagerungen waren die Lysosomen angeschwollen, sie schienen unverdautes Material zu enthalten. Biochemische Analysen zeigten, dass in den betreffenden Zellen mehrere wichtige Proteine von den Ablagerungen „aufgefangen“ werden und an ihnen kleben bleiben, darunter auch ein Protein, das am Transport struktureller Komponenten der Lysosomen beteiligt ist. Vermutlich führt dies zu unzureichender Funktion der Lysosomen und folglich zu einem Stau im zellulären Entsorgungssystem. Mit unserer gemeinsamen Studie konnten wir somit eine neue Verbindung zwischen Eiweißablagerungen und Beeinträchtigung der Abbauvorgänge in Nervenzellen aufzeigen [1].

Veränderungen der neuronalen Aktivität

Eiweißablagerungen stören auch die Kommunikation der Nervenzellen untereinander innerhalb der neuronalen Netzwerke. Solche funktionellen Veränderungen durch neurodegenerative Erkrankungen sind bisher jedoch nur unzureichend erforscht. Mithilfe intravitaler Mikroskopie, bei der Veränderungen im lebenden Gewebe mikroskopisch sichtbar gemacht werden können, haben wir die Aktivität der Nervenzellen in der motorischen Hirnrinde von Mäusen, die an Chorea Huntington erkrankt waren, über mehrere Wochen hinweg wiederholt gemessen.

Abbildung 2: Die maximale Aktivität einzelner Nervenzellen in der motorischen Hirnrinde einer Kontrollmaus (links) und einer Huntington-Maus (rechts) während einer 15-minütigen Mikroskopie-Sitzung ist mithilfe der Farbskala dargestellt.© MPI für Neurobiologie / Dudanova, Burgold

Überraschenderweise konnten wir bereits vor dem Eintreten der krankheitsbedingten Verhaltensänderungen eine erhöhte Aktivität der Nervenzellen feststellen (Abbildung 2). Histologische Untersuchungen in Chorea Huntington-Mäusen und in humanem Chorea Huntington-Gehirngewebe sowie biochemische Analysen wiesen darauf hin, dass diese Hyperaktivität der Nervenzellen möglicherweise mit unzureichender synaptischer Hemmung im Zusammenhang steht [2]. In zukünftigen Studien wollen wir daher einzelne Typen von hemmenden Nervenzellen genauer unter die Lupe nehmen, die bisher im Kontext der Chorea Huntington-Erkrankung wenig erforscht wurden [3].

Ausblick

Bei jeder neurodegenerativen Erkrankung sind bestimmte Nervenzelltypen besonders früh und stark betroffen, während andere Nervenzellen in ihrer Nähe länger verschont bleiben [4]. Über die Ursachen dieser Unterschiede verbleiben noch viele Fragen. In zukünftigen Untersuchungen wollen wir die molekularen und funktionellen Merkmale der unterschiedlich stark betroffenen Zelltypen in Mausmodellen der Neurodegeneration weiter erforschen. Dies ist wichtig, um zu verstehen, welche von den vielen pathologischen Vorgängen, die im kranken Gehirn stattfinden, bei der Krankheitsentstehung eine entscheidende Rolle spielen.


[1]. Schaefer, T. et al., Amyloid-like aggregates cause lysosomal defects in neurons via gain-of-function toxicity. bioRxiv (2019).https://www.biorxiv.org/content/10.1101/2019.12.16.877431v3

[2]. Burgold, J. et al., Cortical circuit alterations precede motor impairments in Huntington’s disease mice. Scientific Reports 9(1), 6634 (2019). https://www.nature.com/articles/s41598-019-43024-w

[3]. Blumenstock, S.; Dudanova, I. Cortical and striatal circuits in Huntington’s disease. Frontiers in Neuroscience 14, 82 (2020). https://www.frontiersin.org/articles/10.3389/fnins.2020.00082/full

[4]. Fu, H.; Hardy, J.; Duff, K.E. Selective vulnerability in neurodegenerative diseases. Nature Neuroscience 21(10), 1350-1358 (2018). https://www.nature.com/articles/s41593-018-0221-2


* Der vorliegende Artikel von Irina Dudanova ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel " Wie Eiweißablagerungen das Gehirn verändern" (https://www.mpg.de/15932560/neuro_jb_2020?c=11659628) erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und der Autorin von ScienceBlog.at weiterverbreitet werden. Text und Abbildungen wurden von uns nahezu unverändert übernommen.


Weiterführende Links

Webseite der Irina Dudanova- Forschungsgruppe "Molekulare Neurodegeneration" am Max-Planck-Institut für Neurobiologie (Martinried, D): https://www.neuro.mpg.de/dudanova/de

Fehlerhafte Qualitätskontrolle im Gehirn (19.08.2021): https://www.neuro.mpg.de/news/2021-08-dudanova/de?c=2742

.............................................................................................................

Zur Protein(fehl)faltung aus dem Max-Planck-Institut für Biochemie (Martinsried, D):

F.-Ulrich Hartl:Chaperone - Faltungshelfer in der Zelle.Video 9:11 min. https://www.biochem.mpg.de/4931043/03_Hartl-Chaperone copyright: www.mpg.de/2013

F.-Ulrich Hartl: Die Proteinfaltung. Video 4:38 min.https://www.biochem.mpg.de/4931164/07_Hartl-Proteinfaltung copyright: www.mpg.de/2013

...............................................................................................

Das Gehirn im ScienceBlog:

Rund 10 % aller Artikel - d.i. derzeit mehr als 50 Artikel - befassen sich mit unterschiedlichen Aspekten zu Aufbau, Funktion, Entwicklung und Evolution des Gehirns und - basierend auf dem Verstehen von Gehirnfunktionen - mit Möglichkeiten bisher noch unbehandelbare Gehirnerkrankungen zu therapieren. Ein Themenschwerpunkt Gehirn fasst diese Artikel zusammen.


 

inge Wed, 22.09.2021 - 23:10

Wie viel Energie brauchen wir, um weltweit menschenwürdige Lebensverhältnisse zu erreichen?

Wie viel Energie brauchen wir, um weltweit menschenwürdige Lebensverhältnisse zu erreichen?

Do, 16.09.2021 — IIASA

IIASA Logo IconEnergie

Die Bekämpfung der Armut ist Ziel Nr. 1 der UN-Ziele für Nachhaltige Entwicklung. Um den Lebensstandard zu erhöhen, wäre für viele Menschen eine Zunahme in der Energieversorgung erforderlich. Gleichzeitig wäre aber für das Erreichen der aktuellen Klimaziele des Pariser Abkommens ein niedrigerer Energieverbrauch angezeigt. IIASA-Forscher haben abgeschätzt, wie viel Energie man braucht, um den Armen der Welt ein menschenwürdiges Leben zu ermöglichen und sie haben herausgefunden, dass dies mit Bemühungen zur Erreichung der Klimaziele vereinbar ist.*

Angemessene Lebensstandards (DLS)...

Um die weltweite Armut zu beseitigen und angemessene Lebensstandards ("Decent Living Standards", DLS , d.i. die materielle Grundlage des menschlichen Wohlbefindens) zu erreichen, ist eine ausreichende Energieversorgung die wesentliche Voraussetzung. Trotz internationaler Verpflichtungen wie den UN-Zielen für Nachhaltige Entwicklung (Sustainable Development Goals - SDGs; Anm. Redn.: siehe dazu [1]) gehen die Fortschritte bei der Verwirklichung von DLS weltweit in vielen Bereichen nur langsam voran. Dazu kommen auch Befürchtungen, dass ein besserer Zugang zu Energie zu höheren Emissionen von Kohlendioxid führen könnte, was mit den Zielen zur Eindämmung des Klimawandels interferieren würde.

In einer neuen Studie, die in der Zeitschrift Environmental Research Letters veröffentlicht wurde, haben IIASA-Forscher einen multidimensionalen Ansatz zur Armut angewandt, um eine umfassende globale Untersuchung zu angemessenen Lebensstandards durchzuführen. Die Forscher haben regionsweise (bei insgesamt 193 Ländern; Anm. Redn.) dabei Lücken in den DLS identifiziert und abgeschätzt, wie viel Energie notwendig ist, um sie zu schließen. Sie haben auch ermittelt, wie weit ein menschenwürdiges Leben für alle mit den Klimazielen vereinbar ist. [2]

..... materielle Voraussetzungen....

Armutsstudien verwenden häufig eine einkommensbasierte Definition zur Festlegung von Armutsgrenzen (Schwellenwert: 1,90 USD/Tag für arme Länder oder 5,50 USD/Tag für Länder mit mittleren/hohen Einkommen); dies verschleiert, dass andere Faktoren unmittelbarer zum menschlichen Wohlbefinden beitragen. Im Gegensatz dazu stellen DLS eine Reihe von materiellen Voraussetzungen dar, um für das Wohlbefinden die erforderlichen Dienstleistungen bereitzustellen, wie etwa eine angemessene Unterkunft, Ernährung, sauberes Wasser, sanitäre Einrichtungen, Kochherde und Kühlung sowie die Möglichkeit, sich physisch und sozial über Transport- und Kommunikationstechnologien verbinden zu können. Dies ermöglicht vor allem die Berechnung der Ressourcen, die für die Bereitstellung dieser Basisdienste erforderlich sind.

.... und Lücken in den DLS

Die größten Lücken in den DLS wurden in Afrika südlich der Sahara festgestellt, wo mehr als 60 % der Bevölkerung mindestens die Hälfte der Indikatoren für angemessenes Leben nicht erreichen. Die Forscher identifizierten auch einen hohen Mangel an DLS-Indikatoren wie beispielsweise an sanitären Einrichtungen und Wasserzugang, Zugang zu sauberem Kochen und Heizen in Süd- und Pazifikasien sowie moderatere Lücken in anderen Regionen. Eines der auffälligsten Ergebnisse der Studie war, dass die Zahl der Menschen, die nach DLS einen Mangel in ihren Grundbedürfnissen haben, in der Regel die Zahl der Menschen in extremer Einkommensarmut bei weitem übersteigt, sodass aktuelle Armutsgrenzen oft nicht mit einem menschenwürdigen Leben vereinbar sind.

Abbildung 1. Abbildung 1. Mittlerer Indikator für die Entbehrung angemessener Lebensstandards (DLS). Die Karte zeigt die durchschnittliche Entbehrung angemessener Lebensstandards (DLS) bezogen auf die Bevölkerungszahl von null bis eins. Der regionale Durchschnitt der Bevölkerung mit menschenwürdigem Lebensstandard (farbiger Balken) ist für jede DLS-Dimension (Ernährung bis Transport) von 0 bis 100 % dargestellt.

Auf die Frage, welche Komponenten der DLS die meisten Investitionen in Energie erfordern, haben die Forscher Unterkünfte und Transport identifiziert.

„Der Großteil der Weltbevölkerung verfügt derzeit über keinen angemessenen motorisierten Verkehr. Eine wichtige politische Erkenntnis für nationale Regierungen ist die weitreichende Auswirkung, die Investitionen in den öffentlichen Nahverkehr haben, um damit die Nutzung von Personenkraftwagen zu reduzieren, die im Allgemeinen einen viel höheren Energieverbrauch pro Person haben“, sagt Jarmo Kikstra, Hauptautor der Studie und Forscher im IIASA Energie-, Klima- und Umweltprogramm.

Energiebedarf für die DLS

Die im Voraus erforderliche weltweite Energie für den Bau neuer Häuser, Straßen und für andere Güter, um die Gewährleistung der DLS von 2015 bis 2040 für alle zu ermöglichen, beträgt etwa 12 Exajoule pro Jahr (1 Exajoule -1 EJ = 1018 Joule = ~ 278 TWh; Anm. Redn.). Dies ist nur ein Bruchteil des derzeitigen gesamten Endenergieverbrauchs, der 400 Exajoule pro Jahr übersteigt. Der mit der Zunahme der Dienstleistungen einhergehende Anstieg der jährlichen Betriebsenergie, einschließlich der Wartungskosten, ist substantieller und erhöht sich schließlich um etwa 68 Exajoule. Für einige Länder würde das Erreichen dieses Ziels nachhaltige Veränderungen in der Entwicklung erfordern, die insbesondere im Globalen Süden eine Herausforderung darstellen.

„Für die meisten Länder, insbesondere für viele arme Länder in Afrika, sind ein bislang nicht gekannter Anstieg des Energieverbrauchs sowie ein gerechter verteiltes Wachstum unerlässlich, um DLS vor der Jahrhundertmitte zu erreichen“, fügt Kikstra hinzu. „Daher wird die größte Herausforderung für die Politik darin bestehen, eine gerechte Verteilung des Energiezugangs weltweit zu erzielen, der derzeit noch außer Reichweite ist.“

Laut Studie beträgt die Energiemenge, die weltweit für ein angemessenes Leben benötigt wird, weniger als die Hälfte des gesamten Endenergiebedarfs, der unter den meisten zukünftigen Entwicklungspfaden, die den Temperaturanstieg unter 1,5 °C halten, prognostiziert wird (SSP-Szenarien: Shared Socioeconomic Pathways = gemeinsame sozioökonomische Entwicklungspfade; Anm. Redn.). Abbildung 2. Dies deutet darauf hin, dass das Erreichen der DLS für alle nicht mit den Klimazielen zu interferieren braucht. Während sich deren Verhältnis in verschiedenen Klimaschutzszenarien und je nach Region ändert, bleibt der Energiebedarf für die DLS auf der Stufe größerer globaler Regionen immer deutlich unter dem prognostizierten Energiebedarf.

Abbildung2. Energiepfade für ein menschenwürdiges Leben in einem Szenario, in dem bis 2040 allen Menschen ein menschenwürdiges Leben ermöglicht wird (DLE-2040), und in einem Szenario, in dem die Bereitstellung eines menschenwürdigen Lebens an das Wirtschaftswachstum gekoppelt ist (DLE-BIP). Verglichen wird mit dem Szenario SSP2 - dem „mittleren Weg“, d.i. die bisherige Entwicklung setzt sich in die Zukunft fort – und den mit einem Temperaturanstieg von 2 °C (SSP2-26) und 1,5 °C (SSP2-19) kompatiblen Pfaden. (Bild aus Jarmo S Kikstra et al 2021 [2], von der Redn.eingefügt)

„Um weltweit menschenwürdige Lebensbedingungen zu erreichen, müssen wir anscheinend den Energiezugang zu grundlegenden Dienstleistungen nicht einschränken, da es einen Überschuss an Gesamtenergie gibt. Was vielleicht unerwartet ist, ist, dass selbst unter sehr ambitionierten Armutsbekämpfungs- und Klimaschutzszenarien noch ziemlich viel Energie für Wohlstand zur Verfügung steht“, sagt Studienautor Alessio Mastrucci.

„Unsere Ergebnisse stützen die Auffassung, dass Energie zur Beseitigung der Armut im globalen Maßstab keine Bedrohung für die Eindämmung des Klimawandels darstellt. Um jedoch allen ein menschenwürdiges Leben zu ermöglichen, ist eine Energieumverteilung auf der ganzen Welt und ein bisher nicht dagewesenes Wachstum der Endenergie in vielen armen Ländern erforderlich“, schließt Studienautor Jihoon Min.


[1 ] IIASA, 14.10.2019; Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

[2] Jarmo S Kikstra et al 2021. Decent living gaps and energy needs around the world. Environ. Res. Lett. 16 095006. DOI: 10.1088/1748-9326/ac1c27 Die Arbeit ist open access und unter cc-by lizensiert.

[3] Carbon Brief, 23.08.2018: Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?


 * Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 2.September 2021 auf der IIASA Webseite unter dem Titel: "How much energy do we need to achieve a decent life for all?" erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch Untertitel und eine Abbildung aus [2] ergänzt.


 

Energie im ScienceBlog

Energie ist eines der Hauptthemen im ScienceBlog und zahlreiche Artikel haben sich bis jetzt mit deren verschiedenen Aspekten befasst. Das Spektrum der Artikel reicht dabei von Urknall und Aufbau der Materie bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel - derzeit rund 40 Artikel - ist in einem Themenschwerpunkt "Energie" zusammengefasst : Energie.


 

inge Thu, 16.09.2021 - 00:29

Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?

Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?

So 11.09.2021.... Inge Schuster Inge Schuster

Icon Nahrung

Ein vor 2 Wochen erschienener Artikel beschreibt, wie aus Stammzellen von Muskelgewebe, Fettzellen und gefäßbildenden Zellen (Endothelzellen) des Wagyu-Rindes erstmals Strukturen mit ähnlicher Konsistenz wie natürlich gewachsenes Fleisch erzeugt wurden. Das Drei-Stufen Verfahren begann mit der Isolierung und Vermehrung der Zellen im Labor. In einem zweiten Schritt wurden diese mittels einer speziellen 3D-Drucktechnik in ein Hydrogel-Stützgerüst pipettiert, wo sie zu Fleisch-typischen Fasern differenzierten, die sich in einem dritten Schritt schlussendlich zu Strukturen mit vergleichbarer Konsistenz wie gewachsenes, "marmoriertes" Fleisch zusammensetzen ließen. Es ist dies zweifellos ein sehr vielversprechender Ansatz! Allerdings müssen die methodischen Details - noch ist der Einsatz von speziellen Nährmedien, Antibiotika und diversen Wachstumsfaktoren unabdingbar - weiter entwickelt und optimiert werden, um zu einem erfolgreichen, leistbaren Massenprodukt zu gelangen, das vom nicht-vegetarisch lebenden Großteil der Menschheit als adäquater Fleischersatz akzeptiert wird.

Die Bekämpfung des Klimawandels und seiner Folgen und die Schaffung einer nachhaltigen Ernährungssicherheit für die weiterhin stark wachsende Erdbevölkerung gehören zweifellos zu den größten Herausforderungen unserer Zeit. Ernährung und Klimasituation können dabei nicht als voneinander unabhängig betrachtet werden: veränderte Klimabedingungen wirken sich unmittelbar auf landwirtschaftliche Erträge aus, das Ernährungssystem wiederum - von Landnutzung über Nahrungsproduktion, Transportkette bis hin zur Abfallwirtschaft - verursacht heute bereits rund ein Drittel der der globalen anthropogenen Treibhausgas-Emissionen (die anderen zwei Drittel stammen aus den Aktivitäten in Industrie, Verkehr und Wohnen )[1]. Ein Großteil der Emissionen kommt dabei aus der industriellen Tierproduktion.

Fleisch und Fleischprodukte

sind die weltweit am häufigsten konsumierten Nahrungsmittel. Der Anteil der vegetarisch/vegan sich ernährenden Menschen lag laut Statista 2020 in nahezu allen Staaten (weit) unter 10 % (selbst in Indien sind nur noch 38 % der Bevölkerung Vegetarier); in Deutschland, Österreich und Schweiz lag der Anteil bei 7 % [2]. Produktion und Konsum tierischer Nahrungsmittel werden nach den Schätzungen der FAO (United Nations Food and Agriculture Organization) bis 2050 noch weiter zunehmen. Abbildung 1.

Abbildung 1. Global wird die Produktion von Fleisch und tierischen Produkten weiter ansteigen. Daten bis2013 und Voraussagen bis 2050 basieren auf Schätzungen der FAO. Angaben in Tonnen. (Bild: https://ourworldindata.org/grapher/global-meat-projections-to-2050. Lizenz : cc-by)

Für die Zunahme werden nicht so sehr die reichen Staaten Nordamerikas oder der EU verantwortlich sein, da diese mit einem jährlichen pro-Kopf- Verbrauch von 70 kg Fleisch und mehr bereits "fleischgesättigt" sind. Es liegt einerseits am globalen Bevölkerungswachstum - nach Berechnungen der UN werden ausgehend von aktuell 7.8 Milliarden Menschen im Jahr 2050 zwischen 8,7 und 10,8 Milliarden Menschen die Erde bevölkern - und auch daran dass aufstrebende Staaten mit wachsendem Wohlstand zu einem erhöhten Fleischkonsum tendieren; insbesondere wird dies für asiatische Länder und hier vor allem für China zutreffen. Wie Analysen aus den letzten Jahrzehnten zeigen, ist der Fleischkonsum ja ein Gradmesser dafür, wie reich Staaten sind. Abbildung 2.

Abbildung 2. In den letzten Jahrzehnten hat die Fleischproduktion in asiatischen Ländern enorm zugenommen. (Bild: https://ourworldindata.org/grapher/global-meat-production. Lizenz : cc-by)

Mehr Nutztiere bedeuten steigende Treibhausgasemissionen. Die für Deutschland berechneten, bei der Produktion von Nahrungsmitteln anfallenden durchschnittlichen Emissionen betragen pro 100 g Rindfleisch 1,23 kg CO2-Äquivalente, pro 100 g eiweißreicher Feldfrüchte (Kartoffel, Hülsenfrüchte, Nüsse) dagegen bei 0,1 kg und weniger CO2-Äquivalente [3]. Mehr Nutztiere benötigen einen gesteigerten Platzbedarf, ein Mehr an Agrárflächen für die Produktion von Futtermitteln und ein Mehr an Wasserverbrauch. Um beispielsweise 1 kg Rindfleisch zu erzeugen, braucht es bis zu 9 kg Futter, bis zu 15 400 l Wasser und eine Fläche bis zu 50 m2 [4).. Von der bewohnbaren Erdoberfläche ( 104 Mio km2) wird heute bereits die Hälfte - 51 Mio km2 - landwirtschaftlich genutzt, davon 77 % (40 Mio km2) für Tierhaltung und Anbau von Tierfutter [5].

Eine zukünftige weitere Expansion von Weide- und Futteranbauflächen auf Kosten der Waldgebiete muss wohl gebremst, ein weiterer, durch Nutztierhaltung verursachter Anstieg von Treibhausgasen verhindert werden.

Fleischersatz

Dass bis 2050, d.i. innerhalb einer Generation, der Appetit auf Fleisch stark abnehmen und der Anteil der Vegetarier rasant steigen wird, ist ohne diktatorische Maßnahmen wohl kaum erreichbar. Eine Änderung der Konsumgewohnheiten ist nur denkbar, wenn gesunde alternative Ernährungsmöglichkeiten verfügbar sind, wenn ein von Textur und Geschmack akzeptabler, preiswerter Fleischersatz - "Laborfleisch" - angeboten wird.

Prinzipiell sind hier zwei Wege des Fleischersatzes möglich: i) Produkte, die auf eiweißreichen Pflanzen basieren, in ihren Inhaltsstoffen optimiert werden und mit Bindemitteln, Farben, Wasser und Aromen Aussehen und Geschmack von Fleischprodukten nachahmen und ii) Produkte, die aus den Muskelzellen unserer Nutztiere hergestellt werden. In den meisten Fällen wird auf beiden Wegen dabei unstrukturiertes Material mit der Textur von Hackfleisch erzeugt, die im Wesentlichen zu Burger und Wurstwaren verarbeitet werden.

Pflanzenbasierte Produkte - Ausgangsstoffe sind u.a. Soja, Erbsen, Bohnen, Getreide, Pilze - sind bereits auf dem Markt sind und erfreuen sich steigender Nachfrage. Hier sind vor allem die Produkte von Beyond Meat (das bereits in Fast-Food Ketten angeboten wird) und Impossible Meat zu nennen.

Fleischzucht im Labor ...........

Hier sind aus Muskel- und Fettgewebe von Tieren isolierte Stammzellen das Ausgangsmaterial, die mittels Zellkulturtechniken in Bioreaktoren vermehrt werden. Bereits 2013 wurde an der Universität Maastricht der erste aus solchen Zellen erzeugte Burger verkostet - auf Grund der teuren Nährmedien, Wachstumsfaktoren und anderer Zusätze belief sich damals sein Preis auf 250 000 €. Die Erwartung von Milliarden-Umsätzen hat seitdem mehr als 74 Unternehmen - große Konzerne wie Merck oder Nestle und auch viele kleine und mittelgroße Firmen - auf den Plan gerufen, die an der Entwicklung von leistbarem und geschmacklich akzeptierbaren in vitro-Fleisch für den Massenkonsum arbeiten. Dabei geht es vielfach - wie oben erwähnt - um unstrukturiertes Laborfleisch, also um Hackfleisch-artige Produkte und daraus erzeugte Wurstwaren. Strukturiertes Steak-ähnliches Fleisch ("whole cuts") entsteht aus einer Kombination von gezüchteten Fleischzellen und einem Gerüst aus Pflanzenprotein (z.B. Soya), in welches die tierischen Zellen hineinwachsen. Die Kosten konnten zwar bereits enorm gesenkt werden, u.a. durch den Einsatz von pflanzlichem Material und pflanzenbasierten Zusätzen, im Vergleich zu authentischem Fleisch sind sie aber noch viel zu hoch.

Im Juni 2021 hat nun die in Rehovot (Israel) ansässige Firma Future Meat die weltweit erste Firma eröffnet, die Laborfleisch in größerem Maßstab - das sind aber bloß erst 500 kg (d.i. 5 000 Burger) pro Tag - und zu einem Preis von US 40 $/kg herstellen will. Die Steaks vom Huhn oder Lamm sind, wie oben erwähnt, Hybride (50:50?) aus tierischem und pflanzlichen Material und noch immer erheblich teurer als normal gewachsenes Fleisch.. Gespräche mit der amerikanischen FDA zur möglichen Einführung auf dem US-Markt wurden begonnen.

........und ein Mini-Steak vom Wagyo-Rind

Die Erzeugung fleischtypischer Strukturen ausschließlich aus tierischen Zellen ist wesentlich komplizierter und aufwendiger. Eine japanische Forschergruppe von der Universitär Osaka hat hier nun offensichtlich einen Meilenstein gesetzt. Es wurden erstmals Stammzellen für alle wesentlichen Fleischkomponenten - Muskelfasern, Fettgewebe und Blutgefäße - isoliert, vermehrt, mittels 3D-Druck zu fleischtypischen Faserstrukturen gezogen und diese sodann zu Ministeaks - in diesem Fall zur für das Wagyo-Rind charakteristischen "marmorierten" Textur- zusammengebaut [6] . Das in drei Schritten ablaufende Verfahren ist in Abbildung 3 zusammengefasst.

Abbildung 3. IAus den Stammzellen des Muskel- und Fettgewebes des Wagyo-Rinds In 3 Schritten zum in vitro-Ministeak. Oben rechts: wie Fleisch in vivo aufgebaut ist. Schritt 1: Isolierung und Reinigung von Satelliten-Stammzellen des Muskels (bovine satellite cells - bSCs) und von Fettgeweben stammenden Zellen (bovine adipose-derived stem cells - bADSCs ). Schritt 2: 3D-Druck von bSCs und bADSCs um Muskel-, Fett- und Gefäßfasern zu erzeugen. Schritt 3: Zusammensetzung der Fasern und Verklebung mittels Transglutaminase zu einer für Steaks typischen marmorierten Struktur. (Bild modifiziert nach Kang et al,. (2021) [6], die Arbeit ist unter cc-by lizensiert.)

Schritt 1: Ein frisch geschlachtetes Wagyu-Rind lieferte das Ausgangsmaterial für 2 Sorten von Stammzellen; diese wurden aus Muskelgewebe (bovine satellite cells - bSCs) und aus Fettgewebe (bovine adipose-derived stem cells -bADSCs) isoliert. In speziellen Nährmedien kultiviert entstanden aus den bSCs Muskelzellen, die bADSCs differenzierten zu reifen Fettzellen (Adipozyten) und unter veränderten Kulturbedingungen zu Blutgefäß-Zellen (Endothelzellen). Die einzelnen Zelltypen wurden nun unter jeweils optimierten Kulturbedingungen vermehrt.

Schritt 2: Mittels einer speziellen 3D-Drucktechnik - dem "Sehnen Gel-Druck" (Tendon-Gel-imprinted Bioprinting - TIP) wurden Suspensionen der einzelnen Zelltypen ("bio-ink") in ein von senkrechten Kanälchen durchzogenes Hydrogel-Stützgerüst aus Gelatine pipettiert, wo begrenzende Kollagen-Gel-"Sehnen" (Tendon-Gel) sie dann zu Fleisch-typischen Muskelfasern, Fettzellsträngen und Blutkapillaren wachsen ließen (Abbildung 4).

Schritt 3: Die Fasern wurden schlussendlich zu Strukturen mit vergleichbarer Konsistenz und Struktur wie gewachsenes, "marmoriertes" Fleisch zusammengesetzt und durch Zugabe des auch in vivo präsenten Enzyms Transglutaminase miteinander "verklebt". Insgesamt ergaben 42 Muskelfasern, 28 Fettstränge und 2 Blutkapillaren ein etwa 1 x 1 x 0,5 cm marmoriertes Mini-Steak (Abbildung 4, unten).

Abbildung 4. Mittels einer speziellen 3D-Drucktechnik werden Muskel-, Fett- und Gefäßzellen zu fleischtypischen Strukturen geformt und zu einem etwa 1 cm langen, 0,5 cm dicken Steak zusammengebaut. Bild modifiziert nach Kang et al., (2021) [6]( Lizenz: cc-by). 3D-Printer und Fasern sind screenshots aus den Supplementary Movies 5, 6, 7 und 8. Der Zusammenbau im unteren Teil des Bildes stammt aus Figure 5: Die Anordnung der Fasern in kommerziellem Wagyu-Fleisch ist in der oberen Reihe links und Mitte (Färbung: Actinin dunkel, Laminin braun) gezeigt , darunter ist das Mini-Steak von oben und im Querschnitt (Muskelfleisch und Gefäße sind rot gefärbt, Fett ist ungefärbt; der weiße Balken ist 2mm lang).

Ein noch langer Weg bis zu einem ökonomisch akzeptablen Produkt

Das Mini-Steak kommt in Aussehen, Textur und Geschmack einem authentischen Fleischstück sicherlich sehr nahe und kann durch veränderte Relationen der Komponenten noch viel mehr an jeweilige Präferenzen angepasst werden. Ein solches zu 100 % aus Fleischzellen bestehendes Produkt könnte auch Akzeptanz bei vielen Fleischessern finden, denen pflanzenbasierter und/oder hybrider pflanzen- und tierbasierter Fleischersatz zu artifiziell erscheint.

Um derartiges Fleisch in industriellem Maßstab und zu einem akzeptablen Preis erzeugen zu können, ist allerdings noch ein sehr weiter Weg zu gehen, sehr viel an Entwicklungsarbeit zu leisten.

Nehmen wir an, dass das Upscaling vom Laborexperiment zur Produktion in größerem Maßstab bewältigt werden kann, so sind meiner Ansicht nach vor allem zwei massive Probleme hervorzuheben:

Zur Erzeugung des Wagyo-Steaks haben alle Prozesse, die zu Muskel-, Fett- und Endothelzellen, zu deren Vermehrung, Formgebung und schließlich Zusammenbau führten, in Nährlösungen stattgefunden, die neben Zell-spezifischen Wachstumsfaktoren und anderen Zusätzen immer auch fötales Kälberserum (FBS) und einen Mix aus Antibiotika (immer Penicillin, Streptomycin), in einigen Prozessen auch Amphotericin enthielten.

Fötales Kälberserum enthält eine Vielfalt von Hormonen und Wachstumsfaktoren, die für das Kultivieren von Zellen benötigt werden und ist enorm teuer (derzeit kosten 500 ml bei Sigma-Aldrich etwa 644 €). Es wird aus dem Blut von Kalbsföten gewonnen, die, aus dem Leib ihrer Mütter herausgeschnitten, durch Herzpunktion etwa 0,5 l Blut pro Fötus liefern. Um ausreichend Serum für eine großindustrielle Herstellung von Fleischersatz zur Verfügung zu haben, würden wohl Hunderttausende trächtige Rinder gebraucht. Es müssen also um Größenordnungen billigere, dennoch effiziente Nährmedien gefunden werden.

Ein weiteres Problem ist die doch längerdauernden Prozesse ohne Zusatz von Antibiotika/Antimykotika auszuführen (auch unter rigoroser Einhaltung antiseptischer Bedingungen plus Antibiotika Zugabe gab es in meinem Labor selten aber doch vor allem mit Mykoplasmen kontaminierte Zellkulturen).

Dazu kommt dann noch der Bedarf an speziellen kostspieligen Biomarkern, an Wachstumsfaktoren und vielen anderen Zusätzen, die zur Herstellung der Endprodukte benötigt werden und diese noch zunehmend verteuern.

Ist also eine industrielle Herstellung von derartigen Ministeaks möglich? Die Antwort ist: prinzipiell ja. Zuvor ist aber noch sehr viel an Entwicklungsarbeit zu leisten.


  [1] Crippa M. et al., (2021) Food systems are responsible for a third of global anthropogenic GHG emissions. Nature Food 2, 198 - 209

[2] Länder mit dem höchsten Anteil von Vegetariern an der Bevölkerung weltweit im Jahr 2020: https://de.statista.com/prognosen/261627/anteil-von-vegetariern-und-veganern-an-der-bevoelkerung-ausgewaehlter-laender-weltweit

[3] IFEU-Institut für Energie- und Umweltforschung Heidelberg: CO2-Rechner: https://www.klimatarier.com/de/CO2_Rechner

[4] Das steckt hinter einem Kilogramm Rindfleisch (2017)https://albert-schweitzer-stiftung.de/aktuell/1-kg-rindfleisch

[5]Global land use for food production. https://ourworldindata.org/environmental-impacts-of-food?country

[6] Kang, DH., Louis, F., Liu, H. et al. Engineered whole cut meat-like tissue by the assembly of cell fibers using tendon-gel integrated bioprinting. Nat Commun 12, 5059 (2021). https://doi.org/10.1038/s41467-021-25236-9


 

inge Sat, 11.09.2021 - 17:15

Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung

Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung

Do, 02.09.2021 — Susana Coelho

Icon Meere

Susana Coelho Braunalgen sind vielzellige Eukaryonten, die sich seit mehr als einer Milliarde Jahren unabhängig von Tieren und Pflanzen entwickelt haben. Sie haben eine faszinierende Vielfalt an Körpermustern und Fortpflanzungsmerkmalen erfunden, deren molekulare Basis noch vollkommen unerforscht ist. Dr.Susana Coelho, Direktorin am Max-Planck-Institut für Entwicklungsbiologie(Tübingen), und ihr Team nutzen den Reichtum an morphologischen und sexuellen Merkmalen dieser rätselhaften Organismen, um Licht in den Ursprung der Mehrzelligkeit und in die Evolution der Bestimmung des biologischen Geschlechts innerhalb des gesamten eukaryontischen Lebensbaums zu bringen.*

Vor der Küste gibt es magische Unterwasserwälder …

Eine Welt riesiger Braunalgen, bekannt als Kelp, lebt gemeinsam mit Tausenden anderer Arten von Rot-, Braun- und Grünalgen, alle als Seetang bezeichnet, und bietet ein Kaleidoskop an Farben und Mustern (Abbildung 1). Diese Unterwasserwälder sind eine der artenreichsten Umgebungen auf unserem Planeten, die eine Vielzahl unterschiedlicher Meereslebewesen beherbergen. Algen sind nicht nur wichtige Bestandteile der Ökosysteme unserer Erde, sondern sie produzieren auch die Hälfte des Sauerstoffs, den wir in Küstengebieten atmen, und spielen eine Schlüsselrolle bei der Kohlenstoffbindung im Meer. Seetang wurde zum Schlagwort für Futuristen und wird zunehmend als Nahrungsquelle und für die Kosmetik- und Pharmaindustrie sowie zur Herstellung biologisch abbaubarer Kunststoffe verwendet.

Abbildung 1. Abbildung 1. Eine Welt riesiger Braunalgen lebt gemeinsam mit Tausenden anderer Arten von Rot-, Braun- und Grünalgen und bietet ein Kaleidoskop an Farben und Mustern.© W. Thomas, Centre national de la recherche scientifique (CNRS), Frankreich

... aber wir wissen so wenig über diese erstaunlichen Organismen

Obwohl sie auf Sonnenlicht angewiesen sind, um Photosynthese zu betreiben, sind Braunalgen keine Pflanzen. Sie haben keine Wurzeln, Blätter oder Stängel, um Nährstoffe zu transportieren. Stattdessen bezieht jede Zelle das, was sie braucht, direkt aus dem Meerwasser. Braunalgen haben sich vor mehr als einer Milliarde Jahren unabhängig von Tieren und Landpflanzen entwickelt. Ihr letzter gemeinsamer Vorfahre war ein Einzeller, was bedeutet, dass Tiere, Pflanzen und Braunalgen die Mehrzelligkeit eigenständig erfunden haben.

Braunalgen sind die drittkomplexeste vielzellige Abstammungslinie auf unserem Planeten, wobei einige Arten eine Länge von mehr als 50 Metern erreichen und eine bemerkenswerte Vielfalt an Wachstumsgewohnheiten, Lebenszyklen und Geschlechtsbestimmungssystemen aufweisen. Während bisher enorme Anstrengungen unternommen wurden, die Entwicklungs- und Reproduktionsbiologie von Tieren und Landpflanzen zu verstehen, wurden Braunalgen fast vollständig ignoriert, und es ist nur sehr wenig darüber bekannt, wie diese Organismen auf molekularer Ebene funktionieren.

Meeresalgen helfen, grundsätzliche Fragen der Evolutions- und Entwicklungsbiologie zu beantworten

In unserer Abteilung widmen wir uns denjenigen Prozessen, die dem Übergang vom Einzeller zur komplexen Multizellularität zugrunde liegen - einem wichtigen evolutionären Ereignis, das bei Eukaryonten nur selten aufgetreten ist. Wir verwenden eine Reihe von computergestützten und experimentellen Ansätzen und nutzen die Vielfalt der morphologischen und reproduktiven Merkmale der Meeresalgen.

Wir haben Ectocarpus, eine kleine filamentöse Braunalge, als Modellorganismus gewählt, um die molekularen Grundlagen ihres Wachstumsprozesses zu untersuchen. Ectocarpus weist ein relativ einfaches Entwicklungsmuster mit wenig verschiedenen Zelltypen auf. Durch ultraviolette Bestrahlung wurden Entwicklungsmutanten erzeugt, und die betroffenen Gene wurden durch klassische genetische Analyse identifiziert. Danach wurden mehrere dieser Mutanten eingesetzt, um die Bildung bestimmter Entwicklungsmuster zu verstehen. So haben wir gefunden, dass Mutationen im Gen DISTAG (DIS) bei Dis-Mutanten zu architektonischen Anomalien in der keimenden Ausgangszelle führen, einschließlich einer Vergrößerung der Zelle, einer Desorganisation des Golgi-Apparats, einer Störung des Mikrotubuli-Netzwerks und einer anomalen Positionierung des Zellkerns. DIS kodiert TBCCd1, ein Protein, das eine zentrale Rolle bei der Zellorganisation auch bei Tieren, Grünalgen und Trypanosomen spielt - also über extrem entfernte eukaryotische Gruppen hinweg. Dieses Resultat könnte uns den Weg weisen, zu verstehen, wie der genetische Werkzeugkasten des letzten gemeinsamen Vorfahren aller Eukaryoten beschaffen war, und wie sich bestimmte Merkmale im vielzelligen Leben entwickelt haben.

Vögel tun es, Bienen tun es, und Algen tun es auch

Die Entwicklung des Geschlechts und geschlechtsbezogener Phänomene beschäftigt und fasziniert Biologen seit Jahrhunderten, und viele Fragen zur evolutionären Dynamik der sexuellen Fortpflanzung bleiben noch unbeantwortet. Wir verwenden unsere Braunalgen, um den Ursprung und die Entwicklung der Geschlechtschromosomen zu verstehen. Wir haben entdeckt, dass bei den meisten Braunalgen das weibliche Geschlecht durch ein einziges sogenanntes „U“-Geschlechtschromosom bestimmt wird, während das männliche Geschlecht durch ein einziges „V“-Geschlechtschromosom bestimmt wird. Diese Organisation steht im Gegensatz zum Geschlechtschromosomensystem vieler Tiere, bei dem die Männchen ein Y- und ein X-Chromosom und die Weibchen zwei X-Chromosomen tragen. Obwohl das U/V-System auf den ersten Blick sehr unterschiedlich zum tierischen – und menschlichen - XX/XY System scheint, hat unsere Arbeit gezeigt, dass alle diese Geschlechtschromosomen universelle Merkmale aufweisen, darunter die Unterdrückung der Rekombination, die Anhäufung repetitiver DNA, die Bewegung von Genen vom Geschlechtschromosom zu den anderen Chromosomen und das Vorhandensein eines Master-Switch-Gens, das das biologische Geschlecht innerhalb der sich nicht rekombinierenden Genomregion bestimmt.

Bei Eukaryonten wurden bislang nur wenige Hauptgene für die Bestimmung des biologischen Geschlechts identifiziert. Unter diesen Hauptgenen sind Proteine der High-Mobility-Group-(HMG)-Domäne in die Bestimmung des biologischen Geschlechts bei Wirbeltieren und Pilzen involviert. Bemerkenswerterweise haben wir ein HMG-Domänen-Gen auch im V-Chromosom von Ectocarpus und allen anderen männlichen Braunalgen, die wir untersucht haben, identifiziert. Dieses Gen ist daher ein Kandidat für das geschlechtsbestimmende Hauptgen in Meeresalgen, was wichtige Fragen über die Evolution der geschlechtsbestimmenden Gen-Netzwerke in den Eukaryonten insgesamt aufwirft.

Unsere Forschung an Braunalgen wird dazu beitragen, unser Wissen zu erweitern, wie Geschlechtschromosomen und die Bestimmung des biologischen Geschlechts funktionieren, indem sie evolutionären Modellen eine breitere phylogenetische Dimension verleiht.


*Der vorliegende Artikel von Susana Coelho ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel " Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung" (https://www.mpg.de/16324504/eb_jb_20201?c=151755)erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und der Autorin von ScienceBlog.at weiterverbreitet werden. Text und Abbildung wurden unverändert übernommen.


Weiterführende Links

Max-Planck-Institut für Entwicklungsbiologie, Abteilung für Algen-Entwicklung und Evolution: https://www.eb.tuebingen.mpg.de/de/department-of-algal-development-and-evolution/home/

usoceangov: Underwater Kelp Forests (2009). Video 3:13 min. https://www.youtube.com/watch?v=GcbU4bfkDA4

The Nature Conservancy in California: Virtual Dive: Kelp Forests off the California Coast (2020). Video 2:15 min. https://www.youtube.com/watch?v=8LZz7DJyA10

Erlendur Bogason: The Seaweed Jungle (2014). Video 3:16 min; https://www.youtube.com/watch?v=hQ6tNi3FLhU

Wikipedia: Brown algae  https://seaiceland.is/what/algae/brown-algae

--------------------------------------------------------

Algen im ScienceBlog:

Georg Pohnert, 14.11.2019: Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren

Christian Hallmann, 20.11.2015: Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern


 

inge Wed, 01.09.2021 - 18:07

Weltweite Ausbreitung der Delta-Variante und Rückkehr zu Großveranstaltungen

Weltweite Ausbreitung der Delta-Variante und Rückkehr zu Großveranstaltungen

Do, 26.08.2021 — Ricki Lewis

Ricki LewisIcon Medizin Vor wenigen Tagen ist ein Bericht über ein Popkonzert-Experiment erschienen, das vor einem Jahr stattgefunden hat; das Ziel war das Risiko einer SARS-CoV-2 Verbreitung bei Massenveranstaltungen in geschlossenen Räumen zu evaluieren und gegebenenfalls zu reduzieren. Die Genetikerin Ricki Lewis fragt hier, inwieweit die aus dem Experiment gewonnenen Ergebnisse und erstellten Modelle zu Belüftungs- und Hygienemaßnahmen auch noch in der Welt der ansteckenderen und sich rascher verbreitenden Delta-Variante gelten und wie man weiteren noch kommenden Varianten begegnen sollte.*

Ein "Popkonzert-Experiment“ simuliert Virusausbreitung

Heute früh (d.i. am 19.August 2021; Anm. Redn) habe ich mich über eine neue Veröffentlichung gefreut, die unter dem Titel „Das Risiko von Hallensport- und Kulturveranstaltungen für die Übertragung von COVID-19“ im Journal Nature Communications erschienen ist [1]. Stefan Moritz und Kollegen in Deutschland haben im August 2020 „ein Popkonzert-Experiment“ veranstaltet (Abbildung 1) und festgestellt, dass bei guter Belüftung und „geeigneten Hygienemaßnahmen“ die virusverbreitenden Aerosole und Tröpfchen in Grenzen gehalten werden können.

Abbildung 1: Rückkehr zu Massenveranstaltungen in geschlossenen Räumen. (Symbolfoto von Redn eingefügt, Quelle: Pixabay, c 0)

Die 1.212 Besucher haben Monitore getragen, die ihre Bewegungen registrierten und waren jeweils einem „Hygiene-Szenario“ zugeordnet:

  • ohne Einschränkungen - d.i. Szenario wie vor der Pandemie
  • mit moderaten Einschränkungen (Schachbrettbestuhlung und Verdopplung der Eingänge)
  • mit starken Einschränkungen (Sitzplatzabstand 1,5 m und Vervierfachung der Eingänge).

Im Durchschnitt hatte jeder Konzertbesucher Kontakte mit neun anderen, zumeist beim Hinein- und Herausgehen. Personen im Szenario "ohne Einschränkungen" hatten während der gesamten Veranstaltung Kontakte von mehr als 5 Minuten, im Vergleich dazu gab es in den anderen Szenarien wenige und kurze Begegnungen.

Basierend auf diesen anfänglichen Ergebnissen entwickelten die Forscher ein Modell mit der Annahme, dass sich in einem geschlossenen Raum unter 4.000 Besuchern 24 infektiöse Personen befinden, wobei zwei Belüftungsszenarien mit unterschiedlichen Luftaustauschraten und Luftströmungen und das Tragen von Masken in das Modell eingingen. Bei einem schnelleren Luftaustausch gab jede infizierte Person das Virus im Durchschnitt an 3,5 andere Personen weiter. Bei langsameren Luftaustausch wurde das Virus auf 25,5 Menschen verbreitet – d.i. mehr als eine siebenfache Steigerung. Das Tragen von Masken reduzierte die Übertragung .

Die Schlussfolgerung der Forscher: „Das Infektionsrisiko bei Massenveranstaltungen in geschlossenen Räumen hängt maßgeblich von der Qualität des Lüftungssystems und den Hygienepraktiken ab. Unter der Voraussetzung eines effektiven Belüftungssystems haben Massenveranstaltungen in Innenräumen bei geeigneten Hygienepraktiken - wenn überhaupt - einen sehr geringen Einfluss auf die Ausbreitung der Epidemie“.

Das aber war damals. Vor einem Jahr.

Die Delta-Variante und das Popkonzert-Experiment

Das Konzert-Experiment in Deutschland hat für das Virus eine zu optimistische Reproduktionszahl R0 = 1 verwendet, das heißt, ein Infizierter gibt das Virus im Durchschnitt an einen anderen weiter. Tatsächlich hatte das ursprüngliche SARS-CoV-2 einen R0-Wert von 2,3 bis 2,7, die Alpha-Variante, die in Großbritannien ihren Ausgang nahm, hatte ein R0 von 4 bis 5 und die Delta-Variante, die jetzt auf der ganzen Welt stark ansteigt, ein R0 von 5 bis 8. (Abbildung 2)

Abbildung2: Die Delta-Variante verursacht höhere Infektionszahlen und verbreitet sich rascher als frühere Formen des SARS-CoV-2- Virus. (Bild von Redn. eingefügt. Quelle: US-Center for Disease Control and Prevention, update vom 19.8.2021: https://www.cdc.gov/coronavirus/2019-ncov/variants)/delta-variant.html.

Die Zeiten haben sich geändert und die Millionen (in den USA) von Nichtgeimpften haben es dem Virus ermöglicht, ausreichend umherzufliegen, um zu einer höheren Übertragbarkeit zu mutieren.

Aber wie haben sich frühere Inkarnationen des Virus in Delta verwandelt? Es stellt sich heraus, dass hinter der schnelleren Übertragbarkeit die allerkleinste Veränderung steckt – es ist nur eine RNA-Base, die in einem entscheidenden Teil des Spike-Proteins gegen eine andere ausgetauscht wird. Eine einzelne, einfache Mutation, eine der neun, welche die Delta-Variante ausmachen, findet globales Echo. (https://www.cdc.gov/coronavirus/2019-ncov/variants/delta-variant.html.)

Wie die Delta-Variante die Welt so schnell erobert hat

Die Viren sind mit Stacheln dekoriert, die sich an unseren Zellen festsetzen, wie Seeigel, die sich in Sand graben. Jedes Spike-Protein besteht aus zwei Teilen: S1, das den Spike mit der menschlichen Zelle fusioniert, und S2, das das Virus in die Zelle bringt. S1 und S2 müssen allerdings auseinander geschnitten werden, um ihre Aufgaben zu erfüllen.

Die Mutation, die den Eintritt von Delta in unsere Zellen beschleunigt, genannt P681R, verformt die Schnittstelle von S1 und S2 auf eine Weise, die das Schnippseln beschleunigt, wodurch das Virus viel schneller mit der Zelle fusioniert und eindringt (ein bisschen so, wie wenn im deutschen Rockkonzert-Szenario die Türen weiter geöffnet werden, damit mehr Personen schneller eintreten können). Wie dies alles abläuft, hat ein Team an der University of Texas Medical Branch in einer eleganten Reihe von Experimenten gezeigt; die Ergebnisse sind als Preprint verfügbar (https://www.biorxiv.org/content/10.1101/2021.08.12.456173v1)  Genetische Anweisungen des Virus infiltrieren dann die Wirtszelle, sodass sie neue Viren herstellt, verpackt und mit diesen schlussendlich explodiert.

(Nebenbei notiert: P681R bezieht sich auf den Austausch eines Arginins (R) gegen ein Prolin (P) an Position 681 im Spike-Protein und resultiert aus einer einzelnen RNA-Basenänderung. Das Spike-Protein ist eine Kette von 1273 Aminosäuren – daher stammt der ursprüngliche Name des Moderna-Impfstoffs, mRNA- 1273.)

Abbildung3: Die Struktur des SARS-CoV-2 Spike-Proteins in einer Präfusions-Konformation (Code 6VSB). Strukturanalyse mittels Kryoelektronenmikroskopie bei 3,46 Angstrom Auflösung.(Bild von Redn. eingefügt, Quelle: Datenbank  https://www.rcsb.org/3d-view/6VSB/1,)

DiePosition 681 im Spike-Protein ist auch deshalb von Interesse, weil sie ein Ziel für ein proteinschneidendes Enzym namens Furin ist. Abbildung 3. Die „Furin-Spaltungsstelle“ ist von zentraler Bedeutung für die „Laborleck“-Hypothese zum Ursprung des Virus.

Die 4 Aminosäuren lange Stelle in der Spitze, an der Furin schneidet, bildet eine Signatur, die mittels Algorithmen zwischen den verschiedenen Spezies verglichen wird, um daraus die Entwicklung des neuartigen Coronavirus abzuleiten. Furin-Spaltungsstellen wurden in bestimmten Typen von Coronaviren gefunden, die von Nagetieren oder Fledermäusen stammten, aber nicht in den nächsten bekannten Verwandten von SARS-CoV-2; so kam die Idee eines im Labor hergestellten Fledermaus-Coronavirus auf, das dann zu SARS-CoV-2 führte. Oder aber: wir haben die nächsten verwandten Virustypen nur noch nicht identifiziert. Die Wissenschaft bietet nie einen festen Beweis und häuft selten Befunde zu umfassenden Theorien an. Stattdessen untersuchen wir alternative Hypothesen - eine nach der anderen -, um Wissen zu vermehren und neue Fragen zu stellen.

Fazit

Gelten die in in der heutigen Publikation in Nature Communications beschriebenen Ergebnisse des Popkonzert-Experiments, die ausreichende Belüftungs- und Hygienemaßnahmen zur Eindämmung der Virusausbreitung bei Massenversammlungen in Innenräumen proklamierten, auch in der Welt der Delta-Variante? Wie werden es Maßnahmen im Bereich der öffentlichen Gesundheit für noch kommende Varianten halten? Was werden ähnliche Simulationen ergeben, wenn das Publikum nach dem Impfstatus analysiert wird, etwas, das vor einem Jahr noch nicht möglich war?

Wir wissen es nicht. Aber eines wissen wir mit Sicherheit: Mutation und Evolution sind Naturgewalten, die wir nicht kontrollieren können. Neue Mutationen werden aus Replikationsfehlern entstehen, sich zu sogenannten Varianten kombinieren und Populationen positiver natürlicher Selektion durchlaufen, wenn sie für das Virus von Vorteil sind, wie es für die P681R-Mutation in der Delta-Variante der Fall ist.

Da wir die Kräfte der Natur nicht ändern können, müssen wir mit den Waffen, die wir bereits haben, alles einsetzen, was möglich ist – Impfstoffe, Distanzierung, Masken. Aber um gesund zu bleiben, denke ich, dass es gut ist, ab und zu einen Hauch von Normalität zu erleben.

--------------------------------------------------

[1] Stefan Moritz et al., The risk of indoor sports and culture events for the transmission of COVID-19. Nat Commun 12, 5096 (19.8.2021). https://doi.org/10.1038/s41467-021-25317-9.


* Der Artikel ist erstmals am 19.August 2021 in PLOS Blogs - DNA Science Blog unter dem Titel "Returning to Live Music and How a Tiny Mutation Sent Delta All Over the World" https://dnascience.plos.org/2021/08/19/returning-to-live-music-and-how-a-tiny-mutation-sent-delta-all-over-the-world/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Passende Abbildungen und Legenden wurden von der Redaktion eingefügt.


Artikel zum Thema COVID-19 im ScienceBlog:

Vom Beginn der Pandemie an waren bis jetzt 36 Artikel (rund 50 % aller Artikel), darunter 5 Artikel von Ricki Lewis, diesem Thema gewidmet. Die Links zu diesen Artikeln finden sich im Themenscherpunkt Viren.


 

inge Thu, 26.08.2021 - 18:56

Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren

Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren

Do, 12.08.2021 - — Vinzenz Kletzinsky

Vinzenz KletzinskyIcon Wissenschaftsgeschichte Am 23. November 1871 hat der Mediziner und Chemiker Vinzenz Kletzinsky im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" über die auch heute noch nicht eindeutig beantwortete Frage "Was ist Leben" gesprochen. Bereits in seinem 1858 erschienenen "Compendium der Biochemie"[1], das heute leider unter die forgotten books zählt, hatte er das Thema behandelt. Er hat damals als Erster den Begriff "Biochemie" geprägt und ist- bei dem mageren Wissensstand der damaligen Zeit - zu erstaunlichen Schlussfolgerungen gelangt. Wie im Compendium gliedert sich der Vortrag in zwei Teile: in die "Chemie der biochemischen Atome und in die Stofflehre der biochemischen Prozesse". Oder, wie es Kletzinsky auch ausdrückt: die Lehre vom Stoff des Lebens und die Lehre vom Leben des Stoffes. Der Artikel erscheint unter dem Namen des Autors, auf Grund der Länge aber in gekürzter Form*.

Vinzenz Kletzinsky, Compendium der Biochemie (1858), p.1

Die Chemie des Lebensprocesses

Ich habe die Ehre, den diesjährigen Zyklus der Vorträge mit der Chemie des Lebensprozesses zu eröffnen. Da tritt an uns die geheimnisvolle Frage heran:

               Was ist eigentlich Leben?

Das Leben im engeren Sinne des Wortes, nämlich das organische Leben, ist ein innerlicher Stoffwechsel unter äußerer Anregung im beharrenden Individuum. Jedes dieser Merkmale ist unerlässlich für den Begriff. Im weitesten Sinne des Wortes kann man Stoffwechsel überhaupt Leben nennen.

Abbildung 1. Vinzenz Kletzinsky (1826-1882), österreichischer Chemiker und Pathologe. Lithographie von Eduard Kaiser, 1861. (Bild:https://www.europeana.eu/en/item/92062/BibliographicResource_1000126190609). Rechts: Titelblatt des Vortrags im Jahrbuch in Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien, 12, 1 - 18. https://www.zobodat.at/pdf/SVVNWK_12_0001-0018.pdf)

Dieses organische Leben hat schon durch Jahrtausende immer mit denselben Atomen gearbeitet; das, was der eigentliche Stoff ist, bleibt unzerstörbar und wandelt sich nur. Die Elemente, in welchen sich das organische Leben vollzieht sind ziemlich beschränkter Zahl (Abbildung 2); von den Elementen überhaupt, die heute bekannt sind, wird vielleicht die fortschreitende Wissenschaft einige streichen, andere Elemente wieder hinzufügen, jedoch so viel ist gewiss, dass die Zahl derselben heutzutage 60 übersteigt.

Abbildung 2. Mit der Analytik von 1858 ("und nach neuesten Bestimmungen corrigirten Äquivalentzahlen") war der Großteil, der im Organismus vorkommenden Elemente bereits nachgewiesen.(Bild von Redn. eingefügt ausCompendium der Biochemie (1858), p.20)

Kohlenstoff

Vor allen ist ein Element näher zu bezeichnen, welches den eigentlichen Impuls zur organischen Bildung gibt und dieses Element ist der Kohlenstoff. Derselbe ist vor allen übrigen Elementen mit der bewunderungswürdigen Eigenschaft begabt, äußerst lang gegliederte Ketten zu bilden, während dies bei übrigen Stoffen in weit minderem Maße der Fall ist, annähernd höchstens noch bei Stickstoff und Sauerstoff. Da sich nun diese Ketten der Kohlenstoffatome mit Wasserstoff, Sauerstoff, Stickstoff verbinden, so entsteht dadurch eine ungeheure Fülle von Permutationen und ein zahlloses Heer von organischen Verbindungen.

Außer den genannten Körpern nehmen an organischen Verbindungen noch Teil „Schwefel und Phosphor", welche, obwohl in untergeordnetem Maße, doch in den wichtigsten Körpern und Verbindungen vorkommen: bei jenen Verbindungen, in welchen sich das Geheimnis des Lebensprozesses vollzieht, bei jenen, welche am allerzersetzlichsten sind. Je minder stabil eine Verbindung ist, desto energischer dient sie dem Leben und gerade die unverwüstbaren Stoffe der Mineralchemie sind dem Leben feind.

Oxydation - Reduktion - Gärung

Was geschieht nun mit diesen Elementen? In dieser Beziehung müssen wir das Leben in zwei große Prozesse auseinanderhalten.

  Das Leben ist entweder ein fortlaufender Oxydationsprozess oder ein  Reduktionsprozess. In beide Prozesse aber spielt die Gärung hinein.

Die Oxydation ist das Prototyp des tierischen Lebens, die Reduktion das Urbild des Pflanzenlebens; die Gärung ist in beiden zu Hause. Aus dieser eigenen Durchdringung von Oxydation und Gärung entsteht das tierische Leben, aus der Durchdringung von Reduktion und Gärung entsteht das Pflanzenleben. (Anm. Redn.: Unter Gärung ist eigentlich enzymatische Katalyse zu verstehen. Louis Pasteur hatte 1862 die für die Gärung verantwortliche "vitale Kraft = Fermente" in der Hefezelle nachgewiesen. 1877 hat Wilhelm Kühne für Ferment den aus dem Griechischen stammenden Begriff für "in der Hefe" = "Enzym" geprägt.)

Oxydation ist nun die Verbindung organischer Stoffe mit Sauerstoff, welche wir speziell Verwesung (d.i. Verbrennung; Anm. Redn.) nennen. Reduktion ist der entgegengesetzte Prozess; es ist die Loslösung des Sauerstoffes aus den Oxyden und die Rückgewinnung von sauerstoffärmeren Verbindungen.

Während also der eine Prozess webt, trennt der andere wieder auf und beide ergänzen sich.

Man könnte den Lebensprozess ganz leicht studieren,

wenn man ganz genau im Stande wäre, die richtigen Faktoren in Bezug auf Quantität und Qualität zu treffen.

Denkt man sich ein Aquarium, mit allem Nötigen versehen, mit Kalk, Bittererde, Eisenoxyd, damit alle zum Leben unentbehrlichen Stoffe vorhanden sind und mit einer Fülle von Wasser versehen, über welchem eine Schichte atmosphärischer Luft ist, welche wieder Kohlensäure, Ammoniak und außer Staub und Sporen noch Stickstoff und Sauerstoff enthält. Setzen wir nun in dieses Aquarium eine Wasserpflanze, die leicht, rasch und sicher gedeiht. Diese Pflanze trifft alles, was sie braucht; sie zieht aus der Atmosphäre Wasser, Kohlensäure, Ammoniak, welche Stoffe die organische Nahrung der Pflanze sind; die Pflanze nimmt dieselben auf und reduziert daraus Stoffe, die weniger Sauerstoff haben als Kohlensäure.

Bei diesem Leben der Pflanze wird unter dem Einfluss des Lichtes, welches zum Gedeihen der organischen Schöpfung unentbehrlich ist, aus der Kohlensäure Sauerstoff zurückgegeben und darum ist die Pflanze eine reduzierende Potenz. Die Pflanze ist also in unserem Aquarium für ihr erstes Gedeihen gesichert.

Setzen wir nun in dasselbe etwa eine Schnecke, welche bekanntlich diese Pflanzen abweidet, so wird dieselbe auch alle Bedingungen ihres Gedeihens vorfinden, sie hat Sauerstoff zum Atmen, sie hat die von der Pflanze bereiteten Eiweißstoffe, Zucker, Gummi, mit einem Wort Proteine und Kohlenhydrate zur Nahrung, dadurch entsteht ein neuer Leib des Tieres, eine Partie des alten Leibes geht zu Grunde, wird ausgeworfen und lässt sich unter dem Titel „kohlensaures Ammoniak" (Ammoniumcarbonat, Anm. Redn.) summieren.

Die pflanzenfressenden Tiere ersetzen uns also vollständig, was die Pflanze verbraucht und Pflanzen ersetzen uns, was das Tier veratmet. "Wir müssen aber die weitere Entwicklung des Tieres zur Pflanze im richtigen Verhältnis halten; da sich aber die Tiere zu schnell vermehren und mehr verbrauchen würden, als die Pflanze liefert, so setzen wir in das Aquarium einen Fleischfresser, der die übermäßige Entwicklung des Pflanzenfressers im Zaume hält; könnte man die richtigen Verhältnisse genau einhalten, so würde man im Kleinen das erzielen, was die Natur im Großen zeigt.

Wie gesagt: es muss von der Pflanzenwelt das von der gesamten Tierwelt erzeugte kohlensaure Ammoniak aufgenommen werden und umgekehrt verarbeiten in demselben Verhältnisse die Tiere den von den Pflanzen hergegebenen Sauerstoff. Dadurch ist es erklärlich, dass sich im Laufe von Jahrtausenden in der Atmosphäre nichts geändert hat. Wenn man bedenkt, wie viele tausend und abertausend Tier- und Menschengenerationen über die Erde gegangen, wie viele Atmungsprozesse stattgefunden, welch' ungeheure Quantitäten von Sauerstoff verzehrt wurden, wenn man ferner in Betracht zieht, dass trotz alledem doch kein Abgang bemerkbar ist, so ist dies nur dadurch erklärlich, dass die Pflanze es ist, welche das, was Feuer und Tiere verzehren, wieder ersetzt, welche die Atmosphäre rein erhält.

Vor einer ungeheuren Anzahl von Jahren muss die Luft sehr kohlensäurereich gewesen sein, was uns die damals entstandenen Riesentange beweisen, eben dadurch wurde aber auch die Luft ungeheuer sauerstoffreich und dieser eigentümliche Reiz des Freiwerdens des Sauerstoffes hat auf eine uns unbekannte Weise die Tierzelle geboren, erzeugt und gestaltet. So ist das Thier allmählich auf die Welt gekommen, als es bereits die Bedingungen zu seinem Lebensprozesse vorfand.

CO2-Assimilation, Photosynthese & Atmung

Wenn man reines kohlensaures Gas, gleichviel auf welche Weise bereitet, in einem dünnen, durchsichtigen Zylinder auffängt, über Quecksilber absperrt, durch dieses ein Büschel frisch gepflückter Blätter hineinsteckt und diese Vorrichtung 6—12 Stunden dem direkten Sonnenlichte aussetzt, kann man entschieden Sauerstoff nachweisen. Der Sauerstoff ist aus Kohlensäure durch Vermittlung des lebenden Pflanzengrün's unter dem Einflüsse des Sonnenlichtes entstanden. Nur das grüne, blaue, violette Licht besitzt diese Fähigkeit.

Dass sämtliche Tiere Sauerstoff atmen; ist heute evident bewiesen, gleichviel, ob die Tiere durch Lungen, Kiemen, Tracheen oder durch die Haut atmen, immer wird Sauerstoff aufgenommen und Kohlensäure abgegeben. Jede Stelle unserer lebenden Haut gibt fortwährend Kohlensäure ab und nimmt dafür Sauerstoff ein; selbst der losgelöste Muskel, der auf den Hacken des Fleischers hängt, dunstet Kohlensäure aus und nimmt Sauerstoff auf. Es ist dies die echte, tierische Erbsünde, die allen Tieren anklebt.

Diese Sättigung mit Sauerstoff ist das eigentliche Triebrad des tierischen Lebens.

Dieser Sauerstoff, der auf immer welchem Wege die innere Bahn des Körpers betritt, wird zunächst von eigentümlichen Zellen aufgenommen, die im Allgemeinen „Blutkörperchen" heißen, welche namentlich bei höheren Tierklassen in ihrer einzelnen Form studiert sind; diese Zellen verschlucken den Sauerstoff und sind dazu bestimmt, den Sauerstoff in die inneren Körperbahnen überall hinzuführen. Das Zucken einer Muskelfaser ist nicht denkbar ohne gleichzeitige Gegenwart von Sauerstoff; sobald ein Nerv nicht mit Sauerstoff in Berührung kommt, kann er nicht mehr der Leiter des Willens und der Rückleiter der Empfindungen sein. Nimmt man auch nur momentan den Sauerstoff weg, so ist der Nerv taub, das Glied ist tot.

Dadurch lernen Sie eine neue Klasse furchtbarer Gifte für das tierische Leben kennen, nämlich solche Körper, welche im Stande sind, allen Vorrat an Sauerstoff unserem Körper zu entziehen. Wir Alle haben jetzt in unserem Körper einen gewissen Vorrat an Sauerstoff, mit dem wir auch ohne zu atmen, eine gewisse Zeit hindurch leben könnten, 3 Minuten wird wohl jeder Mensch aushalten, besonders glücklich organisierte Naturen könnten auch 10 Minuten leben, ohne eine neue Zufuhr an Sauerstoff. Würde nun nicht nur der vorhandene Vorrat verbraucht, sondern auch zugleich die Möglichkeit, neuen Sauerstoff anzuschaffen, abgebrochen sein, dann ist es mit dem Leben aus und nun stehe ich vor der erschreckenden Wirkung der Blausäure.

Diese Säure ist sehr flüchtig, sie eilt sehr rasch auf der Wanderung durch die ganze Blutbahn mit dem Blute in alle Provinzen des Körpers, nimmt den Sauerstoff, wohin sie kommt, für sich in Beschlag und vernichtet zunächst mit heimtückischer Gewalt die Fähigkeit der Blutkörperchen, neuen Sauerstoff aufzunehmen. Ohne Sauerstoff-Aufnahme kann kein Nerv empfinden und den Willen leiten, kein Muskel kann zucken, keine Zelle arbeiten, keine Drüse Saft bereiten. Alles ist gelähmt.

Pflanzen betreiben Photosynthese und atmen

Es ist merkwürdig, dass mit dieser für alles tierische Leben maßgebenden Potenz, nämlich mit der Oxydation, auch die Pflanze ihr dunkles Leben im Mutterschoß der Erde beginnt; während die entwickelte Pflanze, die mit der Axe zum Licht strebt, unter dem Einfluss des Lichtes gerade das entgegengesetzte treibt, nämlich Sauerstoff rückgibt und Kohlensäure einhaucht, ist ihr Same in der feuchten, dunklen Erde dazu verurteilt Sauerstoff aufzunehmen, Kohlensäure rückzugeben. Dies geschieht jedoch wie gesagt nur im Dunkeln; das Keimen der Pflanzensamen ist ein analoger Akt, wie das tierische Leben: ein Oxydationsprozess. Die Oxydation bildet also im tierischen Leibe die Hauptbedingung des Lebens, die Reduktion im Pflanzenleibe. In beide Prozesse bohrt sich die Gärung ein.

Die Gärung ist eine Spaltung großer, vielgliedriger Atomketten in kleinere Bruchteile,

welche Spaltung unter dem Einfluss der sogenannten Hefe erfolgt, einer eigentümlichen Zelle, die den Trieb hat, weiter zu wachsen unter fortwährender Aufnahme von Kohlensäure (Gärung = enzymatische Katalyse, siehe Kommentar Redn. oben). Ein wunderschönes Beispiel einer solchen komplizierten Gärung liefert uns die Leber. Vor Allem macht es die Gärung klar, wie es möglich ist, dass aus einem und demselben Blute die verschiedenartigsten Organe ernährt werden - die Niere, das Gehirn, die Milz, die Leber. Ebenso kann man aus einer und derselben Zuckerlösung: Weingeist durch Zugabe von Presshefe, Buttersäure durch Zusatz von Quark, Milchsäure durch Zusatz von Pflanzeneiweiß erzeugen; je nach der Verschiedenheit der Hefe wird derselbe Zucker anders gespalten, dieselbe Atomkette wird anders zerrissen.

Die Ursache, warum aus demselben Blut ganz andere Stoffe entstehen, beruht auf der Verschiedenheit der Zelle. Die Gehirnzelle ist eine Hefe, die sich selbst wieder aus Blut erzeugt; befindet sich dasselbe Blut unter dem Einfluss der Milzhefe, erzeugt sich Milzzelle. Auch sind die Nebenprodukte dieser Prozesse andere. Die Leberzelle erhält eigentümliches, dunkles, dickes Blut zur Vergärung; das sogenannte Pfortaderblut. Diese Ader verästelt sich in der Schleimhaut des Darmes und saugt den gleichsam rohen Nahrungssaft auf; was von diesem Saft die Milchsaftgefässe nicht aufnehmen, nimmt die Pfortader auf und damit die Masse nicht roh in den allgemeinen Kreislauf gerät, wird sie in die Leber geworfen; der Zelleninhalt der Leberzelle kommuniziert mit dem Pfortaderblut; dasselbe vergärt unter dem Einfluss der Leberzelle.

In jedem Organ müssen fortwährend neue Zellen gebildet werden, weil die alten zu Dutzenden vergehen; die Leber ernährt sich; geschieht dies nicht, so erfolgt der Schwund der Leber, eine furchtbare Krankheit. Alles Organische muss ewig vergehen und neu entstehen; das Leben besteht im Wechsel.

Die Leber ist ein zuckerbildendes Organ, wenn auch Ihre Nahrung keine Spur von Zucker enthält; Zucker ist dennoch ein Gärungsprodukt der Leber; ferner entsteht die Galle, welche ebenfalls eine Absonderung der Leber ist, sie ist eine gefärbte Seife, die bei der Verdauung eine wesentliche Rolle spielt. Endlich wird das Leber-Venenblut durch die Lebervene abgeführt, während die von der Leber erzeugte Galle in die Gallenblase zusammensickert, welche einen Ausführungsgang besitzt, der sich in den Dünndarm ergießt, allwo die Galle die wichtige Rolle der Verdauung der Fettstoffe erfüllt.

Wenn man einem Hunde die Gallenblase entfernt, geht alles Fett seiner Nahrung unverändert ab; er ist nicht im Stande, Fett zu verdauen.

Der Kreislauf des organischen Lebens

Aus dieser wunderbaren Durchdringung des Oxydationsprozesses und der Gärung im Tierreich und der Reduktion und Gärung im Pflanzenreiche entwickelt sich der große Prozess des organischen Lebens, der in der Jugend der Entwicklung mit der Massenvermehrung einhergeht, dann sich eine Weile auf dem Normale konserviert, und endlich, dem Gesetze alles Organischen folgend, abnimmt, wobei endlich seine Masse zum Anorganismus zurückkehrt als Staub, sich verflüchtigt als kohlensaures Ammoniak und neuerdings dienstbar wird dem Pflanzenleben; die Pflanze tritt wieder auf, erzeugt neuerdings Stoffe für's Tierleben und in dieser Weise ergänzt sich von selbst der Kreislauf.

Man hat die Pflanze als einen im Anorganismus wurzelnden Apparat zu betrachten, welcher die Fähigkeit besitzt, Nahrungsstoffe für das Tierleben zu erzeugen. Es gilt für alle Tiere als Gesetz, dass sie fertige Eiweißstoffe aufnehmen müssen, da kein tierischer Körper solche erzeugen, sondern nur umbilden kann; die Pflanzen müssen diese Stoffe aus dem Anorganismus, aus Luft und Boden schaffen. Selbst die Gewebebildung im Tierleibe ist nur eine Oxydation; und so ist das ganze Tierleben eine fortlaufende Oxydation, die mit der Rückgabe von Kohlensäure und Ammoniak an die Luft endet, von wo die Pflanzen wieder beginnen und den ewigen Kreislauf der organischen Schöpfung vollenden.

 

[1] Vinzenz Kletzinsky, Compendium der Biochemie, 1858, in dem erstmals der Begriff "Biochemie" aufscheint. ((https://www.digitale-sammlungen.de/en/view/bsb10073084?page=4,5, open access, C0, keine kommerzielle Nutzung)


* Abbildungen in dem gekürzten Artikel und Untertitel wurden von der Redaktion eingefügt; die ursprüngliche Schreibform wurde in die jetzt übliche geändert. Der Originaltext kann nachgelesen werden unter: KLETZINSKY Vinzenz Prof. (1872): Die Chemie des Lebensprocesses. — Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 12: 1-18.https://www.zobodat.at/pdf/SVVNWK_12_0001-0018.pdf


 Zum Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien:

Der Paläologe und Geologe Eduard Suess war maßgeblich an der Gründung des auch heute noch existierenden Vereins im Jahre 1860 beteiligt und dessen erster Präsident. Im Rahmen dieses Vereins wurden frei zugängliche, populäre Vorträge gehalten; diese waren „lediglich naturwissenschaftlichen Fächern entnommen, der Kreis von Vortragenden hat fast ausschließlich aus jüngeren Fachmännern bestanden.“

Dazu im ScienceBlog:

Redaktion, 26.12.2014: Popularisierung der Naturwissenschaften im 19. Jahrhundert.


 

inge Thu, 12.08.2021 - 18:54

Erdoberfläche - die bedrohte Haut auf der wir leben

Erdoberfläche - die bedrohte Haut auf der wir leben

Do, 05.08.2021 — Gerd Gleixner

Icon Boden

Gerd Gleixner Das Überleben der Menschen auf der Erde hängt von der Funktionsfähigkeit der äußersten Schicht unseres Planeten, der „kritischen Zone“, ab. Im Anthropozän hat der Mensch durch sein Handeln in den Stoffaustausch zwischen Organismen und den Ökosystemsphären eingegriffen und bedroht dadurch die Funktionsweise der kritischen Zone. Wie verringern Biodiversitätsverluste die kontinentale Kohlenstoffspeicherung und beschleunigen so den Klimawandel? Die organische Bodensubstanz ist die letzte große Unbekannte im terrestrischen Kohlenstoffkreislauf. Prof. Dr. Gerd Gleixner, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie (Jena) untersucht Ursprung, Umsatz und Stabilität der organischen Substanz in Böden mit speziellem Fokus auf die Welt der Bodenmikroorganismen, da hier der molekulare Antrieb der globalen Stoffkreisläufe verborgen ist.*

Das Leben der Menschen auf der Erde hängt von der Funktionsfähigkeit der äußersten Schicht unseres Planeten - ihrer Haut - ab. Sie reicht von den erdnahen Schichten der Atmosphäre über die verschiedenen Ökosysteme der Erdoberfläche bis hin zu den unterirdischen Grundwasserleitern und wird „kritische Zone“ genannt. In ihr geben sich die Kreisläufe der Bioelemente Wasserstoff, Kohlenstoff, Stickstoff, Sauerstoff, Phosphor und Schwefel ein Stelldichein. Angetrieben durch die Sonne, wird Wasser verdunstet und aufs Land transportiert, wo es als Grundlage allen Lebens benötigt wird.

Pflanzen nutzen die Sonne und das Wasser, um Kohlendioxid der Atmosphäre zu reduzieren und zusammen mit Nährstoffen wie Stickstoff und Phosphor Biomasse aufzubauen. Sie wird wieder durch Mikroorganismen zersetzt und steht so für einen neuen Kreislauf zur Verfügung. Der Mensch hat durch die Verbrennung fossiler Brennstoffe, Düngung, Landnutzung und Landnutzungsänderungen in die Kreisläufe der kritischen Zone eingegriffen. Die Folgen sind offensichtlich: Klimawandel und Biodiversitätsverlust sind zu Schlagworten unsere Zeit geworden. Erstmals in der langen Erdgeschichte tritt der Mensch als global entscheidender Faktor auf und leitet durch sein Handeln das neue Erdzeitalter des Anthropozäns ein. Wir untersuchen, wie die kritische Zone der Erde - ihre Haut - funktioniert, um ihre bedrohte Funktionsfähigkeit sicherzustellen.

Unsichtbare Helfer

Wie unsere menschliche Haut, ist auch die irdische kritische Zone von einer Gemeinschaft unterschiedlichster Mikroorganismen besiedelt. Während sie auf der menschlichen Haut vor Krankheiten schützen und wichtige Stoffumsetzungen durchführen, ist die Rolle der Mikroorganismen für Stoffkreisläufe in der kritischen Schicht der Erde bislang wenig untersucht. Den Mikroorganismen im Boden kommt jedoch eine entscheidende Rolle bei der Speicherung von Kohlenstoff als organische Bodensubstanz zu [1]. Bisher nahm man an, dass Mikroorganismen lediglich für den Abbau von organischer Bodensubstanz zuständig sind und die Speicherung von Kohlenstoff im Boden nur darauf beruht, dass er nicht vollständig abgebaut werden kann. Mithilfe natürlich vorkommender Isotope konnten wir nachweisen, dass aus den Resten der verdauenden Mikroorganismen organische Bodensubstanz gebildet wird. Der Boden funktioniert also wie das Verdauungssystem der kritischen Zone. Dabei werden die mikrobiellen Auf- und Abbauprozesse stark von den Bedingungen von Temperatur, Feuchte, Nahrungsangebot, Nährstoffangebot und Oberflächeneigenschaften der mineralischen Bodenbestandteile bestimmt. Ist zum Beispiel zu wenig Stickstoff im Boden vorhanden, wird dieser durch mikrobiellen Abbau aus organischer Bodensubstanz gewonnen. Wird aber zu viel davon erzeugt oder durch Düngung zugeführt, kann er mikrobiell in gasförmigen Stickstoff umgewandelt werden, der aus dem Boden entweicht und als Lachgas zur Erderwärmung beiträgt.

Dabei werden die Mikroorganismen durch Umweltreize aktiviert. Wir konnten zeigen, dass ein und derselbe Prozess von ganz verschieden Mikroorganismen durchgeführt wird [2]. Welcher Mikroorganismus und welche Kooperationspartner aktiviert werden, hängt von den Rahmenbedingungen ab. In unseren Versuchen wurden pflanzliche und mikrobielle Biomasse erwartungsgemäß von unterschiedlichen Bakterien abgebaut.

Abbildung 1. Mikrobielle Redundanz im System Pflanze-Mikroorganismen-Boden: Unterschiedliche Organismen stellen Stickstoff aus abgestorbenen Wurzeln, abgestorbenen Mikroorganismen und anorganischen Stickstoff für den Austausch mit pflanzlichem Kohlenstoff bereit, je nachdem, ob symbiontische Pilze oder saprophytische Pilze im System dominieren. AM: arbuskuläre Mycorrhiza - Pilze leben in Symbiose mit den Wurzelzellen; NM: Nicht-Mycorrhiza - Pilze leben saprophytisch = von abgestorbenen Material (© verändert nach Chowdhury et al. 2020; Lizenz: cc-by-nc-nd)

Je nachdem ob symbiotische oder nicht-symbiotische Pilze vorhanden waren (siehe Abbildung 1), waren unterschiedliche Bakterien bei demselben Abbauprozess involviert. Das funktionelle Zusammenspiel und die hier beschriebene funktionelle Redundanz der verschiedenen Mikroorganismen erklärt, warum Gemeinschaften von Bodenmikroorganismen in ihrer Funktionsweise kaum verstanden sind. Die Forschungslücke, welchen Einfluss diese unsichtbaren Helfer auf die kritische Zone haben, ist signifikant.

Ringelreihen, Tanz zu zweien, dreien, vielen

Nicht nur im Unsichtbaren spielen sich solche Interaktionen zwischen mikrobiellen Arten ab. Im weltweit größten Langzeit-Biodiversitätsexperiment, dem Jena Experiment, wurden im Jahr 2002 Versuchsflächen mit 1, 2, 4, 8, 16, 32 und 64 Pflanzen angelegt, um das Zusammenspiel zwischen Pflanzen, anderen Arten und den Stoffkreisläufen untersuchen. Das Experiment sollte klären, wie viele Arten notwendig sind, um die Funktionsfähigkeit des Systems aufrecht zu erhalten. Die Ergebnisse sind eindeutig:

    Mehr Arten sichern einerseits die Funktionsfähigkeit des Systems ab, da jede Art unterschiedliche Eigenschaften mitbringt. Diese helfen besonders nach extremen Ereignissen wie Überflutung oder Trockenheit bei der Regeneration des (Öko-)Systems.

    Andererseits ergänzen sich verschiedene Arten auch in ihren Funktionsweisen, und Artenmischungen erzeugen mehr Biomasse, speichern mehr Kohlenstoff und Stickstoff im Boden und erhalten größere Nahrungsnetzwerke als die entsprechende Summe aus Einzelkulturen ergeben würde (Buzhdygan et al. 2020).

Die Mischungen vieler Arten sind demnach nicht nur gefälliger, sie sichern auch die Funktionsweise der kritischen Zone ab.

Tiefer schauen, um mehr zu verstehen

Die fördernden Interaktionen zwischen den Arten finden im Verborgenen- unter der Erdoberfläche - statt und sind mit einfachen Methoden nicht zu ergründen. Mit ultrahoch-auflösender Massenspektrometrie verfolgten wir den Stoff- und Energieaustausch zwischen dem Boden, den Mikroorganismen und den Pflanzen.

Dank langjähriger Zusatzunterstützung durch Förderer der Max-Planck-Gesellschaft wie der Zwillenberg-Tietz Stiftung konnten wir neue Verfahren entwickeln (Roth et al. 2019) [4] und zeigen, dass gelöste organische Verbindungen im Bodenwasser – nicht wie bisher angenommen - Abfälle der Stoffumsätze sind, sondern ganz im Gegenteil das Kommunikationsmittel des Bodens darstellen und chemische Informationen über Pflanzen, Mikroorganismen und den Boden enthalten (siehe Abbildung 2). Derzeit verschneiden wir unsere und andere „omische“ Datensätze mit Stoffwechseldatenbanken, um den chemischen Code vollständig zu knacken.

Abbildung 2. Entschlüsselung des molaren Codes von gelöstem organischen Kohlenstoff: Die alte Theorie der Rekalzitranz ging vom Überbleib nicht abbaubarer Substanzen aus, wohingegen die neue Theorie der Persistenz von einem kontinuierlichen Ab-, Um- und Aufbau von Molekülen ausgeht. Identische Moleküle können aus verschieden Quellen wie Pflanzen oder Mikroorganismen stammen und so Stabilität beziehungsweise Rekalzitranz vortäuschen.© verändert nach (Roth et al. 2019).

Besondere Hoffnungen liegen auf Zusatzinformationen, die wir aus intakten Molekülen der mikrobiellen Zellmembranen gewinnen (Ding et al. 2020) [5], da sie, in Verbindung mit Isotopenuntersuchungen, Rückschlüsse auf die Beteiligung der einzelnen Arten am Stoff- und Energieaustausch ermöglichen und uns so erlauben, den Stoffwechsel der Kritischen Zone und seine Regulation zu verstehen.


Literaturhinweise

[1] Lange, M., et al., (2015) Plant diversity increases soil microbial activity and soil carbon storage. Nature Communications, 6: 6707. https://doi.org/10.1038/ncomms7707

[2] Chowdhury, S., et al., (2020) Nutrient Source and Mycorrhizal Association jointly alters Soil Microbial Communities that shape Plant-Rhizosphere-Soil Carbon-Nutrient Flows. bioRxiv:2020.2005.2008.085407.

[3] Buzhdygan, O. Y., et al., (2020) Biodiversity increases multitrophic energy use efficiency, flow and storage in grasslands.Nature Ecology & Evolution, 4, 393-405. https://doi.org/10.1038/s41559-020-1123-8

[4] Ding, S., et al., (2020) Characteristics and origin of intact polar lipids in soil organic matter. Soil Biology and Biochemistry, 151: 108045.  https://doi.org/10.1016/j.soilbio.2020.108045

[5]. Roth, V. N., et al., (2019) Persistence of dissolved organic matter explained by molecular changes during its passage through soil. Nature Geoscience, 12(9), https://doi.org/10.1038/s41561-019-0417-4


*Der vorliegende Artikel von Gerd Gleixner ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel "Die bedrohte Haut auf der wir leben" https://www.mpg.de/16312732/bgc_jb_2020?c=152885 erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und des Autors von ScienceBlog.at weiterverbreitet werden. Text und Abbildungen wurden unverändert übernommen (in der Legende zu Abbildung 1 wurde eine kleine Ergänzung von der Redaktion eingefügt).


Weiterführende Links

Max-Planck-Institut für Biogeochemie, https://www.bgc-jena.mpg.de/index.php/Main/HomePage/

W2 Forschungsgruppe Molekulare Biogeochemie (Gerd Gleixner)  https://www.bgc-jena.mpg.de/www/uploads/Groups/MolecularBiogeochemistry/FactSheets_Gleixner_de_July2013.pdf

Das Jena Experiment (2017), Video 8:50 min, https://www.youtube.com/watch?v=yQSe6a2LBYM

Klima – der Kohlenstoffkreislauf. MaxPlanck Society, Video 5:25 min. https://www.youtube.com/watch?v=KX0mpvA0g0c

------------------------------------------------------------------------------

Einige Artikel zu verwandten Themen im ScienceBlog

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt

Knut Ehlers, 01.04.2016: Der Boden ein unsichtbares Ökosystem

Rattan Lal, 11.12.2015: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Rattan Lal, 04.12.2015: Der Boden – Grundlage unseres Lebens

Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher

Redaktion, 26.06.2015: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um

Gerhard Glatzel, 04.04.2013 Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)


 

inge Thu, 05.08.2021 - 01:02

Biodiversität - Den Reichtum der Natur verteidigen

Biodiversität - Den Reichtum der Natur verteidigen

Do, 29.07.2021 — IIASA

IIASA Logo Icon Biologie

Mit den Fortschritten der Menschheit ist es zum Niedergang von Millionen anderer Spezies im Tier- und Pflanzenreich gekommen. An einem für die bedrängte Natur entscheidenden Zeitpunkt zeigen Forschungsergebnisse des IIASA, dass wir den Verlust der biologischen Vielfalt noch umkehren können. Dies wird allerdings einen groß angelegten Einsatz erfordern - darauf konzentriert, wo man den größten Nutzen erzielen kann. Zu dem enorm wichtigen Thema haben wir bereits im vergangenen September einen Bericht des IIASA gebracht [1]; hier folgt nun der aktualisierte Status zur Wiederherstellung der Biodiversität.*

Der Reichtum der Natur im Niedergang

Pflanzen und Tiere sind unsere Nahrung, sie stabilisieren das Klima, filtern Luft und Wasser, versorgen uns mit Treibstoff und Arzneimitteln. Abbildung 1.

Abbildung 1. Artenvielfalt und genetische Vielfalt in den Arten erhalten/wiederherstellen - fast alle Länder sind dem Übereinkommen über die biologische Vielfalt beigetreten, die Erfolge lassen auf sich warten.

 

Der Fortschritt der Menschheit hat den Rückzug von Millionen anderer Spezies mit sich gebracht. Lebensräume werden durchfurcht und zubetoniert; Umweltverschmutzung erstickt Ökosysteme; Überfischung durchkämmt die Meere; der Klimawandel bringt Dürren und durcheinander gebrachte Jahreszeiten. Selbst aus zynischer, menschenzentrierter Sicht zeichnet sich eine Katastrophe ab.

Jahrzehntelanger Einsatz für den Naturschutz hat nur begrenzten Erfolg erbracht. Fast jedes Land ist dem Übereinkommen über die biologische Vielfalt (Convention on Biological Diversity ; CBD) beigetreten, einem Vertrag, der 2010 zwanzig Biodiversitätsziele festlegte. Bis zum Stichtag 2020 wurden jedoch nur sechs dieser Ziele teilweise erreicht. Im 2019 IPBES Global Assessment Report on Biodiversity and Ecosystem Services heißt es: „Die Biodiversität ... nimmt schneller ab als je zuvor in der Geschichte der Menschheit.“

Die Kurve - den Trend - umdrehen

Die IIASA-Forschungsergebnisse lassen uns hoffen, dass wir die Dinge ändern können – allerdings wird dies nicht einfach sein. Eine richtungweisende Studie unter der Leitung des IIASA-Forschers David Leclère hat Modelle erstellt, wie verschiedene Strategien die Landnutzung verändern könnten und wie sich dies auf verschiedene Aspekte der biologischen Vielfalt, beispielsweise das Artensterben auswirken würde. Abbildung 2.

Ein Szenario nimmt an, dass die Schutzgebiete auf 40 % der Landfläche des Planeten (von aktuell 15 %) ausgeweitet und 5 Millionen km2 degradiertes Land wiederhergestellt sind. Laut Studie sollten sich die Trends der Biodiversität um die Mitte des Jahrhunderts verbessern – aber viele Regionen würden dann immer noch schwere Verluste und steigende Lebensmittelpreise verzeichnen und damit das Ziel der UN, den Hunger zu beenden, untergraben.

Ein optimistischeres Bild ergibt sich, wenn wir auch Angebot und Nachfrage nach Nahrungsmitteln einbeziehen, eine nachhaltige Steigerung der Ernteerträge und des Agrarhandels, sowie eine stärker pflanzenbasierte Ernährung und weniger Lebensmittelverschwendung einkalkulieren. Die Studie prognostiziert, dass dies die Biodiversitätstrends vor 2050 positiv verändern sollte, es würde mehr Land wieder hergestellt werden können, steigende Lebensmittelpreise verhindert, einschneidende Vorteile für das Klima erbracht und der Verbrauch von Wasser und Düngemitteln reduziert werden können.

Abbildung 2. Um den raschen Niedergang der terrestrischen Biodiversität umzukehren, bedarf es einer integrierten Strategie. Eine Abschätzung von gegenwärtigen und zukünftigen Trends der Biodiversität, die aus der Landnutzung resultieren; mit und ohne koordiniertem Einsatz von Strategien, um die Trends umzukehren. (Diese Abbildung wurde bereits in [1] gezeigt; Quelle: Leclère, et al. © Adam Islaam | IIASA.) >

Diese Informationen sind in erweiterter Form in einem Artikel aus dem Jahr 2020 zu finden [3]; Dutzende führende Forscher unter der Leitung von Sandra Diaz (Universität Cordoba, Argentinien) haben dazu beigetragen, darunter Piero Visconti, der die IIASA-Forschungsgruppe Biodiversität, Ökologie und Naturschutz leitet. Die Autoren schlagen unter anderem ergebnisorientierte Ziele für die Artenvielfalt und genetische Vielfalt innerhalb der Arten vor, zusammen mit Zielen, den Nettoverlust natürlicher Ökosystemflächen zu stoppen, deren Intaktheit sicherzustellen und, dass der Verlust eines seltenen Ökosystems nicht durch eine Zunahme in einem anderen Ökosystem ausgeglichen werden kann.

Plan B

Das Übereinkommen über die biologische Vielfalt (CBD) ist nun daran eine Strategie für das kommende Jahrzehnt zu entwickeln. Der Entwurf Global Biodiversity Framework (GBF) umfasst einige der Ideen, darunter ergebnisorientierte Biodiversitäts-Ziele, wie die Anzahl bedrohter Arten um einen bestimmten Prozentsatz zu reduzieren und die genetische Vielfalt zu erhalten. Fünf GBF-Aktionsziele für 2030 stimmen weitgehend mit den Maßnahmen im integrierten Szenario von Leclère überein [2]. Der GBF-Entwurf zitiert auch oft die Studie von Diaz et al.[3] – auch, wenn sich die Zielsetzungen noch nicht den Vorschlägen der Untersuchung entsprechend geändert haben, sagt Visconti. Laut Leclère muss der endgültige Rahmen, der im Oktober 2021 ratifiziert werden soll, sicherstellen, dass die nationalen Pläne mit den angestrebten globalen Zielen in Einklang stehen und Anstrengungen und Nutzen gerecht verteilt werden.

Der Entwurf könnte sich möglicherweise auch zu sehr auf gebietsbezogene Ziele stützen, wie etwa die Ausdehnung von Schutzgebieten auf 30 % der Land- und Meeresfläche. Geschützte Bereiche werden oft dort platziert, wo sie am wenigsten störend sind, anstatt dort, wo sie am effektivsten wären.

„Schauen Sie sich die durchschnittliche Höhenlage und Abgeschiedenheit der Nationalparks an. Diese tendieren dazu, hoch zu liegen und ausgedehnt zu sein; Fels und Eis“, bemerkt Visconti und fügt hinzu, dass für die Auswirkungen auf die biologische Vielfalt Qualität wichtiger als Quantität sei.

Konzentrierte Lösungen

Diese Einschätzung wird durch zwei aktuelle Studien unter Beteiligung von IIASA-Forschern bestätigt. Eine davon hat die Wiederherstellung von Ackerland und Weideland zurück in einen natürlichen Lebensraum untersucht [4]. Die Autoren haben umgewandeltes Land kartiert und die lokalen Auswirkungen der Renaturierung auf CO2 und das Risiko von Artensterben untersucht, wobei sie Felddaten von ähnlichen Standorten zugrunde legten. Anschließend haben sie die globalen Ergebnisse modelliert, wenn 15 % des gesamten umgewandelten Landes im Ausmaß von 4,3 Millionen km2 wiederhergestellt werden. Ein linearer Programmieralgorithmus hat die optimale Wahl von Standorten der Konversion bei verschiedenen Gewichtungen von Aussterberisiko, CO2 und Kosten getroffen. Das Szenario einer Renaturierung, das darauf abzielt, CO2 und Biodiversität zu optimieren, verhindert 60 % des ansonsten zu erwartenden Aussterbens und bindet fast 300 Gigatonnen CO2 - entsprechend etwa den globalen Emissionen von 7 Jahren bei der heutigen Rate.

Die zweite Studie unter der Leitung des IIASA-Forschers Martin Jung hat sich mit dem Naturschutz befasst und seine Auswirkungen auf die Artenvielfalt, den Kohlenstoff und die Bereitstellung von sauberem Wasser berechnet [5]. Im Gegensatz zu früheren Studien wurden hier nicht nur Tiere, sondern auch Pflanzen erfasst. Man kommt zu dem Schluss, dass die Bewirtschaftung von nur 10 % der weltweiten Landfläche den Erhaltungszustand von 46 % der Arten verbessern und 27 % des gespeicherten Kohlenstoffs und 24 % des sauberen Wassers bewahren kann. Eine detaillierte Karte der lokalen Vorteile zeigt, wo die Menschen den größten Nutzen aus ihrem Einsatz für den Naturschutz erzielen können. Abbildung 3.

Abbildung 3. Gebiete mit globaler Bedeutung für Biodiversität, CO2-Bindung und sauberes Wasser. Die drei Güter sind gleich gewichtet und nach höchster Priorität (1 - 10 %) bis niedrigster Priorität (90 -100 %) für die globale Erhaltung gereiht (Bild: Jung et al.,[5]; cc-by-nc-nd) >

Der Zustand der Natur

Daten zur Biodiversität sind für die Kampagne von wesentlicher Bedeutung, solche sind aber oft nur spärlich vorhanden. „Insbesondere für Afrika und Südamerika fehlt eine riesige Menge an Daten“, sagt Ian McCallum, Leiter der IIASA-Forschungsgruppe Novel Data Ecosystems for Sustainability. Diese Gruppe will die Situation verbessern, unter anderem durch Einbeziehen neuer Datenquellen wie Citizen Science, Aufzeichnungen durch Drohnen und LIDAR-Daten von Satelliten und Flugzeugen.

„Wir verwenden statistische Techniken, um Daten zu harmonisieren, um alles zusammenzuführen“, sagt McCallum.

McCallum leitet auch das Vorhaben Interessensgruppen in das EU-Projekt EuropaBON (Europa Biodiversity Observation Network: integrating data streams to support policy) einzubinden; dieses europäische Rahmenwerk zur Überwachung der biologischen Vielfalt hat das Ziel, kritische Lücken in den Daten zu identifizieren [6]. Auch wenn Europa diesbezüglich besser erfasst ist als der Großteil der Welt, gibt es immer noch viele weiße Flecken – insbesondere in aquatischen Lebensräumen – und dieses Projekt will dazu beitragen, Methoden zur Eingliederung von Daten voranzutreiben.

„In datenreichen Gebieten kann man Techniken entwickeln, die dann ausgebaut und global genutzt werden können“, bemerkt er.

Wurzeln der Biodiversität

Ein solides theoretisches Verständnis könnte Datenlücken schließen und politikorientierte Modelle realistischer machen. Ein Ziel ist es zu verstehen, warum manche Ökosysteme so artenreich sind.

„Alle Fragen nach dem "Warum" in der Biologie finden eine Antwort in der Evolution“, erklärt Ulf Dieckmann, Senior Researcher im IIASA Advancing Systems Analysis Program; Diekmann hat 25 Jahre am IIASA damit verbracht die adaptive dynamische Theorie zu entwickeln, eine Form der Systemanalyse, die Ökologie und Evolution verbindet.

Ein bemerkenswerter Erfolg dieses Ansatzes besteht darin, zu zeigen, wieso die Pflanzen des Regenwalds so vielfältig sein können. Nach der Nischentheorie adaptiert sich jede Art, um in eine spezifische Rolle/Position eines Ökosystem zu passen. Tiere konkurrieren um verschiedene Nahrungsmittel, was viele Nischen schafft; alle Pflanzen haben aber nur eine Nahrungsquelle, das Sonnenlicht. Nischenmodelle hatten deshalb voraussagt, dass Regenwälder nur wenige Baumarten und nur eine schattentolerante Spezies haben sollten. Echte Wälder haben jedoch viele Schattenbewohner, was die Nischentheorie in Frage stellt.

Dieckmann hat an einem realistischeren Modell gearbeitet, das Pflanzenphysiologie, Ökologie und Evolution kombiniert [7]. Für Arten ist es möglich, zwei variable Merkmale zu haben (Höhe bei Reife und Blattdicke). Wenn Baumfällungen oder Feuer ein neues Waldstück erschließen, wandern schnell wachsende Besiedler ein, gefolgt von langsam wachsenden. Im Modell führt die Evolution zu einer Vielzahl von schattentoleranten Baumarten mit leicht unterschiedlichen Eigenschaften. Es zeigt auch eine realistische Pflanzenvielfalt in Wäldern der gemäßigten Zone, in Buschland und bewaldeten Flussufern. Diese Art von Einblicken könnte die Naturschutzarbeit beeinflussen.

„Man könnte fragen, welche ökologischen Prozesse intakt bleiben müssen, um die Biodiversität zu erhalten?“ sagt Dieckmann. Pflanzen konkurrieren auch um Wasser, und der IIASA-Forscher Jaideep Joshi untersucht, wie sich dies auf die Artenvielfalt auswirkt. „Noch ambitioniertere öko-evolutionäre Modelle werden Topografie, Bodenmikrobiome und andere Faktoren berücksichtigen“, fügt Dieckmann hinzu.

Integrierte Modelle der Zukunft

Biodiversität ist nicht nur ein wünschenswertes Ergebnis an sich, sondern beeinflusst auch andere Systeme wie beispielsweise die Widerstandsfähigkeit der Wälder, die erhalten bleibt und damit die Bindung von CO2 generiert. IIASA baut ein neues integriertes Biosphärenmodell, iBIOM, auf, das einige dieser Effekte erfassen könnte, beispielsweise die Rolle der Insektenbestäubung in Hinblick auf die Ernteerträge.

Als Teil eines umfassenden Modellierungsrahmens, der derzeit am IIASA in Entwicklung ist, wird iBIOM dazu verwendet werden, um das komplexe Zusammenspiel zwischen Klima und Biodiversität zu erforschen.

„Das ist eine gewaltige Herausforderung“, sagt Leclère.

Zum einen müssen die Modelle die Landnutzung sehr detailliert erfassen, beispielsweise welche Wirkung der Anbau verschiedener Pflanzenarten auf die Speicherung von CO2 hat. Aber der Nutzen könnte auch enorm sein und aufzeigen, welche Optionen zum Klimaschutz die besten in Hinblick auf Biodiversität sind – eine Hilfe für uns die Vision der CBD 2050 zu erfüllen, im Einklang mit der Natur zu leben.


[1] IIASA, 10.09.2020: Verlust an biologischer Vielfalt - den Negativtrend umkehren

[2] Leclere, D., et al. (2020). Bending the curve of terrestrial biodiversity needs an integrated strategy. Nature 585 551-556. 10.1038/s41586-020-2705-y. (accepted version, Lizenz: cc-by-nc)

[3] Díaz, S. et al. (2020). Set ambitious goals for biodiversity and sustainability. Science 370 (6515) 411-413. 10.1126/science.abe1530

[4] Strassburg, B.B.N., et al. (2020). Global priority areas for ecosystem restoration. 10.1038/s41586-020-2784-9

[5] Jung, M.,  et al. (2020). Areas of global importance for terrestrial biodiversity, carbon, and water (Submitted)

[6] EuropaBON: Europa Biodiversity Observation Network: integrating data streams to support policy.  https://cordis.europa.eu/project/id/101003553/de

[7] Falster, D., et al., (2017). Multitrait successional forest dynamics enable diverse competitive coexistence. Proceedings of the National Academy of Sciences 114 (13) 2719-2728. 10.1073/pnas.1610206114 (accepted version, Lizenz: cc-by-nc)


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel von Stephen Battersby ist am 17. Juni 2021 im Option Magazin des IIASA unter dem Titel: "Defense of the natural realm" https://iiasa.ac.at/web/home/resources/publications/options/s21-defense-of-the-natural-realm.html erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

IIASA :  https://iiasa.ac.at/

Convention on Biological Diversity; homepage: https://www.cbd.int/

inge Thu, 29.07.2021 - 00:34

Komplexe Schaltzentrale des Körpers - Themenschwerpunkt Gehirn

Komplexe Schaltzentrale des Körpers - Themenschwerpunkt Gehirn

Do, 23.07.2021 — Redaktion

RedaktionIcon Gehirn

  Seit den Anfängen von ScienceBlog.at gehört das Gehirn zu unseren wichtigsten Themen. Rund 10 % aller Artikel - d.i. derzeit mehr als 50 Artikel - befassen sich mit unterschiedlichen Aspekten zu Aufbau, Funktion, Entwicklung und Evolution des Gehirns und - basierend auf dem Verstehen von Gehirnfunktionen - mit Möglichkeiten bisher noch unbehandelbare Gehirnerkrankungen zu therapieren. Die bisherigen Artikel sind nun in einem Schwerpunkt zusammengefasst, der laufend ein Update erfahren soll.  

Vor Verletzungen, Stößen und Erschütterungen durch starke Schädelknochen und die Einbettung ins Hirnwasser (Liquor cerbrosinalis) geschützt, ist das empfindliche, weiche Gehirn ununterbrochen damit beschäftigt Wahrnehmungen und Reize aus der Umwelt und aus dem Körper zu verarbeiten. Rund 86 Milliarden unterschiedliche Neuronen (die meisten davon im Kleinhirn) sind über 1000 Billionen Synapsen verkabelt; die entsprechenden Nervenfasern weisen insgesamt eine Länge von über 5 Millionen km auf. Sie bestimmen was wir wahrnehmen, was wir fühlen, was wir denken, woran wir uns erinnern, wie wir lernen und wie wir schlussendlich (re)agieren.

Die zweiten zellulären Hauptkomponenten des Gehirns-zahlenmäßig etwa gleich viele wie Neuronen - sind unterschiedliche Typen sogenannter Gliazellen. Ursprünglich als inaktiver Kitt zwischen den Neuronen betrachtet, weiß man nun, dass Gliazellen wesentlich in die Funktion des Gehirns involviert sind - Oligodendrozyten in die Ausbildung der Myelinscheide, die als Isolator die Axone ummantelt, Mikroglia fungieren als Immunabwehr, Astrozyten regulieren u.a. das Milieu im extrazellulären Raum.

Neue Verfahren

haben in den letzten Jahrzehnten der Hirnforschung einen außerordentlichen Impetus gegeben. Mit Hilfe bildgebender Verfahren und hochsensitiver Färbetechniken ist es nun möglich, den Verlauf einzelner Neuronen samt aller ihrer Verbindungen und dies auch dynamisch zu verfolgen. (Dazu im ScienceBlog: Das Neuronengeflecht entwirren - das Konnektom)

Abbildung 1. Reise durch das menschliche Gehirn - Visualisierung des Verlaufs von Nervenbahnen mittels Diffusions Tensor Traktographie (ein Kernspinresonanz-Verfahren, das die Diffusionsbewegung von Wassermolekülen in Nervenfasern misst). Oben: Nervenfaserbündel im Limbischen System (links) und visuelle Nervenfasern von den Augen zum Hinterhauptslappen (rechts).Unten: Nervenbündel des Corpus callosum (grün, links), die die Kommunikation zwischen den Hirnhälften ermöglichen und viele Nervenbündel, die kortikale und subkortikale Regionen verbinden (links, rechts). Screen Shots aus einem preisgekrönten Video. Die Farben zeigen den Verlauf der Nervenfasern(Hauptrichtung der Diffusion); rot: von links nach rechts, grün: von vorn nach hinten, blau: von oben nach unten. (Quelle: Francis S. Collins (2019) https://directorsblog.nih.gov/2019/08/20/the-amazing-brain-mapping-brain-circuits-in-vivid-color/*)

Beispielsweise ist die Diffusions Tensor Traktographie ein Kernspinresonanz-Verfahren, das die Diffusionsbewegung von Wassermolekülen in Nervenfasern, d.i. in den Axonen, misst und so deren Position und Verlauf dreidimensional abbilden kann, also von wo nach wo Informationen fließen können. Das nicht-invasive Verfahren liefert sowohl der Grundlagenforschung (u.a. im Connectome-Projekt) als auch der medizinischen Anwendung - hier vor allem zur präoperativen Bildgebung von Gehirntumoren und Lokalisierung von Nervenschädigungen - grundlegende Informationen. Abbildung 1.

Optogenetik - von der Zeitschrift Nature als Methode des Jahres 2010 gefeierte Strategie - benutzt Licht und genetisch modifizierte, lichtempfindliche Proteine als Schaltsystem, um gezielt komplexe molekulare Vorgänge in lebenden Zellen und Zellverbänden bis hin zu lebenden Tieren sichtbar zu machen und zu steuern. (Dazu im ScienceBlog: Optogenetik erleuchtet Informationsverarbeitung im Gehirn)

Mit Hilfe der Positronenemissionstomographie (PET) kann nichtinvasiv der Hirnstoffwechsel dargestellt und krankhafte Veränderungen mittels der gleichzeitig durchgeführten Computertomographie (CT) lokalisiert werden.

Internationale Großprojekte

Eine enorme Förderung hat die Hirnforschung durch längerfristige internationale Initiativen erfahren wie das von 2013 bis 2022 laufende europäische Human Brain Project , für das rund 1,2 Milliarden € veranschlagt sind und an dem mehr als 500 Wissenschafter von über 140 Universitäten und anderen Forschungseinrichtungen zusammenwirken (https://www.humanbrainproject.eu/en/about/overview/). Das Ziel ist das gesamte Wissen über das menschliche Gehirn zusammenzufassen und es mittels Computermodellen auf allen Ebenen von Molekülen, Genen, Zellen und Funktionen nachzubilden. In der nun angelaufenen letzten Phase des Projekts sollen vor allem die Netzwerke des Gehirns, deren Rolle im Bewusstsein und künstliche neuronale Netzwerke im Fokus stehen.

Abbildung 2. "Neuroscience Fireworks". Zur Feier des „Independence Day“ in den US am 4. Juli zeigt Francis S. ein Feuerwerk von Neuronen in verschiedenen Hirnarealen der Maus. Mittels Lichtscheibenfluoreszenzmikroskopie wird eine 3D-Auflösung in zellulärem Maßstab erreicht: man sieht die rundlichen Zellkörper und die davon ausgehenden Axone, welche die Signale weiterleiten. Links oben: Der Fornix - Nervenfasern, die Signale vom Hippocampus (Sitz des Gedächtnisses) weiterleiten. Rechts oben: Der Neocortex - Zellen im äußeren Teil der Großhirnrinde, die multisensorische, mechanische Reize weitergeben . Links unten: Der Hippocampus - die zentrale Schaltstelle des limbischen Systems. Rechts unten: Der corticospinale Trakt, der motorische Signale an das Rückenmark weiterleitet. (Quelle: Video von R. Azevedo, S. Gandhi, D. Wheeler in https://directorsblog.nih.gov/2021/06/30/celebrating-the-fourth-with-neuroscience-fireworks/*).

Eine weiteres, mit 1,3 Milliarden $ gefördertes 10-Jahres Programm ist The Brain Initiative https://braininitiative.nih.gov/ . Es wird von den US National Institutes of Health (NIH) realisiert und läuft von 2016 bis 2025. In den ersten Jahren wurde hier der Fokus auf neue Technologien gelegt, die nun angewandt werden, um die Aktivitäten aller Zellen im lebenden Hirn zu erfassen, die biologische Basis mentaler physiologischer und pathologischer Prozesse zu verstehen und darauf aufbauend therapeutische Anwendungen für bislang unbehandelbare Hirnerkrankungen zu schaffen.

Francis S. Collins, Direktor der NIH, hat in seinem Blog kürzlich ein faszinierendes Video gepostet, das Lichtscheibenfluoreszenzmikroskopie anwendet (für hohe Auflösung werden dabei nur sehr dünne Gewebeschichten ausgeleuchtet), um Neuronen in verschiedenen Gehirnarealen der Maus darzustellen. Abbildung 2 zeigt einige Screenshots dieser "Neuroscience Fireworks" (Collins).

Ein Meilenstein wurde kürzlich im Allen Institute for Brain Science in Seattle erreicht: Ein Kubikmillimeter Mäusehirn mit rund 100 000 Neuronen und 1 Milliarde Synapsen wurde anhand von mehr als 100 Millionen Bildern digitalisiert und kartiert.


*Die Wiedergabe von im NIH Director’s Blog erschienenen Artikeln/Inhalten von Francis S.Collins wurde ScienceBlog.at von den National Health Institues (NIH) gestattet.


Das Gehirn - Artikel im ScienceBlog

Komponenten

Susanne Donner, 08.04.2016: Mikroglia: Gesundheitswächter im Gehirn

Reinhard Jahn, 30.09.2016: Wie Nervenzellen miteinander reden

Inge Schuster, 13.09.2013: Die Sage vom bösen Cholesterin

Inge Schuster, 08.12.2016: Wozu braucht unser Hirn so viel Cholesterin?

Nora Schultz, 24.12.2020: Myelin ermöglicht superschnelle Kommunikation zwischen Neuronen

Hinein ins Gehirn und heraus

Redaktion, 06.02.2020: Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?

Redaktion, 19.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen

Informationsverarbeitung

Michael Simm, 06.05.2021: Das Neuronengeflecht entwirren - das Konnektom

Wolf Singer, 05.12.2019: Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Wolf Singer & Andrea Lazar, 15.12.2016: Die Großhirnrinde, ein hochdimensionales, dynamisches System

Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Ruben Portugues, 22.04.2016: Neuronale Netze mithilfe der Zebrafischlarve erforschen

Nora Schultz, 20.02.2020: Die Intelligenz der Raben

Körper - Hirn

Francis S. Collins, 15.07.2016: Die Muskel-Hirn Verbindung: Training-induziertes Protein stärkt das Gedächtnis

Nora Schultz, 31.10.2019: Was ist die Psyche

Ilona Grunwald Kadow, 11.05.2017: Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern

Francis S. Collins, 17.10.2019: Projektförderung an der Schnittstelle von Kunst und Naturwissenschaft: Wie trägt Musik zu unserer Gesundheit bei?

Jochen Müller, 19.11.2020: Warum essen wir mehr als wir brauchen?

Francis S. Collins, 25.01.2018: Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas

Nora Schultz, 02.06.2018: Übergewicht – Auswirkungen auf das Gehirn

Redaktion, 29.06.2017: Mütterliches Verhalten: Oxytocin schaltet von Selbstverteidigung auf Schutz der Nachkommen

Schmerz

Gottfried Schatz, 30.8.2012: Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält

Nora Schultz, 10.11.2016: Vom Sinn des Schmerzes

Manuela Schmidt, 06.05.2016: Proteinmuster chronischer Schmerzen entziffern

Susanne Donner, 16.02.2017: Placebo-Effekte: Heilung aus dem Nichts

Schlaf

Henrik Bringmann, 25.05.2017: Der schlafende Wurm

Niels C. Rattenborg, 30.08.2018: Schlaf zwischen Himmel und Erde

Sinneswahrnehmung

Dazu existiert ein eigenerSchwerpunkt: Redaktion, 25.04.2014: Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt

Susanne Donner, 11.01.2018: Wie real ist das, was wir wahrnehmen? Optische Täuschungen

Michael Simm, 24.01.2019: Clickbaits - Köder für unsere Aufmerksamkeit

Erkrankungen

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Inge Schuster, 24.06.2016: Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz, 03-07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich

-----------------------------------------------

Redaktion, 22.03.2018: Schutz der Nervenenden als Strategie bei neuromuskulären Erkrankungen

Ricki Lewis, 02.11.2017: Ein modifiziertes Poliovirus im Kampf gegen bösartige Hirntumoren

Gottfried Schatz, 26.07.2012: Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?

Nora Schultz, 15.12.2017: Multiple Sklerose - Krankheit der tausend Gesichter

Francis S. Collins, 15.01.2021: Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Hans Lassmann, 14.07.2011: Der Mythos des Jungbrunnens: Die Reparatur des Gehirns mit Stammzellen

Entwicklung, Evolution

Nora Schultz, 11.06.2020: Von der Eizelle zur komplexen Struktur des Gehirns

Susanne Donner, 05.08.2016: Wie die Schwangere, so die Kinder

Nora Schultz, 19.08.2017: Pubertät - Baustelle im Kopf

Redaktion, 03.08.2017: Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?

Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrag

Nora Schultz, 25.10.2018: Genies aus dem Labor

IngeSchuster, 12.12.2019; Transhumanismus - der Mensch steuert selbst siene Evolution

--------------------------------------------------

Philipp Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Christina Beck, 20.05.2021: Alte Knochen - Dem Leben unserer Urahnen auf der Spur


 

Weiterführende Links

dasGehirn.info (https://www.dasgehirn.info/) eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Einige Videos von dieser Plattform:

  • Das Connectome. dasGehirnInfo. Video 7:08 min. 01.05.2021. https://www.youtube.com/watch?v=puiEfrzRTto
  • Neuron ≠ Neuron. das Gehirn.info. Video 4:41 min. 1.12.2020. https://www.youtube.com/watch?v=fel3lOrPXpQ&t=252s
  • Die Welt der Gliazellen. das Gehirn.info. Video 3:37 min. https://www.youtube.com/watch?v=BGUpadTW3DE

.

The Brain Research Through Advancing Innovative Neurotechnologies® (BRAIN) https://braininitiative.nih.gov/  Initiative is aimed at revolutionizing our understanding of the human brain


 

inge Fri, 23.07.2021 - 18:30

Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen

Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen

Do, 15.07.2021 — Martin Kaltenpoth Martin KaltenpothIcon Biologie

Das Unkrautvernichtungsmittel Glyphosat hemmt die Biosynthese der Aminosäuren Tyrosin, Phenylalanin und Tryptophan (den sogenannten Shikimatweg), die in Pflanzen und vielen Mikroorganismen, nicht aber in Tieren vorkommt. Insekten, die mit Bakterien in Symbiose leben, können von diese mit solchen Nährstoffen versorgt werden. In einer aktuellen Studie zeigt nun ein Team um Prof. Martin Kaltenpoth (Max-Plack-Institut für chem. Ökologie, Jena, Universität Mainz und AIST, Japan) am Beispiel des Getreideplattkäfers, dass Glyphosat indirekt über die Hemmung des bakteriellen Partners auch die Entwicklung des Insekts schädigt, dem nun die Bausteine zur Bildung des Außenskeletts (Kutikula) fehlen [1]. Auf diese Weise dürfte Glyphosat zum dramatischen Rückgang auch vieler anderer Insekten beitragen, die au f die Symbiose mit Bakterien angewiesen sind.* 

Zu Glyphosat: Fünf Fragen an Martin Kaltenpoth

Host Rösch: Herr Kaltenpoth, Sie haben in Ihrer Studie gezeigt, dass Glyphosat Getreideplattkäfern schadet. Einer anderen Studie zufolge wirkt sich die Substanz negativ auf Honigbienen aus. Welche Insekten konnten noch betroffen sein?

Martin Kaltenpoth: Im Detail wissen wir das noch nicht. Aber Glyphosat könnte vielen Insekten schaden, die auf Symbiosebakterien angewiesen sind. Dazu zählen Arten, die sich von Pflanzensäften ernähren, also zum Beispiel Blattläuse, Zikaden oder Wanzen. Aber auch viele Käfer-, Bienen- und Ameisenarten beherbergen Symbionten und könnten von Glyphosat betroffen sein.

H.R.: Glyphosat galt als ein reines Pflanzenvernichtungsmittel. Warum wirkt es auch auf Insekten?

M.K.: Es hemmt den sogenannten Shikimat-Stoffwechsel, mit dem Pflanzen unter anderem aromatische Aminosäuren herstellen. Abbildung 1.

Abbildung 1: Biosynthese der aromatischen Aminosäuren Tryptophan, Tyrosin und Phenylalanin ausgehend von Phosphoenolpyruvat (Metabolit der Glykolyse) und Erythrose-4-Phosphat (Metabolit des Pentosephosphatwegs) über den vielstufigen Shikimatweg. Links: Glyphosat blockiert den ersten Schritt dieses Wegs auf Grund seiner chemischen Ähnlichkeit mit Phosphoenolpyruvat. Rechts: der Wirtsorganismus liefert dem Symbionten Glukose-6-phosphat und versorgt diesen mit den aromatischen Aminosäuren (Bild von der Redn. eingefügt).

Aber nicht nur Pflanzen, sondern auch manche Bakterien und Pilze nutzen diesen Stoffwechselweg. Insekten, die ihren Bedarf an aromatischen Aminosäuren wie dem Tyrosin nicht mit ihrer Nahrung decken können, beherbergen Bakterien in speziellen Organen für die Aminosäure-Produktion. Sie leben mit diesen in Symbiose. Glyphosat wirkt auf diese Mikroben wie ein Antibiotikum: Nachdem die Insekten das Gift über die Nahrung aufgenommen haben, verteilt es sich im Körper und tötet die innerhalb der Zellen der Symbioseorgane lebenden Bakterien. Abbildung 2. Ohne ihre Partner fehlt den Insekten das Tyrosin für die Bildung des Außenskeletts. Die Folge ist, dass sie schneller austrocknen und leichter von Feinden gefressen werden können. Bei den Bienen schädigt das Mittel nicht Bakterien in Symbioseorganen, sondern in der Darmflora. Die Bienen werden dadurch anfälliger für Krankheitserreger.

Abbildung 2: Der Getreideplattkäfer (Oryzaephilus surinamensis), der in enger Symbiose mit Bakterien vom Stamm Bacteroidetes lebt. Unten: Längsschnitt durch die 5 Tage alte Puppe des Käfers zeigt Organe, welche die Symbionten enthalten (mit Fluoreszenzfarbstoff markiert, purpurfarben). Weiße Punkte: Dapi-markierte Zellkerne. (Bild von Redn, eingefügt; oben aus Wikipedia Clemson University - USDA Cooperative Extension Slide Series, Bugwood.org - http://www.insectimages.org/browse/detail.cfm?imgnum=1435099. Unten: aus [1], Kiefer et al., https://doi.org/10.1038/s42003-021-02057-6. Beide Bilder stehen unter cc-Lizenz).

H.R.: Glyphosat ist seit Jahrzehnten auf dem Markt. Worauf musste man in Zukunft bei der Zulassung von Pestiziden achten, um die Auswirkungen auf andere Organismen frühzeitig zu erkennen?

M.K.: Man sollte die Wirkung von Pestiziden in Zukunft an einer größeren Anzahl unterschiedlicher Arten testen. Insekten sind eben nicht alle gleich, und was die eine Art toleriert, kann der anderen massiv schaden. Außerdem wissen wir heute, dass die Fokussierung auf die mittlere letale Dosis – also die Konzentration, bei der die Hälfte der Testorganismen stirbt – nicht ausreicht. Die Hersteller von Pestiziden müssen Effekte stärker berücksichtigen, die nicht direkt zum Tod führen. Zum Glück findet diese Erkenntnis bei der Risikobewertung zunehmend Beachtung.

H.R.: Auch für uns Menschen sind die Mikroorganismen lebenswichtig. Welche Folgen könnten Rückstande des Pestizids für unsere Darmflora haben?

M.K.: Auch manche Bakterien im menschlichen Darm nutzen den Shikimat-Stoffwechsel. Sie könnten also durchaus von Glyphosat beeinträchtigt werden. Studien haben nachgewiesen, dass das Mittel die Darmflora von Mäusen und Ratten in für Menschen als akzeptabel angenommenen Konzentrationen beeinflussen kann. Ob eine Glyphosat-bedingte Veränderung der Darm-Mikrobiota möglicherweise auch für Menschen Folgen hat und, wenn ja, welche, ist noch unklar.

H.R.: Bislang ging man davon aus, dass sich Glyphosat allenfalls indirekt auf Insekten auswirkt, indem es zum Beispiel ihre Nahrungspflanzen vernichtet. Angesichts der neuen Erkenntnisse: Könnte das Mittel ein Grund für das grassierende Insektensterben sein?

M.K.; Das Insektensterben hat sicherlich verschiedene Ursachen. Klar ist aber, dass viele Insekten Symbiosebakterien zum Überleben brauchen. Ich befürchte daher, dass Glyphosat zum Rückgang der Insekten beitragen könnte. Deshalb halte ich den weiteren Einsatz auch für bedenklich. Wenn wir aber auf Pestizide verzichten wollen, dann müssen wir über Alternativen diskutieren, zum Beispiel über den Einsatz gentechnisch veränderter Pflanzen. Leider findet diese Diskussion derzeit kaum statt.

Das Gespräch hat Dr. Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] Julian Simon Thilo Kiefer et al., Inhibition of a nutritional endosymbiont by glyphosate abolishes mutualistic benefit on cuticle synthesis in Oryzaephilus surinamensis. Communications Biology, https://doi.org/10.1038/s42003-021-02057-6


*Das Interview mit Martin Kaltenpoth ist im Wissenschaftsmagzin-MaxPlanckForschung 02/2021 https://www.mpg.de/17175805/MPF_2021_2 unter: „Fünf Fragen zu Glyphosat an Martin Kaltenpoth“ erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle von ScienceBlog.at weiterverbreitet werden. Der Text wurde unverändert übernommen, zwei Abbildungen (plus Legenden) wurden von der Redaktion eingefügt.


Weiterführende Links

Max-Planck-Institut für Chemische Ökologie (ice.mpg; Jena): https://www.ice.mpg.de/ext/index.php?id=home0&L=1

Ergänzung des Interviews (ice.mpg): "Die Achillesferse eines Käfers: Glyphosat hemmt symbiotische Bakterien von Getreideplattkäfern" (11.Mai 2021) https://www.ice.mpg.de/ext/index.php?id=1686&L=1


 

inge Wed, 14.07.2021 - 23:55

Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Do, 08.7.2021 — Redaktion

RedaktionIcon Medizin

  Die Entstehung von Antibiotika-resistenten Bakterien, die derzeit bereits rund 700 000 Menschen jährlich töten und der Mangel an neuen wirksamen Antibiotika hat das Interesse an einer Phagentherapie wieder aufleben lassen. Worum es dabei geht hat und dass diese Therapieform leider noch in den Kinderschuhen steckt, hat die renommierte Virologin Karin Moelling vor zwei Jahren im ScienceBlog berichtet [1, 2]. Nun entwickelt das französische Unternehmen Pherecydes Pharma - unterstützt durch das EU-Projekt PhagoProd – verbesserte qualitätskontrollierte Verfahren zur Selektion, Produktion und klinischen Anwendung von Phagen. Ein weiteres EU-Projekt BactiVax möchte Infektionen vorbeugen und Vakzinen gegen geeignete Zielproteine an der Bakterienoberfläche entwickeln.* 

Anlässlich seines Nobelpreisvortrags über die Entdeckung des Penicillins im Dezember 1945 hat Dr. Alexander Fleming davor gewarnt, dass Bakterien gegen das Medikament resistent werden könnten, sofern sie nicht tödlichen Mengen ausgesetzt würden. „Es ist nicht schwierig, Mikroben im Labor gegen Penicillin resistent zu machen, indem man sie Konzentrationen aussetzt, die nicht ausreichen, um sie abzutöten, und das gleiche ist gelegentlich im Körper passiert“, sagte er.

Seine Warnung erwies sich als weitblickend. Heutzutage sind viele Bakterien gegen mehrere Antibiotika resistent und damit infizierte Patienten daher schwer zu behandeln. Dies passiert, weil Bakterien bei Anwendung von Antibiotika Wege entwickeln, um deren Wirkung zu eliminieren, zu blockieren oder zu umgehen.

Die Folgen für die menschliche Gesundheit sind schwerwiegend. Jedes Jahr sterben schätzungsweise 700.000 Menschen an antibiotikaresistenten Keimen. Die Weltgesundheitsorganisation (WHO) prognostiziert, dass bis 2050 an die 10 Millionen Todesfälle pro Jahr erreicht werden, wenn sich nichts ändert [3].

Erschwerend kommt hinzu, dass wir neue Antibiotika nicht schnell genug entwickeln. Von 43 in der Entwicklung befindlichen Antibiotika handelt es sich laut einer aktuellen WHO-Überprüfung nicht um neuartige Medikamente, die eine Gruppe von prioritären arzneimittelresistenten Bakterien adäquat bekämpfen. Tatsächlich wurde seit den 1980er Jahren keine neue Klasse von Antibiotika auf den Markt gebracht, die die problematischsten Bakterien bekämpft, die meistens einer Gruppe von sogenannten Gram-negativen Bakterien angehören.

„Die niedrig hängenden Früchte sind bereits gepflückt. Jetzt wird es mehr und mehr schwierig neue Antibiotika zu entdecken“, sagte Dr. Guy-Charles Fanneau de la Horie, CEO von Pherecydes Pharma, einem Biotech-Unternehmen in Frankreich.

Eine Alternative zur Suche nach neuen Medikamenten ist die Verwendung von Viren, die als Bakteriophagen (oder Phagen) bezeichnet werden und deren Opfer Bakterien sind. Abbildung 1. Sobald Phagen auf Bakterien landen, injizieren sie diesen ihre DNA und replizieren sich in ihnen. Bald platzen daraus ganze Virushorden hervor, um weitere Bakterien zu infizieren.

Abbildung 1.Bakteriophagen (oder Phagen) erbeuten Bakterien. Sobald Phagen auf Bakterien landen, injizieren sie ihnen DNA und replizieren sich in ihnen. Bildnachweis - ZEISS Microscopy, lizenziert unter CC BY-NC-ND 2.0

Keimtötende Viren

Pherecydes, das Unternehmen von Dr. de la Horie, ist auf die Herstellung solcher Phagen fokussiert und deren Anwendung an Patienten, die mit arzneimittelresistenten Bakterien infiziert sind. Seine Phagen töten drei Bakterienarten, die für ihre Resistenz gegen sogenannte first-line Antibiotika bekannt sind – Staphylococcus aureus, Escherichia coli und Pseudomonas aeruginosa. Dies sind die Hauptverantworlichen für viele arzneimittelresistente Infektionen in Krankenhäusern, wo ja die gefährlichsten Keime leben, merkt Dr. de la Horie an.

Die Anwendung von Phagenviren an Patienten sollte absolut sicher sein, da diese menschliche Zellen ja nicht angreifen. Und im Gegensatz zu vielen Antibiotika, die gegen Massen von Bakterienarten wirken, sind Phagen gezielter und töten keine „freundlichen“ Mikroben in unserem Darm. „Sie sind sehr spezifisch“, sagt Dr. de la Horie. „Beispielsweise hat ein Phage, der S. aureus abtötet, keine Wirkung auf Pseudomonas.“

Damit er eine präzise Waffe zur Abtötung entsprechender Bakterien ist, muss ein passender Phage sorgfältig ausgewählt werden. Dementsprechend hat Pherecydes den Kriterien der Qualitätskontrolle unterliegende Labors ("GMP-Konformität) etabliert, um Patientenproben zu analysieren, Problemkeime zu prüfen und einen spezifischen Phagen auszuwählen, um diese abzutöten.

„Wir haben eine kleine Anzahl von Phagen entdeckt, die wir Superphagen nennen, weil sie gegen eine Vielzahl von Stämmen derselben Spezies aktiv sind“, sagt Dr. de la Horie. Wenn ein Patient Pseudomonas aeruginosa hat, einen bösartigen Keim, der Patienten an Beatmungsgeräten häufig infiziert, werden Phagen angewandt, die mehr als 80% der Stämme abtöten

Die Phagentherapie ist von der Europäischen Arzneimittel-Agentur (EMA) noch nicht zugelassen. Pherecydes hat allerdings Patienten nach der Option „compassionate use“ mit Phagen behandelt, die nach Knie- oder Hüftoperationen Infektionen mit arzneimittelresistenten Bakterien entwickelten und bei denen andere Behandlungsmöglichkeiten versagten. Es sind dies Infektionen, die besonders schwer mit Antibiotika zu behandeln sind und kein gerade kleines Problem darstellen. „Zwischen 2 % bis 5 % der Gelenkersatzteile für Hüfte und Knie infizieren sich“, erklärt Dr. de la Horie.

Bis jetzt hat das Unternehmen mehr als 26 Patienten mit Phagen behandelt, hauptsächlich im Hospices Civils de Lyon (der sehr großen, zweiten Universitätsklinik Frankreichs). Berichte zeigen beispielsweise, wie dort drei ältere Patienten mit einer S. aureus-Infektion der Knieprothesen sowie ein Patient mit persistierender Pseudomonas-Infektion behandelt wurden. Es ist geplant, noch in diesem Jahr eine Studie zu Gelenkinfektionen nach Hüft- und Knieoperationen zu starten.

Außerdem hat das Unternehmen – unterstützt durch das EU-Projekt PhagoProd  [4]– verbesserte Herstellungsverfahren für Phagen entwickelt. Nun werden Litermengen hergestellt, es ist aber geplant, dies auf Chargen von mehreren zehn Litern zu erhöhen. Ein Milliliter in einer Flasche kann 10 Milliarden Phagen enthalten.

Dazu kommt: Wenn Phagen einem Patienten injiziert oder auf infiziertes Gewebe aufgebracht werden, vermehren sie sich in den Zielbakterien, sodass später mehr von ihnen zum Abtöten von Bakterien zur Verfügung stehen. „Sobald man die Phagen mit Bakterien in Kontakt gebracht hat, braucht man keine Phagen mehr zuzufügen, da sie sich selbst vermehren“, sagt Dr. de la Horie.

Dr. de la Horie hofft, dass 2023 eine große Patientenstudie beginnen kann. „Wir glauben, dass unsere Produkte frühestens 2024 oder vielleicht 2025 auf den Markt kommen könnten“, sagt er.

Vorbeugen, nicht heilen

Mit der Herausforderung antibiotikaresistenter Infektionen befasst sich auch BactiVax [5], ein weiteres EU-Projekt, zu dessen Zielen u.a. einer der Problemkeime – Pseudomonas aeruginosa – gehört. Abbildung 2. Anstatt Phagen oder andere Methoden anzuwenden, um Infektionen in ihrer Entstehung zu behandeln, setzen die BactiVax -Forscher jedoch auf Impfstoffe.

Abbildung 2.Das EU-Projekt Bactivax - Impfungen gegen Problemkeime. https://www.bactivax.eu/the-project

Pseudomonas peinigt Patienten auf der Intensivstation, Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) und Patienten mit Mukoviszidose.

Pseudomonas kann chronische Infektionen und auch schwere Infektionen verursachen. „Es ist ein ziemlich häufig vorkommender Keim, der manchmal auch nicht wirklich Schaden zufügt", sagt Irene Jurado, Doktorandin am University College Dublin in Irland, „aber für Menschen mit Grunderkrankungen kann er ein Problem sein.“

Wenn ein Kind mit Mukoviszidose im Alter von 5 oder 6 Jahren mit einigen solcher Stämme infiziert wird, kann der Keim ein Leben lang in der Lunge verbleiben, die Atmung schwierig machen und schwer krank machen, fügt sie hinzu.

Pseudomonas besitzt ein großes Genom, das ihm viel Flexibilität verleiht  sich an verschiedene Herausforderungen anzupassen (darüber hat Jurado kürzlich berichtet). Dies macht Pseudomonas besonders gewandt, um Antibiotikaresistenzen zu entwickeln. So haben Forscher zwar jahrzehntelang versucht, Impfstoffe gegen Pseudomonas zu entwickeln, sind aber erfolglos geblieben.

Jurado untersucht nun die Proteine, mit denen sich das Bakterium an Lungenzellen anheftet. Dies könnte entscheidende Komponenten für einen Impfstoff liefern - genauso wie das SARS-CoV-2-Spike-Protein in Covid-19-Impfstoffen ein Target für unser Immunsystem darstellt. Abbildung 3.

Abbildung 3.Pseudomonas aeruginosa besitzt ein großes Arsenal an Virulenz-Faktoren (hier nicht näher erläutert), die in die Pathogenese der Lungeninfektion involviert sind. Die mit Spritzen gekennzeichneten Komponenten wurden bereits als Vakzinen-Antigene evaluiert. (Quelle: Maite Sainz-Mejíaset al., Cells2020,9, 2617; doi:10.3390/cells9122617. Lizenz: cc-by)

„Wir versuchen herauszufinden, welche Immunantworten erforderlich sind, um Menschen vor Infektionen zu schützen“, erklärt Dr. Siobhán McClean, Immunologin am University College Dublin, Irland, die BactiVax leitet. Die Proteine, mit denen Bakterien an unseren Zellen andocken, sind oft gute Ziele für Vakzinen. Beispielsweise verwendet der Keuchhusten-Impfstoff fünf verschiedene Proteine, mit denen sich die Bakterien an den Zellen in unserem Rachen anheften.

Leider ist Pseudomonas ein härterer Feind als das Covid-19-Virus, da das Bakterium Dutzende von Proteinen an seiner Oberfläche aufweist. Damit ist es weniger offensichtlich, was in einen Impfstoff Eingang finden sollte, als beim Pandemievirus, bei dem das Spike-Protein das Ziel der Wahl ist.

Die Forscher finden jedoch, dass ein Impfstoff den Aufwand lohnt. „Falls wir einen Impfstoff zur Prävention von Infektionen bekommen, ist diese unserer Meinung nach besser als ständig zu versuchen, (problematische Infektionen) mit Antibiotika zu behandeln“, sagt Dr. McClean. "Wir sind auf eine eiserne Reserve an Antibiotika angewiesen, und wenn diese aufgebraucht sind, stecken wir fest."


  1.  Karin Moelling, 29.08.2019: Ein Comeback der Phagentherapie?
  2. Karin Moelling, 4.07.2019: Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?
  3. WHO: https://www.who.int/news/item/29-04-2019-new-report-calls-for-urgent-action-to-avert-antimicrobial-resistance-crisis
  4. PhagoProd: GMP manufacturing & GLP diagnostic: Towards a personalised phage therapy against antimicrobial resistance. Project 01.11.2018 - 31.12.2021. https://cordis.europa.eu/project/id/811749  
  5.  BactiVax: anti-Bacterial Innovative Vaccine Training Network. Project 01.10.2019 - 30.09.2023.https://cordis.europa.eu/project/id/860325

* Dieser Artikel wurde ursprünglich am 28. Juni 2021 von Anthony King in Horizon, the EU Research and Innovation Magazineunter dem Titel "More bacteria are becoming resistant to antibiotics – here's how viruses and vaccines could help" publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und 3 plus Beschriftungen wurden von der Redaktion eingefügt.


 

inge Thu, 08.07.2021 - 00:05

Comments

Rita Bernhardt (not verified)

Fri, 24.09.2021 - 09:11

Ein (wie immer) zukunftsweisender, spannender und kluger Beitrag der Autorin Inge Schuster

Hyaluronsäure - Potential in Medizin und Kosmetik

Hyaluronsäure - Potential in Medizin und Kosmetik

So 04.07.2021.... Inge Schuster Inge SchusterIcon Medizin

Chemisch betrachtet ist Hyaluronsäure ein ganz einfaches Molekül: ein natürliches, in unseren Organismen vorkommendes Biopolymer, das aus zwei miteinander verknüpften, sich wiederholenden Zuckerresten (d.i. einem Disaccharid) besteht, die enorm viel Wasser binden können. Als eine wesentliche Komponente des extrazellulären Raums hält Hyaluronsäure unsere Gewebe - Haut, Knorpel, Gelenke - feucht und straff, eine Fähigkeit, die aber mit zunehmendem Alter leider abnimmt. Unterschiedlichste Anwendungen in der Medizin und vor allem im Kosmetiksektor boomen derzeit; für 2027 wird global ein Umsatz von mehr als16 Milliarden US $ prognostiziert.

Seit ihrer Entdeckung im Glaskörper von Kuhaugen vor fast 90 Jahren ist das Interesse an Hyaluronsäure und ihren möglichen Anwendungen in Medizin und Kosmetik enorm gestiegen. Unter dem Stichwort "hyaluronic acid" verzeichnet PubMed.gov - die US-Amerikanische Datenbank für Biomedizinische Publikationen - aktuell insgesamt 31 350 wissenschaftliche Artikel , wobei mehr als 2 000 Artikel jährlich dazukommen, die globale Datenbank https://clinicaltrials.gov/ nennt 519 klinische Studien, die von ästhetischer Medizin über Arthrosen bis hin zu Wundheilung reichen und Google schließlich listet unüberschaubare 50,9 Millionen Einträge und nahezu 2 Millionen Videos, die meisten davon bewerben Cremen, Seren und Haut-Füller, die eine faltenfreie jugendliche Haut versprechen. Sie lassen den an seriöser Information interessierten Laien einigermaßen ratlos zurück.

Hyaluronsäure boomt - dies spiegelt sich im Marktgeschehen wider. Neben zahlreichen kleineren Unternehmen sind auch "Big Player" in Pharma - beispielsweise Allergan, Galderma und Sanofi - am Hyaluron-Business beteiligt. Laut dem Marktforschungsunternehmen Grand View Research dürfte 2020 der globale Markt für medizinische Hyaluronsäure(produkte) bei etwa US $ 9,6 Mrd. liegen und bis 2027 wird eine Steigerung auf US $ 16,5 Mrd erwartet. Unter den Anwendungen dominieren derzeit Osteoarthritis (rund 41 % des Markts) und "Hautfüller" (rund 30 % des Markts). Die prognostizierten hohen Wachstumsraten sind auf den stark ansteigenden Anteil der älteren/geriatrischen Bevölkerung zurückführen, die sich von Hyaluronsäure, angewandt mit minimal invasiven Methoden, eine Besserung ihres Bewegungsapparats und eine Verjüngung ihres äußeren Erscheinungsbildes erhofft.

Was ist Hyaluronsäure?

Es ist ein langkettiges, lineares Biopolymer, das in allen Wirbeltieren produziert wird und in nahezu allen Teilen des Körpers vorhanden ist (s.u.). Hyaluronsäure setzt sich aus zwei sich wiederholenden, von Glukose abgeleiteten Einheiten, sogenannten Disacchariden - Glukuronsäure und Acetylglukosamin - zusammen. Die Säuregruppen der Glukuronsäure machen das Polymer zum Polyanion. Die Fülle an hydrophilen (d.i. mit Wasser wechselwirkenden) Gruppen (Hydroxyl-, Caboxyl- und Acetamidgruppen) kann über Wasserstoffbrücken in der Molekülkette selbst miteinander interagieren und im wässrigen Milieu enorme Mengen an Wassermolekülen anlagern (Abbildung 1). Das hochflexible Polymer bildet mit steigender Kettenlänge Knäuel ("random coils"), die über Wasserstoffbrücken temporäre netzförmige Strukturen ausbilden und ein bis zu mehr als Tausendfaches ihres Gewichts an Wasser zu speichern vermögen (1mg Hyaluronsäure bis 6 g Wasser).

Abbildung 1.Hyaluronsäure setzt sich aus sich wiederholenden Disaccharideinheiten - Glukuronsäure und N-Acetylglukosamin - zusammen. Das Disaccharid zeigt die Fülle an hydrophilen Gruppen - -OH-, COO--, C=O-, NH-, - die über Wasserstoffbrücken mit Gruppen in der Kette und auch mit H2O wechselwirken (unten). Rechts: Röntgenstruktur der linearen aus 3 Disacchariden bestehende Kette mit 3 Na-Ionen (lila) und einigen Wassermolekülen (rot). (Quelle links: modifiziert nach T.Kobayashi et al., Biomolecules 2020, 10, 1525; doi:10.3390/biom10111525; Lizenz cc-by und rechts: https://www.rcsb.org/3d-view/1HYA/1).

Diese netzförmigen Strukturen zeichnen sich durch hohe Viskoelastizität aus, d.i. sie können sich schnell neu konfigurieren und so an räumliche Gegebenheiten anpassen (Elastizität) aber auch zu ursprünglichen Konfigurationen zurückkehren (Viskosität). Von der Kettenlänge und Konzentration hängen die physikalischen, chemischen und physiologischen Eigenschaften der Hyaluronsäure ab und diese variieren in den unterschiedlichen Geweben. Die Kettenlänge reicht dabei von Oligomeren, die aus bis zu 20 Disacchariden (Molekulargewicht bis zu 7 600 Da) bestehen, bis hin zu hochmolekularen Polymeren mit über 10 000 Disaccharideinheiten (MW über 4 000 000 Da), wie sie beispielsweise in der Gelenksflüssigkeit (Synovia) vorkommen. Die lange Kettenlänge und hohe Konzentration in der Gelenksflüssigkeit (Abbildung 2) macht Hyaluronsäure zu einem hervorragenden Schmiermittel der Gelenke und bewirkt viskoelastische Eigenschaften bei Bewegungen.

Wo kommt Hyaluronsäure vor?

Insgesamt enthält der Körper eines Erwachsenen (mit rund 70 kg Körpergewicht ) etwa 15 g Hyaluronsäure, die einem raschen Turnover unterliegt: täglich wird etwa ein Drittel abgebaut und wieder neu synthetisiert. Hohe Konzentrationen finden sich (abgesehen von der Nabelschnur) in der Gelenksflüssigkeit, im Glaskörper des Auges und in der Haut (vor allem in der Dermis). Auf Grund ihrer Größe enthält die Haut etwa die Hälfte der im Körper vorhanden Hyaluronsäure. Abbildung 2.

Abbildung 2.Konzentration von Hyaluronsäure (in µg/g) in einigen Geweben des menschlichen Körpers. Angaben beziehen sich auf maximal gemessene Konzentrationen. Daten stammen aus P. Snetkov et al., Polymers 2020, 12, 1800; doi:10.3390/polym12081800 (Artikel steht unter cc-by Lizenz).

Hyaluronsäure ist ein Hauptbestandteil des extrazellulären Raums

und findet sich in nur geringen Mengen in den Körperzellen. In stark hydratisierter Form bildet sie - zusammen mit anderen Polysacchariden, Glykoproteinen und Proteoglykanen (s.u.) - die sogenannte Grundsubstanz, ein viskoses, gelartiges Milieu , das die Zellen umgibt, Wasser im extrazellulären Raum speichert und so die Diffusion von Nährstoffen und Stoffwechselprodukten von und zu den Zellen ermöglicht. Strukturiert durch Kollagenfasern und elastische Fasern wird die Grundsubstanz zur sogenannten extrazellulären Matrix. Aus Grundsubstanz, Faserproteinen und relativ wenigen darin lose liegenden und anhaftenden Zellen setzen sich dann die verschieden Arten der Bindegewebe zusammen. In straffen und lockeren Bindegewebstypen sind Fibroblasten die hauptsächlichen Zelltypen, daneben gibt es auch verschiedene (patrouillierende) Zelltypen des Immunsystems. Abbildung 3.

Abbildung 3.Zwei Typen des Bindegewebes unter dem Mikroskop. Links: Lockeres Bindegewebe, wie es in diversen Zwischenräumen im Körper vorkommt und auch das Gerüst vieler Organe bildet. Es überwiegt hier häufig die Grundsubstanz, die von Kollagenfasern (orangerot gefärbt) und elastischen Fasern (dunkelblau)durchzogen wird. Vereinzelte Zellen (dunkle Kerne) sind lose eingebettet. Rechts: Straffes Bindegewebe mit einem hohen Anteil an Kollagenfasern und weniger Grundsubstanz. Durch die parallele Anordnung in Sehnen und Bändern wird deren Zugfähigkeit erhöht. (Bild: https://en.wikipedia.org/wiki/Connective_tissue#/media/File:Illu_connective_tissues_1.jpg; gemeinfre).

Bindegewebe halten Körperorgane an ihren Positionen, stellen die Verbindung zwischen Blutgefäßen, Lymphgefäßen und Zellen und zwischen verschiedenen Gewebetypen her. Darunter fallen so unterschiedliche Typen wie man sie in der Haut - hier vor allem in der Dermis - findet, im Knorpel, im Gallertkern der Bandscheiben, in der Gelenksflüssigkeit, in den Sehnen, Knochen, in Muskel- und Fettgeweben, im Zahnfleisch, im Auge (Glaskörper), in den Hirnhäuten und im Gehirn. In all den verschiedenen Bindegeweben spielt Hyaluronsäure eine wesentliche Rolle, verleiht diesen (nicht komprimierbares) Volumen, Elastizität, viskoses Verhalten und fungiert u.a. als Stoßdämpfer und als Schmierung. Hyaluronsäure liegt dabei nicht nur als unmodifiziertes Polymer vor, sondern kann auch mit Glykoproteinen verknüpft sein und riesige Aggregate - sogenannte Proteoglykane - bilden (beispielsweise Aggrecan im Knorpel). Hirngewebe zeichnet sich durch geringe Steifigkeit aus - hier enthält die extrazelluläre Matrix nur geringe Mengen an Faserproteinen und hohe Konzentrationen an Hyaluronsäure und Proteoglycanen.

Physiologische Eigenschaften

Über lange Zeit beschränkte sich die Hyaluronsäure-Forschung im wesentlichen auf die biomechanischen, hydrodynamischen und chemischen Eigenschaften des Polymers. Hyaluronsäure vermag wesentlich mehr. Durch spezifische Bindung an Rezeptoren an Zelloberflächen aktiviert sie in den Zellen Signale, welche die dynamischen Eigenschaften von Zellen - wie Motilität, Adhäsion und Proliferation - regulieren können. Hyaluronsäure kann damit in physiologische Prozesse - von Wundheilung bis Morphogenese - involviert sein aber auch zu pathologischen Auswirkungen - Entzündung bis Tumorwachstum - beitragen. Der erste derartige, vor rund 30 Jahren charakterisierte Rezeptor - CD44 -, der auf vielen Zelltypen exprimiert wird aber auch durch einige andere Biomoleküle (z.B. Osteopontin) aktiviert werden kann, spielt u.a. eine wichtige Rolle in der Aktivierung von Lymphozyten. Daneben trägt CD44 wesentlich zum Abbau der Hyaluronsäure bei. Diese wird im Komplex mit CD44Komplex von den Zellen internalisiert ("receptor-mediated endocytosis") und in den Lysosomen enzymatisch von sogenannten Hyaluronidasen zu kleinen, niedermolekularen Bruchstücken abgebaut, die in den zellfreien Raum sezerniert werden. Derartige Abbauprodukte sind biologisch durchaus aktiv und können beispielsweise in Fibroblasten der Dermis und auch in Keratinocyten (den Hauptzellen der Epidermis) die Synthese neuer Hyaluronsäure stimulieren.

In der Folge wurden und werden weitere Rezeptoren für Hyaluronsäure identifiziert wie der Rezeptor für Hyaluronsäure-vermittelte Mobilität (RHAMM), der Endothelzell-Rezeptor der Leber, der Lymphendothelzell-Rezeptor (LYVE-1) u.a.m.

Das an und für sich einfach gestrickte Polymer zeigt eine mehr und mehr komplexe Fülle an Eigenschaften und physiologisch wichtigen Funktionen. Diese sind derzeit Gegenstand intensiver Forschung, versprechen sie doch ein tieferes Verstehen dieser Regulationsvorgänge und damit neue Konzepte und /oder verbesserte Voraussetzungen für medizinische Anwendungen.

Anwendungen

Molekülgröße und Konzentration der Hyaluronsäure sind für die Eigenschaften der extrazellulären Matrix in den verschiedensten Geweben ausschlaggebend und werden durch Synthese und Abbau feinreguliert. Innerhalb von 2 - 3 Tagen erfolgt so ein kompletter Austausch der gesamten Hyaluronsäure.

Mit zunehmendem Alter wird allerdings die Balance zwischen Synthese und Abbau gestört: die Synthese verlangsamt sich (reduzierte Enzymaktivitäten) und der Abbau (enzymatisch aber auch , durch bestimmte Umweltfaktoren verursacht) nimmt zu. Davon betroffen sind die Gelenksflüssigkeit ebenso wie Knorpel, Bandscheiben, Sehnen, Haut, etc. Um die gestörte Balance in der extrazellulären Matrix/ in den Bindegeweben wieder herzustellen, wird versucht die spärlich vorhandene Hyaluronsäure durch Präparate zu substituieren, die häufig biotechnologisch aus Streptokokken -Kulturen produziert werden. Da Hyaluronsäure auf natürliche Weise im Menschen vorkommt, ist mit guter Verträglichkeit zu rechnen.

Hyaluronsäure wird in verschiedensten medizinischen Indikationen eingesetzt, u.a. bei trockenen Augen und Schleimhäuten, in der Wundheilung und bei Verbrennungen. Am weitesten verbreitet sind Behandlungen von Arthrosen, vor allem Arthrosen des Kniegelenks.

Behandlung von Arthrosen

Wie weiter oben beschrieben verschaffen hohe Konzentrationen von hochmolekularer Hyaluronsäure die erforderlichen viskoelastischen Eigenschaften in den Gelenken. Nimmt altersbedingt die Hyaluronsäure in Gelenksflüssigkeit und Knorpeln ab, so führt dies zu Steifheit der Gelenke, eingeschränkter Beweglichkeit und Schmerzen. Eine von der FDA bereits seit den 1990er Jahren zugelassene Anwendung der Hyaluronsäure erfolgt bei Arthrosen, vor allem bei Kniearthrosen. Die Hyaluronsäure wird dabei mehrmals direkt ins Gelenk injiziert und soll über mehrere Monate (vielleicht auch ein ganzes Jahr) die Symptome lindern (auch wenn sie nur Stunden bis wenige Tage am Applikationsort verbleibt). Wie Metaanalysen zeigen, sind die Behandlungsergebnisse allerdings nicht durchgehend überzeugend, reichen von mangelnder Wirksamkeit in älteren Untersuchungen bis zu temporärer Schmerzhemmung bei milden/moderaten Arthrosen in neueren Analysen. Bei der Injektion ins Gelenk kann es zudem zu unerwünschten Nebenwirkungen kommen wie Beschädigungen des Knorpels, Infektionen im Gelenk - kommen.

Hautalterung

Im Vergleich zu einem Baby mit einer ganz prallen, faltenfreien Haut enthält die Dermis einer 50 Jahre alten Person im Mittel nur mehr halb so viel Hyaluronsäure und diese nimmt mit zunehmendem Alter noch weiter ab. Neben veränderten Synthese/Abbauaktivitäten sind vor allem Schäden durch Umwelt und Sonnenlicht (UV-Licht) für die Reduktion verantwortlich.

Abbildung 4 zeigt schematisch die Folgen der Sonneneinstrahlung. Die Hyaluronsäure ist reduziert und teilweise abgebaut, damit sinkt der Wassergehalt in der extrazellulären Matrix der Dermis, Wechselwirkungen mit den Kollagen- und Elastinfasern werden dezimiert und der Abbau der Fasern erleichtert. Die vormals straffe Haut ist nun erschlafft und zeigt Falten.

Abbildung 4.Vergleich einer lichtgeschützten Haut mit einer lichtgealterten Haut. Beschreibung im Text (Bild modifiziert nach: Hiroyuki Yoshida & Yasunori Okada, Int. J. Mol. Sci. 2019, 20, 5804; doi:10.3390/ijms20225804. Lizenz: cc-by).

Um dem Wunsch nach jugendlicher, faltenfreier Haut zu begegnen, verwenden Firmen seit rund 20 Jahren Hyaluronsäure als Feuchtigkeitsspender und Faltenglätter in ihren kosmetischen Produkten. Die meisten Hautcremen und Seren enthalten Hyaluronsäure in niedermolekularer bis hochmolekularer Form und auch in Form von Nanopartikeln. Werden diese Produkte aufgetragen, so dringen sie größenabhängig zwar unterschiedlich weit in die Haut ein, erreichen aber nicht die tieferen Schichten der Dermis, die ja zu wenig Hyaluronsäure enthält und zur Hauterschlaffung führt. Große Moleküle (Kettenlänge über 1 000 Disaccharideinheiten) bleiben auf der obersten Schichte - der Hornhaut - liegen, bilden eine Barriere, die Feuchtigkeit zurückhält und die Hornhaut etwas aufquellen lässt. Niedermolekulare Hyaluronsäure bringt Feuchtigkeit in die dichten Zellschichten der rund 0,15 mm tiefen Epidermis. Wie oben erwähnt hofft man an, dass kurzkettige Bruchstücke der Hyaluronsäure dort in den Keratinocyten die Synthese neuer Hyaluronsäure stimulieren können. Das Ergebnis ist bestenfalls eine geschmeidigere Haut und etwas flachere Fältchen.

Will man feinere Falten an Lippen und Augenpartien auffüllen, tiefe Falten, wie Nasolabialfalten, Zornesfalten und Augenpartien korrigieren, so wird Hyaluronsäure in unterschiedlicher Dichte als "Hautfüller" in die Dermis injiziert. Einige dieser Präparate wurden von der FDA zugelassen . Hautfüller kommen auch zur Schaffung von Volumen, Wiederherstellen von Gesichtskonturen in der plastischen Chirurgie zur Anwendung. Die Ergebnisse dieser minimal invasiven Behandlung sind sofort sichtbar und im Allgemeinen recht gut. Allerdings können Hautreizungen, Verformungen und Klumpenbildung und damit ein unerwünschtes Erscheinungsbild auftreten. Die straffende Wirkung ist allerdings nicht von Dauer; nach einem halben Jahr (vielleicht auch etwas später) sind Nachspritzungen erforderlich.

Fazit

Die physikalisch - chemischen und physiologischen Eigenschaften der im Menschen natürlich vorkommenden Hyaluronsäure weisen auf ein enormes Potential für gut verträgliche, minimal invasive medizinische Anwendungen und Korrekturen des äußeren Erscheinungsbildes hin. Einige dieser Anwendungen sind bereits etabliert und haben ein großes, stark steigendes Marktvolumen. Verbesserungen sind aber auch hier notwendig - beispielsweise in den Techniken und Produkteigenschaften der bis jetzt unbefriedigenden Therapie von Arthrose oder in der Verlängerung der Wirksamkeitsdauer. Die Forschung zu diesen Problemen aber auch zu völlig neuen Aspekten der Hyaluronsäure-Funktionen und -Anwendungen boomt und lässt auf innovative Produkte und Techniken nicht nur im Anti-Aging Sektor hoffen.


Literatur (open access), die dem Artikel zugrundeliegt, u.a.:

A.Fallacara et al., Hyaluronic Acid in the Third Millennium, Polymers 2018, 10, 701; doi:10.3390/polym10070701.

P. Snetkov et al., Hyaluronic Acid: The Influence of Molecular Weight on Structural, Physical, Physico-Chemical, and Degradable Properties of Biopolymer. Polymers 2020, 12, 1800; doi:10.3390/polym12081800

T. Kobayashi et al., Hyaluronan: Metabolism and Function. Biomolecules 2020, 10, 1525; doi:10.3390/biom10111525

A. Kaul et al., Hyaluronidases in Human Diseases. Int. J. Mol. Sci. 2021, 22, 3204. https://doi.org/10.3390/ijms22063204


Artikel zu verwandten Themen im ScienceBlog:

Georg Wick, 22.11.2012: Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.

Inge Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick

Inge Schuster, 06.09.2018: Freund und Feind - Die Sonne auf unserer Haut


 

inge Sun, 04.07.2021 - 12:10

ScienceBlog.at ist 10 Jahre alt!

ScienceBlog.at ist 10 Jahre alt!

Do, 01.07.2021 — Redaktion

Redaktion

Wir feiern Geburtstag!

inge Sun, 04.07.2021 - 17:07

Comments

Karl L. Brunnbauer (not verified)

Mon, 19.07.2021 - 13:11

Herzliche Gratulation an die Herausgeber dieser wichtigen Webseite!
Besonders an Frau Dr. Inge Schuster!
Information auf aller höchstem Niveau!

Alles Gute und weiterhin viel Erfolg,
Karl

Was uns Facebook über Ernährungsgewohnheiten erzählen kann

Was uns Facebook über Ernährungsgewohnheiten erzählen kann

Do, 24.06.2021 IIASA

IIASAIcon Politik & Gesellschaft Änderungen des Lebensstils , die zur Eindämmung des Klimawandels beitragen können, gewinnen mehr und mehr an Bedeutung und Aufmerksamkeit. Eine neue , von IIASA-Forschern geleitete Studie hat sich zum Ziel gesetzt, das volle Potential von Verhaltensänderungen zu erfassen und was Menschen weltweit zu solchen Änderungen veranlasst. Die Studie basiert auf Daten von fast zwei Milliarden Facebook-Profilen.*

Moderne Konsumgewohnheiten und - insbesondere in der Landwirtschaft - die Tierproduktion zur Deckung des weltweit wachsenden Appetits auf tierische Produkte tragen dazu bei, dass miteinander verknüpfte Probleme wie Klimawandel, Luftverschmutzung und Verlust der biologischen Vielfalt weiter fortschreiten und sich beschleunigen. Unsere derzeitige Lebensweise ist einfach nicht nachhaltig. Es ist klar, dass Verhalten und Konsumgewohnheiten sich deutlich ändern müssen, wenn wir sicherstellen wollen, dass unsere Nachkommen noch einen gesunden Planeten vorfinden, der das Leben erhält und den sie ihr Zuhause nennen können. Es ist allerdings kein einfaches Unterfangen, eine große Zahl von Menschen mit sehr unterschiedlichen Überzeugungen und Wertebegriffen dazu zu bringen, ihre Konsumgewohnheiten und ihre Verhaltensweisen zu ändern.

Wenn viele frühere Studien untersucht haben, was die treibenden Kräfte zu einer CO2-reduzierten Lebensweise im Allgemeinen und zu einer nachhaltigen Ernährung im Besonderen sind, so beruhten die darin verwendeten Daten häufig auf einer limitierten Anzahl von Ländern oder einer begrenzten Anzahl von Umfrageteilnehmern, deren Angaben zuweilen von ihrem tatsächlichen Verhalten abwich. Nun haben die IIASA-Forscherin Sibel Eker und ihre Kollegen Online-Daten der Social Media, speziell anonyme Besucherdaten in Facebook, als eine globale Datenquelle genutzt, um das Online-Verhalten von Milliarden von Menschen aufzuzeigen und die eher traditionellen empirischen Untersuchungen zu ergänzen. Studien. Die Studie wurde im Journal Environmental Research Letters veröffentlicht [1].

„Wir wollten wissen, ob wir imstande wären anhand der auf der Social-Media-Plattform Facebook verfügbaren Daten das Interesse an nachhaltigen Ernährungsweisen, wie der vegetarischen Ernährung, in verschiedenen Ländern der Welt zu quantifizieren und feststellen könnten, ob die Online-Aktivitäten tatsächlich eine echtes Interesse an Vegetarismus und Konsumverhalten anzeigen“, erklärt Eker. „Darüber hinaus wollten wir sehen, welche anderen Faktoren wie Bildungsstand, Alter, Geschlecht oder das Pro-Kopf-BIP das Interesse der Menschen an einer nachhaltigen Ernährung in verschiedenen Ländern mitbestimmen.“

In diesem Zusammenhang erstellte das Team um Eker einen Datensatz von täglich und monatlich aktiven Nutzern, die ein Interesse an nachhaltigen Lebensstilen, insbesondere des Vegetarismus, bekundeten. Der Begriff Vegetarismus wurde auf Grund seiner Breite - verglichen mit anderen Begriffen wie „pflanzliche Ernährung“ oder „nachhaltige Ernährung“- gewählt und auch weil er als vordefinierte Interessenauswahl auf der Facebook-Werbeplattform vorhanden war.

„Unsere Wahl von Vegetarismus und nachhaltigem Lebensstil als Selektionsmöglichkeiten, die für einen CO2-armen Lebensstil von Relevanz sind, basiert auf einer Keyword-Suche in der Facebook Marketing API (API = application programming interface, Programmierschnittstelle; Anm.Redn.); dabei gingen diese Keywords unter den vorhandenen Selektionsmöglichkeiten als diejenigen mit der weltweit höchsten Größe an Zielgruppen hervor. Das Interesse einer Person am Vegetarismus kann von einer Reihe von Dingen herrühren, die vom Tierschutz über Gesundheit bis hin zu Religion reichen. Im Rahmen dieser Studie sahen wir den Vegetarismus insbesondere als Indikator für die Verbreitung von fleischloser Ernährung; dies hat für die Abschätzung des Nahrungsbedarfs mehr Relevanz, als für das Interesse der Menschen an einer an einer vegetarischen Lebensweise allein aus Gründen des Umweltschutzes“, bemerkt Eker.

Abbildung 1. Anteil der Facebook Zielgruppen in 115 Ländern, die sich für "nachhaltiges Leben" (oben) und für "Vegetarismus" (unten) interessieren. Die Farben geben den Prozentsatz (siehe Block rechts) der Interessierten in den jeweiligen Zielgruppen an. Länder, aus denen Daten fehlen, sind grau gefärbt. (Abbildung und Legende wurden von der Redaktion aus Ekers et al., 2021, [1] eingefügt; Die Abbildung steht unter einer cc-by- Lizenz)

Die öffentlich zugänglichen und anonymen Daten vom Facebook Marketing Application Programming Interface (API) wurden zwischen September 2019 und Juni 2020 zu mehreren Zeitpunkten für Keywords, Alter, Geschlecht, Bildungsniveau und Land jedes Benutzers abgerufen. Der verwendete Datensatz umfasst insgesamt 131 Länder und rund 1,9 Milliarden Menschen, von denen 210 Millionen ein Interesse an Vegetarismus und 33 Millionen ein Interesse an einer nachhaltigen Lebensweise bekundeten. Abbildung 1 gibt einen Überblick über den Anteil des an "nachhaltigem Leben" und an "Vegetarismus" Interessierten Facebook Publikums in den einzelnen Ländern. Eine interaktive Version dieser Karte ermöglicht den Vergleich der Facebook Daten mit der Häufigkeit der Suchanfragen zu den Keywords in Google Trends (https://trends.google.com/trends/?geo=AT) und vorhandenen Umfrageergebnissen zur tatsächlich vegetarisch lebenden Population. Abbildung 2 zeigt dazu einige Beispiele.

Abbildung 2.Vergleich der für "nachhaltiges Leben" (oben) und für "Vegetarismus" (unten) interessierten Facebook-Nutzer mit der Häufigkeit der Aufrufe dieser Keywords in Google Trends und der aus Umfrageergebnissen festgestellten vegetarischen Population in USA, China, Indien und Deutschland. (Interaktive Karte aus Ekers et al., 2021, [1] https://sibeleker.github.io/map.html und Legende von der Redaktion eingefügt. Lizenz cc-by)

Die Ergebnisse weisen darauf hin, dass der Anteil des an Vegetarismus interessierten Facebook-Publikums positiv mit der Rate des Rückgangs des Fleischkonsums auf Länderebene (in den Ländern mit hohem Vegetarismus-Interesse) korreliert – mit anderen Worten, je mehr Menschen an vegetarischer Ernährung interessiert sind, desto mehr nimmt der Trend zum Fleischkonsums in dem Land ab. Insgesamt war der Fleischkonsum in Ländern mit hohen Einkommen größer als in Ländern mit niedrigen Einkommen; allerdings scheint in diesen Ländern das Interesse an einer nachhaltigen Ernährung - soweit dies online geäußert wird - auch stärker zu sein. Nach Meinung der Forscher gibt dies Hoffnung auf Trends zu einem nachhaltigeren und faireren Fleischkonsum.

Bildung hat sich zuvor als Katalysator zur Erreichung der SDGs (Ziele der nachhaltigen Entwicklung) erwiesen und könnte auch hier ein Katalysator sein (sofern sie nicht durch ein hohes Einkommensniveau überlagert wird), da sie sich als der wichtigste Faktor herausgestellt hat, der das Interesse am Vegetarismus beeinflusst. Dieser Effekt war in Ländern mit niedrigem Einkommen stärker ausgeprägt. Auch das Geschlecht hat sich als sehr starkes Unterscheidungsmerkmal herausgestellt, wobei Frauen zu einem höheres Interesse am Vegetarismus tendieren als Männer. Das Pro-Kopf-BIP und das Alter folgten diesen beiden Indikatoren in Bezug auf ihre Wirkung auf das Interesse der Menschen an einem vegetarischen Lebensstil.

„Unsere Studie zeigt, dass Daten von Online-Social-Media tatsächlich nützlich sein können, um Trends beim Lebensmittelkonsum zu analysieren und abzuschätzen. Während aufgrund lokaler Studien die Bedeutung von Bildung, Einkommen und Geschlecht dafür bisher bekannt war, haben wir nun erstmals auf globaler Ebene eine Einstufung gemacht“, sagt Eker. „Maßnahmen, die darauf abzielen, eine nachhaltige Ernährung zu fördern, insbesondere auf Kommunikationsebene, sollten die soziale Heterogenität und bestehende Trends (diese könnten durchaus " niedrig hängende Früchte" sein) berücksichtigen. Auch die länderübergreifende Heterogenität spielt eine wichtige Rolle, und Studien wie unsere helfen, internationale Unterschiede zu verstehen und lokale maßgeschneiderte Maßnahmen zu entwerfen.“


[1] Eker, S., Garcia, D., Valin, H., van Ruijven, B. (2021). Using social media audience data to analyze the drivers of low-carbon diets. Environmental Research Letters 10.1088/1748-9326/abf770


*Die am 22.Juni 2021 erschienene Pressemiiteilung "What Facebook can tell us about dietary choices"  https://iiasa.ac.at/web/home/about/210622-facebook-and-sustainable-diets.html wurde von der Redaktion übersetzt und mit zwei Abbildungen aus der zugrundeliegenden Veröffentlichung [1] ergänzt. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Kommentar der Redaktion

Die Anzahl der vegetarisch und vegan lebenden Menschen ist langsam im Steigen begriffen und wird - auf Umfragen basierend - auf etwa 8 - 10 %  der Weltbevölkerung geschätzt (mehr als die Hälfte dieser Menschen lebt in Indien). https://en.wikipedia.org/wiki/Vegetarianism_by_country#Demographics.

Wenn in der Facebook-Studie aus 131 Ländern mit rund 1,9 Milliarden Menschen rund 210 Millionen ein Interesse an Vegetarismus bekundet haben, so entspricht das grob den obigen Schätzungen der tatsächlich so Lebenden. Bemerkenswert ist das geringe Interesse in den bevölkerungsreichsten Ländern - der Chinesen, aber vor allem der indischen Facebook-Nutzer, von denen nur 5 % interessiert sind, obwohl der Subkontinent den höchsten Anteil (29 %) an Vegetariern aufweist.

Es ist anzuzweifeln, ob intensivere/maßgeschneiderte Maßnahmen in den meisten Ländern kurzfristig eine wesentliche Änderung in den Ernährungsgewohnheiten bewirken können. Dass damit - zumindest im nächsten Jahrzehnt - nur marginal auf die Klimapolitik eingewirkt werden kann, erscheint offenkundig.


 

inge Thu, 24.06.2021 - 00:33

Die Infektion an ihrem Ausgangspunkt stoppen - ein Nasenspray mit Designer-Antikörper gegen SARS-CoV-2

Die Infektion an ihrem Ausgangspunkt stoppen - ein Nasenspray mit Designer-Antikörper gegen SARS-CoV-2

Do, 17.06.2021 — Francis S. Collins

Francis S. CollinsIcon MedizinZur Behandlung von COVID-19 sind derzeit bereits mehrere monoklonale Antikörper (dabei handelt es sich um identische Kopien eines in großer Zahl hergestellten therapeutischen Antikörpers) von den Behörden zugelassen worden. Im Kampf gegen die schlimme Seuche gibt es viel Raum für weitere Verbesserungen zur Behandlung von SARS-CoV-2-Infektionen. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den COVID-19-Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über einen erfreulichen Fortschritt: mit NIH-Unterstützung wurde ein speziell designter therapeutischer Antikörper entwickelt, der sich mittels Nasenspray verabreichen lässt. Präklinische Studien deuten darauf hin, dass mit diesem neuen Antikörper sogar bessere Wirksamkeit gegen COVID-19 erzielt werden könnte als mit den bereits bestehenden Antikörper-Therapien und dies insbesondere in Hinblick auf die nun ansteigenden „besorgniserregende Varianten“ von SARS-CoV-2. *

Design eines neuen Antikörpers vom IgM-Typ

Es sind dies Ergebnisse, die von Zhiqiang An (Health Science Center der University of Texas; Houston), und Pei-Yong Shi (University of Texas Medical Brach, Galveston) und deren Kollegen stammen [1]. Das von den NIH unterstützte Team hat begriffen, dass alle derzeit verwendeten monoklonalen Antikörper eine zeitaufwendige, intravenöse Infusion in hohen Dosierungen erfordern, wodurch ihre Anwendung an Grenzen stößt. Dazu kommt, dass die Antikörper - da sie ja erst über den Blutkreislauf verteilt werden müssen - die primären Orte der Virusinfektion im Nasen-Rachenraum und in der Lunge nicht direkt erreichen können. Zudem mehren sich auch zunehmend Andeutungen, dass einige dieser therapeutischen Antikörper gegen die nun aufkommenden neuen SARS-CoV-2-Varianten weniger wirksam werden.

Von Antikörpern gibt es verschiedene Typen. Immunglobulin-G (IgG)-Antikörper sind beispielsweise die im Blut am häufigsten vorkommenden Antikörper und sie haben das Potential eine anhaltende Immunität zu verleihen. Immunglobulin-A (IgA)-Antikörper finden sich in Tränen, Mukus (Schleim) und anderen Körpersekreten, wo sie in unseren Körpern die feuchte innere Auskleidung (Mukosa, Schleimhaut) von Atemwegen und Magen-Darm-Trakt schützen. Immunglobulin-M (IgM)-Antikörper sind ebenso wichtig um die Oberflächen der Schleimhäute zu schützen und sie werden als Erste im Kampf gegen eine Infektion gebildet. Abbildung 1.

Abbildung 1.Verschiedene Typen von Antikörpern. Das Grundprinzip (IgG) besteht aus zwei schweren Ketten und zwei leichten Ketten, wobei variable Regionen an der Spitze der schweren und leichten Ketten selektiv ein Antigen nach dem "Schlüssel-Schloss-Prinzip" umschließen (links) . IgA besitzt 2 der IgG-Einheiten, das IgM der Säugetiere 5 IgG- Einheiten, die über Disulfidbrücken und eine verbindende Peptidkette miteinander verbunden sind. Verglichen mit IgG-Antikörpern können IgA-Antiköper somit mit der doppelten Anzahl von viralen Antigenen, IgM-Antikörper mit der fünffachen Anzahl reagieren.(Bild modifiziert nach https://commons.wikimedia.org/wiki/File:2221_Five_Classes_of_Antibodies_new.jpg. License cc-by. Bild und Text von der Redaktion eingefügt.)

IgA- und IgM-Antikörper unterscheiden sich zwar strukturell, können aber beide in einem inhalierten Spray verabreicht werden. Monoklonale Antikörper, wie sie derzeit zur Behandlung von COVID-19 verwendet werden, sind allerdings vom IgG-Typ, der intravenös infundiert werden muss.

In der neuen Studie haben die Forscher nun IgG-Fragmente mit bekannter Affinität zu SARS-CoV-2 zu den zuerst auftretenden IgM-Antikörpern zusammengesetzt. Der so designte IgM-Antikörper (sie bezeichnen ihn mit IgM-14) kann SARS-CoV-2 mehr als 230-mal besser neutralisieren als der IgG-Antikörper, von dem sie ursprünglich ausgegangen sind.

Wichtig ist, dass IgM-14 auch exzellente Aktivität in der Neutralisierung von besorgniserregenden SARS-CoV-2-Varianten besitzt. Dazu gehören die B.1.1.7 „Großbritannien“ Variante (jetzt auch Alpha genannt), die P.1 „brasilianische“ Variante (genannt Gamma) und die B.1.351 „südafrikanische“ Variante (genannt Beta). IgM-14 wirkt auch gegen 21 andere Varianten, die Veränderungen in der Rezeptorbindungsdomäne des besonders wichtigen viralen Spikeproteins aufzeigen. Dieses Protein, das es SARS-CoV-2 ermöglicht in menschliche Zellen einzudringen und diese zu infizieren, ist die hauptsächliche Zielstruktur für Antikörper. Man rechnet damit, dass viele dieser Veränderungen das Virus resistenter gegen die monoklonalen IgG-Antikörper machen, die jetzt von der FDA für den Notfallgebrauch zugelassen sind.

Wirksamkeit im Tierversuch

Würde der designte IgM-14 Antikörper ein lebendes Tier vor einer Coronavirus-Infektion schützen können? Die Forscher haben dies in einem Tierversuch an Mäusen geprüft. Dazu haben sie eine Einzeldosis des IgM-14-Antikörpers in die Nase von Mäusen gesprüht entweder prophylaktisch sechs Stunden vor einer Exposition mit SARS-CoV-2 oder als therapeutische Behandlung sechs Stunden nach der Infektion mit den Varianten P.1 (Gamma) oder B.1.351 (Beta).

Abbildung 2.Ein erfolgsversprechendes intranasales Spray zur Prävention und Therapie von COVID-19? Der pentavalente IgM - Antikörper (gelb) kann das Spikeprotein an der Virusoberfläche effizient abblocken. (Text von der Redn eingefügt.)

In allen Fällen erwies sich der so angewandte Antikörper als wirksam: zwei Tagen nach der Applikation war - im Vergleich zu den Kontrollgruppen - die Menge an SARS-CoV-2 in der Lunge drastisch reduziert. Dies ist ein wichtiger Befund: schwere Verläufe von COVID-19 und Todesfälle sind ja eng mit der Virusmenge im Atmungstrakt von Infizierten korreliert. Falls sich der neue therapeutische Antikörper beim Menschen als sicher und wirksam erweist, könnte er zu einem wichtigen Mittel werden, um die Schwere von COVID-19 zu reduzieren oder vielleicht sogar eine Infektion ganz zu verhindern. Abbildung 2.

Die Forscher haben diesen neuen Antikörper bereits an einen Biotechnologie-Partner namens IGM Biosciences, Mountain View, CA, für die weitere Entwicklung und künftige Tests in einer klinischen Studie auslizenziert. Wenn alles gut geht, können wir hoffen damit ein sicheres und wirksames Nasenspray zu haben, um als zusätzliche Verteidigungslinie im Kampf gegen COVID-19 zu dienen.


[1]Nasal delivery of an IgM offers broad protection from SARS-CoV-2 variants. Ku Z, Xie X, Hinton PR, Liu X, Ye X, Muruato AE, Ng DC, Biswas S, Zou J, Liu Y, Pandya D, Menachery VD, Rahman S, Cao YA, Deng H, Xiong W, Carlin KB, Liu J, Su H, Haanes EJ, Keyt BA, Zhang N, Carroll SF, Shi PY, An Z. Nature. 2021 Jun 3


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 15. Juni 2021) im NIH Director’s Blog unter dem Titel: "Could a Nasal Spray of Designer Antibodies Help to Beat COVID-19?"  https://directorsblog.nih.gov/2021/06/15/could-a-nasal-spray-of-designer-antibodies-help-to-beat-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

NIH: Covid-19 Research  https://covid19.nih.gov/

Zhiqiang An (The University of Texas Health Science Center at Houston)

Pei-Yong Shi (The University of Texas Medical Branch at Galveston)

IGM Biosciences (Mountain View, CA)

 Artikel von Francis S. Collins über COVID-19 im ScienceBlog

inge Thu, 17.06.2021 - 17:27

Medikamente in Abwässern - Konzepte zur Minimierung von Umweltschäden

Medikamente in Abwässern - Konzepte zur Minimierung von Umweltschäden

Do, 10.06.2021 — Redaktion

RedaktionIcon Medizin

 Nachdem Arzneimittel den Körper eines Patienten passiert haben, wird das, was noch an Wirkstoffen und daraus entstandenen Metaboliten vorhanden ist, in die Kanalisierung ausgeschieden und trägt damit wesentlich zur Wasserverschmutzung bei. Nur von einer Handvoll der insgesamt etwa 1900 Wirkstoffe ist das damit verbundene Risiko für Tierwelt und menschliche Gesundheit untersucht. Zwei neue Projekte wollen nun dazu wichtige Informationen erarbeiten. i) Das EU-finanzierte REMEDI-Projekt ist auf Röntgen-Kontrastmittel fokussiert, die gegen herkömmliche Abwasserbehandlung resistent sind; diese sollen herausgefiltert und - wenn möglich - einer Wiederverwendung zugeführt werden. ii) Das IMI-Projekt PREMIER hat zum Ziel Dossiers zur Risikobewertung der meisten - zum Teil schon recht alten - pharmazeutischen Wirkstoffe zu erstellen.*

In den letzten zwei Jahrzehnten ist die Besorgnis über die vielen Arzneimittel angestiegen, die mit dem Abfall in die Kanalisation gespült werden und in die Abwassersysteme gelangen. Abbildung 1.Zum Großteil stammen diese Substanzen aus dem Urin und dem Kot von Patienten, die Medikamente eingenommen haben. Auch wenn die Substanzen den menschlichen Körper und danach die Kläranlagen passiert haben, kann man sie noch in Flüssen und Seen und möglicherweise sogar in unseren Böden nachweisen. Arzneimittel wie u.a. Cholesterin-Senker, Betablocker, Antiepileptika, Entzündungshemmer und Antibiotika sowie illegale Substanzen wurden alle in Abwasserkanälen und nahegelegenen Wasserstraßen gefunden.

Abbildung 1: .Über die letzten zwei Jahrzehnte macht man sich zunehmend Sorgen über all die Medikamente, die über die menschlichen Ausscheidungen in die Kanalisation und von dort in die Gewässer und das Grundwasser gelangen (Bild: pixabay)

 

„Viele Menschen sind der Ansicht, dass Kläranlagen das Wasser sauber machen, allerdings wurden solche Anlagen gebaut, um Stickstoff und Phosphate zu entfernen, nicht aber Arzneimittel“, sagt Professor Ad Ragas, Umweltwissenschaftler an der Radboud University in den Niederlanden und Koordinator des PREMIER-Projekts (s.u.). „Diese Arzneimittel gelangen zusammen mit anderen Mikroverunreinigungen in die Umwelt.“

Mehr als 600 pharmazeutische Substanzen wurden weltweit in Gewässern identifiziert, weitere finden ihren Weg in terrestrische Ökosysteme. Zumindest von einigen dieser Verbindungen ist bekannt, dass sie unerwünschte Auswirkungen auf lebende Organismen haben.

Berühmt-berüchtigt ist das Beispiel, das sich Ende des letzten Jahrhunderts in Indien ereignete. Bis Ende der 1980er Jahre kreisten dort Millionen Geier am Himmel und hielten nach Kadavern Ausschau. In den 1990er Jahren brachen die Geierzahlen aber auf mysteriöse Weise ein, in einigen Populationen um mehr als 99%. Die Wissenschaftler waren vorerst ratlos, dann aber wurde 2004 entdeckt, dass die Vögel durch Diclofenac ("Voltaren", siehe dazu [1]; Anm. Redn.) getötet wurden, einem Arzneimittel, das routinemäßig aber auch an indische Nutztiere verfüttert wurde. Bei Rindern ist Diclofenac ein billiges entzündungshemmendes Mittel, bei Geiern verursachte es dagegen Nierenversagen und den Tod.

„Dieser Vorfall hat viele Diskussionen über die Auswirkungen von Arzneimitteln auf Tierwelt und Umwelt ausgelöst“, sagt Prof. Ragas. 2006 wurde die Verwendung von Diclofenac im Veterinärgebiet in Indien verboten. Nun, 15 Jahre später nimmt weltweit die Sorge um die Freisetzung von Arzneimitteln und deren Abbauprodukten in die Umwelt zu – und das aus gutem Grund.

Alljährlich steigt der Verbrauch von Arzneimitteln sowohl im Humansektor als auch im Veterinärgebiet, jedoch sind viele Fragen zu den Auswirkungen der nachgewiesenen Verunreinigungen mit Arzneimitteln sowohl auf die menschliche Gesundheit als auch auf die Ökosysteme unseres Planeten ungeklärt.

2013 haben das Europäische Parlament und der Rat der Europäischen Union eine Reihe von Arzneimitteln, darunter auch einige Antibiotika, auf eine Watchlist von Stoffen gesetzt, die in Gewässern der EU sorgfältig überwacht werden sollten. Dies war das erste Dokument, das Stoffe von unbestrittenem medizinischen Wert enthält, die eine potenzielle Bedrohung für empfindliche Ökosysteme darstellen.

Bildgebende diagnostische Verfahren

Krankenhäuser sind ein wesentliche Quelle von pharmazeutischen Wirkstoffen, und - wie Studien ergeben haben - werden viele der aus Krankenhäusern stammenden Chemikalien von Kläranlagen nicht vollständig entfernt. Abbildung 2. Besonders problematisch sind jodierte Röntgenkontrastmittel (iodinated contrast media - ICMs), die häufig vor einem diagnostischen Scan wie einem CT oder MRT in den Blutkreislauf eines Patienten injiziert werden, damit sich das Weichteilgewebe vom Untergrund abhebt.

Abbildung 2: Aus Krankenhäusern stammende Chemikalien können von Kläranlagen nicht vollständig entfernt werden. (Bild: Ivan Bandura/Unsplash)

ICMs werden im Körper nicht abgebaut (über 95 % verbleiben unmetabolisiert), so ausgeschieden und in das Abwassersystem gespült. Forscher sind der Ansicht, dass ICMs wesentlich zur Belastung durch persistierende Chemikalien im Abwasser beitragen. ICM-Nebenprodukte (wie sie beispielsweise in Gegenwart des Desinfektionsmittels Chlor entstehen, Anm. Redn) hat man – oft in erhöhten Konzentrationen – in Flüssen, Seen, Grundwasser und sogar im Trinkwasser gefunden. Sie kommen auch im Boden vor und stellen dort, wo landwirtschaftliche Flächen kontaminiert sind, ein potenzielles Risiko sowohl für den Menschen als auch für die Tierwelt dar. Organische Halogenverbindungen sind Nebenprodukte von Kontrastmitteln. Lässt man zu, dass sich diese Chemikalien im Boden und im Wasser in hohen Konzentrationen anreichern, so können sie toxische Wirkungen auslösen.

Professor Alberto Guadagnini vom Department für Bau- und Umweltingenieurwesen der Polytechnischen Universität Mailand sagt: „Wir haben noch keine Ahnung, wie groß das Risiko ist, wenn sich diese Stoffe in hohen Konzentrationen im Grundwassersystem anreichern.“

Die Daten zur Ausbreitung von ICMs – und dazu, was man tun kann, um sie sicher zu entfernen – sind lückenhaft. Mit dem steigenden Alter der Bevölkerung erwartet man eine Zunahme von chronischen und komplexen Begleiterkrankungen; dementsprechend wird die Zahl der weltweit durchgeführten Diagnosen mittels bildgebender Verfahren wahrscheinlich auch steigen. Aktuelle Schätzungen gehen davon aus, dass weltweit mehr als 45.000 klinische CT-Scanner in Betrieb sind. Allein in einem italienischen Krankenhaus – dem San Raffaele in Mailand – werden jährlich 30.000 solcher diagnostischer Tests durchgeführt.

Recyceln

Prof. Guadagnini hofft einige der Wissenslücken durch das kürzlich gestartete vierjährige EU-Projekt REMEDI (https://cordis.europa.eu/project/id/956384/de) zu schließen; das Projekt zielt darauf ab, neue Techniken zum Abfangen und Entfernen von Röntgenkontrastmitteln aus Wasser und Boden zu prüfen.

„Kontrastmittel herauszufiltern ist nur ein Teil der Herausforderung – wir möchten sie auch recyceln“, sagt Prof. Guadagnini. „Jod und Barium (die in Kontrastmitteln verwendet werden) sind wertvolle Substanzen. Es wäre vorzuziehen, dass sie von der Industrie wieder verwendet würden anstatt sich in der Umwelt anzureichern.“

Das Team von Prof. Guadagnini konzentriert sich auf Eisenoxide, deren Fähigkeit Kontrastmittel zu binden nachgewiesen ist. Eisenoxide können jedoch nicht direkt in Seen und Flüssen eingesetzt werden, um ICMs zu binden, da sie das Wasser saurer machen. Stattdessen werden die Forscher versuchen mit diesen Verbindungen ICMs abzufangen, bevor diese natürliche Gewässer erreichen.

"Die Grundidee Kontrastmittel aufzufangen besteht darin ein poröses Material zu entwickeln, welches das Sediment des Flussbettes nachahmt und Teil des Filtersystems ist, das Flusswasser filtert, um es trinkbar zu machen", sagt er. „Eine solche feste Matrix soll die Kontrastmittel abfangen. Sobald sie abgebunden sind, können wir sie herausholen und die Möglichkeit für eine Wiederverwendung prüfen.“

Aber auch mit diesen Maßnahmen wird ein Teil der ICM in Fließgewässer und damit ins Grundwasser gelangen. Wie gravierend diese unvermeidliche Einfließen für natürliche Gewässer sein wird, wollen die REMEDI-Forscher bestimmen. In einem parallelen Arm des Projekts wird versucht, die damit verbundenen Risiken zu bewerten und zu quantifizieren.

Auch wenn das Projekt noch ganz am Anfang steht, sieht sich Prof. Guadagnini durch eine wachsende öffentliche Diskussion über Verunreinigungen durch Pharmaka bestärkt. „Die Leute beginnen, dies als ein Problem zu sehen, das man angehen muss“, sagt er. „Sie sind besorgt, weil man über die Risiken für die Umwelt noch zu wenig weiß; auf Grund der wirtschaftlichen Vorteile, die Rückgewinnung und Wiederverwendung einiger dieser Verbindungen bringen könnten, gewinnt das Thema auch für die Industrie an Bedeutung.“

Risiken

Seit 2006 wird ein neues Arzneimittel in der EU nur noch zugelassen, wenn es mit einer Umweltrisikobewertung – einem Dossier zur Quantifizierung des voraussichtlichen Umweltrisikos eines Wirkstoffs – versehen ist. Dies kann für Krankenhäuser ein wichtiger Anstoß sein herauszufinden, wie die Risiken von Medikamenten und anderen Verbindungen, die sie Patienten verabreichen, am besten verringert werden können. Beispielsweise könnte entschieden werden, den Harn eines Patienten zu sammeln, anstatt ihn in die Toilette zu spülen.

Die Erstellung solcher Risikobewertungen ist jedoch kostspielig (etwa 500.000 € /Bewertung), und obwohl dies nur ein winziger Bruchteil der Gesamtkosten für die Markteinführung eines neuen Arzneimittels ist, summiert es sich zu den Gesamtkosten von Forschung und Entwicklung neuer Therapien. Das Gesetz gilt auch nur für neue Medikamente.

„Vor 2006 waren unserer Schätzung nach bereits zwischen 1.000 und 1.800 Medikamente auf dem Markt“, sagt Prof. Ragas. „Arzneimittel wie Paracetamol (im Jahr 2016 konsumierten die Europäer davon 48.400 Tonnen) sind nie systematisch auf ihre Umweltauswirkungen untersucht worden.“

Das vorrangige Ziel des PREMIER-Projekts ist es Dossiers zur Risikobewertung retrospektiv zu erstellen (PREMIER: Prioritisation and risk evaluation of medicines in the environment - Projekt der Innovative Medicines Initiative - IMI; https://www.imi.europa.eu/projects-results/project-factsheets/premier; Anm. Redn.). Die Forscher des Projekts verwenden Computermodelle, um intelligente und erschwingliche Vorhersagen sowohl über die Toxizität eines Arzneimittels als auch über die Wahrscheinlichkeit einer Exposition mit negativen Auswirkungen auf aquatische Ökosysteme zu treffen.

„Durch die Entwicklung kluger Verfahren wollen wir vermeiden, alle Medikamente testen zu müssen“, sagt Prof. Ragas. „Wenn wir ein Molekül und seine Eigenschaften kennen – zum Beispiel wie gut es abgebaut wird und in Wasser löslich ist – können wir Modelle erstellen, die vorhersagen, wie schnell es (aus der Umwelt) verschwinden wird.

„Wir hoffen, von unseren Modellen sagen zu können: „Diese 50 Chemikalien sind höchstwahrscheinlich die riskantesten“. Mit diesen Chemikalien können wir dann kostspieligere Tests durchführen und Schlussfolgerungen ziehen.

Prof. Ragas und sein Team wollen auch herausfinden, wie sich ein bestimmtes Arzneimittel auf verschiedene Spezies auswirkt. „Beispielsweise auf Fische“, so Prof. Ragas. „Wenn bekannt ist, dass ein Arzneimittel auf ein Molekül in menschlichen Nervenzellen abzielt, werden wir anhand einer genetischen Datenbank untersuchen, ob dieses Zielmolekül (Target) auch in Fischen vorhanden ist. Ist das Gen, das beim Menschen für das Zielmolekül kodiert, auch in Fischen vorhanden, wissen wir, dass Fische wahrscheinlich auf dieselbe Chemikalie empfindlich reagieren.“

Prof. Ragas hofft, dass diese Informationen die Bewertung der Risiken, die sowohl alte als auch neue Medikamente für die Umwelt darstellen, erleichtern können, und so Schritte unternommen werden können, um die schädlichsten zu kontrollieren.

„Wir müssen ein Gleichgewicht zwischen dem gesundheitlichen Nutzen von Arzneimitteln für den Menschen und den Folgen für die Umwelt finden“, sagt er. „Meine größte Hoffnung ist, dass wir den gesamten Bereich von Arzneimittelverbrauch und -entwicklung in eine Richtung lenken können, in der Menschen von den positiven gesundheitlichen Auswirkungen von Medikamenten profitieren können, ohne einen Schaden für die Umwelt zu verursachen.“


[1] Inge Schuster, 07.08.2020: Voltaren (Diclofenac) verursacht ein globales Umweltproblem


* Dieser Artikel wurde ursprünglich am 27. Mai 2021 von Vittoria D'Alessio in Horizon, the EU Research and Innovation Magazine unter dem Titel " Recovering drugs from sewers could reduce harm to wildlife" https://horizon-magazine.eu/article/recovering-drugs-sewers-could-reduce-harm-wildlife.html publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und durch einige Anmerkungen (Anm. Redn.) ergänzt.


Weiterführende Links

Horizon: The EU Research and Innovation Magazine

imi - Innovatve Medicines Initiative - Europe’s partnership for health: https://www.imi.europa.eu/

Christian R. Noe, 09.01.2015: Neue Wege für neue Ideen – die „Innovative Medicines Initiative“


 

inge Thu, 10.06.2021 - 16:56

Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift

Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift

Do, 3.06.2021 - — Robert W. Rosner

Robert W. RosnerIcon Wissenschaftsgeschichte Das preisgekrönte monumentale, dreibändige Werk des erst 28-jährigen Joseph Wilhelm Knoblauch ist eine unglaubliche Pionierleistung. Einige Abschnitte erscheinen im Sinn der Systemwissenschaften auch heute hochaktuell ; auch, dass der Text für Laien nicht nur verständlich, sondern von diesen auch direkt anwendbar sein sollte, erfüllen bislang nur die wenigsten wissenschaftlichen Publikationen. Darüber hinaus gibt das Werk einen hervorragenden Einblick in die wissenschaftlichen Theorien der Zeit der Aufklärung. Der Chemiker und Wissenschaftshistoriker Robert Rosner fasst im Folgenden wesentliche Aspekte der Schrift zusammen, die auf der Europeana-website* frei zugänglich ist. Es lohnt sich drin zu schmökern!

Joseph Wilhelm Knoblauch, 1810

Die erste wissenschaftliche Gesellschaft im Habsburgerreich.....

Die Königlich Böhmische Gesellschaft der Wissenschaften war die erste wissenschaftliche Gesellschaft im Habsburgerreich. 1770 auf Initiative von Ignaz von Born in Prag als Privatgesellschaft gegründet , wurde sie 1785 in eine öffentliche Einrichtung umgewandelt. Ignaz von Born war Freimaurer und ebenso einige der anderen Gründungsmitglieder. Die Freimaurer waren zu der Zeit Vorkämpfer der Aufklärung im Kaiserreich. Sie interessierten sich nicht nur für theoretische wissenschaftliche Fragen, sondern diskutierten auch praktische Fragen, um Mittel und Wege zu finden, die bei der Modernisierung des Landes helfen könnten. So veröffentlichte die Gesellschaft 1800 ein Memorandum, in dem sie die Verwendung von Kohle anstelle von Holz als Energiequelle forderte und vor der Gefahr der Entwaldung Böhmens infolge der fortgesetzten Verwendung von Holz warnte.

Abbildung 1:Die Königlich Böhmische Gesellschaft der Wissenschaften in Prag, Festliche Sitzung mit Kaiser Leopold II, 1790 (Bild: Autor unbekannt; gemeinfrei)

..... setzt einen Preis für einen Bericht zur Verbesserung der Lebensmittelqualität aus

Auf Initiative des Prager Chemikers Johann Andreas Scherer (1755-1844) setzte die Gesellschaft 1804 einen Preis von 500 Gulden für die beste Veröffentlichung zur Verbesserung der Lebensmittelqualität aus. (Scherer interessierte sich u.a. für Fragen, die man heute als Umweltprobleme ansehen würde und hatte mehrere Bücher veröffentlicht, die gegen die zu dieser Zeit unter deutschen Chemikern noch weit verbreitete Phlogiston-Theorie auftraten). Dieser Bericht sollte so abgefasst werden, dass er normalen Bürgern und Bauern helfen würde, die Probleme der Verfälschung von Lebensmitteln zu verstehen und die Lebensmittelqualität zu kontrollieren, ohne selbst Experten zu sein.

Vorerst erhielt die Böhmische Gesellschaft der Wissenschaften keinen Bericht, der diese Anforderungen erfüllte, und so wurde der Preis 1806 auf 700 Florin erhöht (700 Fl. entsprachen der aktuellen Kaufkraft von etwa 14 000 €; Anm. Redn.). Dies führte dazu, dass nun zehn Berichte ankamen, von denen aber nur die Arbeit von Joseph Wilhelm Knoblauch in den meisten Punkten die strengen Anforderungen der Böhmischen Gesellschaft erfüllte - allerdings auch erst nachdem dieser einige Teile entsprechend abgeändert hatte.

... und vergibt ihn für die dreibändige Schrift des Joseph Wilhelm Knoblauch

Joseph Wilhelm Knoblauch (1789 - 1819) war als Apotheker ausgebildet mit einem Master-Abschluss in Philosophie und einem Bachelor-Abschluss in Medizin. Seine preisgekrönte Schrift mit dem Titel “Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten und möglichst wieder aufzuheben“ wurde 1810 in Leipzig veröffentlicht. Abbildung 2.

Abbildung 2:Joseph Wilhelm Knoblauch: Deckblatt von Teil 2 der preisgekrönten, dreibändigen Schrift (links) und Titel der 3 Bände (rechts) (Quelle: Národní knihovna České republiky, https://www.europeana.eu/en/item/92004/NKCR___NKCR__49D000050ABT16NH0P3_cs. cc: nc)

 

Wie der Autor einleitend betont, besteht das Hauptziel des Buches darin, dem Bauern, der die Lebensmittel produziert, und dem Händler, der diese lagert und transportiert, zu helfen die richtigen Mittel zu verwenden und jegliches Material zu vermeiden, das eine Verfälschung verursachen kann.

Der Begriff Verfälschung bezieht sich dabei nicht nur auf profitorientierte Manipulationen, die zur Verschlechterung von Lebensmitteln führen oder diese sogar giftig machen, sondern auch auf den Gebrauch von Werkzeugen oder Gefäßen, die zur Erzeugung eines Lebensmittels nicht geeignet sind oder auf eine Lagerung unter untauglichen Bedingungen.

Für Knoblauch erscheint es daher unumgänglich, dass der Leser nicht nur alle möglichen Vorgänge verstehen sollte, die Auswirkungen auf Lebensmittel haben könnten, sondern auch alle Faktoren kennen sollte, die das Leben auf der Erde beeinflussen, wie Licht, Wärme, Elektrizität, die verschiedenen Gase in der Luft und die Schwerkraft.

Da das Buch von normalen Bürgern und nicht von Wissenschaftlern gelesen werden sollte, beschrieb Knoblauch wiederholt Experimente, die jeder zu Hause ausführen konnte, um die Aussagen zu den von ihm erörterten Phänomenen zu untermauern. Um beispielsweise die Bedeutung des Lichts für das Wachstum von Pflanzen klar zu machen, zeigt er, dass aus Samen, die in einem dunklen Keller keine Änderung erfahren, Blätter sprießen, sobald sie etwas Sonnenlicht ausgesetzt wurden.

Aus all dem entstand ein äußerst umfangreiches Buch mit mehr als 2000 Seiten in 3 Bänden. Als eine Art populärwissenschaftlicher Schrift erhält man darin einen guten Überblick über die wissenschaftlichen Theorien dieser Zeit , welche zweifellos auch die wissenschaftlichen Ideen der damals wichtigsten Gelehrten-Gesellschaft der Monarchie und der den Preis verleihenden Juroren widerspiegeln.

"Von der wechselseitigen Einwirkung"

In einer 96 Seiten langen Einführung beschreibt Knoblauch die verschiedenen Faktoren, die das Leben von Menschen, Tieren und Pflanzen beeinflussen und wie diese Faktoren miteinander wechselwirken.

Dazu führt er verschiedene Lebensvorgänge an, einige davon recht ausführlich.

So zeigt er, dass Blut mit Hilfe von Eisen Sauerstoff aufnimmt, sich dabei hellrot färbt und hilft, den Körper warm zu halten.

In der Verdauung der Nahrung und der Gärung sieht er verwandte Vorgänge. Die Gärung in Gegenwart von Hefe vergleicht er wird mit der Gärung ohne Hefe etwa bei der Weinherstellung.

Ausführlich beschreibt er die Keimung von Samen, zeigt, wie man gekeimte Gerstensamen von nicht gekeimten Samen unterscheiden kann, da gekeimte Samen mehr wasserlösliche Inhaltsstoffe enthalten als nicht gekeimte Samen.

Dazu gibt es eine Reihe von Experimenten, die helfen sollen die Wirkung von Sauerstoff, Licht und Feuchtigkeit auf Grünpflanzen zu beobachten.

Eingehend untersucht Knoblauch Faktoren, die einen Einfluss auf den Zersetzungs- und Fäulnisprozess von Pflanzen und Fleisch haben. Nach seiner Meinung zersetzen sich Lebensmittel, die viel Stickstoff und viel Phosphor enthalten, schneller und riechen stärker. Dies gilt insbesondere für Lebensmittel mit hohem Phosphorgehalt wie Fisch.

Was sind Lebensmittel?

Knoblauch erweitert eingangs die Bedeutung des Wortes „Lebensmittel“. Es umfasst jetzt nicht nur Nahrung, sondern alles, was laut Autor für das Leben auf der Erde benötigt wird.

So wird also das Leben von drei Hauptfaktoren beeinflusst:

1. vom sogenannten "Dunstkreis "

2. von Getränken

3. von Nahrung

Das Wort "Dunstkreis" oder synonym Atmosphäre benutzt er für alle unsichtbaren Dämpfe und Kräfte, die uns umgeben.

Von der Atmosphäre

Atmosphäre (Dunstkreis) ist für Knoblauch alles, was die Erde umgibt und immer noch als Teil davon gesehen werden kann. Es besteht aus schwereloser Materie - d.i. Licht, Wärme, Elektrizität und Magnetismus - und Materie mit einem Gewicht - dies sind die Gase Sauerstoff, Stickstoff, Wasserdampf, Kohlendioxid und unter besonderen Umständen Wasserstoff. Schließlich zählt er auch Schwerkraft und Elastizität zur Atmosphäre.

In den Kapiteln, in denen Knoblauch sich mit „schwereloser“ Materie, Licht, Wärme und Elektrizität befasst, konzentriert er sich darauf, zu beschreiben, wie und wo diese Materie erzeugt wird und welche Auswirkungen sie auf die Umgebung hat, ohne aber detailliertere Erklärungen zu geben .

In den Abschnitten, die sich mit Licht befassen, erwähnt er nicht nur die bekannten Eigenschaften wie Brechung, Spektrum, Reflexion, Fokussierung usw., sondern erörtert auch die Bedeutung von Licht für die Absorption von CO2 durch grüne Blätter und das Wachstum von Pflanzen.

Wärme betrachtet er als eine Art Strahlung, die eng mit dem Licht verbunden ist, insbesondere mit dem roten Lichtspektrum.

Knoblauch spricht von „nicht wahrnehmbarer Wärme“, wenn er sich auf die Verdampfungswärme oder die Schmelzwärme bezieht.

Elektrizität gehört für ihn zum schwerelosen Teil der Atmosphäre und hat einen positiven und einen negativen Pol. Durch Reiben von Glas oder Bernstein kann positive Elektrizität, durch Reiben von Harzen negative Elektrizität erzeugt werden. Knoblauch erörtert die Unterschiede zwischen leitendem Material und Nichtleitern und beschreibt er verschiedene Verfahren zur Stromerzeugung, von denen einige leicht getestet werden könnten. Um zu zeigen, wie eine galvanische Batterie funktioniert, schlägt er vor, einen silbernen Löffel unter die Zunge zu legen und einen Zinkstab darauf zu legen.

Hinsichtlich der Gase werden mehrere Experimente beschrieben, die zeigen, wie Sauerstoff, Stickstoff und Kohlendioxid das Leben beeinflussen. Der Autor schildert auch Methoden zur Herstellung von Schwefelwasserstoff und Phosphin, um sie mit Gasen zu vergleichen, die im Fäulnisprozess von lebendem Material entstehen.

Wie bereits erwähnt, wird auch die Schwerkraft als Teil der Atmosphäre betrachtet. Es wird darauf hingewiesen, dass der Luftdruck, der einen großen Einfluss auf alle lebenden Materialien hat, auf die Schwerkraft zurückzuführen ist. Nach Knoblauch ist Elastizität eine der Schwerkraft entgegengesetzte Kraft. Er definiert Elastizität als Kraft, mit der Material in einem bestimmten Dichtezustand oder in seiner ursprünglichen Form bleiben will. Als Beispiele für Elastizität erwähnt er nicht nur, dass Druckluft versucht, sich auszudehnen, sondern auch, dass eine Metallfeder oder menschliches Haar bei Verformung wieder in ihre ursprüngliche Form zurückkehrt.

Nahrungsmittel - von der Quelle der Verfälschungen

Nach mehr als 300 Seiten in denen Knoblauch allgemein die verschiedenen Faktoren, die das Leben von Pflanzen, Tieren und Menschen beeinflussen, behandelt, beginnt er die Faktoren, die zu einer Verfälschung der Lebensmittel führen können, ausführlich zu erörtern.

Zur Zubereitung und Lagerung von Lebensmitteln werden unterschiedlichste Arten von Gefäßen benötigt, daher werden die verschiedenen Materialien untersucht, aus denen diese Gefäße bestehen.

Knoblauch beginnt mit möglichen Gefahren, wenn man Holzgefäße zur Lagerung von Lebensmitteln verwendet. So können giftige Pilze auf dem Holz wachsen und die in diesen Gefäßen gelagerten Lebensmittel schädigen. Um das Pilzwachstum zu verhindern empfiehlt er, die Oberfläche des Gefäßes zu verkohlen und zitiert dazu ein Testergebnis des französischen Chemikers Berthollet (1748 - 1822): dieser verglich Wasser, das unter identen Bedingungen 4 Monate in einem Holzgefäß mit einer verkohlten Innenfläche und einer naturbelassenen Oberfläche gelagert wurde. Nur das Wasser in dem Gefäß mit der karbonisierten Oberfläche erwies sich als trinkbar.

Verfälschungen durch schädliche metallene Werkzeuge

Im weiteren geht Knoblauch auf Gefahren ein, die die durch verschiedene Metalle in Koch- und Lagergefäßen verursacht werden, insbesondere von solchen, die Kupfer und Blei enthalten. Auch andere gefährliche Metalle wie Zink, Zinn, Antimon, Kobalt und Arsen finden sich gelegentlich In Legierungen.

Die Eigenschaften von Kupfer werden ausführlich diskutiert, zahlreiche Beispiele von Kupfervergiftungen erörtert und mehrere Tests zum Nachweis von Kupfer beschrieben.

Der einfachste Test besteht darin, ein Stück reines Eisen in einem Gefäß mit Wasser zu erhitzen; ist Kupfer anwesend, tritt Oxydation des Eisenstücks ein (roter Überzug; Redn.). Ein besserer Test ist es eine Ammoniaklösung zu verwenden (blaue Flüssigkeit. Anm. Redn.), der beste Test ist der sogenannte Hahnemann-Weintests, der aus einer verdünnten Lösung von Calciumsulfid in Weinsäure besteht, aus der Kupfer als schwarzbrauner Niederschlag ausfällt. Dieser Test wurde 1788 von Samuel Hahnemann, dem Begründer der Homöopathie, eingeführt, um zu überprüfen, ob der Wein mit dem sogenannten Bleizucker (Bleiacetat) gesüßt worden war. Dies muss ziemlich oft vorgekommen sein, da der Hahnemann-Weintest in allen Apotheken verfügbar sein musste.

Knoblauch diskutiert die Art der Vergiftung durch die verschiedenen Metalle in den Legierungen und wie die Legierungen mit dem Hahnemann-Weintest getestet werden können, die Farbe der verschiedenen Metallsulfide und wie die Sulfide unterschieden werden können. Das einzige Metall, das für Gefäße empfohlen wird, die zur Zubereitung von Speisen dienen, ist Eisen, glasbeschichtetes Eisen und mit einigen Vorbehalten verzinntes Eisen. Da dieses mit Blei kontaminiert sein könnte, wird empfohlen, verzinnte Gefäße auf das Vorhandensein von Blei zu prüfen.

Das Kapitel schließt mit einer Diskussion möglicher Gefahren durch die Verwendung von Gefäßen aus Ton - d. i. Keramik, Porzellan - oder Glas. Obwohl das Material allgemein zur Lagerung empfohlen wird, wird darauf hingewiesen, dass der Ton manchmal Bleioxide enthalten kann. Daher wird empfohlen, es nach der 1795 vom deutschen Chemiker Westrumb beschriebenen Methode zu überprüfen. Wasser oder Essigsäure wird nach Zugabe des Hahnemann-Weintests in Gegenwart von Bleioxid trüb.

Von thierischen Lebensmitteln

Der nächste Abschnitt befasst sich mit Lebensmitteln tierischer Herkunft und erörtert Gefahren, die durch falsche Lagerung verursacht werden. Dabei wird versucht, die chemischen Prozesse zu erklären, die zur Zersetzung von Fleisch infolge schlechter Lagerung führen. Es werden mehrere Tests beschrieben, die zeigen, wie der Fäulnisprozess abhängig von Temperatur und Feuchtigkeit fortschreitet. Knoblauch meint, dass Gallerte (Kollagen) - er nennt es Zellgewebe - der Teil des Fleisches ist, der sich am schnellsten zersetzt.

Da Gelatine durch Abkühlen einer Kollagenlösung erhalten wird, gibt die Menge der erhaltenen Gelatine einen Hinweis auf die Menge an Kollagen, die im Fleisch vorhanden ist.

Ausführlich wird beschrieben, wie der Chemiker Berthollet den Fäulnisprozess untersuchte, indem er Rindfleisch im Wasser erhitzte und das Filtrat auf das Vorhandensein von Gelatine überprüfte. Dies wurde solange wiederholt, bis das Filtrat keine Gelatine mehr aufwies. Dann wurde das feuchte Rindfleisch in einem geschlossenen Gefäß mit Luft erwärmt, um zu prüfen, ob der Fäulnisprozess weitergehen würde. Nach einigen Tagen konnte festgestellt werden, dass eine Reaktion stattgefunden hatte, der Sauerstoff war im geschlossenen Gefäß durch CO2 ersetzt worden und es wurde wieder Gelatine im Filtrat gefunden. Nach mehrmaligem Wiederholen des Vorgangs hatte das Material die Struktur von Fleisch verloren und enthielt viel weniger Stickstoff als das ursprüngliche Material. Dies wurde als Beweis dafür angesehen, dass das Material, das die Gelatine bildet, ursprünglich nicht Teil des Fleisches war, sondern ein Ergebnis der Fäulnis war.

In weiterer Folge werden Vor- und Nachteile verschiedener Methoden zur Lagerung von Fleisch wie Trockenräuchern, Einfrieren, Salzen, Beizen usw. diskutiert und erklärt, auf welche Weise diese den Zersetzungsprozess hemmen.

Von Nahrungsmitteln aus dem Pflanzenreiche

Wie man das Problem der Lagerung schaffen kann, ist auch Hauptthema bei den aus dem Pflanzenreiche stammenden Lebensmittel, Knoblauch führt eine Reihe von Methoden - Trocknen, Einsalzen, Einzuckern, Beizen - an und kommt dann auf Gärungsvorgänge zu sprechen, die er in vier unterschiedliche Arten einteilt:

  1. Zuckerfermentation, die Stärke in Zucker umwandelt
  2. Gärung des Weins
  3. Saure Gärung
  4. Die Fäulnis, die in Gegenwart von Proteinen stattfinden kann.

Ein weiteres Thema in diesem Abschnitt ist die Beschreibung von Giftpflanzen (beispielsweise von Schierling).

Von den Methoden der Prüfungskunde

Im letzten Band der Schrift werden die verschiedenen Tests zur Überprüfung der Lebensmittelqualität erörtert. Hierin versucht Knoblauch aufzuzeigen, wie viel Information zur Qualität man mit einfachen Methoden erhalten kann, dass aber zur endgültigen Sicherheit chemische Methoden erforderlich sind. Er schreibt: "Die chemische Untersuchung ist der ultimative Test, um die beste Sicherheit über die Qualität des zu untersuchenden Materials zu erhalten."

Er warnt jedoch vor den Schwierigkeiten der Interpretation und fordert: „Die erste Pflicht eines jeden, der den Mut hat, in das heilige Feld der Chemie einzutreten, ist Pünktlichkeit, Ruhe, eine Haltung, die frei von Vorurteilen und hoher Moral ist.“ Er fährt fort, indem er einige Vorgänge beschreibt, die für die qualitative Analyse erforderlich sind, und einfache Prozesse wie Fällungslösung usw. erklärt und die Herstellung der wichtigsten Reagenzien für verschiedene Tests beschreibt.

In dem Kapitel, in dem verschiedene Tests beschrieben werden, diskutiert Knoblauch die Giftstoffe, die häufig in verschiedenen Arten von Lebensmitteln vorkommen. Nicht nur Wein muss mit dem Hahnemann-Weintest überprüft werden, auch rote Fruchtsäfte können manchmal Kobaltsalze enthalten, um die Farbe zu intensivieren, oder Arsen kann in Suppen aus Kohl oder anderem Gemüse gefunden werden. Verschiedene Methoden beschreiben, wie die Metalle in Form ihrer Sulfide identifiziert werden. Quecksilbersulfid kann mit Kohle zum elementaren Quecksilber reduziert werden, Arsen-Sulfid kann in Gegenwart von Luft in Arsenoxid umgewandelt werden, das sublimiert.

Die detaillierte Beschreibung der Prüfung von Lebensmitteln auf giftige Metalle scheint darauf hinzudeuten, dass die Zugabe solcher Metalle zu Lebensmitteln zu Beginn des 19. Jahrhunderts ein häufig anzutreffendes Verbrechen war. Der Schwerpunkt, der auf die Erörterung des besten Materials für die Lagerung und den Transport von Lebensmitteln aller Art gelegt wurde, kann aber auch zeigen, dass zu einer Zeit, als es nicht mehr möglich war, die Bevölkerung in den wachsenden Städten mit Lebensmitteln aus den benachbarten landwirtschaftlichen Gebieten zu versorgen Die Verschlechterung der Lebensmittel während des Transports und der Lagerung zu einem immer wichtigeren Thema wurde.


* Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten, und wo möglich wieder aufzuheben. Europeana-Website: https://www.europeana.eu/en/item/92004/NKCR___NKCR__49D000050ABT16NH0P3_cs (cc 0, nc).Passende  Ausschnitte aus dieser Schrift (in Fraktur) wurden von der Redaktion eingefügt.


Artikel zu verwandten Themen im ScienceBlog

An der Schnittstelle von Naturwissenschaften und Geschichte: Robert W. Rosner im ScienceBlog


 

inge Wed, 02.06.2021 - 22:35

SARS-CoV-2: in Zellkulturen vermehrtes Virus kann veränderte Eigenschaften und damit Sensitivitäten im Test gegen Medikamente und Antikörper aufweisen

SARS-CoV-2: in Zellkulturen vermehrtes Virus kann veränderte Eigenschaften und damit Sensitivitäten im Test gegen Medikamente und Antikörper aufweisen

Do, 27.05.2021 — Redaktion

RedaktionIcon Medizin

 Um im Laborexperiment herauszufinden ob ein Medikament oder ein Impfstoff die Vermehrung von SARS-CoV-2 stoppen kann, benötigt man große Mengen des Virus, die üblicherweise in Zellkulturen hergestellt werden. Als Standard dienen hier häufig sogenannte Vero-Zellen der Grünen Meerkatze, an die sich das Virus allerdings durch Mutationen und Deletionen im essentiellen Spike-Protein anpasst. Bei den so entstehenden neuen Varianten können sich Pathogenität, Übertragungseigenschaften und Empfindlichkeit gegenüber antiviralen Arzneimitteln und Antikörpern von denen des Wildtyp-Virus unterscheiden und damit die Testergebnisse ungültig machen.. Eine eben im Journal e-Life erschienene Studie stellt eine aus dem menschlichen Atemwegstrakt hergestellte Zelllinie (Calu-3) vor, die zu keinen derartigen Veränderungen des Spike-Proteins führt und somit ein verbessertes System für die Produktion eines für Wirksamkeitstestungen dringend benötigten möglichst authentischen Virus darstellt .*

Rastlos sind Forscher auf der ganzen Welt bestrebt die Biologie verschiedener SARS-CoV-2-Varianten zu verstehen, um neue Therapeutika zu entwickeln und der COVID-19-Pandemie ein Ende zu setzen. Der Prozess beginnt im Labor mit sorgfältigen Experimenten, um zu beurteilen, ob ein Medikament die Replikation von SARS-CoV-2 in Zellen, die in Kulturflaschen angesetzt sind, stoppen kann oder ob ein Impfstoff die Krankheit in einem Tiermodell verhindern kann. Solche Experimente erfordern jedoch große Mengen des SARS-CoV-2 Virus und die Authentizität dieser Stamm-Menge an Virus (das normalerweise in tierischen Zelllinien kultiviert wird) ist von größter Bedeutung, um die Gültigkeit der Testergebnisse sicherzustellen.

Herstellung von SARS-CoV-2 in großen Mengen...........

Die Standard-Prozedur zur Herstellung von SARS-CoV-2-Beständen nützt die  Vero-Zelllinie (aus Nierenzellen, die vor fast 60 Jahren von einer afrikanischen Grünen Meerkatze isoliert wurden). Diese Zellen sind sehr anfällig für Viren, da ihnen sogenannte Interferon-Zytokine vom Typ I fehlen, d.i. einer wichtigen Gruppe von Signalproteinen, die von Zellen in Gegenwart von Viren freigesetzt werden. Verozellen werden bevorzugt für die Isolierung und Vermehrung vieler Viren gewählt, da sie gut charakterisiert und leicht zu halten sind, adhärente Kulturen bilden (d.i. an Kulturschalen haften) und bei Infektionen sichtbare strukturelle Veränderungen aufweisen. Wie Viren, die auf natürliche Weise in menschlichen Populationen zirkulieren, neigen allerdings auch im Labor gezüchtete Viren dazu, sich zu verändern und an die jeweilige Umgebung anzupassen, in der sie sich gerade befinden.

...........in Vero-Zellen kann zu Mutationen und Deletionen im Spike-Protein führen.......

Eine frühe Studie, die seitdem auch von Anderen repliziert wurde, hat ergeben, dass Stamm-Mengen von SARS-CoV-2, die in von Vero-Zellkulturen kultiviert wurden, häufig Mutationen oder Deletionen im Spike-Gen aufweisen (das entsprechende Spike-Protein ist für das Andocken des Virus an die Wirtszellen und das nachfolgende Eindringen in die Zellen verantwortlich; Anm. Redn). Diese Deletionen entfernen eine wichtige Region auf dem Spike-Protein, die als mehrbasige Spaltstelle bezeichnet wird und die Fähigkeit des Virus beeinflusst, menschliche Atemwegszellen zu infizieren. Derartige Viren verhalten sich daher in mehrfacher Hinsicht nicht wie ein authentisches SARS-CoV-2: Sie weisen eine niedrigere Pathogenität auf, sind nicht übertragbar und zeigen eine veränderte Empfindlichkeit auf die Hemmung durch antivirale Interferon-stimulierte Gene und Antikörper von Patienten.

.........und damit zu veränderten Sensitivitäten gegen Medikamente und Antikörper

Diese Eigenschaften können die Interpretation von Laborexperimenten erschweren, in denen von Vero-Zellen produzierte Viren zur Bestimmung der Wirksamkeit von experimentellen Arzneimitteln oder Impfstoffen verwendet werden. Bei Impfstoffen mit inaktiviertem SARS-CoV-2, das in Vero-Zellen hergestellt wurde, könnte die Fähigkeit zur Stimulierung richtiger Antikörperreaktionen ebenfalls teilweise beeinträchtigt sein (auch, wenn es dafür noch keine formelle Bestätigung gibt).

Nun berichten im Journal eLife Bart Haagmans und Kollegen vom Erasmus Medical Center (Rotterdam) und der Universität Illinois (Urbana-Champaign) mit Mart Lamers als Erstautor [1] über einfache Methoden zur Herstellung von SARS-CoV-2 Stamm-Mengen in menschlichen Zellen, die Mutationen und Deletionen im für das Spike-Protein kodierenden Gen verhindern (Abbildung 1).

Abbildung 1: Schematische Darstellung einer von einem Patienten stammenden SARS-CoV-2-Pprobe, die unter Verwendung der Vero-Zelllinie (die vor fast 60 Jahren aus einem afrikanischen Grünen Meeraffen isoliert wurde; oben) oder der Calu-3-Zelllinie (die eine menschliche Zelllinie ist; s.u.) passagiert wurde. Den Verozellen fehlt eine Serinprotease namens TMPRSS2, die benötigt wird, damit das Virus über die Plasmamembran in die Wirtszellen eindringen kann. Bestimmte SARS-CoV-2-Varianten mit Deletionen im Spike-Protein (rot dargestellt) können jedoch über einen anderen Weg in Vero-Zellen eindringen. Für diese Varianten wird daher selektiert und sie beginnen die Viruspopulation zu dominieren. Die Pathogenität, Übertragungseigenschaften und Empfindlichkeit der Varianten gegenüber antiviralen Arzneimitteln und Antikörpern unterscheiden sich von denen des Wildtyp-Virus. Calu-3-Zellen weisen keinen Mangel an TMPRSS2 auf, so dass die Authentizität des Spike-Gens erhalten bleibt, und Studien mit solchen Virusbeständen ahmen die Biologie des menschlichen Virus genauer nach. (Bild: aus [1], erzeugt mittels BioRender.com).

Vorerst haben Lamers et al. eine Methode namens Deep Sequencing verwendet, um zu bestätigen, dass wiederholtes Passagieren (Umsetzen) von SARS-CoV-2 in Vero-Zellen zu einer Zunahme von viralen Genomen führt, die Mutationen oder Deletionen in der wichtigen Region des Spike-Gens aufweisen. Werden weniger empfindliche Sequenzierungsmethoden benutzt oder verlässt man sich auf „Konsensus-Sequenzen“, so kann dies den falschen Eindruck erwecken, dass solche Deletionen fehlen.

In Folge haben Lamers et al. dann festgestellt, wie diese Spike-Deletionen für bestimmte SARS-CoV-2-Varianten einen replikativen Vorteil in Vero-Zellen verschaffen, der es ihnen ermöglicht, die Viruspopulation zu dominieren. Vero-Zellen fehlt eine Serinprotease, die SARS-CoV-2 aber benötigt, um durch die Plasmamembran in Zellen des menschlichen Atemwegs einzudringen. SARS-CoV-2-Varianten mit Deletionen im Spike-Gen nutzen jedoch einen anderen Weg (Endozytose genannt), um in Vero-Zellen einzudringen. Offenbar ermöglicht die Fähigkeit der Varianten diese zweite Eintrittsroute zu nutzen, dass sie dominieren, wenn Vero-Zellen verwendet werden.

Die Calu-3-Zelllinie, eine bessere Alternative

Als nächstes stellte sich die Frage, ob eine Zelllinie des menschlichen Atemwegs, Calu-3, eine bessere Alternative zur Kultivierung von SARS-CoV-2 sein könnte, da diese Zelllinie die notwendige Protease besitzt. Tatsächlich stellte es sich heraus, dass ein wiederholtes Passagieren von SARS-CoV-2 in Calu-3-Zellen die Akkumulation von Mutationen und Deletionen im Spike-Gen von SARS-CoV-2 verhinderte. (Dies war auch in Vero-Zellen der Fall, wenn sie durch genetische Manipulation zur Expression der Serinprotease befähigt wurden). Darüber hinaus eigneten sich Calu-3-Zellen genauso gut wie Vero-Zellen, um die für nachfolgende Experimente erforderlichen, großen Virusmengen zu produzieren. Dass durch deep sequencing die Authentizität der auf diese Weise hergestellten Stamm-Mengen von SARS-CoV-2 bestätigt wird, lässt die Interpretation nachfolgender Experimente verlässlich erscheinen.

Fazit

Die Ergebnisse dieser Studie sind ein überzeugendes Argument für SARS-CoV-2-Forscher, dass sie die Genomsequenzen der von ihnen produzierten Stamm-Mengen des Virus gründlich charakterisieren (und eine Sequenzierung von Konsensus-Sites vermeiden). Darüber hinaus sollten Forscher die Zellen, die Wachstumsmedien und die für die Virusproduktion verwendeten Additive berücksichtigen, um artifizielle Anpassungen von SARS-CoV-2 an die Kulturbedingungen zu verhindern, die sich auf die Beurteilung der Wirksamkeit von Arzneimitteln oder Impfstoffen auswirken könnten.

Zellkultursysteme zur Vermehrung von Viren sind der Dreh- und Angelpunkt der Virologie, dennoch haben sie seit den Anfängen des Fachgebiets keine wirkliche Abänderung erfahren. Die Anwendung moderner technologischer Neuerungen wie rationale Geneditierung in Zellen oder die Verwendung von in vivo-ähnlichen organoiden Gewebemodellen verspricht diesen kritischen Aspekt der Virologie zu transformieren. Dies sollte es Forschern ermöglichen, ihre Methoden auf den aktuellen Stand zu bringen, um Authentizität n ihren Experimenten beizubehalten.


[1] Mart M. Lamers et al., Human airway cells prevent SARS-CoV-2 multibasic cleavage site cell culture adaptation. eLife 2021;10:e66815. DOI: https://doi.org/10.7554/eLife.66815


*Der vorliegende Artikel von Benjamin G. Hale ist am 18. Mai 2021 unter dem Titel "COVID-19: Avoiding culture shock with the SARS-CoV-2 spike protein" im Journal eLife erschienen: https://doi.org/10.7554/eLife.69496, Der unter einer cc-by 4.0 stehende Artikel wurde möglichst wortgetreu von der Redaktion übersetzt.


Das Spike-Protein im ScienceBlog


inge Thu, 27.05.2021 - 18:38

Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Do, 20.05.2021 — Christina Beck Christina BeckIcon Gehirn

Der vor mehr als drei Millionen Jahren in Ostafrika lebende Australopithecus afarensis nimmt eine Schlüsselposition im Stammbaum der Homininen ein, von dem sich vermutlich alle späteren Homininen - einschließlich des Menschen - herleiten. Dieser Vorfahr (zu dieser Art gehörte auch die bekannte Lucy) ging aufrecht und hatte ein etwa 20 Prozent größeres Gehirn als Schimpansen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft berichtet über den Fund und die Erforschung eines mehr als drei Millionen Jahre alten, weitgehend vollständig erhaltenen kindlichen Skeletts des Australopithecus afarensis ("Dikika-Kind), das neue Erkenntnisse zur Entwicklung des Gehirns und zur Humanevolution ermöglicht.*

Unser Studiengelände liegt im Nordosten Äthiopiens in der Region Dikika. Die weite, karge Landschaft von Dikika birgt Jahrmillionen altes Gebein. Seit fünf Jahren suchen wir die Böschungen entlang eines ausgetrockneten Flussbeckens ab und durchsieben den Boden nach Knochen, die das Wasser, das einst durch das Becken floss, bergab gespült hat. Mittagstemperaturen bis 50° Celsius lassen die Arbeit zur Qual werden; nirgends gibt es ein schattiges Plätzchen. Bisher besteht unsere Ausbeute aus einer Fülle fossiler Säugetiere, darunter Elefanten, Flusspferde und Antilopen. Menschliche Überreste sind nicht dabei.

Doch im Dezember 2000 wurden die Paläoanthropologen endlich fündig: In einer dicken Sandsteinlage stoßen sie auf die Teile eines Kinderskeletts. Das winzige Gesicht lugt aus einem staubigen Hang hervor. Es handelt sich um die fossilen Überreste eines Homininen: ein Australopithecus afarensis, wie die Forschung später feststellen wird. Damit gehört das Kind zur gleichen Art wie „Lucy“, jenes weltberühmte, rund 3,2 Millionen Jahre alte weibliche Skelett, das 1974 in der gleichen Region Afrikas ausgegraben wurde. Australopithecus afarensis nimmt eine Schlüsselposition im Stammbaum der Homininen ein – der heutige Mensch und die ausgestorbenen Vorfahren der Gattung Homo zählen zu dieser Gruppe – denn alle späteren Homininen stammen vermutlich von dieser Art ab.

Der neue Skelettfund ist der älteste und vollständigste, der jemals von einem kindlichen menschlichen Vorfahren gemacht worden ist, denn im Gegensatz zu „Lucy“ hat das Kind auch Finger, einen Fuß und einen vollständigen Rumpf. Und vor allem: es hat ein Gesicht (Abbildung 1).

Abbildung 1: Der Schädel gehört zu einem 3,3 Millionen Jahre alten Skelett eines 3-jährigen Mädchens, das im Jahr 2000 in der Region Dikika im äthiopischen Hochland gefunden wurde. Links © Zeray Alemseged; rechts © Philipp Gunz / CC BY-NC-ND 4.0

„Wir können die Milchzähne sehen und die bleibenden Zähne, die noch im Kiefer stecken. Wir haben fast alle Wirbel, Rippen und die Schulterblätter. Und wir haben Ellbogen, Hände, Beinknochen und fast einen kompletten Fuß, bei dem nur die Zehenspitzen fehlen“, beschreibt der aus Äthiopien stammende und zum damaligen Zeitpunkt in Leipzig arbeitende Projektleiter Zeresenay Alemseged den Fund. Sämtliche Knochen des oberen Skelettteils des Dikika-Kindes, von den Forschenden „Selam“ genannt, waren in einem kompakten Sandsteinblock eingeschlossen. Mit Hilfe eines Zahnarztbohrers wurde der harte Sandstein Korn für Korn aus den Rippenzwischenräumen und aus der Wirbelsäule entfernt.

Auf den Zahn gefühlt

Es dauerte mehr als vier Jahre, bis das gesamte Skelett geborgen werden konnte. Zahlreiche Forscherinnen und Forscher, u.a. vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, und mehr als 40 Feldforschungsassistierende waren an der Ausgrabung beteiligt. Beim Dikika-Kind liegen die Kronen der bleibenden Zähne noch im Knochen, sind aber teilweise schon voll ausgebildet. „Wir können heute mit biochemischen Methoden, Gensequenzanalysen und Computertechnik immer mehr aus fossilen Knochen herauslesen und so etwas über die Lebensweise, die Lebensbedingungen und den Lebensverlauf der Frühmenschen erfahren“, erklärt Jean-Jacques Hublin, Direktor am Leipziger Max-Planck-Institut, die weitreichenden methodischen Umwälzungen in seinem Forschungsgebiet. So erlaubt die computertomografische Untersuchung von Zähnen zuvor unzugängliche Entwicklungsmerkmale virtuell freizulegen, ohne das Fundstück dabei zu zerstören. Zähne gehören zu den häufigsten und am besten erhaltenen fossilen Belegen und können über das Alter und das Geschlecht des Fossilienfundes Auskunft geben.

Die Größe des ersten Backenzahnes zeigt: bei dem Dikika-Kind handelte es sich wohl um ein kleines Mädchen. Die Zahnentwicklung beginnt bei Menschen und Menschenaffen vor der Geburt und dauert während des Heranwachsens an. Entwicklungsgeschwindigkeit und -zeit werden dabei fortwährend als Wachstumslinien – ähnlich wie die Jahresringe von Bäumen – im Zahnschmelz und im Zahnbein gespeichert und bleiben darin unverändert über Millionen von Jahren erhalten. Mit hochauflösender Synchrotron-Mikrotomographie am Europäischen Synchrotron (ESRF) im französischen Grenoble wurde so das Sterbealter des Dikika-Kindes ermittelt: Es wurde nur 861 Tage alt, also nicht einmal zweieinhalb Jahre. Vermutlich hat eine Flutwelle es vor etwa 3,3 Millionen Jahren mitgerissen und dann sehr schnell unter Kies und Sand begraben, so dass es vor Aasfressern und der Witterung geschützt war.

Auf dem Weg zu einer langen Kindheit

Aufgrund der versteinerten Schädelknochen (Abbildung 2) konnte das Team am Max-Planck-Institut dem Dikika-Kind auch Geheimnisse über die Evolution der Gehirnentwicklung entlocken.

Abbildung 2: Puzzle-Spiel für Anthropologen. Über mehrere Jahre arbeiteten die Forscher an der Rekonstruktion von fossilen Schädeln der Art Australopithecus afarensis. Gehirne versteinern zwar nicht, aber das Gehirn hinterlässt einen Abdruck im knöchernen Schädel, während es sich im Laufe der Kindesentwicklung ausdehnt. Entgegen früheren Behauptungen fanden Forscher in keinem Australopithecus afarensis Gehirnabdruck Hinweise auf eine menschenähnliche Neuorganisation des Gehirns. Links © Zeray Alemseged; rechts © Philipp Gunz / CC BY-NC-ND 4.0.

Gehirne versteinern zwar nicht, aber das Gehirn hinterlässt einen Abdruck im knöchernen Schädel, während es sich im Laufe der Kindesentwicklung ausdehnt. Basierend auf Abgüssen des inneren Schädels konnten die Leipziger das Gehirnvolumen schätzen und aus den sichtbaren Gehirnwindungen wichtige Aspekte der Gehirnorganisation ableiten. „Nach sieben Jahren Arbeit hatten wir endlich alle Puzzleteile, um die Evolution des Gehirnwachstums zu untersuchen“, erzählt der Max-Planck-Forscher Philipp Gunz: „Das Sterbealter des Dikika-Kindes und sein Gehirnvolumen, die Gehirnvolumina der am besten erhaltenen erwachsenen Australopithecus afarensis-Fossilien sowie Vergleichsdaten von mehr als 1600 modernen Menschen und Schimpansen.” Die Ergebnisse werfen ein neues Licht auf zwei viel diskutierte Fragen: Gibt es Hinweise auf eine menschenähnliche Organisation des Gehirns bei Australopithecus afarensis? Und: War das Muster des Gehirnwachstums bei Australopithecus afarensis dem von Schimpansen oder dem von Menschen ähnlicher?

Herunter von den Bäumen

Entgegen früheren Annahmen weisen die Gehirnabdrücke von Australopithecus afarensis auf eine affenähnliche Gehirnorganisation hin und zeigen keine menschenähnlichen Merkmale (Abbildung 3).

Abbildung 3: Wer hat was im Kopf? Ein markanter Unterschied zwischen den Gehirnen von Menschenaffen und Menschen ist die Lage des primären visuellen Kortex. Bei allen Affengehirnen liegt dieser am Rand einer gut sichtbaren halbmondförmigen Furche (rechtes Bild, rot eingefärbte Struktur). Bei Gehirnabdrücken moderner Menschen gibt es diese Furche nicht. Der Gehirnabdruck im fossilen Schädel des Australopithecus afarensis-Kindes besitzt eine affenähnliche Furche (linkes Bild, weiße Linien in der rot eingefärbten Struktur). © P. Gunz, MPI für evolutionäre Anthropologie / CC BY-NC-ND 4.0

„Weil die Gehirne von Australopithecus afarensis Erwachsenen etwa 20 Prozent größer waren als die von Schimpansen, deutet das kleine Gehirnvolumen des Dikika-Kindes auf ein längeres Gehirnwachstum als bei Schimpansen hin“, so Gunz. Bei Primaten hängen das Wachstumsmuster und die Fürsorge-Strategie für die Jungtiere miteinander zusammen. Die verlängerte Wachstumsphase des Gehirns bei Australopithecus afarensis könnte also möglicherweise auf eine lange Abhängigkeit der Kinder von den Eltern hindeuten. Alternativ könnte sie auch eine Anpassung an Umweltbedingungen sein: Bei Nahrungsmangel würde der Energiebedarf abhängiger Nachkommen so über viele Jahre verteilt. In beiden Fällen bildete das lange Gehirnwachstum bei Australopithecus afarensis eine Grundlage für die spätere Evolution des Gehirns und des Sozialverhaltens bei Homininen, und für die Evolution einer langen Kindheit.

Der Oberschenkelknochen, das Schienbein und der Fuß liefern den Beweis, dass Australopithecus afarensis aufrecht gegangen ist – jedoch auf eine andere Art und Weise als wir (erst Homo erectus entwickelt vor 1,7 Millionen Jahren eine Art des aufrechten Gangs, die im Wesentlichen mit der Fortbewegungsweise der modernen Menschen übereinstimmt). Die beiden vollständig erhaltenen Schulterblätter des Dikika-Kindes ähneln denen eines jungen Gorillas und erleichterten wahrscheinlich das Klettern. „Wir gehen davon aus, dass sich diese frühen Vorfahren noch gut in Bäumen fortbewegen konnten“, erklärt Gunz. Was auch nicht weiter verwundert: Verschiedene Strukturen und Organe evolvieren in der Regel unterschiedlich schnell, sodass ein Mosaik von ursprünglichen und abgeleiteten Merkmalen entsteht. Jene Selektionskräfte, die den aufrechten Gang hervorbrachten, haben zuerst auf die Hinterbeine und das Becken gewirkt; die Arme und die Schulterpartie waren zunächst weniger bedeutsam, „deshalb passt die untere Körperhälfte des Australopithecus gut zum aufrechten Gang, während Oberkörper und Arme altmodischer wirken“, sagt Jean-Jacques Hublin.

Ein besonders seltener und aufregender Teil des Dikika-Fundes ist das Zungenbein. Dieser zarte Knochen hält Zunge und Kehlkopf in Position. Er spielt vermutlich eine wichtige Rolle bei der Produktion menschlicher Sprache und könnte den Forschenden helfen, die Konstruktion und Evolution des menschlichen Sprechapparates besser zu verstehen. Die Beschaffenheit dieses Knochens bei ausgestorbenen Homininen-Arten ist weitgehend unbekannt. Das einzige bislang gefundene Neandertaler-Zungenbein sieht menschlich und nicht Schimpansen-ähnlich aus. Der Zungenbeinknochen des Dikika-Mädchens ähnelt dagegen dem afrikanischer Menschenaffen. Damit bestätigt dieser Fund Berechnungen der britischen Anatomin Margaret Clegg und ihrer Kollegin, der Anthropologin Leslie Aiello, die 2002 mittels statistischer Analyse von Affen- und Menschenschädeln versucht haben, Indikatoren für die Form des Zungenbeins zu finden. Ihren Voraussagen zufolge haben die Australopithecinen eine ähnliche Zungenbeinform wie Schimpansen und Gorillas gehabt. Doch schon bei den anatomischen Übergangsformen zwischen Australopithecus und der Gattung Homo soll sich das Zungenbein in die menschliche Richtung verändert haben – ein Hinweis dafür, dass der frühe Urmensch seinen Stimmapparat anders verwendete als seine Ahnen.

Homo sapiens - Fortschritt oder Anpassung?

Australopithecus afarensis gehört zu den Wurzeln des Stammbaumes von Homo sapiens – doch zwischen diesen frühen Homininen vor mehr als drei Millionen Jahren und den ersten bekannten Vertretern unserer eigenen Art vor ungefähr 300.000 Jahren liegt ein langer Zeitraum. Die Fossilüberlieferung beweist, dass in dieser Zeitspanne viele verschiedene Menschentypen gleichzeitig nebeneinander existierten (Abbildung 4). Der größte Teil der bekannten fossilen Frühmenschen gehörte nicht einem einzelnen, sich entwickelnden Stamm an. Es gab eine ganze Reihe getrennter Evolutionszweige, die meisten von ihnen waren Seitenzweige und Sackgassen, von denen keine Spur in die moderne Welt führt. So gleicht der menschliche Stammbaum einem sich verzweigenden Busch mit vielen abgestorbenen Zweigen. Dass die Entwicklung zum Homo sapiens nicht linear verlief, muss nicht erstaunen. Denn der zentrale Punkt bei der Evolution ist nicht der Fortschritt zu Höherem, sondern das Hervorbringen verschiedenartiger Formen, Varietäten wie Darwin sie nannte. „Die heutige Situation, dass wir seit dem Aussterben der Neandertaler vor etwa 30.000 Jahren die einzige Homininenart auf diesem Planeten sind, ist die Ausnahme“, sagt Philipp Gunz.

Abbildung 4: Ein bunter Haufen - die Homininen-Familie. Obere Reihe von links: Australopithecus afarensis, Kenyanthropus platyops, Paranthropus boisei, Homo neanderthalensis, H. habilis; untere Reihe von links: A. africanus, H. erectus, A. anamensis, H. rudolfensis. © W. Schnaubelt & N. Kieser – Atelier WILD LIFE ART für das Hessische Landesmuseum Darmstadt

Bei vielen Tiergruppen ist die stammesgeschichtliche Verzweigung in den unterschiedlichen Gattungen und Arten heute noch sichtbar, zum Beispiel bei den paarhufigen Wiederkäuern mit Hörnern, den Bovidae. Afrika ist ihr Hauptverbreitungsgebiet, aber sie sind auch auf allen anderen Kontinenten (mit Ausnahme von Australien) anzutreffen. Zu dieser Familie zählen die winzigen Dikdiks ebenso wie der massige Kaffernbüffel. Wollte man ihre Entwicklung als fortschreitende Stufenleiter betrachten, so käme man in erhebliche Schwierigkeiten. Denn die Merkmale der verschiedenen Bovidae sind keineswegs Kennzeichen einer evolutionären Weiterentwicklung, sondern resultieren aus der Anpassung an die jeweiligen Anforderungen der unterschiedlichen Lebensräume und des damit verbundenen Nahrungsangebots. Die meisten Tiergruppen sind insbesondere in den frühen Abschnitten ihrer Evolutionsgeschichte sehr unterschiedlich ausgestaltet, und es gibt keinen Grund, warum dies ausgerechnet bei der Humanevolution anders gewesen sein sollte.

So mancher sieht im aufrechten Gang viel lieber einen Fortschritt als eine Alternative zur vierfüßigen Fortbewegungsweise. Aber wir sollten uns fragen, ob nicht beispielsweise die unterschiedliche Gehirngröße bei den Homininen schlichtweg eine Anpassung an verschiedene Lebensräume sein könnte. Die Fossilienüberlieferung zeigt, was es mit der angeblichen Weiterentwicklung auf sich hat: Tatsächlich lebten, z.B.im Osten und Süden Afrikas zeitgleich Vertreter der Homininengattung Paranthropus mit ihren relativ kleinen Gehirnen zur gleichen Zeit wie Vertreter der menschlichen Gattung Homo mit ihren größeren Gehirnen. Die verschiedenen Homininen stellen nichts anderes dar als alternative Antworten auf die vielfältigen Umweltbedingungen (adaptive Radiation).

Und wenn sie überlebt hätten?

Vergegenwärtigt man sich dieses Muster, so drängt sich die Frage auf, welche Rolle dann noch die menschliche Einzigartigkeit spielt. Bei der Betrachtung von Menschen und Menschenaffen klafft eine vermeintlich große Lücke zwischen uns und unseren nächsten Verwandten. Doch dieser evolutionäre Raum war in der Vergangenheit kein Vakuum, sondern enthielt zahlreiche weitere Homininenformen. Hätten die robusten Paranthropus-Arten in Afrika überlebt, hätten sich die Neandertaler in Sibirien oder der Homo erectus auf Java erhalten, dann würden uns die Unterschiede zwischen Menschen und Schimpansen längst nicht so beeindrucken.


* Der Artikel ist erstmals unter dem Titel: " Virtueller Blick in alte Knochen. Dem Leben unserer Urahnen auf der Spur" in BIOMAX Ausgabe 24, Neuauflage Frühjahr 2021 erschienen. https://www.max-wissen.de/Fachwissen/show/5599  und wurde praktisch unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


 Weiterführende Links

Abteilung für Human Evolution im Max-Planck-Institut für evolutionäre Anthropologie (MPI EVA)http://www.eva.mpg.de/evolution/index_german.htm

Lucy had an ape like brain | Science Snippet. MPI für Evolutionäre Anthropologie. Video 0,45 min. https://www.youtube.com/watch?v=auuxhsfUxbg

The Story of Selam: Discovery of the Earliest Child. Video 10:32 min. https://www.youtube.com/watch?v=8_qRSkzzDbU

Evolution des Gehirns http://www.geo.de/GEO/natur/tierwelt/das-gehirn-evolution-des-gehirns-57...


Artikel im ScienceBlog:

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Philip Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns

Herbert Matis, 17.01.2019: Der "Stammbusch" der Menschwerdung


 

inge Wed, 19.05.2021 - 23:41

Die Sonne im Tank - Fusionsforschung

Die Sonne im Tank - Fusionsforschung

Do, 13.05.2021 — Roland Wengenmayr

Icon Physik

Roland WengenmayrDer globale Energieverbrauch - derzeit zu 85 % aus fossilen Energieträgern gedeckt - wird trotz verschiedenster Sparmaßnahmen bei wachsender Erdbevölkerung weiter ansteigen. Ein Umstieg auf ein neues Energiesystem ist vor allem auf Grund des Klimawandels, aber auch wegen der limitierten Brennstoff-Ressourcen und der politischen Abhängigkeiten unabdingbar. Mit einer Nutzung der Kernfusion, d.i. der Quelle, aus der die Sonne ihre Energie speist, könnte die Menschheit eine fast unerschöpfliche Energiequelle erschließen, die keine gefährliche Treibhausgase freisetzt. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr gibt einen Überblick über die Grundlagen der Kernfusion und den Status der Kernfusionsforschung.*

Ohne Sonne gibt es kein Leben – das wussten schon unsere Vorfahren. Für die antiken Griechen schwang sich morgens ihr Gott Helios auf seinen Sonnenwagen, um für Licht und Wärme zu sorgen. Doch was lässt nun wirklich das Sonnenfeuer scheinbar ewig brennen? Darüber zerbrachen sich lange die klügsten Denker vergeblich den Kopf. 1852 kam Hermann von Helmholtz zu dem entsetzlichen Schluss, dass die Sonne schon nach 3021 Jahren ausgebrannt sein müsse. Dabei ging der berühmte Physiker von der Knallgasreaktion als Energiequelle aus, in der Wasserstoff chemisch mit Sauerstoff zu Wasser verbrennt. Erst 1938 löste der deutsch-amerikanische Physiker und spätere Nobelpreisträger Hans Bethe das Rätsel: Nicht chemische Verbrennungsprozesse sind die Quelle solarer Glut, sondern die Verschmelzung von Atomkernen – und zwar überwiegend von Wasserstoffkernen zu Heliumkernen. Abbildung 1.

Abbildung 1: Die Energieproduktion der Sonne erfolgt aus der Verschmelzung von Atomkernen. © SOHO-Collaboration, ESA & NASA

Diese Kernfusion setzt pro beteiligtem Wasserstoffatom rund vier Millionen mal mehr Energie frei als die Knallgasreaktion. Dank dieser enormen Effizienz wird die Sonne mit ihrem Brennstoffvorrat zum Glück noch weitere 4,5 Milliarden Jahre auskommen.

In ihrem Inneren laufen mehrere Fusionsreaktionen des leichten Wasserstoffs ab. Dabei dominiert eine Reaktion, die als „Proton-Proton-Reaktion 1“ bezeichnet wird (Abbildung 2): Vier Wasserstoff-Atomkerne, also Protonen, verschmelzen über Zwischenschritte zu einem Heliumkern aus zwei Protonen und zwei Neutronen. Die Neutronen entstehen aus Protonen. Dabei tragen Positronen, die Antimaterie-Gegenspieler der Elektronen, die überschüssige positive elektrische Ladung davon.

Abbildung 2: Die "Proton-Proton-Reaktion 1" in der Sonne. (Protonen: rot, Neutronen: blau).© R. Wengenmayr / CC BY-NC-SA 4.0

Diese Verschmelzungsreaktion braucht allerdings enorme Temperaturen. Für die Sonne kein Problem: In ihrem Zentrum herrschen etwa 15 Millionen Kelvin. Dabei trennen sich die Kerne der leichten Atome völlig von ihren Elektronen. Sie formen ein heißes Gas aus elektrisch geladenen Teilchen, ein Plasma. Zudem existiert im Sonneninneren aufgrund der gewaltigen Gravitation ein enormer Druck: Umgerechnet 200 Milliarden Erdatmosphären pressen das Plasma so zusammen, dass ein Kubikzentimeter davon auf der Erde fast so viel wiegen würde wie 20 gleich große Würfel aus Eisen.

Nur unter so extremen Bedingungen überwinden die Protonen ihren Widerstand gegen die Fusionshochzeit. Normalerweise stoßen sie sich nämlich wegen ihrer gleichen elektrischen Ladung gegenseitig stark ab. Doch im heißen Sonneninneren flitzen die Protonen so schnell umher, dass sie trotzdem kollidieren können – Wärme ist in der Mikrowelt nichts anderes als Bewegungsenergie. Sie nähern sich dabei bis auf 10–15 Meter an (d.i. ein Femtometer oder ein Billionstel von einem Millimeter), und an diesem „Umschlagspunkt“ beginnt die Kernkraft zu dominieren. Diese stärkste Kraft der Physik hat zwar nur eine geringe Reichweite, übertrifft innerhalb dieser jedoch die elektrische Kraft. Die Kernkraft kann deshalb auch die widerspenstigen Protonen zu Atomkernen verbinden; ohne sie gäbe es also weder Atome noch uns. Die Dichte des gepressten Sonnenplasmas sorgt überdies für ausreichend viele Zusammenstöße und hält so den solaren Fusionsofen warm.

In der griechischen Mythologie stahl ein gewisser Prometheus das Feuer von Helios’ Sonnenwagen, um es den Menschen zu schenken. Zu den modernen Nachfahren des Prometheus gehören Forscher wie der inzwischen verstorbene Lyman Spitzer. In einem Vortrag am 11. Mai 1951 umriss der amerikanische Astrononom von der Princeton University, wie sich das Sonnenfeuer auf die Erde holen ließe. Er hatte die entscheidende Idee, wie man das viele Millionen Grad heiße Plasma auf der Erde so einschließen kann, dass darin eine kontrollierte Kernfusion möglich wird. Denn der Kontakt mit einer materiellen Gefäßwand wäre fatal: Das Plasma würde schlagartig auskühlen und die empfindliche Fusionsreaktion sofort erfrieren. Spitzer schlug vor, das Plasma in einem magnetischen Käfig schweben zu lassen. Da Plasma aus elektrisch geladenen Teilchen besteht, ist das möglich, denn Magnetfelder üben auf elektrische Ladungen Kraft aus. Damit skizzierte Spitzer das Grundprinzip zukünftiger Fusionsreaktoren. Magnetische Kräfte haben allerdings den Nachteil, dass sie ziemlich schwach sind. Sie können nur ein extrem dünnes Plasma gefangen halten, etwa 250.000-fach dünner als Luft auf Meereshöhe. Deswegen wird das heiße Plasma auch in großen Reaktoren nie mehr Druck aufbauen als Luft in einem Fahrradreifen. So einfach lässt sich die Sonne also nicht kopieren.

Angeheizte Wasserstoffkerne

Das gilt auch für die Fusionsreaktion. In einem künstlichen Reaktor würde die solare Proton-Proton-Reaktion viel zu langsam ablaufen. Aber zum Glück erlaubt die Natur alternative Fusionsreaktionen, und eine davon eignet sich besonders gut für den technischen Einsatz. Damit gelang es Plasmaphysikern bereits in den 1990er-Jahren, die kontrollierte Kernfusion anlaufen zu lassen, und zwar an der europäischen Forschungsanlage JET, Joint European Torus, im englischen Abingdon und am Tokamak Fusion Test Reactor (TFTR) der amerikanischen Princeton University. Diese alternative Fusionsreaktion braucht zwei Arten von schwerem Wasserstoff als Brennstoffkomponenten: das ist das Wasserstoffisotop Deuterium, dessen Kern neben dem Proton ein Neutron enthält, und das noch schwerere Tritium mit einem Kern aus einem Proton und zwei Neutronen. Je ein Deuterium- und ein Tritiumkern verschmelzen zu einem Heliumkern (Abbildung 3).

Abbildung 3: Im Fusionsreaktor verschmilzt je ein Deuterium-Kern mit einem Tritium-Kern zu einem Heliumkern (Protonen: rot, Neutronen: blau). Dabei wird ein Neutron mit einer Energie von 14,1 Milliarden Elektronenvolt frei. © R. Wengenmayr / CC BY-NC-SA 4.0

Allerdings funktioniert das erst oberhalb von 100 Millionen Kelvin, ideal sind 300 Millionen Kelvin. Erst dann sind die schweren Wasserstoffkerne genügend in Fahrt, um effizient zu verschmelzen. Zehn bis zwanzigmal höhere Temperaturen als in der Sonne scheinen ein verrücktes Ziel zu sein. Doch sie sind in heutigen Plasmaexperimenten längst Routine geworden. Die Forschungsanlage ASDEX Upgrade am Max-Planck-Institut für Plasmaphysik in Garching erreichte schon über 250 Millionen Kelvin.

Bei der Fusion von Deuterium mit Tritium bekommt der entstehende Heliumkern rund zwanzig Prozent der freiwerdenden Energie mit. Damit heizt er das von Auskühlung bedrohte Plasma nach. Die restlichen achtzig Prozent der Fusionsenergie trägt das Neutron davon. Als elektrisch neutrales Teilchen entkommt es dem Magnetkäfig und trifft auf die Wand des Reaktorgefäßes. In einem zukünftigen Kraftwerk werden die Neutronen dort den überwiegenden Teil der Fusionswärme auf ein Kühlmittel übertragen, zum Beispiel Wasser oder Helium. Das befördert die Wärmenergie dann zu einer Turbinenanlage mit elektrischen Generatoren, genau wie bei konventionellen Kraftwerken (Abbildung 4).

Abbildung 4: Fusionskraftwerk © MPI für Plasmaphysik / CC BY-NC-ND 4.0

Die Energie des Neutrons entspricht 14,1 Millionen Elektronenvolt oder umgerechnet 2,3 x 10–12 Joule. Dieser scheinbar winzige Wert ist im Vergleich zur chemischen Verbrennung gigantisch: Ein Gramm Brennstoff kann in einem Fusionsreaktor rund 90 Megawattstunden Wärmeenergie produzieren. Dafür muss man acht Tonnen Erdöl oder elf Tonnen Kohle verfeuern.

Aber nicht nur die winzigen Brennstoffmengen wären ein Vorteil der Kernfusion: Sie setzt vor allem kein Klima schädigendes Kohlenstoffdioxid frei. Und ihre „Asche“ ist nur ungefährliches Helium.

Das Neutron hat aber noch eine Aufgabe: Es soll in der Wand des Reaktorgefäßes die zweite Brennstoffkomponente Tritium erbrüten. Tritium ist radioaktiv mit einer Halbwertszeit von 12,3 Jahren. Deshalb soll es der zukünftige Fusionsreaktor in einem geschlossenen Kreislauf herstellen und gleich wieder verbrauchen. Der „Rohstoff“ für das Tritium ist Lithium. Dieses dritte Element im Periodensystem und leichteste aller Metalle wird in die Reaktorwand eingebracht. Trifft dort ein Neutron den Kern des Lithium-6-Isotops, dann zerfällt dieser zu einem Heliumkern und dem erwünschten Tritiumkern.

Wettrennen um das beste Konzept

Abbildung 5: Die elektrisch geladenen Teilchen des Plasmas bewegen sich entlang der Magnetfeldlinien (schwarzer Pfeil) auf Spiralbahnen.; Der Radius der Spirale hängt von der Masse der Teilchen ab: Die schwereren Protonen umschreiben größere Spiralen als die Elektronen.© R. Wengenmayr / CC BY-NC-SA 4.0

Die große Herausforderung ist ein effizienter magnetischer Einschluss des aus den beiden Wasserstoffsorten Deuterium und Tritium bestehenden Plasmas. Beim Bau des Magnetfeldkäfigs für das Plasma nutzen die Fusionsforscher aus, dass die geladenen Plasmateilchen – die Protonen und Elektronen – von elektromagnetischen Kräften auf Spiralbahnen um die magnetischen Feldlinien gezwungen werden (Abbildung 5). Von einem geeignet geformten Magnetfeld wie auf Schienen geführt, können die Teilchen so von den Wänden des Plasmagefäßes ferngehalten werden. Für einen „dichten“ Käfig müssen die Feldlinien innerhalb des ringförmigen Plasmagefäßes geschlossene, ineinander geschachtelte Flächen aufspannen – wie die ineinander liegenden Jahresringflächen eines Baumstamms (Abbildung 6). Auf diesen Flächen ist der Plasmadruck jeweils konstant, während er von Fläche zu Fläche – vom heißen Zentrum nach außen – abnimmt.

Diese ineinander geschachtelten „Magnetröhren“ würden nun jedoch die Plasmateilchen an ihren Enden verlieren – mitsamt der kostbaren Wärmenergie. Deshalb werden sie zu einem Ring geschlossen. Allerdings wird dadurch das Magnetfeld auf der Innenseite des Rings stärker als auf der Außenseite, weil sich die Feldlinien dort dichter zusammendrängen. In der Folge würde das Plasma nach außen aus dem Ring schleudern. Um das zu verhindern, verdrillen die Physiker das Magnetfeld nochmals in sich.

Abbildung 6: Die magnetischen Flächen sind sauber ineinander geschachtelt – wie die Jahresringflächen eines Baumstammes. So werden nach außen weisende Feldkomponenten vermieden, die die Plasmateilchen auf die Wände führen würden. Die hohen Zündtemperaturen wären dann unerreichbar. © MPI für Plasmaphysik / CC BY-NC-ND 4.0 V

Die Feldlinien schrauben sich um die „Jahresringe“ herum: So führen sie die Plasmateilchen immer wieder vom schwächeren Magnetfeld auf der Ringaußenseite zurück ins dichtere Magnetfeld innen – das Plasma bleibt gefangen. Das erfordert jedoch eine komplizierte Anordnung der Magnetfeldspulen. Die Stellaratoren, die „Sternenmaschinen“ (lat. stella für Stern), an denen die Fusionsforscher in den 1950er- und 1960er-Jahren arbeiteten, scheiterten zunächst daran. Erst heute können Supercomputer die Geometrie der Spulen so genau berechnen, dass der Stellarator wieder im Rennen um das beste Konzept für einen Fusionsreaktor ist (Abbildung 7). Am Teilinstitut Greifswald des Max-Planck-Instituts für Plasmaphysik ging Ende 2015 der Stellarator Wendelstein 7-X in Betrieb. Er soll zeigen, dass Stellaratoren das heiße Plasma zuverlässig einschließen können.

Abbildung 7: (links): Stellarator; (rechts): Tokamak. © MPI für Plasmaphysik / CC BY-NC-ND 4.0

Die Nase vorn hat derzeit noch ein konkurrierendes Prinzip: der Tokamak (Abbildung 7). Der Name kommt aus dem Russischen „Toriodalnaya kamera s magnetnymi katuschkami“ und bedeutet auf Deutsch „ringförmige Kammer mit magnetischen Spulen“. Während Stellaratoren den Magnetfeldkäfig ausschließlich mit Hilfe äußerer Spulen aufbauen, stellen Tokamaks einen Teil dieses Feldes durch einen im Plasma fließenden elektrischen Strom her. Dieser „verdrillt“ das Magnetfeld, damit es das Plasma wie ein Schlauch zusammenhält. Zudem heizt er das Plasma auf. Der Tokamak ist einfacher aufgebaut als ein Stellarator. Deshalb verhalf er der Fusionsforschung zu hohen Temperaturen im Plasma und schließt es auch gut ein. Als Transformator induziert er im Plasma allerdings nur Strom, solange sich die Stromstärke in seiner Primärspule ändert. Er muss also im Gegensatz zum Stellarator mit Pulsen arbeiten. Für einen Kraftwerksbetrieb ist das nicht sehr praktisch, auch wenn sich ein Puls über Stunden ausdehnen lässt. Deshalb forschen die Plasmaphysiker an einer alternativen Betriebsweise: Zusätzliche elektromagnetische Hochfrequenzfelder sollen das Auf und Ab der Pulse so ausgleichen, dass im Plasma ein Gleichstrom fließt.

Wenig Radioaktivität

Entscheidend ist ein perfekter magnetischer Einschluss, der das heiße Plasma möglichst gut isoliert und nicht auskühlen lässt. Einige wichtige Ideen dazu haben die Garchinger Max-Planck-Wissenschaftler entwickelt. Sie fließen nun ein in den Bau des großen internationalen Forschungsreaktors ITER (lat. „der Weg“), der in Cadarache, Südfrankreich, entsteht. 2025 soll ITER das erste Plasma erzeugen, später „zünden“ und erstmals mehr Fusionsenergie erzeugen als seine Plasmaheizung verbraucht – und zwar zehnmal soviel. Im Anschluss könnte DEMO folgen: Dieser Prototyp eines Kraftwerks soll aus der Fusionswärme bereits elektrischen Strom erzeugen. Ab Mitte dieses Jahrhunderts wären die ersten kommerziellen Fusionskraftwerke möglich. Die Menschheit hätte sich dann eine fast unerschöpfliche Energiequelle erschlossen. Sie könnte den weltweit rasch wachsenden Bedarf an elektrischer Energie decken, ohne gefährliche Treibhausgase freizusetzen. Der Brennstoffvorrat wäre gigantisch, denn schon 0,08 Gramm Deuterium und 0,2 Gramm Lithium würden genügen, um den heutigen Jahresbedarf einer Familie an elektrischem Strom zu erzeugen. Das Deuterium steckt in schwerem Wasser (D2O), das in allen Ozeanen natürlicherweise vorkommt. Lithium ist Bestandteil von Mineralien, die fast überall in der Erdkruste existieren. Die Energieversorgung wäre kein Anlass mehr für geopolitische Konflikte.

Doch jede Form der Energiegewinnung hat ihren Preis: Kernkraftwerke enthalten sehr stark radioaktiv strahlende Brennelemente, der Einsatz fossiler Brennstoffe dreht gefährlich an der Klimaschraube, große Wasserkraftwerke oder Windparks verändern Landschaften. Bei der Kernfusion ist das Innere des Reaktorgefäßes radioaktiv. Die Brennstoffmengen sind jedoch vergleichsweise winzig, und die empfindliche Fusionsreaktion kann nicht „durchgehen“. Sie ist also anders als die Kettenreaktion der Kernspaltung selbstsichernd: Bricht das Magnetfeld zusammen, dann berührt das Plasma die Wand, kühlt schlagartig aus und die Fusionsreaktion stoppt. Die Wand übersteht das aufgrund der geringen Plasmadichte fast ohne Schaden. Der schlimmste denkbare Unfall wäre ein Entweichen des Tritiums aus dem Reaktor. Die Menge wäre zwar sehr klein, doch das schnell zerfallende Tritium kann Krebs verursachen. Diese Möglichkeit eines Unfalls nehmen die Planer eines zukünftigen Kraftwerks sehr ernst, auch wenn seine Folgen nicht im Entferntesten mit einem Kernkraft-GAU zu vergleichen wären. Der jahrelange Neutronenbeschuss wird allerdings einen Teil des Reaktorgefäßes radioaktiv „aktivieren“. Das gilt vor allem für bestimmte Stahllegierungen, in denen Spurenelemente sich in radioaktive Isotope umwandeln. Teile der Reaktorwand müssten einige hundert Jahre lang gelagert werden, bis diese Radioaktivität abgeklungen ist. Dieses Problem will die Forschung durch die Entwicklung neuer Materialien entschärfen. Und dafür hat sie ja noch einige Jahre Zeit.


 * Der Artikel ist erstmals unter dem Title: "Wie die Fusionsforschung das Sternenfeuer einfängt . Die Sonne im Tank " in TECHMAX 9 (aktualisiert 07. 2020) der Max-Planck-Gesellschaft erschienen  https://www.max-wissen.de/Fachwissen/show/5415 und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Weiterführende Links

Blaupause für ein Fusionskraftwerk - Am 21. März 1991 erzeugte die Experimentieranlage Asdex Upgrade am Max-Planck-Institut für Plasmaphysik in Garching das erste Plasma 18.3.2021. https://www.mpg.de/16606538/30-jahre-asdex-upgrade

Energiequelle Fusion: https://www.ipp.mpg.de/7332/energiequelle

Fusionsreaktor ITER: https://www.iter.org/ ITER construction is underway now. On the ITER site, buildings are rising; abroad, machine and plant components are leaving factories on three continents. In the years ahead, over 4,000 workers will be required for on-site building, assembly and installation activities

Schwerpunkt Energie im ScienceBlog:

Energie zählt im ScienceBlog von Anfang an zu den Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen.Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel (derzeit sind es 40) ist nun im Themenschwerpunkt Energie zusammengefasst.


 

inge Wed, 12.05.2021 - 23:59

Comments

Kleines Detail am Rande: Die 15 Mio ° im Sonneninneren reichen an und für sich nicht aus, um zwei Kerne verschmelzen zu lassen! Rechnet man die kinietische Energie aus, so findet man schnell, dass sie nircht genügt, um die Abstoßung durch das elektrische Potenzial zu überwinden!

Und doch leuchtet die Sonne?!

Der Grund liegt in der Heisenbergschen Unschärferelation, derzufolge nicht nur der Physiker niemals Position und Impuls eines Teilchens gleichzeitig exakt feststellen kann, sondern auch die Natur selbst: Die Unschärferelation ist eine absolut universelle Gesetzmäßigkeit. Und hier begründet sich der "Tunneleffekt": Dann und wann kann ein Teilchen ein Potenzial überwinden, für das es zu wenig kinietische Energie hat. Es braucht dazu "nur" eine Position "hinter" dem Potenzial einnehmen. Im Klartext: Mitten in den Kern rein, und fertig ist die Fusion.

(Und wen es interessiert: Lyman Spitzer ist der Namensgeber des Spitzer-Weltraumteleskops.)

Das Neuronengeflecht entwirren - das Konnektom

Das Neuronengeflecht entwirren - das Konnektom

Do, 06.05.2021 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Für die Verbindungen zwischen den Zellen des Nervensystems interessierten sich bereits vor 140 Jahren Anatomen, aber erst raffinierte Färbetechniken ermöglichten es, den Verlauf und die Verbindungen einzelner Neurone nachzuzeichnen. Um Nervenbahnen und Netzwerke im Gehirn zu verfolgen, bedarf es ausgeklügelter Technologien, vor allem aber viel Geduld und Liebe zum Detail. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm beschreibt im folgenden Artikel welche Methoden und Geräte es zur Darstellung des „Konnektoms“ – also sämtlicher Zellen und Zellbestandteile des Gehirns und ihrer Verbindungen bedarf.*

Die Aufgabe: Wir entwirren einen Haufen Spaghetti. Die Spielregeln: Die Lage jeder einzelnen Nudel und deren Verlauf sind feinsäuberlich zu erfassen, außerdem müssen alle Kontaktstellen mit den Nachbarn exakt kartiert werden.

Was bei einem kleinen Teller bereits eine gewaltige Herausforderung wäre, würde bereits bei einem Topf zur Strafe. Und wenn der Haufen nicht wie der Inhalt einer typischen Packung aus 500 oder 600 Spaghetti bestünde, sondern gleich ein ganzer Berg wäre?

Der Berg, um den es hier geht, ist das menschliche Gehirn mit seinen geschätzt 86 Milliarden Nervenzellen – was in etwa 15 Millionen Packungen Spaghetti entspricht. Was die Sache noch komplizierter macht: Wir haben nicht nur eine Sorte von Nervenzellen im Kopf, sondern Dutzende oder gar Hunderte verschiedene Typen. Wie also soll das gehen? Welche Methoden, welche Geräte braucht es zur Darstellung des „Konnektoms“ – also sämtlicher Zellen und Zellbestandteile des Gehirns und ihrer Verbindungen?

Unendliche Geduld, Liebe zum Detail, künstlerische Begabung und auch ein wenig Glück brachte der spanische Mediziner und Histologe Santiago Ramón y Cayal als Startkapital ein. Jeder Student der Neurowissenschaften kennt die Zeichnungen, die Cayal vor etwa 140 Jahren angefertigt hat: Ästhetisch und präzise zugleich zeigen sie Hirnzellen von Hühnern, Spatzen oder Tauben mit nie zuvor gesehenen Details. Abbildung 1.

Abbildung 1. Zeichnung des primären Sehzentrums (Tectum opticum) des Sperlings von von Santiago Ramón y Caja (Estructura de los centros nerviosos de las aves, Madrid, 1905.Das Bild ist gemeinfrei)

Was bis dato nur eine verschwommene Masse war, offenbarte sich dank einer von Cayals Konkurrenten, Camillo Golgi, entwickelten Technik zur „Versilberung“ von Nervenzellen unter dem Mikroskop als Ansammlung faszinierender und klar unterscheidbarer Strukturen.

Unsichtbare Verbindungen

Niemand weiß, warum die eingesetzten Silbersalze nur einzelne Nervenzellen sichtbar machten und aus der Masse der gleich gestalteten Nachbarn hervorhoben. Baumartig erschienen die Zellen aus einer Hirnregion, spinnenförmig die einer anderen. Manche sind mehr, andere weniger stark verästelt. Doch wie hängt das alles zusammen?

Während Golgi ein durchgängig miteinander verknüpftes Netzwerk zu sehen glaubte, postulierte Cayal, dass es zwar Kontaktstellen gäbe, diese aber nicht beständig seien und nur bei der Kommunikation genutzt würden. Cayal sollte recht behalten. Sehen konnte man dies damals allerdings nicht, da die Auflösung der Lichtmikroskope dafür nicht ausreichte. So erhielten beide Konkurrenten 1906 gemeinsam den Nobelpreis für Medizin „in Anerkennung ihrer Arbeit über die Struktur des Nervensystems“ .

Die Leistungsfähigkeit der Mikroskope hat sich seitdem beständig verbessert. Abbildung 2. Mit der Einführung der Elektronenmikroskopie vor etwa 75 Jahren stieg die Auflösung um das 1000-fache: auf etwa ein Zehnmillionstel Millimeter (0,1 Nanometer). Es folgten Laserstrahlen zur Verfolgung fluoreszierender Moleküle im Gewebe und Computer, mit denen diese Informationen in digitale Bilder und Datenbanken umgewandelt werden.

Abbildung 2.Sichtbarmachen von Nervenbahnen und Vernetzungen im Gehirn mittels Mikroskopie. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Buchstäblich für mehr Durchblick sorgt heute auch die bereits 1914 in Leipzig von Werner Spalteholz entwickelte Technik zum Durchsichtigmachen von großen Gewebestücken oder ganzen Organen (CLARITY), die Spalteholz´ Nachfolger für hochaufgelöste 3D-Darstellungen nutzen.

Lange Zeit jedoch blieb das Gewirr der Nervenzellfortsätze (Neuropil) für Neuroanatomen und Histologen undurchdringlicher als jeder Dschungel. Gesucht wurde eine Methode, um einzelne Nervenzellfortsätze oder ganze Nervenstränge zu verfolgen. Die kam in den späten 1960er Jahren, als Zellbiologen mit radioaktiv markierten Aminosäuren arbeiteten, die sie in die Zellkörper von Neuronen injizierten. Als Bestandteil neu synthetisierter Proteine wanderten einige der Aminosäuren entlang der Axone zu den Nervenenden – und hinterließen eine schwarze Spur, wenn man die entsprechenden Gewebeschnitte mit Fotopapier bedeckte. Die Zellbiologen hatten somit nicht nur den schnellen axonalen Transport mit Geschwindigkeiten von bis zu einem Meter am Tag dokumentiert, sondern den Neuroanatomen auch ein neues Werkzeug an die Hand gegeben, so genannte Tracer, mit denen sich Nervenbahnen im Gehirn wie Spuren verfolgen lassen.

Meerrettich und Herpesviren

Auch der Gegenverkehr – also der retrograde axonale Transport – lässt sich verfolgen. Dazu wird das Enzym Meerrettich-Peroxidase ins Gehirn gespritzt, wo es von den Enden der Axone aufgenommen und zum Zellkörper transportiert wird. Später wird das Versuchstier geopfert, und die Meerrettich-Peroxidase in den Gewebeschnitten bildet unter Zugabe bestimmter Chemikalien bunt-farbige Reaktionsprodukte. So wird unter dem Mikroskop schließlich der Verlauf der Fasern durch das Gehirn und ein möglicher Zusammenhang einzelner Neurone sichtbar. Auch Herpesviren können – beispielsweise an Mund und Lippen – in Axone eindringen und wandern von dort zum Zellkörper. In Tierversuchen lassen sich bestimmte Stämme in ausgewählte Hirnregionen spritzen. Deren Wanderung durch benachbarte Neurone können Forscher dann nach einigen Tagen mit Hilfe von Antikörpern sichtbar machen . Ebenso wie die Gerätschaften wurden auch diese Tracer ständig weiterentwickelt, sodass den Laboren eine ganze Palette von synthetischen Molekülen für die verschiedensten Einsatzzwecke zur Verfügung steht, darunter die Carbozyanine, biotyniliertes Dextranamin und Fluorogold.

Abbildung 3.Das erste Konnektom: Sidney Brenner erstellte es 1986 im Fadenwurm C. elegans für dessen 302 Nervenzellen und deren rund 7000 Verbindungen. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz.)

Tatsächlich gelang es den Pionieren des Neurotracings Jahrzehnte bevor der Begriff „Konnektom“ überhaupt erfunden wurde, einige wenige neuronale Schaltkreise darzustellen. In den 1980er Jahren erreichten einige sehr geduldige Doktoranden einen Meilenstein, indem sie erstmals das vollständige Nervensystem eines Organismus kartierten. Es handelte sich dabei um das „Nervenkostüm“ des Fadenwurms Caenorhabditis elegans mit seinen rund 7.000 Verbindungen zwischen exakt 302 Nervenzellen. Abbildung 3.

Damit waren dann allerdings sowohl die Grenzen der damaligen Technik erreicht als auch der menschlichen Leidensfähigkeit, denn es ist eine furchtbare Arbeit, jeden Tag stundenlang durchs Mikroskop zu schauen und kaum sichtbare Details nachzuzeichnen.

Schnelle Computer und scharfe Messer

Klar war: Um selbst kleinste Gehirne komplett zu erfassen, bedurfte es völlig neuer Methoden. Und statt Hunderten von Doktoranden stupide Handarbeiten abzufordern, sollten diese Methoden möglichst weitgehend automatisiert werden. Nach Schätzungen liefert bereits ein Kubikmillimeter Hirngewebe eine Informationsmenge von mehreren Petabytes, also etwa das Tausendfache des Speichers eines modernen Heimcomputers. Dies zu verarbeiten, erfordert nicht nur Rechner mit entsprechend gewaltiger Geschwindigkeit und Speicherkapazität, sondern auch spezielle Programme, deren Algorithmen sowohl Muster in der Datenflut erkennen können, als auch diese Daten in anschaulicher Form darstellen.

Ebenfalls Teil des Geräteparks sind die wohl leistungsfähigsten Messer der Welt. Sie wurden von Kenneth J. Hayworth am Harvard Center for Brain Science entwickelt und haben Klingen aus synthetischen Diamanten. Die fortschrittlichsten dieser Schneidegeräte (Ultramikrotome) trennen Hirngewebe in Scheiben von weniger als 3 Millionstel Millimeter (30 Nanometer) Dicke und verfügen auch noch über einen Mechanismus, um die Schnitte automatisch einzusammeln und anzuordnen, sodass sie von Elektronenmikroskopen abgetastet werden können. Abbildung 4.

Abbildung 4. 3-Dimensionale Darstellung von Nervenbahnen und Vernetzungen im Hirngewebe. Die Oberfläche der Gewebeprobe wird mit dem Raster-Elektronenmikroskop abgetastet und ein 2D-Bild erstellt, sodann wird mit dem Ultramikrotom eine äußerst dünne Scheibe des Gewebes abgelöst, ein 2D-Bild der neuen Oberfläche erzeugt und dieser Vorgang über den gesamten Gewebeblock wiederholt. Die 2D-Bilder werden dann digital zu einem dreidimensionalen Bilddatensatz zusammengebaut. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Elektronenmikroskopie am Fließband

Dieses Prinzip der Serien-Block-Elektronenmikroskopie (SBEM) bekam in den letzten Jahren Konkurrenz durch eine weitere Variante, bei der die Dünnschnitte entfallen. Stattdessen werden kleine Blocks von Hirngewebe direkt im Gerät montiert und schichtweise von oben erfasst. Ein Ionenstrahl trägt die oberste Schicht ab, und das Gerät analysiert die nächste Schicht. Der Vorgang kann an einem einzigen Präparat mehrere Tausend Male wiederholt werden. Die „FIB-SBEM“ abgekürzte Methode liefert also auf direkterem Wege perfekt ausgerichtete Stapel digitaler Elektronenmikroskopien, mit denen sich der Verlauf neuronaler Fortsätze verfolgen lässt. Fehler darf man dabei allerdings nicht machen. Schließlich wird jeder Schnitt nach der Aufnahme verdampft, sodass man ihn kein zweites Mal aufnehmen kann.

Geht alles gut, ist die Auflösung der FIB-SBEM jedoch besser als bei der „einfachen SBEM und die Schichtdicke sinkt nochmals um den Faktor 10 auf kaum vorstellbare zwei Nanometer. Der Preis dafür ist allerdings ein Sichtfeld, das wesentlich kleiner ist als bei der „Diamantmesser-SBEM“. Doch schon haben die zahlreichen Tüftler unter den Konnektom-Forschern die nächste Stufe erdacht, die die Ionen-Schichtmikroskopie mit den Diamantmessern kombiniert. Hier werden nun die Miniblocks von Hirngewebe mit Schwermetallen gefärbt und in Epoxidharz eingebettet. Erhitzte und mit einer speziellen Schmierflüssigkeit benetzte Diamantmesser vermögen diese harten Brocken zu schneiden – und die Vorteile beider Methoden zu kombinieren.

Auch die Lichtmikroskopie ist beim Konnektom-Projekt mit an Bord. Hier wurden ebenfalls technische Verbesserungen mit neuen Methoden kombiniert, um tiefer ins Gewebe einzudringen, Unschärfen zu eliminieren und die Auflösung zu verbessern. So liefert die Lichtscheibenmikroskopie eine Auflösung von 100–300 Nanometern. In Kombination mit den Klarifizierungstechniken, die dem Gewebe Lipide entziehen, um es durchsichtiger zu machen, reicht das aus, um nicht nur Zellen und Neurone zu erfassen, sondern sogar einzelne Synapsen.

Dennoch: Es würde mehrere tausend Jahre in Anspruch nehmen, wollten Wissenschaftler auf diese Weise die Daten eines Spatzen- oder Mäusehirns sammeln. Aber auch für dieses Problem gibt es eine Lösung: So arbeiten manche neuere Elektronenmikroskope statt mit einem einzigen Elektronenstrahl mit einer Vielzahl identischer Einheiten im gleichen Gehäuse. Bis zu 91 Einheiten sind es bei der jüngsten Gerätegeneration – und entsprechend viele Schnitte können sie in einem Arbeitsgang fotografieren und die Daten zur Weiterverarbeitung an den Rechner übergeben. Da man auch diese Maschinen wiederum gleich reihenweise ins Labor stellen könnte, wird Geld zum wichtigsten limitierenden Faktor.

Heiße Diamanten und neuronale Netze

Liegen die Daten erst einmal auf dem Computer, gilt es, diese auch richtig zu interpretieren. Hier kommen Forscher wie Winfried Denk ins Spiel, der mit seinen Kollegen am Max-Planck-Institut für Biomedizinische Forschung in Heidelberg eine Methode ersonnen hat, um miteinander verbundene Neurone zu erkennen und zu markieren. Und im Labor von Sebastian Seung am Massachussetts Institute of Technology haben die beiden Studenten Viren Jain und Srini Turaga ein Programm auf Basis der künstlichen Intelligenz (KI) geschrieben, das lernen kann, Synapsen zu erkennen, wenn es die Neurowissenschaftler eine Zeitlang bei der Arbeit verfolgt. Beide Wissenschaftler sind dem Konnektom treu geblieben und leiten inzwischen ihre eigenen Forschergruppen – Jain bei der KI-Abteilung von Google, und Turaga am berühmten Janelia Research Campus des Howard Hughes Medical Institute.

Die Software zur Rekonstruktion der Schaltkreise aus den Daten beruht ironischerweise selbst auf dem Prinzip neuronaler Netze. Hier könnten die besten Algorithmen es bezüglich der Fehlerquote mit durchschnittlich motivierten Forschern aufnehmen, schrieben der mittlerweile ans Max-Planck-Institut für Neurobiologie (bei München) umgezogene Winfried Denk und sein Postdoc Jörgen Kornfeld bereits 2018 in einer Übersichtsarbeit . Aber der Teufel steckt oftmals im Detail. Während nämlich menschliche Fehler zufällig passieren, und sich dadurch „ausmitteln“, sind Fehler in der Software systematischer Art. Die Maschinen scheitern häufig an einander ähnlichen Strukturen, die nur unter Einbeziehung der Umgebung und von Kontext-Wissen unterschieden werden können. „Zum Glück gibt es hochgradig motivierte und gebildete Menschen wie fortgeschrittene Studenten und Postdocs, die fast alle diese Fehler korrigieren können“, so Denk.

Mehrere Meilensteine hat Denk bereits erreicht, und – zusammen mit seinem Kollegen Moritz Helmstaedter – einige der bislang größten „Brocken“ von Hirngewebe mit den feinsten Details erfasst. Abbildung 5.

Abbildung 5.Nervenzellverschaltung der Großhirnrinde (Cortex). Von einer 500 000 µm3 (0,0005 mm3) großen Probe aus dem primären somatosensorischen Cortex einer Maus wurden 3420 Schnitte und daraus 30 780 2D- Bilder erstellt. Die 3D-Darstellung zeigt 89 Neuronen in einer extrem dichten Packung mit Axonen und Dendriten. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Rekordhalter ist vermutlich das Allen Institute for Brain Science in Seattle, wo im April 2019 der erste Kubikmillimeter Mäusehirn gefeiert wurde. Etwa 100.000 Neuronen und 1 Milliarde Synapsen stecken in dem Gebilde, das etwa die Größe eines Sandkorns hat und anhand von mehr als 100 Millionen Bildern digitalisiert wurde. Das kartierte Volumen entspricht zwar nur einem Fünfhundertstel des Mäusegehirns, doch Denk ist Optimist: In der Summe seien die Fortschritte so groß, dass man erwarten dürfe, binnen zehn Jahren das Gehirn eines kleinen Säugers oder Vogels vollständig zu erfassen.

Der eingangs erwähnte Berg von Spaghetti wäre damit zwar erobert, doch der Hunger der Wissenschaftler ist längst nicht gestillt. Schon sprechen sie vom Synaptom – der Welt der Synapsen. Die liegt mehrere Größenordnungen unterhalb des eigentlichen Konnektoms, ist aber doch zu dessen Verständnis unentbehrlich, heißt es. Und wenn man alle Verbindungen hat, ist die Arbeit längst noch nicht getan, argumentierte bereits 2014 eine Gruppe Mathematiker von der Universität Boston. Das „Dynom“ müsse nämlich ebenfalls verstanden werden, indem man Momentaufnahmen der Aktivität des kompletten Nervensystems erstellt, sagten sie – und veröffentlichten auch gleich einen Forschungsrahmen mit Arbeitsvorschlägen für die Kollegen. Mehr als 100 Fachartikel verweisen bereits auf diesen Anstoß, und man darf gespannt sein, welches „…om“ das nächste Großprojekt der Hirnforschung sein wird.

-------------------------------------------------------------------------------------------

 [1] dasGehirnInfo: Das Connectome. Video 7:08 min. 01.05.2021. https://www.youtube.com/watch?v=puiEfrzRTto Der Inhalt steht unter einer cc-by-nc-Lizenz © 2021 www.dasGehirn.info


 * Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info am 30.04.2021 zum Thema "Konnektom" unter dem Titel "Das Neuronengeflecht entwirren" erschienen,https://www.dasgehirn.info/grundlagen/das-konnektom/das-neuronengeflecht-entwirren. Der Artikel steht unter einer cc-by-nc-sa Lizenz; der Text wurde von der Redaktion unverändert übernommen, es wurden jedoch einige Abbildungen eingefügt.

"dasGehirn.info" ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).

 


 Links

  • Moritz Helmstaedter: Connectomics Video 36:01 min. 5.2019. https://www.youtube.com/watch?v=3BFynIPHnd0  Biologische Gehirne sind Computern an Effizienz und Komplexität ihrer Vernetzung deutlich überlegen. In der Analyse dieser Netzwerke ist noch viel zu tun und Moritz Helmstaedter ist einer der Pioniere dieses faszinierenden Forschungsfelds der Connectomics. Hier gibt er eine sehr gelungene und nachvollziehbare Einführung., einer Kooperation (in diesem Fall) mit dem Max-Planck-Institut für Hirnforschung, Frankfurt. Der Inhalt steht unter einer cc-by-nc-Lizenz © 2019 www.dasGehirn.info
  • Moritz Helmstaedter: Department of Connectomics, MPI Hirnforschung (Frankfurt/Main) https://brain.mpg.de/research/helmstaedter-department.html
  • Allen Institute for Brain Science https://alleninstitute.org/what-we-do/brain-science/research/research-highlights/
  • MICrONS Explorer: A virtual observatory of the cortex. https://microns-explorer.org/
  • Mapping the Brain: Johns Hopkins APL's CIRCUIT Program. video 2,11 min. https://www.youtube.com/watch?v=5u7N0Gq9q3w&t=124s  Researchers from the Johns Hopkins University Applied Physics Laboratory (APL) partnered with Johns Hopkins University students this summer on a pilot program called CIRCUIT (Connectomics Institute for Reconstructing Cortex: Understanding Intelligence Together).

 

inge Wed, 05.05.2021 - 23:36

Drei mögliche Szenarien zum Ursprung von SARS-CoV-2: Freisetzung aus einem Labor, Evolution, Mutator-Gene

Drei mögliche Szenarien zum Ursprung von SARS-CoV-2: Freisetzung aus einem Labor, Evolution, Mutator-Gene

Do, 22.04.2021 — Ricki Lewis

Ricki LewisIcon MedizinSeit Beginn der COVID-19 Pandemie versuchen Forscher herauszufinden, woher das SARS-CoV-2-Virus ursprünglich kommt und wie es auf den Menschen übersprungen ist. Nahe verwandte Vorläufer stammen offensichtlich von Fledermäusen, wurden aber auch in Schuppentieren gefunden und die geographische Verbreitung dieser Viren erstreckt sich über weite Teile Südostasiens. Die Genetikerin Ricki Lewis diskutiert hier drei mögliche Szenarien zu Ursprung und Entwicklung des Virus. Die Evolution geht weiter - um den Wettlauf zwischen Impfstoffen und neuen, möglicherweise gefährlicheren Varianten nicht zu verlieren, muss man die Evolution nachverfolgen und ihr ein Stück voraus sein.*

"Virusausbruch: Untersuchungen zufolge ist COVID-19 wahrscheinlich synthetisch entstanden", orgelte die Schlagzeile in der Taipei Times am 23. Februar 2020. Die Idee, dass das neuartige Coronavirus SARS-CoV-2 in einem Virenlabor in China entstand - durch Zufall oder als Biowaffe - hat seitdem eine Welle von Schuldzuweisungen und Erklärungen ausgelöst.

Das neueste Kapitel ist ein "offener Brief" in der New York Times vom 7. April 2021, in dem "eine umfassende Untersuchung der Ursprünge von COVID-19" gefordert wird. Die zwei Dutzend Wissenschaftler, die den Brief unterzeichnet haben, zitieren das kontinuierliche Fehlen eines „robusten Prozesses“ zur Untersuchung kritischer Aufzeichnungen und biologischer Proben. Ihr Argument reagiert auf die Presseveranstaltung der WHO am 20. März, bei der kaum ein anderer Ursprung als ein natürlicher Überlauf berücksichtigt wurde.

Zwei Arten neuer Informationen können jedoch der Hypothese eines aus dem Labor freigesetzten Virus entgegenwirken: das Füllen der Lücken von Säugetieren, die möglicherweise als „fehlende Glieder“ bei der Entwicklung der Krankheitsübertragung gedient haben, und der rasche Anstieg von Virusvarianten, welche eine Tendenz zur Mutation widerspiegeln, die dem plötzliche Auftauchen von SARS-CoV-2 aus dem Nichts zugrunde liegt.

Als Genetikerin möchte ich meine Ansicht zu drei möglichen Szenarios für den Ursprung von SARS-CoV-2 darlegen:

1. Szenario Biologischer Kampfstoff - ein gentechnisch veränderter Erreger oder die Freisetzung eines natürlichen Kandidaten aus dem Labor

2. Szenario Evolution - schrittweise evolutionäre Veränderung über zwischengeschaltete Tierwirte, wobei laufend Mutationen auftreten und das Virus virulenter werden lassen

3. Szenario "Mutator"-Gene - Gene, die Mutationen in anderen Genen auslösen und den Evolutionsprozess beschleunigen

Szenario Biowaffe

Die Vorstellung, dass SARS-CoV-2 als Biowaffe zurechtgemacht wurde, ging bis vor kurzem auf ein Vorgängervirus namens RaTG13 zurück, das in der Hufeisennase Rhinolophus affinis gefunden wurde. 2013 haben Forscher dieses RaTG13 im Fledermauskot in einem verlassenen Minenschacht in der Nähe einer Höhle in Yunnan (China) entdeckt, kurz nachdem sechs Bergleute erkrankt und drei von ihnen an einer nicht näher bezeichneten Lungenentzündung gestorben waren. (Fledermäuse beherbergen viele Viren, ohne krank zu werden [1])

Etwa 96,1% der Genomsequenz von RaTG13 stimmt mit der von SARS-CoV-2 überein. Zum Vergleich: das SARS-CoV-2-Genom weist nur etwa 80% Ähnlichkeit mit dem des ursprünglichen SARS-Coronavirus aus dem Jahr 2003 auf.

Ein wesentlicher Unterschied zwischen RaTG13 und SARS-CoV-2 besteht in einem Teil der Bindungsdomäne (RBD), mit der das Spike-Protein an menschliche Zellen bindet. Dieser unterschiedliche Teil entspricht nun der RNA-Sequenz von Coronaviren des malaiischen Schuppentiers, das ein Zwischenwirt zwischen Fledermäusen und Menschen in der Infektionskette sein könnte. Die Übertragung von Fledermaus zum Schuppentier könnte in der Nähe der Mine oder auf einem Nassmarkt ("wet market") mit rohem Fleisch oder an vielen anderen Orten stattgefunden haben, an denen Menschen in Gebiete anderer Tiere eindringen und wir einfach nicht hingeschaut haben.

Hinweise auf den Übergang vom Fledermausvirus RaTG13 zum menschlichen Virus SARS-CoV-2 können innerhalb der 4% der divergierenden Genomsequenzen liegen. Unter Annahme der bekannten natürlichen Mutationsraten viraler Genome schätzen Evolutionsbiologen, dass es mindestens 50 Jahre gedauert hätte, bis das Fledermausvirus zu SARS-CoV-2 mutiert wäre. Vermutlich ließe sich eine Biowaffe viel schneller herstellen (ebenso wie es schneller ist, ein neues Auto zu kaufen, als ein altes Teil für Teil zu reparieren). Allerdings haben wir gelernt, dass wir uns nicht auf das verlassen können, was wir über frühere Viren wissen. In anderen Worten, die Mutationsrate des Neulings könnte viel schneller sein als das, was wir zuvor gesehen haben.

Eine Veröffentlichung ("Yan-Bericht") behauptet, dass RaTG13 nie existiert hat [2]. Stattdessen argumentieren die Autoren, dass der angebliche SARS-CoV-2-Vorgänger eine fiktive RNA-Sequenz ist, die in die Gen-Datenbank hochgeladen wurde, um eine plausible natürliche Erklärung für den Ursprung zu liefern und die Aufmerksamkeit von der Idee einer Biowaffe abzulenken. Das Papier (es gibt eine erste und aktualisierte Version) fragt, warum über RaTG13, wenn es 2013 entdeckt wurde, erst am 3. Februar 2020 im Journal Nature berichtet wurde. Der Yan-Bericht hat es nie über den Status des Preprints (d.i . nicht überprüft) hinaus geschafft, Forscher haben ihn filetiert - Wikipedia bringt dazu Details (https://en.wikipedia.org/wiki/Li-Meng_Yan).

Ein kurzer Bericht, auf den ich immer wieder zurückkomme, erschien am 17. März 2020 in Nature erschienen, als die weltweite Zahl der an/durch COVID-Verstorbenen bei nur 4.373 lag: „Der proximale Ursprung von SARS-CoV-2.“ Die Autoren des „proximalen Ursprungs“ (Kristian G. Andersen et al.,) vergleichen wichtige Teile des neuen Pathogens mit entsprechenden Teilen anderer Coronaviren und schließen daraus „unsere Analysen zeigen deutlich, dass SARS-CoV-2 kein Laborkonstrukt oder ein gezielt manipuliertes Virus ist.“ Ein Teil ihrer Argumentation ist der gesunde Menschenverstand: Für eine Erfindung bindet das Virus nicht stark genug an unsere Zellen. Es ist eine unvollkommene Waffe. (Warum sollte ein neues iPhone schlechter funktionieren als seine Vorgänger? ) Es ist wahrscheinlicher, argumentieren sie, dass das neue Virus mit seinen Unterscheidungen (wie ein Dutzend zusätzliche RNA-Basen, die in den Bereich eingefügt wurden, der der Anlagerung der beiden Teile des Spike-Proteins entspricht) aus natürlicher Selektion entstanden ist. Das Virus hatte einen natürlichen Vorteil, so wurde es perpetuiert - nicht erfunden.

Was auch immer passiert ist, vorausblickend kamen die Forscher des „proximalen Ursprungs“ bereits im März 2020 zum Schluss: „Obwohl kein tierisches Coronavirus identifiziert wurde, das hinreichend ähnlich ist, um als direkter Vorläufer von SARS-CoV-2 zu dienen, ist die Vielfalt der Coronaviren bei Fledermäusen und anderen Arten viel zu wenig erfasst."

Das ändert sich nun. Langsam.

Evolution in einer Fäkaliensuppe

Ein Sprung vom 2013 im Fledermauskot gefundenen RaTG13-Virus zum Auftauchen von SARS-CoV-2 im Jahr 2019 ist wie das Lesen des ersten und letzten Kapitels eines Romans: Es gibt nicht genug Handlung, um eine Geschichte zu rekonstruieren . Aber, da nun weitere Kapitel enthüllt werden, sieht es so aus, als ob SARS-CoV-2 aus einer Kot-Suppe von Viren entstanden ist - und sich weiter entwickelt.

Es stellt sich heraus, dass RaTG13 nicht die einzige Station auf dem Evolutionspfad zu SARS-CoV-2 war. China war auch nicht die einzige Heimat neuartiger Coronaviren, obwohl sie dort weiterhin identifiziert werden. Betrachten Sie aktuelle Berichte:

Kambodscha, 26. Januar 2021. Exkremente und Speichel von zwei Hufeisennasen, die 2010 in Kambodscha gesammelt wurden, wiesen Coronaviren auf, die in ihren Genomsequenzen zu 92,6% mit SARS-CoV-2 übereinstimmten und sich an einem Ende des für das Spike-Protein kodierenden Gens unterscheiden. Fazit eines Vorabdrucks in bioRxiv: „Die Entdeckung dieser Viren in einer in China nicht vorkommenden Fledermausart, zeigt, dass SARS-CoV-2-verwandte Viren eine viel größere geografische Verbreitung aufweisen als bisher angenommen, und legt nahe, dass Südostasien ein Schlüsselgebiet darstellt, das in der weiteren Suche nach dem Ursprung von SARS-CoV-2 und der künftigen Beobachtung von Coronaviren berücksichtigt werden muss.“

Thailand, 9. Februar 2021. Blut von fünf Fledermäusen in einer Thailändischen Höhle wies Coronaviren auf, die einem in Yunnan, China, gefundenen Typ ähnlich waren sowie Antikörper gegen SARS-CoV-2. Laut einem Bericht im Fachjournal Nature wurden solche Antikörper auch in einem Schuppentier nachgewiesen [3]. Wenn auch diese Studie den Vorläufer von SARS-CoV-2 nicht aufzeigte, so erweitert sie doch das Gebiet von SARS-CoV-2-ähnlichen Viren über China hinaus. Abbildung 1.

Abbildung 1: Entdeckung von SARS-CoV-2-verwandten Coronaviren in Asien (links) und Verbreitung von Fledermäusen in diesen Regionen (rechts). Darunter die Hufeisennase (Bilder aus S. Wacharapluesadee et al., Nature Comm. https://doi.org/10.1038/s41467-021-21240-1; Lizenz cc- by)

 

China, 8. März 2021. Ein weiterer bioRxiv-Preprint beschreibt Genomsequenzen von 411 Coronavirus-Proben von 23 Fledermausarten, die von Mai 2019 bis November 2020 auf einem über 1000 Hektar großen Gebiet in der Provinz Yunnan gesammelt wurden. Der engste Verwandte von SARS-CoV-2, genannt RpYN06, stimmt mit diesem zu 94,5% überein. Die generelle Genomähnlichkeit ist jedoch nicht so wichtig wie die Entsprechung in einzelnen Genen, woraus die Wirkung eines neuartigen Virus auf den menschlichen Körper besser vorhergesagt werden kann.

RpYN06 ist tatsächlich der nächste, bis jetzt identifizierteVerwandte von SARS-CoV-2, basierend auf Schlüsselgenen, welche Werkzeuge zur Replikation (ORF1ab), zum Eindringen in unsere Zellen und zum Einklinken in unsere Proteinsynthesemaschinerie (ORF7a und ORF8) darstellen und für die Nucleocapsid (N) -Proteine kodieren, die das virale genetische Material schützen. Die Studie fand 3 weitere Coronaviren, deren Genome sehr ähnlich sind und denen in Schuppentieren ähneln.

Ist SARS-CoV-2 nun fröhlich in verschiedenen Arten von Fledermäusen herumgelungert, wer weiß wie lang, hat es sich mit anderen Coronaviren vermischt und sich dabei nicht verändert, weil das Genom ihm gut gedient hat? Erst nach dem Sprung zu einem neuen Wirt - uns - traten spontan Mutationen zur Anpassung auf und blieben bestehen, sofern sie von Vorteil waren. Dann begannen Mutationen in einzelnen Genen die Virusvarianten hervorzurufen, die jetzt über den Planeten fluten. Der Titel eines kürzlich erschienenen Artikels in PLoS Biology fasst die Kräfte zusammen, die das neuartige Coronavirus geformt haben: „Die natürliche Selektion im Evolutionsprozess von SARS-CoV-2 in Fledermäusen hat einen Generalisten und hochgradigen Erreger für den Menschen hervorgebracht.“ Abbildung 2.

Abbildung 2: Evolution der Coronagruppe (nCoV), die schlußendlich zur Variante SARS-CoV-2 führte auf den Menschen überging. Schematische Darstellung (Quelle: O.A. McLean et al., 2021, https://doi.org/10.1371/journal.pbio.3001115.g003 [3]; Lizenz: cc-by)

 

Die Mutator-Hypothese

Ein dritter Weg, wie SARS-CoV-2 schnell entstehen könnte, besteht darin, dass ein oder mehrere Gene als „Mutator“ fungiert haben und andere Gene zur Mutation provozieren.

Ich erinnere mich an dieses Phänomen aus meiner Ausbildung zur Drosophila-Genetikerin. Fruchtfliegen mit einer mutierten gelben Augenfarbe können Nachkommen haben, die zur normalen roten Farbe zurückkehren, nicht aufgrund einer Mutation in einem Augenfarbengen, sondern aufgrund einer Mutation in einem Gen, das als Mutator bezeichnet wird. Es bewirkt die Zerstörung anderer Gene. Und die Arten von Mutationen, die es mit sich bringt, ähneln denen der neuen Varianten von SARS-CoV-2.

Die Hälfte der Mutationen, die das Gen des Fruchtfliegen-Mutators verursacht, sind Deletionen - d.i es fehlen Genstücke. Eine solche Deletion findet sich bei der erstmals in Großbritannien nachgewiesenen Virusvariante B.1.1.7 : es fehlen zwei Aminosäuren im Spike-Protein In diesem Fall repliziert ein PCR-COVID-Test nicht die RNA, die für das Spike-Protein codiert, da zwei Aminosäuren fehlen, während die anderen viralen Gene repliziert werden.

Bei Fruchtfliegen verfünffacht der Mutator auch die Rate der Veränderungen der einzelnen Basen, die als Punktmutationen bezeichnet werden. Diese kommen auch in den neuen viralen Varianten vor.

Ich behaupte nun nicht, dass ein Fliegengen in Viren Amok gelaufen ist, aber könnte ein Mutator-ähnliches Gen die schnelle Diversifizierung von SARS-CoV-2 in eine Reihe von Varianten vorantreiben? In diesem Fall könnte schnelle Mutation erklären, wie das Virus entstanden ist und dann zu einem Gestaltwandler wurde, ohne sich das Szenarios eine verrückten Wissenschaftlers vorstellen zu müssen, der eine Biowaffe erschafft, oder eine Reihe unglückseliger Tiere, die einen Krankheitserreger weitergeben, der jährlich Millionen Menschen töten könne.

Die Identifizierung eines Mutators würde die Aufklärung von Gen-Gen-Interaktionen erfordern - dies hatte selbst bei der Analyse menschlicher Genome keine große Priorität. Vielleicht hat ein gut untersuchtes Gen von SARS-CoV-2 eine zweite Funktion, welche die Mutation eines anderen herbeiführt? Auch wenn mehr als eine Million SARS-CoV-2-Genomsequenzen in die Datenbank GISAID (https://www.gisaid.org/) hochgeladen wurden, weiß ich nicht, inwieweit Forscher untersuchen, wie die Gene miteinander interagieren.

Schlussbetrachtung

Wenn man über den Wettlauf zwischen Impfstoffen und Varianten spricht, so kehrt das diesen nicht um. Derzeit lösen die Impfstoffe eine ausreichend vielfältige Antikörperantwort aus, um die zirkulierenden Viren in den Griff zu bekommen. Aber die Evolution hört nie auf. Wenn Varianten entstehen, die geimpfte Körper befallen, sich festsetzen und dann verbreiten, werden diese Impfstoffe dann die älteren Varianten ausmerzen und gleichzeitig Nischen für die neuen schaffen? Das ist es, was die Experten derzeit beunruhigt. Und mich.

Deshalb müssen wir die Evolution voraussehen und ihr zuvorkommen - etwas, woran die Impfstoffhersteller bereits seit Monaten arbeiten. Wenn es in diesen verrückten Zeiten etwas Konstantes gibt, dann ist es, dass SARS-CoV-2 uns immer wieder überrascht. Im Moment erleichtert es mich über Alternativen nachzudenken, Alternativen zu der unvorstellbaren Idee, dass das Virus geschaffen wurde, um uns zu zerstören


 [1] Ricki Lewis, 20.08.2020: Wie COVID-19 entstand und sich über die Kette der Fleischversorgung intensivierte

[2] Ricki Lewis, 11.03.2021: On the Anniversary of the Pandemic, Considering the Bioweapon Hypothesis. https://dnascience.plos.org/2021/03/11/on-the-anniversary-of-the-pandemic-considering-the-bioweapon-hypothesis/

[3] S. Wacharapluesadee et al., Evidence for SARS-CoV-2 related coronaviruses circulating in bats and pangolins in Southeast Asia. Nature Comm. https://doi.org/10.1038/s41467-021-21240-1

[4] O.A. Mclean etal., Natural selection in the evolution of SARS-CoV-2 in bats created a generalist virus and highly capable human pathogen. 12.03.2021. https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3001115#sec002


 * Der Artikel ist erstmals am 15.April 2021 in PLOS Blogs - DNA Science Blog unter dem Titel "3 Possible Origins of COVID: Lab Escapee, Evolution, or Mutator Genes?" https://dnascience.plos.org/2021/04/15/3-possible-origins-of-covid-lab-escapee-evolution-or-mutator-genes/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Die beiden Abbildungen und Legenden wurden von der Redaktion aus den im Artikel zitierten Publikationen [3] und [4] eingefügt.


COVID-19 im ScienceBlog

Vom Beginn der Pandemie an ist COVID-19 das dominierende Thema im ScienceBlog. 33 Artikel (mehr als 50 % aller Artikel) sind dazu bereits erschienen - von der Suche nach geeigneten Zielstrukturen für die Impfstoffentwicklung, nach möglichen Arzneimitteln zur Therapie Erkrankter bis zu ersten vielversprechenden klinischen Erfolgen mit innovativen Impfstoffen und schlussendlich deren Registrierung. 

Die Links zu diesen Artikeln sind im Themenschwerpunkt Viren zusammengefasst.

Daraus weitere Artikel von Ricki Lewis zu COVID-19:


 

 

inge Thu, 22.04.2021 - 01:23

Comments

Asymptomatische Infektionen mit SARS-CoV-2. Wirkt der AstraZeneca Impfstoff?

Asymptomatische Infektionen mit SARS-CoV-2. Wirkt der AstraZeneca Impfstoff?

Fr 16.04.2021.... Inge Schuster Inge SchusterIcon Medizin

Um effizient die COVID-19 Pandemie bekämpfen zu können, sollten Impfstoffe sowohl vor schweren COVID-19 Erkrankungen schützen als auch die Infektion mit dem Virus selbst und damit die Ansteckung Anderer durch asymptomatisch und präsymptomatisch Infizierte möglichst unterbinden. Wie die initiale Infektionsphase abläuft, ob sie zu Symptomen führt oder asymptomatisch bleibt, ist noch ungeklärt. Neue Befunde weisen auf eine überragende Wirksamkeit der mRNA-Impfstoffe von Pfizer und Moderna gegen die durch die derzeit dominierende Virusvariante B.1.1.7 ausgelösten - symptomatischen und asymptomatischen Infektionen hin. Der AstraZeneca Impfstoff zeigt dagegen nur geringe Wirkung gegen asymptomatische Infektionen mit B.1.1.7. Geimpfte Personen können somit ansteckend sein.

Unsichtbare Gefahr

Bereits zu Beginn der COVID-19 Pandemie war es offensichtlich, dass das Virus auch von infizierten Personen übertragen wurde, die selbst (noch) keine Krankheitssymptome zeigten, also von asymptomatischen Menschen oder von präsymptomatischen Menschen, die knapp vor dem Ausbruch der Erkrankung eine fast schon maximale Viruslast aufweisen. Ohne Schutzmaßnahmen konnte also jeder für jeden ansteckend sein. Dies gilt auch heute noch - die üblichen Antigen-Tests können ja nur für einen stark limitierten Zeitraum Unbedenklichkeit bescheinigen.

Wieviele SARS-Infizierte bleiben nun symptomlos?

Trotz einer Fülle epidemiologischer und klinischer Untersuchungen und Laborexperimenten gibt es dazu keine klaren Antworten. Hatten frühe Studien angenommen, dass bis zu 80 % der SARS-CoV-2-Infektionen asymptomatisch verlaufen, so tendieren neuere Untersuchungen zu einem Anteil von 17 - 30 % [1]. In diesem Bereich liegen auch die Werte eines rezenten umfassenden PCR-basiertes Screening-Programms des Klinikpersonals am Cambridge University Hospital: von 3 252 nicht geimpften Personen wiesen 0,8 % einen positiven PCR-Test auf, blieben aber symptomlos und 1,7 % mit positivem PCR-Test zeigten Symptome von COVID-19 [2]. In anderen Worten: Der Großteil der SARS-Infizierten erkrankt an COVID-19, ist aber davor schon infektiös.

Wie erfolgt die Übertragung - welche Virusmenge löst eine Infektion aus?

Es sind dies Fragen, die für das Verstehen von COVID-19 von fundamentaler Bedeutung sind, bis jetzt aber unbeantwortet blieben. Erste Informationen soll eine in England von Dr.Chris Chiu (Imperial College London) geleitete, ethisch umstrittene "Human Challenge Studie" bringen. Es sollen insgesamt 90 junge gesunde Probanden mit dem SARS-CoV-2-Virus inokuliert werden und die frühesten Phasen der Infektion verfolgt werden. Das Virus wird dabei in Tröpfchen auf die Nasenschleimhaut aufgebracht und die niedrigste Virusmenge eruiert, die im Nasen/Rachenraum gerade noch eine Infektion auslöst. Verfolgt wird, wie das Virus sich in der Nase vermehrt, wie das Immunsystem darauf reagiert, wer Symptome entwickelt und wer nicht, d.i. wie es schließlich zu COVID-19 kommt. Die Studie findet in der Klinik unter Quarantänebedingungen statt, die Probanden bleiben rund um die Uhr unter medizinischer Aufsicht und werden danach noch ein Jahr lang auf ihre Gesundheit getestet [3].

Ein spezielles Research Ethics Committee hat im Feber die Studie gestattet, diese hat im März begonnen und die ersten drei Probanden haben bereits die Klinik verlassen [3]. In weiterer Folge denkt man daran einige Probanden mit vorhandenen Vakzinen zu impfen und dann mit neuen Virusvarianten zu inokulieren, um die jeweils wirksamsten Vakzinen herauszufinden

Generelle Forderungen an Impfstoffe…

Um gegen die Pandemie erfolgreich vorgehen zu können, sollte ein Impfstoff zwei Forderungen erfüllen:

  • er sollte zuverlässig gegen schwere, durch SARS-CoV-2 ausgelöste COVID-19 Erkrankungen schützen und
  • er sollte die Infektion selbst und damit die Ansteckung Anderer durch asymptomatisch und präsymptomatisch Infizierte und Weiterverbreitung des Virus möglichst unterbinden

…klinische Studien…

Das Ziel der klinischen Studien, die der Zulassung der Impfstoffe zugrunde liegen, war der Schutz vor COVID-19 Erkrankungen. In sehr großen, randomisierten Doppelblind-Studien wurde die Wirksamkeit einer Vakzine versus Plazebo an Hand der Inzidenz von charakteristischen COVID-19 Symptomen (z.B. Fieber, Husten, Atemnot , Geschmack- und Geruchsverlust; etc.) in Verbindung mit einem positiven Nachweis des Virus durch einen PCR-Test festgestellt.

Darüber ob eine Vakzine bereits Infektionen unterdrücken kann, konnten diese Studien nichts aussagen.

…PCR-basierte Screening-Programme…

Erst in den letzten Wochen haben neue umfassende PCR-basierte Screening-Programme an tausenden Geimpften versus Nicht-Geimpften erstmals Aussagen über die Wirksamkeit von Vakzinen gegen asymptomatische Infektionen ermöglicht.

Demnach zeigen die mRNA-Impfstoffe von Pfizer und Moderna über 90 % Wirksamkeit nicht nur bei der Reduktion der COVID-19-Inzidenz, sondern auch bei der Verhinderung asymptomatischer Infektionen [2]. Es besteht damit die Hoffnung, dass geimpfte Personen andere nicht mehr anstecken können und Infektionsketten so unterbrochen werden können

…und Wirksamkeit der AstraZeneca-Vakzine (AZD1222) gegen asymptomatische Infektionen

Praktisch zeitgleich mit den überaus positiven Befunden zu den mRNA-Vakzinen ist auch eine neue Analyse zu den in den England gelaufenen Phase 2/3 klinischen Studien erschienen [4]. (Anlässlich der Zulassung der Vakzine durch die EMA wurde über diese Studien bereits in [5] berichtet). Das Studienprotokoll hatte vorgesehen, dass die Probanden wöchentlich Abstriche aus dem Nasen/Rachenraum nahmen - ob sie nun Symptome einer COVID-19 Erkrankung hatten oder nicht - und einschickten. Abstriche, die positiv auf das Virus testeten, wurden sequenziert und auch in Hinblick auf die britische Virus-Variante B.1.1.7 evaluiert, die in England ab Dezember 2020 stark anstieg und derzeit die in vielen europäischen Ländern dominierende Form ist.

In Hinblick auf diese B.1.1.7-Variante und bei Probanden nach 2 Standarddosen des Impfstoffs zeigte dieser eine Wirksamkeit gegen symptomatische Infektionen von 66,7 % (95% CI 29,2 – 84,3). Die Wirksamkeit gegen asymptomatische Infektionen mit 8 Fällen in der Vakzine-Gruppe und 11 Fällen in der Placebo-Gruppe betrug dagegen nur 28,9 % (CI 95 -77 - 71,4). Zweifellos können diese Daten mit ihrem viel zu weitem Konfidenzintervall (CI) nur als Näherung einer sehr geringen klinischen Wirksamkeit angesehen werden. Sollte es zu einer weiten Normalisierung des öffentlichen Lebens und einer Rücknahme der Maßnahmen - Social Distancing, Mund/Nasenschutz, etc. - kommen, so können asymptomatische Virenträger das Virus weiter verbreiten und dabei neue Varianten auftauchen, die das Infektionsgeschehen wieder anfachen.


[1] AL Rasmussen & SV Popescu, SARS-CoV-2 transmission without symptoms. (19 March 2021) Science 371 (6535) 1207

[2] I.Schuster, 01.04.2021: Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

[3] Ryan O'Hare, 25.03.2021: First volunteers on COVID-19 human challenge study leave quarantine. https://www.imperial.ac.uk/news/218294/first-volunteers-covid-19-human-challenge-study/

[4] KRW Emary et al., 30.03,2021: Lancet, Efficacy of ChAdOx1 nCoV-19 (AZD1222) vaccine against SARS-CoV-2 variant of concern 202012/01 (B.1.1.7): an exploratory analysis of a randomised controlled trial

[5] I.Schuster, 01.02.2021: Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben


 

inge Fri, 16.04.2021 - 01:50

3D-Druck: Wie Forscher filigrane Formen aus Metall produzieren

3D-Druck: Wie Forscher filigrane Formen aus Metall produzieren

Do, 08.04.2021 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Der 3D-Druck von Kunststoffteilen ist in vielen Bereichen Standard, bei Metallen ist noch einiges an Forschungsarbeit zu leisten. Es ist aber offensichtlich, dass die additive Fertigung, wie der Fachausdruck für diese Technik lautet, das Potenzial hat, die Metallverarbeitung zu revolutionieren und neue Anwendungsbereiche zu eröffnen. Eine Gruppe um Prof.Dr. Eric A. Jägle vom Max-Planck-Institut für Eisenforschung (Düsseldorf) entwickelt Verfahren, um das Design der Metalllegierungen für und durch den 3D-Druck zu verbessern. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr hat Dr. Jaegle in seinem Düsseldorfer Labor einen Besuch abgestattet.*

Das dreidimensionale (3D) Drucken von Kunststoffen ist längst Alltag, das 3D-Drucken von Metallen keine Zukunftsvision mehr, sondern industrielle Realität. Wer kürzlich eine Krone als Zahnersatz bekam, beißt sehr wahrscheinlich mit einem 3D-gedruckten Metallteil unter der Keramik ins Brötchen. Immer, wenn es um Einzelanfertigungen oder kleine Stückzahlen geht, ist das 3D-Drucken von Metallteilen interessant. Vor allem kann es beliebig kompliziert geformte Werkstücke in einem Durchgang herstellen. Das ist auch ideal für verschachtelte Bauteile, die bislang aus vielen Einzelteilen zusammengeschweißt werden müssen. Anwendungsgebiete sind neben der Medizin die Luft- und Raumfahrt, Kraftwerksturbinen, Motorsport, Ersatzteile für Oldtimer, auch die Bahn nutzt diese Technik.

Gedruckte Raketen-Brennkammern

Da sich beliebige Formen 3D-drucken lassen, wird extremer Leichtbau möglich. Wie bei verästelten Pflanzenstrukturen befindet sich in solchen Leichtbauteilen nur dort Material, wo es Kräfte aufnehmen muss. „Deshalb kommen heute auch zum Beispiel komplette Raketen-Brennkammern für die Raumfahrt aus dem Drucker“, erklärt Jägle. Der Werkstoffwissenschaftler beantwortet zudem die Frage, warum das „3D-Drucken“ hier in Anführungszeichen geschrieben ist. Industrie und Forschung sprechen lieber von „Additiver Fertigung“ als vom Drucken. Es gibt nämlich viele verschiedene Verfahren, computergesteuert dreidimensionale Objekte aus Metall aufzubauen.

Als erstes erklärt Jägle, warum diese Technik „additiv" heißt, im Gegensatz zu „subtraktiv". „Subtraktiv ist zum Beispiel die Bildhauerei", erklärt er, „so wie Michelangelo seinen berühmten David aus einem Marmorblock herausgearbeitet hat." In der Industrie entspricht das dem computergesteuerten Herausfräsen eines Teils aus einem Metallblock. Additiv heißt hingegen, dass man etwas hinzufügt statt wegnimmt, also aufbaut. Allerdings trifft das auch auf das Gießen von geschmolzenem Metall in eine Gussform zu, was die Menschen seit der Bronzezeit beherrschen. Also fehlt noch etwas in der Definition. „Das Ganze muss man auch noch computergesteuert machen", zählt Jägle weiter auf, „und das ohne Werkzeug!"

Bei der Additiven Fertigung geht es also darum, ein im Computer entworfenes, dreidimensionales Teil möglichst formgetreu aus einem Material aufzubauen. Sie soll vollkommen flexibel beliebige Formen produzieren können. Heute gibt es verschiedene additive Techniken für Metalle, die unterschiedlich weit entwickelt sind. Am weitesten verbreitet sind die sogenannten Pulverbett-Verfahren, bei denen ein starker Infrarotlaser oder ein Elektronenstrahl Metallpulver verschweißt. Der Laserdrucker im Düsseldorfer Labor gehört dazu.

Abbildung 1: Bei der LPBF-Technik des 3D-Druckens von Metall verschweißt ein Laserstrahl feines Metallpulver zu einem Bauteil. Links und rechts von dem Volumen, in dem das Bauteil heranwächst, befinden sich Behälter für das Metallpulver (1). Schicht für Schicht fährt der Hubtisch (2) unter dem oben wachsenden Bauteil nach unten. Jedes Mal streicht ein Schieber oder eine Bürste (3) eine neue Pulverschicht aus einem der beiden Reservoirs über das Werkstück. Danach schweißt der Laser (4) über einen computergesteuerten Scannerspiegel (5) die für diese Schicht nötige Form auf.© R. Wengenmayr / CC BY-NC-SA 4.0

Das Prinzip ist einfach zu verstehen. Als Baumaterial dient feines Metallpulver, weshalb dieses Verfahren Laser Powder Bed Fusion, kurz L-PBF, heißt— also auf Deutsch Laser-Pulverbett-Schmelzen. Das Pulver erzwingt strenge Sicherheitsvorkehrungen, wenn der Drucker geöffnet wird. Schließlich kann das Pulver, wenn es sich als Staubwolke in der Luft verteilt, explodieren. Ursache ist die riesige Gesamtoberfläche aller Metallpartikel zusammengenommen, die im Kontakt mit dem Sauerstoff der Luft schlagartig oxidieren kann. Außerdem ist das Einatmen gefährlich. Deshalb darf man den Drucker nur öffnen, wenn man Schutzanzug und Atemmaske trägt, und man muss sehr sauber arbeiten.

Bauteil aus dem Pulverbett

Das L-PBF-Verfahren, bietet zwei Vorteile. Erstens kann es besonders feine Strukturen herstellen. Zweitens sind die damit gedruckten Metallteile enorm fest. Ihre Festigkeit entspricht der höchsten Qualitätsstufe, dem Schmiedestück. Metalle bestehen aus feinen Körnern, und das Schmieden presst diese besonders dicht und fest zusammen. Ein Schmiedestück ist damit viel zäher und härter als ein Gussteil.

Im L-PBF-Drucker befindet sich das Metallpulver in einem Pulverbett (Abbildung 1). Eine Schutzatmosphäre aus dem Edelgas Argon verhindert die Oxidation beim Verschweißen. Im ersten Schritt schiebt eine Bürste eine sehr dünne Schicht Pulver über eine Grundplatte. Dann schweißt der Laser die erste Schicht des Bauteils ins Pulver (Abbildung 2). Sein Strahl wird dafür von einem extrem schnell und präzise gesteuerten Scannerspiegel umgelenkt. Im Lichtfokus fährt ein kleines mobiles Bad aus geschmolzenem Metall durch das Pulver, das außerhalb des Fokus schlagartig abkühlt und fest wird. Ist eine Schicht fertig, fährt ein Hubtisch unter der Platte das Bauteil um exakt eine Schichthöhe nach unten, und die Prozedur wiederholt sich. Es gibt auch Geräte, die mit mehreren Laserstrahlen arbeiten, um schneller zu sein.

Abbildung 2: Der rasende Laserstrahl schweißt die neue Schicht eines Bauteils ins Metallpulver. ©Foto: Fraunhofer ILT Aachen / Volker Lannert

Die Höhe einer Schicht hängt davon ab, wie fein die Details sein sollen. Typisch sind zwanzig bis vierzig Mikrometer (Tausendstel Millimeter), was grob dem Durchmesser eines feinen Kopfhaars entspricht. Ein Werkstück kann so aus einigen Tausend Schichten aufgebaut sein. Der Laserstrahl bewegt sich wie ein Stift beim Schraffieren einer Fläche. Deshalb kann ein Bauteil am Ende aus mehreren Millionen kurzer Schweißbahnen mit vielen Kilometern Gesamtlänge bestehen. Wenn das Teil fertig ist, muss es aus dem Pulver herausgeholt, gereinigt (Abbildung 3) und von der Grundplatte abgetrennt werden.

Der Werkstoffwissenschaftler Jägle interessiert sich für die Vorgänge, die dabei tief im Inneren der geschmolzenen und wieder erstarrten Metalle ablaufen. Das ist Grundlagenforschung, also genau die Max-Planck-Welt. Deshalb sieht das, was Jägles Gruppe druckt, auch nicht so cool aus wie viele Beispiele im Netz. „Wir drucken Würfel", sagt Jägle und lacht: „Die schneiden wir auseinander und untersuchen sie."

Schwierige Metall-Legierungen

Beim Einsatz von Metalllegierungen in der Additiven Fertigung können nämlich viele grundlegende Probleme auftreten, und die wollen die Werkstoffwissenschaftler verstehen. Metallische Legierungen bestehen aus mindestens zwei chemischen Elementen, damit sie die gewünschten Eigenschaften bekommen. Die verschiedenen chemischen Elemente in einer Legierung reagieren aber auch unterschiedlich, wenn diese verflüssigt wird. Das erinnert an eine Schokolade, die einmal angeschmolzen wurde und danach nicht mehr so schön cremig-zart auf der Zunge zergeht: Das Erhitzen hat ihre „Mikrostruktur" verändert.

Abbildung 3: Das fertige Bauteil wird aus dem Metallpulver herausgeholt. © Foto: Fraunhofer ILT Aachen / Volker Lannert

Jägle zählt die beim 3D-Drucken von Metalllegierungen auftretenden Probleme auf: „Manche Materialien lassen sich gar nicht verarbeiten, andere sind voller Risse. Manche kommen zwar als Festkörper aus dem Pulverbett, sind aber sehr spröde." Einige 3D-gedruckte Werkstoffe ermüden bei mechanischer Belastung viel schneller als sie sollten. In der Hitze des Laserfokus können auch flüchtigere chemische Elemente aus der Legierung verdampfen, was deren Eigenschaften verschlechtert. Es kann zudem passieren, dass ein gedrucktes Werkstück in einer Zugrichtung fester ist als senkrecht zu dieser Richtung.

Eric Jägles Forschungsgruppe untersucht deshalb ihre gedruckten Würfel mit ausgeklügelten Methoden. Sie wollen damit enträtseln, was bei dem Aufschmelzen des Pulvers und anschließenden Erstarren zum Metallteil auf der mikroskopischen Skala passiert. Darauf sind die Düsseldorfer spezialisiert, und die Industrie ist an dieser Grundlagenforschung stark interessiert.

Risse in der Superlegierung

Jägle erzählt von einem aktuellen Forschungsprojekt, an dem mehrere größere und kleinere Unternehmen und verschiedene Universitäten und Forschungsinstitute beteiligt sind. Auch das Max-Planck-Institut für Eisenforschung ist dabei. „Warum kommen bestimmte Nickel-Basis-Superlegierungen mit Rissen aus dem L-PBF-Prozess heraus?", schildert Jägle die Fragestellung des Projekts. Solche Speziallegierungen werden für Turbinenschaufeln in Kraftwerken, Hubschraubern oder Flugzeugen verwendet. Beim Betrieb können diese Schaufeln über Tausend Grad Celsius heiß werden. Das dann fast weißglühende Metall darf aber nicht ermüden oder korrodieren. Genau das leisten Nickel-Basis-Superlegierungen.

Hinzu kommt, dass diese Turbinenschaufeln durch feine Kanäle gekühlt werden. Deshalb erfordert die Herstellung aufwändige Gießformen. Sie mit den Kanälen in einem Stück drucken zu können, wäre also attraktiv. Das wäre nicht nur billiger, man könnte die Schaufeln nach Bedarf drucken, auch als Ersatzteile.

„Deshalb nehmen mehrere Firmen Millionen in die Hand, um das spannende Projekt zu finanzieren", erzählt Jägle: „Ziel ist die Entwicklung einer neuen Legierung, die dieses Rissproblem nicht mehr hat." Solche Nickel-Basis-Superlegierungen werden in einer komplizierten Rezeptur mit bis zu 15 chemischen Elementen zusammengemixt und dann in speziellen Schmelz¬verfahren hergestellt. Grob die Hälfte der Mixtur entfällt auf Nickel, hinzu kommen Chrom, Kohlenstoff, Molybdän, Niob, Titan, Aluminium und weitere Elemente. Jedes Element hat eine bestimmte Funktion im Werkstoff.

Abbildung 4: Das Elektronenmikroskopbild zeigt die polierte und angeätzte Oberfläche einer Nickel-Legierung. Die Kristall¬körner sind gut erkennbar. © MPI für Eisenforschung

Um das Entstehen der feinen Risse verständlich zu machen, erklärt Jägle, wie eine Metalllegierung unter einem Lichtmikroskop aussieht. Wenn man sie poliert und mit einer Säure anätzt, dann sieht man so etwas wie metallisch glänzende Körner (Abbildung 4). „Das sind Kristalle", erklärt der Forscher, „und dass Metalle aus Kristallen bestehen, ist für viele eine Überraschung, schließlich denkt man erst mal an so etwas wie Diamant oder Bergkristall".

In der Regel sind die Kristalle mikroskopisch klein, in additiv gefertigten Legierungen sogar extrem fein. Typisch sind dann Abmessungen von einigen Hundert Nanometern (Milliardstel Meter). Sind die Legierungen so komplex wie eine Nickel-Basis-Superlegierung, dann sind die einzelnen Kristalle auch chemisch unterschiedlich zusammengesetzt. Das erinnert entfernt an ein Körnerbrot, in dessen Teig verschiedene Körnersorten stecken. Kühlt eine solche Legierung außerdem aus der Schmelze ab und geht in den festen Zustand über, dann werden ihre chemischen Bestandteile auch nicht alle zur gleichen Zeit fest. Für einen gewissen Moment des Abkühlens überzieht ein hauchdünner Flüssigkeitsfilm die Oberflächen der schon fest gewordenen Kristallkörner.

Überflüssige Übeltäter

Und dieser dünne Flüssigkeitsfilm kurz vor dem Erstarren ist der Übeltäter, der die Risse verursacht. Wenn die Kristallkörner abkühlen, schrumpfen sie nämlich. Metalle reagieren auf Temperaturänderungen durch relativ starkes Ausdehnen oder Zusammenziehen. Solange sich zwischen den Körnern in der Legierung flüssiges Material befindet, kann ein schrumpfendes Korn an seiner Kontaktfläche zum Nachbarkorn abreißen. Beim weiteren Schrumpfen klafft dann an dieser Stelle ein Riss auf (Abbildung 5). Das Forschungsziel der Düsseldorfer ist deshalb eine kleine, aber wirksame Änderung in der Rezeptur. Sie soll in Zukunft diesen schädlichen Flüssigkeitsfilm beim Abkühlen verhindern.

Abbildung 5: Das Elektronenmikroskopbild zeigt die Bruchstelle eines 3D-gedruckten Werk¬stücks aus einer Nickel-Legierung. Die dunklen Löcher sind unerwünschte Risse, die das Bauteil schwächen. © MPI für Eisenforschung

Allerdings würde es viel zu lange dauern, wenn Jägles Forschungsgruppe einfach herumprobieren würde. Mit einer Mischung aus Erfahrung, Computerprogrammen und der genauen Analyse der zersägten Würfel versuchen die Forscher, die beste Rezeptur möglichst effizient aufzuspüren. Eine Spezialität des Max-Planck-Instituts für Eisenforschung sind sogenannte Atomsonden. Damit können die Forscher im Extremfall bis auf Atome genau entschlüsseln, wie die Körner des gedruckten Materials räumlich aufgebaut sind.

 

An der Additiven Fertigung fasziniert, wie eng die Grundlagenforschung mit der industriellen Anwendung verknüpft ist. Jägle zitiert eine berühmte Feststellung von Max Planck, dem Namensgeber der Max-Planck-Gesellschaft: „Dem Anwenden muss das Erkennen vorausgehen." Das klingt fast so, als hätte Planck schon vor Jahrzehnten die Welt des 3D-Druckens vorausgesehen.


 * Der Artikel ist erstmals unter dem Title: " Drucken in drei Dimensionen. Wie Forscher filigrane Formen aus Metall produzieren" in TECHMAX 27 (Frühjahr2020) der Max-Planck-Gesellschaft erschienen  https://www.max-wissen.de/320185/3-d-druck-metalle und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel wurde leicht gekürzt.


Weiterführende Links

Max-Planck-Institut für Eisenforschung https://www.mpie.de

D3-Metalldruck lockt Investoren | Wirtschaft. Video 2:48 min. https://www.youtube.com/watch?v=eZJHjEE5CDg

Damaszener Stahl aus dem 3D-Drucker: https://www.mpg.de/15017328/damaszener-stahl-3d-druck


 

inge Wed, 07.04.2021 - 21:15

Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

Do 01.04.2021.... Inge Schuster Inge SchusterIcon Medizin

Schützt die Corona-Impfung bereits vor einer Ansteckung mit SARS-CoV-2 oder bloß vor der durch das Virus ausgelösten COVID-19 Erkrankung? Ergebnisse aus drei großen Studien in England, Israel und den US zeigen, dass die Impfstoffe auch einen sehr hohen Schutz vor asymptomatischen Infektionen bieten. Geimpfte können somit andere Personen nicht mehr anstecken, die Ausbreitung des Virus wird eingedämmt.

Basierend auf einer guten Verträglichkeit und auf ausgezeichneten Daten zur Wirksamkeit haben die mRNA-Impfstoffe von Pfizer/BioNTech und Moderna/NIAID bereits im Dezember 2020 die Notfall-Zulassung der US-Behörde FDA erhalten und kurz darauf hat die Europäische Behörde (EMA) die bedingte Zulassung beider Vakzinen empfohlen. Die Vakzinen nutzen dabei eine neue Technologie: die mRNA für das essentielle virale Spikeprotein wird als Bauanleitung in unsere Zellen injiziert, diese produzieren das Fremdprotein und unser Immunsystem reagiert darauf u.a. mit der Bildung von Antikörpern. Kommt es später zum Kontakt mit dem ganzen Virus, so soll dieses durch das aktivierte Immunsystem daran gehindert werden unsere Körperzellen zu infizieren.

Symptomatische Infektionen

In den klinischen Phase 3-Studien [1, 2] wurde die Wirksamkeit der Vakzinen an der Inzidenz der durch das Virus ausgelösten COVID-19- Erkrankungen gemessen, d.h. am Auftreten charakteristischer Symptome (z.B. Fieber, Husten, Atemnot , Geschmack- und Geruchsverlust; etc.) in Verbindung mit einem positiven Nachweis des Virus durch einen PCR-Test.

Symptomatische Infektionen: Wirksamkeit der beiden mRNA-Impfstoffe gemessen am Auftreten von COVID-19 Erkrankungen. Nach der zweiten Dosis erreicht der Impfschutz rund 95 % der Probanden. (Bild aus [3], Daten aus [1] und [2], Lizenz cc-by)

Sowohl bei der Pfizer- als auch bei der Moderna-Vakzine zeigte sich eine ausgeprägte Wirkung bereits rund 12 Tage nach der ersten Dosis - das entspricht dem Zeitraum, den das Immunsystem zur Antikörperbildung gegen das Corona-Spikeprotein benötigt: während die COVID-19 Fälle in der Placebogruppe ungebremst weiter anstiegen, flachte die Kurve bei den Geimpften stark ab und erreichte nach der 2. Impfung einen Schutz von 95 %. Abbildung 1 zeigt den sehr ähnlichen Zeitverlauf der Wirksamkeiten der beiden Vakzinen (eine ausführlichere Darstellung findet sich in [3], woraus auch die Abbildung stammt).

Asymptomatische Infektionen

Die für die behördliche Zulassung erhobenen exzellenten Wirksamkeiten geben keine Auskunft über symptomlos verlaufende Infektionen mit SARS-CoV-2 . Solcherart Infizierte können jedoch andere Personen anstecken und das Virus so weiter und weiter verbreiten. Eine ganz wesentliche Frage stellt sich daher: sind die Impfstoffe in der Lage auch vor symptomlosen Infektionen zu schützen? Drei groß angelegte Studien in den US, in UK und in Israel bejahen diese Frage eindeutig.

Die US-Studie der CDC

In einer am 29. März 2021 erfolgten Aussendung bestätigen die Centers for Disease Control and Prevention (CDC), - eine Behörde des US-amerikanischen Gesundheitsministeriums -, dass die Impfstoffe von Pfizer und Moderna auch vor symptomlosen Ansteckungen mit SARS-VCoV-2 schützen. Die Aussendung nennt zwar noch keine Details, die Aussagen sind dennoch äußerst ermutigend.

Die Studie: Es waren 3950 Personen involviert, die aus 6 Bundesstaaten stammten und auf Grund ihrer Tätigkeit (medizinisches Personal, Ersthelfer , essentielle Arbeitnehmer) stärker dem Virus ausgesetzt waren als die allgemeine Bevölkerung. Über einen Zeitraum von 13 Wochen (14. 12. 2020 bis 13. 3. 2021) sammelten die Teilnehmer jede Woche selbst Nasenabstriche für RT-PCR-Labortests, gleichgültig ob sie nun Krankheitssymptome entwickelt hatten oder nicht. Die Forscher der CDC konnten so mittels der PCR-Tests auch auf symptomlos verlaufende Infektionen mit SARS-CoV-2 prüfen.

Das Ergebnis: Zwei oder mehr Wochen nach der ersten Dosis des Pfizer- oder des Moderna-Impfstoffes hat sich das Risiko einer SARS-CoV-2 Infektion um 80 Prozent reduziert, zwei oder mehr Wochen nach der zweiten Impfstoffdosis um 90 Prozent. Die Studie zeigt, dass die beiden mRNA-Impfstoffe das Risiko aller SARS-CoV-2-Infektionen verringern können, nicht nur symptomatischer Infektionen.

Die Cambridge Studie in UK

In England hatten bereits am 8. Jänner 2021 Massenimpfungen mit der Pfizer-Vakzine begonnen, prioritär von Beschäftigten im Gesundheitswesen, die ein erhöhtes Risiko für eine SARS-VoV-2 Infektion haben und damit in gesteigertem Maße Patienten und Kollegen anstecken können. Ein umfassendes PCR-basiertes Screening-Programm des Klinikpersonals am Cambridge University Hospital hatte zuvor bereits während der ersten COVID-19-Pandemiewelle auf das häufige Auftreten von asymptomatischen und nur gering symptomatischen SARS-CoV-2- Infektionen hingewiesen. Nun hat ein Team des Cambridge University Hospitals die Auswirkung einer ersten Dosis des Pfizer-Impfstoffs auf das Auftreten asymptomatischer Infektionen mittels PCR-Test untersucht.

Die Studie: Während einer zweiwöchigen Zeitspanne (18 - 31.Jänner 2021) wurden vergleichbar viele Personen von geimpftem und nicht-geimpftem Krankenhauspersonal, das sich nach eigenen Angaben gesund fühlte, auf das Vorhandensein des Virus mittels PCR getestet (es waren ca. 4 400 PCR-Tests/Woche). Es wurde dabei die Zahl der positiven PCR-Tests von nicht-geimpften Personen mit den Zahlen von geimpften nach weniger als 12 Tagen nach der Impfung und länger als 12 Tage nach der Impfung verglichen (12 Tage sind etwa der Zeitraum, den das Immunsystem zur Antikörperbildung gegen das Corona-Spikeprotein benötigt; s.o.) [5].

Das Ergebnis: Es zeigte sich, dass 26 von 3 252 (0,8 %) nicht-geimpften, symptomlosen Personen einen positiven PCR-Test hatten. Weniger als 12 Tage nach der Impfung sank die Zahl der symptomlos Infizierten auf 13 von 3 535 (0,37 %) und länger als 12 Tage nach der Impfung testeten nur mehr 4 von 1 989 (0,2 %) positiv.

Abbildung 2.Wie viele Krankenhaus- Mitarbeiter im haben zwar keine Symptome von COVID-19, zeigen im PCR-Test aber Infektion mit dem Virus? Nach der ersten Dosis der Pfizer-Vakzine sank die Zahl der positiv Getesteten rasch auf die Hälfte ab und mehr als 12 Tage später - nachdem die Antikörperabwehr einsetzte - auf ein Viertel. Die cycle times (ct) auf der rechten Achse zeigen einen Trend zu höheren Werten, d.i. zu niedrigeren Viruslasten. (Bild aus Michael Weekes et al.,[5] Lizenz cc-by).

Bei Personen, die COVID-19 Symptome zeigten, lag die Inzidenz der Nicht-Geimpften höher bei 1,7 % und sank nach mehr als 12 Tagen nach der Impfung auf 0,4 %. PCR-Tests geben nicht nur die Antwort positiv oder negativ. An Hand der zur Detektion nötigen Zahl an Amplifíkationen (cycle times =ct) zeigt sich auch ein Trend zu höheren cycle times, d.i. zu niedrigeren Viruszahlen.

Die Israel-Studie

In diesem Land läuft wohl sicherlich die derzeit größte Studie zur Wirkung von Impfungen auf symptomatische und asymptomatische Infektionen mit SARS-CoV-2. Mit dem Ziel möglichst schnell alle Einwohner gegen COVID-19 zu immunisieren, hatten bis 5. März bereits rund 56 % der Bevölkerung eine Impfdosis erhalten und etwa 44 % die vollständige Immunisierung mit 2 Dosen. Geimpft wurde ausschließlich mit dem Pfizer/BionTech- Impfstoff ; der damals bereits dominierende Virusstamm war die britische Variante B .1.1.7.

Die Studie: Zur Auswertung kamen Daten zu allen Geimpften und zu nachfolgenden Infektionen im Zeitraum 17. Januar bis 6. März. Untersucht wurden PCR-Tests hinsichtlich der "cycle times", die ein Maß für die Virenlast im Organismus sind. Die Daten wurden vom israelischen Gesundheitsministerium erhoben, das regelmäßig Infektionen, Tests und den Impfstatus erfasst.

Das Ergebnis: Der Pfizer-Impfstoff bietet bereits 12 Tage nach der ersten Dosis einigen Schutz vor einer COVID-18 Erkrankung und erhöht diesen 7 Tage nach der zweiten Impfung auf 95 %. Asymptomatische Infektionen, die 12 - 28 Tage nach der ersten Impfung zu positiven PCR-Tests führen, zeigen bereits eine 4-fach reduzierte Virenlast auf und weisen damit auf eine niedrigere Infektiosität und damit Verbreitung des Virus hin.

Fazit

Die Impfstoffe von Pfizer und Moderna zeigen über 90 % Wirksamkeit bei der Verhinderung asymptomatischer Infektionen. Es besteht damit die Hoffnung, dass geimpfte Personen andere nicht mehr anstecken können und Infektionsketten so unterbrochen werden können.


[1] EMA Assessment Report: Comirnaty (21. December 2020). https://www.ema.europa.eu/en/documents/assessment-report/comirnaty-epar-public-assessment-report_en.pdf

[2] L.R.Baden et al., Efficacy and Safety of the mRNA-1273 SARS-CoV-2 Vaccine (30.December 2020) , at NEJM.org.DOI: 10.1056/NEJMoa2035389. https://www.nejm.org/doi/full/10.1056/NEJMoa2035389

[3] Inge Schuster, 21.01.2021: COVID-9-Impfstoffe - ein Update

[4] CDC Real-World Study Confirms Protective Benefits of mRNA COVID-19 Vaccines. 29.03.2021  https://www.cdc.gov/media/releases/2021/p0329-COVID-19-Vaccines.html

[5]Michael Weekes , Nick K Jones, Lucy Rivett, et al. Single-dose BNT162b2 vaccine protects against asymptomatic SARS-CoV-2 infection. Authorea. February 24, 2021. DOI: 10.22541/au.161420511.12987747/v1

[6]Matan Levine-Tiefenbrun et al., Decreased SARS-CoV-2 viral load following v accination, medRxiv preprint doi https://doi.org/10.1101/2021.02.06.21251283


 

inge Thu, 01.04.2021 - 19:05

Comments

Rita Bernhardt (not verified)

Tue, 18.05.2021 - 17:59

Wie immer, ein aufschlussreicher Beitrag der Autorin.
Danke!

Vom Wert der biologischen Vielfalt - was uns die Spatzen von den Dächern pfeifen

Vom Wert der biologischen Vielfalt - was uns die Spatzen von den Dächern pfeifen

Do, 25.03.2021 - 13:14 — Christina Beck Christina BeckIcon Biologie

Mao Zedong, Chinas „Großer Vorsitzender“, hatte den Spatz als einen von vier Volksschädlingen ausgemacht. Die Vögel, so verkündete er, seien Schädlinge, die dem Menschen Krankheiten brächten und Nahrung nähmen. Daher gehörten sie vernichtet. Millionen Menschen beteiligten sich an dieser landesweiten Jagd. Drei Tage lang scheuchten die Menschen in China mit Geschrei, Trommeln und bunten Fahnen die Spatzen in ihrem Land auf und ließen sie nicht zur Ruhe kommen, sodass sie tot oder erschöpft vom Himmel fielen. Zwei Milliarden Vögel, nicht nur Spatzen, fielen der Kampagne 1958 zum Opfer – von kleinen Meisen und Finkenvögeln bis hin zu großen Reihern, Kranichen, Greifvögeln. Die Auswirkungen auf das ökologische Gleichgewicht waren fatal: Der nahezu flächendeckenden Ausrottung der Vögel folgte im ersten „spatzenlosen“ Sommer eine Heuschreckenplage mit verheerenden Ernteausfällen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, spannt einen weiten Bogen vom Vogelsterben und dem Verlust der für uns Menschen lebensnotwendigen Artenvielfalt bis hin zu Konzepten einer Renaturierung.*

Heute steht der Spatz in China auf der Liste der bedrohten Arten. Für „Wilderei bedrohter Vögel“ kann man jetzt sogar ins Gefängnis gehen. „Die „große Spatzen-Kampagne“ wirkt in China bis heute nach“, erzählt Peter Berthold, emeritierter Direktor am Max-Planck-Institut für Verhaltensbiologie. „Bei meinen Besuchen in China in den 1990er Jahren haben wir z. B. in Kunming in einer ganzen Woche gerade einmal zwei Feldsperlinge, zwei Haustauben und eine Bachstelze beobachten können, an manchen Tagen keinen einzigen Vogel.“ Um die Artenvielfalt der Vögel wieder zu erhöhen, werden in China immer noch Wiederansiedlungsprojekte mit Sperlingen, Trauerschnäppern und weiteren Arten durchgeführt.

Aber auch bei uns in Deutschland sieht es nicht gerade rosig aus für den Spatz, oder genauer den Haussperling (Passer domesticus). Und dabei begleiten uns die Vögel als sogenannte Kulturfolger schon seit über 10.000 Jahren. Sie haben sich dem Menschen angeschlossen, als dieser sesshaft wurde und die ersten Anfänge des Ackerbaus entwickelte. Seine Vorliebe für Getreidekörner hat ihm in der Vergangenheit den Ruf eines Schädlings eingebracht. Aber Spatzen jagen auch Insekten, insbesondere wenn sie ihre Jungen aufziehen. Im Zuge der Besiedlung anderer Kontinente durch die Europäer wurde der Spatz nahezu auf der ganzen Welt heimisch. Sein weltweiter Bestand wird auf etwa 500 Millionen Individuen geschätzt. Man sollte also meinen, so schnell kommt der Spatz nicht in Bedrängnis.

Am Bodensee beobachten Wissenschaftlerinnen und Wissenschaftler des Max-Planck-Instituts für Verhaltensbiologie und die ehrenamtlichen Mitarbeitenden der Ornithologischen Arbeitsgruppe seit 1980 die Bestandsentwicklungen der dort brütenden Vogelarten. Die Studie ist eine der wenigen in Deutschland, die die Brutvogelbestände über einen so langen Zeitraum mit derselben Methode dokumentiert. Bei der Datenerhebung von 2010 bis 2012 wurden sämtliche Vögel auf einer Fläche von rund 1.100 Quadratkilometern rund um den Bodensee gezählt. Die nächste Zählung soll von 2020 bis 2022 stattfinden.

Solche Langzeitstudien liefern einen wertvollen Datenschatz. Denn anders als bei der „großen Spatzenkampagne“ in China sind Veränderungen in einer Population oft schleichend und es fällt viel zu spät auf, wie dramatisch die Entwicklung bereits ist: Lebten am Bodensee 1980 noch rund 465.000 Brutpaare, waren es 2012 nur noch 345.000 – das heißt, jeder vierte Brutvogel ist verschwunden.

Und auch unser Hausspatz ist vom Rückgang betroffen. In Deutschland steht er schon seit einigen Jahren auf der Vorwarnliste der Roten Liste. Darauf kommen Arten, deren Bestand in den kommenden zehn Jahren gefährdet sein könnte. Zum Problem wird für den Spatz heute gerade seine Nähe zum Menschen und dessen Siedlungen: die dichte Bebauung, der Mangel an insektenfreundlichen Bäumen und Sträuchern, fehlende Fassadenbegrünung – Stadt und Dorf verändern sich so stark, dass ihm Nahrungs- und Nistmöglichkeiten genommen werden. Am Bodensee ist sein Bestand um fast die Hälfte eingebrochen (Abbildung 1).

Abbildung 1: Vogelbestände unter Druck. Der Studie am Bodensee zufolge gehen die Vögel vor allem in Landschaften zurück, die vom Menschen intensiv genutzt werden. Dazu gehört besonders die Agrarlandschaft: Das dort einst häufige Rebhuhn ist inzwischen ausgestorben. Das frühe und häufige Abmähen großer Flächen, der Anbau von Monokulturen, der frühzeitige Aufwuchs des Wintergetreides, Entwässerungsmaßnahmen und das Fehlen ungenutzter Brachflächen zerstören den Lebensraum. Hinzu kommt, dass die heutigen effizienten Erntemethoden kaum mehr Sämereien für körnerfressende Arten übrig lassen. Das wiederum trifft auch den Spatz. (Bild: © dpa für MPG )

Vogelsterben am Bodensee

Viele weitere Vogelarten kommen nur noch in geringen, oft nicht mehr überlebensfähigen Populationen und an immer weniger Orten rund um den Bodensee vor. Gerade die auf Wiesen und Feldern lebenden Arten verzeichnen zum Teil drastische Bestandseinbrüche. Das einst in der Agrarlandschaft häufige Rebhuhn ist rund um den Bodensee inzwischen ausgestorben (Abbildung 1). Sein Lebensraum wurde immer knapper, Insekten für die Aufzucht der Jungen fehlten. 75 Prozent der Vogelarten, die sich von Insekten ernähren, sind in ihrem Bestand rückläufig. „Dies bestätigt, was wir schon länger vermutet haben: das durch den Menschen verursachte Insektensterben wirkt sich massiv auf unsere Vögel aus“, sagt Peter Berthold.

Der Artenschwund tritt nicht nur bei uns in Deutschland auf, er ist ein weltweites Phänomen. Der Living Planet Index 2020 dokumentiert seit 1970 einen durchschnittlichen Rückgang um 68 Prozent der weltweit erfassten Bestände von Säugetieren, Vögeln, Amphibien, Fischen und Reptilien (und dabei sind die noch nicht beschriebenen oder wenig untersuchten Arten gar nicht berücksichtigt). Dieser Rückgang verläuft laut Weltbiodiversitätsrat (IPBES) bisher ungebremst. Nun ist der Verlust von Arten per se kein neues Phänomen. Im Verlauf der Erdgeschichte tauchten ständig neue Arten oder Gruppen verwandter Arten auf, während andere ausstarben. Die Evolution neuer Arten ist die Grundlage für biologische Vielfalt. Neu beim derzeitigen Artensterben ist aber, dass eine einzelne biologische Art unmittelbar oder mittelbar Ursache dieses dramatischen Rückgangs ist: der Mensch.

Sorge um die Natur

Biotopzerstörung oder -veränderung, übermäßige Bejagung und Befischung, chemische und physikalische Umweltbelastungen sowie der Eintrag invasiver Arten durch die wachsende globale Mobilität – all das trägt zum Rückgang der Artenvielfalt bei. In den 1980er Jahren hat die Wissenschaftsgemeinde aus Sorge um den Erhalt der Natur und das menschliche Überleben zunehmend intensiver darüber debattiert. Auf einer Konferenz der National Academy of Sciences (NAS) und der Smithsonian Institution 1986 in Washington wurde der Begriff Biodiversität erstmals öffentlichkeitswirksam eingeführt und in der Folge nicht zuletzt durch die Umweltkonferenz von Rio de Janeiro im Juni 1992 und die dort beschlossene „Konvention über die Biologische Vielfalt“ (CBD) zum Allgemeingut einer globalen Umweltpolitik. Biodiversität war daher nie ein rein naturwissenschaftlicher, sondern immer auch ein politischer Begriff.

In der Konvention heißt es: „biologische Vielfalt bedeutet [...] die Variabilität unter lebenden Organismen jeglicher Herkunft, darunter unter anderem Land-, Meeres- und sonstige aquatische Ökosysteme und die ökologischen Komplexe, zu denen sie gehören. Dies umfasst die Vielfalt innerhalb der Arten und zwischen den Arten und die Vielfalt der Ökosysteme.

Diese Definition umfasst so viel, dass wenig in der lebendigen Welt nicht unter sie fällt. Tatsächlich ist Vielfalt eine inhärente Eigenschaft des Lebens. Dabei sind Gene die kleinsten grundlegenden Einheiten, auf denen biologische Vielfalt fußt – sie sind der Motor der Evolution. Denn alle Arten benötigen eine gewisse, über eine Population verteilte Vielfalt an Genen, sollen sie ihre Fähigkeit beibehalten, sich an sich verändernde Umweltbedingungen anzupassen. Ein Gen, das zwar selten, aber dennoch vorhanden ist, könnte genau das richtige sein, wenn sich die Umgebung für eine Population maßgeblich verändert – es ist eine „Überlebensversicherung“.

Gene als Lebensversicherung

Ein hervorragendes Beispiel dafür liefert der Vogelzug: Dabei handelt es sich um ein polygenes, also durch eine Vielzahl von Genen gesteuertes Verhalten. So ist der Hausspatz in Europa fast ausschließlich Standvogel, in geringem Ausmaß auch Kurzstreckenzieher. Lediglich im Alpenraum verlässt er nicht dauernd von Menschen bewohnte Siedlungen im Spätherbst oder Winter. Bei einer Unterart des Hausspatz, Passer domesticus bactrianus, handelt es sich hingegen um einen Zugvogel, der bevorzugt in Zentralasien (Kasachstan, Afghanistan usw.) brütet und bei Zugdistanzen bis zu 2000 Kilometern in Pakistan und Indien überwintert. Die im Himalaya beheimatete Unterart Passer domesticus parkini wiederum ist Teilzieher. Von den rund 400 Brutvogelarten Europas sind derzeit 60 Prozent Teilzieher, d.h. nur ein Teil der Population verlässt im Winterhalbjahr das angestammte Brutgebiet und zieht gen Süden, während der Rest vor Ort bleibt. Teilzug ist eine ausgesprochen erfolgreiche, weil anpassungsfähige Lebensform. Beim Übergang von reinen Zugvögeln bis hin zu Standvögeln nimmt sie eine Schlüsselstellung ein. Unter extremen Bedingungen können Teilzieher, das haben Experimente von Wissenschaftlern des Max-Planck-Instituts für Verhaltensbiologie gezeigt, innerhalb weniger Generationen zu phänotypisch fast reinen Zug- oder Standvögeln selektiert werden (Abbildung 2). Der Temperaturanstieg in unseren Breiten infolge des Klimawandels wird – so die Prognose der Forscher – dazu führen, dass Vogelarten, die heute noch Teilzieher sind, bei uns zu Standvögeln werden.

Abbildung 2: Mikroevolution. In den 1990er Jahren konnten Peter Berthold (oben) und sein Team durch Untersuchungen an Mönchsgrasmücken nachweisen, dass die verschiedenen Formen des Vogelzugs tatsächlich unmittelbar genetisch gesteuert werden. Aus einer Population von 267 handaufgezogenen Vögeln konnten sie innerhalb von nur drei bis sechs Generationen (F3- F6) durch experimentelle Selektion – die der gerichteten Mikroevolution in der freien Natur entspricht – nahezu reine Zug- bzw. Standvögel züchten. Die Ausgangspopulation bestand zu 75 Prozent aus Zugvögeln und zu 25 Prozent aus Standvögeln. Von den rund 400 Brutvogelarten Europas sind derzeit 60 Prozent Teilzieher. Die Forscher vermuten jedoch, dass auch die restlichen 40 Prozent, die derzeit sehr hohe Zugvogelanteile besitzen, zumindest genotypische Teilzieher sind. Das heißt, die Vögel besitzen in ihrem Genom nach wie vor auch jene Gene, die Nichtziehen bewirken können.(Bild: © P. Berthold, MPI für Verhaltensbiologie/ CC BY-NC-SA 4.0)

Wer braucht biologische Vielfalt?

Die biologische Vielfalt ist Basis für vielfältige Leistungen der Natur, die als Ökosystemleistungen bezeichnet werden. Intakte Ökosysteme stellen dem Menschen lebenswichtige Güter und Leistungen zur Verfügung: Erdöl, Erdgas und Kohle liefern Energie. Holz, Leder, Leinen und Papier sind wichtige Werkstoffe. Wir ernähren uns von Tieren und Pflanzen, die angebaut, gehalten oder in freier Natur gesammelt oder gejagt werden. Unser kultureller Wohlstand (z. B. Erholung, Freizeitgestaltung) wie auch technische Entwicklungen sind in der einen oder anderen Art von Naturprodukten abhängig. Und diese hängen von natürlichen Prozessen ab, die ihrerseits von biologischer Vielfalt beeinflusst werden. Der Verlust an biologischer Vielfalt trifft also auch uns.

Könnte Technologie natürliche Vielfalt ersetzen?

Könnten wir beispielsweise aus einzelnen DNA-Abschnitten das Erbgut ausgestorbener Arten rekonstruieren und diese wieder zum Leben erwecken, um Artenvielfalt wiederherzustellen?

Die Fortschritte in der genomischen Biotechnologie lassen erstmals solche Gedankenspiele zu, seit langem ausgestorbene Arten – oder zumindest „Ersatz“-Arten mit Merkmalen und ökologischen Funktionen ähnlich wie die der ausgestorbenen Originale – wieder zum Leben zu erwecken. Aber die Hürden sind enorm [1]. Darüber hinaus profitiert der Mensch von mehreren tausend Heilpflanzen, die schon seit Jahrtausenden Wirkstoffe für Arzneien und Medikamente liefern. Können wir diese Vielzahl an Naturstoffen biotechnologisch herstellen? Acetylsalicylsäure, ein schmerzstillender Wirkstoff aus der Weidenrinde, wird heute tatsächlich technisch hergestellt. Bei anderen pharmazeutischen Wirkstoffen bleibt das aber schwierig. Und was noch viel entscheidender ist: Innerhalb der biologischen Vielfalt warten möglicherweise noch zahlreiche medizinische oder technologische Vorbilder für etwaige Heilmittel auf ihre Entdeckung, die in Jahrmillionen Evolution entwickelt wurden.

Es kommt also nicht von ungefähr, dass im Rahmen der „Konvention über Biologische Vielfalt“ auch Fragen der globalen Gerechtigkeit diskutiert werden: Wie kann der „Mehrwert“, der aus dem Schutz und der Nutzung von biologischer Vielfalt entsteht, fair verteilt werden, zwischen armen, aber biodiversitätsreichen und den wohlhabenden, aber biodiversitätsarmen Staaten?

Ein Beispiel einer solchen Nutzung sind die tropischen Regenwälder, die als Lieferant von aus Pflanzen gewonnenen Medikamenten oder als Kohlenstoffsenke zur CO2-Reduktion infrage kommen. Überhaupt zählt der tropische Regenwald zu den so genannten Biodiversitäts-Hotspots.

Begünstigt durch optimale Klimabedingungen und langes Bestehen bei gleichzeitig großer struktureller Vielfalt, hat hier die Evolution die größten Artenzahlen hervorgebracht. So findet sich in der Hotspot-Region Peru bei Säugetieren, Vögeln und höheren Pflanzen verglichen mit Deutschland eine fünf- bis siebenfache Artenzahl (Zahlen nach IUCN 2006). Die US-amerikanische Organisation Conservation International hat 34 Biodiversitäts-Hospots auf Kontinenten, Inseln und im Meer definiert, wo besonders viele endemische, also nur dort heimische Arten vorkommen und gleichzeitig eine besondere Bedrohungssituation vorliegt.

Zu diesen Hotspots gehört auch der seit Jahrtausenden dicht besiedelte und bewirtschaftete Mittelmeerraum, wo rund 11.500 endemische Pflanzenarten wachsen. Europa hat sich im Rahmen der Biodiversitätskonvention bis zum Jahr 2030 vorgenommen, jeweils 30 Prozent der Land- und Meeresgebiete unter Naturschutz zu stellen. Biolandwirtschaft und strukturreiche landwirtschaftliche Flächen mit ungenutzten Bereichen sollen Ökosysteme stärken. Der Verlust von Insekten soll gestoppt, Pestizide um 50 Prozent reduziert werden. Fließgewässer in der EU sollen auf mindestens 25.000 Kilometern wieder frei fließen und drei Milliarden Bäume angepflanzt werden. Eine Simulationsstudie zeigt, dass der Verlust an Biodiversität weltweit nur mit erheblichen Anstrengungen abzuschwächen ist. Dabei müssen Naturschutzmaßnahmen mit nachhaltiger Landnutzung und nachhaltigem Konsum kombiniert werden, um den rückläufigen Trend bis zum Jahr 2050 umzukehren (Abbildung 3).

Abbildung 3: Artenschutz. Naturschutzmaßnahmen (orange Kurve) wie die Flächen von Schutzgebieten zu vergrößern, reichen nicht aus, um den negativen Trend der terrestrischen Biodiversität (graue Kurve) zu stoppen. Hinzukommen müssen eine nachhaltige Land-, Forst- und Fischereiwirtschaft, nachhaltiger Handel und eine Ernährungsweise, die z. B. weniger Nahrung verschwendet und einen höheren pflanzlichen Anteil besitzt (grüne Kurve). (Bild: © Adam Islaam, IIASA).

Kehren wir noch einmal zurück zum Bodensee: Schon 1988 hat Peter Berthold einen neuen Weg zur Rettung der Artenvielfalt vorgeschlagen: Die Renaturierung von für die Landwirtschaft wenig ergiebigen Flächen auf den Gemarkungen aller rund 11.000 politischen Gemeinden Deutschlands. Neben den menschlichen Siedlungen könnte so Lebensraum für Tiere und Pflanzen auf rund 15 Prozent der Gemeindeflächen geschaffen werden. Auf diese Weise würde ein deutschlandweiter Biotopverbund entstehen. Die Abstände der einzelnen Lebensräume würden rund zehn Kilometer betragen – eine Distanz, die die meisten Tiere und Pflanzen überbrücken können, um vom einen zum anderen zu gelangen. Dadurch könnten sich stabile Populationen mit hoher genetischer Vielfalt bilden. Ein solcher Biotopverbund für Deutschland würde etwa 3000 Renaturierungsmaßnahmen erforderlich machen.

Jeder Gemeinde ihr Biotop

Im nördlichen Bodenseeraum wurden seit 2004 mit Unterstützung der Heinz Sielmann Stiftung über 131 Biotope an 44 Standorten neu geschaffen oder bestehende aufgewertet. Eine Vielzahl neu angelegter Weiher, Tümpel, Feuchtgebiete sowie aufgewerteter Viehweiden, Streuobstwiesen und Trockenrasen zeigt eine geradezu verblüffende Wiederbelebung der Artenvielfalt. Der Großversuch Biotopverbund Bodensee hat besonders eines ganz klar gemacht: Noch lohnt sich der Einsatz für den Erhalt von Biodiversität – viele der verbliebenen Restbestände wildlebender Pflanzen und Tiere sind noch regenerationsfähig. Aber: „Eile und enormer Einsatz sind dennoch geboten – denn mit jedem Tag verringert unsere derzeitige Raubbau-Gesellschaft die Regenerationsfähigkeit der Artengemeinschaft weiter“, sagt Peter Berthold.

Abbildung 4. Hilfe für den Spatz (Bild: © Robert Groß / animal.press; HN //)

Naturschutz ist darüber hinaus auch eine Investition in das menschliche Wohlbefinden, wie eine Untersuchung von Forschern u.a. des Senckenberg Museums auf Basis von Daten des 2012 European Quality of Life Survey bei mehr als 26.000 Erwachsenen aus 26 europäischen Ländern zeigt. Demnach steigern zehn Prozent mehr Vogelarten im Umfeld die Lebenszufriedenheit der Befragten mindestens genauso stark wie ein vergleichbarer Einkommenszuwachs. Dem Spatz können wir übrigens recht einfach helfen: durch die Anpflanzung heimischer Stauden und Sträucher in den Gärten, eine Ganzjahresfütterung sowie den Erhalt von Nischen und Mauerspalten als Nistplätze (Abbildung 4).


[1] Christina Beck, 23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?


* Der Artikel ist erstmals unter dem Titel: "Vom Wert der biologischen Vielfalt –oder was uns die Spatzen von den Dächern pfeifen" in BIOMAX 14, Neuauflage Frühjahr 2021 erschienen https://www.max-wissen.de/max-hefte/biomax-14-biodiversitaet/ und wurde praktisch unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.

 


Weiterführende Links

Max-Planck-Geselllschaft: Themenseite Biodiversität: https://www.mpg.de/biodiversitaet.html

Artenschutz - Biotopverbund Bodensee: https://www.mpg.de/1163524/

EU-Biodiversitätsstrategie für 2030: https://ec.europa.eu/info/strategy/priorities-2019-2024/european-green-deal/actions-being-taken-eu/eu-biodiversity-strategy-2030_de

Living Planet Report 2020: https://www.wwf.de/living-planet-report

IIASA, 08.11.2018: Der rasche Niedergang der Natur ist nicht naturbedingt - Der Living Planet-Report 2018 (WWF) zeigt alarmierende Folgen menschlichen Raubbaus.

IIASA, 10.09.2020: Verlust an biologischer Vielfalt - den Negativtrend umkehren


 

inge Wed, 24.03.2021 - 23:45

Faszinierende Aussichten: Therapie von COVID-19 und Influenza mittels der CRISPR/Cas13a- Genschere

Faszinierende Aussichten: Therapie von COVID-19 und Influenza mittels der CRISPR/Cas13a- Genschere

Do, 18.03.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Die CRISPR-Gen-Editing-Technologie bietet enorme Möglichkeiten, um nicht vererbbare Veränderungen der DNA zu generieren, mit denen eine Vielzahl verheerender Erkrankungen - von HIV bis hin zu Muskeldystrophie - behandelt oder sogar geheilt werden kann. Kürzlich wurde nun in Tierexperimenten eine Studie durchgeführt, die auf ein andere Art der CRISPR-Genschere abzielt, nämlich auf eine, die virale RNA anstatt menschlicher DNA zerschneidet. Eine derartige Genschere könnte als ein zu inhalierendes antivirales Therapeutikum wirken, das vorprogrammiert werden kann, um potenziell fast jeden Grippestamm und viele andere Viren der Atemwege, einschließlich SARS-CoV-2, das Coronavirus, das COVID-19 verursacht, aufzuspüren und deren Auswirkungen zu vereiteln. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19-Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über neue Ergebnisse, die eine Revolution in der Therapie von Atemwegsinfektionen einläuten könnten.*

Die CRISPR/Cas13a-Genschere…

Andere CRISPR-Geneditierungssysteme basieren auf einer sequenzspezifischen Leit-RNA (Guide-RNA), mit deren Hilfe ein scherenartiges bakterielles Enzym (Cas9) genau an die richtige Stelle im Genom gelenkt werden kann, um dort krankheitsverursachende Mutationen auszuschneiden, zu ersetzen oder zu reparieren. Das neue antivirale CRISPR-System basiert ebenfalls auf einer solchen Leit-RNA. Allerdings wird hier nun ein anderes bakterielles Enzym namens Cas13a an die richtige Stelle im viralen Genom geleitet, um sodann an die virale RNA zu binden, diese zu spalten und damit die Vermehrung von Viren in Lungenzellen zu verhindern.

Die Ergebnisse solcher Versuche wurden kürzlich in der Zeitschrift Nature Biotechnology [1] veröffentlicht und stammen aus dem Labor von Philip Santangelo, Georgia Institute of Technology und der Emory University, Atlanta. Untersuchungen anderer Gruppen hatten schon früher das Potenzial von Cas13 aufgezeigt die RNA von Influenzaviren in einer Laborschale abzubauen [2,3]. In der aktuellen Arbeit haben Santangelo und Kollegen nun Mäuse und Hamster eingesetzt, um zu prüfen, ob dieses Enzym Cas13 tatsächlich im Lungengewebe eines lebenden Tieres wirken kann.

…eingeschleust in die Lunge von Versuchstieren…

Interessant ist, wie das Team von Santangelo dabei vorgegangen ist. Anstatt das Cas13a-Protein selbst in die Lunge zu transferieren, wurde eine Messenger-RNA (mRNA) mit der Bauanleitung zur Herstellung des antiviralen Cas13a-Proteins geliefert. Es handelt sich dabei um die gleiche Idee, die auch bei den auf mRNA basierenden COVID-19-Impfstoffen von Pfizer und Moderna realisiert ist: diese steuern die Muskelzellen vorübergehend in der Weise, dass diese virale Spike-Proteine produzieren, welche dann eine Immunantwort gegen diese Proteine auslösen. In aktuellen Fall übersetzen die Lungenzellen des Wirts die Cas13a-mRNA und produzieren das Cas13-Protein. Mit Hilfe der an dieselben Zellen abgegebenen Guide-mRNA baut Cas13a die virale RNA ab und stoppt die Infektion.

Da die mRNA nicht in den Zellkern gelangt, gibt es keine Interaktion mit der DNA und damit auch keinerlei mögliche Bedenken hinsichtlich unerwünschter genetischer Veränderungen.

Die Forscher haben Guide-RNAs entworfen, die für einen gemeinsamen, hochkonservierten Teil der Influenzaviren spezifisch waren, welche in der Replikation ihres Genoms und der Infektion anderer Zellen eine Rolle spielen. Sie haben auch ein weiteres Set von Guide RNAs für essentielle Teile von SARS-CoV-2 entworfen.

…wirkt sowohl gegen Influenza als auch gegen SARS-CoV-2-Infektion

Sodann haben die Forscher die Cas13a-mRNA mittels eines adaptierten Inhalators direkt in die Lunge von Tieren transferiert (dabei handelte es sich um ebensolche Inhalatoren, wie sie auch zur Abgabe von Medikamenten an die Lunge von Menschen verwendet werden). Waren die Mäuse mit Influenza infiziert, so baute Cas13a die Influenza-RNA in der Lunge ab und die Tiere erholten sich ohne erkennbare Nebenwirkungen. Die gleiche Strategie bei SARS-CoV-2-infizierten Hamstern limitierte die Fähigkeit des Virus, sich in Zellen zu vermehren, während sich die COVID-19-ähnlichen Symptome der Tiere verbesserten.

Abbildung 1. CRISPR/Cas13a, eine antivirale Genschere mit dem Potential diverse RNA-Viren (u.a. Influenza- und Coronaviren) im Lungengewebe zu zerstören.

Diese Ergebnisse zeigen erstmals, dass mRNA verwendet werden kann, um das Cas13a-Protein in lebendem Lungengewebe zu exprimieren und nicht nur in vitro in einer Zellkultur. Es wird auch erstmals demonstriert, dass das bakterielle Cas13a-Protein die Vermehrung von SARS-CoV-2 verlangsamt oder stoppt. Letzteres lässt hoffen, dass dieses CRISPR-System schnell angepasst werden kann, um jegliche Art neuer zukünftiger Coronaviren zu bekämpfen, welche für die Menschen gefährlich werden können. Abbildung 1.

Fazit

Nach Ansicht der Forscher hat die CRISPR/Cas13a Strategie das Potenzial, gegen die überwiegende Mehrheit (99 %) der im letzten Jahrhundert weltweit verbreiteten Grippestämme zu wirken. Gleichermaßen sollte die Strategie auch gegen die neuen und ansteckenden Varianten von SARS-CoV-2, die derzeit weltweit im Umlauf sind, wirksam sein. Zwar sind weitere Studien erforderlich, um die Sicherheit eines solchen antiviralen Ansatzes aufzuklären, bevor er noch am Menschen ausprobiert wird. Es ist jedoch klar, dass - wie in diesem Fall - Fortschritte in der Grundlagenforschung ein enormes Potenzial zur Bekämpfung aktueller und auch zukünftiger lebensbedrohender Viren der Atemwege erbringen können.


References:

[1] Blanchard EL, et al., Treatment of influenza and SARS-CoV-2 infections via mRNA-encoded Cas13a in rodents. Nat Biotechnol. 2021 Feb 3. [Published online ahead of print.]

[2] Freije CA et al., Programmable inhibition and detection of RNA viruses using Cas13Mol Cell. 2019 Dec 5;76(5):826-837.e11.

[3] Abbott TR,  et al., Development of CRISPR as an antiviral strategy to combat SARS-CoV-2 and influenza Cell. 2020 May 14;181(4):865-876.e12.


<p>*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 16. März 2021) im NIH Director’s Blog unter dem Titel: "CRISPR-Based Anti-Viral Therapy Could One Day Foil the Flu—and COVID-19"  https://directorsblog.nih.gov/2021/03/16/crispr-based-anti-viral-therapy-could-one-day-foil-the-flu-and-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).</p>


Weiterführende Links

NIH: COVID-19 Research

National Institute of Allergy and Infectious Diseases/NIH: Influenza:

Santangelo Lab Georgia Institute of Technology, Atlanta

CRISPR/Cas im ScienceBlog

Redaktion, 08.10.2020: Genom Editierung mittels CRISPR-Cas9 Technologie - Nobelpreis für Chemie 2020 an Emmanuelle Charpentier und Jennifer Doudna

Christina Beck, 23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?

Francis S. Collins, 2.2.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie


 

inge Wed, 17.03.2021 - 19:11

Comments

Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Do, 11.03.2021 — Roland Wengenmayr

Icon Chemie

 

Roland Wengenmayr Cellulose, eines der häufigsten organischen Polymere auf unserer Erde, liegt in Pflanzenfasern in Form von Nanokristallen vor. Isoliert besitzen diese Nanokristalle faszinierende Eigenschaften, die sie für diverseste Anwendungen in Betracht kommen lassen - von Hydrogelen als Basis für biologisch abbaubare Kosmetika,Verdickungsmittel und Verpackungsmaterial von Lebensmitteln bis hin zu Leichtbauteilen. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr wirft einen Blick in ein Max-Planck-Institut, wo an Cellulose als Ausgangsmaterial für eine nachhaltige Nanotechnologie geforscht wird.*

Die Nanowelt hat ganz eigene, manchmal magisch anmutende Gesetze. Der Name kommt vom altgriechischen Wort nános für Zwerg. Nanoobjekte bemessen sich in Milliardstel Metern, Nanometer genannt. Die kleinsten von ihnen sind grob zehnmal größer als Atome. Die größten messen bis zu hundert Nanometer. Auf der Rangfolge der Größenskalen liegt die Nanowelt also oberhalb der Atome, aber unterhalb der Mikrowelt. Dort ist der Mikrometer, als ein Millionstel Meter, das passende Maß (Abbildung 1).

Abbildung 1. Die Nanowelt reicht ungefähr von einem bis 100 Nanometer. Die gezeigten Beispiele sind nach der Größe ihres Querschnitts einsortiert. © R. Wengenmayr; MPG

Nanopartikel in der Natur

In der Natur gibt es viele Nanopartikel, etwa kleine Viren oder Antikörper im Blut. Zudem setzen wir Menschen immer mehr künstliche Nanopartikel frei, zum Beispiel in Imprägniersprays oder Kosmetika. Silbernanopartikel werden in medizinischen Wundauflagen benutzt, weil sie Keime abtöten.

In der Nanowelt regiert vor allem ein Gesetz, das aus der Geometrie stammt: Je kleiner zum Beispiel eine Kugel ist, desto größer ist ihre Oberfläche im Verhältnis zum Volumen. Deshalb besitzen Nanopartikel eine verhältnismäßig riesige Oberfläche. Diese bietet der Chemie eine große Spielwiese für Reaktionen, die auf verschiedenen Wechselwirkungen basieren. Zum Beispiel können Nanopartikel aus Eisen so heftig mit Luftsauerstoff oxidieren, dass sie von selbst in Flammen aufgehen. Auch als Katalysatoren, die auf ihrer Oberfläche Reaktionen beschleunigen, eignen sich Nanopartikel besonders gut.

Dank ihrer Eigenschaften kann die Nanowelt eine Vielfalt neuer Anwendungen hervorbringen. Nanopartikel können wegen ihrer Reaktionsfreudigkeit aber auch zum gesundheitlichen Risiko werden. Diese Sorge wächst mit der Menge an künstlich freigesetzten Nanopartikeln. Genau hier setzt das Forschungsgebiet von Svitlana Filonenko an. Die Chemikerin leitet eine Gruppe am Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam, in der Abteilung des Direktors Markus Antonietti. Ihr Forschungsgebiet ist Nano-cellulose, die umweltverträglich und vielfältig einsetzbar ist.

Nachhaltige Cellulose für grüne Chemie

„Cellulose ist eines der häufigsten organischen Polymere auf unserem Planeten“, sagt Filonenko: „Und dieser Rohstoff wächst jedes Jahr nach!“ Schon ist sie bei der „grünen Chemie“ gelandet. Grüne Chemie soll umweltfreundliche Verfahren einsetzen, nachhaltige Rohstoffe verwenden und biologisch abbaubare Produkte hervorbringen. Dafür ist Cellulose ideal.

Cellulose begegnet uns im Alltag in vielfältiger Form, als Holz, Karton, Papier, Filter oder Kleiderstoffe aus Baumwolle und Viskose. Und wir essen sie, als Gemüse, Obst, Salat, aber auch in Form von lebensmittelchemischen Zusatzstoffen, etwa Verdickungsmittel.

Produziert wird Cellulose vor allem von Pflanzenzellen, aber auch von einigen Bakterien und sogar Tieren – die Manteltiere, zu denen die Seescheiden gehören.

Wie viele Naturmaterialien sind Pflanzenfasern komplex aufgebaut, die eigentliche Cellulose aber überraschend einfach. Ihr Grundbaustein ist das Traubenzucker-Molekül, die Glucose. Pflanzen produzieren es in der Photosynthese mit Hilfe von Sonnenlicht aus Wasser und CO2 (Kohlenstoffdioxid). Die Pflanzenzelle verknüpft die Glucose-Moleküle unter Einsatz eines Enzyms zu einer Polymerkette (Abbildung 2).

Abbildung 2- Cellulose ist wie eine Perlenkette aus einzelnen Bausteinen (Glucosemolekülen) aufgebaut, die sich immer wiederholen. Zwei Glucosemoleküle, die gegeneinander verdreht aneinandergeknüpft sind, bilden die kleinste Einheit des Polymers. Die grün gefärbten OH-Gruppen lassen sich chemisch modifizieren. Bild:© E. Jaekel, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-ND 4.0

Die Zelle produziert viele solcher Polymerketten gleichzeitig“, erklärt Filonenko. Daraus entsteht dann das eigentliche Forschungsobjekt der Chemikerin. Die Polymerketten werden schön ordentlich zu einem Kristall zusammengefügt. Kristalle zeichnen sich durch eine nahezu perfekte, dreidimensionale Anordnung ihrer Grundbausteine aus. Eigentlich sind Kristalle typisch für unbelebte Materie, doch auch lebende Organismen können welche herstellen. Allerdings sind Kristalle hart und oft spröde.

Wie kann daraus eine biegsame, zähe Pflanzenfaser entstehen?

Das verdankt sie einem Zusammenspiel mit weiteren Bestandteilen. Nachdem die Zelle den Cellulose-Kristall bis zu einer bestimmten Länge gebaut hat, fängt sie an, Fehler zu machen. „Diese Abschnitte sind amorph“, erklärt Filonenko. Amorph ist das Gegenteil kristalliner Ordnung. Wie in einer Perlenkette wechseln sich kristalline mit amorphen Abschnitten ab. In Letzteren können sich die Polymere gegeneinander verschieben, was die Fasern biegsam macht. Sie sind für Filonenkos Forschung auch wichtig, weil sich hier die Cellulose-Kristalle chemisch heraustrennen lassen.

Damit ist die Pflanzenfaser noch nicht fertig. Jetzt kommt ein anderes Biopolymer dazu: Lignin macht die Faser wasserfest. Reine Cellulose ist nämlich stark wasseranziehend, also hydrophil. Lignin hingegen ist wasserabweisend, hydrophob, und umhüllt das Cellulosepolymer. Außerdem sorgt das harte Lignin für die nötige Druckfestigkeit der Pflanzenzellwand. Allerdings lassen sich die wasserliebende Cellulose und das fettliebende Lignin nur schwer chemisch „verheiraten“. Dies übernimmt das dritte Element der Pflanzenzellwand, die Hemicellulose. Sie lagert sich um die Cellulosefibrille herum an und ermöglicht das Einbetten der Cellulosefaser in Lignin. Aber immer noch ist die Pflanzenfaser nicht fertig. Die eingebetteten Mikrofasern werden von der Pflanzenzelle nochmals zu einer Makrofaser gebündelt. Und mehrere Makrofasern bilden eine fertige Pflanzenfaser (Abbildung 3).

Abbildung 3. Vom Baum zum Cellulose-Nanokristall. Linkes Bild: Pflanzenfaser (rechts oben), Cellulosefaser und deren Aufbau bis zum Cellulose-Nanokristall. Rechtes Bild Die rot eingekreiste Struktur ist ein ungefähr 200 nm langer Cellulose-Nanokristall. (Links: © R. Wengenmayr / CC BY-NC-SA 4.0; Rechts: C2: © MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-ND 4.0 )

Nanowelt trifft auf Mikrowelt

„Die Cellulose-Kristalle sind ungefähr fünf bis zwanzig Nanometer dick und können bis zu 300 Nanometer lang sein“, erklärt Svitlana Filonenko. Die genauen Maße hängen vom erzeugenden Organismus ab. Damit gehören diese Kristallnadeln im Querschnitt zur Nanowelt, in ihrer Länge dagegen schon zur Mikrowelt.

Die langgestreckte Form der Cellulose-Nanokristalle sorgt für faszinierende Eigenschaften. Mechanisch sind sie enorm stabil, vergleichbar mit Stahl, haben Experimente gezeigt. Auf ihrer Oberfläche konzentriert sich elektrische Ladung. Damit ziehen sie Wassermoleküle stark an, denn diese Moleküle haben bei den Wasserstoffatomen einen positiven, beim Sauerstoff einen negativen elektrischen Pol. Das macht die Cellulose enorm hydrophil.

„Schon ein Anteil von nur zwei Prozent Nanocellulose in Wasser erzeugt ein sogenanntes Hydrogel“, sagt Filonenko (Abbildung 4). Die langen Kristallnadeln bilden ein sehr lockeres Netzwerk, in dessen Lücken sich viel Wasser ansammelt. Dieser extreme Wasseranteil ist zum Beispiel interessant für biologisch abbaubare Kosmetika, an denen die Chemikerin forscht. „Mehr Feuchtigkeit in einer Creme geht nicht“, sagt sie lachend. Kosmetika benötigen allerdings auch einen Fettanteil. Wasser und Öl sind aber nicht mischbar. Für den Mix müssen normalerweise Emulgatoren sorgen. Das sind Moleküle, die einen wasser- und einen fettliebenden, also lipophilen, Teil haben. Damit können sie Wasser und Öl zu einer Emulsion verbinden.

Abbildung 4. Dieses Hydrogel besteht aus 98 Prozent Wasser und zwei Prozent Cellulose-Nanokristallen. © Dr. Nieves Lopez Salas

Sogenannte Pickering-Emulsionen kommen ohne klassische Emulgatoren aus. Hier sorgen allein feine, feste Partikel für die Verbindung zwischen Wasser und Öl. Mit Cellulose-Nanokristallen funktioniert das sehr gut. Zum Glück befinden sich auf den langen Nanokristallen auch Abschnitte ohne elektrische Ladung, erklärt Filonenko. Hier können die Moleküle von Fetten und Ölen andocken. Die Potsdamer Chemiker versuchen zusätzlich, die Cellulose-Nanokristalle an der Oberfläche chemisch zu optimieren. Das soll für eine stabilere Verbindung zwischen Öl und Wasser sorgen. Mit solchen Pickering-Emulsionen ließen sich umweltfreundliche, biologisch abbaubare Kosmetika herstellen. Das ist ein wichtiges Thema, da heute täglich Kosmetika-Rückstände von Milliarden von Menschen in die Umwelt gelangen.

Biologisch abbaubare Lebensmittelverpackungen

Ein anderes Forschungsgebiet der Potsdamer sind Verdickungsmittel für Lebensmittel. Die Nanocellulose verspricht, besser verträglich als manche heute eingesetzten Lebensmittelzusatzstoffe zu sein.

Doch auch die Papierverpackungen von Lebensmitteln hat Filonenko im Blick: „Ich denke an die jüngsten Skandale um Spuren von Mineralöl in Lebensmitteln.“ Das Problem erwächst hier sogar aus der Nachhaltigkeit, denn die Verpackungen werden aus Altpapier gemacht. Das kommt aus vielen Quellen und kann verschmutzt sein. Um die Lebensmittel zu schützen, werden die Verpackungen daher innen mit einer Kunststoffschicht abgedichtet. Die ist aber nicht biologisch abbaubar. Filonenkos Team will bei dieser Beschichtung den Kunststoff durch Cellulose-Nanokristalle ersetzen. Nach dem Aufbringen einer Flüssigkeit legen sich beim Trocknen die langen Kristallnadeln dicht geordnet aneinander. Die Lücken zwischen ihnen sind zu klein, um noch unerwünschte Stoffe durchzulassen. Diese Schichten sind zudem ein Augenschmaus. „Sie schillern in allen Regenbogenfarben“, sagt die Chemikerin begeistert. Der Grund: Die Kristallnadeln sortieren sich zu in sich verschraubten Helixstrukturen, und diese Mikrostrukturen brechen das Licht in unterschiedlichen Farben, je nachdem, aus welchem Winkel man sie anschaut. Es ist derselbe physikalische Effekt, der Schmetterlingsflügel schillern lässt.

Filonenko ist von Cellulose-Nanokristalle auch begeistert, weil jeder Glucose-Baustein drei funktionelle Gruppen besitzt (grün in Abbildung 2): „An diese drei Zentren kann man verschiedene Moleküle binden, um die Cellulose-Nanokristalle zu modifizieren.“

Trotz dieser chemischen Flexibilität ist die Gewinnung der Nanokristalle bislang eine harte Nuss. Die Cellulosefasern, in denen sie stecken, sind weder in Wasser noch in organischen Lösungsmitteln löslich. Ohne Lösung sind aber chemische Reaktionen schwierig. Daher zerlegt das heute etablierte Verfahren die Fasern in Schwefelsäure, um die Nanokristalle herauszutrennen. Hydrolyse heißt die Prozedur. Schwefelsäure ist aber stark ätzend und gefährlich handzuhaben. Grüne Chemie will sie daher vermeiden, und Filonenkos Team forscht an einer schonenderen Methode für die Zukunft.

Eutektische Flüssigkeiten

Das Zauberwort heißt „stark eutektische Lösungsmittel“. Damit lassen sich die Nanokristalle vergleichsweise sanft aus den Cellulosefasern herauslösen. Zuerst muss Filonenko erklären, was ein Eutektikum ist: „Wenn man zwei oder mehr feste Komponenten mit bestimmten Eigenschaften mixt, sinkt die gemeinsame Schmelztemperatur auf einen Tiefpunkt, das Eutektikum.“

Sie verdeutlicht das Prinzip an einem Beispiel, mit dem sie kürzlich eine kanadische Chemieprofessorin verblüfft hat: Ahornsirup ist ein natürliches eutektisches Gemisch. Die zwei Hauptbestandteile des Sirups sind Apfelsäure und Zucker, genauer Saccharose und Fructose. Bei Zimmertemperatur sind alles feste Substanzen. Man mischt sie als Pulver und träufelt ein wenig Wasser darauf, um die Komponenten in Kontakt zu bringen. „Jetzt geschieht etwas Faszinierendes“, erklärt die Chemikerin: „Das Pulver wird immer feuchter, bis es sich in eine klare Flüssigkeit verwandelt.“ Das Wasser wirkt hier nicht als Lösungsmittel, denn davon gibt es viel zu wenig, um die Pulver aufzulösen. Stattdessen ist die Flüssigkeit eine Schmelze bei Zimmertemperatur.

Eine solche eutektische Flüssigkeit kann ein sehr gutes Lösungsmittel für bestimmte Stoffe sein. Dazu gehört die Cellulose, für die Filonenkos Team ein eutektisches Lösungsmittel entwickelt hat. Die Chemie ist allerdings komplizierter als beim Ahornsirup. Das Team kann auch noch keine Details verraten, weil die Arbeit erst in einem wissenschaftlichen Fachblatt publiziert werden muss. Esther Jaekel, eine Doktorandin in Filonenkos Gruppe, führt aber im Labor vor, was damit passiert. Als Rohmaterial testet sie gerade verschiedene cellulosehaltige Abfälle, darunter Faserreste aus der Papierproduktion, sogar Holzspäne. Je bräunlicher das Material ist, desto mehr Lignin und Hemicellulose enthält es. Zum Herauslösen der Nanokristalle wird es mit einer klaren, wässrigen Flüssigkeit gemischt. Das ist das bereits fertige eutektische Lösungsmittel aus zwei Komponenten. Es zersetzt die amorphen Verbindungen zwischen Cellulose-Kristallen, nur die Nanokristalle bleiben übrig.

In einigen Experimenten soll das eutektische Lösungsmittel die Cellulose-Nanokristalle modifizieren. Das passiert in einem kleinen Reaktor, der wie ein robuster Schnellkochtopf funktioniert. Darin wird die Mischung zum Beispiel bei 140 Grad Celsius und dem fünfzigfachen Atmosphärendruck für eine Stunde „gegart“. In dieser Zeit läuft die erwünschte Veränderung ab. Hinterher bekommen die Chemikerinnen eine bräunliche Flüssigkeit, wobei die braune Farbe durch Röststoffe wie beim Braten entsteht. Diese werden anschließend herausgewaschen. Das Ergebnis ist eine milchige Flüssigkeit, die ausschließlich fein verteilte Cellulose-Nanokristalle enthält. „Das ist ein stabiles Kolloid“, erklärt Jaekel, und damit kommt noch ein wichtiges Fachwort ins Spiel. Das Wort Kolloid leitet sich aus dem Altgriechischem ab und bedeutet so viel wie „leimartiges Aussehen“. Die Kolloidchemie, der sich Markus Antoniettis Abteilung im Institut widmet, basiert auf Nanopartikeln in Flüssigkeiten. Solche extrem feine Partikel setzen sich nicht mehr unten im Gefäß ab, wenn die Flüssigkeit länger steht. Die Wärmebewegung der Moleküle kickt die kleinen Partikel immer zurück in die Flüssigkeit.

Abbildung 5. Ein dünner Film aus Cellulose-Nanokristallen irisiert im Licht. © Dr. Nieves Lopez Salas

Aus dem Nanocellulose-Kolloid lässt sich zum Beispiel eine Pickering-Emulsion machen. Jaekel zeigt ein Fläschchen mit einer milchig-weißen Flüssigkeit: „Das ist eine Emulsion von Öl in Wasser, also im Prinzip Salatsauce.

Die Chemikerinnen gefriertrocknen auch die gewonnene Flüssigkeit mit den Nanokristallen. Das ergibt ein weißes, fluffiges Pulver. „Damit könnte man zum Beispiel Leichtbauteile herstellen“, sagt Jaekel. Dann zeigt sie getrocknete Filme aus reiner Nanocellulose. Besonders bei kleinen Kristallen sieht der Film ganz klar aus. Im Licht schillert er in allen Regenbogenfarben (Abbildung 5). Schließlich führt die Chemikerin ein Stück Altpapier vor, wie es für Lebensmittelverpackungen verwendet wird. Es ist mit den Cellulose-Nanokristallen beschichtet. Seit Wochen steht nun schon eine kleine Ölpfütze darauf, ohne durchzusickern. Das zeigt: Diese biologisch abbaubare Beschichtung könnte Lebensmittel vor Mineralölspuren schützen.

„Holz hat unsere Kultur geprägt“, sagt Svitlana Filonenko. Seit Jahrtausenden ist es Brenn- und Baustoff. Bedrucktes Papier begründete unsere Informationskultur. Im 19. Jahrhundert kam mit Zelluloid der erste Kunststoff auf, und mit ihm der Film als neues Medium. Nun könnte aus Cellulose eine nachhaltige Nanotechnologie entstehen. Abbildung 6. Das ist das Ziel der Potsdamer Forscherinnen.

Abbildung 6.Cellulose-Nanokristalle - Ausgangsstoff für nachhaltige Nanotechnologie. © AdobeStock /HN; catalby/istock

 


 


* Der Artikel ist erstmals unter dem Title: "Nachwachsende Nanowelt – Cellulose-Kristalle werden zum grünen Zukunftsmaterial" in TECHMAX 28 (Winter 2020) der Max-Planck-Gesellschaft erschienen https://www.max-wissen.de/344532/nanomaterialien und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel wurde praktisch unverändert in den Blog übernommen.


Links

Nanostrukturen im ScienceBlog


 

inge Wed, 10.03.2021 - 21:17

Trojaner in der Tiefgarage - wenn das E-Auto brennt

Trojaner in der Tiefgarage - wenn das E-Auto brennt

Fr 05.03.2021.... Inge Schuster Inge Schuster Icon Politik und Gesellschaft

Die Vision für die Zukunft sieht Elektro-Autos auf den Straßen dominieren, deren Strom aus erneuerbaren Quellen kommt. Solche Fahrzeugen bieten viele Vorteile, lösen aber auch ein gewisses Maß an Skepsis aus. Zwar selten, aber dennoch nicht weniger beängstigend kann das Kernstück des Autos, die Lithium-Ionen-Batterie spontan - etwa beim Parken, beim Aufladen - in Brand geraten, der trotz enormer Mengen an Löschwasser nur sehr schwer zu löschen ist und tagelang andauern kann. Insbesondere in Tiefgaragen, die nur durch einen Lift erschlossen werden, können solche Brände verheerende Folgen haben. Die Bekämpfung solcher Brände steckt noch in den Kinderschuhen. Solange hier geeignete Sicherheitsmaßnahmen ausstehen, sollte man die trojanischen Pferde(stärken) von solchen Tiefgaragen fernhalten.

Der bereits für alle uns spürbar gewordene Klimawandel verlangt eine rasche, effiziente und nachhaltige Reduzierung von Treibhausgasen, insbesondere von CO2, die durch den Ausstieg aus fossilen Brennstoffen und deren Ersatz durch erneuerbare Energieträger erfolgen soll. Ein derartiger elementarer Umbau des Energiesystem betrifft besonders den in vielen Ländern noch wachsenden Transportsektor, der derzeit zumindest in den OECD-Ländern mit 36 % der Endenergie der größte Energieverbraucher ist [1]. Abbildung 1.

Abbildung 1. Die CO2-Emissionen in der EU sind in den Sektoren Wohnen, Industrie und Landwirtschaft deutlich gesunken, nicht aber im Transportsektor. (Bild: Eric van der Heuvel (February 2020) :CO2 reductions in the transport sector in the EU-28 [2])

Aktuell sind weltweit auf den Straßen rund 1,42 Milliarden Fahrzeuge unterwegs (davon etwa 1,06 Milliarden PKWs), die noch zu 99 % von Verbrennungsmotoren angetrieben werden und damit zu den Hauptemittenten von CO2 gehören.

Es ist eine Vision für die Zukunft, dass elektrisch angetriebene Fahrzeuge dominieren, deren Strom natürlich aus erneuerbaren Quellen stammen soll.

E-Autos auf dem Vormarsch…

Um die Abhängigkeit des Verkehrs von fossilen Brennstoffen zu reduzieren und Klimaneutralität bis 2050 erreichen zu können, sind äußerst ambitionierte Maßnahmen nötig. Was Europa betrifft, so lag im Jahr 2019 der PKW-Bestand bei rund 330 Millionen Fahrzeugen [3], wovon 1,8 Millionen (0,5 %) E-Autos waren; 2020 stieg deren Anteil auf 1 % (s.u.). Nach einem neuen Strategiepapier will die EU nun bis 2030 mindestens 30 Millionen emissionsfreie PKWs auf Europas Straßen bringen und hofft damit ein Viertel der gesamten aus dem Verkehrssektor stammenden EU-Treibhausgasemissionen zu reduzieren; für den dazu nötigen Ausbau von Ladestationen , Wasserstofftankstellen, etc. sind entsprechende Finanzierungsmöglichkeiten vorgesehen [4]. Diverse Anreize für den Kauf von E-Autos gibt es bereits in praktisch allen EU-Staaten und im Zuge der während der Corona-Pandemie geschnürten Konjunkturpakete wurde diese erhöht. So können Käufer in Deutschland von Staat und Autoherstellern eine Umweltprämie von 9000 € für bis zu 40 000 € teure E-Autos erhalten. In Österreich gibt es eine Förderung von bis zu 5 000 € für Autos unter 60 000 € und zusätzliche Unterstützung für eine private Ladeinfrastruktur.

Es spricht auch sonst vieles für E-Autos. Abgesehen von der Unabhängigkeit von Erdölproduzenten, sind E-Autos im Betrieb umweltfreundlicher, da sie keine Emissionen von Abgasen verursachen und geräuscharm sind (ein Wohnen an vielbefahrenen Straßen gewinnt somit wieder an Wert). Die Unterhaltskosten - Stromkosten - sind prinzipiell günstiger als bei Verbrennern und ebenso die Wartungskosten, da viele der dort essentiellen Verschleißteile fehlen. Werden zumeist kürzere Strecken gefahren, erscheint überdies das bequeme (allerdings bei 11 kW Leistung lang dauernde) Home-Charging in der eigenen Garage oder an Ladesäulen von größeren Wohnbauten attraktiv (birgt aber Risiken, s.u.).

Die Anreize für den Kauf von Elektroautos und deren Vorteile zeigen Wirkung. Im Jahr 2020 waren weltweit von insgesamt 64 Millionen Neuzulassungen rund 3,24 Millionen Elektro-Autos - also circa 5 % [5]. Unter Elektro-Autos werden dabei - wie auch im gegenwärtigen Artikel - zumeist reine Batterie-E-Autos (die nur von einem Elektromotor angetrieben werden, wobei der Strom aus einer Traktionsbatterie kommt) und Plug-in-Hybride (PHEV, d.i. Fahrzeuge, die neben einem Elektromotor noch einen Verbrennungsmotor besitzen) zusammengefasst. Insbesondere Europa verzeichnete 2020 einen enormen Zuwachs (+ 137 %) und rangiert mit 1,4 Millionen neuen E-Fahrzeugen weltweit nun bereits knapp vor China, der vormaligen Nummer 1 der Weltrangliste. Mit einem Rekordwert von 328 000 E-Autos - 15,6 % der dort insgesamt zugelassenen PKW, - lag Deutschland bereits an dritter Stelle [5]. In Österreich war 2020 der Anteil der E-Autos - etwa 20 % aller Neuzulassungen - noch höher (laut Statistik Austria waren es rund 16 000 reine Batterie-Autos, 25 400 Benzin/Elektro- und 8 300 Diesel/Elektro-Hybride). Bei einem Bestand von insgesamt 5,09 Millionen PKW fallen damit 44 507 (0,9 %) auf Elektro-PKWs und 83 361 (1,7 %) auf Hybride.[6]

…derzeit aber noch ein Bruchteil des gesamten PKW-Bestands

Innerhalb der letzten 10 Jahre ist der weltweite Bestand an E-Autos zwar rasant - von rund 55 000 auf über 11 Millionen - gestiegen, macht aktuell aber doch erst rund 1 % der insgesamt 1,09 Milliarden PKWs aus. In Anbetracht des Plans der EU bis 2030 in Europa allein auf 30 Millionen E-PKWs zu kommen, sind dies ernüchternde Zahlen.

Viele Menschen zögern aber noch ein E-Auto zu kaufen.

Zu den Negativpunkten zählt zweifellos, dass - vor allem bei Modellen mit höherer Reichweite - die Kaufpreise noch wesentlich höher liegen als bei Verbrennern und es derzeit auch noch nicht ausreichend Ladestationen/Schnelladestationen gibt. Ein Problem sind auch die langen Ladezeiten. Viele Modelle können sehr hohe Ladeleistungen ja nicht verkraften, da der Akku (die Batterie) sonst überhitzen und Schaden nehmen könnte. (Allerdings dauert ein Aufladen bei 118 kW Ladeleistung, das u.a. verschiedene TESLA-Modelle erlauben, noch immerhin 35 min. (bei 80 %); bei 11 kW bis zu 7,5 h).

Schäden an der Batterie, die nicht durch Verkehrsunfälle, sondern in der Batterie selbst mehr oder weniger spontan - etwa beim Parken, beim Aufladen - entstehen und zur Entzündung/Explosion führen können, lösen ein gewisses Maß an Skepsis aus. Die Brandgefahr hat in letzter Zeit zu ausgedehnten Rückrufaktionen von großen und kleinen E-Autotypen mehrerer Hersteller (u.a. Ford, BMW, Opel, Hjundai, Nio, VW, Seat, Skoda Hjundai) geführt.

Von der Funktion der Lithium-Ionen-Batterie…

Vorweg eine grobe Beschreibung von Aufbau und Funktion der Lithium-Ionen-Batterie, eines wiederaufladbaren Energiespeichers (Akkumulators), der in der Elektromobilität Anwendung findet aber auch aus unserem Alltag - vom Handy, Notebook, Digitalkamera bis hin zum Staubsauger, Rasenmäher und  Heimspeicher für den aus Photovoltaik erzeugten Strom - nicht mehr wegzudenken ist. Die Erfolgsstory der Lithium-Ionen-Batterie begründet sich auf den Eigenschaften von Lithium, dem kleinsten und leichtesten Metall-Element, mit dem niedrigsten Atomgewicht und der höchsten elektrochemischen Aktivität. Dies machte es möglich immer mehr Energie, auf immer kleinerem Raum und leichterem Gewicht zu speichern.

Die Grundeinheit einer Batterie für E-Autos, die Lithium-Ionen-Batteriezelle besteht aus zwei ortsfesten Elektroden, der negativen Anode und der positiven Kathode, in einer nicht-wässrigen Ionen-leitenden Flüssigkeit (Elektrolyt), die Lithiumsalze enthält (ausführlich beschrieben in [7]). Eine Membran (Separator), die für die Ladungsträger - die positiv geladenen Lithiumionen (Li+) - durchlässig ist, trennt die Elektrodenräume und verhindert den direkten Kontakt zwischen den Elektroden und damit einen Kurzschluss. Abbildung 2.

Abbildung 2. Die Lithium-Ionen-Batterie. Links: die auf einer Kupferfolie mit Grafit (hellblau) beschichtete Anode, rechts: die Kathode mit Metalloxiden (grau) auf einer Aluminiumfolie. Lithium (gelb) ist als positiv geladene Ion (Li+) im Elektrolyt frei beweglich (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by. [7])

Bei den Elektroden finden Dutzende unterschiedliche Aktivmaterialien Anwendung, welche Lithium in Form sogenannter Interkalationsverbindungen "einlagern". Bei der Kathode sind dies meistens Lithium-Metalloxide (mit variablen Anteilen von Kobalt-, Nickel-, Manganoxiden, Aluminium sogenannte NMC- oder NCA- Materialien), die auf einen Stromableiter (üblicherweise eine Aluminiumfolie) aufgebracht sind. Bei der Anode ist der zumeist aus einer Kupferfolie bestehende Stromableiter in der Regel mit Kohlenstoff (Grafit) beschichtet. Die Zusammensetzung der Elektroden bestimmt die Eigenschaften der Batterie wie Energiedichte, thermische Stabilität, Nennspannung (üblicherweise bei 3,7 Volt), speicherbare Energie und Lebensdauer, wobei deren jeweilige Optimierung auf Kosten einer der anderen Eigenschaften geht.

Der Elektrolyt besteht typischerweise aus wasserfreien, organischen Lösungsmitteln (Kohlensäure-dimethylester, -diethylester, Äthylencarbonat, etc.), die Lithiumsalze enthalten.

Beim Ladevorgang wird von außen eine Spannung angelegt und so ein Überschuss an Elektronen an der Anode erzeugt. Lithium löst sich von der Kathode, wo es in Metalloxiden interkaliert vorlag, wandert als Lithiumion (Li+) zur negativ geladenen Anode und lagert dort in die Grafitschicht ein. Beim Entladen werden Elektronen aus der Grafitschicht der Anode freigesetzt, die über den äußeren Stromkreis zur Kathode fließen, ebenso wie die Lithiumionen, die nun durch den Elektrolyten zurück zur Kathode wandern und in das Metalloxid einlagern. Die Elektroden bleiben dabei elektrisch neutral. Abbildung 2.

Die Antriebsbatterie (Traktionsbatterie) in einem E-Auto muss über einen großen Energieinhalt verfügen und setzt sich nun deshalb aus bis zu Tausenden solcher Zellen zusammen, die in Modulen und aus Modulen bestehenden Batteriepacks parallel (zur Erhöhung der Kapazität) und seriell (zur Erhöhung der Spannung) zusammengeschaltet sind. Beispielsweise enthält die 85 kW- Batterie des Tesla S-Modells 7617 Zellen in paraller/serieller Konfiguration (https://batteryuniversity.com/).

Um die Zellen im sicheren Betriebsbereich zu halten, wird ein Batteriemanagementsystem (BMS) eingesetzt, das den Ladezustand der einzelnen Zellen und des ganzen Systems kontrolliert und steuert und auch die Temperatur beim Laden und Entladen. Abbildung 3.

Abbildung 3. Schematischer Aufbau der Antriebsbatterie aus Tausenden einzelner, wie in Abb. 2 dargestellter Zellen. BMS: Batteriemanagementsystem. (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by. [7])

…zur Brandgefahr,…

Ebenso wie der Verbrennungsmotor liefert die Lithium-Ionen-Batterie die Energie für den Antrieb des Autos und gleichzeitig auch den Brennstoff für mögliche Brände. Die Batteriezelle enthält ja brennbare Substanzen - den Elektrolyten, die Grafitbeschichtung der Anode und die Membran des Separators -, dazu ist der Abstand zwischen den Elektroden gering und auf kleinem Raum wird sehr viel chemische Energie generiert. Kommt es zum Kurzschluss in einer Zelle, so kann dies zur Explosion und einem Brand führen, der unter Umständen nicht mehr kontrolliert werden kann, einem sogenannten "Thermal Runaway" (thermischen Durchgehen) .

Kurzschlüsse können durch äußere mechanische Einflüsse ausgelöst werden, beispielsweise durch Unfälle, welche die Batterie so schwer beschädigen, dass in den Zellen die Elektroden in Kontakt kommen und Kurzschlüsse verursachen. Die Beschädigung kann aber auch auf Grund eines Produktionsfehlers entstanden sein. Man sollte natürlich auch das Risiko eines Sabotageaktes nicht unerwähnt lassen.

Die Batterie kann sich aber auch von innen heraus selbst entzünden [7, 8].

  • Dies kann durch unsachgemäßes Überladen/Entladen geschehen, da die Zellen nur für eine bestimmte Aufnahme/Abgabe von Energie pro Zeiteinheit konzipiert sind. Beim Aufladen wird ja Lithium an der Anode abgelagert (s.o.); bei wiederholtem Aufladen können sich an einzelnen Punkten die Ablagerungen verstärken und astartige Auswüchse, sogenannte Dendriten bilden. Gelangen diese Dendriten an die Gegenelektrode, so kommt es zum Kurzschluss und die Zelle kann in Flammen aufgehen.
  • Fällt die Temperaturregulierung aus, und wird die Zelle überhitzt, so können interne Komponenten der Zelle sich zersetzen und dabei weitere Wärme erzeugen (dies ist der Fall bei der Grafit-Elektrolyt-Interphase (SEI), welche die Anode vor dem direkten Kontakt mit dem Elektrolyten schützt).

Im Prinzip sollten derartige Brände durch ein funktionierendes Batterie-Managementsystem im Keim verhindert werden können.

…dem Thermal Runaway…

Bei Temperaturen, die über dem normalen Arbeitsbereich liegen (in der Regel zwischen - 25oC und + 75oC) , treten praktisch gleichzeitig (d.i. im Bereich von Millisekunden) komplexe (elektro)chemische Reaktionen auf, die jeweils zusätzliche Wärme generieren und die Temperatur in der Zelle noch schneller aufheizen: Es sind dies Prozesse, die zwischen Anode und Elektrolyt ablaufen, es ist das Schmelzen des Separators bei 69oC, es kommt zu internen Kurzschlüssen, eine Zersetzung des Elektrolyten und Bildung von Flusssäure und reaktiven chemischen Produkten tritt ein und schließlich die Zersetzung der Kathode unter Freisetzung von Sauerstoff. Das Ganze ist eine Kettenreaktion - ein sogenannter Thermal Runaway -, als Folge kann die Zelle schließlich explosionsartig platzen und brennen. [7, 8]. Abbildung 4.

Abbildung 4. Wie eine beschädigte, überhitzte Lithium-Ionen Zelle sich selbst entzündet. Schematische Darstellung eines Thermal Runaway Prozesses in einer Lithium-Kobaltoxid/Grafit-Zelle. (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by [7])

Hier beginnt nun das eigentliche Problem der Lithium-Ionen- Batterie. Da sie aus vielen Modulen und Batteriepacks besteht, bleibt der Thermal Runaway nicht auf eine Zelle beschränkt. Die Nachbarzellen werden nun auch überhitzt/beschädigt, die Kettenreaktion breitet sich von Zelle zu Zelle aus bis schlussendlich die ganze Hunderte-Kilo schwere Batterie plus die Brandlast des Autos Feuer gefangen haben.

…und dem enormen Problem einen derartigen Brand zu löschen

Im Gegensatz zu Bränden von Verbrenner-Autos sind solche Batteriebrände nur sehr schwer zu löschen. Einerseits, weil die Batterie geschützt am Boden des Fahrzeugs und damit für die Brandbekämpfer schwer zugänglich angebracht ist. Andererseits, weil der Brand sich ja von Zelle zu Zelle fortfrisst und auch, wenn es offensichtlich gelungen ist das Feuer zu löschen, sich weitere Zellen entzünden und das Feuer wiederholt aufflackern lassen können. Für die Feuerwehr stellen solche Brände ein noch ungelöstes Problem dar. Abbildung 5.

Abbildung 5. Brand des E-Autos: kühlen, kühlen, kühlen - soferne überhaupt ausreichend Löschwasser verfügbar ist. (Symbolbild, Pixabay, gemeinfrei)

Es gibt nur die Möglichkeit das Feuer kontrolliert ausbrennen zu lassen und/oder die Batterie über Stunden/Tage effizient zu kühlen [9]. Bei großen Autos, wie dem Tesla S-Modell sind dazu 11 000 l Kühlwasser erforderlich, eine 6 - 8 mal größere Menge als Feuerwehrautos mit sich führen. Eine neue Möglichkeit besteht auch darin das brennende Auto in einem großen, mit Kühlwasser gefüllten Löschcontainer zu versenken.

…in Tiefgaragen ein noch völlig ungelöstes Problem

Solange ein Brand im Freien erfolgt oder es möglich ist das teilgelöschte Wrack ins Freie zu schleppen, kann es dort abbrennen. Allerdings kann es zur Selbstentzündung auch beim Parken in Garagen kommen, wo ein zusätzliches Risiko noch durch die Möglichkeit des Aufladens an Ladesäulen besteht. Dass dies nicht nur rein theoretisch eine Gefahr darstellt, zeigt eine- zweifellos unvollständige -Auflistung von rezenten, offensichtlich durch Selbstentzündung entstandenen Bränden beim Parken oder Aufladen; einige davon in Tiefgaragen.Tabelle 1.

Tabelle 1. Selbstentzündung von Lithium-Ionen-Batterien beim Parken oder Ladevorgang. Zusammenstellung von Beispielen aus [ 9] und [10]. ? bedeutet: nicht näher bezeichnete chinesische Hersteller

E-Autos der Type Kona EV waren in der letzten Zeit besonders oft von solchen Bränden betroffen - ein unglaublicher Imageverlust für den südkoreanischen Autohersteller Hyundai (Nummer 5 der globalen PKW-Herstellerliste). Hyundai hat daraufhin weltweit einen Rückruf von 82 000 Autos gestartet, um die Batterien auszutauschen.

Brände in Tiefgaragen bedeuten ein neues, völlig ungelöstes Problem. Überall - im verdichteten städtischen Wohnbereich ebenso wie in den im Zubetonierungsstatus befindlichen Stadträndern - entstehen Tiefgaragen. In vielen Fällen gibt es keine breitere Einfahrt; das Auto kann nur über einen Lift zu den dicht nebeneinander angeordneten, unterirdischen Stellplätzen gelangen. Dem "Luxus" mancher Bauten entsprechend gibt es Ladesäulen, an denen E-Autos "Feuer fangen" können. Aus solchen Garagen gibt es zwar einen schmalen Fluchtweg, aber keine Möglichkeit ein brennendes/partiell gelöschtes Wrack herauszuschleppen, um es im Freien/im Löschcontainer abbrennen zu lassen. Um die Brandausbreitung auf benachbarte Fahrzeuge zu unterbinden, muss also am Ort gekühlt werden, wobei für die lange Dauer der Brandbekämpfung enorm viel Wasser herangeschafft werden muss. Eine lange Branddauer und die damit verbundene Hitzeentwicklung kann sich natürlich auch auf den Beton und damit auf die Statik desr Tragwerks auswirken.

Dazu kommt, dass bei der Explosion/dem Brand Dämpfe und Rauch entstehen, die reaktive, z.T. hochgiftige Stoffe - Flusssäure (HF), freie Radikale, Schwermetallstäube (Kobaltoxid, Nickeloxid, Manganoxid) - enthalten (siehe Abbildung 4), welche Arbeit und Gesundheit der Feuerwehr enorm gefährden können. Diese Stoffe lagern sich an Wänden und Boden der Garage ab, welche nach dem Brand dekontaminiert/abgetragen werden müssen, finden sich aber auch sehr hohen Konzentrationen im Kühl- und Löschwasser. Es ist völlig ungeklärt wohin die enormen Mengen an kontaminiertem Wasser abfließen sollen.

Im Bewusstsein mit E-Autos in einer Tiefgarage ein nicht vertretbares Risiko einzugehen, hat vor wenigen Tagen die fränkische Stadt Kulmbach beschlossen E-Autos in Tiefgaragen zu verbieten: "Wir müssen mit dem arbeiten, was wir haben und die örtlichen Gegebenheiten ermöglichen es uns in keiner Weise, den Brand eines Lithium-Akkus in der Tiefgarage zu löschen oder zu kühlen." [11]

Fazit

Brennende E-Autos sind spektakulär, bei der derzeit geringen Dichte dieser Fahrzeuge und ihrem niedrigen Alter aber noch selten. Auch, wenn laufend Verbesserungen der Lithium-Ionen-Batterie und ihres Betriebsmanagements erfolgen, so wird mit der geplanten starken Zunahme der Elektroautos (deren zunehmender Brandlast und auch einsetzenden Alterung) sich auch das Risiko von Batteriebränden - Thermal Runaways - erhöhen, die ungleich schwerer zu löschen sind als es bei den Verbrennern der Fall ist. Die Brandbekämpfung von Batteriebränden steckt noch in den Kinderschuhen. Insbesondere in Tiefgaragen, die nur durch einen Lift erschlossen werden, können solche Brände verheerende Folgen haben. Solange hier geeignete Sicherheitsmaßnahmen ausstehen, sollte man dem Beispiel der Kulmbacher folgen und die trojanischen Pferde(stärken) von solchen Tiefgaragen fernhalten. 


 [1] Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

[2] Eric van der Heuvel: CO2 reductions in the transport sector in the EU-28 (February 2020) [2]); https://ec.europa.eu/energy/sites/ener/files/documents/38._eric_van_der_heuvel.pdf. (Abgerufen am 3.3.2021)

[3] Statista: PKW Bestand in ausgewählten Europäoischen Länndern, https://de.statista.com/statistik/daten/studie/163405/umfrage/pkw-bestand-in-ausgewaehlten-europaeischen-laendern/ (Abgerufen am 3.3.2021)

[4 ]Elektro Auto News:   https://www.elektroauto-news.net/2020/eu-plant-mit-30-millionen-elektrofahrzeugen-bis-2030 (Abgerufen am 2.3.2021)

[5] EV Volumns.com: Global Plug-in Vehicle Sales Reached over 3,2 Million in 2020, https://www.ev-volumes.com/ (Abgerufen am 4.3.2021)

[6] Statistik Austria (2021): http://www.statistik.at/web_de/statistiken/energie_umwelt_innovation_mobilitaet/verkehr/strasse/kraftfahrzeuge_-_neuzulassungen/index.html (abgerufen am 2.3.2021)

[7] Mohammadmahdi Ghiji et al., A Review of Lithium-Ion Battery Fire Suppression. Energies 2020, 13, 5117. doi:10.3390/en13195117.

[8] P. Sun, R. Bisschop, H. Niu, X. Huang* (2020) A Review of Battery Fires in Electric Vehicles, Fire Technology, 56, Invited Review. https://doi.org/10.1007/s10694-019-00944-3

 

[9] Peter Ilg (29.November 2018) : Ein brennendes Elektroauto lässt sich nicht löschen. https://www.zeit.de/mobilitaet/2018-11/elektromobilitaet-elektroautos-motoren-feuerwehr-sicherheit (abgerufen am 4.3.2021)

[10] Wikipedia: Plug-in electric vehicle fire incidents (mit 129 Links, update am 23.2.2021). https://en.wikipedia.org/wiki/Plug-in_electric_vehicle_fire_incidents (abgerufen am 4.3.2021)

[11] Jens Meiners (25,02.2021): Im Zweifel für die Sicherheit - sind Tiefgaragen-Verbote für E-Autos richtig?https://www.focus.de/auto/news/tesla-und-co-muessen-draussen-bleiben-im-zweifel-fuer-die-sicherheit-sind-tiefgaragen-verbote-fuer-e-autos-richtig_id_13020719.html (abgerufen am 5.2.2021)


Weiterführende Links

Martin Seiwert und Stefan Hajek (28. Februar 2021): Brandgefahr fürs Elektroauto-Image https://www.wiwo.de/technologie/mobilitaet/rueckruf-bei-hyundai-brandgefahr-fuers-elektroauto-image/26957590.html  (abgerufen am 3.3.2021)

Die Li-ionen-Batterie. Wie funktioniert sie? nextmove, Video 11:34 min. (2019) https://www.youtube.com/watch?v=yYlNZqCJ9U4

Chemie-Nobelpreis für Entwicklung der Lithium-Ionen-Batterie. (2019). Video 7.33 min. https://www.youtube.com/watch?v=JhGelIC_CSM und https://www.nobelprize.org/uploads/2019/10/advanced-chemistryprize2019-2.pdf

Artikel im Scienceblog

mehrere Artikel zum Thema Elektromobilität sind unter dem Themenschwerpunkt Energie gelistet.


 

inge Fri, 05.03.2021 - 19:15

Comments

Die Studie konstatiert ganz klar:

"Of course, such a partially burnt wreck must be stored in a water basin or a special container so that it cannot reignite. But this is already known to the specialists and is being practiced".

Das Heranschaffen eines derartigen Containers  ist aber das Problem von Tiefgaragen, deren Zugang über den Autolift erfolgt.

Rita Bernhardt (not verified)

Tue, 18.05.2021 - 17:53

Ein sehr aufschlussreicher Beitrag

Ist eine Impfstoffdosis ausreichend, um vor einer Neuinfektion mit COVID-19-zu schützen?

Ist eine Impfstoffdosis ausreichend, um vor einer Neuinfektion mit COVID-19-zu schützen?

Do, 25.02.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Weltweit haben sich bereits mehr als 112 Millionen Menschen mit dem Coronavirus infiziert, rund 2,5 Millionen sind daran gestorben. Diejenigen, die sich von einer COVID-19 Erkrankung wieder erholt haben, sollten auf jeden Fall geimpft werden, um einen möglichst hohen Schutz vor einer möglichen Neuinfektion zu erhalten. Neue Ergebnisse weisen darauf hin, dass bei diesen Personen eine Einzeldosis Impfstoff 10- bis 20-mal so hohe Immunreaktionen auslöst wie bei zuvor nicht infizierte Personen. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über diese Ergebnisse.*

Millionen Amerikaner haben jetzt Anspruch darauf sich mit den COVID-19-Vakzinen von Pfizer oder Moderna impfen zu lassen, und jeder sollte diese in Form von zwei Teilimpfungen erhalten. Die erste Dosis dieser mRNA-Impfstoffe trainiert das Immunsystem darauf, dass es das Spike-Protein auf der Oberfläche von SARS-CoV-2, dem COVID-19 verursachenden Virus, erkennt und attackiert. Die zweite Dosis, die einige Wochen später verabreicht wird, erhöht (boostet) die Menge an Antikörpern und bietet damit einen noch besseren Schutz.

Personen, die von einer COVID-19 Erkrankung wieder genesen sind, sollten auf jeden Fall geimpft werden, um einen möglichst hohen Schutz vor einer möglichen Neuinfektion zu erhalten. Allerdings besitzen sie schon etwas an natürlicher Immunität - würde da nun eine Impfstoffdosis ausreichen? Oder brauchen sie noch zwei?

Zu dieser wichtigen Frage bietet eine kleine, von den NIH unterstützte Studie erste Daten [1]. Die als Vorabdruck auf medRxiv veröffentlichten Ergebnisse zeigen, dass bei einer Person, die bereits COVID-19 hatte, die Immunantwort auf die erste Impfstoffdosis gleich oder in einigen Fällen noch besser ist als die Reaktion auf die zweite Dosis bei einer Person, die kein COVID-19 hatte. Zwar braucht es hier noch viel mehr an Forschung (und ich schlage sicherlich keine Änderung der aktuellen Empfehlungen vor), doch die Ergebnisse lassen vermuten, dass eine Dosis für jemanden ausreicht, der mit SARS-CoV-2 infiziert war und bereits Antikörper gegen das Virus gebildet hat.

Diese Ergebnisse stammen von einem Forscherteam unter der Leitung von Florian Krammer und Viviana Simon von der Icahn School of Medicine am Mount Sinai in New York. Die Forscher kamen zu dem Schluss, dass bei Menschen, die als Folge einer COVID-19-Infektion bereits Antikörper produziert hatten, die erste Impfdosis in ähnlicher Weise wirken dürfte wie eine zweite bei jemandem wirkt, der das Virus zuvor noch nicht hatte. Tatsächlich gab es einige anekdotische Hinweise darauf, dass zuvor infizierte Personen nach ihren ersten Schüssen stärkere Anzeichen einer aktiven Immunantwort (Armschmerzen, Fieber, Schüttelfrost, Müdigkeit) zeigten als niemals infizierte Personen.

Was haben die Antikörper nun gezeigt? Um dies zu beantworten, untersuchten die Forscher 109 Personen, die eine erste Dosis von mRNA-Impfstoffen (von Pfizer oder Moderna) erhalten hatten. Das Ergebnis war, dass diejenigen, die noch nie mit SARS-CoV-2 infiziert waren, innerhalb von 9 bis 12 Tagen nach ihrer ersten Impfstoffdosis Antikörper in nur geringen Mengen generierten.

Bei 41 Personen, die vor der ersten Impfung positiv auf SARS-CoV-2-Antikörper getestet worden waren, sah die Immunantwort jedoch deutlich anders aus. Innerhalb weniger Tage nach Erhalt des Impfstoffs erzeugten sie hohe Mengen an Antikörpern. Über verschiedene Zeitintervalle verglichen hatten zuvor infizierte Personen 10- bis 20-mal so hohe Immunreaktionen wie nicht infizierte Personen. Nach der zweiten Impfstoffdosis passierte dasselbe. Bei vormals infizierten Menschen waren die Antikörperspiegel etwa zehnmal höher als bei den anderen.

Beide Impfstoffe wurden im Allgemeinen gut vertragen. Da ihr Immunsystem jedoch bereits auf Hochtouren war, tendierten zuvor infizierte Menschen nach der ersten Impfung zu mehr Symptomen wie etwa Schmerzen und Schwellungen an der Injektionsstelle. Sie berichteten auch häufiger über andere seltenere Symptome wie Müdigkeit, Fieber, Schüttelfrost, Kopfschmerzen, Muskelschmerzen und Gelenkschmerzen.

Auch wenn es manchmal anders scheint, so sind COVID-19 und die mRNA-Impfstoffe noch relativ neu. Die Forscher konnten noch nicht untersuchen, wie lange diese Impfstoffe Immunität gegen die Krankheit verleihen, die inzwischen mehr als 500.000 Amerikanern das Leben gekostet hat. Die vorliegenden Ergebnisse legen jedoch nahe, dass eine Einzeldosis der Pfizer- oder Moderna-Impfstoffe eine schnelle und starke Immunantwort bei Menschen, die sich bereits von COVID-19 erholt haben, hervorrufen kann.

Wenn weitere Studien diese Ergebnisse stützen, könnte die US-amerikanische Food and Drug Administration (FDA) entscheiden zu erwägen, ob eine Dosis für Personen ausreicht, die zuvor eine COVID-19-Infektion hatten. Ein solches Vorgehen wird in Frankreich bereits geprüft und würde, falls sie umgesetzt wird, dazu beitragen, die Versorgung mit Impfstoff zu strecken und mehr Menschen früher zu impfen. Für jede ernsthafte Prüfung dieser Option sind jedoch mehr Daten erforderlich. Die Entscheidung liegt auch bei den Fachberatern der FDA und der Centers for Disease Control and Prevention (CDC).

Im Moment ist das Wichtigste, was wir alle tun können, um diese schreckliche Pandemie in den Griff zu bekommen, ist unsere Masken tragen, unsere Hände waschen, unseren Abstand zu anderen wahren - und die Ärmel für den Impfstoff hochkrempeln sobald er uns zur Verfügung steht.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. Feber 2021) im NIH Director’s Blog unter dem Titel: Is One Vaccine Dose Enough After COVID-19 Infection? https://directorsblog.nih.gov/2021/02/23/is-one-dose-of-covid-19-vaccine-enough-after-covid-19-infection/ . Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

COVID-19 Research (NIH) https://covid19.nih.gov/

Florian Krammer Laboratory https://labs.icahn.mssm.edu/krammerlab/dr-krammer/

Viviana Simon Laboratory https://labs.icahn.mssm.edu/simonlab/


 

inge Thu, 25.02.2021 - 01:34

Energie - der Grundstoff der Welt

Energie - der Grundstoff der Welt

Fr, 19.02.2021 — Redaktion

Redaktion

Icon Physik

Themenschwerpunkt Energie

Energie ist Ursprung aller Materie und auch das, was die Materie bewegt. Energieforschung und -Anwendung sind daher für unsere Welt von zentraler Bedeutung und beschäftigen Wissenschafter quer durch alle Disziplinen - Physiker, Chemiker, Geologen, Biologen, Techniker, etc., ebenso wie Wirtschafts- und Sozialwissenschafter. Mit dem bereits spürbaren Klimawandel steht Energie nun auch im Rampenlicht von Öffentlichkeit und Politik; das Ziel möglichst rasch fossile Energie durch erneuerbare Energie zu ersetzen, steht im Vordergrund. Energie ist auch im ScienceBlog von Anfang an eines der Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen. Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel findet sich nun in diesem Themenschwerpunkt.

Was versteht man überhaupt unter Energie?

Werner Heisenberg (1901 -1976), einer der bedeutendsten Physiker des 20. Jh, (Nobelpreis 1932) hat Energie so definiert: "Die Energie ist tatsächlich der Stoff, aus dem alle Elementarteilchen, alle Atome und daher überhaupt alle Dinge gemacht sind, und gleichzeitig ist die Energie auch das Bewegende."

Der Begründer der Quantenphysik Max Planck (1858 – 1947, Nobelpreis 1918) hat Energie beschrieben mit der Fähigkeit eines Körpers äußere Wirkungen hervorzubringen.

Richard Feynman (1918 - 1988), ebenfalls einer der ganz großen Physiker des 20. Jahrhunderts (und Nobelpreisträger) hat konstatiert: "Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."

Auch, wenn wir, wie Feynman meint, nicht wissen was Energie ist, so sagt die etablierte kosmologische Schöpfungsgeschichte, dass sie am Beginn des unermesslich dichten und heißen Universums - also zur Zeit des Urknalls - bereits vorhanden war. (Abbildung 1). Energie wurde dann Ursprung aller Materie und blieb uns in Form von Energie und Masse erhalten.

UrknallAbbildung 1. Urknall-Modell: Entstehung und Expansion des Weltalls. Das anfänglich sehr dichte und heiße Universum enthielt im kosmischen Plasma Photonen, die vorerst an den geladenen Teilchen gestreut wurden, Nach der Abkühlung und Entstehung von Atomen konnten sich die Photonen nahezu ungehindert ausbreiten = Hintergrundstrahlung. Danach begann allmählich unter der Wirkung der Gravitation die Kondensation der Materie zu den Strukturen wie wir sie heute beobachten.

Wie Albert Einstein vor etwas mehr als einem Jahrhundert entdeckte, sind Energie (E) und Masse (m) ja nur zwei Seiten einer Medaille und können ineinander umgewandelt werden; dieses Naturgesetz wird durch die berühmte Formel E = mc2 ausgedrückt, wobei c eine Konstante ist und für die Lichtgeschwindigkeit steht. Einer derartigen Umwandlung von Masse in Energie - als Ergebnis einer Kernfusion - verdanken wir die Sonnenstrahlung: im Sonnenkern verschmelzen Wasserstoffkerne (Protonen) zu einem Heliumkern, der etwas weniger Masse hat als die ursprünglichen Protonen. Die Massendifferenz wird in Energie umgewandelt und abgestrahlt. Eine vollständige Umwandlung von Masse in Energie hat in der für die Nuklearmedizin sehr wichtigen Positronen-Emissions-Tomografie (PET) Anwendung gefunden: wenn das Elementarteilchen Elektron auf sein Antiteilchen, das Positron stößt (das von einem Radiopharmakon emittiert wird), werden beide Teilchen in einer sogenannten Vernichtungsstrahlung annihiliert und es können dafür zwei hochenergetischen Photonen detektiert werden, die die Position des Radionuklids im Körper anzeigen.

Landläufig versteht man unter Energie die Fähigkeit eines Systems, "Arbeit" zu verrichten, wobei "Arbeit" ein weit gefasster Begriff ist und besser als die Fähigkeit des Systems verstanden werden sollte, Veränderungen zu bewirken. Die Übertragung der Energie erfolgt über Kräfte, die auf das System einwirken. Energie wird indirekt, nämlich über diese "Arbeit" auch gemessen: Die Einheit 1 Joule (j) entspricht dabei der Energie, die bei einer Leistung (d.i. Energieumsatz pro Zeiteinheit) von einem Watt in einer Sekunde umgesetzt wird.

Energie schafft Veränderungen in unbelebter und belebter Welt

Energie ist nötig, um einen Körper zu bewegen, ihn zu verformen, zu erwärmen, um Wellen im Bereich des elektromagnetischen Spektrum zu erzeugen (von der kürzestwelligen Höhenstrahlung über den für den Menschen sichtbaren Bereich bis zu den niederfrequenten Wechselströmen), um elektrischen Strom fließen zu lassen oder um chemische Reaktionen ablaufen zu lassen.

In unserem Alltagsleben benötigen wir Energie aus physikalisch/chemischen Prozessen, um von einem Ort zum anderen zu gelangen, um Bedürfnisse des Wohnens zu befriedigen, um diverseste Wirtschaftsgüter zu produzieren und, um eine Vielfalt an Mitteln zur Kommunikation und Unterhaltung bereit zu stellen.

Um leben zu können brauchen wir, wie alle Lebewesen, externe Energie. Externe Energie bedeutet für Pflanzen, Algen und auch einige Bakterien Sonnenenergie. Um diese einzufangen, nutzen sie den Sonnenkollektor Chlorophyll und verwandeln mittels der sogenannten Photosynthese Lichtenergie in chemische Energie: das heißt, sie synthetisieren aus den ubiquitären, energiearmen Ausgangsstoffen CO2 und Wasser energiereiche Kohlehydrate und in weiterer Folge alle für Aufbau und Wachstum nötigen Stoffe - Proteine, Lipide, Nukleinsäuren und die Fülle an Intermediärmetaboliten. Abbildung 2.

Stoffkreislauf

Abbildung 2: Photosynthese und Stoffkreislauf  (modifiziert nach Amsel, Sheri: “Ecosystem Studies Activities.” Energy Flow in an Ecosystem.  https://www.exploringnature.org/)

Für uns und alle nicht Photosynthese-tauglichen Lebewesen besteht die externe Energie aus den durch Photosynthese entstandenen energiereichen Stoffen, die über die Nahrungskette zu unseren Lebensmitteln werden. Wir oxydieren ("verbrennen") diese energiereichen Stoffe schrittweise unter hohem Energiegewinn (in Form der metabolischen Energiewährung ATP) schlussendlich zu den energiearmen Ausgangsprodukten der Photosynthese CO2 und Wasser.

Diesen schrittweisen Prozess haben bereits in der Frühzeit bestimmte Bakterien entwickelt; es waren dies zelluläre Kraftwerke, die später als Mitochondrien in die Zellen höherer Lebewesen integriert wurden und nun über Citratcyclus und Atmungskette den Großteil der von den Zellen benötigten chemischen Energie liefern.

Energieerhaltungssatz, Energieumwandlung und Energieverbrauch

Energie charakterisiert den Zustand eines System, ist also eine sogenannte Zustandsgröße. Der 1. Hauptsatz der Thermodynamik (Energieerhaltungssatz) ist ein bewiesener, fundamentaler physikalischer Satz; er sagt aus, dass in einem geschlossenen System Energie weder verloren gehen noch erzeugt werden kann. Energie kann nur von einem Körper auf den anderen übertragen und von einer Form in die andere verwandelt werden.

Kinetische Energie (Bewegungsenergie), wie beispielsweise in der Windkraft, in den Gezeiten oder im fließenden Wasser, kann mittels Turbinen /Generatoren in elektrische Energie umgewandelt werden und diese wiederum in chemische, mechanische und thermische Energie. Potentielle Energie (Lageenergie), die ein System aus seiner Lage in einem Kraftfeld erhält (im Gravitationsfeld wie beispielsweise Wasser im Stausee, im elektrostatischen Feld von Kondensatoren, oder im magnetischen Feld) oder auch in der in Stoffen gespeicherten chemischen oder nuklearen Energie, wird ebenfalls in unterschiedliche Energieformen verwandelt.

Wenn Energie erhalten bleibt, wie kommt es aber zum Energieverbrauch?

Wird Energie von einem Körper zum anderen übertragen und oder von einer Form in die andere umgewandelt, so entsteht dabei immer etwas an Energie, die für uns nicht (direkt) nutzbar ist. Infolge von Reibung, Abstrahlung, Ohmschen Widerständen wird ein Teil der zu übertragenden Energie in Wärmeenergie verwandelt, die an die Umgebung abgegeben wird. Ein herausragendes Beispiel von ineffizienter Energiewandlung ist die nun nicht mehr verwendete Glühlampe, die Auer von Welsbach entwickelt hat. Diese nutzt nur 10 % der elektrischen Energie zur Erzeugung von Strahlung (d.i. den Glühdraht zum Leuchten zu bringen), die 90 % restliche Energie heizen Lampe und Umgebung auf. Verlorene thermische Energie verteilt sich (man denke an die Aufnahmen der infraroten Strahlung von Häusern) und wird schlussendlich als IR-Strahlung in den Weltraum emittiert.

Auch, wenn in Summe die übertragenen/umgewandelten Energien konstant geblieben sind, ist ein Verbrauch an nutzbarer Energie entstanden.

Energieverbrauch und Klimawandel

Wachsender Wohlstand einer in den letzten Jahrzehnten unverhältnismäßig stark gewachsenen Weltbevölkerung bedeutet natürlich höheren Energiebedarf. Nach wie vor stammt der bei weitem überwiegende Teil (85 %) der globalen Primärenergie noch aus fossilen Quellen. Abbildung 3. Die Umwandlung der chemischen Energie in diesen fossilen Brennstoffen hat mit dem Anstieg des Energieverbrauchs zu einem rasanten Anstieg der CO2-Emissionen in allen Sparten geführt, die wiederum kausal für den nun nicht mehr wegdiskutierbaren Klimawandel stehen.

Abbildung 3. Der globale Verbrauch von Primärenergie ist seit 1965 stetig gestiegen und speist sich zum überwiegenden Teil aus fossilen Energieträgern. Solar- und Windenergie spielen eine minimale Rolle. Primärenergie: Energie, die aus natürlich vorkommenden Energieformen/-quellen zur Verfügung steht. In einem mit Verlusten behafteten Umwandlungsprozess (z.B. Rohöl zu Benzin) entsteht daraus die Sekundärenergie/Endenergie. (Grafik modifiziert nach: BP Statistical Review of World Energy, 67th ed. June 2018)

Um atmosphärisches CO2 zu reduzieren, ist ein Umbau des Energiesystems unabdingbar - weg von fossiler Energie, hin zu erneuerbarer Energie, wobei hier die Erzeugung von elektrischer Energie durch Windkraft, Solarenergie, Wasserkraft und Biomasse im Vordergrund steht. Ob ein solcher Umbau allerdings rasch erfolgen kann, ist fraglich. Auch bei Akzeptanz durch politische Entscheidungsträger, vorhandener Finanzierung und Zustimmung der Bevölkerung fehlen nicht nur in Europa ausreichend große, für den Ausbau von Windkraft und Solarenergie geeignete Flächen.

Der Schlüssel für eine sofort wirksame globale CO2-Reduktionsstrategie ist Energieeinsparung: d.i. ohne Einbußen mit weniger Primärenergie auskommen, indem man den Energieverbrauch senkt, d.i. die Umwandlung zu nicht nutzbarer Energie reduziert. Dies ist u.a. möglich durch thermische Isolation, industrielle Verbesserungen, Wärmepumpen für Kühlung & Heizung, etc.

 


Energie - Themenschwerpunkt im ScienceBlog

Von Anfang an gehört Energie zu unseren Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen. Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energieumwandlung in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel ist nun in einem Themenschwerpunkt "Energie" zusammengefasst. Derzeit sind die Artikel unter drei Themenkreisen in chronologische Reihenfolge gelistet.

Energie, Aufbau der Materie und technische Anwendungen

Francis S. Collins, 27.8.2020: Visualiserung des menschlichen Herz-Kreislaufsystems mittels Positronen-Emissions-Tomographie (PET)

Claudia Elisabeth Wulz, 18.1.2018: Die bedeutendsten Entdeckungen am CERN

Robert Rosner, 13.7.2017:Marietta Blau: Entwicklung bahnbrechender Methoden auf dem Gebiet der Teilchenphysik

Stefan W.Hell, 7.7.2017: Grenzenlos scharf — Lichtmikroskopie im 21. Jahrhundert

Josef Pradler, 17.6.2016: Der Dunklen Materie auf der Spur

Manfred Jeitler, 21.2.2013: Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?

Manfred Jeitler, 7.2.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

Michael Grätzel, 18.10.2012,Der Natur abgeschaut: Die Farbstoffsolarzelle

Peter Christian Aichelburg, 16.08.2012: Das Element Zufall in der Evolution

Energie und Leben

Inge Schuster, 10.10.2019: Wie Zellen die Verfügbarkeit von Sauerstoff wahrnehmen und sich daran anpassen - Nobelpreis 2019 für Physiologie oder Medizin

Antje Boetius, 13.05.2016: Mikrobiome extremer Tiefsee-Lebensräume

Peter Lemke, 30.10.2015: Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Gottfried Schatz, 08.11.2013: Die Fremden in mir — Was die Kraftwerke meiner Zellen erzählen

Gottfried Schatz, 14.03.2013: Der lebenspendende Strom — Wie Lebewesen sich die Energie des Sonnenlichts teilen

Gottfried Schatz, 01.11.2012: Grenzen des Ichs — Warum Bakterien wichtige Teile meines Körpers sind

Gottfried Schatz, 27.09.2012: Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt

Energieformen, Energiewende

Georg Brasseur, 10.12. 2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg Brasseur, 24.09.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität"

Anton Falkeis & Cornelia Falkeis-Senn, 30.01.2020: Nachhaltige Architektur im Klimawandel - das "Active Energy Building"

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Robert Schlögl,26.09.2019: Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

Robert Schlögl,22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.

Robert Schlögl,08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Robert Schlögl,18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Robert Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Robert Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog">

Robert Rosner, 20.12.2018: Als fossile Brennstoffe in Österreich Einzug hielten

IIASA, 08.02.2018: Kann der Subventionsabbau für fossile Brennstoffe die CO₂ Emissionen im erhofften Maß absenken?

IIASA, 11.03.2016: Saubere Energie könnte globale Wasserressourcen gefährden

IIASA, 08.01.2016: Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?

Gerhard Glatzel, 18.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 3 – Zurück zur Energie aus Biomasse

Gerhard Glatzel, 05.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 2

Gerhard Glatzel, 21.03.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 1 – Energiewende und Klimaschutz

Erich Rummich, 02.08.2012: Elektromobilität – Elektrostraßenfahrzeuge

Gottfried Schatz, 19.04.2012, Die lange Sicht - Wie Unwissen unsere Energiezukunft bedroht

Helmut Rauch, 04.08.2011: Ist die Kernenergie böse?


 

inge Fri, 19.02.2021 - 20:30

Kartierung von Coronavirus-Mutationen - Virusvarianten entkommen der Antikörper-Behandlung

Kartierung von Coronavirus-Mutationen - Virusvarianten entkommen der Antikörper-Behandlung

Do, 11.02.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin In den letzten Tagen überstürzen sich die Pressemeldungen über neue Varianten von SARS-CoV-2 - dem Verursacher von COVID-19 -, die in anderen Teilen der Welt aufgetreten sind und auch bei uns bereits entdeckt werden. Insbesondere bei der erstmals in Südafrika identifizierten, mit B.1.351 bezeichneten Variante, wächst die Besorgnis inwieweit deren Mutationen dem Virus helfen könnten den derzeit aktuellen Behandlungen mit Antikörpern und hochwirksamen Impfstoffen zu entkommen. Francis S. Collins, ehem. Leiter des Human Genome Projects, ist langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff mRNA-1723 designt und entwickelt haben. Er berichtet über NIH-geförderte Untersuchungen, welche aus der Kartierung der Mutationen am Strukturmodell des viralen Spike-Proteins Aussagen zu Wirksamkeit von Antikörpern und Vakzinen ermöglichen.*

Im Laborversuch ist es bereits möglich vorherzusagen, welche Mutationen dem SARS-CoV-2 Virus dazu verhelfen werden, unseren Therapien und Impfstoffen zu entkommen, und sich sogar auf das Auftreten neuer Mutationen vorzubereiten, noch bevor diese auftreten. Eben dies hat eine NIH-finanzierte Studie gezeigt, die ursprünglich im November als bioRxiv-Vorabdruck erschien und kürzlich, von Experten begutachtet, in Science veröffentlicht wurde. In dieser Studie haben die Forscher alle möglichen Mutationen kartiert, die es SARS-CoV-2 ermöglichen würden, einer Behandlung mit drei verschiedenen monoklonalen Antikörpern zu widerstehen, welche für die Behandlung von COVID-19 entwickelt wurden [1].

Unter der Leitung von Jesse Bloom, Allison Greaney und Tyler Starr vom Fred Hutchinson Cancer Center in Seattle hat sich die Untersuchung auf die Schlüsselregion des Spike-Proteins, die sogenannte Rezeptorbindungsdomäne (RBD), konzentriert. Mit dieser RBD dockt das an der Virusoberfläche sitzende Protein an den ACE2-Rezeptor menschlicher Zellen an, um dann in die Zellen einzudringen und sie zu infizieren. Das macht die RBD zu einem Hauptangriffspunkt für Antikörper, die unser Körper erzeugt, um sich gegen das Virus zu verteidigen. Abbildung 1.

Abbildung 1. Die Rezeptorbindungsdomäne (grau) des Spike-Proteins mit Regionen, an die 4 unterschiedliche Antikörpertypen binden. Kryoelektronenmikroskopische Untersuchungen. Mit Sars-CoV-2 (oder anderen Erregern) infizierte Menschen generieren Tausende unterschiedliche Antikörper um den Eindringling abzuwehren. (Bild aus F.S.Collins https://directorsblog.nih.gov/2020/12/03/caught-on-camera-neutralizing-antibodies-interacting-with-sars-cov-2/credit:Christopher Barnes, California Institute of Technology, Pasadena)

Mutationen in der RBD…

Um herauszufinden, welche Mutationen einen positiven oder negativen Einfluss auf die Bindung der RBD an den Rezeptor ACE2 haben und /oder Antikörper daran hindern auf ihr Ziel am Spike-Protein zu treffen, haben die Forscher eine Methode namens Deep Mutational Scanning angewandt. Diese funktioniert folgendermaßen: Statt auf das Auftreten neuer Mutationen zu warten, haben die Forscher eine Bibliothek von RBD-Fragmenten generiert, von denen jedes eine Änderung in einem einzelnen Nukleotid-„Buchstaben“ enthielt und zum Austausch einer Aminosäure durch eine andere führte. Es stellt sich heraus, dass mehr als 3.800 solcher Mutationen möglich sind, und das Team von Bloom hat es geschafft, alle bis auf eine Handvoll dieser Versionen des RBD-Fragments herzustellen.

…und Auswirkungen auf Antikörper-Erkennung und -Bindung

Das Team hat dann mittels einer Standardmethode systematisch analysiert, wie jeder dieser Einzelbuchstaben die Fähigkeit von RBD veränderte, an ACE2 zu binden und menschliche Zellen zu infizieren. Sie haben auch bestimmt, wie sich diese Veränderungen auf die Erkennung und Bindung von drei verschiedenen therapeutischen Antikörpern an die virale RBD auswirkten. Zu diesen Antikörpern gehören zwei von Regeneron entwickelte Antikörper (REGN10933 und REGN10987), die gemeinsam als Cocktail die Genehmigung der Notfallanwendung zur Behandlung von COVID-19 erhalten hatten. Es wurde auch ein von Eli Lilly entwickelter Antikörper (LY-CoV016) untersucht, der sich derzeit in klinischen Phase-3-Studien zur Behandlung von COVID-19 befindet.

"Flucht"karten

Basierend auf den Ergebnissen haben die Forscher vier Mutationskartierungen erstellt (Abbildung 2), die darstellen, wie SARS-CoV-2 jedem der drei therapeutischen Antikörper, sowie dem REGN-COV2-Cocktail entkommen kann. Die meisten Mutationen, die es SARS-CoV-2 ermöglichen würden, der Behandlung zu entkommen, waren bei beiden Regeneron-Antikörpern verschieden. Dies ist ermutigend, da es darauf hinweist, dass das Virus wahrscheinlich mehr als eine Mutation benötigt, um gegen den REGN-COV2-Cocktail resistent zu werden. Es scheint jedoch einen Punkt zu geben, an dem eine einzelne Mutation es dem Virus ermöglichen könnte, der REGN-COV2-Behandlung zu widerstehen.

Abbildung. Die Rezeptorbindungsdomäne des Spike-Proteins, an die Antikörper (blass lila) gebunden sind. Diese „Fluchtkarte“ zeigt an, wo in der viralen RBD neue Mutationen die Antikörper am wahrscheinlichsten weniger wirksam machen (rot). Es zeigt auch Orte, an denen Mutationen die Antikörperbindung am wenigsten beeinflussen (weiß) und an denen Mutationen nicht fortbestehen können, weil sie die Funktionsfähigkeit der RBD beeinträchtigen würden (grau). (Bildnachweis: Nach TN Starr, Science, 2021 [1]).

Die Fluchtkarte für LY-CoV016 zeigte ebenfalls eine Reihe von Mutationen, die es dem Virus ermöglichen könnten, zu entkommen. Während einige dieser Änderungen die Infektionsfähigkeit des Virus beeinträchtigen könnten, schienen die meisten von ihnen mit geringem bis keinem Nachteil für die Reproduktion des Virus verbunden zu sein.

Evolution des Virus bei langdauernder Antikörperbehandlung

In welcher Beziehung stehen diese Labordaten zur realen Welt? Um diese Frage zu untersuchen, haben sich die Forscher mit Jonathan Li (Brigham and Women's Hospital, Boston) zusammengetan. Sie haben den Fall eines immungeschwächten Patienten angesehen, der ungewöhnlich lange an COVID-19 litt und 145 Tage lang mit dem Regeneron-Cocktail behandelt wurde, was dem Virus Zeit gab sich zu replizieren und neue Mutationen zu erwerben.

Die viralen Genomdaten des infizierten Patienten zeigten, dass die Mutationskarten tatsächlich verwendet werden können, um wahrscheinliche Wege der viralen Evolution vorherzusagen. Im Verlauf der Antikörperbehandlung zeigte SARS-CoV-2 Veränderungen in der Häufigkeit von fünf Mutationen, welche die Konformation des Spike-Proteins und seiner RBD verändern dürften. Basierend auf den neu erstellten "Flucht"karten lässt sich erwarten, dass drei dieser fünf Mutationen die Wirksamkeit von REGN10933 verringern und eine der beiden anderen die Bindung an den anderen Antikörper, REGN10987.

Die Forscher haben auch Daten aller bekannten zirkulierenden SARS-CoV-2-Varianten (bis 11. Januar 2021) untersucht, um Hinweise auf "Flucht"mutationen zu erhalten. Sie fanden heraus, dass es insbesondere in Teilen Europas und Südafrikas bereits eine beträchtliche Anzahl von Mutationen gibt, die das Potential haben der Antikörperbehandlung zu entkommen.

Ausblick

Es ist allerdings zu beachten, dass die "Flucht"Karten nur drei wichtige Antikörperbehandlungen widerspiegeln. Nach Blooms Aussagen wird das Team weiterhin Mutationskarten für andere vielversprechende therapeutische Antikörper erstellen. Man wird auch weiterhin untersuchen, wo Veränderungen des Virus es ermöglichen könnten, den vielfältigeren Antikörpern zu entkommen, die unser Immunsystem nach einer COVID-19-Infektion oder -Impfung produziert.

Wenn es auch möglich ist, dass einige COVID-19-Impfstoffe weniger Schutz gegen einige dieser neuen Varianten bieten - und die jüngsten Ergebnisse deuten darauf hin, dass der AstraZeneca-Impfstoff möglicherweise nicht viel Schutz gegen die südafrikanische Variante bietet -, geben die meisten anderen aktuellen Impfstoffe immer noch genügend Schutz, um einen schweren Verlauf, eine Krankenhauseinweisung und den Tod zu verhindern. Um SARS-CoV-2 daran zu hindern, dass es neue Wege findet, auf denen es unseren laufenden Anstrengungen zur Beendigung dieser schrecklichen Pandemie entkommt, besteht der beste Weg darin , alles zu verdoppeln, was wir tun können, um zu verhindern, dass sich das Virus überhaupt vermehrt und verbreitet.

Jetzt sollte uns alle das Auftreten dieser neuen Varianten anspornen, Schritte zu unternehmen, um die Ausbreitung von SARS-CoV-2 zu verlangsamen. Das bedeutet: eine Maske tragen, auf die Distanz achten, die Hände häufig waschen. Es bedeutet auch, die Ärmel hochzukrempeln, um sich impfen zu lassen, sobald sich die Gelegenheit ergibt.


[1] Prospective mapping of viral mutations that escape antibodies used to treat COVID-19. Starr TN, Greaney AJ, Addetia A, Hannon WW, Choudhary MC, Dingens AS, Li JZ, Bloom JD. Science. 2021 Jan 25:eabf9302.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. Feber 2021) im NIH Director’s Blog unter dem Titel: "Mapping Which Coronavirus Variants Will Resist Antibody Treatments " https://directorsblog.nih.gov/2021/02/09/mapping-which-coronavirus-variants-will-resist-antibody-treatments/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den Blog adaptiert. Abbildung 1 stammt aus einem früheren Artikel von FS Collins (zitiert), Abbildung 2 aus [1]. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Artikel von Francis S. Collins zu COVID-19 im ScienceBlog

 

Bloom Lab ((Fred Hutchinson Cancer Center, Seattle) https://research.fredhutch.org/bloom/en.html


 

inge Wed, 10.02.2021 - 23:59

Comments

Rita Bernhardt (not verified)

Thu, 18.02.2021 - 17:40

Ein sehr interessanter Beitrag. Ich gehe davon aus, dass die diskutierten Arbeiten auch Ausgangspunkt für die Herstellung veränderter (an Mutanten angepasster) Impfstoffe sein wird.

Der russische COVID-19 Impfstoff Sputnik V zeigt gute Verträglichkeit und exzellente Wirksamkeit auch bei der älteren Bevölkerung

Der russische COVID-19 Impfstoff Sputnik V zeigt gute Verträglichkeit und exzellente Wirksamkeit auch bei der älteren Bevölkerung

Do 04.02.2021.... Inge Schuster Inge SchusterIcon Medizin

Vorgestern ist der Zwischenbericht zu Wirksamkeit und Sicherheit des russischen Corona-Impfstoffes Gam-COVID-Vac ("Sputnik V") im Fachjournal Lancet erschienen und die Daten sind beindruckend [1]. In der noch laufenden klinischen Phase 3 Studie wurden rund 20 000 Probanden im Abstand von 21 Tagen mit 2 Serotypen des Adenovirus-basierten Vektor-Impfstoffs geimpft. Die Impfung zeigte über alle Altersgruppen (18 bis über 60 Jahre) hinweg Wirksamkeiten von 91,6 % und keine limitierenden Nebenwirkungen.

Seit März 2020 ist die Corona-Pandemie das Hauptthema im ScienceBlog. Anschliessend an eine kurze Darstellung der neuen Daten zu Sputnik V findet sich eine Liste der 25 bis jetzt erschienenen Artikel.

Wie im Falle der drei, bereits in der EU registrierten COVID-19 Vakzinen, konnte auch der Vektor-Impfstoff Sputnik V auf dem Boden langjähriger Expertise beschleunigt designt und entwickelt werden. Unter dem Leiter der aktuellen Studie Denis Y. Logunow (Gamaleya Nationales Forschungszentrum für Epidemiologie und Mikrobiologie, Moscow, Russia) war bereits ein Ebola-Impfstoff erfolgreich entwickelt und (in Russland) registriert worden und ein Impfstoff gegen das MERS-Coronavirus bis in die klinische Phase 2 gebracht.

Sputnik V

baut auf diesen Erfahrungen auf. Sputnik V basiert auf dem Prinzip eines modifizierten, nicht vermehrungsfähigen humanen Adenovirus, in den das kodierende Gen für das Spike-Protein eingeschleust wurde, dem Protein mit dem SARS-CoV-2 an die Wirtszellen andockt (siehe dazu [2]). Um eine robuste Immunantwort zu erhalten, werden 2 Dosen Sputnik im Abstand von 21 Tagen appliziert; die erste Dosis besteht aus dem modifizierten Adenovirus Typ 26 (rAd26-S) und die zweite, zur Steigerung ("Boosten") der Reaktion aus dem modifizierten Adenovirus Typ 5 (rAd5-S)). (Da die zweifache Impfung mit einem Vektor zum Aufbau einer massiven Immunantwort gegen Komponenten des Vektors selbst führen kann, welche die erwünschte Immunantwort gegen das Spike-Protein schwächen könnte, hofft man eine solche Reaktion mit zwei unterschiedlichen Vektoren zu minimieren.)

Die Phase 3-Studie

In der noch weiterlaufenden klinischen Phase 3 Studie - randomisiert, Plazebo-kontrolliert und doppelt-blind - wurden bis jetzt rund 20 000 freiwillige Probanden untersucht. 75 % der Probanden wurden dabei mit der Vakzine, 25 % mit dem Placebo geimpft. Die Probanden gehörten den Altersgruppen 18 - 30 Jahre, 31 - 40 Jahre, 41 - 50 Jahre, 51 - 60 Jahre und über 60 Jahre an. (Zur letzten Altersgruppe gehörten immerhin mehr als 2100 Probanden, rund 18 % waren 70 - 84 Jahre alt.)

Insgesamt litt ungefähr ein Viertel der Probanden unter Begleiterkrankungen, bei den über 60-Jährigen waren es mehr als 46% (Bluthochdruck, , koronare Herzerkrankungen, Adipositas, u.a.)

Der Schutzeffekt der Impfung gegen COVID-19 wurde ab etwa dem 18. Tag nach der ersten Sputnik-Dose evident.

Bei einer gleich guten Verträglichkeit, wie sie auch in den Untersuchungen mit den mRNA-Impfstoffen von Pfizer /BionTech und Moderna/NIAID und dem Vektor-Impfstoff von AstraZeneeca beobachtet wurde, erzielte Sputnik V ab dem 21. Tag nach der ersten Impfung eine sehr hohe Wirksamkeit von 91,6 % in allen Altersgruppen: COVID-19 wurde bei 62 (1•3%) der 4902 Personen in der Placebo-Gruppe und  bei 16 (0•1%) der 14 964 Personen in der Vakzine-Gruppe festgestellt. (In der Gruppe der über 60-Jährigen befanden sich immerhin 1611 Probanden in der Vakzine Gruppe und 533 in der Plazebogruppe: 2 COVID-19 Fälle wurden in der Vakzine-Gruppe, 8 in der Placebogruppe nachgewiesen.)

Fazit

Sputnik V scheint über alle Altersstufen hinweg verträglich und hochwirksam zu sein. Während für den wesentlich schwächer wirksamen, ebenfalls auf Adenoviren basierenden Impfstoff von AstraZeneca noch verlässliche Daten zur Wirksamkeit bei der älteren Bevölkerung (d.i. ab 55 Jahren) und bei Menschen mit Begleiterkrankungen - trotz Freigabe durch die EMA - fehlen, sind solche Daten in der Sputnik V Studie zweifelsfrei erhoben. Darüber hinaus zeichnet sich Sputnik V - im Vergleich zu den gleich exzellenten mRNA-Impfstoffen - durch hohe Stabilität und Lagerfähigkeit (in gefrorenem oder lyophilisiertem Zustand) aus.

Sputnik V ist somit eine wertvolle Bereicherung des Arsenals an Impfstoffen zur Eindämmung der COVID-19. Pandemie.


[1] D.Y.Logunow et al.,: Safety and efficacy of an rAd26 and rAd5 vector-based heterologous prime-boost COVID-19 vaccine: an interim analysis of a randomised controlled phase 3 trial in Russia. Published Online February 2, 2021 https://doi.org/10.1016/ S0140-6736(21)00234-8

[2] Inge Schuster, 22.01.2021: COVID-19-Impfstoffe - ein Update


Zur Corona-Pandemie bis jetzt erschienene Artikel im ScienceBlog


 

inge Thu, 04.02.2021 - 18:54

Comments

Rita (not verified)

Fri, 05.02.2021 - 07:04

Wie aktuell die Autorin ist, zeigt wieder einmal dieser Beitrag.
Es ist für mich beschämend, mit wieviel Kritik und gar Häme die Entwicklung und Testung des russischen Impfstoffs Sputnik V zuvor in Westeuropa (zumindest in Deutschland) begleitet wurde. Nun können wir vielleicht froh sein, wenn er in Dessau produziert werden kann, um uns danach zur Verfügung zu stehen und das europäische Portfolio zu füllen. Obige Kritiker sollten nachdenken und sich vielleicht auch hier und da entschuldigen.

Rita Berrnhardt

Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben

Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben

Mo 01.02.2021.... Inge Schuster Inge SchusterIcon Medizin

Am 29. Jänner 2021 hat die European Medicines Agency (EMA) die bedingte Zulassung des COVID-19 Impfstoffs von AstraZeneca/University Oxford empfohlen [1], die noch am selben Tag von der Europäischen Kommission (EC) erteilt wurde [2]. In der Praxis viel leichter anwendbar als die bereits zugelassenen mRNA-Impfstoffe und wesentlich billiger , ist der Impfstoff auch für entlegenere Regionen tauglich und für ärmere Gesundheitssysteme leistbar. Das Problem dabei: die eingereichten klinischen Studien weisen insgesamt nur einen geringen Anteil an Risiko-Probanden - also ältere und/oder vorerkrankte Personen auf, dennoch wurde der Impfstoff für alle Altersstufen ab 18 Jahren zugelassen. Diese, auf unzureichender Datenlage basierende Entscheidung spielt zweifellos Impfkritikern in die Hände.

Vor wenigen Tagen ist im ScienceBlog ein Artikel erschienen, der wesentliche Daten zu den klinischen Studien mit den drei COVID-19 Impfstoffen von Pfizer/BionTech, Moderna/NIAID und AstraZeneca/University Oxford zusammenfasst [3]. Der heutige Bericht beschäftigt sich im Wesentlichen mit der aktuellen Zulassung des AstraZeneca Impfstoffes (CHAdOx1 oder AZD1222) für alle EU-Bürger ab 18 Jahren trotz unzureichender Datenlage zur Wirksamkeit bei älteren und oder kranken Bevölkerungsgruppen (Details in [4] samt Appendix).

Was bedeutet bedingte Zulassung?

Bedingte Zulassungen sind in den EU-Rechtsvorschriften speziell für Notfälle im Bereich der öffentlichen Gesundheit vorgesehen. Ein Arzneimittel kann dann zugelassen werden, auch wenn noch nicht alle für eine normale Zulassung erforderlichen Daten vorliegen. Aus den vorhandenen Daten muss jedoch hervorgehen, dass der Nutzen der sofortigen Verfügbarkeit des Arzneimittels die Risiken im Zusammenhang mit der unvollständigen Datenlage deutlich überwiegt und es den EU-Standards entspricht. Nach der Erteilung einer bedingten Zulassung muss ein Unternehmen dann innerhalb bestimmter Fristen weitere Daten vorlegen, zum Beispiel aus laufenden oder neuen Studien, um zu belegen, dass der Nutzen die Risiken nach wie vor überwiegt [2].

Das Prinzip des Vektor-Impfstoffs

Wie bereits früher beschrieben handelt es sich dabei um einen sogenannten Vektor-Impfstoff, der auf der Immunantwort gegen das an der Oberfläche des SARS-CoV-2 Virus lokalisierte Spike-Protein beruht, mit dem das Virus an die Wirtszellen andockt und in diese eindringt [3]. Als Vektor dient ein im Menschen nicht vermehrungsfähiges (und für diesen damit ungefährliches) Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein (in einer nicht-spaltbaren, stabilisierten Form) eingeschleust ist. Wenn bei der Impfung der Vektor in die Wirtszellen eindringt, gelangt das Spike-Gen in den Zellkern und wird dort in seine mRNA übersetzt (transkribiert). Daraus wird dann im Zellsaft das Spike-Protein synthetisiert, welches das Immunsystem als fremd erkennt; es produziert spezifische Antikörper dagegen und aktiviert weiße Blutzellen (T-Zellen), die im Fall einer späteren Infektion mit SARS-CoV-2 das Virus attackieren und eliminieren. Auch im Fall der beiden bereits zugelassenen Impfstoffe von Pfizer/BionTech und Moderna/NIAID richtet sich die Immunantwort gegen das Spike-Protein, hier wird allerdings die für das Spike-Protein kodierende mRNA geschützt in Lipidpartikeln direkt eingesetzt.

Kein repräsentativer Querschnitt der Bevölkerung in klinischen Studien mit der AstraZeneca Vakzine

Bereits vom Beginn der Corona-Pandemie an war es offensichtlich, dass ältere Personen und/oder solche mit schwereren Grunderkrankungen (wie Herz-Kreislauferkrankungen, Diabetes, Asthma, etc...) ein erhöhtes Risiko haben an COVID-19 schwer zu erkranken. Während solche Risikogruppen in den klinischen Studien der mRNA-Impfstoffproduzenten Pfizer/BionTech und Moderna/NIAID voll berücksichtigt wurden (6000 und mehr Probanden wurden in der Altersklasse 65 - 74 Jahre und immerhin noch 1300 -1500 über 75-Jährige rekrutiert und bis über 46 % aller Probanden verzeichneten zum Teil schwere Begleiterkrankungen), war die Gruppe solcher Probanden in den AstraZeneca Studien klein [3]: In den von der EMA-Entscheidung berücksichtigen Studien in UK (COV002) und Brasilien (COV003) gab es gerade einmal 1074 Personen (jeweils zur Hälfte Vakzine- oder Placebo-Gruppe) im Alter von 56 - 69 Jahren und rund 440, die 70 Jahre und älter waren [3]. Für eine statistisch signifikante Evaluierung der Wirksamkeit in diesen Altersgruppen, waren diese Zahlen zweifellos zu klein. (In einer UK-Studie an ausschließlich 18 - 55-Jährigen mit insgesamt rund 2 700 Probanden war in der Placebo-Gruppe eine COVID-19-Inzidenz von 1,6 % nachgewiesen worden. Eine ähnliche Inzidenz in der Placebo-Gruppe der 56 - 69-Jährigen würde 8 - 9 Fällen ergeben und 3,5 in der Placebo Gruppe der 70+-Jährigen). Wie oben erwähnt wurden Personen mit schwereren Begleiterkrankungen nicht in die Studien aufgenommen (Ausschlusskriterien waren beispielsweise auch COPD, Asthma, Autoimmunerkrankungen, die chronische Einnahme von Blutverdünnern, Tumorbehandlungen).

Darüber hinaus gab es in diesen klinischen Studien eine Reihe an Ungereimtheiten wie versehentlich falsche Dosierungen, unterschiedliche Intervalle zwischen den einzelnen Dosen und eine Analyse, welche die Ergebnisse aus eigentlich nicht kompatiblen Studien einfach poolte [3].

Mit einer Wirksamkeit von rund 60 % übersteigt der AstraZeneca-Impfstoff den von der WHO geforderten Mindestwert von 50 %, liegt aber weit unter der Wirksamkeit der mRNA-Impfstoffe von Pfizer und Moderna (um 94 % und das auch für die alte Bevölkerung) [3].

Die Entscheidung der EMA

Wie oben erwähnt hat die EMA den Einsatz des AstraZeneca-Impfstoffs ohne Altersobergrenze für alle Bürger ab 18 empfohlen. Allerdings hat sie darauf hingewiesen, dass es noch nicht genügend Daten gibt, um über die Wirksamkeit bei älteren Menschen (laut EMA "über 55 Jahre alte Personen") zu urteilen. Und fährt fort: "Allerdings erwartet man einen Schutz, da man in dieser Altersgruppe eine Immunantwort beobachtet und auf Erfahrungen mit anderen Impfstoffen fußt. Da es verlässliche Daten zur Sicherheit in dieser Population gibt, waren die wissenschaftlichen Experten der EMA der Ansicht, dass der Impfstoff bei älteren Erwachsenen angewendet werden kann. Mehr Daten werden aus laufenden Studien erwartet, an denen ein höherer Anteil älterer Teilnehmer teilnimmt."

Die zitierte "beobachtete Immunantwort" leitet sich aus einer kleineren Phase 2/3 Studie her, in der Ramasamy et al. (University Oxford) Probanden unterschiedlichen Alters (18 bis über 70 Jahre) und ohne schwerere Erkrankungen auf die Entstehung neutralisierender Antikörper und aktivierter T-Zellantwort gegen das Spike-Protein untersuchten und solche auch in allen Altersgruppen fanden [5]. Dass mit zunehmendem Alter eine Schwächung des Immunsystems eintritt - die sogenannte Immunoseneszenz -, ist ein Faktum. Ob und in welchem Ausmaß die Präsenz neutralisierender Antikörper mit der Wirksamkeit gegen COVID-19 bei alten, gebrechlichen und oft auch an mehreren Krankheiten leidenden Menschen korreliert, muss erst klinisch bewiesen werden.

Die von Ramasamy et al., zitierten Erfahrungen mit anderen Vektor-Vakzinen gegen respiratorische RSV-Viren [5] beziehen sich jedenfalls auf kleine Studien an Impfstoffkandidaten, in denen ebenfalls nur auf Immunogenität - d.i, Antikörperbildung und T-Zellantwort - getestet wurde.

Es sollte vielleicht auch erwähnt werden, dass Vektor-Vakzinen eine Immunantwort nicht nur gegen das eingeschleuste Target, sondern auch gegen Komponenten (Proteine) des Vektors selbst erzeugen. Ob sich diese nun positiv oder negativ auf die Immunantwort gegen das Spike-Protein auswirken, ist fraglich. (Zu den Ausschlusskriterien an den Phase-3-Studien der AstraZeneca-Vakzine gehören jedenfalls andere Impfungen 30 Tage, resp. 7 Tage im Falle von Influenza oder Meningokokken, vor jeder Dosis des COVID-19 Impfstoffs. Appendix zu [4], p. 135).

Die Ansicht der EMA-Experten: "Da es verlässliche Daten zur Sicherheit in dieser Population gibt, waren die wissenschaftlichen Experten der EMA der Ansicht, dass der Impfstoff bei älteren Erwachsenen angewendet werden kann." klingt merkwürdig, eher nach einer Umschreibung von: "wenn's nichts hilft wird's auch nicht schaden.

Fazit

Gerade für die prioritär vor COVID-19 zu schützenden Gruppen, der alten, gebrechlichen und/oder an schwereren Krankheiten leidenden Menschen fehlen ausreichende Wirksamkeitsdaten. Ein schwächeres Immunsystem in diesen Populationen könnte die bei Jüngeren (18 - 55 -Jährigen) bestimmte Wirksamkeit der AstraZeneca-Vakzine von 60 % auch unter das von der WHO geforderte Limit von 50 % bringen. Bis aus laufenden, weiteren Studien signifikante Ergebnisse zur Wirksamkeit an den vulnerablen Gruppen vorliegen, sollte man die Anwendung der Vakzine nur in der Altersgruppe 18 - 55 Jahren erwägen.

Die Zulassung für alle Altersstufen ab 18 Jahren konterkariert wohl auch das Vertrauen in ein wissenschaftlich-basiertes Vorgehen der EMA und bietet gleichzeitig den Impfgegnern Munition: zu schnell entwickelt, ohne ausreichende Daten zugelassen.


 [1] EMA recommends COVID-19 Vaccine AstraZeneca for authorisation in the EU (29.01.2021) https://www.ema.europa.eu/en/news/ema-recommends-covid-19-vaccine-astrazeneca-authorisation-eu

[2] Europäische Kommission erteilt dritte Zulassung für sicheren und wirksamen Impfstoff gegen COVID-19. Pressemitteilung. https://ec.europa.eu/commission/presscorner/detail/de/ip_21_306

[3] Inge Schuster, 22.01.2021: COVID-9-Impfstoffe - ein Update

[4] M.Voysey et al., Safety and efficacy of the ChAdOx1 nCoV-19 vaccine (AZD1222) against SARS-CoV-2: an interim analysis of four randomised controlled trials in Brazil, South Africa, and the UK. Lancet. 2021 Jan 9; 397(10269): 99–111. doi: 10.1016/S0140-6736(20)32661-1

[5] M.N. Ramasamy et al., Safety and immunogenicity of ChAdOx1 nCoV-19 vaccine administered in a prime-boost regimen in young and old adults (COV002): a single-blind, randomised, controlled, phase 2/3 trial. Lancet 2020; 396: 1979–93


 

inge Mon, 01.02.2021 - 12:31

Comments

Rita (not verified)

Fri, 05.02.2021 - 07:04

Der Artikel zur Zulassung des AstraZeneca Impfstoffs trifft den Nagel auf den Kopf.
Die Autorin hat hier und im vorigen Beitrag klar die Vor- und Nachteile der verschiedenen Impfstoffe dargelegt.
Ihre Ausführungen sollten Pflichtlektüre der politischen Entscheidungsträger sein.
Ich bin froh, dass die deutsche Ständige Impfkommission Stiko den Impfstoff vorerst nur für jüngere Leute zugelassen hat.
Und wie die Autorin richtig bemerkt: es ist schade, dass durch die EMA Entscheidung Impfgegnern Argumente präsentiert werden.

Rita Bernhardt

Transformationen auf dem Weg in eine Post-COVID Welt - Stärkung der Wissenschaftssysteme

Transformationen auf dem Weg in eine Post-COVID Welt - Stärkung der Wissenschaftssysteme

Do, 28.01.2021 IIASA

IIASAIcon Politik & Gesellschaft Trotz vergangener Warnungen vor einer Infektionskrankheit, die in eine "globale Katastrophe" münden könnte, ist die Welt von COVID-19 überrascht worden. Bereits In der Anfangsphase der Pandemie haben das Internationale Institut für Angewandte Systemanalyse (IIASA) und der Internationale Wissenschaftsrat (ISC) eine IIASA-ISC-Consultative Science Platform geschaffen. Das Ziel war aus den Lehren der Pandemie Empfehlungen für strukturelle Transformationen abzuleiten, welche eine nachhaltigere und widerstandsfähigere Zukunft ermöglichen sollten. Eines der vier Themen der Plattform war die Stärkung der Wissenschaftssysteme, um damit eine effektivere Reaktion auf künftige globale Krisen zu gewährleisten. Der Report "Strengthening Science Systems" ist eben erschienen; der folgende Text enthält die übersetzte Zusammenfassung.*

Das Internationale Institut für Angewandte Systemanalyse (IIASA) und der Internationale Wissenschaftsrat (ISC) haben auf ihrer Plattform IIASA-ISC Consultative Science Platform “Bouncing Forward Sustainably: Pathways to a post-COVID world”  wichtige Interessensvertreter aus den Bereichen Wissenschaft, Politik und Zivilgesellschaft zusammengebracht, um über systemische Ansätze zu vier Schlüsselthemen zu beraten, die eine langfristige Nachhaltigkeit und Widerstandsfähigkeit gegen globale Krisen gewährleisten sollen. Diese vier Themen betreffen i) eine verbesserte Governance der Nachhaltigkeit, ii) eine Stärkung der Wissenschaftssysteme, iii) neue Lösungen des Energieproblems und iv)Resiliente Ernährungssysteme.  Die Schirmherrschaft über diese Initiative hat der ehemalige UNO-Generalsekretär Ban-Ki-moon übernommen.

Die Empfehlungen der Plattform liegen nun in Form von Berichten vor (siehe Links) und wurden in einer virtuellen Veranstaltung (25. - 26. Jänner 2021) vorgestellt.

Der folgende Text ist die Zusammenfassung des Reports zur "Stärkung der Wissenschaftssysteme" (Abbildung 1).

Abbildung 1. Der Report: Strengthening Science Systems. Transformations within reach:Pathways to a sustainable and resilient world. (Jänner 2021).

Die Wissenschaft hat in der andauernden COVID-19-Krise eine zentrale Stellung eingenommen. Die Wissenschaft war gefordert, Lösungen auf einer sehr breiten Front anzubieten - nicht nur für die unmittelbaren gesundheitlichen Bedrohungen, sondern auch für die vielen sozialen und wirtschaftlichen Herausforderungen, die sich aus der Pandemie ergeben. Wissenschaftler aus verschiedenen Disziplinen haben schnell reagiert, indem sie ihre Forschung auf diese neuen Probleme umorientierten, und die COVID-19-Krise hat Zusammenarbeit und Kooperation zwischen Wissenschaftlern deutlich beschleunigt. Digitale Kommunikation wird weltweit in großem Maßstab angewandt, obwohl viele der Vorteile verloren gehen, die physische Besprechungen bieten, wie z. B. ein face-to-face Netzwerken oder spontane Unterhaltungen.

Die COVID-19-Krise hat das Funktionieren des Wissenschaftssystems beeinträchtigt...

Die Anpassung der Lehre in einem virtuellen Format hat zusätzlichen Druck auf Forscher an Universitäten ausgeübt und die für die Forschung zur Verfügung stehende Zeit reduziert. Arbeiten in Labors, Feldversuche und Expeditionen mussten verschoben oder abgesagt werden. Die Schließung von Kinderbetreuungseinrichtungen und anderen Dienste stellte zusätzliche Anforderungen an die Wissenschaftler. Indem sie ihre Familien unterstützten und betreuten, wurde die Zeit und Energie, die sie für die Forschung aufwenden konnten, weiter reduziert. COVID-19 hat offensichtlich auch bestehende Ungleichheiten in der Wissenschaft verschärft. Wissenschaftlerinnen und insbesondere solche mit kleinen Kindern haben eine erhebliche Reduktion der Zeit verzeichnet, in der sie sich der Forschung widmen konnten.

COVID-19 hat gezeigt, dass die Reaktion von Wissenschaftlern auf eine neue Krise durch Überlegungen hinsichtlich der Sicherheit ihres Arbeitsplatzes und ihres beruflichen Aufstiegs Grenzen erfährt. Dies ist besonders wichtig für Nachwuchswissenschaftler, deren zukünftige Beschäftigung entscheidend davon abhängt, dass ihre Arbeiten in Fachzeitschriften veröffentlicht werden. Es gibt kein System zur Anerkennung und Belohnung von Beiträgen zur Bewältigung einer dringlichen Krise wie COVID-19, und dies hindert Wissenschaftler erheblich daran, solche Forschungen durchzuführen. Finanzierungsanreize sind auch erforderlich, um Wissenschaftler zu ermutigen, ihre Forschung neu auszurichten, sich auf krisenbezogene Themen zu konzentrieren. Die Fördereinrichtungen haben allerdings nur begrenzte Möglichkeiten, neue Prioritäten festzulegen und die Finanzierung rasch an diese umzuleiten.

…einige Schwächen darin aufgezeigt und Trends beschleunigt

COVID-19 hat einige der Schwächen des Wissenschaftssystems aufgezeigt und eine Reihe von Trends beschleunigt. Die Verbreitung von Preprints als eine schnellere Möglichkeit, Wissen auf völlig offene Weise zu verbreiten, hat die Grenzen des Systems der Veröffentlichung in Fachzeitschriften und der Begutachtung durch Fachkollegen in ihren derzeitigen Formen deutlich gemacht. Es gab jedoch weit verbreitete Bedenken hinsichtlich der Qualität von Informationen, die ohne Peer Review öffentlich zugänglich gemacht wurden. In den frühen Phasen einer Krise sind Daten und Expertenwissen zu den Grundlagen des Phänomens natürlich sehr limitiert. Es ist daher entscheidend, vorhandenes Wissen effektiv nutzen zu können.

Das Wissenschaftssystem und die Forschungsplanung und Bewertung widmen derzeit wenig Aufmerksamkeit der Wichtigkeit, welche das Generieren von für zukünftige Krisen anwendbares Wissen haben kann.

Der Privatsektor bildet einen großen Teil des Forschungsökosystems. Auch wenn in vielen Bereichen eine effektive Zusammenarbeit zwischen öffentlich finanzierter Wissenschaft und privatwirtschaftlicher Wissenschaft besteht, ist viel mehr Zusammenarbeit erforderlich.

Diskussionen über Vertrauen in die Wissenschaft

Bereits seit langem gibt es Diskussionen über Vertrauen in die Wissenschaft und dessen mögliche Unterminierung. Mit dem Aufkommen von COVID-19 wurden diese Diskussionen beträchtlich intensivier. COVID-19 sieht sich einer erhöhten Flut falscher Nachrichten - fake news - gegenüber. Die Öffentlichkeit ist einem Tsunami an Fehlinformationen und Pseudowissenschaften ausgesetzt, die das Vertrauen in die Wissenschaft untergraben. Eine wichtige Lehre aus COVID-19 ist, dass eine Maßnahme mehr oder weniger effektiv gesetzt werden kann, je nachdem, wie viel Vertrauen die Öffentlichkeit in die Wissenschaft und in die Regierung hat.

COVID-19 hat die Wissenschaft ins Rampenlicht der öffentlichen Aufmerksamkeit gerückt und dabei das mangelnde Verständnis der Öffentlichkeit dafür aufgezeigt, wie Wissenschaft funktioniert und was Wissenschaft kann und was nicht. Viele Wissenschaftler betrachten die Wissenschaftskommunikation nicht als Teil ihrer Arbeit. Darüber hinaus legt das Leistungsbewertungssystem für Wissenschaftler sehr wenig Wert auf die Kommunikation wissenschaftlicher Erkenntnisse und Ergebnisse.

Die COVID-19-Pandemie hat es uns deutlich gezeigt: Krisen sind nicht zweidimensional. Zweifellos ist COVID-19 weitaus mehr als bloß ein medizinisches Problem; es gibt vielfache Auswirkungen auf Gesellschaft, Wirtschaft und Politik. Maßnahmen zur Bekämpfung von COVID-19 sollten daher mehrere wissenschaftliche Disziplinen einbeziehen. Berater-Gremien und Task Forces, die in das Design öffentlicher Maßnahmen für den Umgang mit COVID-19 involviert sind, setzen jedoch häufig nur ein begrenztes Spektrum an Fachwissen ein. Einem systembasierten Ansatz zur Bewältigung einer komplexen Krise wie COVID-19 wurde nicht ausreichend Priorität eingeräumt.

COVID-19 hat gezeigt, wie schwierig es für schlechtausgestattete und geringgeförderte Institutionen in Forschung und Beratung ist, auf plötzliche Bedrohungen flexibel zu reagieren. Für eine rasche und qualitativ erstklassige Reaktion sind starke und robuste Institutionen eine wesentliche Voraussetzung Es ist von entscheidender Bedeutung, dass Institutionen, die strategische Forschung betreiben und wissenschaftlich fundierte Maßnahmen zu globalen Risiken anbieten, angemessene, verlässliche und fortlaufende öffentliche Mittel erhalten.

COVID-19 hat die Bedeutung internationaler Zusammenarbeit klar aufgezeigt. Manche Länder mit wissenschaftlich sehr limitierten Kapazitäten konnten auf Erfahrungen anderer Länder und internationaler Organisationen zurückgreifen, um wirksame und zeitnahe politische Maßnahmen gegen COVID-19 zu entwickeln. In einigen Ländern gab es allerdings einen Gegentrend in Richtung "Nationalisierung der Wissenschaftssysteme".

Erforderliche Verbesserungen in drei Richtungen…

Die Analyse der COVID-19-Krise zeigt, dass Verbesserungen in drei Achsenrichtungen erforderlich sind, damit das Wissenschaftssystem effizienter auf zukünftige globale exogene Bedrohungen reagieren kann:

  • Erhöhte Agilität. Erstens muss die Fähigkeit des Wissenschaftssystems, schnell auf neu auftretende und sich schnell entwickelnde Probleme - ob auf nationaler oder internationaler Ebene - zu reagieren, erheblich verbessert werden.
  • Höhere Zuverlässigkeit. Das Wissenschaftssystem muss die Qualität seines Outputs weiter verbessern.
  • Höhere Relevanz. Das Wissenschaftssystem muss effektiver mit Politik und Öffentlichkeit verknüpft werden. Das Ziel ist es sicherzustellen, dass das Wissenschaftssystem auf allen drei Achsen gleichzeitig Fortschritte erzielt und eine neue Marke der Agilität, Zuverlässigkeit und Relevanz für die Gesellschaft erreicht.

…und Empfehlungen zu Transformationen im Wissenschaftssystem

Die gleichzeitige Verbesserung entlang aller drei Achsen bringt notwendigerweise viele Änderungen am bestehenden Wissenschaftssystem mit sich. Dementsprechend haben wir hier 38 Empfehlungen vorgelegt, die unter fünf miteinander verbundenen wesentlichen transformativen Änderungen wie folgt zusammengefasst sind (Abbildung 2):

Abbildung 2. Transformative Änderungen zur Stärkung der Wissenschaft, um effizienter auf zukünftige globale exogene Bedrohungen reagieren zu können

1. Stärkung der transdisziplinären Forschung und Vernetzung in Bezug auf kritische Risiken und Systemstabilität

Es sollte eine umfassendere Definition von globaler und nationaler Sicherheit zugrunde gelegt werden, die Naturkatastrophen und anthropogene Katastrophen als relevante Bedrohungen einschließt. Nationale und internationale Kapazitäten zu transdisziplinärer Erforschung kritischer Risiken und Systemstabilität (insbesondere wo diese sehr begrenzt ist), sollten verbessert werden. Um den Kapazitätsmangel auszugleichen, sollten Netzwerke und Mechanismen weiterentwickelt werden, über die Wissenschaftler Wissen aus anderen Ländern oder auf internationaler Ebene angesammeltes Wissen nutzen können. Um den wissenschaftlichen Fortschritt zu beschleunigen, sollten internationale Forschernetzwerke mit ergänzendem Fachwissen in wichtigen Risikobereichen gestärkt werden.

2. Gesteigerte Kapazität der Wissenschaft, um auf Krisen schnell mit Qualitätsforschung zu reagieren

Institutionen, die Risikoforschung betreiben, müssen entwickelt und aufrechterhalten werden. Die Möglichkeiten eines Systems von "Notfall"-Experten-Teams sollte geprüft werden, die als Reaktion auf eine Krise aktiviert werden können. Um die Forschung zu nicht vorhergesehenen und dringenden Herausforderungen zu finanzieren, muss ein System von leicht zugänglichen Förderungen eingerichtet werden. Das Bewertungssystem muss angepasst werden, um den Beitrag der Wissenschaftler zur Bewältigung von Krisen anzuerkennen. Besonderes Augenmerk sollte auf Anreize für junge Forscher gelegt werden. Die Entwicklung leicht wiederverwendbarer Forschungsmodelle und -daten sollte priorisiert und die Verwendung von Universal-Modellen erweitert werden. Es sollten neue Mechanismen zur Verbesserung der internationalen wissenschaftlichen Zusammenarbeit entwickelt werden, um rasch auf Krisen reagieren zu können. Es ist wichtig, in Krisenzeiten Standards guter wissenschaftlicher Praxis zu fördern und die Institutionen, die einen wissenschaftlichen Verhaltenskodex durchsetzen, erheblich zu stärken. Möglichkeiten zur Verbesserung der Zusammenarbeit zwischen Wissenschaft des öffentlichen und des privaten Sektors sollten untersucht werden. Der Privatsektor muss Anreize erhalten, Technologieplattformen zur Verfügung zu stellen und Daten und Wissen auszutauschen.

3. Verbesserung der Wissensverbreitung innerhalb des Wissenschaftssystems

Eine Reihe von Verbesserungen des Review-Systems von Publikationen sollten umgesetzt werden. Dazu gehören i) ein System zum schnellen Peer-Review von Preprints nach der Veröffentlichung; ii) eine Reihe von materiellen und immateriellen Anreizen für die Erstellung von Reviews; iii) die Möglichkeit einer offenen Kommunikation zwischen Autoren und Reviewern; iv) die Anpassung verschiedener Forschungskulturen und starke Peer-Review-Systeme für Daten. Zur Durchführung von Reviews sollten Schulungen für Wissenschaftler gefördert werden, insbesondere für Reviews in der interdisziplinären Forschung. Die Forscher sollten auch dazu angeregt werden, wissenschaftliche Übersichten und Artikel aus ihrer Perspektive zu erstellen, die vorhandenes, für eine Krise und ihre Auswirkungen relevantes Wissen zusammenfassen. Um den Zugang zu bestehender Forschung und die Navigation dort zu erleichtern, sollten Forscher Anreize erhalten, um Daten, Modelle und Computercodes offen und leicht zugänglich zu machen. Allgemeine Standards für Daten sowie die Verwendung von Open-Source-Software sollten gefördert werden. Man sollte ein System prüfen, wo Wissenschaftler die Zwischenprodukte der Forschung (Forschungsprotokolle, negative Ergebnisse usw.) zur Verfügung stellen. Ablagen für Daten und vorhandene Forschung sowie Plattformen, auf denen Forschung zu einem bestimmten Thema zusammengefasst wird, sollten entwickelt und verwendet werden. Die Effektivität von Algorithmen zur automatischen Synthese von Wissen und zu deren Kontrolle sollte untersucht werden.

4. Verbesserte Kommunikation wissenschaftlicher Erkenntnisse, gesteigertes Verständnis der Öffentlichkeit und erhöhtes Vertrauen in die Wissenschaft

Um der Öffentlichkeit verlässliche Informationen zu liefern, sollten leicht zugängliche Quellen der wissenschaftlichen Ergebnisse und Informationen geschaffen werden. Wissenschaftler sollten in der Vermittlung wissenschaftlicher Erkenntnisse geschult und motiviert werden und aktiver gegen Wissenschaftsleugner und Falschinformation eintreten. Die Kapazität und Integrität des Wissenschaftsjournalismus und der Wissenschaftsmedien sollten verbessert werden. Automatische Systeme zur Überprüfung wissenschaftlicher Fakten sollten entwickelt werden und weite Verbreitung finden. Aktives Engagement zwischen Wissenschaft und Bürgern sollte in geeigneten Forschungsphasen erleichtert werden, um die Relevanz und Legitimität der wissenschaftlichen Forschung zu verbessern. Die wissenschaftlichen Kenntnisse der Bürger sollte verbessert werden.

5. Verbesserung von Qualität und Effizienz an der Schnittstelle von Wissenschaft und Politik auf nationaler, regionaler und globaler Ebene

Es sollten robuste nationale und multinationale Institutionen entwickelt werden, die sich mit wissenschaftspolitischer Beratung befassen, ebenso wie eine wirksame Vernetzung zwischen diesen Institutionen. Die sozialen Auswirkungen der verschiedenen politischen Optionen müssen vor der Umsetzung bewertet werden, zusammen mit den wahrscheinlichen Reaktionen auf diese Optionen in verschiedenen Gemeinschaften und Interessengruppen. Die politischen Entscheidungsträger sollten die Möglichkeit haben, mit einer breiteren akademischen Gemeinschaft in Kontakt zu treten, um Fragen zu stellen und verschiedene Ratschläge zu integrieren. Wissenschaftliche Beratung sollte eine Vielzahl wissenschaftlicher Disziplinen einbeziehen. Ein systemischer Ansatz für die Politikberatung sollte gewählt werden. Die Regierungen sollten das gesamte Spektrum der angebotenen wissenschaftlichen Beratung berücksichtigen und die Gründe für die getroffenen Entscheidungen transparent machen.


*Der Blogartikel ist die von der Redaktion übersetzte und für den Blog gerinfügig adaptierte Executive Summary aus dem Report: E. Rovenskaya et al,: Strengthening Science Systems. Transformations within reach: Pathways to a sustainable and resilient world. Jänner 2021. https://council.science/wp-content/uploads/2020/06/IIASA-ISC-Reports-Science-Systems.pdf. Der Report steht unter einer cc-by Lizenz. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Links zu den Reports der IIASA-ISC-Consultative Science Platform

Srivastava, L., Echeverri, L. G., Schlegel, F., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Synthesis Report. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16818]

Mechler, R., Stevance, A.-S., Deubelli, T., Scolobig, A., Linnerooth-Bayer, J., Handmer, J., Irshaid, J., McBean, G., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Enhancing Governance for Sustainability. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16819]

Rovenskaya, E., Kaplan, D., & Sizov, S. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Strengthening Science Systems. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16821]

Sperling, F., Havlik, P., Denis, M., Valin, H., Palazzo, A., Gaupp, F., & Visconti, P. (2020). Transformations within reach-Pathways to a sustainable and resilient world: Resilient Food Systems. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16822]

Zakeri, B., Paulavets, K., Barreto-Gomez, L., Gomez Echeverri, L., Pachauri, S., Rogelj, J., Creutzig, F., Urge-Vorsatz, D., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Rethinking energy solutions: Energy demand and decentralized solutions. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16820]


inge Thu, 28.01.2021 - 01:42

COVID-9-Impfstoffe - ein Update

COVID-9-Impfstoffe - ein Update

Fr 22.01.2021.... Inge Schuster Inge SchusterIcon Medizin

Ein vor 8 Wochen erschienener ScienceBlog-Artikel hat einen Überblick über die rasante Entwicklung von COVID-19 Impfstoffen gegeben [1]. Zu diesem Zeitpunkt wurden bereits 58 Impfstoff-Kandidaten in der Klinik untersucht, 11 davon befanden sich in der entscheidenden Phase 3. Drei Kandidaten - von Pfizer/BioNTech, Moderna/NIAID und AstraZeneca/University Oxford - standen kurz vor der behördlichen Zulassung durch die FDA und EMA . Zu deren Wirksamkeit und Sicherheit erfuhr man - allerdings nur in Form von Presseaussendungen der produzierenden Unternehmen - phantastische Angaben. Seit Kurzem liegen nun die Ergebnisse der klinischen Studien in publizierter Form vor. Der folgende Artikel fasst wesentliche Daten zusammen.

Das vergangene Jahr 2020 wird als Jahr der Corona-Pandemie in die Geschichte eingehen, einer Pandemie, die sich mit rasantem Tempo über den gesamten Erdball, bis in die Antarktis hin, ausgebreitet hat und bereits mehr als 96 Millionen Menschen mit dem Virus infiziert und über 2 Millionen Todesfälle hervorgerufen hat (dashboard der John-Hopkins-University:  https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6be. Innerhalb kürzester Zeit hat das Virus das gewohnte Leben, die sozialen Kontakte lahmgelegt, die Wirtschaft auf ein Mindestmaß reduziert und Staaten, die Rettungsschirme für die stillgelegten Betriebe und das Heer an beschäftigungslosen Menschen aufspannten, bis in die dritte Generation hinein in Schulden gestürzt.

Wissenschaft, die erfolgreiche Waffe gegen COVID-19

Die bis dato nie gekannte Notsituation machte 2020 aber auch zu einem Jahr, welches die Wissenschaft zu einer bisher ungeahnten Hochform der globalen Zusammenarbeit auflaufen ließ. Wissenschafter aus den verschiedensten Disziplinen der Naturwissenschaften und der Medizin, aus akademischen Institutionen ebenso wie aus kommerziellen Unternehmen gingen globale Partnerschaften ein und tauschten freizügig ihre Forschungsergebnisse aus, welche eine Reihe von Verlagen temporär für jedermann öffentlich zugänglich machte. Auf der Suche nach dringendst benötigten Mitteln zu Prävention und Therapie der neuen Infektionskrankheit fanden die Forscher bei den puncto Wissenschaft ansonsten äußerst sparsamen Regierungen und internationalen Organisationen großzügige Unterstützung. Das in der Öffentlichkeit bisher wenig beachtete Fach der Virologie lieferte nun täglich Headlines in Presse und Unterhaltungsmedien.

Die Investition in die Wissenschaft hat zum Erfolg geführt. Aufbauend auf den Ergebnissen jahrelanger Grundlagenforschung wurde es möglich Impfstoffe schneller als erhofft zu designen und zu entwickeln. Derzeit befinden sich 291 Kandidaten in der Entwicklung, davon 221 in der präklinischen Entwicklung und bereits 70 in der klinischen Prüfung, in der Wirksamkeit und sichere Anwendung untersucht werden [2]. 20 Impfstoffkandidaten sind in der letzten, entscheidenden Phase 3  (COVID-19 vaccine tracker:  https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/)

Zwei dieser Impfstoffe - BNT162b2 von Pfizer/BioNTech und mRNA-1723 von Moderna/NIAID -, die das neue Prinzip der mRNA-Vakzinen realisieren, haben die US-Behörde für Lebens- und Arzneimittel (FDA) als Notfallzulassung und die Europäische Arzneimittel Agentur (EMA) als bedingte Zulassung bereits anerkannt. Die Entscheidung über die Zulassung eines dritten, auf dem Vektorprinzip beruhenden Impfstoffs ChAdOx1 von AstraZeneca/Oxford University (in UK bereits eine Notfallzulassung) wird in der EU Ende Jänner erfolgen. Der ungemein schnellen Entwicklung war es zuzuschreiben, dass man die phantastisch anmutenden Ergebnisse der klinischen Studien vorerst nur aus Pressemeldungen der Unternehmen vernehmen konnte [1]. Nun sind die Ergebnisse seit Kurzem publiziert und öffentlich zugänglich [2], [3], [4]. Im Folgenden sollen wesentliche Daten zu Wirksamkeit und Sicherheit der drei Impfstoffe zusammengefasst werden.

Wie funktionieren die 3 Impfstoffe?

Die mRNA-Impfstoffe

Sowohl der Pfizer/BioNTech-Impfstoff BNT162b2 ("Tozinameran") als auch der Moderna/NIAID-Impfstoff mRNA-1723 sind erste Vertreter einer neuen Technologie, der sogenannten mRNA-Impfstoffe. Diese enthalten nicht das (inaktivierte) Virus selbst oder Komponenten des Virus sondern nutzen die mRNA als Bauanleitung für Virus-Proteine, gegen die eine Immunantwort zu erwarten ist. Im konkreten Fall der beiden Impfstoffe ist es die Bauanleitung für das Spike-Protein, mit dem das Virus an die Wirtszellen andockt. Da die mRNA ein physikalisch, thermisch und biologisch sehr instabiles Molekül ist, würde sie - direkt injiziert - bereits abgebaut sein, bevor sie in die Körperzellen aufgenommen wird und dort in das Spike-Protein übersetzt werden kann. Um dies zu verhindern, wurden winzige Lipidkügelchen - Lipid-Nanopartikel - designt, in welchen die mRNA geschützt vorliegt und - in den Oberarmmuskel injiziert- die Aufnahme in die umliegenden Zellen ermöglicht wird. In den Zellen braucht die mRNA nicht in den Zellkern vorzudringen; sie verbleibt im Cytosol der Zelle und wird dort an den Ribosomen in das Spike-Protein übersetzt. Dieses Protein kann dann in seiner nativen Form an die Zelloberfläche gelangen und sezerniert werden. Es kann aber auch vom Abbauapparat der Zelle degradiert, in Form von Peptiden an der Zelloberfläche präsentiert werden, die dann von den Zellen des adaptiven Immunsystems als fremd erkannt werden und deren Reaktion auslösen. Diese Reaktion führt zur Bildung von Antikörpern und zur Aktivierung von T-Zellen (weißen Blutkörperchen) gegen den Fremdstoff. Die mRNA selbst ist kurzlebig und wird in den Zellen schnell abgebaut.

Eine kürzlich von der Royal Society of Chemistry herausgegebene Grafik fasst die Natur der mRNA-Vakzinen und ihre Wirkungsweise zusammen. Abbildung 1.

Abbildung 1. Was sind mRNA-Impfstoffe und wie wirken sie? (Quelle: Andy Brunning for the Royal Society of Chemistry, www.compoundchem.com. Da das Bild unter einer cc-by.nc-nd-Lizenz steht, musste von einer Übersetzung abgesehen werden.)

Sowohl der Pfizer-Impfstoff als auch der Moderna-Impfstoff basieren auf der mRNA-Sequenz, die für das Spikeprotein kodiert und zwar (durch Austausch zweier Aminosäuren) in der stabilisierten Konformation, die dieses vor der Fusion mit der Zellmembran einnimmt (womit auch seine Immunogenität gesteigert wird).

Ein wesentlicher Unterschied der beiden Vakzinen besteht aber in der Zusammensetzung der Lipid-Nanopartikel und daraus resultierend in deren Stabilität. Während der unverdünnte Pfizer-Impfstoff bei Temperaturen von -80oC bis -60oC gelagert werden muss, nach der Verdünnung bei Raumtemperatur maximal 6 Stunden haltbar ist, nicht geschüttelt werden darf und vorsichtig pipettiert werden muss (um Scherkräfte zu vermeiden) und dazu möglichst dunkel gehalten werden sollte, ist der Moderna-Impfstoff wesentlich stabiler. Ungeöffnete Ampullen können bei Kühlschranktemperaturen bis zu 30 Tagen gelagert werden und bis zu 12 Stunden bei 8o - 25oC. Impfungen mit dem Pfizer-Impfstoff sind damit auf Impfzentren und mobile Teams, die in Pflegeeinrichtungen kommen, beschränkt .

Der Vektor-Impfstoff

Bei CHAdOx1 von AstraZeneca/Oxford University handelt es sich um einen sogenannten Vektorimpfstoff. Dieser basiert auf einem im Menschen nicht vermehrungsfähigen Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein von SARS-CoV-2 eingebracht ist. Bei der Impfung dringt der Vektor in einige Wirtszellen ein, das Spike-Gen gelangt in den Zellkern, wo es in seine mRNA und dann in das Spike Protein übersetzt wird, welches - ebenso wie im Fall der mRNA-Vakzinen - die Immunantwort auslöst. (Natürlich werden auch Teile des Vektorgenoms übersetzt und lösen ebenfalls eine Immunantwort aus.)

Abbildung 2 fasst Art und Wirkungsweise dieses Impfstofftyps zusammen.

Abbildung 2. Was sind Vektorimpfstoffe und wie funktionieren sie? (Quelle: Andy Brunning for the Royal Society of Chemistry, www.compoundchem.com. Da das Bild unter einer cc-by.nc-nd-Lizenz steht, musste von einer Übersetzung abgesehen werden.)

ChAdOx1 ist Im Vergleich zu den mRNA-Impfstoffen wesentlich billiger (die EU hat angeblich um rund 1,8 €/Dosis geordert) und kann bei Kühlschranktemperaturen lange gelagert werden . Dies erleichtert die Lieferung und Anwendung auch in ländlichen Gebieten.

Zur Wirksamkeit der Impfstoffe

Die Ergebnisse der (noch laufenden) randomisierten Phase 3 Studien (Doppel-Blind, Impfstoff gegen Placebo) mit den beiden mRNA-Impfstoffen sind phantastisch [2, 3]. Geimpft wurden jeweils zwei Dosen, die im Abstand von drei Wochen (Pfizer) oder 4 Wochen (Moderna) verabreicht wurden. Bei den Probanden handelte es sich um Erwachsene im Alter von 16/18 - über 65 Jahren - etwa gleich viele Frauen und Männer - , darunter auch solche mit gesundheitlichen Risikofaktoren (inklusive HIV). Die Wirksamkeit wurde auf Grund des Auftretens von mindestens 2 charakteristischen COVID-19 Symptomen plus bestätigendem PCR-Test ermittelt.

Der Pfizer-Impfstoff

Rund 18 900 Probanden wurden jeweils für die mRNA-Gruppe (30 µg in Lipid-Nanopartikeln verpackt) und die Placebo-Gruppe rekrutiert, darunter auch eine Gruppe von jeweils rund 800 Personen, die 75 - 85 Jahre alt waren. Die Probanden erhielten 2 Dosen des Impfstoffs/Placebos im Abstand von 21 Tagen. Eine Analyse der COVID-19 Fälle, die nach der 1. Dosis auftraten, zeigt an, wann der Impfschutz zu wirken begann. Etwa 12 Tage nach der 1. Dosis begann die Inzidenz von COVID-19 in der mRNA-Gruppe(39 Fälle) stark abzuflachen, während sie in der Placebo-Gruppe (82 Fälle) linear weiter anstieg (Abbildung 3 oben). In der Woche nach der 2.Dosis wurden 2 Fälle in der mRNA-Gruppe und 21 Fälle in der Placebo-Gruppe beobachtet, in der darauffolgenden Zeit bis zum Ende der Beobachtung (105 Tage) 9/172 Fälle in mRNA-/Placebo-Gruppen. Über die Probanden gemittelt ergibt dies ein Wirksamkeit von rund 95 %.

Erfreulicherweise zeigte sich die sehr hohe Wirksamkeit in allen Altersstufen (bestimmt 7 Tage nach Dosis 2): 95,1 % bei den 16 - 64-Jährigen. 92,7 % bei den 65 - 74-Jährigen; bei den relativ kleinen Gruppen der über 75-Jährigen trat kein Fall in der mRNA-Gruppe auf, 5 Fälle dagegen in der Placebo-Gruppe.

Der Moderna-Impfstoff

wurde an Probanden im Alter von 18 - > 65 Jahren getestet; rund 14 600 erhielten die Vakzine (100 µg mRNA in Lipid-Nanopartikeln eingeschlossen), etwa ebenso viele Placebo [3]. Bereits 14 Tage nach der 1. Dosis konnte eine fast 70 % Reduktion der COVID-19 Fälle in der mRNA-geimpften Gruppe (5/16 COVID-19 Fälle) gegenüber der Placebo-Gruppe beobachtet werden. In den folgenden 2 Wochen bis zur Impfung der 2. Dosis gab es in der mRNA-Gruppe 2/37 Fälle, in den darauf folgenden 14 Tagen 0/19 Fälle und sodann bis zum derzeitigen Ende der Beobachtungszeit (25.November 2020; 120 Tage) 12/216 Fälle. Über alle Probanden gemittelt ergab dies ein Wirksamkeit von 94,1 %.

Nach Altersgruppen analysiert lag die Wirksamkeit bei Probanden unter 65 Jahren (rund 10 500) bei 95,6 %, bei der kleineren Gruppe der über 65-Jährigen (rund 3 500 ) bei 86,4 %.

Abbildung 3 vergleicht die Wirksamkeiten der beiden mRNA-Impfstoffe gemessen an der Inzidenz von COVID-19 Erkrankungen beginnend von der 1. Dosis über die 2. Dosis bis zum gegenwärtigen Ende der Beobachtungszeit.

Abbildung 3. Wirksamkeit der beiden mRNA-Impfstoffe gemessen am Auftreten von COVID-19 Erkrankungen. In beiden Fällen werden rund 95 % der Probanden durch die Impfung geschützt. Schwere COVID-19 Erkrankungen traten bei der Pfizer-Impfstoffstudie mit einer Ausnahme nur in der Placebo-Gruppe auf (schwarze Punkte), bei der Moderna-Impfstoffstudie gab es 30 schwere Erkrankungen ausschließlich in der Placebo-Gruppe. (Bilder für den Blog adaptiert aus [2 und 3], diese stehen unter einer cc-by-Lizenz)

Der Vektor-Impfstoff

Die publizierten Zwischenergebnisse stammen von rund 11 600 Probanden in England und Brasilien [4]. Der Vektorimpfstoff ChAdOx1 - ein nicht vermehrungsfähiger Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein von SARS-CoV-2 eingebracht ist - wurde in Standarddosen von 50 Milliarden Viruspartikeln angewandt, als Kontrolle fungierte anstelle einer Kochsalzlösung die Meningokokken-Vakzine MenACWY. Zum Unterschied zu den Studien mit den mRNA-Impfstoffen wurden hier ausschließlich gesunde Erwachsene rekrutiert, der überwiegende Teil (86,7 %) im Alter von 18 - 55 Jahren. Diese sollten jeweils 2 Standarddosen im Abstand von 28 Tagen erhalten; allerdings, sowohl die Dosierungen als auch das Impfintervall variierte.

Für eine der beiden in England laufenden Studien (mit kleinerer Probandenzahl, ausschließlich im Alter 18 - 55 Jahre) enthielten die Ampullen irrtümlich nur die Hälfte des Vektorimpfstoffs. AstraZeneca veränderte darauf das Studienprotokoll in der Form, dass die Probanden nach der 1. halben Dosis die Standarddosis als zweite Impfung erhielten. (Die Behörden stimmten zu.)

Im Vergleich zu den mRNA-Impfstoffen war die Wirksamkeit des Vektorimpfstoffs niedriger. Mehr als 14 Tage nach der zweiten Standarddosis wurde sowohl in der englischen als auch in der brasilianischen Studie eine COVID-19-Inzidenz von 0,6 % bei den mit ChAdOx1 behandelten Probanden gegenüber 1,6 % der mit dem Kontrollimpfstoff behandelten festgestellt, entsprechend einer Wirksamkeit von 62 %. Erstaunlicherweise erbrachte die oben erwähnte Studie mit zuerst halber Dosis und dann Standarddosis bei 3 COVID-19-Fällen gegenüber 30 Fällen in der Kontrollgruppe eine Wirksamkeit von 90 %.

AstraZeneca hat die Ergebnisse aus den 3 offensichtlich unterschiedlichen Studien gepoolt und ist daraus schlussendlich zu einer Wirksamkeit von 70 % gelangt. Wieweit ein solches Vorgehen lege artis ist, soll hier nicht beurteilt werden. AstraZeneca will jedenfalls der Frage nachgehen ob eine erst niedrigere Impfstoffdosis gefolgt von einer höheren tatsächlich zu einer besseren Wirksamkeit führt. Abbildung 4 zeigt die Inzidenz von COVID-19 Erkrankungen nach der Impfung mit ChAdOx1.

Abbildung 4. Kumulierte Inzidenz von symptomatischer COVID-19 Erkrankung. Links: nach der zweiten Dosis des Vektorimpfstoffs ChAdOx1, wobei die 1. Impfung mit der halben Dosis( LD) oder vollen Standarddosis (SD) , die 2. Impfung mit der Standarddosis erfolgt ist. Rechts: nach der ersten Dosis bei Probanden, die nur Standarddosen erhielten. Als Kontrolle fungierte die Meningokokken-Vakzine MenACWY. (Bild aus [4] Lancet. 2021 Jan 9; 397(10269): 99–111. Lizenz cc-by 4.0)

Nebenwirkungen

treten bei allen drei Impfstoffen auf und sind zum größten Teil mild oder moderat und vorübergehend.

Lokale Reaktionen an der Einstichstelle wie Schmerz, Rötung, Schwellung (Verhärtung) treten in der Gruppe der Geimpften wesentlich häufiger als in der Placebo/Kontrollgruppe und können auch als ein Anspringen der Immunantwort gesehen werden. Hier, in den Muskelzellen findet ja die Umsetzung der mRNA in das Spike-Protein statt, gegen welches das Immunsystem nun massiv auffahren soll! Die beiden mRNA-Vakzinen ebenso wie die Vektorvakzine können bei an die 80 % der Probanden solche Reaktionen hervorrufen. 

Allgemeine Nebenwirkungen wie Müdigkeit, Muskelschmerzen, Kopfschmerzen, Fieber, Schüttelfrost Übelkeit sind bei 30 - 60 % der Probanden etwa 24 Stunden nach beiden Impfdosen aufgetreten und haben im Durchschnitt einen Tag angehalten.

Lokale ebenso wie allgemeine Nebenwirkungen der mRNA-Impfstoffe waren bei jüngeren Probanden (d.i. 18 - 55 Jahre in der Pfizer-Studie und 18 - 65 Jahre in der Moderna-Studie) stärker ausgeprägt als bei älteren und nahmen von Dosis 1 zu Dosis 2 zu. Ein sehr ähnliches Bild - allerdings bei einer wesentlich kleineren Probandenzahl - zeigte sich auch mit dem Vektorimpfstoff von AstraZeneca (die bessere Verträglichkeit bei älteren Personen könnte vielleicht infolge einer schwächeren Immunantwort resultieren?).

Fazit

Alle drei Impfstoffe können vor COVID-19 schützen und haben zumeist milde bis moderate, vorübergehende Nebenwirkungen. Die beiden mRNA-Impfstoffe von Pfizer und Moderna weisen eine phänomenale Wirksamkeit von über 90 % auf, bei jungen und älteren gesunden Menschen und auch bei älteren Personen, die wegen u.a. Herzerkrankungen, Diabetes, Adipositas ein höheres Risiko haben an COVID-19 schwer zu erkranken. Ein nicht unerhebliches Problem des Pfizer-Impfstoffs ist seine Instabilität, die eine Anwendung nur in geeigneten Impfzentren zulässt.

Der Vektorimpfstoff von AstraZeneca ist zwar stabil und vergleichsweise sehr billig, aber weniger wirksam als die beiden anderen Vakzinen. Die Phase 3 Studie wirft auch eine Reihe Fragen auf, da dafür nur gesunde Personen rekrutiert wurden und der Anteil an älteren Menschen gering ist, also wenig über die Wirksamkeit in der vulnerablen Bevölkerung ausgesagt werden kann.

Wegen der kurzen Entwicklungsdauer ist zur Zeit noch Vieles unklar: u.a. wie lange der Impfschutz anhält, ob asymptomatische Infektionen mit SARS-CoV-2 und die Übertragung des Virus verhindert werden können, ob schwere seltene und/oder verzögerte Nebenwirkungen auftreten. Die Phase 3-Studien aller drei Impfstoffhersteller laufen weiter (insgesamt bis 24 Monate nach ihrem Beginn) und werden zusammen mit den nun millionenfach erfolgenden Impfungen diese Fragen voraussichtlich lösen können.


[1] I.Schuster, 28.11.2020: Impfstoffe zum Schutz vor COVID-19 - ein Überblick

[2] EMA Assessment Report: Comirnaty (21. December 2020). https://www.ema.europa.eu/en/documents/assessment-report/comirnaty-epar-public-assessment-report_en.pdf

[3] L.R.Baden et al., Efficacy and Safety of the mRNA-1273 SARS-CoV-2 Vaccine (30.December 2020) , at NEJM.org.DOI: 10.1056/NEJMoa2035389. https://www.nejm.org/doi/full/10.1056/NEJMoa2035389 [

4] M.Voysey et al., Safety and efficacy of the ChAdOx1 nCoV-19 vaccine (AZD1222) against SARS-CoV-2: an interim analysis of four randomised controlled trials in Brazil, South Africa, and the UK. Lancet. 2021 Jan 9; 397(10269): 99–111. doi: 10.1016/S0140-6736(20)32661-1


 

inge Thu, 21.01.2021 - 23:37

Comments

Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Fr, 15.01.2021 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Covid-19 Patienten weisen häufig neurologische Beschwerden auf, die neben Störungen des Geruchs- und Geschmacksinns u.a. zu Verwirrtheit und lähmender Müdigkeit führen und auch nach Abklingen der akuten Infektion lange bestehen bleiben können. Mit Hilfe von hochauflösender Magnetresonanztomographie haben NIH-Forscher am National Institute of Neurological Disorders and Stroke (NINDS) postmortales Hirngewebe von COVID-19 Patienten untersucht und Entzündungen festgestellt, die zu undichten Blutgefäßen und Gerinnseln führten. Dafür, dass das Virus SARS-CoV-2 selbst in das Hirngewebe eingedrungen war, konnten sie allerdings keinen Hinweis finden. Francis Collins, Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff  mRNA-1723 designt und entwickelt haben, berichtet über diese Untersuchungen.*

COVID-19 ist zwar in erster Linie eine Erkrankung der Atemwege, kann aber auch zu neurologischen Problemen führen. Als erstes solcher Symptome dürfte der Verlust des Geruchs- und Geschmackssinns auftreten; manche Menschen können später auch mit Kopfschmerzen, lähmender Müdigkeit und Schwierigkeiten klar zu denken zu kämpfen haben, die manchmal als „Gehirnnebel“ ("Brain Fog") umschrieben werden. Bei all diesen Symptomen fragen sich Forscher, was genau das COVID-19 verursachende Coronavirus SARS-CoV-2, im menschlichen Gehirn bewirkt.

Auf der Suche nach Anhaltspunkten haben NIH-Forscher am National Institute of Neurological Disorders and Stroke (NINDS) nun die ersten eingehenden Untersuchungen an Gewebeproben von Gehirnen durchgeführt, die von verstorbenen COVID-19 Patienten stammten. Die Ergebnisse wurden im Fachjournal New England Journal of Medicine veröffentlicht und legen nahe, dass die vielen neurologischen Symptome von COVID-19 wahrscheinlich durch die weit ausufernde Entzündungsreaktion des Körpers auf die Infektion und die damit einhergehende Verletzung der Blutgefäße erklärt werden können und nicht auf Grund einer Infektion des Gehirngewebes selbst [1].

Unter der Leitung von Avindra Nath hat das NIH-Team postmortales Hirngewebe von 19 COVID-19 Patienten mit einem leistungsstarken Magnetresonanztomographen (MRT) untersucht (das bis zu zehnmal empfindlicher als ein übliches MRT-Gerät war).Es handelte sich dabei um Patienten, die zwischen 5 und 73 Jahre alt waren; einige von ihnen hatten bereits bestehende Erkrankungen wie Diabetes, Fettleibigkeit und Herz-Kreislauf-Erkrankungen.

Das Team konzentrierte sich auf die Riechkolben des Gehirns, die unsere Fähigkeit zu riechen steuern, und auf den Hirnstamm, der die Atmung und die Herzfrequenz reguliert. Basierend auf früheren Erkenntnissen nimmt man an, dass beide Regionen für COVID-19 sehr anfällig sind.

Tatsächlich zeigten die MRT-Bilder in beiden Regionen eine ungewöhnliche Anzahl heller Flecken, ein Merkmal einer Entzündung. Sie zeigten auch dunkle Flecken, die auf Blutungen hinweisen. Abbildung 1.

Abbildung 1. Magnetresonanz Mikroskopie des unteren Teils des Hirnstamms eines an COVID-19 verstorbenen Patienten. (Der gezeigte Ausschnitt misst etwa 20 x 15 mm ; Anm. Redn.) Die Pfeile markieren helle und dunkle Flecken, die auf Schäden an den Blutgefäßen hindeuten, jedoch ohne Anzeichen einer Infektion mit SARS-CoV-2 . (Credit: National Institute of Neurological Disorders and Stroke, NIH)

Ein genauerer Blick auf die hellen Flecken zeigte, dass winzige Blutgefäße in diesen Bereichen dünner als normal waren und in einigen Fällen Blutproteine in das Gehirn austreten ließen. Diese Durchlässigkeit schien offensichtlich eine Immunreaktion auszulösen, welche sich auf T-Zellen aus dem Blut und die Mikroglia des Gehirns erstreckte. Die dunklen Flecken zeigten ein anderes Muster mit undichten Gefäßen und Gerinnseln, aber ohne Anzeichen einer Immunreaktion.

Diese Ergebnisse sind zweifellos interessant, ebenso bemerkenswert ist aber auch das, was Nath und Kollegen in diesen Proben menschlichen Gehirns nicht gesehen haben. Sie konnten in den Proben keine Hinweise darauf finden, dass SARS-CoV-2 selbst in das Hirngewebe eingedrungen war. Tatsächlich lieferten mehrere Methoden zum Nachweis von genetischem Material oder von Proteinen des Virus negative Ergebnisse.

Die Ergebnisse sind besonders aufregend, da aufgrund von Studien an Mäusen Hinweise darauf vorliegen, dass SARS-CoV-2 die Blut-Hirn-Schranke passieren und in das Gehirn eindringen könnte. So hat ein kürzlich von NIH-finanzierten Forschern im Journal Nature Neurosciences veröffentlichter Bericht gezeigt, dass das virale Spike-Protein, wenn es Mäusen injiziert wurde, neben vielen anderen Organen leicht in das Gehirn gelangt ist [2].

Ein weiterer, kürzlich im Journal of Experimental Medicine veröffentlichter Bericht, in dem Gehirngewebe von Mäusen und Menschen untersucht wurde, legt nahe, dass SARS-CoV-2 tatsächlich das Zentralnervensystem einschließlich des Gehirns direkt infizieren kann [3]. Bei Autopsien von drei Personen, die an den Folgen von COVID-19 starben, stellten die vom NIH-geförderten Forscher Anzeichen von SARS-CoV-2 in Neuronen der Hirnrinde des Gehirns fest. Diese Arbeit wurde mit Hilfe der Immunhistochemie durchgeführt, einer mikroskopischen Methode bei der Antikörper verwendet werden, um an ein Zielprotein - in diesem Fall das Spike-Protein des Virus - zu binden.

Es ist klar, dass hier noch mehr Forschung erforderlich ist. Nath und Kollegen setzen ihre Untersuchungen fort, auf welche Weise COVID-19 auf das Gehirn einwirkt und die bei COVID-19-Patienten häufig auftretenden neurologischen Symptome auslöst. Während wir mehr über die vielen Wege erfahren, auf denen COVID-19 Verwüstungen im Körper anrichtet, wird das Verständnis der neurologischen Symptome entscheidend sein, um Menschen - einschließlich der Kranken mit dem sogenannten Long Covid (Langzeit-Covid ) Syndrom - auf dem Weg der Besserung von dieser schrecklichen Virusinfektion zu helfen.


[1] Microvascular Injury in the Brains of Patients with Covid-19. Lee MH, Perl DP, Nair G, Li W, Maric D, Murray H, Dodd SJ, Koretsky AP, Watts JA, Cheung V, Masliah E, Horkayne-Szakaly I, Jones R, Stram MN, Moncur J, Hefti M, Folkerth RD, Nath A. N Engl J Med. 2020 Dec 30.

[2] The S1 protein of SARS-CoV-2 crosses the blood-brain barrier in mice. Rhea EM, Logsdon AF, Hansen KM, Williams LM, Reed MJ, Baumann KK, Holden SJ, Raber J, Banks WA, Erickson MA. Nat Neurosci. 2020 Dec 16.

[3] Neuroinvasion of SARS-CoV-2 in human and mouse brain . Song E, Zhang C, Israelow B, et al. J Exp Med (2021) 218 (3): e20202135.


 * Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am14. Jänner 2021) im NIH Director’s Blog unter dem Titel: " Taking a Closer Look at COVID-19’s Effects on the Brain" https://directorsblog.nih.gov/2021/01/14/taking-a-closer-look-at-the-effects-of-covid-19-on-the-brain/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Artikel von Francis S. Collins zu COVID-19 im ScienceBlog


 

inge Thu, 14.01.2021 - 21:56

Comments

Covid (not verified)

Mon, 08.02.2021 - 11:24

Reinfection reports are as yet uncommon yet consistently developing around the globe, and they're likely underreported. Individuals can get COVID-19 twice. That is the arising agreement among wellbeing specialists who are becoming familiar with the likelihood that those who've recuperated from the Covid can get it once more.

2020

2020 mat Fri, 27.12.2019 - 10:04

PCR, Antigen und Antikörper - Fünf Dinge, die man über Coronavirus-Tests wissen sollte

PCR, Antigen und Antikörper - Fünf Dinge, die man über Coronavirus-Tests wissen sollte

Do, 31.12.2020 — Redaktion

RedaktionIcon Medizin Tests sind von entscheidender Bedeutung, um das Coronavirus zu diagnostizieren und seine Ausbreitung einzudämmen. Es gibt zwei Arten von Covid-19-Tests: solche, mit denen festgestellt werden soll, ob Sie jetzt an der Infektion leiden, oder solche, mit denen überprüft werden soll, ob Sie zuvor mit dem Krankheit verursachenden Virus - SARS-CoV-2 - infiziert wurden. Wie jedes andere Produkt weisen diese Tests unterschiedliche Genauigkeits- und Zuverlässigkeitsgrade auf und können verwendet werden, um unterschiedliche Ziele zu erreichen. Das EU Research and Innovation Magazine "Horizon" zeigt kritische Punkte auf.*

Wir brauchen Technologien, die schnell sind, genau sind, einen hohen Durchsatz erlauben und keine teuren, komplexen Laborgeräte oder das Fachwissen hochqualifizierter Mitarbeiter erfordern. Zur Zeit gibt es aber nichts, das all diese Kriterien erfüllt, sagt Professor Jon Deeks, ein Biostatistiker und Testexperte von der Universität Birmingham, UK. "Wir besitzen noch keinen derart perfekten Test, aber einige, die in manchen Aspekten gut sind, in anderen aber nicht."

Hier sind nun fünf Punkte, die man über Coronavirus-Tests wissen sollte:

1. Am gebräuchlichsten sind PCR- und Antigen-Tests; diese funktionieren aber auf unterschiedliche Weise

Um das Vorhandensein des Virus festzustellen suchen Antigentests nach Proteinen (Proteinfragmenten) auf seiner Oberfläche. PCR-Tests (Polymerasekettenreaktionen) wurden entwickelt, um genetisches Material des Virus - d.i. die RNA - festzustellen, welches die Anweisung zur Herstellung dieser Proteine enthält.

Als Probe benötigen beide Tests einen Abstrich aus dem tiefen Nasenraum (Abbildung 1) oder der hinteren Rachenwand. Ist das Ergebnis positiv, können aber beide Testarten keine Aussage treffen, ob man auch ansteckend ist. Und hier enden auch schon die Ähnlichkeiten.

Abbildung 1. Um einen optimalen Abstrich durch die Nase zu erhalten, muss das Wattestäbchen bis zur Hinterwand des Nasen/Rachenraums geführt werden. (Bild: Collecting a nasopharyngeal swab Clinical Specimen; US Center of Disease Control and Prevention (CDC); Screenshot. von der Redaktion eingefügt)

Im Falle des PCR-Tests wird die Probe an ein Labor geschickt, wo unter Verwendung spezieller Reagenzien die RNA des Virus in DNA (sogenannte c-DNA) umgeschrieben und - zur Identifizierung des Pathogens - in einer Serie von Kühl-und Erwärmungsschritten millionenfach vervielfacht wird. Dieser Prozess kann Stunden dauern, erfordert hochentwickelte Laborgeräte und ausgebildete Techniker; normalerweise wird jede Probe jeweils einzeln untersucht; allerdings gibt es Maschinen, die mehrere Proben gleichzeitig verarbeiten können. Der zeitaufwändige Prozess zahlt sich aus, da infizierte Personen mit fast 100% Präzision erkannt werden, sofern sich Viren in dem Abstrich befinden.

Im Gegensatz dazu funktionieren Antigentests - oft als Schnelltests bezeichnet -, indem die Abstrichs-Probe mit einer Lösung gemischt wird, die bestimmte virale Proteine freisetzt. Diese Mischung wird dann auf einen Papierstreifen aufgebracht, der einen maßgeschneiderten Antikörper für diese Proteine enthält, und diese bindet, falls sie vorhanden sind. Wie bei einem Schwangerschaftstest zu Hause spiegelt sich das Ergebnis als Bande auf dem Papierstreifen wider. Abbildung 2.

Abbildung 2. Der Antigentest-Kit (links). Der Nasen- oder Rachenabstrich wird mit der Testflüssigkeit vermischt auf einen Papierstreifen aufgetragen (Mitte) und kurz danach kann das Ergebnis abgelesen werden (rechts). (Quelle: Wikipedia dronepicr - Safe Corona Rapid Test Diagnostic; Lizenz cc-by-2.0. Bild von Redn. eingefügt.)

Dieser Prozess erfordert kein Labor und kann in bis zu 30 Minuten durchgeführt werden. Die Schnelligkeit geht jedoch zu Lasten der Empfindlichkeit. Obwohl diese Tests zuverlässig sind, wenn eine Person eine hohe Viruslast aufweist, sind sie weitaus anfälliger für falsch negative Ergebnisse, wenn jemand geringe Mengen des Virus im Körper hat.

2. Sensitivität und Spezifität sind Kriterien für die Brauchbarkeit eines Tests

Diese beiden Kriterien werden verwendet, um die Aussagekraft eines Tests zu bestimmen: "Wie gut erkennt dieser Test Krankheiten und wie gut erkennt er die Abwesenheit von Krankheiten", erklärt Prof. Deeks.

Die Sensitivität ist definiert als der Anteil an mit Covid-19 infizierten Personen, die korrekt ein positives Ergebnis erzielen, während die Spezifität der Anteil der nicht-infizierten Personen ist, welche der Test korrekt als negativ identifiziert.

Ein hochsensitiver Test weist im Allgemeinen eine niedrige Falsch-Negativ-Rate auf, birgt jedoch das Risiko von falsch-positiven Ergebnissen, wenn seine Spezifität nicht auf dem neuesten Stand ist. Auf der anderen Seite besteht bei einem hochspezifischen Test das Risiko von falsch negativen Ergebnissen, wenn die Sensitivität des Tests gering ist; im Allgemeinen wird es eine niedrige falsch positive Rate geben. PCR-Tests gelten als Goldstandard, da sie im Allgemeinen hochsensitiv und hochspezifisch sind.

3. Wenn es um Schnelltests geht, kann von entscheidender Bedeutung sein, wer den Test ausführt

Im Rahmen der Pläne der britischen Regierung zur Durchführung von Massenimpfungen wurde in Liverpool ein Antigentest namens Innova Lateral Flow Test eingeführt. Das Ziel war Arbeitnehmern damit die Rückkehr in die Büros zu ermöglichen und Familien ihre Angehörigen in Pflegeheimen wieder umarmen zu können, stellt Prof. Deeks fest.

Dieses Freitesten („Test to Enable“ -Strategie) schlug jedoch fehl; Wissenschaftler fanden heraus, dass in einer Population von Menschen, die zum überwiegenden Teil Symptome aufwiesen, die Sensitivität des Tests auf etwa 58% sank, wenn dieser von selbstgeschultem Personal durchgeführt wurde. Im Gegensatz dazu stieg die Sensitivität auf 73%, wenn der Test von qualifizierten Krankenschwestern ausgeführt wurde und auf 79%, wenn Laborwissenschaftler testeten. In einer Studie an asymptomatischen Menschen fiel die Sensitivität im Vergleich zu PCR-Tests auf etwa 49%.

"Man kann also von einem Trend sprechen, je erfahrener die Leute im Ausführen des Tests sind, desto weniger Fälle werden übersehen", sagt er. Es gibt einige Schritte, die sehr sorgfältig erfolgen müssen, wie beispielswise das genaue Ablesen. "Manchmal ist es schwer zu sagen, ob es sich um eine Bande oder um eine Verunreinigung handelt", sagt Prof. Deeks.

PCR-Tests werden im Labor durchgeführt, das Risiko für Fehler ist viel geringer, fügt er hinzu.

Die Produzenten versuchen auch Tests für zu Hause zu entwickeln. Angesichts der von uns gesammelten Erfahrungen, wie die Genauigkeit von Schnelltests davon abhängt, wer diese ausführt, ist dies ein Problem, meint Prof. Deeks.

"Wenn die Leute Tests einfacher durchführen können, werden mehr Leute getestet ... ich glaube aber nicht, dass wir den Test haben, um dies schon zu tun", sagt er. Und fügt hinzu, dass es keine guten Studien gibt, die untersuchen, welchen Nutzen diese zusätzlichen Tests haben würden, beispielsweise welche Auswirkungen wiederholte falsch-negative Ergebnisse auf das Verhalten haben könnten.

In einem am 18. Dezember veröffentlichten Proposal für gemeinsame Regeln bei Antigen-Schnelltests erklärte die Europäische Kommission, dass Antigen-Schnelltests von geschultem medizinischem Personal oder anderen geschulten Kräften durchgeführt werden sollten (1)

 4. Bevor Schnelltests genauer werden, sollten negative Testergebnisse nicht zur Förderung riskanter Aktivitäten dienen

Wenn ein Test wie der Innova-Test bis zur Hälfte der Fälle falsch liegt, kann man wirklich niemand als frei von dem Risiko betrachten infiziert zu sein oder die Infektion zu verbreiten, bemerkt Prof. Deeks.

"Man wird immer einen kleinen Prozentsatz an Leute haben, die bei allen Tests herausfallen", sagt Gary Keating, Chief Technology Officer von HiberGene, einem in Irland ansässigen Unternehmen, das einen Covid-19-Test vertreibt. Der Test verwendet die LAMP-Technologie, eine billige Alternative zur PCR-Technologie.

"Ich denke, es ist immer gefährlich, einen einzelnen diagnostischen Test isoliert durchzuführen und diesen als Grundlage zu verwenden, um eine sehr wichtige Entscheidung in Hinblick auf Gesundheit oder Lebensstil zu treffen", sagt Keating.

In großem Maßstab angewandt könnten solchen Ergebnisse zu einem falschen Sicherheitsgefühl führen, meint Prof. Deeks.

Regierungen sind daran interessiert, Schnelltests zu verwenden, da diese billiger sind und schneller für Kampagnen zur Massenimpfung eingesetzt werden können. Da sie jedoch hinsichtlich der Genauigkeit limitiert sind, ist es wichtig, negative Testergebnisse nicht dazu zu verwenden, um riskantere Aktivitäten wie das Treffen mit älteren oder schutzbedürftigen Angehörigen zu ermöglichen, sagt er.

Einige Länder, wie die Vereinigten Staaten, empfehlen einen PCR-Test, wenn Personen mit Symptomen mit einem Antigen-Schnelltest negativ getestet werden, um das Ergebnis zu bestätigen.

Wenn Schnelltests auch gut dazu geeignet sind, Menschen mit hoher Viruslast zu erfassen, so ist es noch nicht klar, bis zu welchem Grenzwert an Viren keine Ansteckung erfolgt. Bei Covid-19 weisen die Infizierten in der frühen Phase der Infektion einen Spitzenwert der Viruslast, aber die virale RNA kann Wochen oder sogar Monate lang bestehen bleiben. Abbildung 3.

Abbildung 3. Nachweis von SARS-CoV-2 mittels PCR-Test in Nasen-Abstrichen von Patienten mit mildem bis moderatem Krankheitsverlauf. 4 Wochen nach Einsetzen der Symptome trugen die Patienten noch rund 30 % der maximalen Virenlast. (Quelle: Dr Ai Tang Xiao - https://www.cdc.gov/coronavirus/2019-ncov/community/strategy-discontinue-isolation.html https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7. Lizenz cc-by 4.0. Das Bild wurde von der Readktion eingefügt.)

 

5. Antikörpertests könnten nützlich sein, um die Dauerhaftigkeit von Impfreaktionen zu messen

Antikörper sind Soldaten, die vom Immunsystem als Reaktion auf einen fremden Eindringling - in diesem Fall SARS-CoV-2 - eingesetzt werden. „Ursprünglich bestand die Hoffnung, dass Antikörpertests es uns ermöglichen könnten, die Krankheit schnell und einfach zu diagnostizieren. Es stellt sich jedoch heraus, dass die Tests noch zwei bis vier Wochen lang (nach der Infektion) kein positives Ergebnis zeigen“, sagt Prof. Deeks.

Und es kommt noch ärger, denn selbst wenn Sie positiv auf Antikörper getestet werden, bringt Ihnen diese Information nicht viel, außer einer hohen Wahrscheinlichkeit, dass Sie in der Vergangenheit Covid-19 gehabt haben. "Wir haben keine Ahnung, welche Konzentrationen an Antikörpern zum Schutz vor der Krankheit führen und welcher Antikörpertyp am wichtigsten ist. Ich bin mir nicht sicher, ob auch darüber Konsens besteht", sagt er.

Es ist auch unklar, wie lange Covid-19-Antikörper im Körper verbleiben oder ob jemand, der positiv auf Antikörper getestet wurde, sich das Virus nicht wieder einfängt.

Wofür diese Tests nützlich sein könnten, ist die Ausbreitung von Covid-19 populationsweit abzuschätzen - zum Beispiel, wie viel Prozent der Bevölkerung und welche ethnischen Gruppen sich Covid-19 zugezogen haben, sowie um die Dauerhaftigkeit von Impfreaktionen zu messen, fügt Prof. Deeks hinzu.


(1)  Proposal for a common framework for the use, validation and mutual recognition of COVID-19 rapid antigen tests in the EU).


 *Der Artikel ist am 18. Dezember 2020 im Horizon, the EU Research and Innovation Magazine unter dem Titel: " PCR, antigen and antibody: Five things to know about coronavirus tests" https://horizon-magazine.eu/article/pcr-antigen-and-antibody-five-things-know-about-coronavirus-tests.html (Autorin: Natalie Grover). Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Drei Abbildungen wurden von der Redaktion eingefügt.


Weiterführende Links

WHO's Science in 5 on COVID-19 - Tests, Video 4:49 min. (Englisch) https://www.who.int/emergencies/diseases/novel-coronavirus-2019/media-resources/science-in-5/episode-14---covid-19---tests

Michael Wagner: COVID-19 Faktencheck: Welche COVID-19 Testverfahren gibt es? Video 7:37 min. https://www.youtube.com/watch?v=6IsrIO9RT3w

Jon Deeks, Prof.of Biostatistics, Institute of Applied Health Research, University Birmingham. https://bit.ly/37X6wBP


 

inge Wed, 30.12.2020 - 22:12

Myelin ermöglicht superschnelle Kommunikation zwischen Neuronen

Myelin ermöglicht superschnelle Kommunikation zwischen Neuronen

Do, 24.12.2020 - 07:43 — Nora Schultz

Nora SchultzIcon Gehirn

Nervenzellen kommunizieren, indem sie elektrische Signale (Aktionspotentiale) auf eine lange Reise bis zu den Synapsen am Ende ihres Axons schicken – ein aufwändiger und verhältnismäßig langsamer Prozess. Mit der Hilfe der Oligodendrozyten - eine Art von Gliazellen - wird das Axon zum Super-Highway. Diese Zellen umwickeln mehrere Axone abschnittsweise, versorgen sie mit Energie und isolieren die ummantelten Stücke mit ihrer als Myelin bezeichneten Biomembran elektrisch. Innerhalb der umwickelten Abschnitte kann sich das Aktionspotential viel schneller fortpflanzen. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über den Vorgang der Myelinisierung.*

Neuronen, die „grauen Zellen“ im Gehirn, haben ihren guten Ruf als Rechenmeister zu Recht. Doch erst in weiße Gewänder gehüllt, verbringen sie auch Kommunikationswunder. Damit Nervenzellen sich mit vielen, vielen weiteren Kolleginnen austauschen können, braucht es Axone. Abbildung 1.

Abbildung 1. Wie ein Neuron aussieht. Ein Neuron besteht aus einem Zellkörper und seinen Fortsätzen. Signal-empfangende Fortsätze nennen sich Dendriten, sendende Axone. Axone sind durch eine Myelin-Ummantelung elektrisch isoliert. (Bild: https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/bild-aufbau-eines-neurons. Lizenz: cc-by-nc)

Über diese Datenkabel treten sie in Kontakt miteinander und knüpfen weitläufige Netzwerke. Dabei überbrücken sie Entfernungen von bis zu mehreren Metern – für den Zellkosmos eine riesige Distanz. Um das zu bewerkstelligen, benötigen Axone entweder einen beachtlichen Durchmesser oder eine gute Isolierung. Die Lösung der Wirbeltiere heißt Isolierung durch Myelin, Dabei handelt es sich um eine besonders fetthaltige und daher weiß erscheinende, elektrisch isolierende Biomembran. Sie umwickelt die Axone.

Doch wie gelangt die Myelinscheide um die Axone? Und was genau bewirkt sie dort?

Von wegen langweilige Hülle

Was auf den ersten Blick wie eine langweilige Hülle wirkt, entpuppt sich bei genauerer Betrachtung als eine spannende, dynamische und hochkomplexe Angelegenheit. Direkt nach der Geburt ist im Gehirn des Neugeborenen noch vieles grau in grau. Die Myelinisierung der Axone, der die „weiße Substanz“ im Gehirn und Rückenmark ihren Namen verdankt, beginnt zwar bereits während der Schwangerschaft, setzt sich jedoch während der Kindheit fort und wird auch in der Pubertät noch einmal stark verfeinert. Und sogar darüber hinaus findet noch Myelinisierung statt – wenn auch in weit geringerem Maße.

Verantwortlich für die Isolationsarbeiten sind spezialisierte Helfer, die Oligodendrozyten. Jede dieser Zellen, die zu den Gliazellen zählen, kann mehrere Axonabschnitte auf verschiedenen Axonen mit Zellausstülpungen umwickeln, wie mit einem Verband. Abbildung 2. Damit fungieren die Oligodendrozyten zusätzlich auch noch als Kabelbinder, die mehrere Axone bündeln. Außerdem versorgen sie das Axon und seine vielen energiehungrigen Ionenpumpen mit Nährstoffen.

Abbildung 2. Isolierung der Axone per Myelin. Die Ummantelung übernehmen im Gehirn Oligodendrozyten, die auch mehrere Axone gleichzeitig umwickeln können. Die Zwischenräume werden als Ranviersche Schnürringe bezeichnet. Der Prozess der Myelinisierung kann bis zu 25 Jahre dauern. (Bild: https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/interaktiv-das-neuron-form-und-funktion. Lizenz cc-by-nc)

Geschwindigkeitsupgrade durch Isolation

Die Myelin-Verbände verleihen den elektrischen Signalen, den Aktionspotentialen, die entlang des Axons vom Zellkörper bis zu den Synapsen am anderen Zellende reisen, ein wahrlich sprunghaftes Geschwindigkeitsupgrade. Ohne Myelin pflanzt sich ein solches Aktionspotential fort, indem es die Spannung an der Zellmembran Schritt für Schritt über die Gesamtlänge des Axons verändert. Wird ein bestimmter Schwellenwert überschritten, öffnen sich spannungsgesteuerte Membrankanäle, die schlagartig viele positiv geladene Natriumionen ins Zellinnere strömen lassen. Dadurch schnellt das Membranpotential an dieser Stelle noch weiter nach oben und schubst auch die weiter flussabwärts liegende Region über den Schwellenwert, sodass sich dort ebenfalls die spannungsgesteuerten Kanäle öffnen. Das Aktionspotential fließt so per Kettenreaktion bis zum Ende des Axons. Abbildung 3, oben.

Dieser Prozess läuft allerdings relativ langsam ab, mit einer Geschwindigkeit von rund einem Meter pro Sekunde. Wärmere Temperaturen oder ein größerer Axondurchmesser, bei dem pro Einheit Membranoberfläche mehr elektrisch leitendes Innenvolumen – und damit ein reduzierter Längswiderstand – vorhanden ist, vermögen die Reise zu beschleunigen. Manche Weichtiere wie Tintenfische und Meeresschnecken nutzen diese Strategie, um mit ganz besonders dicken Axonen von bis zu einem Millimeter Durchmesser besonders schnelle Signale zu verschicken, auch ohne Myelinisierung.

Bei Wirbeltieren und somit auch im menschlichen Gehirn hingegen sorgt das Myelin für mehr Geschwindigkeit – bei gleichzeitig großer Platzersparnis im hochkomplexen Zentralnervensystem. Es erlaubt dem elektrischen Signal vor allem, umwickelte Axonabschnitte einfach zu überspringen. Dank der Isolierwirkung kann das lokal entstandene Aktionspotential sich vergleichsweise ungestört im Inneren des Axons als elektrisches Feld fortpflanzen. Dieses reicht aus, um an der nächsten Lücke, wo die Zellmembran freiliegt, dem Ranvierschen Schürring, den Schwellenwert für die Öffnung der spannungsgesteuerten Kanäle zu erreichen. Das Aktionspotential springt nun rasend schnell von einem Ring zum nächsten und ermöglicht so eine enorme Leitgeschwindigkeit – von bis zu 100 Metern pro Sekunde. Abbildung 3, unten.

Abbildung 3.Die Erregungsleitung - Geschwindigkeit des Aktionspotentials - im Axon. Im nicht-myelinisierten Axon (oben) pflanzt sich das elektrische Signal kontinuierlich mit einer Geschwindigkeit von 2 - 3 m/sec fort. Im myelinisierten Axon (unten) springt das Aktionspotential von einem Ranvier'schen Schnürring zum nächstenund erreicht Geschwindigkeiten bis zu 100 m/sec. ((Bild: https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/interaktiv-das-neuron-form-und-funktion. Lizenz cc-by-nc)

Trotz der raffinierten Isolationsstrategie gilt bei der Übertragungsgeschwindigkeit: „size matters“. Sie hängt von der Dicke des Axons unter dem Myelin ab sowie seiner Dicke an den dazwischen liegenden Schnürringen. Außerdem zählen die Dicke der Myelinscheide selbst und die Länge der umwickelten Abschnitte.

Benedikt Grothe von der Ludwig-Maximilians Universität München erforscht die Signalübertragung im Hörsystem, wo es oft auf Millisekunden ankommt, um feine Unterschiede zwischen Tönen auseinanderzuhalten. In Versuchen und Modellierungen hat er herausgefunden, dass die schnellstmögliche Signalübertragung stattfindet, wenn der Axondurchmesser groß und die Myelinsegmente kurz sind . Die Höchstgeschwindigkeit hat allerdings ihren Preis, da bei vielen kurzen isolierten Segmenten auch die Zahl der Schnürringe im Verlauf der Faser steigt, an denen das Aktionspotential aktiv weiterspringen muss – ein Prozess, der viel Energie benötigt. „In der Praxis beobachten wir daher oft einen Kompromiss zwischen Schnelligkeit und den metabolischen Kosten“, sagt Grothe. “Aber wenn der Schaltkreis es verlangt, kann die Geschwindigkeit ausgereizt werden.“ Auch entlang eines einzelnen Axons können die Faktoren variieren. Zum Ende des Axons hin beobachten die Forscher etwa eine zunehmende Optimierung von Axondurchmesser und Myelinsegmentlänge ausgerichtet auf Schnelligkeit. Vermutlich dient das der Absicherung, damit das Aktionspotential die Synapse zuverlässig erreicht.

Myelinisierung als Bestandteil der Plastizität

Die Myelinschicht ist also mehr als nur Isolation. Vielmehr handelt es sich um eine sehr präzise Konfiguration von Axon und umwickelnden Oligodendrozyten. Und diese ist bei Weitem nicht starr. „Veränderungen in der Myelinisierung haben viel mit neuronaler Plastizität gemeinsam, auch wenn die Prozesse Monate statt Tage dauern“, sagt Tim Czopka, der mit seiner Arbeitsgruppe derzeit von der Technischen Universität München an die University of Edinburgh umzieht. Er untersucht mit seinem Team bei Zebrafischen, wie sich die Myelinisierung in Abhängigkeit von den Aktivitäten und Erfahrungen einzelner Nervenzellen wandelt. Auch beim Menschen lässt sich beobachten, dass sich intensive und längerfristige Lernprozesse auf die weiße Substanz im Gehirn auswirken. Lernt man beispielsweise Jonglieren oder ein neues Instrument, nimmt die weiße Substanz im manchen Regionen zu; bestimmte Schaltkreise werden verstärkt myelinisiert, um die Signalübertragung dort zu verbessern. “Die Verschaltungen zwischen Neuronen über Synapsen sind nur eine Ebene der Kommunikation innerhalb eines Netzwerks, aber damit die Impulse auch zur richtigen Zeit am richtigen Ort ankommen, muss auch die Myelinisierung angepasst werden“, so Czopka.

Ist ein Axon erst einmal vollständig umwickelt, kann es gemeinsam mit seinen Oligodendrozyten zwar noch einige Feinjustierungen vornehmen, beispielsweise seinen Durchmesser verändern oder die Länge der myelinisierten Abschnitte und die Position der Schnürringe anpassen. Andere Formen der Plastizität sind dann aber nicht mehr möglich. Axonabzweigungen etwa kann es aus seinem Korsett heraus wohl nicht mehr bilden. Czopka vermutet daher, dass die besonders spannenden Ereignisse überall dort stattfinden, wo Axonteile noch nicht – oder gerade nicht mehr – umwickelt sind. Dann gibt es viele Möglichkeiten für Neuronen und Oligodendrozyten, im Austausch miteinander und in Reaktion auf die Aktivitäten im System ihre individuelle Konfiguration zu finden.

Lernen vom Zebrafisch

Die Kommunikation beginnt damit, dass die Vorläuferzellen der Oligodendrozyten auf Partnersuche gehen. Inspiriert von bislang größtenteils unbekannten Signalen tasten die Zellen dann ihr Umfeld nach geeigneten Neuronen ab. „Sie versuchen, alles Mögliche mit Stummelfortsätzen zu umwickeln, wie kleine Spinnen“, erzählt Czopka, der diese Vorgänge in den transparenten Larven von Zebrafischen live filmt. Je nach den Signalen, die sie im Umfeld eines bestimmten Axons finden, stabilisieren sie die Fortsätze oder ziehen sie wieder zurück.

Bereits jetzt zeichnet sich ab, dass der Austausch zwischen beiden Zelltypen sehr fein aufeinander abgestimmt ist. Oligodendrozyten und ihre Vorläufer haben selbst viele Rezeptoren für Neurotransmitter und spannungsabhängige Ionenkanäle, mit denen sie der Aktivität von Neuronen „zuhören“ können. Ist eine Nervenzelle sehr aktiv, verändert sich auch die metabolische Aktivität der sie umwickelnden Oligodendrozyten: Sie teilen und differenzieren sich stärker. Die genaue Identität und Dynamik dieser Signale zu verstehen, ist eines der Forschungsziele von Czopka und seinem Team.

Hinter diesen Forschungsaktivitäten steckt auch der Wunsch, die Zusammenarbeit zwischen Neuronen und Oligodendrozyten in Zukunft wieder besser ins Lot bringen zu können, nachdem sie etwa durch Krankheit oder Verletzung gestört wurde. Bei der Multiplen Sklerose zum Beispiel greifen fehlgeleitete Immunzellen die Oligodendrozyten an und zerstören die Myelinscheide so, zumindest vorübergehend. Das gefährdet sowohl die Energieversorgung der Neuronen als auch ihre Kommunikation mit anderen Nervenzellen. Je nach Krankheitsverlauf kann sich das System jedoch wenigstens teilweise erholen und zerstörte Myelinscheiden neu bilden. Die Hoffnung ist, eines Tages durch gezieltes Eingreifen in das Entstehen und die Aktivität von Oligodendrozyten die Funktion neuronaler Netze passgenau reparieren zu können.


Zum Weiterlesen:

  • Ford MC et al: Tuning of Ranvier node and internode properties in myelinated axons to adjust action potential timing. Nature Communications, 2015, 6:8073. https://www.nature.com/articles/ncomms9073 
  • Marisca R et al: Functionally Distinct Subgroups of Oligodendrocyte Precursor Cells Integrate Neural Activity and Execute Myelin Formation. Nat Neurosci. 2020 Mar; 23(3): 363–374.  10.1038/s41593-019-0581-2

* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Der vorliegende Artikel ist am 1.Dezember 2020 unter dem Titel: "Highspeed dank Myelin" erschienen (https://www.dasgehirn.info/grundlagen/struktur-und-funktion/highspeed-dank-myelin). Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt und mit einigen Abbildungen von der Webseite Neurone - Bausteine des Denkens: https://3d.dasgehirn.info/#highlight=grosshirnrinde&sidebar=1 ergänzt.


Artikel im ScienceBlog


 

inge Wed, 23.12.2020 - 20:59

Warum ergeht es Männern mit COVID-19 schlechter? Dreifarbige Katzen geben einen Hinweis

Warum ergeht es Männern mit COVID-19 schlechter? Dreifarbige Katzen geben einen Hinweis

Do, 17.12.2020 — Ricki Lewis

Ricki LewisIcon MedizinEine neue, auf mehr als 3 Millionen Infektionen mit SARS-CoV-2 basierende Metaanalyse zeigt weltweit zwar eine vergleichbare Ansteckungsrate von Männern und Frauen, allerdings landen Männer fast drei Mal so oft in der Intensivstation und haben eine 1,4 Mal höhere Sterblichkeitsrate [1]. Wie bei der dreifarbigen, stets weiblichen Katze, deren Farben durch Gene auf dem X-Chromosom kodiert werden, könnte - nach Meinung der Genetikerin Ricki Lewis - der den Verlauf von COVID-19 beeeinflussende Geschlechtsunterschied u.a. durch die Position einiger für die Erkrankung relevanter Gene auf dem X-Chromosom bedingt sein. Männer besitzen nur ein X-Chromosom, Frauen jedoch 2, wovon eines im weiblichen Embryo stillgelegt wird. Da die Auswahl des zu inaktivierenden X-Chromosom von jeder Zelle zufällig getroffen wird, entsteht ein chromosomales Mosaik - in Hinblick auf X-verknüpfte Gene der Immunabwehr und auch auf die Menge des auf den Zellen exprimierten ACE-2-Rezeptors, der Andockstelle des Coronavirus.*

Bereits zu Beginn der Pandemie zeigte sich, dass das männliche Geschlecht unserer Spezies schlechter in der Klinik abschnitt. Eine Mitte Mai von italienischen Forschern veröffentlichte Studie lieferte frühe Statistiken, die von der WHO und chinesischen Wissenschaftlern stammten: diese zeigten eine Sterblichkeitsrate von 1,7% für Frauen und 2,8% für Männer. In weiterer Folge berichteten Krankenhäuser in Hongkong, dass 15% der Frauen und 32% der Männer mit COVID-19 eine Intensivpflege benötigten oder daran gestorben waren.

Im Juli stellte eine im Fachjournal Nature Reviews Immunology veröffentlichte Perspektive von Forschern der Johns Hopkins University und der University of Montreal eine, ähnliche „männlichen Trend“ für andere Virusinfektionen fest, einschließlich SARS und MERS. Bis dahin zeigten die breiten Community-Tests in Südkorea und Daten aus den USA eine 1,5-fach höhere Mortalität bei Männern. Das Muster wiederholte sich in 38 Ländern und zwar für Patienten jeden Alters.

Jetzt weitet eine neue in Nature Communications veröffentlichte Studie das erhöhte Risiko für diejenigen aus, die nur ein X-Chromosom haben - also für Männer. [1] Forscher vom University College London haben nun eine Metaanalyse durchgeführt, in der Ergebnisse von Untersuchungen an insgesamt 3.111.714 Fällen inkludiert waren. Was die Ansteckungsrate mit SARS-CoV-2 betrifft, haben sie dabei keinen Geschlechtsunterschied ausgemacht. Allerdings besteht bei Männern eine fast dreifache Wahrscheinlichkeit, dass sie Intensivpflege benötigen, und eine etwa 1,4-mal höhere Sterblichkeitsrate als bei Frauen. Abbildung 1 (von der Redn. eingefügt).

„Mit wenigen Ausnahmen ist der geschlechtsabhängige Trend von COVID-19 ein weltweites Phänomen. Zu verstehen, wie das Geschlecht den Verlauf von COVID-19 beeinflusst, wird wichtige Auswirkungen auf das klinische Management und die Strategien zur Milderung dieser Krankheit haben “, schließen sie.

Abbildung 1. SARS-VoV-2-infizierte Männer (m) landen wesentlich häufiger in Intensivstationen (ICU) und weisen höhere Mortalitätsraten (M) auf als Frauen (f). Die Grafik wurde nach den Daten in H. Peckham et al., Tabellen 3 und 4 [1] von der Redaktion erstellt. Die Veröffentlichung steht unter einer cc-by-Lizenz.

Um die offensichtliche Diskrepanz in der Schwere von COVID-19 zu erklären, haben einige Leute vorerst nach geschlechtsabhängigen Stereotypen gesucht, wie einer höheren Risikobereitschaft oder bestimmten Berufen und Aktivitäten von Männern (den Trägern eines X und eines Y-Chromosoms). Aber als der "männliche Trend" von Nation zu Nation auftauchte, ließ sich die schuldige Ursache an den biologischen Geschlechtsunterschieden festmachen, genauer ausgedrückt an den Unterschieden in den Geschlechtschromosomen.

Eine klassische genetische Erklärung, basierend auf dem Phänomen dreifarbiger Katzen

Eine dreifarbige Katze (Kaliko Katze) weist große farbige Flecken auf einer weißen Grundfläche auf, eine Schildpattkatze ein Mosaik aus Orange und Braun ohne Weiß. Abbildung 2. Fast alle Kalikos und Schildpattkatzen sind weiblich, da das Pigmentmuster aus der Expression von nur einem der beiden X-Chromosomen in jeder Zelle resultiert. (Genexpression bezieht sich auf die Zelle, die eine mRNA-Kopie eines Gens erstellt und die Informationen in eine Aminosäuresequenz eines bestimmten Proteins übersetzt. Das Protein bestimmt das zugehörige Merkmal.)

Abbildung 2. Die dreifarbige Katze Butters Lewis.

 

Für alle weiblichen Säugetiere ist die Inaktivierung eines der beiden X-Chromosmen ("X-Inaktivierung") charakteristisch. Damit werden unsere beiden X-Chromosomen zum funktionellen Äquivalent des nur einen X-Chromosoms des Mannes (technisch ausgedrückt: eine Dosis-Kompensierung). Das winzige Y-Chromosom ist im Vergleich dazu mickrig, auch, wenn es das Hauptgen enthält, das bestimmt, ob wir biologisch männlich oder weiblich sind.

Je früher in der Entwicklung eines weiblichen Embryos ein X-Chromosom in jeder Zelle ausgeschaltet ist, desto größer werden die Flecken (was immer deren Merkmale sind), da die Zellen sich weiter teilen und einfach mehr Zeit zum Teilen bleibt. Bei einem Kätzchen mit großen Flecken wurde ihr X-Chromosom als früher Embryo stillgelegt, wie bei Butters in Abbildung 1 (aufgrund ihrer blassen Farben ein „verdünntes“ Kaliko). Das zweite X-Chromosom schaltet sich bei Schildpattkatzen etwas später aus und erzeugt kleinere Flecken. Der weiße Untergrund bei dreifarbigen Katzen rührt von einem Gen auf einem anderen Chromosom her.

Das Phänomen ist epigenetisch. Das heißt, die zugrunde liegende DNA-Sequenz eines X-Chromosoms ändert sich nicht, aber Methylgruppen (CH3-Gruppen) klammern sich an Genabschnitte und schalten diese vorübergehend effizient aus. Diese epigenetischen Veränderungen bleiben in den Geschlechtszellen erhalten und drücken den Zellen erneut ihren Stempel auf, wenn der nachkommende Embryo weiblich ist.

Auf diese Weise macht die X-Inaktivierung jedes weibliche Säugetier zu einem chromosomalen Mosaik. Klinische Auswirkungen ergeben sich aus der Tatsache, dass es mehr oder weniger zufällig ist, welches X-Chromosom still gelegt wird.

So kann das stillgelegte X-Chromosom in einer Hautzelle dasjenige sein, das vom Vater einer Frau geerbt wurde, in einer Leberzelle das von der Mutter der Frau geerbte. Wenn eine Frau Trägerin von Hämophilie ist, ein normales X-Chromosom von ihrem Vater und ein Hämophilie tragendes X-Chromosom von ihrer Trägermutter erbt und das betroffene Gerinnungsfaktor-Gen in den meisten ihrer Leberzellen stillgelegt ist, wird sie leicht bluten (ein Phänomen, das als "heterozygote Manifestation" bezeichnet wird) .Das Gleiche gilt für Muskeldystrophie, die ebenso an das X-Chromosom geknüpft ist

Der Bezug zu COVID-19

SARS-CoV-2 greift gerne bestimmte Zellen an, nämlich solche, die ACE-2-Rezeptoren tragen. Solche Rezeptoren tragen viele Zelltypen, das Virus klammert sich bekanntlich aber an Zellen, welche die Atemwege auskleiden und die Alveolen bilden, jene winzigen ballonartigen Stellen an denen der Austausch zwischen Kohlendioxid im Blutkreislauf und eingeatmetem Sauerstoff stattfindet. Ein anderes Protein, TMPRSS2 (transmembrane Serinprotease-2), hilft dem Virus, in die Zelle einzudringen, und sich dort zu vermehren.

Das Gen, das für den ACE-2-Rezeptor codiert, befindet sich auf dem X-Chromosom.

Wenn also die beiden X-Chromosomen einer Frau unterschiedliche Varianten für Gene tragen, welche die Immunabwehr gegen Viren beeinflussen, kann das Inaktivierungsmuster dazu führen, dass ihre Zellen weniger ACE2-Rezeptoren tragen, was dann weniger Viren eintreten lässt und zu einem milderen Krankheitsverlauf führt. Ein Mann würde dagegen die gleiche Menge an ACE-2-Rezeptoren auf allen Zellen aufweisen, weil sein X -Chromosom niemals ausgeschaltet wird.

Darüber hinaus können zwei X-Chromosomen, auch wenn eines abschaltet, positiv auf die Immunabwehr wirken, indem mehr Optionen angeboten werden. Beispielsweise können Genvarianten auf einem X-Chromosom für Proteine codieren, die Viren erkennen, während Genvarianten auf dem anderen X -Chromosom eine Rolle bei der Abtötung viral infizierter Zellen oder der Auslösung von Entzündungen spielen. Einige Muster der X-Inaktivierung bieten möglicherweise genug von jeder Abwehr, um Infektionen in Schach zu halten. (Beispiele für solche Gene sind CD40LG und CXCR3, die beide für Proteine auf aktivierten T-Zellen kodieren, welche einen Großteil der Immunabwehr kontrollieren).

Einige Gene auf dem X-Chromosom entgehen der Inaktivierung. Zum Glück für uns als das „schwächere“ Geschlecht ist wiederum, dass eines davon das Gen ist, das für den Toll-like-Rezeptor 7 (TLR7) codiert.

Das „TLR7“ -Protein ist eine Art Torsteher, der zunächst das Vorhandensein des Virus erkennt. Anschließend startet es die angeborene Immunantwort, die breiter ist und der spezifischeren adaptiven Immunantwort vorausgeht, bei der B-Zellen - gelenkt von T-Zellen - Antikörper auswerfen. Frauen machen also doppelt so viel aus dem schützenden TLR7-Rezeptor wie Männer.

Einige von uns XX-Trägerinnen zahlen jedoch den Preis für unsere robuste Immunantwort mit Autoimmunerkrankungen, die wir mit höherer Wahrscheinlichkeit entwickeln.

Weitere Faktoren liegen den Unterschieden zwischen den chromosomalen Geschlechtern in Bezug auf Morbidität und Mortalität von COVID-19 zugrunde. Einige Unterschiede ergeben sich aus hormonellen Einflüssen sowie aus den Auswirkungen der wenigen Gene auf dem Y-Chromosom, welche die Immunität beeinflussen.

Natürlich können wir unsere Chromosomen nicht verändern. Das Erkennen von Risikofaktoren und das Verstehen, wie sie sich auf den Verlauf einer Infektionskrankheit auswirken, bei der die Zeit entscheidend ist und die Ressourcen begrenzt und überfordert sind, kann möglicherweise die Handlungsweise lenken und Ärzten bei Triage-Bemühungen helfen, wenn unsere Krankenhäuser überfordert sind.


[1] Hannah Peckham et al., Male sex identified by global COVID-19 meta-analysis as a risk factor for death and ITU admission. NATURE COMMUNICATIONS | (2020) 11:6317. https://doi.org/10.1038/s41467-020-19741-6


*Der Artikel ist erstmals am 10.Dezember 2020 in PLOS Blogs - DNA Science Blog unter dem Titel "Why Do Males Fare Worse With COVID-19? A Clue From Calico Cats" https://dnascience.plos.org/2020/12/10/why-do-males-fare-worse-with-covid-19-a-clue-from-calico-cats/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.  Abbildung 1 wurde von der Redaktion eingefügt.


Weiterführende Links

Robin Ball: Secrets of the X chromosome (2017) TED-Ed. Video 5:05 mim (Englisch) https://www.youtube.com/watch?v=veB31XmUQm8

Gottfried Schatz, 26.09.2013: Das grosse Würfelspiel — Wie sexuelle Fortpflanzung uns Individualität schenkt


 

inge Thu, 17.12.2020 - 00:13

Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg BrasseurIcon Politik und GesellschaftDo, 10.12.2020 — Georg Brasseur

Europa ist in gewaltigem Ausmaß von Energieimporten abhängig und diese bestehen noch zum weitaus überwiegenden Teil aus fossilen Energieträgern. Der Umbau des Energiesystems auf erneuerbare Energien wird den Bedarf an grünem Strom enorm steigen lassen und weit überschreiten, was in Europa an Wind- und Solarenergiekapazitäten erzielbar ist. Auf Grund ihrer geographischen Lage haben u.a. die Staaten des mittleren Ostens und Nordafrikas (MENA-Staaten) ein sehr hohes Potenzial für erneuerbare Energien. Europäische Investitionen in diesen Ländern, Transfer von Know-How, Technologien bis hin zur Installation von betriebsfertigen Anlagen zur Kraftstoffsynthese aus grünem Strom können einerseits Energieimporte nach Europa sichern, andererseits nachhaltige berufliche Perspektiven und wirtschaftliches Wachstum für die Bevölkerung der MENA-Staaten und anderer Regionen schaffen und damit dort auch Fluchtursachen reduzieren.

Wie in dem vorangegangenen Artikel "Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität" dargestellt, gehen Maßnahmen zur generellen Senkung des heutigen Weltenergiebedarfs und damit der Treibhausgasemissionen mit einer starken Steigerung des Bedarfs an elektrischer Energie einher [1]. Derzeit deckt die elektrische Energie rund 16 % des globalen Energiebedarfs und sie wird noch zum überwiegenden Teil aus fossilen Energieträgern hergestellt. Zur Erzeugung von grünem Strom stehen außer Atomkraft, Biomasse, Wasserkraft und Geothermie nur volatile Quellen zur Verfügung.

Wenn in allen Sektoren - Wohnen, Industrie, Transport - von fossiler Energie auf elektrische Energie umgestellt werden soll, wobei noch ein exponentiell wachsender Informations- und Kommunikationsbereich (IKT-Bereich) hinzukommt, woher soll/kann dann Strom kommen, der nicht aus fossilen Quellen stammt?

Dass ein Ausfall der Stromversorgung - ein Blackout - in allen hochindustrialisierten Ländern katastrophale Folgen haben würde, ist evident, dass die Elektrizitätsversorgung gesichert sein muss, ist daher oberstes Gebot.

Europas Bedarf an grünem Strom

Europa ist in enormem Ausmaß von Energieimporten abhängig und dabei handelt es sich derzeit zum allergrößten Teil um fossile Energieträger. Es stellt sich die Frage: Sind bei einem Umbau des Energiesystems die in Europa erzielbaren erneuerbaren Energien ausreichend, um den künftigen Bedarf an elektrischer Energie zu decken?

Das Beispiel Deutschland

Dies lässt sich am Beispiel der Bundesrepublik Deutschland abschätzen. Abbildung 1.

Im Jahr 2018 betrug der Bedarf an Primärenergie in Deutschland insgesamt 3650 TWh, davon wurden 35 % (1293 TWh) für die Stromerzeugung eingesetzt und damit Brutto 644 TWh Strom erzeugt (inklusive 34 TWh Eigenverbrauch der Kraftwerke). Nur 18 % der Primärenergie Deutschlands ist Strom und dieser wird zu 29 % aus Braunkohle erzeugt. 90 % der in 2018 in Deutschland geförderten Braunkohle dienen der Stromerzeugung. 30 % der Primärenergie wurden aus dem Inland bereitgestellt (gelb), und 70 % importiert (orange) [4].

Abbildung 1. Primärenergieverbrauch 2018 im Inland nach Energieträgern: Aus dem Inland bereitgestellte Energie (gelb) und importierte Energie (orange) in Petajoule und TWh (1 TWh = 3,6 PJ). Erneuerbare Energie: Biomasse/Bioabfälle/Biokraftstoffe (60 %), Windkraft (22 %), Photovoltaik/Solarthermie (11 %), Wasserkraft (4 %),. Datenstand 6. Dezember 2020; Quelle: https://www.ag-energiebilanzen.de/10-0-Auswertungstabellen.html

Deutschland deckt bereits 13,7% (500,6 TWh) des Primärenergiebedarfs durch erneuerbare Energien ab. 2018 lag die installierte Leistung von Windkraftwerken (29 000 Onshore und 1 350 Offshore) bei 59 GW, von Solarkraftwerken bei 45 GW (ca. 600 km2). Trotz der hohen installierten Leistungen lieferten die Kraftwerke „nur“ ein Drittel der erneuerbaren Energie, da die Einsatzzeiten und erzielbaren Leistungen volatil sind.

Inwieweit lassen sich aber die importierten fossilen Energieträger durch inländische Erneuerbare ersetzen?

Wollte man nur den Energieträger Steinkohle (396,7 TWh) durch erneuerbare Windenenergie ersetzen, so wären bei Betrieb mit der installierten Windkraftleistung von 59 GW im Jahr (d.i. in 8760 Stunden) theoretisch 517 TWh elektrischer Energie zu erzielen. Tatsächlich werden von Onshore Windrädern nur 15 % und von Offshore Windrädern nur 24 % der installierten Nennleistung erreicht. Um also allein Steinkohle zu ersetzen, müsste man die Zahl der Windräder um das 3,2 bis 5,1-fache erhöhen (für das Jahr 2018 war der Faktor 3,6). Ein Ersatz durch Photovoltaik ist noch problematischer, da zufolge der ungünstigen geographischen Lage nur 10 -13 % der Nennleistung erzielt werden. Um allein Steinkohle zu ersetzen, bräuchte man eine 7,7 bis 10-fache Erhöhung der Photovoltaikflächen (für das Jahr 2018 war der Faktor 8,7).

Wollte man nun auch Braunkohle durch Erneuerbare Energien ersetzen, so müsste man die bereits erhöhte Zahl an Windrädern/Photovoltaikflächen verdoppeln, bei Ersatz von Erdgas zusätzlich um das 2,2-fache erhöhen und für den Ersatz von Erdöl zusätzlich um das 3,1-fache erhöhen (insgesamt um das 6,3-fache erhöhen). Man müsste also insgesamt rund 20 bis 32 mal mehr Windräder oder 49 bis 63 mal größere Photovoltaikflächen errichten. Dass dies in Deutschland und Europa wohl nicht durchsetzbar sein wird, ist evident.

Generell lässt sich das angestrebte Null CO2 Szenario mit Strom als alleinige Ersatzenergiequelle nicht lösen, da viele Prozesse gasförmige und flüssige Energieträger benötigen. Damit sind die vorstehenden Angaben zur Anzahl an benötigten Windrädern und Photovoltaikflächen immer noch viel zu gering, da der Wirkungsgrad der Syntheseanlagen für gasförmige und flüssige Energieträger gering ist. Dadurch fallen zusätzliche hohe Investitionen für die Herstellung und Errichtung dieser Anlagen an. Allerdings böte dieser Weg auch große Vorteile, da man auf bestehende Transport-, Verteil- und Nutzungsinfrastruktur zurückgreifen könnte, wenn die Chemie der synthetischen Energieträger kompatibel zu den bestehenden fossilen Energieträgern – sogenannte „Drop-in Fuels“ gewählt würde.

Fakt ist, dass Deutschland, ja ganz Europa, nicht energieautonom sein kann und daher mindestens einen speicherfähigen und leicht transportierbaren Energievektor benötigt, um den grünen Primärenergiebedarf zu decken und damit das null CO2 Ziel in 2050 zu erreichen.

Das Beispiel Österreich

Zahlen des Bundesministerium für Landwirtschaft, Regionen & Tourismus für das Jahr 2018 gehen von einem Bruttoenergiebrauch von rund 508 TWh aus, rund 69 % basierten auf fossilen Energieträgern [2]. Abbildung 2.

Abbildung 2. Bruttoinlandsverbrauch in Österreich nach Energieträgern: Im Inland erzeugte Energie (gelb) und importierte Energie (orange) in Petajoule und TWh (1 TWh = 3,6 PJ). Erneuerbare Energie: Wasser-, Windkraft, Photovoltaik, Biomasse, erneuerbare Abfälle. Quelle: Zahlen entnommen aus [2].

27,3 % der Energie wurden im Inland generiert und bestanden zu rund 82 % aus erneuerbaren Formen, der Großteil (88,8 %) davon stammte aus festen biogenen Brenn- und Treibstoffen (63,06  TWh) und Wasserkraft (37,5 TWh). Windkraft (6,1 TWh) trug etwa 5,4 % zu den Erneuerbaren bei, Photovoltaik (1,4 TWh) rund 1,2 %.

Das österreichische Regierungsprogramm sieht bis 2030 einen Ausbau der Erneuerbaren um 27 TWh vor; insbesondere soll Photovoltaik um 11 TWh (auf rund das 6,5-fache) erhöht werden, Windkraft von 7,4 auf 17,4 TWh, die bereits weit ausgebauten Formen Wasserkraft und Biomasse um 5 TWh und 1 TWh [3]. Österreichs Strombedarf (2018 63,1 TWh [3]) soll dann damit zu 100 % mit erneuerbaren Energien bestritten werden. In Ermangelung ausreichend großer elektrischer Energiespeicher wird Österreich bei wenig Wind und Sonne („kalte Dunkelflautentage“) elektrische Energie aus dem Ausland importieren (aus Atomkraftwerken oder fossil betriebenen Kraftwerken) und, wenn volatile Energie in Österreich im Überfluss vorhanden ist, diese an die umliegenden Länder exportieren müssen. Damit erreicht Österreich nur „am Papier“ einen zu 100 % grünen Strom. Die notwendigen Stromimporte werden weiterhin – wenn auch in abgeschwächter Form – die CO2 Emissionen des österreichischen Stroms bestimmen. Was bedeutet das aber in Hinblick auf einen generellen Ausstieg aus fossilen Energieträgern?

Um Steinkohle (31,7 TWh) nur durch die bis 2030 angepeilte Photovoltaik zu ersetzen, müssten die Photovoltaikflächen (bei 11,8 % Ausnützung (Mittelwert 2016 - 2018) der installierten Nennleistung) nochmals auf das 22-fache gesteigert werden. Der Ersatz nur durch Windenenergie würde die Zahl der Windräder in 2030 (bei 23,3 % Ausnützung der installierten Nennleistung) noch um das 5,2-fache erhöhen. Soll auch Erdgas ersetzt werden, würde dies die Photovoltaikflächen oder Zahl der Windräder dann nochmals um etwa das 97-fache, der Ausstieg aus Erdöl nochmals auf das 130-fache respektive 30-fache erhöhen.

Ein derartiger Umbau des Energiesystems würde zweifellos die Möglichkeiten im Land weit übersteigen.

Woher soll nun grüner Strom kommen?

Die Ressource Wind

In seiner neuesten Ausgabe gibt der Global Wind Atlas 3.0 (https://globalwindatlas.info/) einen Überblick über Größe und Verteilung der weltweiten Wind-Ressourcen und bietet damit die Möglichkeit, Orte mit günstigen Bedingungen für Windkraft schnell zu identifizieren. Ein Farbcode von blau bis rot-violett steht für die umzusetzende Windleistung, die in den einzelnen Regionen per m2 Fläche eines Rotorblattkreises gesammelt werden kann: hellblau mit weniger als 25 W/m2 und grün mit 300 W/m2 bis zu rotviolett mit 1300 W/m2 und mehr. Abbildung 3.

Abbildung 3. Günstige Bedingungen für Windkraft in Europa gibt es in Küstenregionen und auf Bergspitzen, in weiten Teilen ist die umzusetzende Windleistung dagegen niedrig - im Gegensatz zu Ländern des Mittleren Ostens und Nordafrika (MENA-Region). (Bild: Global Wind Atlas, DTU Wind Energy; https://globalwindatlas.info/. Lizenz: open access)

In Europa überwiegen leider blaue und grüne Regionen. Nur auf Bergspitzen und in Küstenregionen kann man Energien bis zu 1300 W/m2 gewinnen. (Offshore Kraftwerke kommen aber in Bau, Betrieb und Wartung wesentlich teurer als solche am Festland.)

Wesentlich günstigere Bedingungen für Windkraft bestehen dagegen in den MENA-Regionen (Staaten des Mittleren Ostens und Nordafrikas) und generell an zahlreichen Küstenstreifen weltweit.

Im Osten Österreichs gibt es Regionen, die im gelben Bereich der Windkraft liegen, wie beispielsweise das Marchfeld. Abbildung 4. Allerdings: mit der gleichen Investition in ein Windkraftwerk im Marchfeld oder an eines an der norwegischen Küste könnte man dort bedeutend mehr elektrische Energie erzielen.

Abbildung 4. Höhere Windleistung gibt es auf den Bergkämmen und im Osten des Landes. (Bild: Global Wind Atlas, https://globalwindatlas.info/. Lizenz: open access)

Die Ressource Sonnenenergie

Gleiches wie für die Windkraft gilt auch für die Photovoltaik. Dies wird aus den interaktiven Landkarten des Global Solar Atlas (GSA 2.2., https://globalsolaratlas.info/download)  ersichtlich, welche die Sonneneinstrahlung und das Potenzial für Photovoltaik visualisieren. Abbildung 5 zeigt die auf Europa, Nordafrika und mittleren Osten eingestrahlte Sonnenenergie in einem Farbcode, der von blau (pro Jahr 700 kWh/m2) bist rot-violett (>2800 kWh/m2) reicht.

Dem Sonnenstand entsprechend nimmt die Sonnenenergie vom Norden nach Süden hin zu; in Österreich, (Süd-)Deutschland und der Schweiz liegen wir im gelben Bereich, d.i. bei 1200 kWh/m2. In der MENA-Region gibt es dagegen mehr als das Doppelte an Sonnenenergie. Es sind Länder, aus denen mangels Arbeitsmöglichkeiten viele Menschen zu uns einwandern (wollen). Kluge Investitionen in diesen Gegenden könnten dort Beschäftigung und damit Lebensgrundlage für die Bevölkerung schaffen.

Abbildung 5. Entsprechend dem Sonnenstand liegt die eingestrahlte Energie in weiten Teilen Europas im gelben Bereich. d.i. um 1 200 kWh/m2 pro Jahr- Länder des Mittleren Ostens und Nordafrikas (MENA-Region) sowie Wüstengebiete innerhalb eines breiten Bands um den Äquator haben mehr als die doppelte Sonneneinstrahlung. (Bild: Global Solar Atlas, https://globalsolaratlas.info/download) Lizenz: open access)

Erkenntnisse aus den Wind- und Solarenergiekarten

Europa ist gezwungen Energie zu importieren und wird bei einem Umbau des Energiesystems auf erneuerbare Energien keine völlige Unabhängigkeit von Importen erreichen können.

Produktion grüner Energieträger an wirkungsvollen Standorten…

Verglichen mit Europa gibt es in der MENA-Region - weltweit aber auch in vielen anderen Gebieten - wesentlich wirkungsvollere Standorte für Solar- und Windkraftwerke. Warum also sollte man nicht daran denken dort Solar- und Windkraftwerke zu errichten, um die in Europa notwendigen Energieträger (Methan und auch synthetische Kraftstoffe) herzustellen? Methan und auch synthetische Kraftstoffe sind ja unabdingbar um eine „kalte Dunkelflaute“ (wenn kein Wind weht und die Sonne nicht scheint) und Jahreszeitschwankungen zu überbrücken; dazu muss ein mit volatiler Energie versorgtes Netz ca. 15 -20 % der jährlichen Primärenergie speichern können, damit die Energieversorger, immer dann wenn die grüne Energie ausfällt, mit Hilfe von synthetischem grünen Methan und vorhandenen kalorischen Gaskraftwerken, den benötigten Strom bereitstellen.

…bringt Vorteile für Europa…

  • In Europa würde eine Vervielfachung von Photovoltaikflächen und Windparks, für deren Errichtung ja enorme Hürden - Platzmangel, langwierige Genehmigungsverfahren, Bürgerproteste - überwunden werden müssen, vermieden. Und die Zeit läuft ja davon.
  • An den außereuropäischen Standorten kann bei gleicher installierter Leistung ein doppelter Ertrag erzielt werden und ebendort die Primärenergie in die für uns wichtigen Energieträger (Methan und auch synthetische Kraftstoffe) umgewandelt und in vorhandenen Lagern (zwischen)gespeichert werden.
  • Dies bedeutet Absatzmärkte für Solar- und Windkraftwerke und für Syntheseanlagen.
  • Der Transport von flüssigem grünen Methan und grünen Kraftstoffen kann auf der Straße, der Schiene und auf dem Wasser erfolgen (hier unter Nutzung der vorhandenen Tanker); Transportverluste von Kohlenwasserstoffen sind bezogen auf den Energieinhalt nahezu vernachlässigbar.

…und Chancen für außereuropäische Standorte

  • Die Produktion grüner Kraftstoffe würde Arbeitsplätze und damit eine Lebensgrundlage für viele Menschen schaffen. Grünes Methan und grüne Kraftstoffe könnten dann am freien Markt zu erschwinglichen Preisen offeriert werden.
  • In Wachstumsregionen würde dies die Zunahme eines bescheidenen Wohlstands unterstützen ohne, dass es parallel dazu zu einem Anstieg von CO2 kommt (siehe "Energiebedarf - Wohlstand - CO2-Emissionen" in [1]).
  • Die verbesserte wirtschaftliche Grundlage könnte einen Beitrag zur Friedenssicherung leisten und auch zur Eindämmung von Fluchtursachen aus vielen dieser Länder.

Zu den Nachteilen eines solchen Vorgehens

zählt vor allem der niedrige Wirkungsgrad der Synthese von Methan und flüssigen Kraftstoffen; das bedeutet einen sehr hohen Bedarf an Primärenergie und hohe Prozesskosten.

Dazu ein Beispiel:

Nehmen wir an, wir haben einen 2 GW Windpark installiert. Dieser wäre damit etwa 4 mal so groß wie die derzeit größten offshore Windparks in Deutschland; in Windrädern ausgedrückt wären es 286 Stück zu je 7 MW und einer Ausdehnung von rund 160 km2. Bei 24 % Auslastung (siehe oben "Das Beispiel Deutschland") liefert ein solcher Park mit Nennleistung betrieben 4,2 TWh im Jahr (zum Vergleich: Österreich verbraucht im Jahr 60 - 65 TWh elektrische Energie). Wenn wir nun den Strom verwenden, um Flüssigmethan oder Diesel herzustellen ("power to X") und damit Tanker beladen, so liegt der Wirkungsgrad der Umwandlung je nach Verfahren bei 43 - 71 %. Von den 4,2  TWh bleiben somit 1,8 - 3,1 TWh übrig. Um einen LNG-Tanker (LNG: Liquid Natural Gas; verflüssigtes Methan) mit einer Kapazität von 250 Millionen Liter zu füllen, muss der 2GW-Windpark 6 - 9 Monate in Betrieb sein; für die Füllung eines Dieseltankers mit 350 Millionen Liter Kapazität wären 1,35 - 2,1 Jahre Laufzeit notwendig. Gelöscht wird diese Ladung innerhalb von weniger als 24 Stunden.

Dies zeigt, wie mühsam es ist grüne Energie einzuführen und wie unwahrscheinlich hoch die Energiedichte fossiler Energie, die wir chemisch perfekt nachbilden können, ist. Und das muss auch das Ziel sein!

Eine so importierte grüne Energie wird man dringend brauchen, um unsere Netze zu stützen, da man ja in verstärktem Maß auf fossiles Erdgas verzichten wird müssen. Zweifellos werden die Importe nicht primär dazu dienen, dass man Autos damit betreibt.

Das Ziel: Elektrizität frei von fossiler Energie

Fossile Brennstoffe sind nach wie vor die dominante Energiequelle weltweit, eine Tatsache, die sich nur langsam (vielleicht zu langsam?) ändern wird.

  • Fast alle derzeit diskutierten Wege für eine signifikante CO2-Reduktion erfordern Strom aus CO2-neutralen Quellen: Geothermie, Wind, Photovoltaik & sichere Kernenergie. Auf globaler Ebene wird es Jahrzehnte dauern, bis CO2-freier Strom Realität wird.
  • Die CO2-Reduktion ist ein globales Thema, kein lokales. Wo die Bevölkerung wächst und wohlhabend wird, wachsen die CO2-Emissionen. Die Entkopplung der Energie von den CO2-Emissionen ist entscheidend (siehe [1]).
  • Auch die armen, wachsenden Nationen bestimmen zufolge der großen Anzahl, die Erreichung der Paris-Ziele und nicht nur die reichen und technologisch führenden Länder (Ausnahme China).

Es besteht also dringender Handlungsbedarf …

Der Schlüssel für eine sofort wirksame globale CO2-Reduktionsstrategie ist Energieeinsparung: d.i. ohne Einbußen mit weniger Primärenergie auskommen. Dies ist möglich durch Thermische Isolation, Wärmepumpen für Kühlung & Heizung und industrielle Verbesserungen [1].

Gleichzeitig ist der Ausbau von grünen Kraftwerken, Netzen und Energiespeichern zu forcieren. Dadurch können BIP & fossiler Energieverbrauch entkoppelt werden, der Wohlstand steigen bei sinkendem fossilem Energieverbrauch und damit auch sinkendenTreibhausgas-Emissionen.

Anlagen zum Synthetisieren von Methan/Kraftstoffen aus volatiler Energie sollten außerhalb Europas zur Stromerzeugung in Europa errichtet werden. Es ist eine Verpflichtung der technologisch führenden Länder, global einsetzbare CO2-Reduktionstechnologien unter Berücksichtigung der lokalen Infrastruktur zu entwickeln und anzubieten. Wir könnten vielen Ländern Miniraffinerien schlüsselfertig zur Verfügung stellen - viele Tausende Anlagen über die ganze Welt verteilt. Damit würden wir dort neue Arbeitsmöglichkeiten und Wege zum Wohlstand bieten und gleichzeitig die Abhängigkeit von den Erdöl fördernden Nationen verlieren.

…wo aber bleibt die Elektromobilität?

Der Umbau des Energiesystems wird viel mehr elektrische Energie benötigen als derzeit verbraucht wird. Dazu kommt ein weltweit geradezu explodierender Bedarf des IKT-Bereichs, der nur mit Strom funktioniert [1].

Für die nächsten 10-20 Jahre ist daher kaum Elektrizität für den Verkehr verfügbar. Die Menge an elektrischer Energie ist hierbei nicht der Flaschenhals, sondern die hohen Ladeleistungen – weil es schnell sein muss – der Elektroflotten. Diese Netzleistungen können nicht ohne signifikanten Netzausbau erbracht werden. Es bleibt also nur Energie zu sparen, um Zeit für den Infrastrukturaufbau zu gewinnen. Das ist einerseits schlecht für die Elektromobilität, aber der Verkehr hat auch andere Optionen.

Wasserstoff kann vielleicht die Mobilitätslösung der Zukunft werden: derzeit ist aber kein grüner Strom für die H2-Produktion verfügbar. Steamreforming (Umsetzung von kohlenstoffhaltigen Energieträgern, vor allem von Erdgas, und Wasser unter Zuführung der Reaktionswärme) schadet der Umwelt. Für eine globale grüne H2-Zukunft werden große Mengen an grünem Strom benötigt, es sind noch hohe Investitionen zu tätigen und viel Zeit wird erforderlich sein.

Elektro-Hybridkonzept als Brückentechnologie

Um CO2 zu reduzieren, wird es in den kommenden Jahrzehnten für den Verkehrssektor der einzige global realistische Weg sein, Energie zu sparen; also Verbrennungskraftmaschinen (Vkm) nur in einem Punkt bei optimalem Wirkungsgrad als Fuel-Converter (Kraftstoffwandler) zu betreiben. Abbildung 6.

Abbildung 6. Ein neues Hybridkonzept ermöglicht signifikante Kraftstoff- und CO2-Reduktion

Man benötigt dazu ein Elektro-Hybridkonzept, das den rein elektrischen Antriebsstrang aus einem Powertank (elektrischem Hochleistungsspeicher) versorgt, und die Vkm stellt mittels eines mit der Vkm verbundenen Generators sicher, dass der elektrische Energiespeicher nicht leer wird [5].

Ein Hybridkonzept mit einem Fuel-Converter und Powertank basiert auf bewährten Technologien ist weltweit nutzbar und schnell im globalen Markt einzuführen. Arme, aber wachsende Nationen könnten ohne Investitionen die bestehende Versorgung mit flüssigen Kraftstoffen weiterhin verwenden und durch Beimischung synthetischer Kraftstoffe CO2 weiter senken.

Europa könnte mit dem Hybridkonzept zum Weltmarktführer in der Elektromobilität werden - allerdings nur als Brückentechnologie bis global grüner Strom und daraus produzierte synthetische Kraftstoffe in ausreichendem Maß zur Verfügung stehen.

In 20 – 30 Jahren wird dann vielleicht ausreichend Überschussstrom für die Elektromobilität oder die Wasserstoffmobilität zur Verfügung stehen und auch, um synthetische Kraftstoffe für Land-, See-und Flugverkehr bereit zu stellen. 


[1] Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

[2] Bundesministerium für Landwirtschaft Regionen & Tourismus, bmlrt, Energie in Österreich 2019, access 21.3.2020, https://www.bmlrt.gv.at/dam/jcr:3c2b8824-461c-402e-8e1d-da938d6ece8b/BMNT_Energie_in_OE2019_Barrierefrei_final.pdf

[3] Land am Strom, Jahresbericht Österreichs Energie 2020. https://oesterreichsenergie.at/jahresmagazin-land-am-strom.html

[4] BDEW, Bundesverband der Energie- und Wasserwirtschaft e.V.: Gesamtstromverbrauch in Deutschland, https://www.bdew.de/media/documents/20190107_Zahl-der-Woche_Gesamtstromverbrauch.pdf, access 29.11.2020

[5] G. Brasseur, Hochwirkungsgrad Hybridantrieb für nachhaltige Elektromobilität, ÖAW-Verlag, 11.2.2020, https://epub.oeaw.ac.at/0xc1aa5576_0x003b46cd.pdf


Artikel zur Energiewende im ScienceBlog

Robert Schlögl, Serie: Energie - Wende - Jetzt

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Erich Rummich, 02.08.2012; Elektromobilität – Elektrostraßenfahrzeuge

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?


 

inge Wed, 09.12.2020 - 23:55

Comments

Sehr aufschlussreich ist auch ein Vortrag von Prof. Hans-Werner Sinn zum Thema. (Den ich schätze, weil er sich darin jeglicher Polemik – Stichwort ›Zappelstrom‹ – enthält!)

Anti-Antibiotikum - zusammen mit Antibiotikum angewandt - kann die Entwicklung von Antibiotika-resistenten Bakterien stoppen

Anti-Antibiotikum - zusammen mit Antibiotikum angewandt - kann die Entwicklung von Antibiotika-resistenten Bakterien stoppen

Fr, 04.12.2020 — Redaktion

RedaktionIcon Medizin Antibiotika sind für die Behandlung bakterieller Infektionen unentbehrlich. Ihre Anwendung kann jedoch zur Entwicklung und Übertragung von resistenten Bakterien führen. Infektionen mit solchen Bakterien machen eine Behandlung schwierig oder gar aussichtslos. Angesichts des massiven Problems von akquirierten resistenten Keimen in Krankenhäusern und vor allem in Intensivstationen, ist die Suche nach Wegen zur Verhinderung der Resistenzentstehung vordringlich. In einer eben erschienenen Studie [1] wird eine derartige Strategie vorgestellt, nämlich, dass gleichzeitig mit Antibiotka angewandt Adjuvantien - hier das bereits lange als Cholesterinsenker angewandte Colestyramin - die Entwicklung von Resistenzen - hier gegen das derzeit potenteste Antibiotikum Daptomycin - verhindern können.*

Der erste Globale Sepsis-Report der WHO

Im September d.J. ist der erste Globale Sepsis Report "On the Epidemiology and Burden of Sepsis" der Weltgesundheitsorganisation (WHO) erschienen. Sepsis ("Blutvergiftung") wird dabei als eine lebensbedrohende Fehlfunktion von Organen definiert, die durch eine fehlregulierte Antwort des Wirtes auf eine Infektion ausgelöst wird. Erste Abschätzungen der weltweiten Sepsis-Erkrankungen und -Todesfälle wurden für das Jahr 2017 erstellt und bieten ein erschreckendes Bild: etwa 49 Millionen Menschen (davon 40 % Kinder und Jugendliche) waren in diesem Jahr an Sepsis erkrankt, etwa 11 Millionen starben daran. Mit rund 20 % aller Todesfälle ist Sepsis damit eine der Haupttodesursachen; nach Ansicht der WHO wären sehr viele dieser Todesfälle vermeidbar. Aus dem Report ist ein globaler Überblick über Inzidenz und Mortalität von Sepsis in Abbildung 1 dargestellt.

Abbildung 1. Weltweite Inzidenz von Sepsis pro 100 000 Personen (A) von und Mortalitäten in % aller Todesfälle (B) nach Altersgruppen. (Quelle: WHO: Global Report on the Epidemiology and Burden of Sepsis (September 2020) [2]; das Bild steht unter einer cc-by-nc-Lizenz)

Sepsis ist insbesondere für Krankenhäuser und Pflegeeinrichtungen ein sehr ernstes Problem. Eine systematische Analyse der WHO für den Zeitraum 2000 - 2018 zeigt, dass in 1 von 4 aller in den Spitälern behandelten Sepsis-Fällen und in 1 von 2 Fällen in den Intensivstationen, diese dort selbst akquiriert wurden [2]. Bis zu ein Drittel der Infektionen wurden durch Antibiotika-resistente Bakterien verursacht. Die Mortalität auf Grund solcher erworbenen Infektionen lag insgesamt bei 24 %, auf den Intensivstationen bei 52,3 %.

Zur Entwicklung resistenter Bakterien im Darm

Antibiotika sind das Um und Auf in der Behandlung bakterieller Infektionen. Allerdings kann ihre Verwendung - ohne dass man es will - zur Entwicklung von Bakterien führen, die nicht mehr auf Antibiotika ansprechen, die dagegen resistent geworden sind. Infektionen mit solchen Bakterien machen eine Behandlung schwierig oder gar aussichtslos. Um die Wirksamkeit von Antibiotika bewahren zu können, muss man daher nach Wegen suchen die Entstehung von Resistenzen gegen Antibiotika zu verhindern.

Viele Bakterienstämme, die in Krankenhäusern Infektionen verursachen, leben im Darm, wo sie an sich harmlos sind. Gelangen diese Bakterien allerdings in den Blutkreislauf, so können sie lebensbedrohliche Infektionen verursachen. Wenn an Sepsis-Patienten nun Antibiotika verabreicht werden - intravenös, intramuskulär, topisch oder auch peroral -, so sind auch die Bakterien in ihrem Darm diesen Medikamenten ausgesetzt. Die Antibiotika können dort dann alle Bakterien, die für diese Antibiotika sensitiv sind, abtöten und nur solche zurücklassen, welche auf Grund von Mutationen die Medikamente überleben. Solche arzneimittelresistenten Bakterien können sich dann (u.a. durch fäkale Schmierinfektionen; Anm. Redn.) auf andere Patienten ausbreiten und in Folge schwerst behandelbare Infektionen verursachen.

Ein wichtiger Erreger von Antibiotika-resistenten Infektionen in Krankenhäusern ist der bereits gegen das Antibiotikum Vancomycin resistente Keim Enterococcus faecium (VR E. faecium). Das derzeit potenteste Antibiotikum Daptomycin (Abbildung 2, oben) ist eine der wenigen verbleibenden Primärtherapien bei VRE-Infektionen. Allerdings beginnt sich auch Resistenz gegen Daptomycin in Enterococcus-Populationen auszubreiten; wesentlicher Treiber dafür dürfte dessen derzeitige therapeutische Anwendung sein.

Abbildung 2. Oben: das Antibiotikum Daptomycin ist ein cyclische Lipopeptid, das aus einem Ring aus Aminosäuren und einer angehängten Fettsäurekette (links im Bid) besteht. Der Wirkungsmechanismus (gegen gram-positive Bakterien) ist von dem anderer Antibiotika verschieden und  in den 17 Jahren seit der Markteinführung sind  bislang wenige Resistenzen aufgetreten. Unten: Colestyramin ist ein stark basisches, aus Styrolgruppen bestehendes Polymer mit eingefügten Trimethylammoniumgruppen. Das sehr große Molekül bindet u.a. Cholesterin, Gallensäuren und viele andere Biomoleküle und - da es nicht aus dem Darm in den Organismus aufgenommen werden kann - wird es mit den assoziierten Stoffen über den Kot ausgeschieden (Quelle: Wikipedia, beide Bilder sind gemeinfrei). 

E. faecium ist ein opportunistischer Erreger, der den menschlichen Verdauungstrakt besiedelt ohne dabei Symptome hervorzurufen; er kann sich aber auch über eine fäkal-orale Übertragung ausbreiten und symptomatische Infektionen verursachen, wenn er beispielsweise an Stellen des Blutkreislaufs oder der Harnwege Eingang in Gewebe/Organe findet. Zur Behandlung von Infektionen mit Krankheitserregern wie VRE und Staphylococcus aureus wird Daptomycin intravenös verabreicht. Das im Darm sitzende E. faecium kann während einer solchen Therapie dem Daptomycin ausgesetzt sein, was möglicherweise zur Übertragung von Daptomycin-resistentem E. faecium beiträgt. Dies lässt sich auf Grund der Pharmakokinetik (d.i. dem Schicksal eines Wirkstoffs im Organismus) von Daptomycin erklären: Daptomycin wird vorwiegend in unveränderter Form hauptsächlich über die Nieren ausgeschieden, 5–10% der Dosis gelangen aber über die Gallenausscheidung in den Darm. Es ist dies eine therapeutisch völlig unnötige Daptomycin-Exposition des Darms, welche dort die Resistenzentwicklung von E. faecium treiben könnte; diese Keime werden dann zu Quellen für nosokomiale Infektionen (im Zuge des Aufenthalts oder der Behandlung in einem Krankenhaus erworbene Infektionen) und für eine Übertragung von Patient zu Patient.

Ein Anti-Antibiotikum kann die Resistenzentwicklung im Darm blockieren

Wenn eine unvorhergesehene Daptomycin-Exposition des Darms die Resistenzentwicklung bei E. faecium antreibt, so bietet dies die Chance hier einzugreifen. Es ist eine Chance, die aus einem wesentlichen Merkmal dieses Systems resultiert: Die Bakterien, die eine Infektion (im Blutkreislauf) verursachen, sind physisch von der Population im Darm separiert, die zur Übertragung beiträgt. Könnte man also das in den Darm gelangende Daptomycin inaktivieren ohne die erforderlichen, antibiotisch wirksamen Konzentrationen im Blutkreislauf zu verändern, so könnte Daptomycin verwendet werden, um Bakterien an dem Zielort der Infektion abzutöten, ohne dabei die Entstehung von Resistenz in Populationen außerhalb dieser Stellen zu erhöhen. Die Verhinderung der Resistenzentwicklung in diesen Reservoirpopulationen könnte Patienten vor dem Akquirieren resistenter Infektionen schützen und die Verbreitung resistenter Stämme und damit die Übertragung auf andere Patienten limitieren.

Ein Forscherteam der Penn-State University und der University Michigan hat nun die Hypothese aufgestellt, dass die Entstehung von Daptomycin-Resistenz verhindert werden kann, wenn während der intravenösen Behandlung mit Daptomycin gleichzeitig ein orales Adjuvans gegeben wird, welches die Wirksamkeit des Antibiotikums im Darm verringert [1]. Unter Verwendung von Colestyramin (Abbildung 2, unten ) als Adjuvans haben die Forscher diese Hypothese in einem E. faecium Darm-Kolonisierungsmodel an der Maus getestet.

Colestyramin ("Cubicin") ist ein altes, bereits vor mehr als 50 Jahren eingeführtes Agens zur Senkung hoher Cholesterinspiegel, das vor dem Aufkommen der Statine viel verwendet wurde. Colestyramin ist ein stark basisches Polymeres aus Styrolketten mit eingefügten Aminogruppen, das zahlreiche Biomoleküle (u.a. Cholesterin, Gallensäuren Vitamine A und D) bindet und auf Grund seiner Größe (Molekulargewicht um 1 000 kD) und seines hydrophilen Charakters aus dem Darm nicht in den Organismus aufgenommen werden kann. Wie in vitro Untersuchungen im Labor ergeben hatten, bindet Colestyramin auch das Antibiotikum Daptomycin sehr fest und kann dessen Konzentration und Wirksamkeit enorm verringern [1].

Vorerst haben die Forscher nun an der Maus die Resistenzentwicklung von E. faecium gegen Daptomycin untersucht. Dazu haben sie die Substanz in unterschiedlichen Dosierungen den Tieren subcutan injiziert. Wie Analysen des ausgeschiedenen Kots zeigten, gelangte Daptomycin in ausreichenden Konzentrationen in den Darm, um dort die Bildung resistenter Formen von E. faecium auszulösen. Wachstum und entsprechende Ausscheidung der resistenten E. faecium Keime konnten nur durch enorm hohe Dosen Daptomycin unterdrückt werden. Wurde jedoch Colestyramin (oral) und Daptomycin (subcutan) gleichzeitig an die Mäuse appliziert, so konnte das Wachstum von Antibiotika-resistenten Bakterien im Darm der Mäuse (gemessen an resistenten Keimen im Kot) um das 80-fache reduziert werden ohne die wirksamen Konzentrationen des Antibiotikums im Blut zu beeinflussen. Diese Ergebnisse sind eine vorläufige Bestätigung, dass Colestyramin als eine Art Anti-Antibiotikum eingesetzt werden könnte. Bei gleichzeitiger Gabe mit einem Antibiotikum (nicht nur von Daptomycin) könnte es dazu beitragen die Entstehung von Arzneimittelresistenzen im Mikrobiom des Darms zu verhindern/reduzieren und damit deren Verbreitung über fäkale Kontaminationen. Abbildung 3.

                                                                     

Abbildung 3. Das Adjuvans Colestyramin, peroral gegeben,  gleichzeitig mit dem intravenös applizierten Antibiotikum Daptomycin könnte die Entstehung von resistenten Bakterien im Darm unterbinden  ohne die wirksamen Antibiotikum-Konzentrationen im Blut zu beeinflussen.

Natürlich sind weitere Studien erforderlich, um festzustellen, ob Colestyramin Darmbakterien vor systemisch applizierten Antibiotika schützen und auch bei Menschen Antibiotikaresistenzen verhindern kann. Für Colestyramin, das bereits seit Jahrzehnten therapeutisch zur Senkung des Cholesterinspiegels bei Menschen eingesetzt wird, wäre dies eine Neuanwendung, ein sogenanntes "drug repurposing": ohne zahlreiche präklinische Studien und Verträglichkeitsstudien könnte eine Zulassung in der neuen Indikation in verkürzter Entwicklungszeit und mit reduzierten Kosten erfolgen.


[1] Valerie J. Morley et al., "An adjunctive therapy administered with an antibiotic prevents enrichment of antibiotic-resistant clones of a colonizing opportunistic pathogen" eLife 2020;9:e58147. DOI: https://doi.org/10.7554/eLife.58147

[2] WHO: GLOBAL REPORT ON THE EPIDEMIOLOGY AND BURDEN OF SEPSIS (September 2020) https://www.who.int/publications/i/item/9789240010789


* Dem Artikel liegt die von Valerie J. Morley et al., stammende Publikation "An adjunctive therapy administered with an antibiotic prevents enrichment of antibiotic-resistant clones of a colonizing opportunistic pathogen" zugrunde, die am 1. Dezember 2020 in eLife 2020;9:e58147. DOI: https://doi.org/10.7554/eLife.58147 erschienen ist. Der Digest, Teile der Einleitung und der Ergebnisse wurden von der Redaktion ins Deutsche übersetzt und für ScienceBlog.at adaptiert (Untertitel, Abbildungen).Zusätzlich wurde ein Abschnitt über den im September erschienenen Globalen Sepsis Report der WHO von der Redaktion eingefügt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.

 


Weiterführende Links

Wachsende Bedrohung durch Keime und gleichzeitig steigende Antibiotika-Resistenzen? Video 7:18 min (aus der Uniklinik Bonn - stimmt auch für Österreich) Standard YouTube Lizenz. https://www.youtube.com/watch?v=lEoLh0ZBt34

Zahlreiche ScienceBlog-Artikel beschäftigen sich mit resistenten Keimen, u.a:


 

inge Fri, 04.12.2020 - 03:04

Impfstoffe zum Schutz vor COVID-19 - ein Überblick

Impfstoffe zum Schutz vor COVID-19 - ein Überblick

Fr 28.11.2020 Inge Schuster Inge SchusterIcon Medizin

Die COVID-19 Pandemie kennt keine territorialen Grenzen. In der stärkeren "zweiten Welle" dieser Pandemie erleben wir nun die verheerenden Auswirkungen auf Leben und Gesundheit so vieler Mitmenschen und ebenso auf den Zusammenbruch unserer Lebensweise und wir fragen uns, wie weit unsere ökonomischen Systeme noch belastbar sind. Ein Lichtblick in dieser globalen Krise sind die enormen weltweiten Anstrengungen von Wissenschaftern in Forschung und Entwicklung, die in kürzester Zeit zu vielversprechenden Impfstoffkandidaten geführt haben; drei solcher Impfstoffe stehen kurz vor der behördlichen Zulassung. Diese und eine Fülle weiterer Kandidaten, deren Entwicklungsstatus zum Teil schon recht weit fortgeschritten ist, geben Hoffnung auf wirksame und sichere Vakzinen, welche die Ausbreitung des Virus unterbinden/eindämmen werden.

Für uns alle ist es eine noch nie dagewesene Situation - COVID-19 hat die Gesundheitssysteme weltweit an ihre Grenzen gebracht oder diese bereits überschreiten lassen. Aktuell gibt es laut dashboard der John-Hopkins-University https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6 bereits über 60 Millionen mit SARS-CoV-2 Infizierte, über 1, 4 Millionen, die daran bereits verstorben sind und täglich kommen derzeit über 600 000 Neuinfektionen und 12 000 Tote dazu .

Abgesehen von den hinter diesen Zahlen stehenden, unbeschreibbaren menschlichen Tragödien, verursacht die Pandemie auch ungeheure ökonomische Schäden an unseren Gesellschaften: laut Internationaler Weltwährungsbank (IMF) beziffert sich bei andauernder Pandemie der ökonomische Schaden auf monatlich 500 Milliarden Dollar. Dabei sind die durch Lockdowns ausgelösten Beeinträchtigungen der Bevölkerung noch gar nicht mit einbezogen.

Die Suche nach wirksamen Impfstoffen…

Die am Beginn von 2020 losgetretene COVID-19 Pandemie hat die gesamte Welt in Angst und Schrecken versetzt und die globale Suche nach Lösungen intensiviert, insbesondere die Suche nach wirksamen, die Pandemie eindämmenden Impfungen beschleunigt. Binnen kürzester Frist sind dazu weltweit weit mehr als 200 Projekte angelaufen: die letzte Angabe der Weltgesundheitsorganisation WHO (Aufstellung vom 12.11.2020) zählte schon 225 Impfstoffkandidaten, die sich in präklinischer und klinischer Entwicklung befinden. Der wöchentlich aktualisierte COVID-19 vaccine tracker (https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/; basierend auf den neuesten Informationen der WHO, dem Milken Institute und der US-Datenbank clinicaltrials.gov.) listet insgesamt 261 Impfstoffkandidaten, von denen sich 203 in der präklinischen Entwicklung befinden und 58 in den unterschiedlichen Phasen klinischer Studien (siehe unten).

Das Ziel all der darin involvierten Wissenschafter in Forschung und Entwicklung sind Impfstoffe, die für verschiedene Bevölkerungsgruppen einen möglichst weitreichenden, langandauernden Schutz vor Ansteckungen bieten und dabei möglichst wenige und dann nur milde Nebenwirkungen auslösen.

Wie man sich generell den Entwicklungsweg einer COVID-19- Vakzine vorstellen sollte, ist in Abbildung 1 dargestellt.

Abbildung 1. Die Stufen einer Impfstoffentwicklung. (Bild: Die Forschenden Pharmaunternehmen: https://www.vfa.de/de/arzneimittel-forschung/woran-wir-forschen/impfstoffe-zum-schutz-vor-coronavirus-2019-ncov)

In den Stufen 1 - 3 sind die Phasen präklinischer Forschung und Entwicklung zusammengefasst, in Stufe 4 die gesamte klinische Entwicklung, die in 3 Phasen abläuft. Phase 1 an einer relativ kleinen Zahl junger, gesunder Freiwilliger dient zur Bestimmung des Dosierungsschemas und der Entdeckung von möglicherweise limitierenden Nebenwirkungen. In Phase 2 an einer größeren Zahl von Probanden gibt es dann weitere Informationen zu Nebenwirkungen und erstmals grobe Informationen zur Wirksamkeit. In Phase 3 an einer großen Population, quer durch die Bevölkerung, werden dann in Doppel-Blind-Studien - Impfstoff versus Placebo - Wirksamkeit und Nebenwirkungen getestet.

Wenn diese Studien erfolgreich verlaufen, werden nach Abschluss die Ergebnisse analysiert und dokumentiert. Bei positivem Ausgang wird dann eine Impfstoffanlage gebaut, um große Chargen des Impfstoffs zu produzieren, wie sie für die Versorgung der Bevölkerung gebraucht werden. Dann wird die gesamte Dokumentation bei den Behörden (EMA für die EU, FDA für Amerika) eingereicht und um die Zulassung angesucht.

War bis vor wenigen Jahren ein Zeitraum von rund 15 Jahren für den Forschungs- & Entwicklungsprozess eines neuen Impfstoffes üblich, so verläuft bei COVID-19 nun alles viel schneller: Vorerfahrungen mit verwandten Viren (SARS-CoV-1 und MERS), verbesserte Technologien und parallele Durchführung verschiedener Aktivitäten können den Prozess enorm beschleunigen. In der Phase 3 Studie gibt es zwar keine Zeitersparnis, dafür läuft in zahlreichen Unternehmen bereits während dieser Phase die Produktion des Impfstoffs an und dieser ist nach positivem Abschluss der Studie bereits verfügbar - bei negativem Ausgang ist allerdings viel Geld in den Sand gesetzt worden.

Zeit gespart wird auch durch den Abbau bürokratischer Hürden im Einreichungs-/Registrierungsverfahren: Forschungsinstitutionen/Firmen können frühzeitig mit den Zulassungsbehörden in Kontakt treten und diesen die Studienergebnisse laufend übermitteln; die EMA bietet an die Daten in einem "Rolling-Review-Verfahren" so schnell wie möglich zu überprüfen.

…führte bereits zu drei vor der Zulassung stehenden Kandidaten …

Für drei Impfstoffkandidaten, die in abschließenden Phase 3 Studien an 30 000 bis 43 600 freiwilligen Probanden Schutz vor COVID-19 bei nur milden Nebenwirkungen gezeigt hatten, ist so eine rasche Zulassung - vielleicht noch in diesem Jahr - in den Bereich der Möglichkeit gerückt.

Tabelle 1 fasst Hersteller, Informationen zur Phase 3-Studie und - bei erfolgreicher Registrierung - die geplante Produktion von Dosen (in Millionen) und deren voruaussichtlichen Preis  zusammen.

Tabelle 1. Drei erfolgversprechende Impfstoffkandidaten. Nach zweimaliger intramuskulärer Applikation im Abstand von 28 Tagen boten die beiden mRNA-Vakzinen einen Schutz von über 90 % , die Vektorvirenvakzine von bis zu 90 % vor COVID-19 (laut Pressemitteilung der Firmen). Impfstofftypen werden weiter unten erklärt.


 

Firmen/Institutionen


 

Impfstofftyp

       Phase 3 (Doppelblind-Studie)

Impfstoff (Planung)

   Kandidat

  Probanden

  Dosen

Dosen [Mio]

2020/21

Preis [€]

Moderna/NIAID

mRNA

mRNA-1273

30 000

    2x i.m.       (d 0, 28)

20 /bis 1000

28

BioNTech/Pfizer/Fosun

mRNA

BNT162b2

43 661

     2x, i.m. (d 0, 28)

50/bis 1300

17

Univ. Oxford/Astra Zeneca

Vektorviren

ChAdOx1

30 000

     2x, i.m. (d 0, 28)

4/bis 100

3

 

Bei den Studien handelte es sich um Doppelblind-Studien, d.h. die Hälfte der Probanden hat den Impfstoff erhalten, die andere Placebo. Die ersten Zwischenergebnisse (an 50 oder weniger % der Probanden) wurden vergangene Woche vorerst nur in Presseausendungen mitgeteilt: diese gaben für die Studie von Moderna/NIAID  95 Infektionsfälle an, wobei 90 auf die Placebogruppe entfielen und für die Studie von BioNTech/Pfizer/Fosun 170 Infektionsfälle mit 162 in der Placebogruppe. Die Schutzwirkung der beiden mRNA-Impfstoffe lag damit bei über 90 %. In der Studie von Univ. Oxford/Astra Zeneca waren (aus Versehen) zwei unterschiedliche Dosierungsschemata angewandt worden: eine der so geimpften Gruppen (N = 2741 Probanden) war zu 90 % geschützt, die andere (N = 8895 Probanden) zu 62 %.

Kurz nach Aussendung der vielversprechenden Zwischenergebnisse haben BioNTech/Pfizer und AstraZeneca bei den Behörden (FDA rsp. EMA) um die Notzulassung angesucht; das Ansuchen von Moderna wird in Kürze erwartet. Vieles ist allerdings noch unklar, u.a. ob die Impfung nicht nur vor der Erkrankung COVID-19 sondern auch vor der (asymptomatischen) Infektion mit dem Virus schützt, ob die unterschiedlichen Altersgruppen und ob chronisch Kranke gleich gut geschützt werden, wie lange der Impfschutz anhält (die Probanden waren ja nur 2 Monate nach der zweiten Injektion beobachtet worden), ob  später unerwünschte Nebenwirkungen auftreten.

Wollen wir hoffen, dass die Studien nach ihrer Endauswertung überzeugende Antworten auf diese Fragen geben werden!

...und zu einer vollen Pipeline weiterer Impfstoffkandidaten ...

Wie bereits oben erwähnt gibt es derzeit 261 Impfstoffkandidaten von denen sich 203 in der präklinischen Forschung & Entwicklung befinden und bereits 58 in den unterschiedlichen Phasen klinischer Studien; von diesen haben schon 11 die Hürden zur entscheidenden Phase 3 genommen. Abbildung 2.

Abbildung 2. Der weltweite Stand in der COVID-19 Impfstoffentwicklung - Pipeline der Impfstoffkandidaten und Impfstofftypen. Eine Erklärung der Impfstofftypen findet sich im nächsten Abschnitt. V. inaktiviert/abgeschwächt bedeutet inaktiviertes/abgeschwächtes Virus, Vektorviren r/nr = Vektorviren replizierend/nicht replizierend (Die Grafiken wurden aus den Daten des COVID-19 vaccine tracker vom 23.11.2020 erstellt. https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/).

An den Impfstoffprojekten arbeiten weltweit vor allem viele Industrieunternehmen - große Konzerne wie Pfizer, Janssen, GlaxoSmithKline, Sanofi oder AstraZeneca mit Erfahrung in der Impfstoffentwicklung sind dabei, ebenso wie viele kleine Unternehmen, die zur Entwicklung ihrer Kandidaten Kooperationen eingehen. Rund 30 % der Projekte werden von akademischen Institutionen, staatlichen Einrichtungen und non-Profit Organisationen geleitet. Der Großteil dieser Aktivitäten findet in Nordamerika statt, gefolgt von Asien (hier vor allem von China) und Europa.

Was bedeutet die Fülle an potentiellen Impfstoffen für die Zahl der Produkte, die tatsächlich den Markt erreichen?

Langjährige Erfahrung mit Virus-Vakzinen zeigt, dass etwa 7 % der Impfstoffkandidaten in der Präklinik den Übergang in die Klinik schaffen und von diesen dann 20 % die klinischen Phasen erfolgreich durchlaufen und registriert werden (siehe Weiterführende Links:  WHO: What we know about COVID-19 vaccine development).

Aus der aktuellen Pipeline  könnten somit an die 15 Impfstoffe hervorgehen!

… mit unterschiedlichen Impfstofftypen

Unser Immunsystem funktioniert, indem es etwas als fremd erkennt und darauf reagiert. Impfstoffe provozieren die Reaktion des Immunsystems indem sie ein Pathogen, also einen Krankheitserreger präsentieren, der in einer modifizierten, nicht krankmachenden Form vorliegt oder nur in Form von Bruchstücken des Erregers.

Die Reaktion des Immunsystem auf das Fremde ruft dann spezialisierte weiße Blutzellen auf den Plan: Makrophagen, die den Erreger attackieren und "verdauen". Gegen dabei übrig bleibende Bruchstücke des Erregers (Antigene) produzieren sogenannte B-Lymphocyten (B-Zellen) neutralisierende Antikörper. T-Lymphozyten schließlich attackieren Zellen, die bereits infiziert sind. Einige T-Zellen bleiben als Gedächtniszellen bestehen. Ist man dann tatsächlich dem aktiven Virus ausgesetzt, entdeckt das Immunsystem ihm bekannte Antigene, ist bereits vorbereitet und kann den Erreger rasch eliminieren.

Wie in Abbildung 2 gezeigt, werden gegen COVID-19 verschiedene Impfstofftypen eingesetzt; nach Komplexität gereiht sind das:

  • das ganze SARS-CoV-2 Virus in inaktivierter Form oder in abgeschwächter Form
  • Virenvektoren in replizierender und nicht replizierender Form
  • Viren-ähnliche Partikel
  • Virenproteine (unmodifiziert, modifiziert) oder Bruchstücke davon
  • DNA
  • mRNA

Die derzeit am häufigsten untersuchten Kandidaten gegen COVID-19 gehören zu drei Typen: zu Virenproteinen (insgesamt 97 , davon 17 in der Klinik), zu Vektorviren (insgesamt 70, davon 13 in der Klinik) und zu mRNA-Vakzinen (insgesamt 40, davon 7 in der Klinik). Abbildung 3 zeigt schematisch wie diese drei Typen funktionieren.

Abbildung 3. Die drei am häufigsten untersuchten Impfstofftypen zur Produktion von neutralisierenden Antikörpern gegen SARS-CoV-2. (Das gemeinfreie Bild stammt aus einem U.S. GAO Report: www.gao.gov/products/GAO-20-583SP und wurde von IS deutsch beschriftet.)

Virenprotein

Der Impfstoff besteht aus einem Protein von SARS-CoV-2 oder einem ausgewählten Teil davon (einem Peptid). Vorzugsweise wird hier das an der Virusoberfläche sitzende Spike-Protein gewählt, das die Schlüsselrolle im Andocken und Eindringen in die Wirtszelle spielt (Abbildung 3, Typ 2). Unser Immunsystem erkennt das Antigen als fremd, beginnt B-Zellen und T-Zellen dagegen zu produzieren. Bei einer Begegnung mit dem Erreger erkennen die Gedächtniszellen das Virus und bekämpfen es.

Die Herstellung von Protein-Impfstoffen ist eine bereits seit langem bewährte Technologie, sehr viele zugelassene Impfstoffe beruhen auf diesem Prinzip und auch die meisten COVID-19 Projekte zielen darauf ab.

Vektorviren

basieren auf einem harmlosen anderen Virus als SARS-CoV-2, beispielsweise auf einem modifizierten ungefährlichen Adenovirus (das in aktiver Form Schnupfen hervorrufen würde). Derartige Viren können sich in unserem Organismus vermehren (replizieren) ohne dabei krank zu machen. In dieses Virus wird nun genetisches Material von SARS-CoV-2 eingefügt, das als Bauanleitung für die Produktion eines oder mehrerer seiner Proteine dient (Abbildung 3; Typ 3). Mit diesem Transportmittel (Vektor) gelangt das SARS-CoV-2 Material in unsere Zellen und wird von diesen zu den entsprechenden Proteinen umgesetzt (vorzugsweise zielt man auch hier auf das Spike-Protein ab).

Das Prinzip des Vektorvirus wurde bereits bei den Impfstoffen gegen Ebola und gegen Denguefieber erfolgreich angewandt.

RNA-Impfstoffe

enthalten ein ausgewähltes Gen von SARS-CoV-2 (auch hier vorzugsweise das Spike-Protein) allerdings nicht in Form des DNA-Abschnitts sondern als bereits in die RNA -transkribierte Form , die sogenannte mRNA (Abbildung 3, Typ 1). Eingehüllt in Lipid-Nanopartikel gelangt diese mRNA nach einer Injektion in den Muskel in die umliegenden Zellen, welche dann die mRNA in das entsprechende Virusprotein übersetzen. Wie die Zwischenergebnisse von Moderna/NIAID und Biontech/Pfizer zeigen, wird damit eine robuste Antwort des Immunsystems ausgelöst, die offensichtlich vor COVID-19 schützt .

Bis jetzt gibt es noch keinen auf Impfstoff auf dem Markt, der auf dem mRNA-Prinzip basiert. Allerdings gibt es auf diesem Gebiet schon jahrelange Erfahrung: in Zusammenarbeit mit dem NIH hat das Unternehmen Moderna dieses Prinzip gegen eine Reihe anderer Virusinfektionen MERS, Zikavirus, RSV, Epstein-Barr Virus, H7N9-Influenzavirus) angewandt.

Ein mRNA-Impfstoff bietet eine Reihe von Vorteilen (nicht nur bei COVID-19).

Die mRNA ist nicht infektiös und kann (wie auch die DNA) sehr schnell für erste Testungen in die Klinik gebracht werden. Bereits innerhalb weniger Tage nachdem im Jänner 2020 das SARS-CoV-2-Genom publiziert worden war, konnte eine entsprechende mRNA hergestellt werden.

Die mRNA braucht nicht in den Zellkern gelangen (wie dies bei DNA-Impfstoffen der Fall ist) und kann somit die Gen-Expression nicht beeinflussen. mRNA-Moleküle sind überdies kurzlebig und binnen weniger Stunden aus dem Organismus verschwunden. Allerdings sind mRNAs auch außerhalb des Organismus instabil und müssen bei tiefen Temperaturen gelagert und transportiert werden.

Ein mRNA-Impfstoff kann auch "Bauanleitungen" für mehrere unterschiedliche Proteine eines Virus enthalten oder für unterschiedliche Viren und damit gegen verschiedene Infektionen immunisieren.

DNA-Impfstoffe

Diese können wie auch die mRNA-basierten Impfstoffe rasch in größeren Mengen produziert werden, weisen aber wesentlich höhere Stabilität auf und benötigen keine Kühlung. Allerdings ist es schwierig die DNA in Körperzellen zu bringen, und es müssen Methoden wie die Elektroporation dazu eingesetzt werden.

Für einen Impfstoff wird das für ein Virusprotein kodierende Gen in ein nicht replizierendes Plasmid (d.i. ein kleines, ringförmiges doppelsträngiges DNA-Molekül) eingefügt. Nach Applikation muss das Plasmid dann in den Zellkern gelangen, wird dort in mRNA umgeschrieben (transkribiert) und an den Ribosomen im Zytoplasma in das Virusprotein übersetzt, gegen das dann die Immunantwort ausgelöst wird.

Ein mögliches Risiko von DNA-Impfstoffen könnte darin bestehen, dass sich die Fremd-DNA in das Wirts-Genom einlagert.

Wie auch im Fall des RNA-Typs sind bis jetzt keine DNA-basierten Impfstoffe für die Humananwendung zugelassen. In der Entwicklung von COVID-19 Vakzinen spielen DNA-Impfstoffkandidaten eine beträchtliche Rolle: 7 befinden sich in Phase 1 und 1/2 der klinischen Prüfung, 22 in der Präklinik.

Ganzvirus-Impfstoffe

bestehen aus abgeschwächten oder inaktivierten Formen des Erregers und stellen - seit den Tagen als Edward Jenner die Pockenimpfung einführte - den klassischen Typ von Impfstoffen dar. Sie lassen sich in Kulturen züchten, schnell herstellen und lösen sehr starke Immunantworten aus

Inaktivierte Impfstofftypen werden durch chemische oder physikalische Methoden inaktiviert und enthalten keine vermehrungsfähigen Viren mehr. Sie sind damit auch nicht imstande Zellen zu infizieren. Stattdessen werden sie von Antigen-präsentierenden Zellen (Makrophagen, dendritische Zellen, ...) inkorporiert, abgebaut und die Protein-Fragmente an der Zelloberfläche dem Immunsystem präsentiert, welches mit der Bildung von Antikörpern und T-Helferzellen antwortet. Derzeit befinden sich 22 inaktivierte Viren in der Entwicklung: 7 in der klinischen Phase, darunter 4 in Phase 3, und 15 Kandidaten in der Präklinik.

Abgeschwächte ("attenuierte") Virusimpfstoffe (sogenannte Lebendimpfstoffe) können sich im Wirt zwar noch vermehren, lösen aber keine Krankheitssymptome aus. Dadurch, dass sich derartige Viren noch über einen langen Zeitraum replizieren und damit laufend ihre Komponenten und damit Antigene produzieren, lösen sie eine sehr starke Immunantwort aus. Bekannte nach diesem Prinzip wirkende Vakzinen richten sich gegen Masern, Röteln, Mumps, Gelbfieber und Pocken. Die abgeschwächten Viren wurden dabei in langdauernden Selektionsprozessen (durch wiederholtes in vitro Passagieren unter suboptimalen Bedingungen) generiert. Ohne hier näher darauf einzugehen, lassen sich attenuierte Viren nun auch durch Mutation oder Deletion von Virulenz-Genen oder durch sogenannte Codon-Deoptimierung erzeugen. Insgesamt befinden sich 6 attenuierte SARS-CoV-2-Viren in der Entwicklung, 2 davon in der Klinik.

Virus-ähnliche Partikel sind ein verwandter Ansatz. Die Partikel ahmen das Virus in Form und Aufbau aus Virusproteinen nach, enthalten aber keine funktionellen Nukleinsäuren. 2 dieser Typen sind in klinischer Entwicklung, 16 in der Präklinik.

Fazit

Unterschiedliche Strategien mit verschiedenen Typen von Impfstoffen haben in unglaublich kurzer Zeit eine Fülle an Entwicklungskandidaten generiert, die zum Teil schon in weit fortgeschrittenen Entwicklungsstatus sind. Es besteht somit Hoffnung , dass wir in naher Zukunft wirksame und sichere Vakzinen im Kampf gegen COVID-19 zur Verfügung haben werden. Und zwar auch für unterschiedliche Gruppen in der Bevölkerung - für Kinder und für Alte, für immunsupprimierte Patienten ebenso wie für schwangere Frauen.


 Weiterführende Links

COVID-19 vaccine tracker, https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/

WHO: What we know about COVID-19 vaccine development (6.October 2020). https://www.who.int/docs/default-source/coronaviruse/risk-comms-updates/update37-vaccine-development.pdf?sfvrsn=2581e994_6

Centers for Disease Control and Prevention: Understanding How Covid-19 Vaccines Work (2. November 2020). https://www.cdc.gov/coronavirus/2019-ncov/vaccines/different-vaccines/how-they-work.html?CDC_AA_refVal=https%3A%2F%2Fwww.cdc.gov%2Fcoronavirus%2F2019-ncov%2Fvaccines%2Fabout-vaccines%2Fhow-they-work.html

Pfizer: All COVID-19 Updates. https://www.pfizer.com/health/coronavirus/updates

Moderna:    Moderna’s Work on a COVID-19 Vaccine Candidate. https://www.modernatx.com/modernas-work-potential-vaccine-against-covid-19

AstraZeneca: Covid-19 Information Hub. https://www.astrazeneca.com/

Artikel zu COVID-19 Impfstoffen im ScienceBlog


 

inge Fri, 27.11.2020 - 23:27

Comments

Warum essen wir mehr als wir brauchen?

Warum essen wir mehr als wir brauchen?

Do, 19.11.2020 — Jochen Müller

Jochen MüllerIcon Gehirn

Die krankhafte Fettleibigkeit (Adipositas) ist weltweit auf dem Vormarsch. Weltweit leben über 1,9 Milliarden Menschen mit Übergewicht, davon über 650 Millionen mit Adipositas. Die Zahlen nehmen seit 30 Jahren zu, vor allem unter Männern, Jugendlichen und Kindern. Experten sehen Adipositas als Gehirnerkrankung an. Grund ist ein fehlreguliertes Gleichgewicht (Homöostase) zwischen Energieverbrauch und Nahrungsaufnahme. Der Neurowissenschafter und Wissenschaftsjournalist Jochen Müller gibt auf der Seite "dasgehirn.info" einen Überblick, wie die Achse zwischen Gehirn und Verdauung funktioniert und was bei Diabetes und Adipositas schief läuft in Kopf und Körper.*

 

Was hat ein Artikel zu Übergewicht auf der Seite "dasgehirn.info" zu suchen? Falls Sie aus Versehen hier gelandet sind: Selbstoptimierung und Superfoods bleiben Ihnen erspart. Hier geht es darum, wieso erstmals in der Geschichte mehr Menschen an Über- als an Unterernährung leiden. Und wie es sein kann, dass Lebensmittel Leben verkürzen. Die Antwort auf die letzten beiden Fragen wird auch die erste beantworten.

Beginnen wir mit Definitionen. Der Körper-Masse- oder Body-Mass-Index gibt Auskunft darüber, ob ein Mensch unter-, normal- oder übergewichtig ist. Er teilt Masse durch das Quadrat der Größe: BMI=kg/m2. Über einem BMI von 25 gelten Menschen als übergewichtig, Adipositas beginnt ab einem BMI von 30. Abbildung 1.Der Autor verteilt 85 Kilogramm auf 1,84 Meter, er ist mit seinem BMI von 25,1 zur eigenen Überraschung leicht übergewichtig.

Abbildung 1. Der Body-Mass-Index (Bild: Wikipedia, https://de.wikipedia.org/wiki/Body-Mass-Index#/media/Datei:BodyMassIndex.svg; gemeinfrei)

Doch Prof Dr. Martin Heni, wissenschaftlicher Koordinator des Instituts für Diabetesforschung und Metabolische Erkrankungen an der Universität Tübingen, betont, dass einfache Zahlen nicht das Problem sind. Es ist unser komplexes Verhalten.

Genau dieses Verhalten gerät bei immer mehr Menschen in Schieflage.

Die Weltgesundheitsorganisation WHO zählte 2016 1,6 Milliarden Menschen mit Übergewicht. 650 Millionen davon galten als adipös. Abbildung 2.

Abbildung 2. Seit 1975 hat der Anteil adipöser Menschen (BMI: gleich oder größer 30) enorm zugenommen. (Bild: https://ourworldindata.org/obesity; Lizenz cc-by).

Nahrungsaufnahme und Energieverbrauch passen nicht zusammen

In Deutschland sind laut einer Studie des Robert-Koch-Instituts (RKI) aktuell mehr als die Hälfte der Erwachsenen übergewichtig, fast ein Viertel adipös. Laut WHO und RKI steigen die Zahlen seit zwanzig Jahren stetig an. Mit weitreichenden Auswirkungen. Übergewichtige Menschen leiden an psychosozialen Folgen wie sozialer Diskriminierung sowie an verringerter Lebensqualität und Selbstwertgefühl. Noch schwerwiegender sind biologische Folgen. Übergewicht trägt zu diversen Erkrankungen bei. Kurz gesagt senkt Fettleibigkeit die Lebenserwartung.

Der Endokrinologe und Diabetologe Heni erklärt, dass Übergewicht entsteht, wenn "Nahrungsaufnahme und Energieverbrauch nicht zusammenpassen". Wir müssen uns nicht mehr körperlich anstrengen, um an Brot, Braten oder Bratling zu kommen. Warum essen wir mehr, als wir brauchen? Verantwortlich ist das Gehirn, wie Martin Heni betont: "Die meisten Wissenschaftler gehen heute davon aus, dass Adipositas eine Gehirnerkrankung ist."

Zwei Arten von Essverhalten

Es gibt zwei Arten von Essverhalten. Das homöostatische Essverhalten stellt ein Gleichgewicht zwischen Hunger und Sättigung ein und hält das Körpergewicht aufrecht. Im Idealfall hören wir auf zu essen, wenn mechanische und chemische Reize aus dem Magen-Darm-Trakt dem Gehirn signalisieren, dass der Magen voll ist und im Inhalt ausreichend Glukose, Aminosäuren und Fette vorhanden sind. Vereinfacht gesagt kommen dafür aus dem Pankreas Insulin, aus der Schleimhaut des Dünndarms Neuropeptide und aus den Fettzellen oder Adipozyten Leptin. Diese Signalstoffe regulieren, wie die Substrate verwertet werden, indem sie an Rezeptoren ihrer Zielzellen binden und dort Stoffwechselvorgänge bewirken. Und sie binden an Insulin- und Leptin-Rezeptoren von Neuronen im Magen-Darm-Trakt. Deren Signale erreichen zuerst Zentren im verlängerten Rückenmark (Medulla oblongata), unter anderem den Nucleus tractus solitarii. Er ist synaptisch eng mit zwei Teilen des Zwischenhirns verschaltet, dem Thalamus und dem Hypothalamus. Der Hypothalamus reguliert viele homöostatische Vorgänge im ganzen Körper, und über die erwähnte Verschaltung auch die Nahrungsaufnahme. Je mehr Insulin und Leptin, umso satter der Mensch. Eigentlich. Denn satt sein und Sättigung spüren sind zwei verschiedene Dinge.

Mikroben als heimliche Influencer

Auch das in den letzten Jahren viel diskutierte Mikrobiom spielt für Essverhalten und Sättigung eine Rolle. Die kleinen bakteriellen Helfer in uns erhalten ihren Anteil an der Nahrung, und sie versorgen uns mit Stoffen, die wir alleine nicht bilden könnten. Es gibt Hinweise darauf, dass sie auch Substanzen ausschütten, die das Verhalten modifizieren. In Nagern lässt sich die Nahrungsaufnahme direkt beeinflussen, indem man die beteiligten Peptide spritzt. Allerdings ändert sich das Mikrobiom mit jeder Mahlzeit. Es ist noch unverstanden, wie sich das auf das Körpergewicht auswirkt. Denn Menschen sind keine Nager.

Uns kommt ein zweites System in die Quere. Es regelt das hedonistische Essverhalten und ist ungleich komplizierter als das homöostatische. Hedonismus bedeutet soviel wie Genuss. Der Begriff bezieht sich auf die starke soziale und damit erlernte Komponente menschlichen Essverhaltens. Es interagiert im Gehirn mit anderen Prozessen wie Belohnung und Emotionen. Die Regulierung hedonistischen Essverhaltens beinhaltet das limbische System, den präfrontalen Cortex und dazwischen komplexe neuronale Schaltkreise, deren Rolle noch nicht endgültig geklärt ist. Im Ergebnis kann das hedonistische System, das gar nicht an der Homöostase beteiligt ist, das homöostatische System kontrollieren. Geruch, Erwartung, selbst die Vorstellung der Lieblingsspeise kann Sättigungsprozesse überspielen. Abbildung 3.

Abbildung 3. Das Gehirn und das Essen. Hirnregionen, die involviert sind, wenn der Mensch Essbares beurteilt: Wahrnehmungsprozesse, Emotionen, Erinnerungen, Motivationen, aber auch sprachliche Aspekte spielen dabei eine Rolle. Die linke Spalte zeigt, über welche Sinneskanäle Speisen auf uns wirken- Die mittlere und rechte Spalte veranschaulichen, wie das "Geschmackssystem" im umfassenden Sinne unser Essverhalten steuert. Grüne Regionen modulieren dabei unbewusste Regelungsprozesse.(Bild: https://www.dasgehirn.info/wahrnehmen/riechen-schmecken/bild-das-gehirn-und-das-essen).

Krankheitsursache: fehlregulierte Homöostase

Hier zeigt sich, dass Adipositas ebenso wie die Magersucht biologische und psychologische Ursachen hat. Beide Krankheiten beruhen auf einer fehlregulierten Homöostase. Und die ist erlernt. Tatsächlich hat sich gezeigt, dass Gehirne adipöser Menschen auf die Sättigungssignale Insulin und Leptin weniger sensibel reagieren. Die Menschen merken zu spät, dass sie satt sind und essen über das Maß hinaus.

Das haben sie auch der Plastizität ihrer Zellen zu verdanken. Plastizität beschreibt die Fähigkeit eines Systems, sich an veränderte Umweltbedingungen anzupassen. Es erlaubt zu lernen. Aber manchmal lernt das System eine falsche Lektion. Sind Insulin- und Leptin-Konzentrationen nach einer Geburtstagskuchenorgie kurzfristig erhöht, ist das unproblematisch. Findet die Sause täglich statt, sind Signalwirkstoffe dauerhaft erhöht und ihre Zielneuronen dauerhaft erregt. Um nicht an Übererregung einzugehen, regulieren die Nervenzellen die verantwortlichen Rezeptoren herunter. So entsteht eine Insulin- bzw. Leptin-Resistenz, die bei den meisten adipösen Menschen vorliegt. Der Körper passt sich auch diesem Zustand an und regelt die Produktion der Signalstoffe hoch. Bis er das nicht mehr kann. Erst wenn die Beta-Zellen in der Bauchspeicheldrüse die Insulinproduktion nicht weiter hochregulieren können, entsteht Diabetes. Die Frage, warum nicht alle adipösen Menschen eine Diabetes entwickeln, beantwortet der Diabetologe Heni mit diesem System: "Entscheidend ist dann die Fähigkeit der Bauchspeicheldrüse, auf die Insulin-Resistenz zu reagieren".

Diese Fähigkeit ist uns nur zu einem kleinen Teil in die Wiege gelegt. DAS Adipositas-Gen gibt es nicht. Stattdessen zählt das Weißbuch Adipositas über 600 Erbanlagen auf, die darauf einen Einfluss haben können. Auch epigenetische Faktoren, also Umwelteinflüsse, die die Ablesbarkeit von Genen beeinflussen, spielen einzeln betrachtet eher eine untergeordnete Rolle. Es sei denn, sie vollziehen ihr Werk bereits im Mutterleib. Dort findet die so genannte fötale Programmierung statt. Faktoren wie Mangel- oder Überernährung haben Einfluss auf die Entwicklung. Ist der Fötus in einer sensiblen Entwicklungsphase Überernährung ausgesetzt, kann dies dazu führen, dass die Betazellen in der Bauchspeicheldrüse dauerhaft fehleingestellt werden. Das zeigt auch, wie Krankheiten wie Diabetes angeboren sein können, ohne durch Gene vererbbar sein zu müssen. Weil die Anpassungsfähigkeit auch fehlerhafte Anpassung ermöglicht, noch bevor wir geboren sind.

Niedrigschwellige Entzündungen im Fettgewebe

Auch das Fettgewebe spielt eine Rolle. Davon gibt es zweierlei Typen: braunes und weißes Fett. Weißes Fett reguliert den Fettstoffwechsel und speichert Energie. Für ersteres schütten die Fettzellen oder Adipozyten Hormone wie Leptin oder Adiponectin aus. Für letzteres nehmen sie Fett in sich auf. Bis nichts mehr reingeht. Dann laufen die Speicherzellen über und das Fett lagert sich an, wo es nichts zu suchen hat. Zwischen den Zellen, irgendwo im Gewebe, wo es Immunzellen wie Monozyten und Makrophagen aktiviert. Sie schütten gemeinsam mit den Adipozyten Stoffe aus, die niederschwellige Entzündungsprozesse bewirken. So befördern sie Insulin- und Leptinresistenz und spielen eine ursächliche Rolle bei der Entstehung von Diabetes Typ 2 und anderen Folgeerkrankungen.

Wie soll man einem solch komplexen, emotional gesteuerten und in unsere Biologie eingeprägten System mit einer Diät beikommen? Wenn die Gründe für Übergewicht in veränderten Gehirnprozessen liegen, müsste eine kausal wirkende Therapie auch dort angreifen. Was Diäten nicht tun. Zwar schaffe es Heni zufolge fast jeder Mensch durch eine Diät kurzfristig abzunehmen. Aber "was kaum jemand schafft, ist das niedrige Körpergewicht langfristig zu halten. Diäten sind im Alltag selten langfristig umsetzbar, und der Drang des Organismus, in alte Verhaltensmuster zurück zu fallen, extrem stark".

Nur wer Ess- und Lebensgewohnheiten nachhaltig verändert, wird sein Idealgewicht halten können. Dazu können Ernährungsberatungen ebenso beitragen wie verhaltenstherapeutische Maßnahmen, medikamentöse Therapien und in gravierenden Fällen gar chirurgische Maßnahmen. Beim Stichwort Idealgewicht kommt der Mediziner noch einmal auf die BMI Einteilung zurück: "Epidemiologische Studien zeigen zwar immer wieder, dass starkes Unter- oder Übergewicht langfristig ungünstig auf die Gesundheit wirkt. Es leben aber nicht diejenigen aus der Mitte des Normmaßes am längsten, sondern die leicht Übergewichtigen. Das biologische Ideal liegt also vielleicht etwas über einem BMI von 25."


*Der von Prof. Dr. Ingo Bechmann wissenschaftlich betreute Artikel erschien am 17.09.2020 unter dem Titel "Wenn Hunger und Genuss aus dem Gleichgewicht geraten" https://www.dasgehirn.info/krankheiten/gestoerter-stoffwechsel/wenn-hunger-und-genuss-aus-dem-gleichgewicht-geraten und steht unter einer cc-by-nc -sa Lizenz. Die Webseite www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe. Der Artikel wurde von der Redaktion geringfügig gekürzt und es wurden 3 Abbildungen eingefügt.


Weiterführende Links

Artikel zum Thema im ScienceBlog


 

inge Wed, 18.11.2020 - 22:53

COVID-19, Luftverschmutzung und künftige Energiepfade

COVID-19, Luftverschmutzung und künftige Energiepfade

Do, 12.10.2020 — IIASA

IIASAIcon Geowissenschaften Vor dem Hintergrund tiefgreifender Beeinträchtigungen und Ungewissheiten, die durch die COVID-19-Pandemie verursacht wurden, sind gut konzipierte Energiestrategien unerlässlich, um ein resilientes Energiesystem zu entwickeln, das  sowohl die globalen Klimaziele als auch die Standards der Luftqualität zu erfüllen vermag. Die Internationale Energieagentur (IEA) hat kürzlich ihren alljährlichen Report, den World Energy Outlook (WEO) 2020 veröffentlicht. Zu den von der IEA entwickelten Energieprognosen haben Forscher am International Institute of Applied Systems Analysis (IIASA, Laxenburg bei Wien) beigetragen, indem sie eine quantitative Abschätzung der wichtigsten Luftschadstoffe und deren entsprechende nachteilige gesundheitliche Auswirkungen erstellt haben.*

Es war ein stürmisches Jahr für das globale Energiesystem. Die durch COVID-19 verursachte Krise hat mehr Beeinträchtigungen verursacht als jedes andere Ereignis in der jüngeren Vergangenheit und Narben hinterlassen, die noch jahrelang weiterbestehen werden. Inwieweit diese Umbruchsituation aber die Bemühungen einer Wende zu sauberer Energie und zur Erreichung der internationalen Energie- und Klimaziele letztendlich fördern oder behindern wird, hängt davon ab, wie die Regierungen auf die gegenwärtigen Herausforderungen reagieren werden.

Analysen des World Energy Outlook 2020

Der World Energy Outlook 2020 (WEO 2020, [1]), das Flaggschiff der Internationalen Energieagentur (IEA), untersucht verschiedene Szenarios, die aus der Krise führen können, wobei der Schwerpunkt auf dem nächsten Jahrzehnt liegt. Zu diesem letzten Report haben IIASA-Forscher einen Beitrag geleistet, indem sie die von der IEA entwickelten Energieprognosen hinsichtlich der Konzentrationen der wichtigsten Luftschadstoffe und der entsprechenden, nachteiligen gesundheitlichen Auswirkungen quantitativ ausgewertet haben. Nach Meinung des IIASA-Teams ist es für fundierte politische Strategien in vielen Ländern entscheidend, dass ein klares Verständnis aufgebaut wird, wie Luftverschmutzung und deren gesundheitliche Auswirkungen mit den beschriebenen IEA-Szenarien korrelieren.

Der aktuelle WEO enthält unter anderem die neueste IEA-Analyse zu den Auswirkungen der COVID-19 Pandemie:

     So soll 2020 der weltweite Energiebedarf um 5% sinken, die energiebedingten CO2-Emissionen um 7% und die Investitionen in Energie um 18%.

Der bereits etablierte Ansatz des WEO - man vergleicht  verschiedeneSzenarien, die angeben, wie sich der Energiesektor entwickeln könnte - ist in diesen unsicheren Zeiten wichtiger denn je. Die Kernaussage daraus ist ernüchternd: Es wird nicht genug getan, um die Welt auf die richtige Bahn zur Erreichung der nachhaltigen Entwicklungsziele zu bringen.

„Die derzeitige Entwicklung von Maßnahmen zur Verbesserung der Luftqualität allein dürfte  keinen signifikanten Rückgang der Emissionen oder der vorzeitigen Todesfälle garantieren. Wenn wir saubere Luft erzielen wollen - was die Senkung der Schadstoffkonzentrationen und die Erreichung der Luftqualitätsstandards von Weltgesundheitsorganisation (WHO) oder von nationalen Standards betrifft -, müssen wir Strategien zur Verbesserung der Luftqualität mit Klimapolitik und auch mit Maßnahmen die Zugang zu sauberer Energie ermöglichen, kombinieren “, erklärt Peter Rafaj, Forscher im IIASA-Programm für Luftqualität und Treibhausgase.

Luftschadstoffe und vorzeitige Todesfälle

„Derzeit sterben jährlich etwa 6 Millionen Menschen vorzeitig aufgrund der Luftverschmutzung in Innenräumen und Außenräumen, und bis 2030 ist der weltweite Trend steigend. Abbildung 1. Wie unsere Auswertung der IEA-Prognosen zeigt, können in den nächsten zehn Jahren in Summe fast 12 Millionen vorzeitige Todesfälle vermieden werden, wenn mehr "Sustainable Development Goals" (nachhaltige Entwicklungsziele) in Angriff genommen werden. Man muss koordinierte politische Maßnahmen ergreifen, die das Problem von mehreren Seiten aus angehen “, sagt Peter Rafaj.

Abbildung 1. Prognostizierte Änderung von Schadstoffemissionen und von vorzeitigen Todesfällen für zwei Szenarien bis 2030. Stated Policies Scenario (STEPS) geht davon aus, dass COVID-19 nächstes Jahr unter Kontrolle gebracht und die Weltwirtschaft Vorkrisenniveau erreicht; Sustainable Development Scenario (SDS) bedeutet die Einhaltung des Pariser Abkommens bis 2050. Die Emissionen im STEPS-Szenario sinken zwar leicht, auf Grund der wachsenden Bevölkerung in den Städten und der dortigen Luft kommt es aber zu einem Anstieg vorzeitiger Todesfälle.

Auswirkungen von COVID-19

Die Auswirkungen von COVID-19 sind einschneidend, doch einige von ihnen haben zu positiven Umweltveränderungen geführt.

Ein solches Beispiel ist, dass in vielen Teilen der Welt die Luftverschmutzung zurückgegangen ist. Diese Rückgänge waren allerdings nur vorübergehend; als die Lockdowns aufgehoben wurden, stiegen die Luftschadstoffe wieder auf Konzentrationen an, die mit denen des letzten Jahres vergleichbar waren und in einigen Regionen der Welt wurden sie sogar noch höher. Viele der aufgrund der Lockdowns erfolgten, kurzfristigen Verbesserungen der Luftqualität waren nicht nur schnell wieder vorbei, sie gingen auch mit hohen Kosten für das Wohl der Bürger und die Gesundheit der Weltwirtschaft einher. Es ist klar, dass wir uns nicht auf globale Pandemien verlassen sollten, um dauerhaft positive Umweltveränderungen herbeizuführen. Was wir stattdessen brauchen, sind systemische und tiefgreifende Transformationen.

„Trotz eines Rekordrückgangs der globalen CO2-Emissionen in diesem Jahr ist die Welt weit davon entfernt, genug zu tun, um ein entscheidendes Absinken hervorzurufen. Der wirtschaftliche Abschwung hat die Emissionen vorübergehend reduziert, aber ein niedriges Wirtschaftswachstum ist keine Strategie für niedrige Emissionen- es ist eine Strategie, die nur dazu führen kann, dass die bedürftigsten Bevölkerungsgruppen der Welt noch mehr verarmen“, erklärt IEA-Direktor Fatih Birol.

Ein deutlicher Umschwung hin zu Investitionen in saubere Energie bietet eine Möglichkeit, das Wirtschaftswachstum anzukurbeln, Arbeitsplätze zu schaffen und Emissionen zu reduzieren. Weitere Anstrengungen müssten sich in den kommenden Jahren auch auf die Reduzierung der Emissionen aus bestehenden Energie-Infrastrukturen wie Kohlekraftwerken, Stahlwerken und Zementfabriken konzentrieren. Fehlen solche Änderungen zur Bekämpfung dieser „gebundenen“ Emissionen - und dies unabhängig von Maßnahmen zur Förderung des Wachstums sauberer Energie - werden internationale Klimaziele unerreichbar bleiben.

[1] World Energy Outlook 2020, https://www.iea.org/reports/world-energy-outlook-2020


*Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 29. Oktober 2020 auf der Webseite des IIASA unter dem Titel: " Air pollution implications of re-shaping future energy pathways" erschienen. https://iiasa.ac.at/web/home/about/news/201027-World_Energy_Outlook_.html. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.

 


Links zu Luftschadstoffen

Bert Brunekreef (Institut für Risikoforschung, Universität Utrecht): Luftschadstoffe und Gesundheit, Video 21:28 min. https://vimeo.com/107579920

Romain Lacombe (Etalab; data.gouv.fr): Global Pandemic - Air Pollution, TEDxAthens. Video 19:06 min. https://www.youtube.com/watch?v=FKBVwX8dVhI. Standard-YouTube-Lizenz

 

Artikel im ScienceBlog

IIASA. 23.07.2020: Es genügt nicht CO₂-Emissionen zu limitieren, auch der Methanausstoß muss reduziert werden. https://scienceblog.at/methan-ausstoss-muss-reduziert-werden.

Francis S. Collins, 27.09.2018: Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind. https://scienceblog.at/erk%C3%A4ltungen-warum-m%C3%B6glichweise-manche-menschen-h%C3%A4ufiger-davon-betroffen-sind.

Inge Schuster, 16.11.2017: Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage. https://scienceblog.at/eurobarometer468.

IIASA, 18.05.2017: Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt . https://scienceblog.at/%C3%BCberschreitungen-von-diesel-emissionen-%E2%80%94-auswirkungen-auf-die-globale-gesundheit-und-umwelt.

 

IIASA, 25.09.2015:Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klimahttps://scienceblog.at/verringerung-kurzlebiger-schadstoffe.  

Johannes Kaiser & Angelika Heil, 31.07.2015: Feuer und Rauch: mit Satellitenaugen beobachtet. http://scienceblog.at/feuer-und-rauch.

Inge Schuster, 12.12.2014: Was macht HCB so gefährlich? http://scienceblog.at/was-macht-hcb-so-gef%C3%A4hrlich.


inge Thu, 12.11.2020 - 01:20

Comments

Können manche Antikörper die Infektion mit SARS-CoV-2 verstärken?

Können manche Antikörper die Infektion mit SARS-CoV-2 verstärken?

Do, 05.11.2020 — Ricki Lewis

Ricki LewisIcon MedizinAntikörper haben von vornherein ein positives Image. Allerdings: dieselben Mechanismen, mit denen Antikörper und damit Impfungen uns vor Infektionen schützen, bergen auch das potentielle Risiko das Infektionsgeschehen verschlimmern zu können, indem sie den Eintritt von Viren in unsere Zellen erleichtern. Es ist ein Virus- und Wirts-spezifisches Phänomen, das nur unzureichend verstanden wird. In vitro Modelle im Labor und Tiermodelle sind für die Situation am Menschen wenig aussagekräftig und für ein Auftreten infektionsverstärkender Antikörper in klinischen Studien an Impfstoffkandidaten gibt es (noch) keine Biomarker und keine spezifischen Symptome - außer dem Befund, dass mehr mit Impfstoff behandelte Teilnehmer krank werden als solche, die ein Placebo erhalten. Basierend auf einer jüngst im Fachjournal Nature veröffentlichten Studie [1] führt die Genetikerin Ricki Lewis Beispiele für infektionsverstärkende Antikörper und Impfungen an und diskutiert das Problem in Hinblick auf die Impfstoffentwicklung gegen COVID-19.*

Antikörper haben von vornherein ein positives Image. Diese, aus charakteristischen Y-förmigen Stücken bestehenden Proteine strömen aus Plasmazellen heraus und gelangen bereits in der frühen Phase einer Infektion in den Blutkreislauf. Sie heften sich dann an Moleküle, welche die Oberflächen von Krankheitserregern "dekorieren" und alarmieren natürliche Killerzellen, die wiederum einen Strom von Zytokinen und von Komplement freisetzen, welche die biochemischen Waffen einer Immunantwort sind.

Die Bekämpfung von Infektionen - ein komplexer Vorgang

In einem mysteriösen Phänomen, das als " infektionsverstärkende Antikörper " (ADE: Antibody-Dependent Enhancement) bezeichnet wird, verschlimmern manche Antikörper allerdings den Zustand und verstärken die Krankheitssymptome. Wenn ein Impfstoff die Bildung solcher abartigen Antikörper verursacht, werden die Folgen als "Impfstoff- ausgelöste Verstärkung der Infektion" bezeichnet. Man weiß, dass solche Vorgänge existieren, versteht sie aber nur unzureichend.

Die konträr wirkenden Antikörper lassen sich zwar im Laborversuch feststellen, bei einem Patienten, dessen Zustand sich verschlimmert, sind sie aber schwer zu fassen. Das heißt, es gibt in der Klinik keine Möglichkeit zwischen Folgen von infektionsverstärkenden Antikörpern und einem schweren Fall einer Infektionskrankheit zu unterscheiden. Und das kann die Evaluierung eines Impfstoffkandidaten erschweren. Eine Impfstoff- ausgelöste Verstärkung der Infektion würde sich In einer klinischen Studie so manifestieren, dass mehr mit dem Impfstoff behandelte Teilnehmer krank werden als solche, die ein Placebo erhielten.

Angeblich soll dies bei den COVID-19-Impfstoffkandidaten nicht der Fall sein, die entsprechenden Daten werden allerdings erst nach Abschluss der Phase-3-Studien veröffentlicht werden.

In den frühen klinischen Phasen war das schnelle Auftreten neutralisierender Antikörper im Blutplasma der behandelten Teilnehmer ein gutes Zeichen, ein Vorbote einer noch stärker einsetzenden Immunantwort (weil T-Zellen die Antikörperproduktion kontrollieren und darüber hinaus noch mehr tun). Aber werden Infektionsverstärkende Antikörper bemerkt werden, wenn Zehntausende Menschen an den Phase-3-Studien teilnehmen?

Während früherer Epidemien sind Infektionsverstärkende Antikörper in drei Situationen aufgetreten:

  • bei von früheren Infektionen mit verwandten Krankheitserregern noch vorhandenen Antikörpern
  • bei schwach wirksamen Antikörpern aus dem Plasma rekonvaleszenter Patienten (von Spendern, die sich erholt hatten) 
  • bei durch einen Impfstoff ausgelösten schwach wirksamen Antikörpern

Unabhängig vom Szenario verstärken Antikörper die Infektion, indem sie den Eintritt von Viren in unsere Zellen erleichtern - so als ob sie Burgtore öffneten anstatt sie zu befestigen.

Beispiele von infektionsverstärkenden Antikörpern

In einem kürzlich erschienenen, faszinierenden Artikel im Fachjournal Nature haben Ann Arvin und Herbert Virgin von Vir Biotechnology und ihre Kollegen vergangene Fälle von infektionsverstärkenden Antikörpern untersucht [1]. Angesichts der Komplexität fanden sie es „eine frustrierende Herausforderung vorhersagen zu wollen ob die durch SARS-CoV-2 verursachte Krankheit eine antikörperabhängige Verstärkung erfährt“.

Dazu Beispiele infektionsverstärkender Antikörper; es beginnt mit Katzen.

Das Feline Coronavirus

Für bestimmte Viren-Familien besteht eine höhere Wahrscheinlichkeit, dass sie eine Infektionskrankheit verstärken. Dazu gehören Lentiviren (HIV gehört dazu), Flaviviren (wie die Erreger von Dengue-Fieber, das West-Nil-Virus, Zika- und Gelbfieber-virus) und Coronaviren.

Das Feline Coronavirus macht Katzen normalerweise nicht sehr krank. Ein Stamm kann jedoch eine schmerzhafte infektiöse Peritonitis bei Katzen auslösen, wenn böse Antikörper die Viren nicht nur in Oberflächen auskleidende Zellen (wohin sie normalerweise gelangen) lotsen, sondern auch in die Makrophagen, die den Körper durchstreifen und "Abfall" umschlingen und verdauen. Die infizierten Makrophagen übertragen die Viren dann an viele Organe und verursachen schwere Symptome. Die Forscher haben nun Plasma von Katzen, welche die Peritonitis überlebt hatten, in kleine Kätzchen injiziert, die in Folge sehr schwer erkrankten.

Die Antikörper in den kranken infizierten Kätzchen banden an die Spikes des Virus und transportierten die Viren dann zu Makrophagen, in welche die Viren eindrangen. Anstatt eine Immunantwort auszulösen, verstärkten die Antikörper die Infektion.

Denguefieber

Wie die Coronavirus-Infektion bei Katzen verläuft die Dengue-Infektion bei Menschen normalerweise mild oder asymptomatisch. In seltenen Fällen verursacht Denguefieber jedoch ein hämorrhagisches Fieber, das tödlich sein kann. Vier Typen (Serotypen) des Virus verursachen Dengue-Fieber (DEN 1-4).

Denguefieber ist ein klassisches Beispiel für infektionsverstärkende Antikörper, da eine zweite Infektion manchmal ärger und nicht milder ausfällt.

In Gegenden, in denen Denguefieber endemisch ist, haben etwa 0,5% der Bevölkerung einen niedrigen Spiegel an Antikörpern, die von früheren Infektionen stammen. Denguefieber ist in vielen Teilen der Welt verbreitet. In den USA wurde 2005 der letzte Fall registriert. Infektionsverstärkende Antikörper können auftreten, , wenn eine Person anfänglich an einem Dengue- Serotyp erkrankt und dann mit einem anderen Serotyp infiziert wird. Die an das Virus angedockten Antikörper binden mit dem Stammteil ihrer Y-förmigen Komponenten an einen Rezeptor (Fc) auf Makrophagen und können diese infizieren, sodass diese nun Viren produzieren, anstatt die Immunantwort auszulösen, um sie zu zerstören.

Dengvaxia, ein Impfstoff gegen alle vier Dengue-Serotypen, hat Millionen von Menschenleben gerettet. Kontroversen kamen 2016 auf, nachdem auf den Philippinen der Impfstoff an kleinen Kindern getestet worden war, die seronegativ (d.i. noch nie infiziert) gewesen waren, und 14 starben. Diese Zahl stieg bis Ende 2019 auf 600 an. WHO-Forscher untersuchten dies, konnten jedoch nicht unterscheiden, ob die Kinder an infektionsverstärkenden Antikörpern gestorben waren oder an schwerem Denguefieber, weil der Impfstoff nicht gewirkt hatte. Auch das Alter kann ein Faktor für die schweren Verläufe gewesen sein. Heute wird der Impfstoff in 20 Ländern eingesetzt und an Menschen im Alter von 9 bis 45 Jahren verabreicht.

Die Forscher gehen auch davon aus, dass eine Impfung gegen Denguefieber das Risiko von infektionsverstärkenden Antikörpern gegen ein verwandtes Virus wie das Gelbfieber- oder Zika-Virus erhöhen könnte.

Humanes Respiratorisches Synzytial-Virus (HRSV)

Ein weiteres bemerkenswertes Beispiel für eine Impfstoff- ausgelöste Verstärkung der Krankheit gibt es bei HRSV, das typischerweise nur leichte Erkältungssymptome verursacht. Bei immungeschwächten Personen, Menschen mit Herz- oder Lungenerkrankungen, Frühgeborenen und älteren Personen kann der Verlauf schwer sein.

Eine alte Studie aus dem Jahr 1969 zeigte, dass Kinder im Alter von 6 bis 11 Monaten, die einen Impfstoff gegen RSV erhalten hatten, im Krankenhaus wegen schwerer Entzündungen der Lunge (Lungenentzündung) oder der Atemwege (Bronchiolitis) schlechter abschnitten als nicht geimpfte Kinder. 10 von 101 der geimpften Kinder hatten schwere Atemwegserkrankungen im Vergleich zu 2 von 173, die nicht geimpft waren. Unerwartet! Die kranken Kinder produzierten ungewöhnliche Antikörper, die sich an ein Fusionsprotein auf den Oberflächen der Viren anhefteten und offensichtlich einen schwereren Verlauf der Krankheit auslösten.

Die Forscher nannten die Reaktion "Impfstoff-assoziierte verstärkte Atemwegserkrankung". Bei dem Impfstoff handelte es sich damals um ein mit Formalin inaktiviertes HRSV. Neuere HRSV-Impfstoffe auf Basis monoklonaler Antikörper erweisen sich als sicher.

Influenza

Einige Personen, die im Jahr 2009 einen Impfstoff gegen einen neuartigen H1N1-Influenza-Stamm erhalten hatten, entwickelten eine schwere Atemwegserkrankung, die dem Impfstoff zugeschrieben wurde. Die Lungen von sechs verstorbenen Personen mittleren Alters zeigten klebrige Immunkomplexe, die darauf hinwiesen, dass geringe Mengen an Antikörpern aus früheren Grippeschutzimpfungen an die Stammteile der Hämagglutinin-Proteine gebunden waren, welche aus der Virusoberfläche herausragen. Die weitere Impfung war dann ausschlaggebend, dass die Antikörper die Infektion verstärkten.

Fazit

Infektionsverstärkende Antikörper und Impfungen sind schwierig zu untersuchen. Abgesehen davon, dass sie klinisch nicht von schweren Fällen der Infektionskrankheit zu unterscheiden sind, gibt es keine Biomarker, keine spezifische Kombination von Anzeichen und Symptomen, die diese Reaktion anzeigen. Es bleibt nichts anderes übrig als abzuwarten, ob in den Impfstoffstudien zu COVID-19 eine Verstärkung der Krankheit erfolgt. Eine beruhigende Beobachtung ist, dass SARS-CoV-2 an einen anderen Rezeptortyp - ACE2 - andockt als es die auf Makrophagen vorkommenden.Rezeptoren sind.

Die Möglichkeit - obwohl unwahrscheinlich - die Krankheit durch Impfstoffe zu verstärken, ist ein weiterer Grund, die Entwicklung von COVID-19-Impfstoffen nicht zu beschleunigen.

------------------------------------------------------------------------------

[1] Ann M. Arvin et al., A perspective on potential antibodydependent
enhancement of SARS-CoV-2. Nature 584353 - 363  (20.08.2020), https://doi.org/10.1038/s41586-020-2538-8


 *Der Artikel ist erstmals am 22.Oktober 2020 in PLOS Blogs - DNA Science Blog unter dem Titel " Can Some Antibodies Worsen COVID-19? The Odd Situation of Enhancement" https://dnascience.plos.org/2020/10/22/can-some-antibodies-worsen-covid-19-the-odd-situation-of-enhancement/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. 


Weiterführende Links:

Paul-Ehrlich Institut: Was sind infektionsverstärkende Antikörper (ADE) und sind sie ein Problem? https://www.pei.de/DE/service/faq/faq-coronavirus-inhalt.html

Neue Studie: Was wir über Corona-Immunität wissen. 13.10.2020. https://www.dw.com/de/neue-studie-was-wir-%C3%BCber-coronavirus-reinfektionen-wissen/a-55242712

Celerion: Development of an Antibody Dependent Enhancement(ADE) Assay to Support SARS-CoV2 Vaccine Development. 7.7.2020; Video 15:54 min. https://www.celerion.com/resource/development-of-an-antibody-dependent-enhancementade-assay-to-support-sars-cov2-vaccine-development

Artikel zur Impfstoffentwicklung gegen COVID-19 im ScienceBlog

inge Thu, 05.11.2020 - 16:24

Elektronische Haut-Patches zur Wiederherstellung verlorener Sinnesempfindung und Erkennung von Krankheiten

Elektronische Haut-Patches zur Wiederherstellung verlorener Sinnesempfindung und Erkennung von Krankheiten

Do, 29.10.2020 — Redaktion

RedaktionIcon Medizin Elektronische Haut (E-Skin) ist ein Hot-Topic. Es handelt sich um flexible, dehnbare Pflaster, die nachahmen, wie Haut aussieht und sich anfühlt und die über Sensoren Informationen über den Träger sammeln. Hier werden zwei von der EU finanzierte Projekte vorgestellt. i) Im Projekt PepZoSkin wird eine flexible, sich selbst versorgende elektronische Haut entwickelt, die auf peptidbasierten piezoelektrischen Materialien basiert und sichere tragbare und implantierbare Anwendungen verspricht. ii) Das Projekt A-Patch will über Sensoren in elektronischen Haut-Patches Krankheits-spezifische Moleküle erkennen und damit eine rasche, effiziente, einfache und kostengünstige Diagnose ermöglichen - als Beispiel wird Tuberkulose angeführt - es kommt aber auch COVID-19 in Betracht.*

Stellen Sie sich Folgendes vor: jahrelang waren Ihre Arme ab den Handgelenken gefühllos, nun legt ein Arzt eine dünne, flexible Membran über Ihre Hand und - wie durch Zauberei - können Sie nun spüren, wie Wasser durch Ihre Finger rinnt. Abbildung 1.

Abbildung 1. Forscher in Europa arbeiten an elastischen Pflastern, die nachahmen, wie Haut aussieht und sich anfühlt und über Sensoren Informationen über den Träger sammeln. (Bild: Aaron Lee/Unsplash)

Dies mag nach einem seltsamen Szenario klingen, es ist es aber nicht. In ganz Europa machen Forscher rasche Fortschritte in der Entwicklung elastischer Pflaster, d.i. von Membranen welche die menschliche Haut in Aussehen oder Funktionalität oder in beiden Charakteristika nachahmen.

Elektronische Haut (E-Skin) wird als „tragbare Elektronik“ ("electronic wearable") eingestuft, d.h. als intelligentes Gerät, das auf oder nahe der Hautoberfläche getragen wird, um Informationen über den Träger zu erfassen und zu analysieren. Ein besser bekanntes elektronisches Wearable ist der Fitness-Tracker, der üblicherweise Bewegungen oder Vibrationen erfasst, um Feedback zur Leistung eines Benutzers zu geben. Weiter entwickelte Wearables sammeln Daten zur Herzfrequenz und zum Blutdruck einer Person.

Entwickler von E-Skins setzen sich aber höhere Ziele. Sie wollen dehnbare, robuste und flexible Membranen herzustellen, die hochentwickelte Sensoren enthalten und die Fähigkeit haben sich selbst zu heilen. Die möglichen Auswirkungen auf Medizin und Robotik sind enorm.

Zentrales Nervensystem

Bereits im Umlauf sind hautähnliche Membranen, die an der Körperoberfläche haften und Druck, Belastung, Verschiebung, Kraft und Temperatur erfassen; andere Typen werden entwickelt, um biochemische Veränderungen zu erkennen, die auf eine Krankheit hinweisen. Abbildung 2.

Abbildung 2. Eine Zusammenfassung der derzeitigen Entwicklung von tragbarer Elektronik, ausgerichtet zur Erfassung und Überwachung von Informationen zur menschlichen Gesundheit. (Bild aus: Yieding Gu et al., Nanoscale Res Lett. 2019; 14: 263. doi: 10.1186/s11671-019-3084-x; von der Redn. eingefügt. Lizenz: cc-by-4.0)

Eine Reihe von Projekten beschäftigt sich mit Hautformen, die Roboter oder menschliche Prothesen einhüllen sollen und diesen Maschinen und Apparaten die Möglichkeit geben Dinge zu manipulieren und ihre Umgebung mit einem hohen Maß an taktiler Empfindlichkeit wahrzunehmen. Und der Traum ist natürlich, eine E-Skin zu entwickeln, die sich mit dem Zentralnervensystem des Trägers (zum Beispiel einer gelähmten Person) verbinden kann, um so den durch Krankheit oder Trauma erlittenen Verlust der Sinnesempfindung wiederherzustellen.

Mit ihrem Projekt PepZoSkin (Biocompatible Self-powered Electronic Skin - https://cordis.europa.eu/project/id/875586) befinden sich Forscher der Universität Tel Aviv in Israel auf einem Weg, von dem sie glauben, dass er diesen Traum irgendwann Wirklichkeit werden lässt. Innerhalb eines Jahrzehnts glauben sie, dass künstliche Hautpflaster weit genug fortgeschritten sein werden, um die Träger auf Gefahren aufmerksam zu machen, die sie auf natürliche Weise nicht wahrnehmen können.

"Ich habe einen Freund im Rollstuhl, der kein Gefühl in den Beinen hat - er hat keine Ahnung, ob heißer Kaffee auf seine Beine verschüttet wurde", meint die wissenschaftliche Mitarbeiterin Dr. Sharon Gilead. „Die Idee ist, dass ein Pflaster auf seinem Bein ein Signal gibt - vielleicht ein rotes Licht -, das ihm sagt, wenn etwas nicht stimmt und ihn so vor einer schweren Verbrennung bewahrt."

"Dies wird nur der Anfang sein. In der Weiterführung dieses Projekts wollen wir die dünne Schicht (E-Skin) dazu bringen mit dem Nervensystem zu sprechen und das fehlende Gefühl zu ersetzen. Auch wenn dies noch ein wenig weit weg liegt, ist es definitiv die Richtung in die wir uns bewegen."

Das Team in Tel Aviv entwickelt eine Haut, die Gesundheitsinformationen erfassen und analysieren soll, ohne dass dazu eine externe Stromquelle gebraucht wird. Die Membran soll als Selbst-Versorger fungieren dank eines als Piezoelektrizität bekannten Phänomens. In bestimmten Materialien (dazu gehören Knochen, DNA und bestimmte Proteine) akkumuliert elektrische Ladung als Reaktion auf mechanische Verformung. Kurz gesagt: drückt man auf eine E-Skin aus piezoelektrischem Material, selbst wenn dies sehr sanft geschieht, so wird diese eine elektrische Ladung erzeugen. Schließt man einen Stromkreis an, kann dieser Strom verwendet werden - beispielsweise, um einen Herzschrittmacher mit Strom zu versorgen.

Bei einer gelähmten Person würde das heiße verschüttete Getränk eine Verformung der E-Haut erzeugen, die von dieser als mechanischer Druck gedeutet würde, und dies würde wiederum in ein elektrisches Signal umgewandelt werden. Dieses Signal kann dann das Warnlicht oder einen Warnton auslösen.

Ungiftig

Derzeit besteht die Herausforderung darin, piezoelektrische Materialien zu finden, die für den Körper untoxisch sind. „Die heute verwendeten piezoelektrischen Materialien enthalten Blei und rufen schädliche Auswirkungen auf den Körper hervor. Wir konzentrieren uns auf Biomoleküle und von der Biologie inspirierte Moleküle (d.h. synthetisch hergestellte Moleküle, welche die im Körper vorkommenden nachahmen), “sagt Gal Fink, Doktorand und PepZoSkin Forscher.

Wie wichtig es ist, piezoelektrische Materialien zu finden, die zu sicheren Produkten entwickelt werden können, erklärt der Projektleiter Professor Ehud Gazit. "Unsere derzeitige Arbeit an piezoelektrischen Peptid-basierten Materialien wird sehr bald zu bleifreien Produkten führen, die wie die jetzt erhältlichen giftigen, bleigefüllten Produkte funktionieren, natürlich mit dem Unterschied, dass unsere neuen Materialien weitaus besser sein werden, weil ihre Anwendung am menschlichen Körper und sogar als Implantate sicher sein wird."

Das Team um Prof. Gazit erwartet, dass mit Anfang des kommenden Jahres das Projekt in die nächste Phase übergeht. Bis dahin hoffen sie, ihr organisches Molekül ausgewählt und für die piezoelektrische Aktivität optimiert zu haben. Sodann planen sie, das Molekül zu funktionellen Nanobausteinen zu entwickeln. Sie glauben, dass diese mit der Zeit in großem Umfang in biologischen und medizinischen Anwendungen eingesetzt und als Energy Harvester und Biosensoren dienen werden, die wichtige Informationen direkt vom menschlichen Gewebe an den Benutzer oder an einen Dritten übermittelt werden.

Krankheit

Biosensing ist auch das Kernstück von A-Patch (Autonomous Patch for Real-Time Detection of Infectious Disease - https://cordis.europa.eu/project/id/824270), einem weiteren E-Skin-Projekt. Mit ihrem Team am Israel Institute of Technology (Technion) in Haifa hat die wissenschaftliche Projektleiterin Dr. Rotem Vishinkin einen Patch entwickelt, der auf einer „verrückten Idee“ basiert, die der Projektkoordinator Professor Hossam Haick, vor fast einem Jahrzehnt hatte: nämlich, dass man Infektionskrankheiten schnell und zuverlässig über die Haut erkennen könnte.

"Wir hatten bereits einen Weg gefunden, um mithilfe der Atemanalytik zwischen Krankheiten zu unterscheiden. So dachten wir, dass es auch möglich wäre, ein Pflaster auf der Haut zu verwenden, um den Körper auf bestimmte Zustände hin zu "riechen", erklärt sie.

Vishinkin war besonders daran interessiert, einen schnellen, nicht-invasiven Weg zu finden, um auf Tuberkulose (TB) zu testen - eine hoch ansteckende Krankheit, die insbesondere in Entwicklungsländern verbreitet ist. An TB erkranken jährlich 10 Millionen Menschen und 1,4 Millionen sterben daran. Eine Früherkennung ist wichtig, da nach erfolgter Diagnose die Übertragung eingedämmt werden kann, und Antibiotika am wirksamsten sind, wenn die Infektion frisch ist.

Normalerweise wird TB aus dem Sputum diagnostiziert, das ein Patient aushustet. Untersuchungen haben jedoch ergeben, dass viele Menschen nicht in der Lage sind, die Probe in einer, für ein genaues Ergebnis erforderlichern Qualität zu produzieren. Darüber hinaus kann es bis zu zwei Wochen dauern, bis ein Testergebnis geliefert wird, insbesondere in abgelegenen Gemeinden, wo Proben weite Distanzen überwinden müssen, um ein Labor zu erreichen - die Krankheit gewinnt so zusätzliche Tage oder sogar Wochen, um sich auszutoben.

A-Patch zielt darauf ab eine kostengünstige und effiziente Alternative zum Sputum-Test zu entwickeln. Das ultradünne, flexible Pflaster verwendet chemische Sensoren, um Veränderungen in (flüchtigen) organischen Verbindungen des Körpers zu detektieren, die ausgelöst werden, wenn sich das TB-Bakterium einnistet. Wie Dr. Vishinkin ausführt, werden die in Kürze veröffentlichten Forschungsergebnisse (die von der Bill and Melinda Gates Foundation finanziert werden), zeigen, dass das A-Patch - eine Stunde lang getragen - eine TB-Diagnose mit einer Genauigkeit von 90% liefert. Das Team hofft, die Tragedauer auf fünf Minuten zu reduzieren, wobei das Pflaster auf den Arm aufgebracht wird.

Ein Einweg-A-Patch wird ein bis zwei US-Dollar kosten und keine andere Laborausrüstung benötigen als ein elektronisches Lesegerät, mit dem ein Arzt das Patch aktivieren und die Ergebnisse interpretieren kann. Um das Produkt auf den Markt zu bringen erhält das Technion-Team Unterstützung von einem auf diagnostische Kits spezialisierten Industriepartner. Dr. Vishinkin ist zuversichtlich dass innerhalb der nächsten Jahren ein brauchbarer Test eingeführt wird.

"Wir schätzen, dass der vorhandene Markt für diese Kits 71 Millionen Tests pro Jahr beträgt", sagt sie. "Und da ein Pflaster zu Hause verwendet werden kann, braucht man keine, mit dem Gang eine TB-Klinik zur Testung, verbundene Stigmatisierung befürchten  Dies bedeutet, dass die Menschen eher bereit sein werden, diesen Schritt zu machen.“

Die genaue Vorgangsweise in der Übertragung von Patch-Ergebnissen vom Patch zum Lesegerät wird noch ausgearbeitet. "Wir haben Partner in den Bereichen elektronische Schaltungen, Sensoren und Datenanalytik, die uns bei den einzelnen Gesichtspunkten des Projekts helfen", sagte Dr. Vishinkin.

Im Laufe der Zeit rechnet Dr. Vishinkin damit ein Pflaster für längerfristige Anwendungen zu entwickeln, beispielsweise um die Wirksamkeit eines TB-Behandlungsprotokolls über mehrere Wochen hinweg zu überwachen. Allerdings besteht eine hohe Wahrscheinlichkeit, dass ein Patch bei längerer Verwendung eingerissen oder beschädigt wird, wodurch er unwirksam wird. Um dieses Risiko zu vermindern, haben die Wissenschaftler einen Mechanismus zur Selbstreparatur von Pflastern entwickelt, der es der Matrix der Peptidbindungen in einer Membran ermöglicht, nach Erkennung von Schäden neue Netzwerke zu bilden und die Integrität der E-Haut wiederherzustellen.

"Jeder Tag bringt uns unserem Ziel näher, ein schnelles, zuverlässiges und einfaches Diagnosewerkzeug für TB zu entwickeln", sagte Dr. Vishinkin. "Und wir werden hier nicht aufhören. Was wir schaffen, ist eine Plattform zur Erkennung von Krankheiten, nicht nur ein Kit für eine bestimmte Krankheit.

Wir könnten als nächstes leicht zu Covid-19 wechseln. “


Dieser Artikel wurde ursprünglich am 28. Oktober 2020 von Vittoria D'Alessio in Horizon, the EU Research and Innovation Magazine  unter dem Titel "Electronic skin patches could restore lost sensation and detect disease "publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und Beschriftung wurden von der Redaktion eingefügt.


Artikel zu verwandten Themen im ScienceBlog:

Inge Schuster, 12.12.2019:Transhumanismus - der Mensch steuert selbst seine Evolution

Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Georg Martius, 09.08.2017:Roboter mit eigenem Tatendrang

Inge Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick.

Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.


 

inge Thu, 29.10.2020 - 01:27

Schützende Antikörper bleiben nach überstandener SARS-CoV-2-Infektion monatelang bestehen

Schützende Antikörper bleiben nach überstandener SARS-CoV-2-Infektion monatelang bestehen

Do, 22.10.2020 — Francis S. Collins

Francis S. CollinsIcon Medizin Die USA sind ein Hotspot für SARS-CoV-2 verursachte Infektionen: über 8,2 Millionen Menschen wurden dort bis jetzt positiv auf das Virus getestet, über 221 000 sind an/mit der Erkrankung COVID-19 gestorben. Häufig wird die Frage gestellt, ob bei Personen, die sich von der Krankheit wieder erholt haben, die einmal erfolgte Abwehr von SARS-CoV-2 dazu geführt hat, dass das Immunsystem sie nun vor einer erneuten Infektion schützt. Und, sollte dies der Fall sein, wie lange diese „erworbene Immunität“ anhalten wird. Zwei neue Studien geben darauf eine positive Antwort. Francis S. Collins berichtet über diese Ergebnisse. Collins, ehem. Leiter des "Human Genome Project" ist langjähriger Direktor der US-National Institutes of Health (NIH), die in Zusammenarbeit mit der Biotech-Firma Moderna (Cambridge, MA) in Rekordzeit einen spezifischen Impfstoff gegen das Coronavirus entwickelt haben, dessen klinische Testung in Phase 3 in den nächsten Monaten zu Ende gehen wird.*

Schützt eine einmal überstandene SARS-CoV-2-Infektion vor einer Neuinfektion?

Frühe, bereits Ende April publizierte Befunde haben Anlass zur Hoffnung gegeben, dass eine gegen das Virus erworbene Immunität möglich wäre. Allerdings gab es dann einige nachfolgende Studien, die darauf hindeuteten, dass der Immunschutz nur von kurzer Dauer sein könnte. Zwei kürzlich in der Fachzeitschrift Science Immunology veröffentlichte neue Studien stützen die frühen Befunde und bieten - auch wenn weitergehende Untersuchungen erforderlich sind - einen besseren Einblick in die Art der menschlichen Immunantwort auf dieses Coronavirus [1,2].

Wie die neuen Ergebnisse zeigen, produzieren Menschen, die eine COVID-19-Infektion überstehen, noch mindestens drei bis vier Monate nach dem Auftreten der ersten Symptome schützende Typen von Antikörpern gegen wesentliche Bausteine des Virus. Einige andere Antikörpertypen nehmen dagegen schneller ab. Die Ergebnisse lassen hoffen, dass mit dem Virus infizierte Menschen einen anhaltenden Antikörperschutz gegen eine erneute Infektion haben werden, wobei noch zu bestimmen ist, wie lange dieser Schutz andauert. 

Abbildung 1. Künstlerische Darstellung eines SARS-CoV-2 Virus (orange), der an seiner Oberfläche mit Antikörper bedeckt ist (weiß), die von einer B-Immunzelle (grau, am unteren linken Rand) produziert werden. Credit: iStock/selvanegra

Entwicklung von Antikörpertypen nach Infektion mit SARS-CoV-2

Eine der beiden, teilweise von den NIH finanzierten Studien fand unter der Leitung von Richelle Charles vom Massachusetts General Hospital in Boston statt. Die Forscher versuchten hier besser zu verstehen, wie eine Antikörperantwort auf die Infektion mit SARS-CoV-2 erfolgt. Dazu rekrutierten sie 343 Patienten, von denen die meisten schwer an COVID-19 erkrankt waren und einer stationären Krankenhausbehandlung bedurften. In den Blutproben dieser Patienten untersuchten sie dann die Antikörperantwort, die diese bis zu 122 Tage nach Auftreten der Symptome entwickelten und verglichen sie mit Antikörpern in mehr als 1.500 Blutproben, die vor Beginn der Pandemie gesammelt worden waren.

In den Blutproben beschrieben die Forscher die Entstehung von drei Typen von Antikörpern gegen die Domäne des viralen Spikeproteins, mit dem dieses an den Rezeptor der Wirtszelle (ACE2-Rezeptor) andockt. Der erste Antikörper-Typ war ein Immunglobulin G (IgG), welches das Potenzial hat, eine anhaltende Immunität zu verleihen. Der zweite Typ war Immunglobulin A (IgA), das vor Infektionen auf den Schleimhautoberflächen des Körpers schützt, wie sie in den Atemwegen und im Magen-Darm-Trakt zu finden sind, und das in hohen Mengen in Tränen, Schleim und anderen Körpersekreten enthalten ist. Der dritte Typ war ein Immunglobulin M (IgM), das der Körper als erstes produziert, wenn er eine Infektion bekämpft.

Alle drei Antikörper-Typen konnten etwa 12 Tage nach der Infektion nachgewiesen werden. Die IgA- und IgM-Antikörper gegen das Spike-Protein waren allerdings kurzlebig und innerhalb von etwa zwei Monaten verschwunden.

Die gute Nachricht: bei denselben Patienten hielten die länger andauernden IgG-Antikörper bis zu vier Monate an, also solange die Forscher diese verfolgen konnten. Die Spiegel dieser IgG-Antikörper dienten im Labor auch als Indikator für das Vorhandensein von schützenden Antikörpern, die SARS-CoV-2 neutralisieren können. Die noch bessere Nachricht: die neutralisierende Wirkung nahm während 75 Tagen nach Auftreten der Symptome nicht ab. Wenn hier auch längerdauernde Studien erforderlich sind, so stützen die Ergebnisse den Nachweis, dass schützende Antikörperantworten gegen das neue Virus bestehen bleiben.

Die zweite Studie kam zu sehr ähnlichen Ergebnissen. Das Team unter der Leitung von Jennifer Gommerman und Anne-Claude Gingras, Universität von Toronto, Kanada, beschrieb die gleichen drei Arten von Antikörperantworten gegen das SARS-CoV-2-Spike-Protein. Die Antikörper-Profile waren aus Blut- und Speichelproben von 439 Personen erhalten worden, die 3 bis 115 Tage zuvor COVID-19-Symptome entwickelt hatten; allerdings mussten nicht alle stationär im Krankenhaus behandelt werden. Das Team verglich dann die Antikörperprofile der COVID-19-Patienten mit denen von Personen, die COVID-19-negativ waren.

Die Forscher fanden heraus, dass die Antikörper gegen SARS-CoV-2 in Blut und Speichel leicht nachgewiesen werden konnten. Die IgG-Spiegel erreichten etwa zwei Wochen bis einen Monat nach der Infektion einen Höchstwert und blieben dann länger als drei Monate stabil. Ähnlich wie beim Bostoner Team sanken auch bei der kanadischen Gruppe die IgA- und IgM-Antikörperspiegel rapide.

Ausbreitung von SARS-CoV-2 durch Antikörpertests verfolgt

Die Ergebnisse legen nahe, dass Antikörpertests als wichtiges Instrument zur Verfolgung der Ausbreitung von SARS-CoV-2 in unseren Gesellschaften dienen können. Im Gegensatz zu Tests auf das Virus selbst bieten Antikörpertests ein Mittel zum Nachweis von Infektionen, die irgendwann in der Vergangenheit aufgetreten sind, einschließlich solcher, die möglicherweise asymptomatisch verliefen.

Die Ergebnisse des kanadischen Teams legen ferner nahe, dass Tests von IgG-Antikörpern im Speichel ein bequemer Weg sein können, um die erworbene Immunität einer Person gegen COVID-19 zu verfolgen.

Da IgA- und IgM-Antikörper schneller abnehmen, könnte ein Testen auf diese unterschiedlichen Antikörpertypen auch dazu beitragen, um zwischen einer Infektion innerhalb der letzten zwei Monate und einer, die sich noch früher ereignete, zu unterscheiden. Solche Details sind wichtig, um Lücken in unserem Verständnis von COVID-19-Infektionen zu füllen und deren Ausbreitung in unseren Gesellschaften zu verfolgen.

Dennoch, es gibt einige wenige Berichte von Personen, die den Kampf mit COVID-19 überstanden haben und einige Wochen später mit einem anderen SARS-CoV-2-Stamm infiziert wurden [3]. Die Seltenheit solcher Berichte legt jedoch nahe, dass die nach einer SARS-CoV-2-Infektion erworbene Immunität im Allgemeinen schützend ist.

Es bleiben noch viele Fragen offen; um diese zu beantworten müssen ausgedehntere Studien mit einer größeren Diversität an Personen, die COVID-19 überstanden haben, durchgeführt werden. Es freut mich daher, dass das National Cancer Institute (NCI) der NIH kürzlich das NCI Serological Sciences Network für COVID19 (SeroNet) ins Leben gerufen hat, das nun das größte koordinierte Vorgehen des Landes zur Charakterisierung der Immunantwort auf COVID-19 darstellt [4].


[1] Persistence and decay of human antibody responses to the receptor binding domain of SARS-CoV-2 spike protein in COVID-19 patients. Iyer AS, Jones FK, Nodoushani A, Ryan ET, Harris JB, Charles RC, et al. Sci Immunol. 2020 Oct 8;5(52):eabe0367.

[2] Persistence of serum and saliva antibody responses to SARS-CoV-2 spike antigens in COVID-19 patients. Isho B, Abe KT, Zuo M, Durocher Y, McGeer AJ, Gommerman JL, Gingras AC, et al. Sci Immunol. 2020 Oct 8;5(52):eabe5511.

[3] What reinfections mean for COVID-19 . Iwasaki A. Lancet Infect Dis, 2020 October 12. [Epub ahead of print]

[4] NIH to launch the Serological Sciences Network for COVID-19, announce grant and contract awardees. National Institutes of Health. 2020 October 8.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 20. Oktober 2020) im NIH Director’s Blog unter dem Titel: "Two Studies Show COVID-19 Antibodies Persist for Months" https://directorsblog.nih.gov/2020/10/20/two-studies-show-covid-19-antibodies-persist-for-months/. Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

NIH: Coronavirus (COVID-19) https://www.nih.gov/coronavirus

National Cancer Institute/NIH: NCI Serological Sciences Network for COVID-19 (SeroNet) https://www.cancer.gov/research/key-initiatives/covid-19/coronavirus-research-initiatives/serological-sciences-network

Artikel von Francis S. Collins zu COVID-19 im ScienceBlog:


 

inge Wed, 21.10.2020 - 23:28

Wie lange bleibt SARS-CoV-2 auf Oberflächen infektiös?

Wie lange bleibt SARS-CoV-2 auf Oberflächen infektiös?

Fr 16.10.2020 Inge Schuster Inge SchusterIcon Medizin

Wenn auch die überwiegende Zahl der SARS-CoV-2 Infektionen über Atemtröpfchen erfolgen dürfte, ist bei den nun wieder stark steigenden Infektionszahlen eine Ansteckung über kontaminierte Oberflächen durchaus denkbar. Eine neue Studie australischer Forscher zeigt  die überraschend hohe Stabilität von SARS-CoV-2 Viren auf Oberflächen und Gegenständen des täglichen Gebrauchs. Häufiges Reinigen von Oberflächen, Mund-Nasenschutz, Händewaschen und Abliegenlassen von potentiell kontaminiertem Material erweisen sich als effiziente Mittel eine Infektion mit dem Virus zu verhindern.

Die derzeit gängige Ansicht zur Ausbreitung von SARS-CoV-2 geht davon aus, dass die Infektion überwiegend über Atemtröpfchen erfolgt, die von infizierten Personen beim Husten, Niesen, Sprechen oder auch Singen ausgestoßen werden und von anderen, in der Nähe befindlichen Personen in Nase, Mund, Atemtrakt, Lunge eingeatmet werden. Während große Tröpfchen schnell auf den Boden sinken, können kleine Tröpfchen sich als Aerosole verflüchtigen und eine beträchtliche Zeit in der Luft verbleiben, wobei die Infektiosität des darin eingeschlossenen Virus über Stunden erhalten bleibt.

Infektion über kontaminierte Oberflächen?

Virenhaltige Sekrete können aber auch auf sogenannten Fomiten, das sind unbelebte Oberflächen und Gegenstände, landen. Berührt man solche kontaminierte Stellen mit den Händen, so können diese Viren auf Augen und Schleimhäute von Nase und Mund übertragen. Die Möglichkeit einer Schmierinfektion über kontaminierte Gegenstände und Oberflächen wurde auch von der WHO explizit angeführt. Ausschlaggebend dafür, dass es zu einer Infektion kommen kann, ist vor allem die Konzentration des Virus und wie lange es auf welchen Oberflächen infektiös bleibt.

Bisherige Untersuchungen haben gezeigt, dass die meisten den Atmungstrakt infizierenden Viren, wie Influenza-, Corona- und Rhinoviren, auf unbelebten Oberflächen auch noch nach mehreren Tagen nachgewiesen werden können [1].

Zur Stabilität von SARS-CoV-2 auf einzelnen Oberflächen gibt es widersprüchliche Angaben. Dabei muss man berücksichtigen, dass viele der diesen Aussagen zugrunde liegenden Versuchsansätze wenig Relevanz für realistische Situationen haben dürften: diese sind ja abhängig von der Zahl der Viren, die in einem schleimhaltigen Medium ausgehustet, ausgeniest, ausgespuckt werden, von der Beleuchtung (Anteile von UV-Licht inaktivieren Viren), Temperatur, Luftfeuchtigkeit und einem eventuellem Austrocknen des Inokulums auf den Oberflächen. Die längste Nachweisbarkeit von infektiösem SARS-CoV-2 wurde mit einem anfänglich sehr großen Inokulum (10 Millionen Viren auf der zu testenden kleinen Oberfläche) erzielt.

Wie riskant ist es also durch Anfassen von kontaminierten Oberflächen an Schmierinfektionen zu erkranken?

Ein Ansatz, um reale Gegebenheiten besser nachzuahmen

Eine australische Forschergruppe der Commonwealth Scientific and Industrial Research Organization (CSIRO) hat nun vor wenigen Tagen eine Studie veröffentlicht, in der sie die Überlebensrate infektiöser SARS-CoV-2-Viren auf einer Reihe von im Alltag gebräuchlichen Oberflächen - Edelstahl, Plastik, Glas, Papier und Baumwollstoff - unter möglichst realistischen Bedingungen bestimmte [2].

Um Sekrete des Nasen-/Rachenraums nachzuahmen wurde das Virus in einer Albumin und Mucin (Schleimsubstanz) enthaltenden Lösung suspendiert und auf die einzelnen zu untersuchenden Oberflächen in einer Dosis aufgetragen, die ein stark infektiöser Patient beim Husten abgeben würde (350 000 Partikel in 10 Mikroliter).

Um vor etwaigen UV-bedingten Inaktivierungen des Virus zu schützen, wurden die kontaminierten Oberflächen dann im Dunkeln, in einer Klimakammer bei Raumtemperatur (20oC), bei 30oC und 40oC und 50 % Luftfeuchtigkeit bis zu 28 Tage lang inkubiert. Nach bestimmten Zeitintervallen wurde die auf einzelnen Oberflächen verbliebene Infektiosität mit Hilfe von infizierbaren Zellkulturen bestimmt. Als Modell dienten dabei Vero E6-Zellen, eine etablierte Zelllinie aus Nierenzellen von grünen Meerkatzen, die von vielen Viren infizierbar ist. Abbildung 1.

Abbildung 1. Eine Vero E6- Zelle (blau), die massiv mit SARS-CoV-2 (braun) infiziert ist. Kolorierte Aufnahme mit Rasterelektronenmikroskop. (Quelle: NIAID - https://www.flickr.com/photos/niaid/49680384436/ ; cc-by-2.0 Lizenz)

SARS-CoV-2 ist auf kontaminierten Oberflächen robuster als angenommen

Generell erwies sich das Virus bei Raumtemperatur (20oC) stabiler als bei höheren Temperaturen (30oC und 40oC) und auf glatten Oberflächen stabiler als auf porösen Oberflächen wie beispielsweise Baumwollstoff. (Eigentlich hätte man höhere Stabilität auf raueren Oberflächen angenommen.)

Bei Raumtemperatur (20oC) wurde auf Edelstahl, Glas und auf Banknoten (aus glattem Papier und auch aus Kunststoff) infektiöses Virus auch noch nach 28 Tagen festgestellt (im Vergleich dazu konnte man infektiöses Influenza A Virus nur 17 Tage lang finden). Besonders beeindruckend erscheint die Stabilität von SARS-CoV-2 auf Banknoten. Auf porösem, rauem Untergrund wie Baumollstoff erfolgte die Inaktivierung dagegen wesentlich rascher. Auf allen Oberflächen war bei 20oC eine zehnfache Reduktion des aktiven Virus in einem Zeitraum von 5,6 bis 9,1 Tagen festzustellen.

Mit zunehmender Temperatur sank die Stabilität des Virus; bei 40oC überlebte es auf einigen Oberflächen nicht einmal 24 h. Abbildung 2 fasst die Überlebenszeit von SARS-CoV-2 auf einigen der getesteten Oberflächen zusammen.