Wiener Zeitung Homepage Amtsblatt Homepage LinkMap Homepage Wahlen-Portal der Wiener Zeitung Sport-Portal der Wiener Zeitung Spiele-Portal der Wiener Zeitung Dossier-Portal der Wiener Zeitung Abo-Portal der Wiener Zeitung Suche Mail senden AGB, Kontakt und Impressum Benutzer-Hilfe
 Politik  Kultur  Wirtschaft  Computer  Wissen  extra  Panorama  Wien  Meinung  English  MyAbo 
 Lexikon   Glossen    Bücher    Musik 

Artikel aus dem EXTRA LexikonDrucken...

Themen, die die Wissenschaft in Zukunft beschäftigen werden

Kann Forschung objektiv sein?

Von Peter Markl

Sir Peter Medawar, Nobelpreisträger für Medizin und einer der großen Wissenschafts-Essayisten, hat 1963 für die Hauszeitung der BBC, den "Listener", einen Essay geschrieben, der den provokanten Titel trug: "Sind wissenschaftliche Veröffentlichungen Betrugsversuche?" Sir Peter, Freund und Bewunderer von Sir Karl Popper, war davon irritiert, wie damals fast alle wissenschaftlichen Arbeiten geschrieben wurden: Man begann mit einem experimentellen Teil, in dem man die angewandten Methoden und die erzielten Versuchsresultate beschrieb, und krönte das Ganze mit einer Vermutung, zu der man, ausgehend von den empirischen Daten, auf "induktivem" Weg gekommen sein wollte.

Diese Methode hinterließ allerdings einen schalen Nachgeschmack, war es doch schon seit langem bekannt, dass alle guten wissenschaftlichen Arbeiten mit Problemen beginnen, zu deren Lösung Hypothesen vorgeschlagen werden. Wichtig ist nicht, wie man zu diesen Hypothesen kommt, sondern wie streng man sie prüft. Wenn es darum geht, wie man zu diesen Hypothesen kommt, ist schlechthin alles erlaubt - es gibt da weder Vorschriften noch Rezepte: Intensive Beschäftigung mit einem Problem und Kenntnis der Problemsituation sind ebenso unerlässlich wie kritische Phantasie. Gelegentlich hilft es auch, ein Problem gründlich zu überschlafen.

Scheinbare Objektivität

Für die Autoren hatte damals die "induktive" Einkleidung ihrer Funde den unleugbaren Vorteil, dass sie hinter "Fakten" in Deckung gehen konnten: Was sie da vorschlugen, waren nicht bloß mehr oder minder streng geprüfte persönliche Vermutungen, sondern aus harten Fakten mit einer über jeden Zweifel erhabenen Methode abgeleitete "objektive" Erkenntnisse.

Heute ist diese Art, wissenschaftliche Arbeiten zu schreiben, vor allem in den Biowissenschaften fast ganz verschwunden. Der Grund dafür ist die heute dominierende Art der Finanzierung von Forschung: Wer einen Antrag auf Forschungsförderung stellt, muss dazu notgedrungenerweise von seiner Problemsicht ausgehen und die Vermutung präsentieren, welche das Problem lösen könnte - Daten, an denen seine Theorie kritisch geprüft werden könnte, werden ja erst verfügbar, nachdem ihre Produktion finanziert worden ist.

Trotzdem hat ein fernes Nachleuchten dieses Anscheins von "Objektivität", über Wissenschaft zu berichten, bis heute überlebt. Nur zu oft schreiben Wissenschaftsjournalisten in einer unpersönlichen Art, welche zu dem Missverständnis einlädt, dass alles, was da angeführt wird, "wissenschaftlich und daher objektiv" ist, obwohl das Gebotene eine schwer zu entflechtende Mischung aus einem neutralen Bericht über den wissenschaftlichen Konsens der Experten mit gelegentlich ziemlich absonderlichen Vermutungen ist. Was dabei zu kurz kommt, sind Berichte aus den Wachstumszonen der Wissenschaft, in denen jene ernst zu nehmenden Theorien zu Hause sind, über die Kenner noch zu keinem Konsens gekommen sind.

Es ist natürlich eine subjektive Entscheidung, welches Thema für einen Artikel ausgewählt wird; zudem ist der Konsens der Experten oft nur schwer herauszufinden oder zu vage, um ihn klar von darüber hinausgehenden Vermutungen von geringerem Gewicht unterscheiden zu können. Subjektive Werturteile sind notwendigerweise unvermeidlich.

Es wäre daher wahrscheinlich weniger irreführend, wenn sich zumindest alle Wissenschaftsjournalisten darauf einigen könnten, in ihren Artikeln der Klarlegung der Problemsituation und dem zur Zeit herrschenden Konsens der Experten genügend Platz einzuräumen.

Das gilt natürlich auch für die Wissenschaftskolumnen, die seit dem Herbst 1970 in der "Wiener Zeitung" erschienen und seit 20 Jahren in der Freitagsbeilage "EXTRA" ein Heim gefunden haben. Nunmehr also 20 Jahre Wissenschaftsseite im "EXTRA", vierzehntägig geliefert, das sind in Summe etwa 500 Seiten, gefüllt mit dem, was mir an den Naturwissenschaften, ihrem Umfeld und ihren Auswirkungen wichtig erschien. Die Auswahl der Themen war immer ziemlich unverhohlen subjektiv. Noch subjektiver erscheint aber der Versuch, sich darüber klar zu werden, welche neue Wissenschaften die Welt künftig prägen werden. Ich persönlich vermute allerdings, dass das bereits ziemlich klar ist.

Es sind zwei irreversible Errungenschaften, die beide mit der Genese und Weitergabe von Information zu tun haben: die vollständige Aufklärung der Aufeinanderfolge der etwa 3,2 Milliarden Basenpaare des menschlichen Genoms und die Etablierung des Internet. Beide haben bereits begonnen, unser Leben derart zu verändern, dass es keine Übertreibung ist zu behaupten: die Welt wird nie mehr so sein, wie sie vorher war.

Leider aber steht auch zu vermuten, dass es - eng verschränkt mit den beiden Entwicklungen - einen (hoffentlich wenigstens zum Teil reversiblen) Prozess gibt, der sich in den letzten 20 Jahren zu einer ernsthaften Bedrohung der Objektivität der Forschung und damit ihrer gesellschaftlichen Legitimierung ausgewachsen hat, wofür die Vorgänge in der biomedizinischen Forschung beängstigende Indizien liefert.

Die Objektivität der Forschung - so hat es Karl Popper einmal gesagt - besteht nicht in der Unvoreingenommenheit und moralischen Integrität der einzelnen Forscher - wäre es so, dann gäbe es hier so wenig Anlass zu Optimismus wie in anderen Berufen.

Alles, was es an Objektivität in der Wissenschaft gibt, ist das Resultat der wechselseitigen, institutionell abgesicherten Kritik an öffentlich verfügbar gemachten Forschungsresultaten, welche - zumindest auf längere Frist - die Interessen und Voreingenommenheiten verschiedenster Herkunft offenlegen und aus dem vorläufigen Konsens eliminieren kann. Was sich in den letzten 20 Jahren zu einem für die Wissenschaft lebensbedrohenden Problem ausgewachsen hat, ist eine fortschreitende Korrosion aller jener wissenschaftlichen Institutionen, welche diese Kritik erzwingen sollen.

Interessen von Kapitaleignern

Eine wesentliche - beileibe nicht die einzige - Rolle spielen dabei die kurzfristigen Interessen von Kapitaleignern, die ihr Geld unabhängig von jeder sozialen Bindung sehen und möglichst schnell vermehren wollen. Die Ergebnisse wissenschaftlicher Arbeiten müssen veröffentlicht werden, um kritisch diskutiert werden zu können - manche patentrechtliche Regelungen machen das jedoch sehr schwierig. Immer wieder gab es Versuche, die Veröffentlichung negativer Ergebnisse der klinischen Prüfung eines Medikaments zu verhindern oder hinauszuzögern, wozu sich die Erzeugerfirmen durch die Tatsache berechtigt fühlten, dass sie die klinischen Versuche mitfinanziert hatten.

Große Verlage haben die mit der Veröffentlichung wissenschaftlicher Zeitschriften erzielten Gewinne dadurch zu steigern versucht, dass sie ihre Preise Jahr für Jahr exorbitant erhöhten. Erst in letzter Zeit haben sich große Wissenschaftsorganisationen wie das NIH oder die Royal Society in England dazu entschlossen, konzentriert dagegen vorzugehen. Vor allem in der biomedizinischen Forschung der USA, aber eben nicht nur dort, ist die Verflechtung zwischen wissenschaftlichen und ökonomischen Interessen so eng geworden, dass die Autoren wissenschaftlicher Veröffentlichungen gezwungen werden, ihre finanziellen Interessen offen zu legen. Autoren wie Richard Horton, der Herausgeber des "Lancet", oder Marcia Angell, die Herausgeberin des "New England Journal of Medicine" war, treffen sich in ihrer Kritik mit Papst Johannes Paul II., der am 25. März 2002 in einem Brief an den apostolischen Nuntius in Polen den "dominierenden Einfluss finanzieller Interessen" in der biomedizinischen und pharmazeutischen Industrie verdammte.

Wie stark sich diese Fehlentwicklungen auf die Wissenschaft und ihre Glaubwürdigkeit auswirken werden, wird davon abhängen, ob man diesen Problemkomplex auch institutionell wieder in den Griff bekommt.

Das Humangenom-Projekt war das erste Großprojekt der biologischen Grundlagenforschung. James Watson und Francis Crick äußerten in der zweiten der veröffentlichten 1.953 Arbeiten über die DNA-Struktur die Vermutung, dass die genetische Information in der Aufeinanderfolge der vier verschiedenen Basen der DNA-Riesenmoleküle verschlüsselt sein könnte. Die folgenden Jahrzehnte zeitigten immer weitere Forschritte in den Methoden zur Bestimmung dieser Basensequenzen. Mitte der Achtzigerjahre war man dann mit den neu entwickelten Verfahren bei der Analyse kleiner Genome so weit gekommen, dass die Tagträume einiger Genetiker nicht mehr völlig unrealisierbar schienen.

1985 hat man auf einer Internationalen Konferenz in Santa Cruz erstmals ernsthaft erwogen, alle drei Milliarden Basenpaare des menschlichen Genoms zu sequenzieren. Das Projekt war - vorsichtig gesagt - anfänglich äußerst umstritten. Man wusste damals ja schon, dass nur 5 bis 10 Prozent der Basenpaare die Informationen zum Bau von Proteinen oder Molekülen, welche diese Synthesen steuern, enthalten. Der Rest ist nicht codierende DNA, für die sich manche Genetiker damals keine Funktion vorstellen konnten, so dass sie in diesen Sequenzen einfach nur "Junk DNA" sahen. Heute ist man sich diesbezüglich nicht mehr so sicher. Damals aber befürchteten viele Kritiker, dass man viel Zeit und viel Geld damit vernichten würde, um große Wüstenregionen funktionslosen DNA-Abfalls zu sequenzieren.

1990 startete das internationale Human-Genomprojekt, an dem sich Forscher aus mehr als dreißig Ländern beteiligten. Noch 1993 war man der Ansicht, dass man frühestens im Jahr 2015 mit der gigantischen Aufgabe fertig sein könnte. Was dann einsetzte, war eine fast unglaubliche Verbesserung der Analysenverfahren und Datenverarbeitungsprogramme, die ergänzt, perfektioniert, mechanisiert und automatisiert wurden - was das Projekt so sehr beschleunigte, dass das Humangenom-Konsortium am 15. Februar 2001 verkünden konnte: Fast 90 Prozent des Genoms sind sequenziert worden! Am 14. April 2003 - 13 Jahre früher, als man 1993 vermutet hatte - war es dann so weit: 99 Prozent des menschlichen Genoms waren mit einer Genauigkeit von 99,99 Prozent sequenziert.

In allen diesen Jahren herrschte bei manchen Genetikern eine wahre "Genomanie" vor, die zu Aussagen über die Tragweite der neuen Resultate führte, an die sich manche heute nur mehr ungern erinnern. DNA-Moleküle sind schließlich nur Moleküle und nicht etwa Lebewesen: Die Behauptung, dass die Kenntnis der Basensequenz des Genoms eines Organismus diesen so durchsichtig machen würde "wie Glas", war naiv.

Zukünftige Probleme

Was ist jetzt zu tun? Es geht um die Klärung der Funktion der einzelnen Gene und ihrer Wechselwirkungen, die Identifikation der Proteine, deren Bauanleitung die Gene enthalten, und um das Netz von Wechselwirkungen, die es möglich machen, das Abrufen der genetischen Information so zu steuern, dass bestimmte Gene zu einer bestimmten Zeit an bestimmten Orten an- oder abgeschaltet werden. Diese Probleme werden die Forscher in allen biologischen Wissenschaften und der Medizin viele Jahrzehnte lang beschäftigen und zu Ergebnissen führen, welche die Welt irreversibel ändern werden. Dieser Prozess ist bereits angelaufen.

Das gilt noch mehr für die Etablierung des Internet, das nach Jahrzehnten relativ langsamer Entwicklung in letzten 20 Jahren weltweit etabliert wurde. Zum ersten Mal in der Evolutionsgeschichte der Menschheit spannt sich ein weltweites Netz zum Austausch von Informationen über die ganze Erde. Die Evolution der menschlichen Sprache war das letzte epochale Ereignis, zu dem Veränderungen im Genom wesentlich beigetragen haben. Zwei Innovationen haben später die Übertragung von Information ermöglicht: 1. die Erfindung der Schrift, 2. die elektronische Speicherung und Übertragung von Information.

John Maynard Smith und Eörs Szathmary schreiben in ihrem außerordentlichen Buch über die großen Übergänge in der Evolution des Lebens: "Wir glauben, dass die Auswirkungen (dieser Technologien) so tiefgreifend sein werden wie die Evolution des genetischen Codes oder der Sprache. Wir wagen da keine Vorhersagen."

Peter Markl ist Professor für Analytische Chemie an der Universität Wien und schreibt in der "Wiener Zeitung" seit 1970 und im "EXTRA" seit 1984 hauptsächlich über naturwissenschaftliche Themen.

Freitag, 15. Oktober 2004

Aktuell

erlesen: Zwei verwandte Meister der kleinen Form
Kronauer, Brigitte: Sprache, Klang und Blick
Zum Werk der Georg-Büchner-Preisträgerin Brigitte Kronauer
Mann, Erika: Des Dichters Liebling
Zum 100. Geburtstag von Thomas Manns ältester Tochter Erika

1 2 3

Lexikon


W

Wiener Zeitung - 1040 Wien · Wiedner Gürtel 10 · Tel. 01/206 99 0 · Impressum