Freitag, 17. Dezember 2010

Bücher als "kulturelles Genom der (Wissens)Gesellschaft

In science.orf.at wird von einem Forschungsprojekt berichtet, das zum Ziel hat in einer riesigen Menge von digitalisierten Bücher sogenannte "Culturomics" zu betreiben. Also nach Phrasen, Wörtern etc. zu suchen und deren Entwicklung über die Zeit zu betrachten.

Nach der Lektüre des Artikels muss ich aber zugeben, dass mich eigentlich nur der Titel Bücher als "kulturelles Genom" inspiriert hat. Das halte ich für eine sehr schöne Idee. Besonders wenn man (im wissenschaftlichen) Bereich bedenkt, dass jedes neue Buch ja nur einen (oft sehr) kleinen Teil an wirklich neuer Erkenntnis darlegt. Wenn überhaupt. Der überwiegende Text eines Buches bezieht sich ja in der Regel auf andere Bücher, Gedanken und Aussagen anderer Autoren. Dies ist gar nicht negativ gemeint: Fortschritt bedeutet ja gerade auch die kritische Auseinandersetzung mit bestehendem Wissen. Dieses wird, bildlich gesprochen, in die publizistische Mangel genommen und von verschiedensten Seiten beleuchtet.

In gewisser Weise, und hier komme ich wieder zum Titel des ORF-Artikels zurück, ist ein neues Buch so etwas die das Kind einer Vielzahl älterer Bücher mit einer geringen Menge an neuem. Wenn man das biologistisch formulieren möchte: das neue Buch enthält quasi die Gene (oder besser "Meme") der alten mit einer Handvoll an Mutationen. 

Ist man bereit dieser Logik zu folgen, so müsste es auch möglich sein, diese "Erbfolge" zu analysieren – wenn auch nicht mit so trivialen Mitteln wie der Volltextsuche nach Phrasen. Würde das gelingen, so könnten wir einen Stammbaum der Ideen aufstellen, könnten zeigen wie Konzepte durch die Zeit und "durch" die Autoren wandern, verschwinden, wieder auftauchen. Wir könnten Plagiate erkennen und intellektuelle Spinnereien (z.B. viele der postmodernen Ideen), Bücher also die nur in einer kleinen Gruppe von Autoren "Inzucht" betreiben und sonst kennen nennenswerten Einfluss auf den Rest der (intellektuellen) Welt haben. Und auch, wann und wo wirkliche Innovation geschieht.

Zugegeben, es ist eher unwahrscheinlich, dass ein Algorithmus in der Lage wäre eine solche Analyse vorzunehmen. Schade. Aber das war das Bild das mir durch den Kopf gegangen ist, nachdem ich den Titel gelesen habe. 

Donnerstag, 30. September 2010

Personalisierte Medizin, oder: welchen Wert hat ein Lebensjahr?

Im aktuellen Science Friday wird eine neue Studie vorgestellt, in der personalisierte Medizin thematisiert wird. Konkret geht es um folgende Frage: Stand der Wissenschaft in der Bewertung der Wirksamkeit von Medikamente sind Doppelblindstudien. Diese werden an Gruppen von Patienten durchgeführt, wobei eine Gruppe ein Placebo oder vergleichbares (älteres) Medikament erhält, eine andere Gruppe den vermeintlich besseren, neuen Wirkstoff. Um die Studie nicht durch andere Faktoren zu verfälschen, dürfen weder Arzt noch Patienten  wissen wer welcher Gruppe zugeteilt ist. Ist das neue Medikament entscheidend besser als das alte wird es zumeist zugelassen und kann von Ärzten verschrieben werden.


Es wird allerdings immer klarer, dass es bei verschiedenen Klassen von Wirkstoffen durchaus nennenswerte Unterschiede gibt, wie ein Medikament anschlägt; und zwar abhängig von der genetischen Grundausstattung des jeweiligen Patienten. Dies kann "einfache" genetische Faktoren wie das Geschlecht betreffen, aber auch komplexere nicht so offensichtliche Faktoren.

Nehmen wir an (und scheint immer deutlicher zu werden, dass dies bald der Realität entspricht) es gäbe eine Möglichkeit festzustellen, wie ein bestimmtes Medikament bei einem bestimmten Patienten wirkt. Nehmen wir weiters an (auch dies scheint bereits greifbar zu sein), es handelt sich um ein Medikament, dass eine schwere Krankheit behandelt. Bei einer bestimmten genetischen Gegebenheit ermöglicht dies dem Patienten etwa 2-3 Jahre an weiterer Lebenszeit. In anderen Fällen vielleicht nur 2-3 Monate. Gleichzeitig ist das Medikament äußerst kostspielig und kostet, sagen wir, 100.000 €.

Wer hat nun Anspruch dieses Medikament zu bekommen?

Ist es unethisch zu fragen, wieviel Geld ein Lebensjahr wert ist? Eine solche Frage stößt mit Sicherheit bei den meisten Menschen zumindest auf großes Befremden, wenn nicht starke Ablehnung. Aber drehen wir das Problem einmal um: wenn wir nicht bereit sind diese Frage zu stellen, kommen wir in logischer Konsequenz zu der heute durchaus verbreiteten Ansicht, Geld darf bei Gesundheit keine große Rolle spielen. Wirklich nicht?

Im Prinzip ist dies nur ein Spezialfall einer Diskussion die wir schon heute sehr gründlich führen müssten. Stellen wir uns einen einfacheren Fall vor: es gibt eine Behandlung die 100 Million Euro kostet und einem 90 jährigen Patienten etwa ein weiteres Lebensjahr schenken würde. Würden wir das vertreten? Wenn wir nicht bereit sind die obige Frage zu stellen, muss die Antwort lauten "Ja, selbstverständlich". Denn Leben darf nicht am Geld hängen! In der Praxis wäre das Geld natürlich nicht vorhanden um allen Patienten derartig kostspielige Behandlungen zu ermöglichen. Damit wird die Frage implizit gestellt, selbst wenn wir sie nicht explizit diskutieren wollen. Vermutlich wäre sogar der öffentliche Aufschrei groß, würde eine solche Behandlung gängige Praxis werden. Die Menschen würden sehr schnell feststellen, dass sich die Gesellschaft derartige Ausgaben einfach nicht leisten kann. Gut, aber welche Summe ist nun gerechtfertigt in einem solchen Fall. 1 Million Euro? 100.000? 1.000? Bei einem jungen Menschen mehr als bei einem älteren? Bei einer Mutter mit drei Kindern mehr als bei einem alleinstehenden Mann?

Geld ist eine begrenzte Resource. Oft besteht der Konflikt zwischen der sehr teuren Behandlung eines einzelnen Patienten und der günstigeren Behandlung vieler Patienten. Philosophisch betrachtet die Abwägung zwischen einer streng individualistischen (maximales Wohl für den Einzelnen) gegenüber einer utilitaristischen Betrachtung (maximales Wohl für die größte Zahl an Menschen). Dennoch muss uns klar sein: wir beantworten diese Fragen entweder bewußt oder zwischen den Zeilen, z.B. durch Budget-Restriktionen von Spitälern.

Letztlich haben wir selbst in Europa heute schon längst eine Form der zwei-Klassen Medizin. Das Gesundheitssystem ist schon heute nicht mehr in der Lage die "besten" und teuersten Behandlungen allen Patienten gleichermassen zur Verfügung zu stellen. Gehen wir davon aus, dass Medizin, Wissenschaft und Technologie im allgemeinen auch in den nächsten Jahren vergleichbare Fortschritte machen wie in den letzten Jahrzehnten, so wird sich dieses Problem nochmals drastisch verschärfen.

Das eingangs erwähnte Beispiel der personalisierten Medizin ist nur ein sehr deutliches und transparentes Beispiel wo der Zug hinfährt. Es ist höchst an der Zeit diese Diskussion mit offenen Karten zu führen und nicht der Bevölkerung vorzumachen, es wären unbegrenzte Ressourcen für jedermann vorhanden. Zur Zeit stecken wir den Kopf in den Sand – gleichzeitig werden die finanziellen Mittel bezogen auf immer teurere Behandlungsmöglichkeiten immer knapper. Ärzte und Krankenhausmanagement sehen sich vor dem konkreten Problem im Einzelfall entscheiden zu müssen, wie diese Mittel einzusetzen sind. Dies aber ohne klare gesetzliche und von der Gesellschaft definierte Rahmenbedingungen.

Ich denke, es bedarf keiner großen Phantasie, dass dies kein wünschenswerter Zustand ist. 

Freitag, 17. September 2010

Über Boltzmann, Götter und Atome

Ich habe vor einiger Zeit einen Artikel zum Thema Quantentheorie und "philosophische" Deutungen geschrieben. In diesem Blog-Artikel habe ich mich unter anderem daran gestossen, wie die aus meiner Sicht schlampige Verwendung von Begriffen letztlich zu Verwirrungen in der Deutung von Phänomenen führen können (Welle/Teilchen).

Ich beschäftige mich gerade mit Ludwig Boltzmann, einem der faszinierendsten Wissenschafter des 19./20. Jahrhunderts. Boltzmann hat nicht nur die klassische Physik (Mechanik), von Newton begründet, mit seiner statistischen Mechanik (Thermodynamik) zu einem eindrucksvollen Höhepunkt gebracht. Er hat auch Jahrzehnte vor Plank mit gequantelten Energiemengen gerechnet und kann daher auch als Wegbereiter der Quantentheorie betrachtet werden. Dies sind nur kleine Ausschnitte seiner vielfältigen wissenschaftlichen Beiträgen; Bedeutung hat er aber auch aufgrund seiner offenbar enormen Begabung als akademischer Lehrer erlangt. Zu seinen Schülern zählten unter anderem spätere Kapazitäten wie Svante Arrhenius (Schweden), Walter Nernst (Deutschland) sowie Paul Ehrenfest und Fritz Hasenöhrl (der selbst Lehrer Erwin Schrödingers war). Natürlich ist Boltzmann mit allen Größen der Zeit von Sommerfeld über Mach, Planck, Loschmidt, Helmholtz, Ostwald bis Einstein und vielen anderen in Kontakt gestanden.

Boltzmann setzt sich, und nun komme ich zum eigentlichen Thema, in seinen Schriften aber auch mit dem Begriff des Atoms auseinander. Er gilt ja als eine der treibenden Kräfte der aufkommenden Atomtheorie im ausgehenden 19. Jahrhundert. Dies zu einer Zeit, wo wesentliche "Wortführer" wie etwa Ernst Mach die Atomtheorie noch als bestenfalls für die Chemiker geeignet hielten, nicht aber tauglich für eine ernstzunehmende physikalische Theorie. Ähnliches trifft auch auf Max Planck zu, der erst später sozusagen von einem Anhänger Machs auf Boltzmanns Seite gewechselt ist.

Aber auch Boltzmann setzt sich mit dem Begriff des Atoms kritisch auseinander. Der Begriff stammt ja aus dem antiken Griechenland und wurde von Philosophen wie Leukipp und Demokrit eingeführt. Das griechische Wort atomos bedeutet bekanntlich unteilbar. Die Annahme dieser griechischen Philosophen war also, dass die Materie aus kleinen, nicht weiter teilbaren (atomos) Teilchen zusammengesetzt wäre. 

So sehr auch Boltzmann ein Vertreter des Atomismus war, so war ihm doch klar, dass die Unteilbarkeit und auch Unveränderlichkeit des Atoms keine vernünftigen Annahmen sind. Unteilbarkeit vielleicht ein "Grenzwert" der für bestimmte physikalische Aussagen gültig ist. Die nach 1900 entdeckte Radioaktivität, und später die Quantenmechanik gaben ihm in diesem Punkt recht. In einem Vortrag 1904 sagt Boltzmann:
"Wir werden uns nun (betreffend die Frage nach der atomistischen Zusammensetzung der Materie) nicht auf das Denkgesetzt berufen, daß es keine Grenzen der Teilung der Materie geben könne. [...] Die Rechnung ergibt nämlich, dass die Elektronen noch viel kleiner als die Atome der ponderablen Materie sind, und die Hypothese, dass die Atome aus zahlreichen Elementen aufgebaut sind, sowie verschiedene interessante Ansichten über die Art und Weise dieses Aufbaus sind heute in aller Munde. Das Wort Atom darf uns da nicht irreführen, es ist aus alter Zeit übernommen; Unteilbarkeit schreibt heute kein Physiker den Atomen zu." aus Ludwig Boltzmann. Mensch, Physiker, Philosoph, 1955
Und gerade die letzten beiden Sätze erscheinen mir besonders bedeutsam. In der Wahrnehmung vieler Menschen, auch Studenten und Wissenschaftern, wird nicht bewusst nachvollzogen, dass der Begriff Atom wie wir ihn heute verwenden mit dem Begriff Atom eines Leukipp nicht mehr sehr viel zu tun hat. Wir stimmen insofern noch überein, als die Materie aus Atomen aufgebaut ist, aber andere wesentliche Konzepte wie die Unteilbarkeit, Unveränderlichkeit haben wir längst über Bord geworfen. (Wobei auch der Begriff der Materie...) Damit hat auch der Wortursprung seinen Sinn verloren. Selbst in vielen Grundvorlesungen der Physik oder Chemie, sowie in Lehrbüchern wird der Atomismus auf die historischen Quellen bezogen, aber meist ohne die dramatischen Unterschiede in der Bedeutung des Wortes entsprechend klarzulegen.

Worte werden beibehalten, weil es bequem ist (Atom, Teilchen), weil wir sie schon kennen. Aber gerade in dem "schon kennen" steckt der Samen für Missverständnisse aller Art, wie ich schon im anderen Posting über den "Welle/Teilchen Dualismus" zum Ausdruck gebracht habe. Vor allem dann, wenn man sich jenseits von theoretischen Berechnungen und Voraussagen mit der Bedeutung, dem Wesen der Dinge auseinandersetzen möchte. Mir scheint, dass das heutige Verständnis des Atoms sich so weit von der ursprünglichen Idee entfernt hat, dass ein anderer Begriff spätestens ab der Quantenmechanik und der Entdeckung der Quarks und der vielen anderen Elementarteilchen angemessen gewesen wäre. Was ist eigentlich dieses Atom. Ein kleines festes Teilchen? Sicher nicht. Schon der Begriff des Teilchens verschwindet zusehends, und wird durch Wellenfunktionen, Energie, Wahrscheinlichkeitsbetrachtungen und ähnliches aufgelöst. Es scheint, dass uns gerade dieses letzte unteilbare Teilchen zwischen den Fingern zerrinnt, sich in völlig neuen Konzepten auflöst je näher wir es betrachten.

Wir erleben immer wieder gesellschaftliche, aber auch wissenschaftliche Diskussionen die eigentlich bei näherer Betrachtung Scheindiskussionen sind – Diskussionen um Begriffe deren Substanz sich über die Jahrhunderte verflüssigt haben. Gott ist ein ebensolcher Begriff, wie Richard Dawkins treffend anmerkt. Spricht heute jemand davon "an Gott zu glauben", was bitte meint er damit? Ist der christliche Gott denn dasselbe wie Allah (haben Gläubige einer Konfession überhaupt eine eingermassen konsistente Idee an was sie glaube? ich denke nicht!), wie Thor oder gar wie Zeus? 

Welchen Sinn also macht eine solche Aussage bzw. eine Diskussion die sich um einen Begriff dreht, der eigentlich über die Jahrtausende jede konkrete Bedeutung verloren hat? Und mit Zeus sind wir wieder beim Ursprung angelangt: Sprechen wir da noch vom "guten alten" Atom? Genauso wie die "alten Griechen" mit Sicherheit ein völlig anderes Konzept der Götter hatten (ein viel entspannteres, möchte ich annehmen), so ist deren Idee des Atoms als Inspiration für die Physik des 19. Jahrhunderts tauglich, aber kaum für die moderne Physik.

Montag, 9. August 2010

Das Ende der Universität und andere Dystopien

Kürzlich wurde ich von einem Kollegen via Twitter auf folgendes Interview von Bill Gates hingewiesen. Das Kernzitat dieses Interviews ist folgendes:
"Five years from now on the web for free you’ll be able to find the best lectures in the world," Gates said at the Techonomy conference in Lake Tahoe, CA today. "It will be better than any single university,"
Die Technik- und Internetgläubigkeit hat natürlich auch vor der Lehre nicht halt gemacht. Man erinnere sich an den Hype des "E-Learning" vor etwa 10 Jahren. Völlig überzogene Erwartungen was didaktische Fortschritte betrifft auf der einen Seite, ebenso überzogene Erwartungen was mögliche Einsparungen betrifft, auf der anderen. Langsam ist aber Ernüchterung eingekehrt. Wir haben gelernt, dass das elektronische Verteilen von Skripten und Bücher nicht E-Learning ist, und damit keinen nennenswerten qualitativen Gewinn bringt. Dass aber zur Produktion guter E-Learning Inhalte wesentlich mehr Aufwand in die Erstellung der Inhalte für die neuen Medien investiert werden muss. 

Insofern ist ein Kern an Wahrheit in dem Interview zu finden. Nur wenige können es sich leisten gute (multimediale) Inhalte für Online-Kurse zu erstellen. Auch ist es richtig, dass die prinzipiell verfügbare Information durch das Internet deutlich gewachsen ist. Die Betonung liegt aber auf "prinzipiell". Im übrigen wird dies auch in einem Nebensatz in dem Interview klar gesagt: 
"Well, provided they’re self-motivated learners..." 
Gemeint sind die Studenten. Bildung bedeutet eben gerade nicht Studenten oder Schüler vor den Computer zu setzen und sie mehr oder weniger moderiert sich selbst zu überlassen. Wobei es in der Praxis eher beim "weniger" bleiben wird, bedenkt man wie schlecht schon heute die Betreuungsverhältnisse an den meisten Unis sind. Kritisches Denken, das Hinterfragen und Aufarbeiten von Quellen setzt Vorwissen, eben Bildung und Erfahrung voraus; muss also gelernt und gelehrt werden. Die Studenten dabei sich selbst zu überlassen und zu erwarten, dass dann "magisch" durch die "Macht der Gruppe", oder um einen Hype zu nennen (der zum Glück schon wieder im abklingen ist) durch "Crowdsourcing" gefunden wird, ist bestenfalls eine Illusion.

Ich möchte in einem Punkt nicht falsch verstanden werden: das Internet, neue Medien etc. können in der Ausbildung sehr wertvolle Dienste leisten: durch leichter verfügbare Informationsquellen oder durch Kollaborationsmöglichkeiten oder interaktive Inhalte wie Simulationen. Die Rolle des Lehrers wird dadurch aber nicht unwichtiger sondern im Gegenteil viel wichtiger. Ebenso die Rolle der Universität oder Schule. Das Ergebnis von schlecht betreuten Studentenarbeiten können wir heute an jedem Eck finden: Seminar- und Diplomarbeiten die sich im wesentlichen darauf beschränken die ersten Google Hits zu verwenden oder Absätze aus dem erstbesten Wikipedia-Artikel unkritisch abzuschreiben, oder bei ganz fleißigen: diese immerhin umzuformulieren. 

Es kommt noch ein weiterer sehr problematischer Punkt als Folge von Gates relativ unkritischer Technikgläubigkeit hinzu: die Annahme nämlich, es gäbe "eine beste Vorlesung". Diese würde natürlich nach heutiger Universitätslogik vom MIT, Stanford oder ähnlichen "Eliteuniversitäten" kommen. Mit dieser Annahme wird aber gerade die Kernidee der Universität zumindest ausgehöhlt, wenn nicht zerstört. Es gibt einen guten Grund, warum "Freiheit" in der Lehre immer ein wichtiges Gut war und beispielsweise auch wesentlicher Teil der venia ist. Der Grund ist gerade der, dass es besonders in der Universitätslehre eben häufig nicht eine beste Vorlesung gibt. In der Vielfalt und der kritischen Diskussion liegt die Stärke: Das Internet erlaubt allerdings den motivierteren Studenten die Aussagen ihrer eigenen Professoren mit denen anderer Universitäten abzugleichen und damit zu verorten.

Wahrscheinlicher ist jedoch, dass Gates Vision zum Teil wahr werden wird und es darauf hinausläuft, dass wir die Lehre letztlich völlig aufs Abstellgleis schieben und wir dann vom Studiendekan nur mehr den Hinweis bekommen, es gäbe ja eh eine "super" Vorlesung aus Stanford. Warum verwenden wir nicht einfach diese anstatt uns selbst die Mühe zu machen uns mit dem Thema auseinanderzusetzen.  Damit wird der faule Professor, der schon heute nichts anderes macht als Präsentationen aus dem Internet zusammenzukopieren zur Norm. "Copy and Paste" auf der nächsten Ebene, statt kritischer Evaluierung und Nutzung verschiedenster Quellen. 

Ein tolles Beispiel für die Studenten und eine würdige Vision für die Zukunft der Lehre! Zum Abschluss noch ein weiteres Zitat vom Didaktik-Visionär Gates:
"One particular problem with the education system according to Gates is text books. Even in grade schools, they can be 300 pages for a book about math. "They’re giant, intimidating books," he said. "I look at them and think: what on Earth is in there?"
Nun möchte ich nicht behaupten, dass Schulbücher immer gut sind (ganz besonders nicht in den USA). Hierzu gibt es aber einen wesentlich berufeneren und lesenswerteren Kommentar von Richard Feynman.

Worauf Gates Kommentar aber meiner Ansicht nach hinausläuft ist genau die Bildungsfeindlichkeit die uns heute aus jeder Fernsehserie entgegenschlägt: "Wer braucht schon 100 Seiten Mathematik, zieh dir doch drei YouTube Videos rein, das reicht auch". Unsinn. Lernen ist manchmal schwierig, oft langwierig und eben nicht immer das reine Vergnügen. Wer etwas anderes behauptet lügt sich selbst und seinen Schülern etwas vor. Ja, multimediale Angebote, Spiele, Videos, Simulationen können manches leichter und verständlicher machen; Bücher können verbessert werden, dennoch: Lernen ist eben nicht nur vergnügtes Spielen sondern auch harte Arbeit. Auch das, oder gerade das sollte ein Lehrer vermitteln können. 

Dienstag, 20. Juli 2010

Das Phlogiston, oder Kampf der Theorien

Ich beschäftige mich gerade relativ intensiv mit Wissenschaftsgeschichte, unter anderem mit einem meiner Lieblingsthemen, dem Phlogiston. Ich finde das Thema aus mehreren Gründen spannend, in diesem Artikel sollen aber nicht die chemischen und historischen Details im Vordergrund stehen, sondern vielmehr wie gut Entwicklung und Fall der Phlogiston-Theorie verschiedene in der Geschichte immer wiederkehrende Aspekte des Wissenschafts-Prozesses offenlegt.

Aber ganz kurz aber ein Überblick über die Theorie und einige wesentliche Proponenten: Im 16. und 17. Jahrhundert waren die meisten Konzepte der modernen Chemie, auch solche die heute als Allgemeinbildung gelten, noch völlig unbekannt. Beispielsweise die Existenz der Gase Sauerstoff, Wasserstoff und CO2, oder die Tatsache, dass Wasser eine Verbindung von Wasserstoff und Sauerstoff ist. Auch der Unterschied bzw. Zusammenhang zwischen frei werdender Energie und stofflichen Umsetzungen war nicht klar. Verbrennt Wasserstoff (H2) mit Sauerstoff (O2) zu Wasser (H2O) so kann man dies aus der Sicht der chemischen Reaktion (der stofflichen Umsetzung) betrachten, gleichzeitig aber wird bei dieser Umsetzung  auch Energie frei.

Verbrennung an sich wurde natürlich beobachtet, aber eine Theorie dieses Phänomens fehlte weitgehend. Der deutsche Arzt und Chemiker Georg Ernst Stahl kam zu er Überzeugung, dass bei der Verbrennung etwas entweichen müsse. Diese Substanz nannte er Phlogiston. Daraus folgte unter anderem (1) Stoffe mit hohem "Phlogistongehalt" verbrennen besser als solche mit niedrigerem und (2) die Verbrennung läuft heftiger ab, wenn die Luft weniger mit Phlogiston gesättigt ist.

Diese Theorie war aufgrund der Faktenlage der damaligen Zeit durchaus nicht absurd, und konnte einige Phänomene gut erklären. Problematisch wurde es allerdings ab dem Zeitpunkt, wo Wissenschafter wie Lord Cavendish sowie Joseph Priestley in Experimenten Gase erzeugen konnten die offensichtlich von "normaler" Luft verschieden waren. Cavendish erkannte sogar dass die Verbrennung eines Gases, das er erzeugt hatte Wasser ergab. Das Gas war natürlich Wasserstoff (H2):

2 H2 + O2 ---> 2 H2O

Cavendish und Priestley hatten also vermutlich als erste Wasserstoff und Sauerstoff erzeugt. Allerdings, und an dieser Stelle wird es wirklich interessant, interpretierten Cavendish und Priestley die Ergebnisse nach heutigem Verständnis völlig falsch – eben auf Basis der Phlogiston Theorie. Wasserstoff wurde als "brennbare Luft", Sauerstoff als "enthphlogistierte Luft" bezeichnet. Letzterer nach der Logik, dass die Verbrennung umso stärker ablaufen kann je weniger Phlogiston in der Luft schon enthalten sind.

Selbst die Tatsache, dass die Rückstände mancher Substanzen (beispielsweise von Metallen) nach der Verbrennung schwerer sind als zuvor (weil Metalloxide gebildet werden) löste bei vielen Vertretern der Phlogiston-Theorie keine nennenswerten Zweifel aus. Wäre die Theorie richtig, würde man wohl eher das Gegeteil erwarten: eine Substanz (das Phlogiston) sollte ja die brennende Substanz verlassen, folglich sollten die Rückstände leichter nicht schwerer werden. Einige Vertreter der Phlogiston-Theorie schlugen daher eine negative Masse des Phlogistons vor! Erst Lavoisier (siehe Abbildung rechts) in Frankreich zog die richtigen Schlüsse aus der Vielzahl an Experimenten und verwarf die Phlogiston-Theorie zugunsten der Entdeckung neuer chemischer Elemente. Damit gilt er zurecht als einer der bedeutendsten Naturwissenschafter der Zeit.

Und damit komme ich zum Kern dieses Artikels. Die Phlogiston-Theorie illustriert meiner Ansicht nach eine Reihe von Mechanismen, die in der Geschichte der Wissenschaft – im Wechselspiel zwischen Generationen von Forschern, neuen Experimenten und vorhandenen Theorien – immer wieder zu beobachten sind:

(1) Es liegt ein mangelndes oder falsches Verständnis elementarer Prozesse vor (chemische Elemente, Energieübergänge, chemische Reaktionen)

(2) Ein Phänomen, das auf diesen elementaren Prinzipien aufbaut (Verbrennung), wird zu erklären versucht

(3) Für die Interpretation der Experimente – und das ist einer der wesentlichsten Punkte – ist die etablierte Theorie (Phlogiston) ausschlaggebend. An dieser Stelle wird auch klar ersichtlich, warum rein empirische Ideen nicht funktionieren können: Experimente können nicht im "luftleeren" Raum geplant, durchgeführt und interpretiert werden. Gewisse Ideen über die Natur, das System müssen vorhanden sein um ein sinnvolles Experiment durchführen zu können. Beispielsweise muss ich wissen oder wenigstens die Vermutung haben, dass es "Verbrennung" gibt und dass Substanzen sowie Luft (nach damaligem Wissensstand) daran beteiligt sind. Wie sonst sollte ich auf die Idee kommen Gase zu verbrennen und die Rückstände zu analysieren?

(4) Kommt es infolge dieser Interpretationsversuche zu erheblichen Ungereimtheiten (wie einer Massen-Zunahme bei der Verbrennung von Metallen) erfolgt häufig von den Vertretern der "alten" Theorie (Phlogiston) eine Modifikation derselben. Dies ist zunächst nicht verkehrt. Viele Theorien sind ja nicht sofort obsolet wenn widersprüchliche Erkenntnisse auftauchen, sondern bedürfen entsprechender Korrekturen. Ab einem bestimmten Punkt (Annahme der negativen Masse des Phlogistons, Äther der von der Erde mitbewegt wird usw.) werden die Modifikationen aber geradezu absurd. Und dennoch schaffen es viele Vertreter der alten Schule selbst an diesem Punkt nicht die Grundannahmen zu hinterfragen. Auch im 20. Jahrhundert findet man derartige Beispiele, etwa in der Diskussion zwischen Vertretern der Big Bang und der Steady State Theorie um Fred Hoyle.

(5) Meist folgt dann eine Spaltung in mehrere Lager, die häufig auch noch hart umkämpft sind. Die (meist älteren) Vertreter der "alten" Theorie mit noch größerer Autorität bestimmen häufig die Diskussion für eine Zeit. Lord Cavendish aber auch Joseph Priestley waren bis zu ihrem Tod heftige Verfechter der Phlogiston-Theorie, obwohl sie eigentlich selbst die Grundlage zu deren Ablösung gelegt hatten. Auch kämpfen die (meist jüngeren) Vertreter der "neuen" Theorie noch mit den Unzulänglichkeiten der neuen Theorie. Diese ist oft noch nicht so gut ausgearbeitet und führt damit im Detail oft zu schlechteren Vorraussagen als die (an sich falsche) ältere Theorie. Dies konnte im Streit um die Äther-Theorie aber auch in der Diskussion zwischen Vertretern des geo- und heliozentrischen Systems beobachtet werden.

Entgegen der häufigen Annahme ist es eben nicht so, dass das heliozentrische System einfach besser war und nur durch die Autorität der Kirche unterdrückt wurde. Zwar gab es diese Unterdrückung, aber auch auf rein wissenschaftlicher Ebene erlaubte das über lange Zeit ausgearbeitete geozentrische Modell (wenn auch mit komplexen Planetenbewegungen auf Epizyklen) deutlich bessere Voraussagen als das zunächst noch mangelhafte heliozentrische Modell. Erst die weiteren Modifikationen und Verbesserungen etwa durch Kepler (Ellipsenbahnen, Keplersche Gesetze) brachten dann endlich den wissenschaftlich gerechtfertigten Umschwung.

(6) Auch der Tod ist häufig ein wichtiger Faktor für den Meinungsumschwung in der wissenschaftlichen Community; wie Max Plank es ausdrückte: "Eine neue große wissenschaftliche Idee pflegt sich nicht in der Weise durchzusetzen, daß ihre Gegner allmählich überzeugt und bekehrt werden – daß aus einem Saulus ein Paulus wird, ist eine große Seltenheit – sondern vielmehr in der Weise, daß die Gegner allmählich aussterben und daß die nachwachsende Generation von vornherein mit der Idee vertraut gemacht wird." Ich denke, dass diese Ansicht etwas zu radikal ist, aber die tiefe menschliche Dimension des Fortschrittes von Ideen zeigt.

(7) Der Umschwung: Letztlich erkennt die Mehrheit der Wissenschafter eines Fachbereiches, dass die neue Theorie gegenüber der alten zu bevorzugen ist, bzw. die alte nur ein Spezialfall der allgemeingültigeren neuen Theorie ist. Es tritt eine neuen Phase, oder, wie Kuhn es ausgedrückt hat, ein neues Paradigma in Kraft.

Eine Schlussbemerkung sei trotz des langen Artikels noch erlaubt: Man darf auch nicht vergessen, dass in historischer Betrachtung, also aus unserem heutigen Blickwinkel, manche Streitigkeiten und das Festhalten an bestimmten Ideen lächerlich wirken mag. Derartige Beurteilungen sollten aber mit Vorsicht geschehen. Mit dem Wissen der heutigen Zeit, mit dem Wissen um die konkreten Irrtümer der Vergangenheit, mit dem Wissen um neue empirische Ergebnisse, lässt sich leicht über die "Starrsinnigkeit" Einzelner urteilen. Man darf dabei aber nicht vergessen, dass in der wissenschaftlichen Diskussion laufend irgendjemand irgendwelche "alternative" Theorien vorschlägt. Die meisten dieser Vorschläge sind aber einfach falsch oder unsinnig.

Ein gewisses Beharrungsvermögen ist also durchaus im Sinne des Fortschrittes notwendig. Radikale neue Ideen erfordern auch herausragende Evidenz, besonders wenn sie gegen sehr erfolgreiche vorhandene Theorien antreten wollen. Wäre die Wissenschaft laufend von einer "gut klingenden" Idee zur nächsten gehüpft, wären wir mit Sicherheit nicht an dem Punkt des Wissens angelangt an dem wir uns heute sehen.

Freitag, 7. Mai 2010

25 Jahre "Ozonloch": Ein Modell für den rationalen Umgang mit globalen Bedrohungen?

Ich bin im Rausch der Wissenschaftsjubiläen, diesmal: "25 Jahre Ozonloch". Eine Geschichte mit überraschend gutem Ausgang, die als Beispiel für den Umgang mit dem Klimawandel dienen könnte. Aber zurück an den Anfang: vor genau 25 Jahren wurde das Ozonloch zum ersten Mal in einer wissenschaftlichen Publikation beschrieben. Der Artikel wurde von drei Britischen Forschern des Antarktik-Dienstes in Nature veröffentlicht:
Large losses of total ozone in Antarctica reveal seasonal ClOx/NOx interaction, Nature Vol. 315, 16 May 1985 (PDF)
Dieser Artikel schockierte nicht nur die Forschergemeinschaft. Zwar gab es schon vorher Vermutungen, dass bestimmte industrielle Chemikalien zu einem Abbau von Ozon in der Atmosphäre führen können, aber kaum jemand hatte mit einem derartig starken Verlust der Ozonschicht gerechnet. Wie so oft bei großen wissenschaftlichen Entdeckungen, waren diese drei Forscher allerdings nicht einzigen die diese Beobachtung gemacht hatten. Beispielsweise analysierten auch Forscher der NASA Ozon-Messwerte eines NASA-Satelliten. Sie zögerten allerdings mit der Veröffentlichung der Daten da die Werte zu niedrig zu sein schienen. Da die Kalibrierung von Messgeräten in Satelliten nicht trivial ist, hatten sie zunächst den Verdacht, dass es sich bei diesen Werten um Messfehler handeln könnte. Nach dem Artikel in Nature wurde allerdings den NASA Wissenschaftern klar, dass die Messwerte des Satelliten Nimbus-7 korrekt sein dürften.

Das erste Paper in Nature war wesentlich um das Problem auf die Agenda der wissenschaftlichen Gemeinschaft zu bringen, es war inhaltlich aber nicht ohne Fehler. Vor allen Dingen die luftchemischen Reaktionen wurden erst in den nächsten Jahren von anderen Forscherteams korrekt aufgeklärt. In einem Deutschlandradio Bericht wird der NASA Forscher Rick Stolarski zitiert:
"Joe Farman erkannte als erster, welche Bedeutung die Abnahme des Ozons hat, die er über Jahre beobachtete. Und er brachte sie mit dem Chlor in Verbindung. Darin lag Farman auch richtig. Allerdings: Seine Theorie, wie der Ozonabbau genau abläuft, war alles andere als korrekt. Das haben andere Forscher erst später im Detail aufgeklärt."
Die Entdeckung des Ozonloches war nicht nur eine wissenschaftliche, sondern auch überraschenderweise eine politische Erfolgsgeschichte. Bereits im Jahr 1987 (!), also nur zwei Jahre nach der ersten Publikation in Nature, wurde das Montreal Protokoll unterzeichnet. In diesem Protokoll wurden klare internationale Vereinbarungen getroffen um die Produktion von ozonschädigenden Gasen (im wesentlichen Fluorchlorkohlenwasserstoffe – FCKWs) und deren Ausstoß in die Atmosphäre einzustellen. Diese schnelle Reaktion war darum wichtig, weil in die Atmosphäre eingebrachte Gase dort für lange Zeiträume verbleiben. Selbst ein sofortiger Emissionsstop führt nur zu einem sehr langsamen Abklingen des Ozonabbaus. Der Nobelpreisträger Paul Crutzen erklärt in dem Radiointerview:
"Wir müssen unseren britischen Kollegen sehr dankbar sein, dass die über diese vielen Jahre die Messungen in der Antarktis gemacht haben. Denn hätten die das nicht getan, und hätten wir das Ozonloch viel später entdeckt, hätten wir mit internationalen Maßnahmen noch zehn Jahre gezögert, bin ich ziemlich sicher, dass wir auch in Europa ein Ozonloch gehabt hätten."
Paul Crutzen selbst hat wesentliche Beiträge zur Aufklärung der Atmosphärenchemie geleistet und damit geholfen die Mechanismen die zum Abbau der Ozonschicht führen zu erklären. Für diese wissenschaftliche Leistung erhielt er 1995 gemeinsam mit Mario Molina und Sherwood Rowland den Chemienobelpreis.

Die maximale Ausdehnung des Ozonloches misst die NASA daher auch erst Jahre nach der ersten Entdeckung, nämlich im September 2006. Durch die relativ schnelle Reaktion der Staatengemeinschaft konnte das schlimmste (z.B. eine weitere Ausdehnung des Ozonloches über Europa) verhindert werden. Bis zur Normalisierung der Situation werden trotzdem noch Jahrzehnte vergehen.


Leider scheint sich das gesellschaftliche und politische Klima innerhalb von nur zwei Jahrzehnten gewandelt zu haben. Heute haben wir klare wissenschaftliche Fakten, die auf einen katastrophalen Klimawandel hindeuten. Einen Klimawandel der wahrscheinlich in den nächsten Jahrzehnten keinen Stein auf dem anderen lassen wird. Die Reaktion der Politik aber schwankt zwischen Ignoranz, glatter Leugnung der Fakten und Verzweiflung (bei den wenigen die die Situation tatsächlich erfasst haben). Die Stimmung ist derartig irrational geworden, dass sich mittlerweile Forscher genötigt sehen im angesehenen Wissenschaftsmagazin Science in Form eines Briefes gegen diese Form der Ignoranz, die sogar in Angriffen auf Forscher gipfelt, anzukämpfen. 255 führende Forscher der amerikanischen Akademie der Wissenschaften unterzeichnen diesen Brief (gesamter Brief als PDF):
"We are deeply disturbed by the recent escalation of political assaults on scientists in general and on climate scientists in particular. All citizens should understand some basic scientific facts. There is always some uncertainty associated with scientific conclusions; science never absolutely proves anything. When someone says that society should wait until scientists are absolutely certain before taking any action, it is the same as saying society should never take action. For a problem as potentially catastrophic as climate change, taking no action poses a dangerous risk for our planet."
und weiter:
"Climate change now falls into this category: there is compelling, comprehensive, and consistent objective evidence that humans are changing the climate in ways that threaten our societies and the ecosystems on which we depend. [...]
Society has two choices: we can ignore the science and hide our heads in the sand and hope we are lucky, or we can act in the public interest to reduce the threat of global climate change quickly and substantively. The good news is that smart and effective actions are possible. But delay must not be an option."
Vielleicht wäre es eine gute Idee, 25 Jahre nach der Entdeckung des Ozonlochs, den Umgang mit diesem Problem als Beispiel nehmen wie Wissenschaft, Wirtschaft und Politik zusammenarbeiten können?!

Freitag, 30. April 2010

Das Humangenomprojekt: Wirtschaft, Politik, Wissenschaft

Vor ziemlich genau 10 Jahren, genau gesagt am 26. Juni 2000 wurde die Entschlüsselung des menschlichen Genoms vom damaligen Präsidenten der USA Bill Clinton sowie dem britischen Premierminister Tony Blair bekanntgegeben. Dieser Ankündigung ist ein "Wettrennen" zwischen Labors die hauptsächlich aus öffentlichen Geldern finanziert wurden und der von Craig Venter gegründeten Firma Celera vorangegangen. Interessant in diesem Zusammenhang ist vor allem, dass Celera mit einem Budget von etwa 300 Millionen US$ operierte, das öffentlich geförderte Projekt hingegen über ein Budget von etwa 3 Milliarden US$ verfügte. Auch wenn das Thema natürlich höchst spannend ist (und Craig Venter das damalige finanzielle Ungleichgewicht gerne zum Anlass nimmt seine eigene Überlegenheit in den Vordergrund zu stellen) soll dieser Aspekt hier nicht im Vordergrund stehen. Das Humangenom Projekt ist für mich vor allen Dingen ein gutes Beispiel für die intensive Verschränkung von Wissenschaft, Politik und Wirtschaft in vielen Großforschungsvorhaben. 

In den späten 90er Jahren gab es rund um das Human-Genom Projekt – einem Goldrausch gleich – eine ganze Reihe an Firmengründungen und die meisten dieser Firmen existieren heute nicht mehr. Das Projekt wurde zunächst von vielen als potentielle Goldgrube gesehen und unrealistische Erwartungen an kurzfristige (medizinische) Möglichkeiten die sich durch diese Daten erschliessen waren an der Tagesordnung. Den ersten wirtschaftlichen Dämpfer gab es allerdings schon vor der offiziellen Bekanntgabe der Entschlüsselung, nämlich im März 2000. Bill Clinton gab bekannt, dass sich die Genom-Sequenzen des Menschen nicht patentieren lassen würden. Ein aus wissenschaftlicher und gesellschaftlicher Sicht, wie ich denke, bahnbrechener Entschluss. Mit dieser Ankündigung kollabierten schon die ersten auf Spekulationen aufgebauten Firmen die sich rund um das Projekt gebildet hatten. Auch der Aktienkurs von Venters Celera fiel dramatisch.

Der nächste wirtschaftliche Dämpfer ergab sich in den Jahren nach der "Veröffentlichung" des menschlichen Genoms. Einerseits war die Pressekonferenz im Juni 2000 im wesentlichen eine Polit-Show, denn zu diesem Zeitpunkr war die Sequenzierungnicht einmal abgeschlossen. Andererseits war niemandem so recht klar, was jetzt mit diesen riesigen Datenmengen wirklich anzufangen ist. Damit  ist das Humangenomprojekt nicht nur einem der "üblichen" wissenschaftlichen Hypes, zum Opfer gefallen, sondern durch die Verquickung von Wirschaft, Politik, persönlichen Interessen und Wissenschaft ein em "Turbo-Hype". Man darf nicht vergessen, dass das Projekt in den Jahren und Jahrzehnten vor 2000 große Summen an wissenschaftlicher Förderung sowie an privatem Kapital benötigte. Nun neigen Wissenschafter ohnedies dazu die kurzfristigen Möglichkeiten neuer Erkenntnisse deutlich überzubewerten (und dafür die langfristigen zu unterschätzen). In diesem Fall war der Hype wohl auch "notwendig" und von vielen erwünscht um das benötigte Kapital aufstellen zu können.

Nach 2000 kam dann Katerstimmung auf; die Party war vorbei und es wurde langsam klar, dass sich aus Unmengen von Daten noch keine unmittelbaren Anwendungen erschliessen lassen. Die Aufräumarbeiten nach der Party waren mühsam und langwierig. Viele Firmen die auf kurzfristige Erfolge gesetzt hatten gingen in Konkurs und das Interesse der Politik und der Öffentlichkeit ging deutlich zurück.

Und dennoch sollten die letzten 10 Jahre aus wissenschaftlicher Sicht nicht unterschätzt werden. Nicht nur wurden Sequenzierverfahren dramatisch beschleunigt, sodass heute das gesamte Genom eines Menschen für wenige 1000 Euro zu entschlüsseln ist. Auch war die freie Verfügbarkeit der Genomdaten eine wichtige Grundlage der Grundlagenforschung der letzten 10 Jahre. So wenig unmittelbare Erfolge nach 2000 gefeiert werden konnten, umso mehr ist von den nächsten Jahren und Jahrzehnten zu erwarten. Man denke an Beispiele wie die früher so genannte Junk-DNA die von vielen Forschern heute als dunkle Energie der Genetik bezeichnet wird (in Anspielung an die Probleme der Kosmologie die Masse des Universums zu erklären).

Das Beispiel zeigt aber auch tiefer liegende Probleme: Moderner Grundlagenforschung wird in vielen Fachbereichen exponentiell teurer, man denke auch an Teilchen- oder Astrophysik. Was vor hundert Jahren noch eine handvoll Wissenschafter in relativ kleinem Massstab erforschen konnten, benötigt heute tausende Wissenschafter und Milliardenbudgets. Gleichzeitig ergeben sich aus diesen Projekten in der Regel keine kurzfristig nutzbaren und vermarktbaren neue Technologien. Die kurze Aufmerksamkeitsspanne von Öffentlichkeit und Politik, und die immer kürzer werdenden Investitionszyklen der Industrie könnten Grundlagenforschung dieser Art in den nächsten Jahren in Gefahr bringen. Gleichzeitig hat sich in der Geschichte der Wissenschaft aber die eminente Bedeutung der Grundlagenforschung, auch für neue Technologien immer wieder gezeigt. Wachsende Kosten werden  aber zwangsläufig auch dazu führen, dass neue Projekte in immer stärkerer Konkurrenz zu Projekten anderer Disziplinen geraten. Mehr zu diesem Gedanken in meinem letzten Posting.

Dienstag, 16. März 2010

Forschung: Flanieren in die Zukunft?

Ich habe in letzter Zeit mehrmals über Forschungsfinanzierung bzw. die Zukunft der Wissenschaft diskutiert. In diesem Kontext taucht immer wieder eine Frage auf: Wer bestimmt eigentlich die Richtung in die geforscht wird?

In der Theorie ist der  Forscher weitgehend unbeeinflusst und bestimmt selbst die Themen die es wert sind zu untersuchen. In der Praxis trifft dies jedoch aus verschiedenen Gründen nicht zu. Ohne hier zu sehr ins Detail zu gehen, aber nennen könnte man die immer höheren Kosten die Forschungsprojekte (v.a. in den Naturwissenschaften) verursachen. Diese können kaum ohne zusätzliche Projektmittel bewältigt werden. Dazu kommt weiters, dass Reputation heute hauptsächlich über zwei Parameter gemessen wird: (1) Publikation (Anzahl und teilweise auch Qualität der Medien) und (2) Menge der eingeworbenen Drittmittel. Beides ist aber nur (kurz- und mittelfristig) erfolgreich zu bewältigen wenn man einigermassen im Mainstream forscht; denn andernfalls fehlen die Medien in denen man vernünftig publizieren kann sowie die Fördergeber.

Die praktische Konsequenz ist klar: es gibt eine massive Steuerung über (1) Forschungsförderung (oder aber auch gezielte nicht-Förderung, z.B. Kernforschung) und (2) Industrieinteressen. Daraus ergeben sich Forschungs-Mainstreams an denen sich dann auch Konferenzen und Zeitschriften orientieren und die wiederrum neue Forscher anziehen. Warum sind beispielsweise in der Informatik "Ontologien" in den letzten fünf Jahren so ein heißes Thema? Weil es so wesentliche Fortschritte gibt? Weil die Erkenntnisse die Informatik wesentlich weitergebracht hat? Kaum. Natürlich gab es Fortschritte und auch durchaus wesentliche Erkenntnisse, aber keinesfalls in dem Umfang in dem auf diesem Gebiet "geforscht" wird. Genauergesagt wird gar nicht so viel in diesem Kontext geforscht, aber "Ontologie" ist ein cooles Buzzword das sich gut eignet um es auf Forschungsanträge verschiedener Richtung zu kleben. Es ist weich genug, dass man oft in diese Richtung argumentieren kann, es gibt eine Menge an Konferenzen und Forschungsmittel.

Daraus folgt, dass die Richtung in die geforscht wird aktiv von den Rahmenbedingungen beeinflusst wird. Wie aber sollen dann die Prioritäten gesetzt werden? Denken wir an wirklich kostspielige Projekte z.B. in der Raumfahrt oder Teilchenphysik (z.B. CERN)? Hier gibt es fallweise auch durchaus gut begründete Kritik die Schwerpunktsetzung zu verschieben. Denken wir an die großen Summen die in die Raumfahrt investiert wurden und werden; dabei hat die Argumentation durchaus Gewicht, dass wir unser Sonnensystem mittlerweile besser kennen als unsere Ozeane. Ist es gerechtfertigt Unsummen in CERN auszugeben um vielleicht das Higgs Boson zu finden, oder wäre es für unser Überleben nicht doch etwas wichtiger Klima- und Energieforschung ähnlich zu dotieren? Die Mittel sind leider nicht unbegrenzt und Aktivitäten wie CERN oder "Marsflüge" sind wissenschaftlich spannend, aber doch auch unter dem Gesichtspunkt zu sehen, was man alternativ mit den Finanzen hätte ausrichten können.

Diese Argumente hören sich in der Theorie gut an. Das Kernproblem ist aber, dass wir nicht wirklich wissen, welche Kenntnisse und Technologien wir in der Zukunft brauchen werden. Denken wir an die Investitionen in die Raumfahrt in den 60er und 70er Jahren: erst diese Investitionen ermöglichen uns Satellitentechnologien die heute die Grundlagen für Klimaforschung und Ozeanologie liefern. Was aber heute ideologisch nicht opportun ist und nicht beforscht wird, kann mittelfristig massiven Schaden verursachen.

Die Atompanik der 70er und 80er Jahre auf der anderen Seite hat nicht nur dazu geführt, dass es weniger Atomkraftwerke traditioneller Bauart gibt (und stattdessen unsere Stromversorgung zu einem erheblichen Maße durch Kohlekraft erfolgt) sondern vor allem auch dazu, dass Forschung und Entwicklung (auf Universitäten wie in Firmen) fast zum Erliegen gekommen ist. Neue Reaktorkonzepte kommen jetzt mit vielleicht 20 Jahren Verspätung auf den Markt (wenn überhaupt) und gute Forscher sind diesem wichtigen Gebiet abhanden gekommen. Der gute Wille, aber schlecht fundierte Aktionismus der Umweltbewegung in den 70er und 80er Jahren haben also die heutige Misere in der Energieversorgung zumindest mitverursacht. 

Was ist die Lösung? Ich kann leider kein Patentrezept anbieten, ich denke aber dass die oft gescholtene "Giesskannenförderung" nicht unbedingt das schlechteste Rezept sein muss. Wenn es nicht klar ist, welche Erkenntnisse wir in der Zukunft dringend benötigen werden, so sollte man den Blick nicht zu früh einengen. Auch sollte der Trend umgekehrt werden Forschung hauptsächlich durch Projektmittel zu finanzieren. Dies hat immer eine steuernde Wirkung und die Wissenschafter richten die Segel nach dem Wind, nicht nach ihren Ideen oder besserem Wissen (oder sie kleben falsche Etiketten auf ihre Anträge um den Rahmenbedingungen zu genügen). Eine stärkere und langfristigere Basisförderung der Universitäten könnte dem entgegenwirken. Weiters sind Investitionen in eine offene Forschung eine Überlebensversicherung unserer Gesellschaft und sollten entgegen aller Krisen ausgeweitet werden. 

Unter offener Forschung verstehe ich konkret, dass Forschungsergebnisse die mit öffentlichen Mitteln finanziert werden (entgegen aktuellen Trends) keinesfalls patentiert werden dürfen. Je offener die mögliche Verwendung, der Diskurs ist, desto mehr Möglichkeiten bieten sich und desto mehr wird durch die Forschungsmittel bewirkt. Folglich darf die Publikation auch nicht in "abgeschotteten" Magazinen erfolgen; öffentlich finanzierte Forschung sollte so publiziert werden, dass jeder leicht Zugang zu den Ergebnissen erhalten kann (also beispielsweise durch Publikation in Open Access Journalen).

Sonntag, 28. Februar 2010

Publikationsunwesen: Qualität statt Quantität?

Kürzlich lese ich in einem wissenschaftlichen Paper in der Einleitung folgenden Satz:
"We introduced XY in our previous work. We now present the approach in more detail together with its potential applications, describe an implemented full instance of it, and assess its usefulness and performance through a case study."
Dazu zwei Referenzen auf eigene Arbeiten. Hört sich für den Laien vielleicht eindrucksvoll an, was bedeutet das aber in der Praxis? Um das (leicht polemisch) in ein allgemein verständlicheres Deutsch zu übersetzen:
"Das ist das dritte Mal, dass wir dasselbe Zeug publizieren. Im Gegensatz zu den ersten beiden Malen hat diesmal wenistens ein Student die Idee mithilfe eines Prototypen ausprobiert und zumindest oberflächlich überprüft. (Die Male davor hat sich irgendein Kollege etwas aus den Fingern gesaugt und auf zwei Artikel ausgewalzt)."
Mein Problem ist nicht in erster Linie, dass unausgegorene Ideen kommuniziert werden; letztlich mache ich auf diesem Blog nichts anderes. Diskussion unausgereifter Ideen ist auch ein wirklich wichtiger Aspekt wissenschaftlicher Arbeit. Allerdings ist die Frage welches Brimborium darum gemacht wird. Neue Ideen, kaum klar formuliert werden in bombastische Sätze und "wissenschaftliche" Strukturen gepackt um damit in den traditionellen Strukturen publizierbar zu werden. Eine wissenschaftliche Arbeit sollte eine wissenschaftliche Arbeit sein und gewissen Standards unterliegen. Dennoch sind 90% der Arbeiten die ich sehe auf dieser Ebene gelinde gesagt entbehrlich.

Man könnte ja einwenden, dass wir mit modernen Suchmaschinen und Datenbanken die Informationsflut ohnedies unter Kontrolle hat und ein paar Nullaussagen mehr oder weniger kaum ins Gewicht fallen. Dem würde ich zustimmen, allerdings hat die jetztige Praxis einige Probleme:

Es wird "Wertigkeit" vorgegaukelt wo diese nicht gegeben ist. Artikel beispielsweise in diesem Blog werden als Meinungsäußerung, Spiel mit Ideen gewertet, nicht als wissenschaftlich fundierte Aussagen. Das Fabulieren eines Papers aus fragwürdigen Ergebnissen (oder wenig bis keinen Ergebnissen) ist auch harte Arbeit. Diese Arbeit ist gleichzeitig massive Zeitverschwendung, denn die Kollegen wissen ohnedies dass die Arbeit irrelevant ist. Und was noch schlimmer ist: im traditionellen Publikationsprozess liegt der Fokus nicht einmal auf Diskussion der eigenen Ideen. Doppelte Zeitverschwendung also. Trotzdem, obwohl das alle wissen, werden lange Publikationslisten als Bewertungskriterium  für die Leisung von Wissenschaftern herangezogen.

Mit anderen Worten: das Publikationsspiel dient heute im wesentlichen dazu, Arbeitsprotokolle mit hohem Aufwand von Kollegen absegnen zu lassen, damit diese als Beleg der eigenen Arbeit dienen.

Und "hoher Aufwand" ist wörtlich zu nehmen. Es wird ja nicht nur überflüssig Papier produziert, sondern  in der Regel ist diese "Publikationstätigkeit" auch mit überflüssigen Konferenzreisen verbunden. Es werden also nicht nur Scheinergebnisse publiziert sondern diese auch noch vor gelangweiltem Publikum mit großem Aufwand und Ressourcenverschwendung (Flugreisen, Kosten) auf todlangweiligen und irrelevanten Konferenzen vorgetragen (immerhin profitiert die Tourismusindustrie). Irrelevant deshalb, weil die Konferenz als Kommunikationsmedium im Zeitalter des Internets ihre traditionelle Bedeutung einfach verloren hat. Halbgebackene Ideen lassen sich in Foren und Blogs viel besser kommunizieren. Wissenschaftliche Konferenzen mit ihren Sessions und von Powerpoint abgelesenen Folien dienen kaum irgendeiner relevanten Diskussion und Weiterentwicklung von Ideen.

Das soll nicht bedeuten, dass Konferenzen grundsätzlich nutzlos sind. Relevant sind Diskussionen am Rande der Veranstaltung, und in Folge guter Keynotes von tatsächlich hochrangigen Experten. Ich denke, man sollte Blogs, wissenschaftliche Diskussionsforen etc. verwenden um 90% der textuellen Ergüsse aufzufangen. Als Wissenschafter sollte man dann seine Zeit nicht mehr auf 5 oder mehr Konferenzen jedes Jahr verschwenden (es gibt sogar Universitäten die de facto eine bestimmte Zahl von Konferenzbesuchen pro Jahr vorschreiben!), sondern ein oder zwei ausgewählte Konferenzen besuchen. Diese sollten dann auch in einer Form organisiert sein, dass keinesfalls das Vorlesen eigener Präsentationen in Sessions, sondern tatsächlich die Diskussion relevanter Themen (z.B. nach dem Open Space Prinzip) im Vordergrund steht.

Immerhin wird das Problem langsam auch von Förderstellen und wissenschaftlichen Organisationen erkannt. Die deutsche Forschungsgemeinschaft hat angekündigt künftig nur mehr eine handvoll ausgewählter Artikel pro Forscher anzuerkennen. Damit ist es irrelevant ob ein Wissenschafter 5 oder 500 Publikationen hat, denn es dürfen dann eben nur mehr 3-5 bei einem Antrag angegeben werden.

Donnerstag, 28. Januar 2010

Wissenschaft und Technologie! Überschätzte Zukunft?

In der öffentlichen Wahrnehmung von Wissenschaft gibt es aus meiner Sicht ein interessantes Paradoxon, nämlich eine systematische Über- und gleichzeitig Unterschätzung der Möglichkeiten die Wissenschaft in relativ kurzer Zeit bietet, bzw. des Effektes von wissenschaftlicher Erkenntnis auf die Gesellschaft. Wissenschaft und Technologie werden zwar gerne ignoriert wenn es darum ginge rationale und vernünftige (politische) Entscheidungen zu treffen. Andererseits beruft man sich gerne auf die "enorme Innovationskraft" der Wissenschaft und die Möglichkeiten die sie uns in der Zukunft schaffen wird. Damit wird im Prinzip häufig Untätigkeit gerechtfertigt. Warum heute handeln, wenn es doch morgen aufgrund neuer Technologien viel billiger und einfacher sein wird? Vermutlich wird diese übertrieben optimistische Darstellung, v.a. was die Zeithorizonte betrifft auch von vielen Wissenschaftern gefördert.

Ein gutes Beispiel ist die Kernenergie: Fusionskraftwerke werden von vielen Physikern seit den 50er Jahren immer mit dem Zeithorizont "in 30 Jahren verfügbar" angekündigt. "Konventionelle" Atomkraft (basierend auf Kernspaltung) ist etwa seit den 1950er Jahren technologisch unter Kontrolle. 1954 geht das erste russische Atomkraftwerk, 1956 das Kraftwerk Sellafield in Großbritannien ans Netz. Der Optimismus, oder aus heutiger Sicht wohl eher die Phantasie der 1950er und 1960er Jahre ist ebenfalls legendär: Kernkraft würde bald alle anderen Energieformen ablösen und so billig werden, dass man den Verbrauch vielleicht gar nicht mehr messen müsste ("too cheap to meter", Lewis Strauss; dieser Ausspruch ist allerdings meines Wissens nach umstritten und möglicherweise aus dem Kontext gerissen. Es entsprach dennoch der Meinung vieler Menschen der Zeit). Auch Autos würden vielleicht in Zukunft mit kleinen Kernkraftwerken betrieben werden und das Eigenheim sowieso.

2015 soll es tatsächlich Prototypen solcher "Kleinreaktoren" wie bsp. den SSTAR (siehe z.B. Artikel im New Scientist) geben. Dabei handelt es sich um ein versiegeltes System das für etwa 30 Jahre 100MW Leistung bereitstellen soll und dabei nur etwa Dimensionen von 3x15m aufweist. Der Reaktor wird weder gewartet noch wird der Brennstoff nachgefüllt. An dieser Stelle soll nicht über Kernkraft diskutiert werden; spannend sind einfach die oftmals völlig überzogenen Erwartungen, was Wissenschaft und Technologie in kürzester Zeit leisten könnten.

Auch in der individuellen Betrachtung sowie künstlerischen Darstellung gibt es diese verzerrte Wahrnehmung, man erinnere sich beispielsweise an die ikonischen fliegenden Autos die nach Vorstellung von Autoren und Filmemachern die Fortbewegung im 21. Jahrhundert dominieren würden, beispielsweise in Filmen wie "Blade Runner" (Film von 1982, Darstellung von 2019) oder in "Zurück in die Zukunft" (Film von 1989, Darstellung von 2015).

Auf der anderen Seite gibt es aber wesentliche technologische Entwicklungen die sich nahezu vollständig "unter dem Radar" der Bevölkerung entwickeln. Zwei Beispiele:

(1) Das Internet Für die allgemeine Öffentlichkeit ist das Internet erst seit den späten 90er Jahren zu einem wesentliche Faktor geworden. Tatsächlich gehen die grundlegenden Technologien auf die 70er Jahre zurück und wurden seit damals kontinuierlich weiterentwickelt bis es dann erst zum "öffentlichen" Durchbruch in den späten 90er Jahren gekommen ist. Das Internet ist ein typischer Vertreter einer modernen Technologie deren tatsächliches Potential selbst den Entwicklern kaum klar war.

(2) Ein zeitgemäßes Beispiel ist die synthetische Biologie. Kritiker meinen, dabei handelt es sich nur um einen "Rebrand" von konventioneller Gentechnik, dennoch, was hier passiert geht nach meinem Verständnis einige wesentliche Schritte weiter: synthetische Biologie wendet Konzepte die man etwa aus "komponentenorientierter Softwareentwicklung" kennt auf biologische Systeme an (Craig Venter nennt diese Gen-Datenbanken  "components of the future"): Es werden Bibliotheken genetischer Bausteine erstellt die auch schon in dieser Form gehandelt werden und dann zu passenden "Produkten" zusammengesetzt, bzw. bestehende biologische Systeme entsprechend adaptiert werden. Craig Venter  und andere sind bereits in der Lage Zellen mit synthetisierten Chromosomen neu zu programmieren. Hier scheint eine Technologie zu entstehen, deren mögliche Konsequenzen und Anwendungsbereiche ein ähnliches Potential haben wie Sprengstoff, Auto oder Internet. Und dennoch ist dies den wenigsten Menschen heute bewußt.

Allerdings wird auch für die synthetische Biologie wohl ähnliches gelten wie für die anderen angesprochenen Technologien: von ersten sensationellen prototypischen Ergebnisse hin zu Produkten die die Gesellschaft verändern wird noch eine lange Zeit vergehen.

James Lovelock warnt daher auch (im Kontext des Klimawandels) vor überzogenen Erwartungen an neue Technologien; seiner Ansicht nach benötigt jede komplexe Technologie etwa 30 Jahre von den ersten Prototypen bis sie zu einem nennenswerten gesellschaftlichen Faktor werden (siehe z.B. Lovelock im Interview in TechNation). Dies galt für das Auto, das Mobiltelefon (die ersten Autotelefone wurden in den 70er Jahren verwendet, der große Durchbruch der Mobiltelefonie fand nach 2000 statt) und sogar für das Internet. Im besonderen trifft dies für Innovationen zu die erheblicher Infrastrukturmassnahmen bedürfen. Man denke an die Energieversorgung der Zukunft. Kraftwerke werden für Jahrzehnte gebaut und haben entsprechende Vorlaufzeiten; dasselbe gilt große Neuerungen an Stromnetzen.

Warum ist all das für die Gesellschaft wichtig? "Schnellschüsse" und unerwartete Technologien  z.B. im Bereich des Klimawandels oder der Energieversorgung sind nicht zu erwarten. Die Technologien die wir 2020 oder 2030 einsetzen wollen sind jetzt schon grundsätzlich bekannt. Natürlich sind Überraschungen immer möglich (vielleicht "baut" uns die synthetische Biologie ja Bakterien die Kohlendioxid konsumieren und daraus Bio-Treibstoff erzeugen), damit zu rechnen gleicht allerdings  (angesichts der meisten historischen Beispiele) einem russischen Roulett. Wenn wir keinen totalen Zusammenbruch unserer Systeme angesichts massiv steigender Ölpreise und durch die Konsequenzen des Klimawandels riskieren wollen, so sollten wir besser jetzt handeln und dürfen uns nicht auf "Wundertechnologien" der Zukunft hoffend, zurücklehnen. Der Umbau einer etablierten Infrastruktur dauert Jahrzehnte. Es ist keine Zeit zu verlieren!

Zum Abschluss...

Es freut mich, dass Sie sich die Zeit genommen haben, mein Blog zu lesen. Natürlich sind viele Dinge, die ich hier diskutiere aus einem subjektiven Blickwinkel geschrieben. Vielleicht teilen Sie einige Ansichten auch nicht: Es würde mich jedenfalls freuen, Kommentare zu lesen...

Noch ein Zitat zum Schluß:

"Ich verhielt mich so, als wartete ein Heer von Zwergen nur darauf, meine Einsicht in das Tagesproblem, zur Urteilsfindung von Gesellschaft und Politik zu übersetzen. Und nun stellt sich heraus: Dieses Heer gibt es nicht.

Ganz im Gegenteil erweist sich das kulturelle Getriebe als selbstimmunisierend gegen Kritik und Widerlegung. Es ist dem Lernen feind und wehrt sich in kollektiver Geschlossenheit gegen Umdeutung und Innovation.", Rupert Riedl, Evolution und Erkenntnis, Piper (1985)

:-)