Freitag, 17. Dezember 2010

Bücher als "kulturelles Genom der (Wissens)Gesellschaft

In science.orf.at wird von einem Forschungsprojekt berichtet, das zum Ziel hat in einer riesigen Menge von digitalisierten Bücher sogenannte "Culturomics" zu betreiben. Also nach Phrasen, Wörtern etc. zu suchen und deren Entwicklung über die Zeit zu betrachten.

Nach der Lektüre des Artikels muss ich aber zugeben, dass mich eigentlich nur der Titel Bücher als "kulturelles Genom" inspiriert hat. Das halte ich für eine sehr schöne Idee. Besonders wenn man (im wissenschaftlichen) Bereich bedenkt, dass jedes neue Buch ja nur einen (oft sehr) kleinen Teil an wirklich neuer Erkenntnis darlegt. Wenn überhaupt. Der überwiegende Text eines Buches bezieht sich ja in der Regel auf andere Bücher, Gedanken und Aussagen anderer Autoren. Dies ist gar nicht negativ gemeint: Fortschritt bedeutet ja gerade auch die kritische Auseinandersetzung mit bestehendem Wissen. Dieses wird, bildlich gesprochen, in die publizistische Mangel genommen und von verschiedensten Seiten beleuchtet.

In gewisser Weise, und hier komme ich wieder zum Titel des ORF-Artikels zurück, ist ein neues Buch so etwas die das Kind einer Vielzahl älterer Bücher mit einer geringen Menge an neuem. Wenn man das biologistisch formulieren möchte: das neue Buch enthält quasi die Gene (oder besser "Meme") der alten mit einer Handvoll an Mutationen. 

Ist man bereit dieser Logik zu folgen, so müsste es auch möglich sein, diese "Erbfolge" zu analysieren – wenn auch nicht mit so trivialen Mitteln wie der Volltextsuche nach Phrasen. Würde das gelingen, so könnten wir einen Stammbaum der Ideen aufstellen, könnten zeigen wie Konzepte durch die Zeit und "durch" die Autoren wandern, verschwinden, wieder auftauchen. Wir könnten Plagiate erkennen und intellektuelle Spinnereien (z.B. viele der postmodernen Ideen), Bücher also die nur in einer kleinen Gruppe von Autoren "Inzucht" betreiben und sonst kennen nennenswerten Einfluss auf den Rest der (intellektuellen) Welt haben. Und auch, wann und wo wirkliche Innovation geschieht.

Zugegeben, es ist eher unwahrscheinlich, dass ein Algorithmus in der Lage wäre eine solche Analyse vorzunehmen. Schade. Aber das war das Bild das mir durch den Kopf gegangen ist, nachdem ich den Titel gelesen habe. 

Donnerstag, 30. September 2010

Personalisierte Medizin, oder: welchen Wert hat ein Lebensjahr?

Im aktuellen Science Friday wird eine neue Studie vorgestellt, in der personalisierte Medizin thematisiert wird. Konkret geht es um folgende Frage: Stand der Wissenschaft in der Bewertung der Wirksamkeit von Medikamente sind Doppelblindstudien. Diese werden an Gruppen von Patienten durchgeführt, wobei eine Gruppe ein Placebo oder vergleichbares (älteres) Medikament erhält, eine andere Gruppe den vermeintlich besseren, neuen Wirkstoff. Um die Studie nicht durch andere Faktoren zu verfälschen, dürfen weder Arzt noch Patienten  wissen wer welcher Gruppe zugeteilt ist. Ist das neue Medikament entscheidend besser als das alte wird es zumeist zugelassen und kann von Ärzten verschrieben werden.


Es wird allerdings immer klarer, dass es bei verschiedenen Klassen von Wirkstoffen durchaus nennenswerte Unterschiede gibt, wie ein Medikament anschlägt; und zwar abhängig von der genetischen Grundausstattung des jeweiligen Patienten. Dies kann "einfache" genetische Faktoren wie das Geschlecht betreffen, aber auch komplexere nicht so offensichtliche Faktoren.

Nehmen wir an (und scheint immer deutlicher zu werden, dass dies bald der Realität entspricht) es gäbe eine Möglichkeit festzustellen, wie ein bestimmtes Medikament bei einem bestimmten Patienten wirkt. Nehmen wir weiters an (auch dies scheint bereits greifbar zu sein), es handelt sich um ein Medikament, dass eine schwere Krankheit behandelt. Bei einer bestimmten genetischen Gegebenheit ermöglicht dies dem Patienten etwa 2-3 Jahre an weiterer Lebenszeit. In anderen Fällen vielleicht nur 2-3 Monate. Gleichzeitig ist das Medikament äußerst kostspielig und kostet, sagen wir, 100.000 €.

Wer hat nun Anspruch dieses Medikament zu bekommen?

Ist es unethisch zu fragen, wieviel Geld ein Lebensjahr wert ist? Eine solche Frage stößt mit Sicherheit bei den meisten Menschen zumindest auf großes Befremden, wenn nicht starke Ablehnung. Aber drehen wir das Problem einmal um: wenn wir nicht bereit sind diese Frage zu stellen, kommen wir in logischer Konsequenz zu der heute durchaus verbreiteten Ansicht, Geld darf bei Gesundheit keine große Rolle spielen. Wirklich nicht?

Im Prinzip ist dies nur ein Spezialfall einer Diskussion die wir schon heute sehr gründlich führen müssten. Stellen wir uns einen einfacheren Fall vor: es gibt eine Behandlung die 100 Million Euro kostet und einem 90 jährigen Patienten etwa ein weiteres Lebensjahr schenken würde. Würden wir das vertreten? Wenn wir nicht bereit sind die obige Frage zu stellen, muss die Antwort lauten "Ja, selbstverständlich". Denn Leben darf nicht am Geld hängen! In der Praxis wäre das Geld natürlich nicht vorhanden um allen Patienten derartig kostspielige Behandlungen zu ermöglichen. Damit wird die Frage implizit gestellt, selbst wenn wir sie nicht explizit diskutieren wollen. Vermutlich wäre sogar der öffentliche Aufschrei groß, würde eine solche Behandlung gängige Praxis werden. Die Menschen würden sehr schnell feststellen, dass sich die Gesellschaft derartige Ausgaben einfach nicht leisten kann. Gut, aber welche Summe ist nun gerechtfertigt in einem solchen Fall. 1 Million Euro? 100.000? 1.000? Bei einem jungen Menschen mehr als bei einem älteren? Bei einer Mutter mit drei Kindern mehr als bei einem alleinstehenden Mann?

Geld ist eine begrenzte Resource. Oft besteht der Konflikt zwischen der sehr teuren Behandlung eines einzelnen Patienten und der günstigeren Behandlung vieler Patienten. Philosophisch betrachtet die Abwägung zwischen einer streng individualistischen (maximales Wohl für den Einzelnen) gegenüber einer utilitaristischen Betrachtung (maximales Wohl für die größte Zahl an Menschen). Dennoch muss uns klar sein: wir beantworten diese Fragen entweder bewußt oder zwischen den Zeilen, z.B. durch Budget-Restriktionen von Spitälern.

Letztlich haben wir selbst in Europa heute schon längst eine Form der zwei-Klassen Medizin. Das Gesundheitssystem ist schon heute nicht mehr in der Lage die "besten" und teuersten Behandlungen allen Patienten gleichermassen zur Verfügung zu stellen. Gehen wir davon aus, dass Medizin, Wissenschaft und Technologie im allgemeinen auch in den nächsten Jahren vergleichbare Fortschritte machen wie in den letzten Jahrzehnten, so wird sich dieses Problem nochmals drastisch verschärfen.

Das eingangs erwähnte Beispiel der personalisierten Medizin ist nur ein sehr deutliches und transparentes Beispiel wo der Zug hinfährt. Es ist höchst an der Zeit diese Diskussion mit offenen Karten zu führen und nicht der Bevölkerung vorzumachen, es wären unbegrenzte Ressourcen für jedermann vorhanden. Zur Zeit stecken wir den Kopf in den Sand – gleichzeitig werden die finanziellen Mittel bezogen auf immer teurere Behandlungsmöglichkeiten immer knapper. Ärzte und Krankenhausmanagement sehen sich vor dem konkreten Problem im Einzelfall entscheiden zu müssen, wie diese Mittel einzusetzen sind. Dies aber ohne klare gesetzliche und von der Gesellschaft definierte Rahmenbedingungen.

Ich denke, es bedarf keiner großen Phantasie, dass dies kein wünschenswerter Zustand ist. 

Freitag, 17. September 2010

Über Boltzmann, Götter und Atome

Ich habe vor einiger Zeit einen Artikel zum Thema Quantentheorie und "philosophische" Deutungen geschrieben. In diesem Blog-Artikel habe ich mich unter anderem daran gestossen, wie die aus meiner Sicht schlampige Verwendung von Begriffen letztlich zu Verwirrungen in der Deutung von Phänomenen führen können (Welle/Teilchen).

Ich beschäftige mich gerade mit Ludwig Boltzmann, einem der faszinierendsten Wissenschafter des 19./20. Jahrhunderts. Boltzmann hat nicht nur die klassische Physik (Mechanik), von Newton begründet, mit seiner statistischen Mechanik (Thermodynamik) zu einem eindrucksvollen Höhepunkt gebracht. Er hat auch Jahrzehnte vor Plank mit gequantelten Energiemengen gerechnet und kann daher auch als Wegbereiter der Quantentheorie betrachtet werden. Dies sind nur kleine Ausschnitte seiner vielfältigen wissenschaftlichen Beiträgen; Bedeutung hat er aber auch aufgrund seiner offenbar enormen Begabung als akademischer Lehrer erlangt. Zu seinen Schülern zählten unter anderem spätere Kapazitäten wie Svante Arrhenius (Schweden), Walter Nernst (Deutschland) sowie Paul Ehrenfest und Fritz Hasenöhrl (der selbst Lehrer Erwin Schrödingers war). Natürlich ist Boltzmann mit allen Größen der Zeit von Sommerfeld über Mach, Planck, Loschmidt, Helmholtz, Ostwald bis Einstein und vielen anderen in Kontakt gestanden.

Boltzmann setzt sich, und nun komme ich zum eigentlichen Thema, in seinen Schriften aber auch mit dem Begriff des Atoms auseinander. Er gilt ja als eine der treibenden Kräfte der aufkommenden Atomtheorie im ausgehenden 19. Jahrhundert. Dies zu einer Zeit, wo wesentliche "Wortführer" wie etwa Ernst Mach die Atomtheorie noch als bestenfalls für die Chemiker geeignet hielten, nicht aber tauglich für eine ernstzunehmende physikalische Theorie. Ähnliches trifft auch auf Max Planck zu, der erst später sozusagen von einem Anhänger Machs auf Boltzmanns Seite gewechselt ist.

Aber auch Boltzmann setzt sich mit dem Begriff des Atoms kritisch auseinander. Der Begriff stammt ja aus dem antiken Griechenland und wurde von Philosophen wie Leukipp und Demokrit eingeführt. Das griechische Wort atomos bedeutet bekanntlich unteilbar. Die Annahme dieser griechischen Philosophen war also, dass die Materie aus kleinen, nicht weiter teilbaren (atomos) Teilchen zusammengesetzt wäre. 

So sehr auch Boltzmann ein Vertreter des Atomismus war, so war ihm doch klar, dass die Unteilbarkeit und auch Unveränderlichkeit des Atoms keine vernünftigen Annahmen sind. Unteilbarkeit vielleicht ein "Grenzwert" der für bestimmte physikalische Aussagen gültig ist. Die nach 1900 entdeckte Radioaktivität, und später die Quantenmechanik gaben ihm in diesem Punkt recht. In einem Vortrag 1904 sagt Boltzmann:
"Wir werden uns nun (betreffend die Frage nach der atomistischen Zusammensetzung der Materie) nicht auf das Denkgesetzt berufen, daß es keine Grenzen der Teilung der Materie geben könne. [...] Die Rechnung ergibt nämlich, dass die Elektronen noch viel kleiner als die Atome der ponderablen Materie sind, und die Hypothese, dass die Atome aus zahlreichen Elementen aufgebaut sind, sowie verschiedene interessante Ansichten über die Art und Weise dieses Aufbaus sind heute in aller Munde. Das Wort Atom darf uns da nicht irreführen, es ist aus alter Zeit übernommen; Unteilbarkeit schreibt heute kein Physiker den Atomen zu." aus Ludwig Boltzmann. Mensch, Physiker, Philosoph, 1955
Und gerade die letzten beiden Sätze erscheinen mir besonders bedeutsam. In der Wahrnehmung vieler Menschen, auch Studenten und Wissenschaftern, wird nicht bewusst nachvollzogen, dass der Begriff Atom wie wir ihn heute verwenden mit dem Begriff Atom eines Leukipp nicht mehr sehr viel zu tun hat. Wir stimmen insofern noch überein, als die Materie aus Atomen aufgebaut ist, aber andere wesentliche Konzepte wie die Unteilbarkeit, Unveränderlichkeit haben wir längst über Bord geworfen. (Wobei auch der Begriff der Materie...) Damit hat auch der Wortursprung seinen Sinn verloren. Selbst in vielen Grundvorlesungen der Physik oder Chemie, sowie in Lehrbüchern wird der Atomismus auf die historischen Quellen bezogen, aber meist ohne die dramatischen Unterschiede in der Bedeutung des Wortes entsprechend klarzulegen.

Worte werden beibehalten, weil es bequem ist (Atom, Teilchen), weil wir sie schon kennen. Aber gerade in dem "schon kennen" steckt der Samen für Missverständnisse aller Art, wie ich schon im anderen Posting über den "Welle/Teilchen Dualismus" zum Ausdruck gebracht habe. Vor allem dann, wenn man sich jenseits von theoretischen Berechnungen und Voraussagen mit der Bedeutung, dem Wesen der Dinge auseinandersetzen möchte. Mir scheint, dass das heutige Verständnis des Atoms sich so weit von der ursprünglichen Idee entfernt hat, dass ein anderer Begriff spätestens ab der Quantenmechanik und der Entdeckung der Quarks und der vielen anderen Elementarteilchen angemessen gewesen wäre. Was ist eigentlich dieses Atom. Ein kleines festes Teilchen? Sicher nicht. Schon der Begriff des Teilchens verschwindet zusehends, und wird durch Wellenfunktionen, Energie, Wahrscheinlichkeitsbetrachtungen und ähnliches aufgelöst. Es scheint, dass uns gerade dieses letzte unteilbare Teilchen zwischen den Fingern zerrinnt, sich in völlig neuen Konzepten auflöst je näher wir es betrachten.

Wir erleben immer wieder gesellschaftliche, aber auch wissenschaftliche Diskussionen die eigentlich bei näherer Betrachtung Scheindiskussionen sind – Diskussionen um Begriffe deren Substanz sich über die Jahrhunderte verflüssigt haben. Gott ist ein ebensolcher Begriff, wie Richard Dawkins treffend anmerkt. Spricht heute jemand davon "an Gott zu glauben", was bitte meint er damit? Ist der christliche Gott denn dasselbe wie Allah (haben Gläubige einer Konfession überhaupt eine eingermassen konsistente Idee an was sie glaube? ich denke nicht!), wie Thor oder gar wie Zeus? 

Welchen Sinn also macht eine solche Aussage bzw. eine Diskussion die sich um einen Begriff dreht, der eigentlich über die Jahrtausende jede konkrete Bedeutung verloren hat? Und mit Zeus sind wir wieder beim Ursprung angelangt: Sprechen wir da noch vom "guten alten" Atom? Genauso wie die "alten Griechen" mit Sicherheit ein völlig anderes Konzept der Götter hatten (ein viel entspannteres, möchte ich annehmen), so ist deren Idee des Atoms als Inspiration für die Physik des 19. Jahrhunderts tauglich, aber kaum für die moderne Physik.

Montag, 9. August 2010

Das Ende der Universität und andere Dystopien

Kürzlich wurde ich von einem Kollegen via Twitter auf folgendes Interview von Bill Gates hingewiesen. Das Kernzitat dieses Interviews ist folgendes:
"Five years from now on the web for free you’ll be able to find the best lectures in the world," Gates said at the Techonomy conference in Lake Tahoe, CA today. "It will be better than any single university,"
Die Technik- und Internetgläubigkeit hat natürlich auch vor der Lehre nicht halt gemacht. Man erinnere sich an den Hype des "E-Learning" vor etwa 10 Jahren. Völlig überzogene Erwartungen was didaktische Fortschritte betrifft auf der einen Seite, ebenso überzogene Erwartungen was mögliche Einsparungen betrifft, auf der anderen. Langsam ist aber Ernüchterung eingekehrt. Wir haben gelernt, dass das elektronische Verteilen von Skripten und Bücher nicht E-Learning ist, und damit keinen nennenswerten qualitativen Gewinn bringt. Dass aber zur Produktion guter E-Learning Inhalte wesentlich mehr Aufwand in die Erstellung der Inhalte für die neuen Medien investiert werden muss. 

Insofern ist ein Kern an Wahrheit in dem Interview zu finden. Nur wenige können es sich leisten gute (multimediale) Inhalte für Online-Kurse zu erstellen. Auch ist es richtig, dass die prinzipiell verfügbare Information durch das Internet deutlich gewachsen ist. Die Betonung liegt aber auf "prinzipiell". Im übrigen wird dies auch in einem Nebensatz in dem Interview klar gesagt: 
"Well, provided they’re self-motivated learners..." 
Gemeint sind die Studenten. Bildung bedeutet eben gerade nicht Studenten oder Schüler vor den Computer zu setzen und sie mehr oder weniger moderiert sich selbst zu überlassen. Wobei es in der Praxis eher beim "weniger" bleiben wird, bedenkt man wie schlecht schon heute die Betreuungsverhältnisse an den meisten Unis sind. Kritisches Denken, das Hinterfragen und Aufarbeiten von Quellen setzt Vorwissen, eben Bildung und Erfahrung voraus; muss also gelernt und gelehrt werden. Die Studenten dabei sich selbst zu überlassen und zu erwarten, dass dann "magisch" durch die "Macht der Gruppe", oder um einen Hype zu nennen (der zum Glück schon wieder im abklingen ist) durch "Crowdsourcing" gefunden wird, ist bestenfalls eine Illusion.

Ich möchte in einem Punkt nicht falsch verstanden werden: das Internet, neue Medien etc. können in der Ausbildung sehr wertvolle Dienste leisten: durch leichter verfügbare Informationsquellen oder durch Kollaborationsmöglichkeiten oder interaktive Inhalte wie Simulationen. Die Rolle des Lehrers wird dadurch aber nicht unwichtiger sondern im Gegenteil viel wichtiger. Ebenso die Rolle der Universität oder Schule. Das Ergebnis von schlecht betreuten Studentenarbeiten können wir heute an jedem Eck finden: Seminar- und Diplomarbeiten die sich im wesentlichen darauf beschränken die ersten Google Hits zu verwenden oder Absätze aus dem erstbesten Wikipedia-Artikel unkritisch abzuschreiben, oder bei ganz fleißigen: diese immerhin umzuformulieren. 

Es kommt noch ein weiterer sehr problematischer Punkt als Folge von Gates relativ unkritischer Technikgläubigkeit hinzu: die Annahme nämlich, es gäbe "eine beste Vorlesung". Diese würde natürlich nach heutiger Universitätslogik vom MIT, Stanford oder ähnlichen "Eliteuniversitäten" kommen. Mit dieser Annahme wird aber gerade die Kernidee der Universität zumindest ausgehöhlt, wenn nicht zerstört. Es gibt einen guten Grund, warum "Freiheit" in der Lehre immer ein wichtiges Gut war und beispielsweise auch wesentlicher Teil der venia ist. Der Grund ist gerade der, dass es besonders in der Universitätslehre eben häufig nicht eine beste Vorlesung gibt. In der Vielfalt und der kritischen Diskussion liegt die Stärke: Das Internet erlaubt allerdings den motivierteren Studenten die Aussagen ihrer eigenen Professoren mit denen anderer Universitäten abzugleichen und damit zu verorten.

Wahrscheinlicher ist jedoch, dass Gates Vision zum Teil wahr werden wird und es darauf hinausläuft, dass wir die Lehre letztlich völlig aufs Abstellgleis schieben und wir dann vom Studiendekan nur mehr den Hinweis bekommen, es gäbe ja eh eine "super" Vorlesung aus Stanford. Warum verwenden wir nicht einfach diese anstatt uns selbst die Mühe zu machen uns mit dem Thema auseinanderzusetzen.  Damit wird der faule Professor, der schon heute nichts anderes macht als Präsentationen aus dem Internet zusammenzukopieren zur Norm. "Copy and Paste" auf der nächsten Ebene, statt kritischer Evaluierung und Nutzung verschiedenster Quellen. 

Ein tolles Beispiel für die Studenten und eine würdige Vision für die Zukunft der Lehre! Zum Abschluss noch ein weiteres Zitat vom Didaktik-Visionär Gates:
"One particular problem with the education system according to Gates is text books. Even in grade schools, they can be 300 pages for a book about math. "They’re giant, intimidating books," he said. "I look at them and think: what on Earth is in there?"
Nun möchte ich nicht behaupten, dass Schulbücher immer gut sind (ganz besonders nicht in den USA). Hierzu gibt es aber einen wesentlich berufeneren und lesenswerteren Kommentar von Richard Feynman.

Worauf Gates Kommentar aber meiner Ansicht nach hinausläuft ist genau die Bildungsfeindlichkeit die uns heute aus jeder Fernsehserie entgegenschlägt: "Wer braucht schon 100 Seiten Mathematik, zieh dir doch drei YouTube Videos rein, das reicht auch". Unsinn. Lernen ist manchmal schwierig, oft langwierig und eben nicht immer das reine Vergnügen. Wer etwas anderes behauptet lügt sich selbst und seinen Schülern etwas vor. Ja, multimediale Angebote, Spiele, Videos, Simulationen können manches leichter und verständlicher machen; Bücher können verbessert werden, dennoch: Lernen ist eben nicht nur vergnügtes Spielen sondern auch harte Arbeit. Auch das, oder gerade das sollte ein Lehrer vermitteln können. 

Dienstag, 20. Juli 2010

Das Phlogiston, oder Kampf der Theorien

Ich beschäftige mich gerade relativ intensiv mit Wissenschaftsgeschichte, unter anderem mit einem meiner Lieblingsthemen, dem Phlogiston. Ich finde das Thema aus mehreren Gründen spannend, in diesem Artikel sollen aber nicht die chemischen und historischen Details im Vordergrund stehen, sondern vielmehr wie gut Entwicklung und Fall der Phlogiston-Theorie verschiedene in der Geschichte immer wiederkehrende Aspekte des Wissenschafts-Prozesses offenlegt.

Aber ganz kurz aber ein Überblick über die Theorie und einige wesentliche Proponenten: Im 16. und 17. Jahrhundert waren die meisten Konzepte der modernen Chemie, auch solche die heute als Allgemeinbildung gelten, noch völlig unbekannt. Beispielsweise die Existenz der Gase Sauerstoff, Wasserstoff und CO2, oder die Tatsache, dass Wasser eine Verbindung von Wasserstoff und Sauerstoff ist. Auch der Unterschied bzw. Zusammenhang zwischen frei werdender Energie und stofflichen Umsetzungen war nicht klar. Verbrennt Wasserstoff (H2) mit Sauerstoff (O2) zu Wasser (H2O) so kann man dies aus der Sicht der chemischen Reaktion (der stofflichen Umsetzung) betrachten, gleichzeitig aber wird bei dieser Umsetzung  auch Energie frei.

Verbrennung an sich wurde natürlich beobachtet, aber eine Theorie dieses Phänomens fehlte weitgehend. Der deutsche Arzt und Chemiker Georg Ernst Stahl kam zu er Überzeugung, dass bei der Verbrennung etwas entweichen müsse. Diese Substanz nannte er Phlogiston. Daraus folgte unter anderem (1) Stoffe mit hohem "Phlogistongehalt" verbrennen besser als solche mit niedrigerem und (2) die Verbrennung läuft heftiger ab, wenn die Luft weniger mit Phlogiston gesättigt ist.

Diese Theorie war aufgrund der Faktenlage der damaligen Zeit durchaus nicht absurd, und konnte einige Phänomene gut erklären. Problematisch wurde es allerdings ab dem Zeitpunkt, wo Wissenschafter wie Lord Cavendish sowie Joseph Priestley in Experimenten Gase erzeugen konnten die offensichtlich von "normaler" Luft verschieden waren. Cavendish erkannte sogar dass die Verbrennung eines Gases, das er erzeugt hatte Wasser ergab. Das Gas war natürlich Wasserstoff (H2):

2 H2 + O2 ---> 2 H2O

Cavendish und Priestley hatten also vermutlich als erste Wasserstoff und Sauerstoff erzeugt. Allerdings, und an dieser Stelle wird es wirklich interessant, interpretierten Cavendish und Priestley die Ergebnisse nach heutigem Verständnis völlig falsch – eben auf Basis der Phlogiston Theorie. Wasserstoff wurde als "brennbare Luft", Sauerstoff als "enthphlogistierte Luft" bezeichnet. Letzterer nach der Logik, dass die Verbrennung umso stärker ablaufen kann je weniger Phlogiston in der Luft schon enthalten sind.

Selbst die Tatsache, dass die Rückstände mancher Substanzen (beispielsweise von Metallen) nach der Verbrennung schwerer sind als zuvor (weil Metalloxide gebildet werden) löste bei vielen Vertretern der Phlogiston-Theorie keine nennenswerten Zweifel aus. Wäre die Theorie richtig, würde man wohl eher das Gegeteil erwarten: eine Substanz (das Phlogiston) sollte ja die brennende Substanz verlassen, folglich sollten die Rückstände leichter nicht schwerer werden. Einige Vertreter der Phlogiston-Theorie schlugen daher eine negative Masse des Phlogistons vor! Erst Lavoisier (siehe Abbildung rechts) in Frankreich zog die richtigen Schlüsse aus der Vielzahl an Experimenten und verwarf die Phlogiston-Theorie zugunsten der Entdeckung neuer chemischer Elemente. Damit gilt er zurecht als einer der bedeutendsten Naturwissenschafter der Zeit.

Und damit komme ich zum Kern dieses Artikels. Die Phlogiston-Theorie illustriert meiner Ansicht nach eine Reihe von Mechanismen, die in der Geschichte der Wissenschaft – im Wechselspiel zwischen Generationen von Forschern, neuen Experimenten und vorhandenen Theorien – immer wieder zu beobachten sind:

(1) Es liegt ein mangelndes oder falsches Verständnis elementarer Prozesse vor (chemische Elemente, Energieübergänge, chemische Reaktionen)

(2) Ein Phänomen, das auf diesen elementaren Prinzipien aufbaut (Verbrennung), wird zu erklären versucht

(3) Für die Interpretation der Experimente – und das ist einer der wesentlichsten Punkte – ist die etablierte Theorie (Phlogiston) ausschlaggebend. An dieser Stelle wird auch klar ersichtlich, warum rein empirische Ideen nicht funktionieren können: Experimente können nicht im "luftleeren" Raum geplant, durchgeführt und interpretiert werden. Gewisse Ideen über die Natur, das System müssen vorhanden sein um ein sinnvolles Experiment durchführen zu können. Beispielsweise muss ich wissen oder wenigstens die Vermutung haben, dass es "Verbrennung" gibt und dass Substanzen sowie Luft (nach damaligem Wissensstand) daran beteiligt sind. Wie sonst sollte ich auf die Idee kommen Gase zu verbrennen und die Rückstände zu analysieren?

(4) Kommt es infolge dieser Interpretationsversuche zu erheblichen Ungereimtheiten (wie einer Massen-Zunahme bei der Verbrennung von Metallen) erfolgt häufig von den Vertretern der "alten" Theorie (Phlogiston) eine Modifikation derselben. Dies ist zunächst nicht verkehrt. Viele Theorien sind ja nicht sofort obsolet wenn widersprüchliche Erkenntnisse auftauchen, sondern bedürfen entsprechender Korrekturen. Ab einem bestimmten Punkt (Annahme der negativen Masse des Phlogistons, Äther der von der Erde mitbewegt wird usw.) werden die Modifikationen aber geradezu absurd. Und dennoch schaffen es viele Vertreter der alten Schule selbst an diesem Punkt nicht die Grundannahmen zu hinterfragen. Auch im 20. Jahrhundert findet man derartige Beispiele, etwa in der Diskussion zwischen Vertretern der Big Bang und der Steady State Theorie um Fred Hoyle.

(5) Meist folgt dann eine Spaltung in mehrere Lager, die häufig auch noch hart umkämpft sind. Die (meist älteren) Vertreter der "alten" Theorie mit noch größerer Autorität bestimmen häufig die Diskussion für eine Zeit. Lord Cavendish aber auch Joseph Priestley waren bis zu ihrem Tod heftige Verfechter der Phlogiston-Theorie, obwohl sie eigentlich selbst die Grundlage zu deren Ablösung gelegt hatten. Auch kämpfen die (meist jüngeren) Vertreter der "neuen" Theorie noch mit den Unzulänglichkeiten der neuen Theorie. Diese ist oft noch nicht so gut ausgearbeitet und führt damit im Detail oft zu schlechteren Vorraussagen als die (an sich falsche) ältere Theorie. Dies konnte im Streit um die Äther-Theorie aber auch in der Diskussion zwischen Vertretern des geo- und heliozentrischen Systems beobachtet werden.

Entgegen der häufigen Annahme ist es eben nicht so, dass das heliozentrische System einfach besser war und nur durch die Autorität der Kirche unterdrückt wurde. Zwar gab es diese Unterdrückung, aber auch auf rein wissenschaftlicher Ebene erlaubte das über lange Zeit ausgearbeitete geozentrische Modell (wenn auch mit komplexen Planetenbewegungen auf Epizyklen) deutlich bessere Voraussagen als das zunächst noch mangelhafte heliozentrische Modell. Erst die weiteren Modifikationen und Verbesserungen etwa durch Kepler (Ellipsenbahnen, Keplersche Gesetze) brachten dann endlich den wissenschaftlich gerechtfertigten Umschwung.

(6) Auch der Tod ist häufig ein wichtiger Faktor für den Meinungsumschwung in der wissenschaftlichen Community; wie Max Plank es ausdrückte: "Eine neue große wissenschaftliche Idee pflegt sich nicht in der Weise durchzusetzen, daß ihre Gegner allmählich überzeugt und bekehrt werden – daß aus einem Saulus ein Paulus wird, ist eine große Seltenheit – sondern vielmehr in der Weise, daß die Gegner allmählich aussterben und daß die nachwachsende Generation von vornherein mit der Idee vertraut gemacht wird." Ich denke, dass diese Ansicht etwas zu radikal ist, aber die tiefe menschliche Dimension des Fortschrittes von Ideen zeigt.

(7) Der Umschwung: Letztlich erkennt die Mehrheit der Wissenschafter eines Fachbereiches, dass die neue Theorie gegenüber der alten zu bevorzugen ist, bzw. die alte nur ein Spezialfall der allgemeingültigeren neuen Theorie ist. Es tritt eine neuen Phase, oder, wie Kuhn es ausgedrückt hat, ein neues Paradigma in Kraft.

Eine Schlussbemerkung sei trotz des langen Artikels noch erlaubt: Man darf auch nicht vergessen, dass in historischer Betrachtung, also aus unserem heutigen Blickwinkel, manche Streitigkeiten und das Festhalten an bestimmten Ideen lächerlich wirken mag. Derartige Beurteilungen sollten aber mit Vorsicht geschehen. Mit dem Wissen der heutigen Zeit, mit dem Wissen um die konkreten Irrtümer der Vergangenheit, mit dem Wissen um neue empirische Ergebnisse, lässt sich leicht über die "Starrsinnigkeit" Einzelner urteilen. Man darf dabei aber nicht vergessen, dass in der wissenschaftlichen Diskussion laufend irgendjemand irgendwelche "alternative" Theorien vorschlägt. Die meisten dieser Vorschläge sind aber einfach falsch oder unsinnig.

Ein gewisses Beharrungsvermögen ist also durchaus im Sinne des Fortschrittes notwendig. Radikale neue Ideen erfordern auch herausragende Evidenz, besonders wenn sie gegen sehr erfolgreiche vorhandene Theorien antreten wollen. Wäre die Wissenschaft laufend von einer "gut klingenden" Idee zur nächsten gehüpft, wären wir mit Sicherheit nicht an dem Punkt des Wissens angelangt an dem wir uns heute sehen.

Freitag, 7. Mai 2010

25 Jahre "Ozonloch": Ein Modell für den rationalen Umgang mit globalen Bedrohungen?

Ich bin im Rausch der Wissenschaftsjubiläen, diesmal: "25 Jahre Ozonloch". Eine Geschichte mit überraschend gutem Ausgang, die als Beispiel für den Umgang mit dem Klimawandel dienen könnte. Aber zurück an den Anfang: vor genau 25 Jahren wurde das Ozonloch zum ersten Mal in einer wissenschaftlichen Publikation beschrieben. Der Artikel wurde von drei Britischen Forschern des Antarktik-Dienstes in Nature veröffentlicht:
Large losses of total ozone in Antarctica reveal seasonal ClOx/NOx interaction, Nature Vol. 315, 16 May 1985 (PDF)
Dieser Artikel schockierte nicht nur die Forschergemeinschaft. Zwar gab es schon vorher Vermutungen, dass bestimmte industrielle Chemikalien zu einem Abbau von Ozon in der Atmosphäre führen können, aber kaum jemand hatte mit einem derartig starken Verlust der Ozonschicht gerechnet. Wie so oft bei großen wissenschaftlichen Entdeckungen, waren diese drei Forscher allerdings nicht einzigen die diese Beobachtung gemacht hatten. Beispielsweise analysierten auch Forscher der NASA Ozon-Messwerte eines NASA-Satelliten. Sie zögerten allerdings mit der Veröffentlichung der Daten da die Werte zu niedrig zu sein schienen. Da die Kalibrierung von Messgeräten in Satelliten nicht trivial ist, hatten sie zunächst den Verdacht, dass es sich bei diesen Werten um Messfehler handeln könnte. Nach dem Artikel in Nature wurde allerdings den NASA Wissenschaftern klar, dass die Messwerte des Satelliten Nimbus-7 korrekt sein dürften.

Das erste Paper in Nature war wesentlich um das Problem auf die Agenda der wissenschaftlichen Gemeinschaft zu bringen, es war inhaltlich aber nicht ohne Fehler. Vor allen Dingen die luftchemischen Reaktionen wurden erst in den nächsten Jahren von anderen Forscherteams korrekt aufgeklärt. In einem Deutschlandradio Bericht wird der NASA Forscher Rick Stolarski zitiert:
"Joe Farman erkannte als erster, welche Bedeutung die Abnahme des Ozons hat, die er über Jahre beobachtete. Und er brachte sie mit dem Chlor in Verbindung. Darin lag Farman auch richtig. Allerdings: Seine Theorie, wie der Ozonabbau genau abläuft, war alles andere als korrekt. Das haben andere Forscher erst später im Detail aufgeklärt."
Die Entdeckung des Ozonloches war nicht nur eine wissenschaftliche, sondern auch überraschenderweise eine politische Erfolgsgeschichte. Bereits im Jahr 1987 (!), also nur zwei Jahre nach der ersten Publikation in Nature, wurde das Montreal Protokoll unterzeichnet. In diesem Protokoll wurden klare internationale Vereinbarungen getroffen um die Produktion von ozonschädigenden Gasen (im wesentlichen Fluorchlorkohlenwasserstoffe – FCKWs) und deren Ausstoß in die Atmosphäre einzustellen. Diese schnelle Reaktion war darum wichtig, weil in die Atmosphäre eingebrachte Gase dort für lange Zeiträume verbleiben. Selbst ein sofortiger Emissionsstop führt nur zu einem sehr langsamen Abklingen des Ozonabbaus. Der Nobelpreisträger Paul Crutzen erklärt in dem Radiointerview:
"Wir müssen unseren britischen Kollegen sehr dankbar sein, dass die über diese vielen Jahre die Messungen in der Antarktis gemacht haben. Denn hätten die das nicht getan, und hätten wir das Ozonloch viel später entdeckt, hätten wir mit internationalen Maßnahmen noch zehn Jahre gezögert, bin ich ziemlich sicher, dass wir auch in Europa ein Ozonloch gehabt hätten."
Paul Crutzen selbst hat wesentliche Beiträge zur Aufklärung der Atmosphärenchemie geleistet und damit geholfen die Mechanismen die zum Abbau der Ozonschicht führen zu erklären. Für diese wissenschaftliche Leistung erhielt er 1995 gemeinsam mit Mario Molina und Sherwood Rowland den Chemienobelpreis.

Die maximale Ausdehnung des Ozonloches misst die NASA daher auch erst Jahre nach der ersten Entdeckung, nämlich im September 2006. Durch die relativ schnelle Reaktion der Staatengemeinschaft konnte das schlimmste (z.B. eine weitere Ausdehnung des Ozonloches über Europa) verhindert werden. Bis zur Normalisierung der Situation werden trotzdem noch Jahrzehnte vergehen.


Leider scheint sich das gesellschaftliche und politische Klima innerhalb von nur zwei Jahrzehnten gewandelt zu haben. Heute haben wir klare wissenschaftliche Fakten, die auf einen katastrophalen Klimawandel hindeuten. Einen Klimawandel der wahrscheinlich in den nächsten Jahrzehnten keinen Stein auf dem anderen lassen wird. Die Reaktion der Politik aber schwankt zwischen Ignoranz, glatter Leugnung der Fakten und Verzweiflung (bei den wenigen die die Situation tatsächlich erfasst haben). Die Stimmung ist derartig irrational geworden, dass sich mittlerweile Forscher genötigt sehen im angesehenen Wissenschaftsmagazin Science in Form eines Briefes gegen diese Form der Ignoranz, die sogar in Angriffen auf Forscher gipfelt, anzukämpfen. 255 führende Forscher der amerikanischen Akademie der Wissenschaften unterzeichnen diesen Brief (gesamter Brief als PDF):
"We are deeply disturbed by the recent escalation of political assaults on scientists in general and on climate scientists in particular. All citizens should understand some basic scientific facts. There is always some uncertainty associated with scientific conclusions; science never absolutely proves anything. When someone says that society should wait until scientists are absolutely certain before taking any action, it is the same as saying society should never take action. For a problem as potentially catastrophic as climate change, taking no action poses a dangerous risk for our planet."
und weiter:
"Climate change now falls into this category: there is compelling, comprehensive, and consistent objective evidence that humans are changing the climate in ways that threaten our societies and the ecosystems on which we depend. [...]
Society has two choices: we can ignore the science and hide our heads in the sand and hope we are lucky, or we can act in the public interest to reduce the threat of global climate change quickly and substantively. The good news is that smart and effective actions are possible. But delay must not be an option."
Vielleicht wäre es eine gute Idee, 25 Jahre nach der Entdeckung des Ozonlochs, den Umgang mit diesem Problem als Beispiel nehmen wie Wissenschaft, Wirtschaft und Politik zusammenarbeiten können?!

Freitag, 30. April 2010

Das Humangenomprojekt: Wirtschaft, Politik, Wissenschaft

Vor ziemlich genau 10 Jahren, genau gesagt am 26. Juni 2000 wurde die Entschlüsselung des menschlichen Genoms vom damaligen Präsidenten der USA Bill Clinton sowie dem britischen Premierminister Tony Blair bekanntgegeben. Dieser Ankündigung ist ein "Wettrennen" zwischen Labors die hauptsächlich aus öffentlichen Geldern finanziert wurden und der von Craig Venter gegründeten Firma Celera vorangegangen. Interessant in diesem Zusammenhang ist vor allem, dass Celera mit einem Budget von etwa 300 Millionen US$ operierte, das öffentlich geförderte Projekt hingegen über ein Budget von etwa 3 Milliarden US$ verfügte. Auch wenn das Thema natürlich höchst spannend ist (und Craig Venter das damalige finanzielle Ungleichgewicht gerne zum Anlass nimmt seine eigene Überlegenheit in den Vordergrund zu stellen) soll dieser Aspekt hier nicht im Vordergrund stehen. Das Humangenom Projekt ist für mich vor allen Dingen ein gutes Beispiel für die intensive Verschränkung von Wissenschaft, Politik und Wirtschaft in vielen Großforschungsvorhaben. 

In den späten 90er Jahren gab es rund um das Human-Genom Projekt – einem Goldrausch gleich – eine ganze Reihe an Firmengründungen und die meisten dieser Firmen existieren heute nicht mehr. Das Projekt wurde zunächst von vielen als potentielle Goldgrube gesehen und unrealistische Erwartungen an kurzfristige (medizinische) Möglichkeiten die sich durch diese Daten erschliessen waren an der Tagesordnung. Den ersten wirtschaftlichen Dämpfer gab es allerdings schon vor der offiziellen Bekanntgabe der Entschlüsselung, nämlich im März 2000. Bill Clinton gab bekannt, dass sich die Genom-Sequenzen des Menschen nicht patentieren lassen würden. Ein aus wissenschaftlicher und gesellschaftlicher Sicht, wie ich denke, bahnbrechener Entschluss. Mit dieser Ankündigung kollabierten schon die ersten auf Spekulationen aufgebauten Firmen die sich rund um das Projekt gebildet hatten. Auch der Aktienkurs von Venters Celera fiel dramatisch.

Der nächste wirtschaftliche Dämpfer ergab sich in den Jahren nach der "Veröffentlichung" des menschlichen Genoms. Einerseits war die Pressekonferenz im Juni 2000 im wesentlichen eine Polit-Show, denn zu diesem Zeitpunkr war die Sequenzierungnicht einmal abgeschlossen. Andererseits war niemandem so recht klar, was jetzt mit diesen riesigen Datenmengen wirklich anzufangen ist. Damit  ist das Humangenomprojekt nicht nur einem der "üblichen" wissenschaftlichen Hypes, zum Opfer gefallen, sondern durch die Verquickung von Wirschaft, Politik, persönlichen Interessen und Wissenschaft ein em "Turbo-Hype". Man darf nicht vergessen, dass das Projekt in den Jahren und Jahrzehnten vor 2000 große Summen an wissenschaftlicher Förderung sowie an privatem Kapital benötigte. Nun neigen Wissenschafter ohnedies dazu die kurzfristigen Möglichkeiten neuer Erkenntnisse deutlich überzubewerten (und dafür die langfristigen zu unterschätzen). In diesem Fall war der Hype wohl auch "notwendig" und von vielen erwünscht um das benötigte Kapital aufstellen zu können.

Nach 2000 kam dann Katerstimmung auf; die Party war vorbei und es wurde langsam klar, dass sich aus Unmengen von Daten noch keine unmittelbaren Anwendungen erschliessen lassen. Die Aufräumarbeiten nach der Party waren mühsam und langwierig. Viele Firmen die auf kurzfristige Erfolge gesetzt hatten gingen in Konkurs und das Interesse der Politik und der Öffentlichkeit ging deutlich zurück.

Und dennoch sollten die letzten 10 Jahre aus wissenschaftlicher Sicht nicht unterschätzt werden. Nicht nur wurden Sequenzierverfahren dramatisch beschleunigt, sodass heute das gesamte Genom eines Menschen für wenige 1000 Euro zu entschlüsseln ist. Auch war die freie Verfügbarkeit der Genomdaten eine wichtige Grundlage der Grundlagenforschung der letzten 10 Jahre. So wenig unmittelbare Erfolge nach 2000 gefeiert werden konnten, umso mehr ist von den nächsten Jahren und Jahrzehnten zu erwarten. Man denke an Beispiele wie die früher so genannte Junk-DNA die von vielen Forschern heute als dunkle Energie der Genetik bezeichnet wird (in Anspielung an die Probleme der Kosmologie die Masse des Universums zu erklären).

Das Beispiel zeigt aber auch tiefer liegende Probleme: Moderner Grundlagenforschung wird in vielen Fachbereichen exponentiell teurer, man denke auch an Teilchen- oder Astrophysik. Was vor hundert Jahren noch eine handvoll Wissenschafter in relativ kleinem Massstab erforschen konnten, benötigt heute tausende Wissenschafter und Milliardenbudgets. Gleichzeitig ergeben sich aus diesen Projekten in der Regel keine kurzfristig nutzbaren und vermarktbaren neue Technologien. Die kurze Aufmerksamkeitsspanne von Öffentlichkeit und Politik, und die immer kürzer werdenden Investitionszyklen der Industrie könnten Grundlagenforschung dieser Art in den nächsten Jahren in Gefahr bringen. Gleichzeitig hat sich in der Geschichte der Wissenschaft aber die eminente Bedeutung der Grundlagenforschung, auch für neue Technologien immer wieder gezeigt. Wachsende Kosten werden  aber zwangsläufig auch dazu führen, dass neue Projekte in immer stärkerer Konkurrenz zu Projekten anderer Disziplinen geraten. Mehr zu diesem Gedanken in meinem letzten Posting.

Dienstag, 16. März 2010

Forschung: Flanieren in die Zukunft?

Ich habe in letzter Zeit mehrmals über Forschungsfinanzierung bzw. die Zukunft der Wissenschaft diskutiert. In diesem Kontext taucht immer wieder eine Frage auf: Wer bestimmt eigentlich die Richtung in die geforscht wird?

In der Theorie ist der  Forscher weitgehend unbeeinflusst und bestimmt selbst die Themen die es wert sind zu untersuchen. In der Praxis trifft dies jedoch aus verschiedenen Gründen nicht zu. Ohne hier zu sehr ins Detail zu gehen, aber nennen könnte man die immer höheren Kosten die Forschungsprojekte (v.a. in den Naturwissenschaften) verursachen. Diese können kaum ohne zusätzliche Projektmittel bewältigt werden. Dazu kommt weiters, dass Reputation heute hauptsächlich über zwei Parameter gemessen wird: (1) Publikation (Anzahl und teilweise auch Qualität der Medien) und (2) Menge der eingeworbenen Drittmittel. Beides ist aber nur (kurz- und mittelfristig) erfolgreich zu bewältigen wenn man einigermassen im Mainstream forscht; denn andernfalls fehlen die Medien in denen man vernünftig publizieren kann sowie die Fördergeber.

Die praktische Konsequenz ist klar: es gibt eine massive Steuerung über (1) Forschungsförderung (oder aber auch gezielte nicht-Förderung, z.B. Kernforschung) und (2) Industrieinteressen. Daraus ergeben sich Forschungs-Mainstreams an denen sich dann auch Konferenzen und Zeitschriften orientieren und die wiederrum neue Forscher anziehen. Warum sind beispielsweise in der Informatik "Ontologien" in den letzten fünf Jahren so ein heißes Thema? Weil es so wesentliche Fortschritte gibt? Weil die Erkenntnisse die Informatik wesentlich weitergebracht hat? Kaum. Natürlich gab es Fortschritte und auch durchaus wesentliche Erkenntnisse, aber keinesfalls in dem Umfang in dem auf diesem Gebiet "geforscht" wird. Genauergesagt wird gar nicht so viel in diesem Kontext geforscht, aber "Ontologie" ist ein cooles Buzzword das sich gut eignet um es auf Forschungsanträge verschiedener Richtung zu kleben. Es ist weich genug, dass man oft in diese Richtung argumentieren kann, es gibt eine Menge an Konferenzen und Forschungsmittel.

Daraus folgt, dass die Richtung in die geforscht wird aktiv von den Rahmenbedingungen beeinflusst wird. Wie aber sollen dann die Prioritäten gesetzt werden? Denken wir an wirklich kostspielige Projekte z.B. in der Raumfahrt oder Teilchenphysik (z.B. CERN)? Hier gibt es fallweise auch durchaus gut begründete Kritik die Schwerpunktsetzung zu verschieben. Denken wir an die großen Summen die in die Raumfahrt investiert wurden und werden; dabei hat die Argumentation durchaus Gewicht, dass wir unser Sonnensystem mittlerweile besser kennen als unsere Ozeane. Ist es gerechtfertigt Unsummen in CERN auszugeben um vielleicht das Higgs Boson zu finden, oder wäre es für unser Überleben nicht doch etwas wichtiger Klima- und Energieforschung ähnlich zu dotieren? Die Mittel sind leider nicht unbegrenzt und Aktivitäten wie CERN oder "Marsflüge" sind wissenschaftlich spannend, aber doch auch unter dem Gesichtspunkt zu sehen, was man alternativ mit den Finanzen hätte ausrichten können.

Diese Argumente hören sich in der Theorie gut an. Das Kernproblem ist aber, dass wir nicht wirklich wissen, welche Kenntnisse und Technologien wir in der Zukunft brauchen werden. Denken wir an die Investitionen in die Raumfahrt in den 60er und 70er Jahren: erst diese Investitionen ermöglichen uns Satellitentechnologien die heute die Grundlagen für Klimaforschung und Ozeanologie liefern. Was aber heute ideologisch nicht opportun ist und nicht beforscht wird, kann mittelfristig massiven Schaden verursachen.

Die Atompanik der 70er und 80er Jahre auf der anderen Seite hat nicht nur dazu geführt, dass es weniger Atomkraftwerke traditioneller Bauart gibt (und stattdessen unsere Stromversorgung zu einem erheblichen Maße durch Kohlekraft erfolgt) sondern vor allem auch dazu, dass Forschung und Entwicklung (auf Universitäten wie in Firmen) fast zum Erliegen gekommen ist. Neue Reaktorkonzepte kommen jetzt mit vielleicht 20 Jahren Verspätung auf den Markt (wenn überhaupt) und gute Forscher sind diesem wichtigen Gebiet abhanden gekommen. Der gute Wille, aber schlecht fundierte Aktionismus der Umweltbewegung in den 70er und 80er Jahren haben also die heutige Misere in der Energieversorgung zumindest mitverursacht. 

Was ist die Lösung? Ich kann leider kein Patentrezept anbieten, ich denke aber dass die oft gescholtene "Giesskannenförderung" nicht unbedingt das schlechteste Rezept sein muss. Wenn es nicht klar ist, welche Erkenntnisse wir in der Zukunft dringend benötigen werden, so sollte man den Blick nicht zu früh einengen. Auch sollte der Trend umgekehrt werden Forschung hauptsächlich durch Projektmittel zu finanzieren. Dies hat immer eine steuernde Wirkung und die Wissenschafter richten die Segel nach dem Wind, nicht nach ihren Ideen oder besserem Wissen (oder sie kleben falsche Etiketten auf ihre Anträge um den Rahmenbedingungen zu genügen). Eine stärkere und langfristigere Basisförderung der Universitäten könnte dem entgegenwirken. Weiters sind Investitionen in eine offene Forschung eine Überlebensversicherung unserer Gesellschaft und sollten entgegen aller Krisen ausgeweitet werden. 

Unter offener Forschung verstehe ich konkret, dass Forschungsergebnisse die mit öffentlichen Mitteln finanziert werden (entgegen aktuellen Trends) keinesfalls patentiert werden dürfen. Je offener die mögliche Verwendung, der Diskurs ist, desto mehr Möglichkeiten bieten sich und desto mehr wird durch die Forschungsmittel bewirkt. Folglich darf die Publikation auch nicht in "abgeschotteten" Magazinen erfolgen; öffentlich finanzierte Forschung sollte so publiziert werden, dass jeder leicht Zugang zu den Ergebnissen erhalten kann (also beispielsweise durch Publikation in Open Access Journalen).

Sonntag, 28. Februar 2010

Publikationsunwesen: Qualität statt Quantität?

Kürzlich lese ich in einem wissenschaftlichen Paper in der Einleitung folgenden Satz:
"We introduced XY in our previous work. We now present the approach in more detail together with its potential applications, describe an implemented full instance of it, and assess its usefulness and performance through a case study."
Dazu zwei Referenzen auf eigene Arbeiten. Hört sich für den Laien vielleicht eindrucksvoll an, was bedeutet das aber in der Praxis? Um das (leicht polemisch) in ein allgemein verständlicheres Deutsch zu übersetzen:
"Das ist das dritte Mal, dass wir dasselbe Zeug publizieren. Im Gegensatz zu den ersten beiden Malen hat diesmal wenistens ein Student die Idee mithilfe eines Prototypen ausprobiert und zumindest oberflächlich überprüft. (Die Male davor hat sich irgendein Kollege etwas aus den Fingern gesaugt und auf zwei Artikel ausgewalzt)."
Mein Problem ist nicht in erster Linie, dass unausgegorene Ideen kommuniziert werden; letztlich mache ich auf diesem Blog nichts anderes. Diskussion unausgereifter Ideen ist auch ein wirklich wichtiger Aspekt wissenschaftlicher Arbeit. Allerdings ist die Frage welches Brimborium darum gemacht wird. Neue Ideen, kaum klar formuliert werden in bombastische Sätze und "wissenschaftliche" Strukturen gepackt um damit in den traditionellen Strukturen publizierbar zu werden. Eine wissenschaftliche Arbeit sollte eine wissenschaftliche Arbeit sein und gewissen Standards unterliegen. Dennoch sind 90% der Arbeiten die ich sehe auf dieser Ebene gelinde gesagt entbehrlich.

Man könnte ja einwenden, dass wir mit modernen Suchmaschinen und Datenbanken die Informationsflut ohnedies unter Kontrolle hat und ein paar Nullaussagen mehr oder weniger kaum ins Gewicht fallen. Dem würde ich zustimmen, allerdings hat die jetztige Praxis einige Probleme:

Es wird "Wertigkeit" vorgegaukelt wo diese nicht gegeben ist. Artikel beispielsweise in diesem Blog werden als Meinungsäußerung, Spiel mit Ideen gewertet, nicht als wissenschaftlich fundierte Aussagen. Das Fabulieren eines Papers aus fragwürdigen Ergebnissen (oder wenig bis keinen Ergebnissen) ist auch harte Arbeit. Diese Arbeit ist gleichzeitig massive Zeitverschwendung, denn die Kollegen wissen ohnedies dass die Arbeit irrelevant ist. Und was noch schlimmer ist: im traditionellen Publikationsprozess liegt der Fokus nicht einmal auf Diskussion der eigenen Ideen. Doppelte Zeitverschwendung also. Trotzdem, obwohl das alle wissen, werden lange Publikationslisten als Bewertungskriterium  für die Leisung von Wissenschaftern herangezogen.

Mit anderen Worten: das Publikationsspiel dient heute im wesentlichen dazu, Arbeitsprotokolle mit hohem Aufwand von Kollegen absegnen zu lassen, damit diese als Beleg der eigenen Arbeit dienen.

Und "hoher Aufwand" ist wörtlich zu nehmen. Es wird ja nicht nur überflüssig Papier produziert, sondern  in der Regel ist diese "Publikationstätigkeit" auch mit überflüssigen Konferenzreisen verbunden. Es werden also nicht nur Scheinergebnisse publiziert sondern diese auch noch vor gelangweiltem Publikum mit großem Aufwand und Ressourcenverschwendung (Flugreisen, Kosten) auf todlangweiligen und irrelevanten Konferenzen vorgetragen (immerhin profitiert die Tourismusindustrie). Irrelevant deshalb, weil die Konferenz als Kommunikationsmedium im Zeitalter des Internets ihre traditionelle Bedeutung einfach verloren hat. Halbgebackene Ideen lassen sich in Foren und Blogs viel besser kommunizieren. Wissenschaftliche Konferenzen mit ihren Sessions und von Powerpoint abgelesenen Folien dienen kaum irgendeiner relevanten Diskussion und Weiterentwicklung von Ideen.

Das soll nicht bedeuten, dass Konferenzen grundsätzlich nutzlos sind. Relevant sind Diskussionen am Rande der Veranstaltung, und in Folge guter Keynotes von tatsächlich hochrangigen Experten. Ich denke, man sollte Blogs, wissenschaftliche Diskussionsforen etc. verwenden um 90% der textuellen Ergüsse aufzufangen. Als Wissenschafter sollte man dann seine Zeit nicht mehr auf 5 oder mehr Konferenzen jedes Jahr verschwenden (es gibt sogar Universitäten die de facto eine bestimmte Zahl von Konferenzbesuchen pro Jahr vorschreiben!), sondern ein oder zwei ausgewählte Konferenzen besuchen. Diese sollten dann auch in einer Form organisiert sein, dass keinesfalls das Vorlesen eigener Präsentationen in Sessions, sondern tatsächlich die Diskussion relevanter Themen (z.B. nach dem Open Space Prinzip) im Vordergrund steht.

Immerhin wird das Problem langsam auch von Förderstellen und wissenschaftlichen Organisationen erkannt. Die deutsche Forschungsgemeinschaft hat angekündigt künftig nur mehr eine handvoll ausgewählter Artikel pro Forscher anzuerkennen. Damit ist es irrelevant ob ein Wissenschafter 5 oder 500 Publikationen hat, denn es dürfen dann eben nur mehr 3-5 bei einem Antrag angegeben werden.

Donnerstag, 28. Januar 2010

Wissenschaft und Technologie! Überschätzte Zukunft?

In der öffentlichen Wahrnehmung von Wissenschaft gibt es aus meiner Sicht ein interessantes Paradoxon, nämlich eine systematische Über- und gleichzeitig Unterschätzung der Möglichkeiten die Wissenschaft in relativ kurzer Zeit bietet, bzw. des Effektes von wissenschaftlicher Erkenntnis auf die Gesellschaft. Wissenschaft und Technologie werden zwar gerne ignoriert wenn es darum ginge rationale und vernünftige (politische) Entscheidungen zu treffen. Andererseits beruft man sich gerne auf die "enorme Innovationskraft" der Wissenschaft und die Möglichkeiten die sie uns in der Zukunft schaffen wird. Damit wird im Prinzip häufig Untätigkeit gerechtfertigt. Warum heute handeln, wenn es doch morgen aufgrund neuer Technologien viel billiger und einfacher sein wird? Vermutlich wird diese übertrieben optimistische Darstellung, v.a. was die Zeithorizonte betrifft auch von vielen Wissenschaftern gefördert.

Ein gutes Beispiel ist die Kernenergie: Fusionskraftwerke werden von vielen Physikern seit den 50er Jahren immer mit dem Zeithorizont "in 30 Jahren verfügbar" angekündigt. "Konventionelle" Atomkraft (basierend auf Kernspaltung) ist etwa seit den 1950er Jahren technologisch unter Kontrolle. 1954 geht das erste russische Atomkraftwerk, 1956 das Kraftwerk Sellafield in Großbritannien ans Netz. Der Optimismus, oder aus heutiger Sicht wohl eher die Phantasie der 1950er und 1960er Jahre ist ebenfalls legendär: Kernkraft würde bald alle anderen Energieformen ablösen und so billig werden, dass man den Verbrauch vielleicht gar nicht mehr messen müsste ("too cheap to meter", Lewis Strauss; dieser Ausspruch ist allerdings meines Wissens nach umstritten und möglicherweise aus dem Kontext gerissen. Es entsprach dennoch der Meinung vieler Menschen der Zeit). Auch Autos würden vielleicht in Zukunft mit kleinen Kernkraftwerken betrieben werden und das Eigenheim sowieso.

2015 soll es tatsächlich Prototypen solcher "Kleinreaktoren" wie bsp. den SSTAR (siehe z.B. Artikel im New Scientist) geben. Dabei handelt es sich um ein versiegeltes System das für etwa 30 Jahre 100MW Leistung bereitstellen soll und dabei nur etwa Dimensionen von 3x15m aufweist. Der Reaktor wird weder gewartet noch wird der Brennstoff nachgefüllt. An dieser Stelle soll nicht über Kernkraft diskutiert werden; spannend sind einfach die oftmals völlig überzogenen Erwartungen, was Wissenschaft und Technologie in kürzester Zeit leisten könnten.

Auch in der individuellen Betrachtung sowie künstlerischen Darstellung gibt es diese verzerrte Wahrnehmung, man erinnere sich beispielsweise an die ikonischen fliegenden Autos die nach Vorstellung von Autoren und Filmemachern die Fortbewegung im 21. Jahrhundert dominieren würden, beispielsweise in Filmen wie "Blade Runner" (Film von 1982, Darstellung von 2019) oder in "Zurück in die Zukunft" (Film von 1989, Darstellung von 2015).

Auf der anderen Seite gibt es aber wesentliche technologische Entwicklungen die sich nahezu vollständig "unter dem Radar" der Bevölkerung entwickeln. Zwei Beispiele:

(1) Das Internet Für die allgemeine Öffentlichkeit ist das Internet erst seit den späten 90er Jahren zu einem wesentliche Faktor geworden. Tatsächlich gehen die grundlegenden Technologien auf die 70er Jahre zurück und wurden seit damals kontinuierlich weiterentwickelt bis es dann erst zum "öffentlichen" Durchbruch in den späten 90er Jahren gekommen ist. Das Internet ist ein typischer Vertreter einer modernen Technologie deren tatsächliches Potential selbst den Entwicklern kaum klar war.

(2) Ein zeitgemäßes Beispiel ist die synthetische Biologie. Kritiker meinen, dabei handelt es sich nur um einen "Rebrand" von konventioneller Gentechnik, dennoch, was hier passiert geht nach meinem Verständnis einige wesentliche Schritte weiter: synthetische Biologie wendet Konzepte die man etwa aus "komponentenorientierter Softwareentwicklung" kennt auf biologische Systeme an (Craig Venter nennt diese Gen-Datenbanken  "components of the future"): Es werden Bibliotheken genetischer Bausteine erstellt die auch schon in dieser Form gehandelt werden und dann zu passenden "Produkten" zusammengesetzt, bzw. bestehende biologische Systeme entsprechend adaptiert werden. Craig Venter  und andere sind bereits in der Lage Zellen mit synthetisierten Chromosomen neu zu programmieren. Hier scheint eine Technologie zu entstehen, deren mögliche Konsequenzen und Anwendungsbereiche ein ähnliches Potential haben wie Sprengstoff, Auto oder Internet. Und dennoch ist dies den wenigsten Menschen heute bewußt.

Allerdings wird auch für die synthetische Biologie wohl ähnliches gelten wie für die anderen angesprochenen Technologien: von ersten sensationellen prototypischen Ergebnisse hin zu Produkten die die Gesellschaft verändern wird noch eine lange Zeit vergehen.

James Lovelock warnt daher auch (im Kontext des Klimawandels) vor überzogenen Erwartungen an neue Technologien; seiner Ansicht nach benötigt jede komplexe Technologie etwa 30 Jahre von den ersten Prototypen bis sie zu einem nennenswerten gesellschaftlichen Faktor werden (siehe z.B. Lovelock im Interview in TechNation). Dies galt für das Auto, das Mobiltelefon (die ersten Autotelefone wurden in den 70er Jahren verwendet, der große Durchbruch der Mobiltelefonie fand nach 2000 statt) und sogar für das Internet. Im besonderen trifft dies für Innovationen zu die erheblicher Infrastrukturmassnahmen bedürfen. Man denke an die Energieversorgung der Zukunft. Kraftwerke werden für Jahrzehnte gebaut und haben entsprechende Vorlaufzeiten; dasselbe gilt große Neuerungen an Stromnetzen.

Warum ist all das für die Gesellschaft wichtig? "Schnellschüsse" und unerwartete Technologien  z.B. im Bereich des Klimawandels oder der Energieversorgung sind nicht zu erwarten. Die Technologien die wir 2020 oder 2030 einsetzen wollen sind jetzt schon grundsätzlich bekannt. Natürlich sind Überraschungen immer möglich (vielleicht "baut" uns die synthetische Biologie ja Bakterien die Kohlendioxid konsumieren und daraus Bio-Treibstoff erzeugen), damit zu rechnen gleicht allerdings  (angesichts der meisten historischen Beispiele) einem russischen Roulett. Wenn wir keinen totalen Zusammenbruch unserer Systeme angesichts massiv steigender Ölpreise und durch die Konsequenzen des Klimawandels riskieren wollen, so sollten wir besser jetzt handeln und dürfen uns nicht auf "Wundertechnologien" der Zukunft hoffend, zurücklehnen. Der Umbau einer etablierten Infrastruktur dauert Jahrzehnte. Es ist keine Zeit zu verlieren!

Mittwoch, 30. Dezember 2009

Nach Kopenhagen, oder: Das Ende der Aufklärung?

Nach der gescheiterten Klimakonferenz in Kopenhagen wird von vielen Seiten zu Recht diskutiert was die Gründe des Scheiterns, aber auch was mögliche nächste Schritte sein können. Ich habe in den letzten Wochen viele Artikel und Kommentare gelesen und dabei festgestellt, dass aus meiner Sicht ein wesentlicher Aspekt zu wenig Beachtung findet; denn es steht aus meiner Sicht mehr auf dem Spiel als "nur" der Klimawandel.

Wir sind jetzt – nach allem was wir wissen – an einem Punkt angelangt wo wir handeln müssen; jedenfalls dann, wenn wir noch den Rest einer Chance haben wollen global einen mehr oder weniger friedlichen Übergang von der bisherigen ressourcenintensiven Wirtschaft (mit ihren fragwürdigen, ja geradezu dümmlichen Wachstumsideen) hin zu einer nachhaltigeren Gesellschaft zu schaffen.

Die Tatsachen des Jahres 2009 sprechen aber leider eine völlig andere Sprache:
  • die Wirtschaftssystemkrise wurde als solche nicht erkannt und es wurde nur am bestehenden System dilettantisch herumgedoktert
  • die Armutskonferenz wurde von der internationalen Politik nicht einmal ignoriert
  • die Klimakonferenz in Kopenhagen war ein Totalverlust
Daraus ziehen viele wohl nicht zu unrecht eher unerfreuliche Schlüsse: Barry Brook beispielsweise ist grundsätzlich skeptisch, dass wir Menschen solche Probleme rechtzeitig adressieren können. In kurzen Worten zusammengefasst (bzw. in meiner Interpretation) meint Barry Brook, dass wir Menschen nicht in der Lage sind auf Probleme angemessen zu reagieren wenn uns das Wasser nicht (in diesem Fall tatsächlich) bis zum Hals steht. Er meint, dass möglicherweise noch ein, zwei Jahrzehnte vergehen müssen bis der Ernst der Lage auch dem letzten Politiker klar geworden ist. Dann werden wir ähnlich wie im zweiten Weltkrieg die USA auf "Kriegswirtschaft" umstellen und vielleicht 30-60% des BNPs für den Klimawandel und neue Technologien und Strategien einsetzen. Er hegt wohl die Hoffnung, dass es in 10, 20 Jahren zwar wesentlich aufwendiger und teurer werden wird, dass wir aber immer noch die "Kurve kratzen" könnten.

Ich kann diese Ansicht durchaus nachvollziehen. Es wird dabei aber meines Erachtens nach ein wesentlicher Faktor ausgeblendet: Wenn es zu dieser Situation kommt ist es mit internationaler Freundschaft und großen Konferenzen mit demokratischem "Gerede" erst einmal vorbei. Dann gibt es keinen Cent mehr für Entwicklungsländer es sei denn sie sind Teil des neuen Kolonial-Systems.

Der entscheidende Punkt scheint mir also zu sein, dass die Zeit nicht nur wegen des drohenden Klimawandels drängt, sondern vielmehr weil die Kosten des Überganges zwischen zwei Wirtschaftssystemen jetzt vielleicht noch in einem Rahmen gehalten werden könnten der mit demokratischen und zivilisierten Gesellschaften (der Tradition der Aufklärung folgend) bewältigt werden könnte. Verpassen wir diese Chance ist die Wahrscheinlichkeit hoch dass wir nicht nur in ein Jahrhundert der ökologischen Katastrophen eingehen sondern damit auch 200 Jahre an mühsam erarbeiteter und erkämpfter Zivilisation über Bord werfen werden.

Oder in anderen Worten: 200 Jahre mühsam erarbeitete Aufklärung nähern sich einem Ende an. Es wurde hart um jede Errungenschaft gekämpft: für Demokratie, gegen Sklaverei, gegen Kolonialisierung, gegen Kinderarbeit, für soziale Rechte (jedenfalls in Europa, weniger in Entwicklungsländern wie den USA). Viele dieser Grundlagen moderner und zivilisierter Gesellschaften werden ohnedies gerade ausgehöhlt; man denke an moderne Sklaverei beispielsweise durch Prostitution und Kinderarbeit in Entwicklungsländern oder an aktuelle Bestrebungen flächendeckende Überwachung (angeblich gegen Terrorismus) einzuführen.

Ein weiteres Aufschieben von Gegenmassnahmen gegen Klimawandel, Ressourcenverschwendung und Degeneration unserer Umwelt wird vielleicht eine derartige "Kriegswirtschaft" zur Folge haben, aber eine, die wir uns nicht wünschen können. Lang erkämpfte Rechte werden mit einem Strich vom Tisch sein, Neo-Kolonialismus wird das Mittel zum Erlangen wesentlicher Ressourcen werden. China zeigt heute (beispielsweise in Afrika) schon erste Schritte in diese Richtung. (Insofern betreiben die USA eine durchaus rationale Politik wenn Sie global betrachtet für etwa 50% der Rüstungsausgaben verantwortlich sind.)

Ob allerdings Europa dies überleben wird, sei zu bezweifeln. Wir sind nicht autark und militärisch zu schwach. Viel wahrscheinlicher erscheint es mir, dass die Welt zwischen den Blöcken USA und China und zu einem gewissen Grad Russland aufgeteilt werden wird. Und die Chancen stehen schlecht, dass es sich um Gesellschaften handeln wird die wir nach heutigen Massstäben als wünschenswert erachten würden. Schon aus diesem Grund wäre Europa heute gut beraten das Heft in die Hand zu nehmen und nicht auf erste Schritte aus den USA oder China zu warten.

Es steht also meines Erachtens nach keinesfalls "nur" unser Klima auf dem Spiel sondern es droht ein Ende wesentlicher zivilisatorischer Errungenschaften der letzten Jahrhunderte, und dies innerhalb weniger Jahrzehnte; es droht uns ein wenig erstrebenswerter Rückfall in gesellschaftliche Strukturen des 18. oder 19. Jahrhunderts.

Nach Kopenhagen ist daher vor Kopenhagen. Etwas anderes als Mobilisierung aller Kräfte können wir uns nicht leisten, wollen wir unsere Lebensgrundlagen und unsere (noch) demokratischen und weitgehend friedliche Gesellschaften erhalten.

Sonntag, 29. November 2009

Die Zukunft der Wirtschaftswissenschaft

Die letzten Monate zeigen einmal mehr das Totalversagen der Politik in der Bekämpfung wesentlicher globaler Problemen. Das gerade aktuelle Beispiel: Die UN Hungerkonferenz die vor knapp zwei Wochen ohne nennenswertes Ergebnis beendet wurde (siehe z.B. Der Standard, Die Zeit).

Auch die Vorzeichen für die Klimakonferenz in Kopenhagen sind alles andere als gut. Die USA hat gerade eine Reduktion der Treibhausgase um 3% (bezogen auf 1990) angekündigt, die Klimaforschung nennt 40% als notwendiges Ziel. Auch Vertreter anderer westlicher Staaten sowie Chinas zeigen keine nennenswerten Ambitionen. Gerade aber der Klimagipfel zeigt die Dramatik der Lage. Es gibt kaum ein anderes Problem das aus wissenschaftlicher Sicht so klar ist und global massivste Risken aufweist die nur in gemeinsamer Anstrengung (wenn überhaupt) zu bekämpfen sind.

Die Optimisten hatten noch die Hoffnung, dass die Weltwirtschaftskrise eine Chance für Weichenstellungen hin zu einer gerechteren und nachhaltigeren Wirtschaft bietet. Denn offensichtlicher hätte das Versagen bisheriger Wirtschaftspolitik und Wirtschaftswissenschaft ja kaum sein können. Zugegeben, diese Aussage ist etwas polemisch, denn es gab vereinzelt auch Wirtschaftswissenschafter die sich der Problematik bewusst waren, man denke an Elinor Ostrom die heurige Wirtschaftsnobelpreisträgerin. Aber der Mainstream der Wirschafts"wissenschaft" scheint seit Jahrzehnten unbelehrbar und erkenntnisresistent zu sein.

Was ist nun in Folge der Wirtschaftskrise tatsächlich passiert? Es wurden Unsummen investiert; Staaten wie die USA sind mittlerweile derartig überschuldet dass es kaum mehr möglich scheint mit diesen Schulden in irgendeiner vernünftigen Weise umzugehen. Und dennoch, trotz all der Schulden ist die Schere arm/reich in keiner Weise positiv beeinflusst worden. Es wurde keine essentiellen Weichenstellungen für eine gerechtere Zukunft getroffen. Die Manager der Großbanken und Finanzinstituten allerdings haben nach einem halben "mageren" Jahr wieder Spitzen-Gewinne und entsprechende Boni "erwirtschaftet".

Diese Beispiele zeigen zu deutlich das Grundproblem des heutigen Wirtschaftsverständnisses. Wirtschafts"wissenschafter" und Politiker argumentieren häufig in einer Weise die vermuten lässt, das Wirtschaftssystem sei unabhängig von äußeren Beschränkungen. Tatsächlich ist es natürlich so, dass jedes Wirtschaftssystem Teil ökologischer und sozialer Prozesse ist. In nahezu jedem Wirtschaftsszweig werden Energie und Rohstoffe verbraucht und es entsteht Abfall. Von allen wirtschaftlichen Prozessen sind Menschen betroffen. Eine von ökologischen Realitäten losgelöste Betrachtung muss zu Problemen, wenn nicht zu Katastrophen führen. Wir erkennen es heute im Klimawandel, der Rodung von Regenwäldern, Rohstoffknappheit, Verlust an Biodiversität, Zusammenbruch von Fischbeständen, Verschmutzung der Weltmeere, Giftmüll in Entwicklungsländern usw. Eine Nichtbeachtung sozialer Aspekte führt zu erheblichen Ungleichgewichten und Spannungen in der Gesellschaft.

Und trotzdem sind Metriken die diese Faktoren ausser acht lassen die Basis wirtschaftlicher und wirtschaftspolitischer Entscheidungen und Regulative. "Wachstum", meist auch noch exponentielles Wachstum, ist ein Dogma das keinerlei Diskussion erlaubt, und das die fragwürdige Grundlage für politische und wirtschaftliche Entscheidungen darstellt.

ABC Australien hat kürzlich eine Podiumsdiskussion übertragen die sich mit dem Zustand der Welt im Jahr 2050 beschäftigt. Die Diskussionsteilnehmer, Professoren der Univ. Sydney, "spielten" die Rolle verschiedener Verantwortungsträger im Jahr 2050. Prof. Dexter Dunphy (School of Management, Sidney) brachte den Zustand der Wirtschaftswissenschaften auf den Punkt:
"Now, as far as economics is concerned: As a result of major ecological catastrophies and financial catastrophies, economics has been discredited and is now relegated to be a subdisciplin within ecology"
Die Kernfrage dabei: Müssen wir wirklich bis zum Jahr 2050 warten, bis endlich alle erkannt haben, dass sich weite Bereiche der Wirtschaftswissenschaften heutiger "Bauart" disqualifiziert haben? Sie erinnert an eine Chemie die heute, trotz aller gegenteiliger Hinweise immer noch darauf bestehen würde, dass bei Verbrennungen Phlogiston entsteht oder an eine Physik die behauptet dass es doch einen Äther gibt.

Müssen wir tatsächlich warten, bis noch größeren Schaden als bisher angerichtet wird? Wir bräuchten eine seriöse Wirtschaftswissenschaft die sich ernsthaft mit Wirtschaftssystemen auseinandersetzt, dabei aber die Rahmenbedingungen die durch die Natur und soziale Systeme gesetzt sind berücksichtigt. Dafür wäre auch eine grundlegende Diskussion notwendig, in welcher Gesellschaft wir leben wollen und nicht umgekehrt wie wir es seit Jahrzehnten praktizieren: welche Gesellschaftsform Konsequenz der gerade vorherrschenden Wirtschaftsdoktrin ist.

Vielleicht wäre die Biologie und Ökologie wirklich kein schlechter Rahmen dafür. Biologen verfügen wenigstens über die notwendige methodische Schärfe Struktur und Ordnung in komplexe natürliche Systeme zu bringen.

Mittwoch, 30. September 2009

Die unterschätzte globale Bedrohung? Organisiertes Verbrechen

Ich besuche gerade eine Konferenz zu nachhaltiger Entwicklung. In verschiedenen Vorträgen werden Bedrohungen unserer Gesellschaft und Umwelt diskutiert. Auch Korruption wird immer wieder als kritisches Problem thematisiert, das Bestrebungen zu nachhaltigerer Entwicklung behindert. Was mir dann zu denken gegeben hat ist nicht an sich die Tatsache, dass Korruption erwähnt wurde; dies ist ein wesentliches Problem, sondern vielmehr was vergessen wurde, nämlich organisierte Kriminalität. Glaubt man dem Vortrag von Misha Glenny (TED Talk) so hat das weltweite organisierte Verbrechen mittlerweile ein Volumen von 15 % der Weltwirtschaft angenommen. Damit ist das organisiserte Verbrechen eine enorme globale finanzielle Macht geworden.

Gerade in einer globalisierten Wirtschaft ist das Umgehen von Vorschriften leichter als je zuvor. Nun hat das organisierte Verbrechen viele hässliche Gesichter. Die Bilder, die den meisten von uns vermutlich als erstes vor Augen haben sind Frauenhandel und die damit verbunde illegale Prosititution, sowie den Drogenhandel. Weniger offensichtlich aber und (wie ich zynisch formulieren möchte) mit vermutlich viel größerem Potential für die Zukunft sind der Handel mit Resourcen sowie die "Abfallentsorgung".

Schon heute tragen illegale (nicht nachhaltige) Abholzungen wie in Indonesien oder vielen afrikanischen Ländern wesentlich zu einem dramatischen Verlust an Waldflächen und damit auch Zerstörung wertvoller Ökosysteme bei. Sie führt weiters zu erheblichen finanziellen Verlusten der betroffenen Länder z.B. durch Entgang an Steuern. Auch der Handel mit Diamanten oder bestimmten wichtigen Resourcen wie Coltan aus dem Kongo sind eng verflochten mit organisierter Kriminalität (gepaart mit Korruption).

Auch das andere Ende des Lebenszyklus wird immer stärker als lukratives Geschäftsfeld gesehen: Die "Entsorgung" von Abfall. Kürzlich hat ein Skandal in Italien in den Medien Wellen geschlagen. "Für uns bedeutet der Müll pures Gold" wird ein Mafioso zitiert (siehe FAZ). Das Modell ist einfach: Firmen in der Hand der Mafia kassieren Geld für die reguläre Entsorgung von Sondermüll. Statt ordnungsgemäßer Entsorgung wird der Sondermüll aber auf regulären Deponien verscharrt oder ins Meer gekippt.

Betrachtet man eine Zukunft in der (hoffentlich) erheblich höhere Kosten für ökologischer produzierte Resourcen (wie Holz oder Nahrungsmittel) sowie für anfallenden Müll bezahlt, bzw. die Regulative für Produktion und Entsorgung schärfer werden, so ergibt sich daraus natürlich ein stark steigender Anreiz für illegale Aktivitäten aller Art.

Bedenkt man weiters, dass der Kampf gegen illegale Kriminalität in den letzten Jahrzehnten bestenfalls von mässigem Erfolg gekrönt war, so lässt dies keinen sehr optimistischen Ausblick auf die zukünftige Entwicklung zu. Besonders auch deshalb, weil dieses wichtige Thema weder in den Medien noch in internationaler Politik angemessen thematisiert wird (womit wieder die Verbindung zu Korruption interessante Fragen aufwirft).

Donnerstag, 10. September 2009

"Ausgesorgt" - oder "Die Tantiemen des Vaters"

In einem der letzten "Zeitzeichen" Podcasts (mp3) auf WDR5 wurde über den belgischen Autor Georges Simenon berichtet. Im Rahmen dieser Reportage wurde in einem Nebensatz erwähnt, dass die Nachkommen Simenons heute noch gut von den Tantiemen aus dem Buchverkauf leben können.

Dies wurde in dieser Sendung nicht weiter vertieft, ist aber das eigentlich bemerkenswerte: Simenon ist im September 1989, also vor 20 Jahren gestorben. Er hat während seiner Lebenszeit eine Menge Geld mit seinen Büchern verdient, und das soll auch so sein. Wenn er nun seinen Nachkommen Geld hinterlässt so sei ihm dies ebenfalls unbenommen. Wofür ich allerdings keinerlei Verständnis aufbringen kann – und das ist für mich eine klares Versagen unseres Rechtssystems –, dass Kinder noch Jahrzehnte nach dem Tod des Schöpfers eines Werkes an dessen Verkauf verdienen.

Wodurch ist das begründet? Was genau ist die Leistung der Nachkommen? Hier wird Geld aus kreativer Leistung ausgeschüttet das in keinerlei Zusammenhang mehr mit dem Künstler, mit dem Schaffenden steht. Finanzielle Vergütung für eine schöpferische Leistung ist zur reinen Gelddruckmaschine verkommen. Man könnte auch das Beispiel Disney nennen. Auch hier ist der Schöpfer – Walt Disney – schon lange verstorben (1966) und dennoch wird auf Basis des Urheberrechtes Geld verdient. Im Falle von Disney werden immerhin neue Werke geschaffen; im Falle von Simenon nicht einmal mehr das.

Aus meiner Sicht ist das eine Perversion der Idee Kulturschaffenden die Möglichkeit zu geben – durch das Urheberrecht geschützt – an ihren Werken Geld zu verdienen. Natürlich ist es auch ein legitimes Ziel mithilfe des Urheberrechtes (und den dadurch gesicherten alleinigen Verwertungsrechten) zur Schaffung neuer Werke zu motivieren. All dies ist aber nach dem Tod des Künstlers, wie im Falle Simenons nicht mehr gegeben! Ich kann mir vorstellen, dass es gute Gründe geben kann die Urheberrechte noch einige wenige Jahre nach dem Tod aufrecht zu halten; beispielsweise um die Familie abzusichern. Eine Übertragung auf Firmen, und dies nach dazu auf Jahrzehnte hinaus, halte ich für untragbar und kontraproduktiv. Dies führt letztlich nur dazu, dass Innovation gehemmt, die Schaffung neuer Ideen blockiert wird.

Mit der Idee den Werkschaffenden Rechte und finanzielle Perspektiven zu geben hat dies mit Sicherheit nichts mehr zu tun. Heute stützen Urheberrecht und verwandte Rechtsnormen leider im wesentlichen schwerfällige innovationsfeindliche Großkonzerne. Ist es das was wir wirklich wollen? Ich denke, eine radikale Verkürzung von Urheberrechten würde Innovation stimulieren und gerade deshalb auch jungen Künstlern wieder neue Chancen geben.

Donnerstag, 13. August 2009

140 Zeichen, oder die Macht der Beschränkung

Kürzlich wurde in Technometria unter anderem über Twitter und mögliche Nachfolger diskutiert. Unter anderem war die 140 Zeichen Beschränkung ein Thema. Die Ansicht (jedenfalls eines Teilnehmers der Diskussion) war, dass diese Beschränkung natürlich bei Nachfolgern fallen wird, und durch nichts wirklich begründet ist.

Ich stimme zu, dass eine Beschränkung von 140 Zeichen einigermassen willkürlich ist. Auch die Tatsache, dass wir URLs mit URL-Verkürzern wie tr.im zusammenpacken erscheint eigenartig, v.a. darum, weil es eine technische Beschränkung des Twitter Systems ist, das dem Benutzer überantwortet wird. Aber genau das ist eigentlich interessant: Es gab andere Systeme die im wesentlichen für den Austausch von URLs usw. gemacht wurden, und dennoch ist Twitter eine der populärsten sozialen Anwendungen im Netz. Vielleicht gerade wegen dieses geradezu unverschämt trivialen Interfaces? Vielleicht werden zukünftige "Twitter-artige" Systeme über Content-Types verfügen, d.h. der Benutzer kann URLs, Bilder, Videos... verschicken ohne sich selbst um technische Details kümmern zu müssen?

Aber das ist nicht das Thema meines heutigen Postings. Der eigentlich interessante Punkt ist für mich ein anderer: Die Macht der Beschränkung.

Ich bin mir nicht sicher, ob eine Öffnung einer Längenbeschränkung eine gute Idee wäre. Es ist ja nicht so, dass ich keine Möglichkeiten hätte längere Texte zu schreiben. Wenn ich das möchte (so wie ich es hier gerade mache) dann schreibe ich ein Blog-Posting, oder erstelle eine Webseite. Wenn ich Bilder veröffentlichen möchte verwende ich meine Webseite oder Flickr oder ähnliches. Die Beschränkung auf x Zeichen führt aber durch den Zwang seinen Gedanken auf das allerwesentlichste zu verkürzen, und dadurch nur ganz prägnante Aussagen zu erlauben, zu einer ganz anderen Art der Kommunikation.

Daher wird ein Medium dass 140 Zeichen erlaubt andere Inhalte transportieren und eine andere Art der Kommunikation erlauben als ein Medium mit 250, 500 oder unbegrenzter Länge. Gerade die erzwungenen Begrenzung ist für beide Seiten der Kommunikation—für den Schreiber so wie für den Leser—eine soziale Abmachung: Der Schreiber verpflichtet sich in maximaler Dichte zu sagen, was er zu sagen hat, der Leser weiß, dass er nicht mit langen Inhalten konfrontiert/belästigt wird, wenn er an diesen gerade kein Interesse hat. Dieses Versprechen löst ein System mit Beschränkung ein. Hat der Leser an einer konkreten Idee weiteres Interesse kann er den oft beigefügten Links folgen.

Denkt man das weiter, wäre es vielleicht sogar eine interessante Idee die Beschränkungen noch weiterzutreiben. Beispielsweise durch eine maximale Anzahl von Tweets pro Tag. Ich denke hier etwa an 5-10. Ich persönlich überlege es mir immer sehr genau einem neuen Account zu folgen, und sehe mir vorher an, wie häufig der oder diejenige täglich postet, weil ich einerseits gerne eine Vielfalt an Meinungen und Ideen bekomme andererseits aber nicht von einer Person geflutet werden möchte.

Ich halte es für eine prinzipiell interessante Idee für verschiedene Arten der Kommunikation verschiedene Kanäle zu gestalten. Ein beschränkter Kanal ist eine Variante die in ihrer Beschränkung viel Potential hat, unbeschränkte Kanäle sind eine andere mit anderen Möglichkeiten. Daher finde ich es auch nicht sonderlich gut, wenn bspw. RSS Feeds in Twitter umgeleitet werden. Das sind zwei verschiedene Dinge, die nicht vermischt werden sollten.

Donnerstag, 9. Juli 2009

Michael Jackson und die Macht des Gemeinsamen

Gut, vorweg: Michael Jackson interessiert mich nicht. Jedenfalls nicht in diesem Posting. Dieses grundsätzliche Desinteresse meinerseits ist aber wiederrum wesentlich für meinen Gedanken. Denken wir uns eine Woche vor den Tod MJs zurück: MJ war in der öffentlichen Wahrnehmung bestenfalls eine Karrikatur; über sein "Comeback" in Form von Konzertauftritten wurde gelästert, finanzielle Motive unterstellt usw. Seine Medienpräsenz kann, sofern sie überhaupt gegeben war, noch am besten als "Freakshow" bezeichnet werden. Seine Fans? Ja, die gab es einmal; vor 10 oder 20 Jahren.

Dann passiert das "wunderbare": MJ stirbt; noch dazu unter "dramatischen" Umständen, mit Wiederbelebung und allem was dazugehört. Und dann? Genau was zu erwarten war: ein Medien-Erdbeben mit allen Registern. Von den gelben Blättern über Fernsehen und Radio bis zu Twitter , YouTube und Blogosphäre.

Eine ganz ähnliche, inhaltlich natürlich andere Dimension waren die Vorkommnisse im Iran in den letzten Monaten. Auch hier gilt: de facto interessiert sich kaum jemand für den Iran, kaum ist die Twitter-Welle losgebrochen, waren alle ganz fasziniert. Irgendwie spannend, dramatisch.

Warum wähle ich gerade diese beiden Beispiele? Ich denke, weil man gerade an diesen eine der stärksten Impulse des Menschen erkennen kann, nämlich die Gruppe, das Gemeinsame zu suchen. Der Mensch sehnt sich nach Bestätigung und Geborgenheit. Da wir aber nicht mehr in der Kleingruppe rund ums Feuer sitzen, übernehmen moderne Medien und Kommunikationstechnologien diese Rolle. Wenn Millionen Menschen sich über MJ "informieren" oder entsprechene Tweets loslassen, interessiert sie nicht wirklich MJ sondern das Gemeinschaftserlebnis. Plötzlich werden wieder CDs gekauft. Von jemandem, für den kurz zuvor hauptsächlich Spott und Hohn übrig war.

Die Inhalte die "Fernsehen", Radio, Magazine oder "Soziale Netzwerke" übermitteln, das ist meine Theorie, dienen häufig nur als Klebstoff für Gemeinschaft, als gemeinsame Wellenlänge. Man kann sie als "Trägerwelle" der Gruppendynamik sehen, als Trägerwelle die alle möglichen persönlichen Beziehungen transportiert. Und es gilt hier dasselbe wie (technisch betrachtet) bei Funk oder Radio: wir sind nicht an der Trägerwille (100MHz) interessiert, sondern an der darüber transportieren Information.

Die eigentlichen Inhalte (Michael Jackson) in diesen Beispielen sind für die Beteiligten reichlich irrelevant. Die Tatsache, dass es gemeinsame Inhalte sind, und dass jeder "Beteiligte" das Gefühl hat an einem großen Ereignis teilzunehmen ist aber bedeutsam. Wir bedienen uns der Inhalte um über etwas zu sprechen, etwas gemeinsam zu haben, etwas zu teilen, was uns nicht wirklich interessiert, dabei aber unsere Gemeinsamkeit darzustellen und uns auch unserer Zusammengehörigkeit zu versichern. Diese Inhalte sind also die Trägerwelle modernen sozialer Interaktion.

Interessant ist, dass dies heute global, oft in kleineren Subkulturen, manchmal aber auch in solchen Aussbrüchen wie bei MJ stattfindet und nicht mehr im familiären Kreis "ums Lagerfeuer".

Donnerstag, 25. Juni 2009

Österreichische Peak Oil Studie

Bin heute über das Blog Posting des Oekoenergie-Blogs auf eine "Peak-Oil" Studie gestossen, die vom Land Vorarlberg in Auftrag gegeben wurde und vom Österreichischen Ökologie Institut durchgeführt wurde. Das PDF ist frei verfügbar.

Die Studie ist meines Erachtens nach nicht herausragend, auch weil kaum nennenswerte wissenschaftliche Quellen zitiert werden; das Ganze hat eher den Status einer umfangreicheren Seminararbeit wo hauptsächlich populärwissenschaftliche Quellen oder Webseiten von Interessensgruppen zusammengefasst werden. Auch Layout und Typographie ist (wie heute so oft) amateurhaft. Dennoch das Thema wird vergleichsweise umfangreich behandelt und vielleicht findet man, wenn man sich mit dem Thema noch nicht intensiv auseinandergesetzt hat auch noch einige interessante Aspekte (auch solche die sich nicht unmittelbar auf Vorarlberg beziehen).

Ist man des englischen mächtig, ist aber vermutlich "Winning the Oil Endgame" die bessere Variante (dort könnten sich die Autoren auch abschauen, wie man eine Studie schreibt, z.B. Executive Summary, Referenzen, Typhographie). Ebenso in diesem Kontext ist das Buch des englischen Physikers David MacKay eventuell von Interesse (wie das vorige ebenfalls zum freien Download): Sustainable Energy - Without the hot Air. In diesem Buch setzt sich MacKay mit dem Potenzial "alternativer" Energien sehr detailiert, aber gut lesbar auseinander. Dieses Buch hat zwar einen eine UK - Schwerpunkt, der stört aber für grundlegende Überlegungen nicht wirklich. Auch dieses Buch ist übrigens typographisch hervorragend.

Was mich aber sofort gefangen hat, war das Vorwort von Herrn Landesrat Manfred Rein, hier möchte ich einen Satz wörtlich zitieren:
"Was, wenn die These vom globalen 'Peak Oil' tatsächlich einträfe und die technisch förderbare Menge unumkehrbar fallen würde?"
Das ist doch eine ganz besonders drollige Formulierung. "Einträfe". Schöner Konjunktiv, an und für sich. Was will und Landesrat Rein damit zwischen den Zeilen sagen? Wer weiß, ob man diesen dubiosen Wissenschaftern schon trauen darf, vielleicht gibt es Peak Oil ja gar nicht und wir brauchen uns nicht weiter beunruhigen?! Oder interpretiere ich hier etwa doch zu viel hinein?

Montag, 15. Juni 2009

Geo-Engineering II

Wie in meinem letzten Posting angedeutet, scheint das Thema Geo-Engineering als Massnahme im Kampf gegen den Klimawandel an Moment zu gewinnen. Im Wall-Street-Journal findet sich eine Diskussion im wesentlichern zweier bekannter Möglichkeiten: die Injektionen großer Mengen von (Schwefel-) Partikeln in die Atmosphäre, sowie das Erzeugen von Wolken. Der Artikel weist auch ausdrücklich darauf hin, dass Geo-Engineering keine Lösung für den Klimawandel darstellt (also kein technical-quick-fix ist) sondern die Dramatik der Situation uns (wie ich auch in meinem letzten Posting geschrieben habe) vermutlich keine andere Wahl lassen wird als zusätzlich zur Reduktion der Treibhausgas-Emissionen die eine oder andere Variante von GE zur Vermeidung von "Tipping-Points" einzusetzen.

Tipping-point in diesem Zusammenhang meint Grenzwerte des klimatischen Systems die, wenn sie überschritten werden, einen weiteren positiven Rückkopplungseffekt auslösen können. Als Beispiel kann der Verlust des arktischen Permafrostes genannt werden (Methangas-Ausstoß), oder der Verlust großer Eisflächen (vormals weiße Flächen (Eis) zu dunklen Flächen werden und damit wird nochmals mehr Sonneneinstrahlung absorbiert).

Weiters beschreibt der Artikel, wenn auch recht knapp, die politische Dimension jeder Art von Geo-Engineering. Ich würde mir hier eine viel lebendigere Diskussion wünschen. Bedenkt man beispielsweise die leider sehr dürftigen Vorbereitungen (oder hier) der Kopenhagen Konferenz (Japan beispielsweise geht mit einem geradezu lächerlichen Vorschlag der Reduzierung von Treibhausgasen in die Verhandlungen, auch die USA glänzen absolut nicht) dann kann man sich vorstellen, was uns politisch in vielleicht 10 Jahren erwarten wird. Es steht zu befürchten, dass es erst dann wirklich allen klar sein wird dass die Reduktion der Treibhausgase alles andere als ausreichend war, dass wir weitere 10 Jahre mit vermutlich erheblichem Wirtschafts- und damit Emissionswachstum und der Etablierung langfristiger Infrstrukturen (Kohlekraftwerke...) hinter uns und damit eine Menge Zeit und Handlungspielraum verloren haben. Katastrophale Entwicklungen werden möglicherweise vor der Tür stehen und damit Geo-Engineering auf den Tisch kommen. Natürlich weltpolitisch völlig unvorbereitet.

Ich hoffe ich werde auf die eine oder andere Weise eines besseren belehrt.

Dienstag, 5. Mai 2009

Geo-Engineering - Die politische Dimension

In der Diskussion um Möglichkeiten den Klimawandel zu verlangsamen oder die Effekte wenigstens teilweise rückgängig zu machen spielte Geo-Engineering bisher keine sehr große Rolle. Unter Geo-Engineering versteht man kurz gesagt den Versuch die Klima durch technische oder physikalisch-chemische Maßnahmen in großem Maßstab zu manipulieren. Zwar gab es immer wieder kurze öffentliche Aufregung: beispielsweise als der Chemienobelpreisträger Paul Crutzen 2006 die Option diskutierte durch das Einbringen von Schwefeldioxid in die Atmosphäre (auch Pinatubo-Effekt genannt) die Erde abzukühlen. David Keith erklärt diese Option in einem sehr guten TED Talk. Auch das deutsche Forschungsschiff das im März Experimente zur Eisendüngung des Meeres durchgeführt hat (in der Hoffnung, dass durch stärkeres Wachstum des Phytoplankton CO2 aus der Atmosphäre entzogen werden könnte) führte wenigsten in Europe zu einigen hitzigen Debatten.

Trotz vereinzelter Diskussionen, Geo-Engineering wurde, so vermute ich, aus verschiedenen Gründen nicht gerne öffentlich thematisiert: Umweltaktivisten und ein großer Teil der Klimaforscher wollte wohl vermeiden, dass eine breite Diskussion dazu führen könnte, dass man dringend notwendige Maßnahmen der Vorbeugung und Vermeidung gleich bleiben lässt, in der trügerischen Annahme, man könne das Klima schon "reparieren". Vertreter der Wirtschaft sowie Klimaskeptiker wollten wohl nicht als Technokraten dastehen. Ausserdem: würden sie öffentlich über Geo-Engineering reflektieren, würden sie ja damit implizit zugeben, dass der Klimawandel eine Realität ist die sie anerkennen. Die Öffentlichkeit wiederrum führt die Diskussion vermutlich darum nicht, weil die Erkenntnis der massiven Effekte des Klimawandels noch nicht etabliert genug sind, und Geo-Engineering eine so unglaubliche Dimension hat, dass man derartige Pläne nicht ernst nimmt und sie bestenfalls für die Phantasie eines Hollywood Drehbuchautors hält.

Langsam beginnt sich aber die Diskussion aus einer anderen Richtung her zu entwickeln. David Keith hat dies schon angedeutet: Zwei wichtige Punkte werden in der öffentlichen Wahrnehmung doch immer klarer:

  1. Der Klimawandel ist eine Realität, die man nicht mehr leugnen kann und die für verschiedene Regionen der Welt wahrscheinlich verheerende Folgen haben wird.
  2. Verschiedene Geo-Engineering Maßnahmen sind vermutlich billiger und einfacher umzusetzen als man bisher vermutet hat.

Daraus ergibt sich die beängstigende Konsequenz (wie Eli Kintisch in Slate sehr eindrücklich analysiert), dass unter Umständen einzelne Länder bald in der Lage sein werden im Alleingang Maßnahmen umzusetzen die das Klima der ganzen Welt in kurzer Zeit beeinflussen können. Zwar ist nicht anzunehmen, dass etwa Holland oder die Malediven (angesichts steigender Meerespiegel) die notwendige Motivation und Kapazitäten hätten; bei Ländern wie China, Indien oder gar den USA sieht die Sache natürlich schon ganz anders aus.

Ich denke, dass es höchst an der Zeit ist das Thema Geo-Engineering ernsthaft auf verschiedenen Ebenen zu diskutieren und auch die notwendigen Mittel bereitzustellen um eine ernsthafte Forschung zu ermöglichen. Zur Zeit gibt es meines Wissens nach nur wenige Gruppen die an derartigen Fragen ernsthaft forschen. Geo-Engineering wird nach heutigem Stand des Wissens den Klimawandel langfristig nicht aufhalten, bzw. andere Effekte der steigenden CO2 Konzentration wie die Versauerung der Weltmeere nicht verhindern können. Dennoch fürchte ich, wird es selbst bei aggressiven Strategien zur Reduktion der Treibhausgase eine Übergangsperiode geben (u.a. durch die Trägheit der Systeme bedingt) in der kurzfristige Geo-Engineering Maßnahmen sehr vernüftig sein könnten.

Ganz besonders wichtig ist es aber rechtzeitig politische Mechanismen und Verträge zu etablieren, die alle Aktivitäten in diesem Bereich nur unter Abstimmung der Völkergemeinschaft, z.B. innerhalb der UNO zulassen.

Zum Abschluss...

Es freut mich, dass Sie sich die Zeit genommen haben, mein Blog zu lesen. Natürlich sind viele Dinge, die ich hier diskutiere aus einem subjektiven Blickwinkel geschrieben. Vielleicht teilen Sie einige Ansichten auch nicht: Es würde mich jedenfalls freuen, Kommentare zu lesen...

Noch ein Zitat zum Schluß:

"Ich verhielt mich so, als wartete ein Heer von Zwergen nur darauf, meine Einsicht in das Tagesproblem, zur Urteilsfindung von Gesellschaft und Politik zu übersetzen. Und nun stellt sich heraus: Dieses Heer gibt es nicht.

Ganz im Gegenteil erweist sich das kulturelle Getriebe als selbstimmunisierend gegen Kritik und Widerlegung. Es ist dem Lernen feind und wehrt sich in kollektiver Geschlossenheit gegen Umdeutung und Innovation.", Rupert Riedl, Evolution und Erkenntnis, Piper (1985)

:-)