Freitag, 15. Juli 2011

Das Ende des Buches?

Kürzlich stellte Mike Matas ein E-Book der nächsten Generation in einem TED-Talk vor. Dabei handelt es sich um eine iOS-Anwendung, also ein Programm, das auf dem iPad und iPhone läuft. Dieses "Buch" ist eine Fortsetzung von Al Gore's Inconvenient Truth mit dem Titel Our Choice. In dem Buch, eigentlich sollte man sagen, in dem Programm gibt es verschiedenste multimediale Elemente, die uns die Problematik des Klimawandels deutlich machen soll. Ein wichtiges Thema, ein neuer Ansatz. Als Geek ist man natürlich sofort einmal von dem neuen Ansatz begeistert. Mit großem Verve stellt dann auch der Entwickler die Features dieses Buches der nächsten Generation vor. Dabei macht er im wesentlichen Werbung für seine Plattform. Wir dürfen also auf weitere Bücher dieser Art hoffen (?). Tolle Animationen beim Umblättern, eingebettete Videos und nicht zu vergessen, spielerische Elemente, wo Wissen Hands On vermittelt werden soll. Besonders begeistert zeigt er die Anwendung, wo der "Leser" in das Mikrofon des Gerätes bläst, damit sozusagen virtuellen Wind erzeugt, der dann in der Anwendung Windräder zum drehen bringt. Das hat mich natürlich sofort überzeugt. Vorher war mir nicht klar, dass Windräder durch Wind zum Drehen gebracht werden! Eine wesentliche und neue Erkenntnis.



Das Buch 2.0?

Aber ernsthafter: Handelt es sich bei diesen Anwendungen tatsächlich um das Buch 2.0? Ist das "alte" Buch – damit meine ich weniger Text auf gedrucktem Papier, als vielmehr Text, langen Text – eine aussterbende Gattung? Werden wir alle demnächst nur mehr solche multimedialen Produkte konsumieren? Je länger ich mich mit diesem Thema beschäftige, desto mehr bezweifle ich die Sinnhaftigkeit dieser Multimedia-Explosionen. Dabei möchte ich nicht falsch verstanden werden: ich habe nichts gegen Videos, Spiele, Abbildungen und Animationen, ich denke aber dass die Kombination zumindest problematisch, wenn nicht sogar kontraproduktiv ist.

Die Stärken konventionellen Lesens 

Gehen wir zunächst einen Schritt zurück. Was sind Stärken von längerem Fliesstext und, wenn man so möchte, von altmodischem Lesen, die nicht durch andere Techniken kompensiert werden können? Zunächst können wir die Lesegeschwindigkeit nach eigener Vorliebe variieren. Manche Teile eines Buches – vor allem eines Sachbuches – überfliegen wir nur, andere lesen wir langsam, mehrfach, mit Pausen. Gerade diese selbstbestimmten Pausen, Rücksprünge, Variationen des Tempos sind wesentlich, weil sie ein Reflektieren und Nachdenken ermöglichen. Dies ist beim Konsum eines Podcasts oder Videos nicht leicht möglich. Davon abgesehen, dass Videos in der Regel schneller geschnitten, und in der Produktion schon auf geringere Aufmerksamkeitsspannen entworfen sind. Auch das schlichte und beständige Format eines Textes ist für die längerfristige Arbeit mit Inhalten sehr wichtig. Sie ist leicht durchsuchbar (zumindest bei E-Books), annotierbar, und überlebt auch neue Software- und Gadget-Generationen. Ich möchte nachdrücklich bezweifeln, dass dieses neue Al Gore Buch auch in 10 Jahren noch in irgendeiner vernünftigen Form zugänglich sein wird. Ein konventionelles Buch erlaubt, oder man könnte sagen erzwingt auch die längere Beschäftigung mit einem Thema. Die Beschäftigung die in der Intensität über das Browsen und Surfen, das Anspringen und überfliegen von Informationen und YouTube Videos weit hinausgeht.

Anachronismus oder zivilisatorisches Fundament?

Sollten heutige Generationen von Jugendlichen tatsächlich das längere Lesen verlernen, so trauere ich dieser Fähigkeit nicht nur in einem nostalgischem Sinne nach. Ich denke vielmehr, dass wir eine elementare zivilisatorische Fähigkeiten verlieren würden. Eine Fähigkeit, die in Schulen zu vermitteln wesentlich wichtiger wäre als der Umgang mit Computern.

Denn dieser Umgang mit Information, die aus traditionellen Buchformaten gewonnen wird, kann meines Erachtens nach keinesfalls durch andere Formate (Video, Simulationen etc) ersetzt, durchaus aber ergänzt werden. Videos oder Podcasts können einen Einstieg, einen Überblick in ein Thema liefern, dass dann bei Interesse im Buch vertieft wird. Auch umgekehrt: bestimmte Sachverhalte lassen sich in Videos oder Animationen leichter darstellen und ergänzen damit die Basis-Information eines Buches.

Die Rache der Multimedia-CDs

Aber wo ist nun das konkrete Problem dieses "neuen" Buches. Immerhin gibt es auch in diesem Buch längere (?) Texte? Ich denke, die Kernfrage ist, ob eine Vermischung dieser verschiedenen Darstellungsformen sinnvoll ist um Inhalte zu vermitteln? Im Prinzip sind diese Applikationen das "Second Coming" der Multimedia-DVDs und CDs der 90er Jahre. Wenn wir uns zurück erinnern kann man die Produkte dieser Phase, denke ich, sehr einfach zusammenfassen: sie sind allesamt grandios gescheitert. Wir haben sie vergessen, aus der Erinnerung verdrängt, und das aus gutem Grund.

Einerseits sind diese Produkte zumeist weder Fisch noch Fleisch. Warum? Schon die Erstellung guter Texte ist enorm viel Arbeit. In einem gut recherchierten Sachbuch stecken – das weiß ich mittlerweile aus eigener Erfahrung – Jahre an Arbeit. Das Erstellen guter Animationen, Spiele oder Videos erfordert nochmals einen zumeist dramatisch unterschätzen Aufwand. Daraus folgt: wenn das Ganze nicht eine wirklich teure Produktion eines großen Teams ist, bleibt meist mindere Qualität an allen Stellen übrig. Die Konsequenz ist klar: es gibt sehr wenige einigermassen gut gemachte Produkte, die aber nur wenige, populäre Themenbereiche behandeln. Denn aufwändige Produktionen müssen sich auch gut verkaufen. Die meisten Produkte sind aber zwangsläufig eher willkürliche Kollagen zweitklassiger Videos und Animationen, zusammengehalten von fragwürdigen Texten, aber dafür mit aufwändigen grafischen Elementen und Animationen. Schliesslich will man das Ding verkaufen, und der ersten Eindruck zählt hier mehr als die Details. Ich erinnere mich noch mit Schaudern an die Qualität der Multimedia CDs. Weiters ist es sehr schwierig Konsistenz über alle diese Darstellungs-Elemente zu erreichen und diese auch für weitere Auflagen zu warten.

Systematische Verwirrung

Das alles sind aber hauptsächlich prozedurale Aspekte, es gibt noch ein viel wichtigeres grundlegendes Problem: selbst wenn das Produkt hochwertig gemacht sein sollte, und selbst wenn man kein Problem damit hat auf einem Gerät wie dem iPad konzentriert längere Texte zu lesen (was ich schon einmal stark bezweifeln möchte) ist die Struktur der Vermischung problematisch, denn audiovisuelle Elemente ziehen immer die Aufmerksamkeit auf sich. Die Folge ist, dass die Leser (die man eigentlich nicht mehr Leser nennen sollte) diese Bücher wohl bestenfalls überfliegen, und de facto nur von Video zu Video springen, denn schon reizt das nächste bunte Element. Man sieht 30 Sekunden Video hier, liest einen Satz dort und bläst in das Mikrofon um eine völlig banale Simulation zu starten. Die Meisten werden diese Anwendung wohl überhaupt nur verwenden, um dem sozialen Umfeld ihre Geek-Sein zu demonstrieren, und zu zeigen, wie "cool" Bücher heute sind (und öffnen das Ding abseits solcher Demo-Sessions überhaupt nicht mehr).

Die Problematik beobachte ich an mir selbst im Grunde schon bei reich illustrierten Büchern. Man ist fasziniert von den großformatigen Illustrationen, blättert von Seite zu Seite springt quer durch das Buch und glaubt am Ende das Buch gelesen und etwas gelernt zu haben. Tatsächlich hat man sich nur oberflächlich abgelenkt. Es scheint (Achtung: jetzt kommt eine amateur-psychologische These), dass wir als Menschen kaum in der Lage sind stark unterschiedliche Sinnesreize gleichzeitig konzentriert wahrzunehmen, beziehungsweise  schnell zwischen diesen zu wechseln. Passiert dies häufig, verlieren wir im ständigen Wechseln unsere Aufmerksamkeit. Wir springen, browsen, kommen aber nicht mehr in den Modes konzentrierter Beschäftigung mit dem Inhalt. 

Fazit

Mein Fazit daher: das Buch als Textwüste, idealerweise in gedruckter Form, oder in Form eines durch Multimedia-Spektakel-freien E-Book-Readers, hat unbedingt Zukunft. Andere Formate wie Sprach-Podcasts, Videos, Animationen, Simulationen, Vorleseungen und Vorträge, Übungen etc. haben ihren eigenen, aber anderen Wert, der aber keinesfalls in der Lage ist, Informationsvermittlung, Diskurs und Arbeit mit neuem Wissen über längere Texte zu ersetzen. Sollte das Buch tatsächlich an Bedeutung verlieren, so verlieren wir nach meiner Überzeugung nicht etwa ein anachronistisches Medium. Wir verlieren den Prozess ernsthafter Auseinandersetzung mit Wissen. Einer Auseinandersetzung, die nicht in Twitter-Geschwindigkeit (und entsprechend oberflächlich), sondern mit Argumenten erfolgt, deren Darlegung auch einmal einige Seiten in Anspruch nehmen können.

Freitag, 24. Juni 2011

Wachstum in den Untergang (am Beispiel der Werbeindustrie)

Die Werbeindustrie ist für mich ein schönes Beispiel für eine Branche, die an und für sich gänzlich überflüssig ist. Sobald aber ein Unternehmen beginnt Werbung zu machen, ist der Startschuss für das Wettrüsten gefallen und alle anderen müssen mitziehen. Die Konsequenz: immer höhere Summen müssen ausgegeben werden, nur um auf gleicher Höhe zu bleiben. Man schreit sozusagen um die Wette und je lauter der allgemeine Lärmpegel, desto lauter muss der nächste schreien um überhaupt noch wahrgenommen zu werden. Eine Branche die Unsummen vergeudet, jedermann belästigt, und darauf auch noch stolz ist. Hut ab.

Nun ist aber die Belastbarkeit von Konsumenten begrenzt, und man sieht wie immer mehr die Möglichkeit suchen diese Belästigung zu reduzieren. Was mich betrifft, sehe ich beispielsweise seit Jahren nicht mehr fern (unter anderem wegen der Werbe-Belästigung), in den USA werden wohl TiVos gekauft um Fernsehen möglichst ohne Werbeunterbrechung sehen zu können. Ad-Blocker im Browser schaffen sich viele nicht wegen unaufdringlicher Werbung an, sondern wegen ekstatisch aufdringlichen Flash-Explosionen. Was ist die Konsequenz der immer intensiveren Werbung? Irgendwann platzt den Kunden der Kragen. Entweder werden bestimmte Webseiten gar nicht mehr angesurft oder es werden Ad-Blocker installiert. Ab dieser Installation aber, wird überhaupt keine Werbung mehr ausgeliefert. Zum Schaden der Seitenbetreiber. Eine positive Feedback-Schleife, die das System letztlich gegen die Wand fährt.

Altpapier (from Stéfan@flickr)
Ein sehr schönes Beispiel aus der "alten" Werbewelt konnte ich im letzten Jahr in meinem Wohnhaus beobachten. Seit Jahrzehnten bekommen alle Parteien Werbematerialien per Post und per "Sackerl" an die Wohnungstür geliefert. Die Menge war aber über lange Jahre erträglich. In den letzten Jahren hat die Zahl der Werbesendungen aber nach meiner Beobachtung stetig zugenommen. Zuletzt waren auch zwei Werbesendungen pro Tag an der Tür und Massen an Werbematerial im Postfach die Regel, nicht die Ausnahme. E-Mail Spam ist nichts dagegen. Die erste Konsequenz ist offensichtlich: früher habe ich noch einzelne Sendungen gelesen oder zumindest durchgesehen, zuletzt ist alles sofort ungelesen ins Altpapier gewandert. Hier fallen unfassbare Papiermengen pro Haushalt an und werden sofort, ohne irgendeinen Nutzen zu stiften, mit dem Müll entsorgt. Dies ist nicht nur eine offensichtliche ökonomische Verschwendung, sondern auch aus ökologischer Sicht unerträglich.

Mit diesem Mengen haben es die Werber dann offenbar zu weit getrieben: Ich war einer der ersten im Haus, der Aufkleber an Postfach und Tür angebracht hat, um diese Werbezusendungen abzustellen. Innerhalb eines Jahres haben nun von vorher 0 Parteien, 11 von 12 Hausparteien einen solchen Aufkleber angebracht. Mit anderen Worten: unser Haus ist de facto werbefrei. Verlust auf der ganzen Linie für die Werbebranche – und nicht nur ein temporärer Verlust! Denn wer kommt schon in den nächsten 10 Jahren auf die Idee, diese Pickerl wieder abzunehmen? Es wurde ein Lärmpegel überschritten, der letztlich dazu geführt hat, dass nun niemand mehr (auf dieser Werbeschiene) an den Konsumenten herankommt. Aus Sicht der Werbetreibenden also ein systemisches Versagen auf der ganzen Linie.

Nebenbei bemerkt ist es auch interessant, die Psychologie der Menschen zu beobachten. Offenbar ist bei allen der Leidensdruck über die Jahre gestiegen. Es mussten aber erste Vorreiter mit den "Pickerln" beginnen, und dann begann die Phase der Imitation, mit zunehmender Geschwindigkeit, bis letztlich alle die Seite gewechselt haben.


Dieses Beispiel zeigt aber auch ein fundamentalere Problematik menschlicher Gesellschaften: Systeme, die massive Kooperation benötigen, wo sich aber gleichzeitig von Einzelnen leicht einen Vorteil verschaffen lässt wenn sie nicht kooperieren, sind leider zum Scheitern verurteilt. Alle Werbetreibenden hätten dramatisch gewonnen, wenn sie die Werbelast auf 1-2 Sendungen pro Woche beschränkt hätten. Eine solche konzertierte Vorgehensweise scheint aber in der Praxis nicht zu funktionieren. Dieses prinzipielle Versagen ist leider auch bei wichtigeren Themen, z.B. im Klimaschutz zu beobachten. Ein Grund, warum ich der Ansicht bin, dass wir auf dieser Ebene auch nicht voran kommen werden. Leider. Kollektive Intelligenz ist in menschlichen Gesellschaften eben die Ausnahme, nicht die Regel. 

Dienstag, 21. Juni 2011

Sending Messages faster than with Speed of Light using Quantum Entaglement?

A warning in the beginning: I am not a Quantum Physicist, I am merely an interested observer. Thus, this text is a question rather than a statement, and I would be happy to receive some critical comments. But let's dive in:

Quantum particles can be entangled, meaning, that pairs of them can be seen as one physical system. As soon as the quantum state collapsed for one particle, e.g. due to measurement, the other particle also "collapses" to a specific quantum state. This usually happens much faster than light would need to overcome the distance between the particles – as far as I understand – nearly immediately after the first measurement. Even over large distances.

An electron can take spins of 1/2 or -1/2. If two entagled electrons are produced, one is measured and the value taken is -1/2 we know that the state of the other electron is 1/2. As mentioned, the surprising fact is, that this process can happen over large distances and the corresponding collapse of the state happens immediately, thus "faster than the speed of light". The common wisdom is, though, that this does not allow communication faster than the speed of light. One reason is, that we cannot foresee which value the first particle will take. Both collapse at the same time and with opposite, but not predictable values.

Now to my thought experiment: Assume, we can produce more than one entangled pairs of particles. Additionally, we define (for encoding purposes) that a spin of -1/2 corresponds with 0 and +1/2 with 1 (in the case of electrons).  Now we produce a number of entagled particles, wait until they are in a large distance, say one light year apart. 

The goal is to transmit the number 42 to the other side. 42 is in binary form 101010. We cannot define the outcome of the measurement of the next particle, but we know, that whatever the outcome might be, the value on the other side is deterministic the opposite. Then we collapse the series of particles on one side using the following strategy: 
  • If the currently measured value corresponds with the desired number that should be sent, we measure the next particle within 1 second (or some other arbitrary, but previously defined duration). 
  • If the currently measured value doe not correspond with the next bit to be sent, we wait 2 seconds. Thus, the receiver can judge by the interval of the collapses whether the current value should be considered or ignored. In my example:

current value | duration after measure | value recorded
  0:                2s                     ignored
  0:                2s                     ignored
  1:                1s                     --> 1
  1:                2s                     ignored
  0:                1s                     --> 0
  1:                1s                     --> 1
  0:                1s                     --> 0
  0:                2s                     ignored
  1:                1s                     --> 1
  0:                3s                     --> 0 
  1:                                       eof
  ...

And the binary number 1-0-1-0-1-0 (3 second is supposed to be a stop-signal indicating the end of the message) can be reconstructed.The whole duration of the sending process, in this simple example took 15 seconds. (Of course under the assumption of very slow intervals between measurements.) If the distance between the two particles is larger than 15 light seconds plus the time needed for the collapses to happen after the measurements, the message transmission would have been faster than the speed of light. The actual encoding of the message is done using the intervals of the measuring process with the help of the fact, that the quantum systems produce some sort of a stream of random numbers.

Now my question to professional physicists: Assuming that something is wrong with my idea: Why would this thought experiment not work? Which wrong assumption am I making.

Samstag, 7. Mai 2011

David Hume: 300 Jahre Aufklärung

Wenn Sie die Möglichkeit hätten, einen Abend mit einer historischen Persönlichkeit zu verbringen, wen wählen Sie aus?

Interessanterweise würden viele zeitgenössische Philosophen den schottischen Philosophen der Aufklärung, David Hume nennen, und dafür gibt es gute Gründe. Hume war nicht nur ein bedeutender Philosoph der Aufklärung, Agnostiker, Skeptiker, Historiker, Wissenschaftstheoretiker und, nach allem was wir wissen, keineswegs ein trockener Langweiler, sondern vielmehr ein unterhaltsamer, gut gelaunter, durch und durch sympathischer Zeitgenosse. David Hume gilt vielen als Leuchtturm der Aufklärung und Wegweiser in ein neues Zeitalter. Viele der nachfolgenden Wissenschafter, von Kant bis Darwin bauen auf seinen Ideen auf. Liest man Hume in der heutigen Zeit kommt man oft ins Staunen wie modern sich viele seiner Ideen lesen.

Der Mensch, David Hume

Beginnen wir am Anfang. Vor 300 Jahren, am 7. Mai 1711 wird David Home in Schottland geboren. Home wird im schottischen wie Hume ausgesprochen und so ändert er seinen Namen – offensichtlich ist ihm die Aussprache seines Namens wichtiger als die Schreibweise – in Hume. David Hume wächst in einer Familie mit sehr traditionellen katholischen Wurzeln auf. Vergessen wir weiters nicht, dass zur Zeit seiner Kindheit noch Hexenverbrennungen stattfinden. Alles in allem kein Umfeld in dem man erwarten würde, dass ein liberaler Freigeist heranwächst. So führen seine Einstellungen auch zu Konflikten in der Familie. Er geht nicht mehr in die Kirche und streitet sich mit seinem Onkel über "Wahrheit" in der Bibel.

David Hume
(Bild von Wikimedia Commons)
Hume interessiert sich von früher Jugend an für Wissenschaft und Philosophie, hört vermutlich von den Naturrechtslehren des Grotius aus Holland und von den beginnenden Naturwissenschaften (die damals noch als Naturphilosophie bezeichnet wurden) aus England, wo Isaac Newton und Francis Bacon zu den bestimmenden Denker der Zeit zählen. Neben den Wissenschaften gilt sein Interesse den Klassikern wie Cicero oder Horaz. Zwar besucht er die Universität, er inskribiert Jus im Jahr 1731 in Edinburgh, studiert dies aber nur mit geringem Interesse und erlangt keinen Abschluss. Für ihn steht nun fest, dass er Philosoph werden möchte.

David Hume verbringt in mehreren Aufenthalten relativ viel Zeit in Frankreich. Er schätzt die Franzosen im Allgemeinen, und die französischen Intellektuellen der Zeit im Besonderen. In der Jugend studiert in Frankreich die Werke Lockes und Berkeleys. Bereits als anerkannter Philosoph reist er in späteren Jahren als Sekretär des britischen Botschafters wieder nach Frankreich (cherchez la femme...) und ist in Paris ein gern gesehener Gast bei verschiedensten gesellschaftlichen Ereignissen – "rauschende Feste lösten einander ab". Er war mit vielen der Intellektuellen Frankreichs sehr gut befreundet, z.B. mit D'Alambert, dem er auch in seinem Testament eine erhebliche Geldsumme vermacht. Ein Konflikt mit Rousseau, dem er hilft nach England zu kommen, schlägt erhebliche Wellen, ist aber wohl auf den schwierigen Charakter Rousseaus zurückzuführen.

Zu Beginn seines Lebens muss er sich noch mit verschiedenen "Jobs" herumschlagen um seinen Lebensunterhalt zu verdienen, unter anderem als Hauslehrer, und wird auch aufgrund seiner liberalen Gedanken von einigen Stellen abgewiesen. Eine Episode dieser Zeit zeigt den Charakter Humes sehr deutlich: nach vielen Ablehnungen erhält er letztlich den Posten eines Bibliothekars. Diese Position ist für ihn auch darum sehr hilfreich, weil er für seine Studien unmittelbaren Zugang zu Literatur hat. Eine seiner Funktionen besteht auch im Ankauf von Büchern. Als er (französische) Bücher bestellt, die einigen konservativen Kräften als gotteslästerlich erscheinen, gerät er in Schwierigkeiten. Hume trägt diesen speziellen Konflikt zwar nicht aus sondern gibt klein bei, entscheidet sich aber, dass es ihm nicht mehr möglich ist, die Entlohnung für seine Tätigkeit als Bibliothekar zu behalten. Er verbleibt in dem Posten, gibt sein Gehalt aber einem blinden und mittellosen Dichter.

Zu seinem Lebensende war Hume wohlhabend, unter anderem auch darum, weil er sich nach seinen philosophischen und ethischen Abhandlungen als Historiker betätigte. Die in sechs Bänden erschienene Geschichte Englands war auch kommerziell äußert erfolgreich und ermöglichte ihm ein sorgenfreies Leben. Für viele Zeitgenossen galt Hume daher auch hauptsächlich als Historiker, nicht als Philosoph. An seinem Lebensabend drängt ihn selbst der König, er solle seine Geschichte Englands fortsetzen. Hume aber antwortet, er sei inzwischen zu alt, zu dick, zu faul und zu reich geworden.

Heute steht, trotz seiner bemerkenswerten Leistung als Historiker, mit Sicherheit seine Philosophie im Vordergrund.

Die Philosophie Humes

1731 schreibt er in einem Brief: "Ich fand, dass die aus der Antike überlieferte Moralphilosophie unter demselben Mangel litt, der schon in der Naturphilosophie gefunden wurde, nämlich gänzlich spekulativ zu sein und mehr auf Erfindung als auf Erfahrung zu beruhen." Und dieser Kampf gegen das spekulative, gegen die Metaphysik, gegen die "großen" philosophischen Ideen der Zeit, die viel versprechen aber wenig in der Realität verankert sind, bestimmen den größten Teil seiner Karriere. Seiner Ansicht nach soll Wissenschaft auf genauer Beobachtung begründet sein. Er betrachtet aber (in ganz moderner Weise!) auch die Natur des Menschen, die Psychologie, und deren Einfluss auf unsere Wahrnehmung, Beobachtung, Erkenntnis und davon abgeleitete Theorien. Seine Abneigung gegen die etablierte metaphysischen Vorstellungen bringt er in einer oft zitierten Aussage zum Ausdruck:
"If we take in our hand any volume; of divinity or school metaphysics, for instance; let us ask, Does it contain any abstract reasoning concerning quantity or number? No. Does it contain any experimental reasoning concerning matter of fact and existence? No. Commit it then to the flames: for it can contain nothing but sophistry and illusion."
"Wenn wir irgendein Buch in die Hand nehmen; beispielsweise eine theologische oder metaphysische Schrift; so lasst uns fragen: enthält das Werk abstrakte (logische) Beweisführungen, die Zahlen oder Größen betreffen? Nein. Enthält es Beweisführung auf der Grundlage von Experimenten, die sich auf Tatsachen und Seiendes beziehen? Nein. Dann übergib es den Flammen: denn es kann nichts enthalten als Sophisterei und Blendwerk." [eigene Übersetzung]

Induktion und Empirismus

In der Wissenschaftstheorie wird Hume häufig mit John Locke und George Berkeley als Empiriker bezeichnet. Dies stimmt nur zum Teil. Sein Ausgangspunkt war wohl eine empirische Sicht der Welt, die er aber auch in vielen Aspekten kritisiert. Was genau ist nun unter Empirismus zu verstehen? John Locke schrieb etwa: "Nichts ist im Verstand, was nicht vorher in den Sinnen gewesen wäre." Diese Aussage schliesst passt sehr gut zu dem oben erwähnte Zitat Humes, der immer die Bedeutung der Beobachtung, den Bezug zur Realität betont. Aber damit nicht genug: Wir beobachten ebenfalls wie eine Sache der anderen folgt und schließen daraus Kausalität. Drücken wir wiederholt auf einen Knopf und es läutet immer eine Glocke, so folgt für uns, dass das drücken der Glocke ursächlich (also kausal) mit dem Läuten verbunden ist, dieses also verursacht. Solche Schlussfolgerungen sind nicht nur die Basis unseres Alltages sondern im Prinzip auch die Basis der Wissenschaft.

Auf eine gewisse Weise erfinden wir also kausale Abhängigkeiten aus zeitlichen Abfolgen. Aus Regelmässigkeiten entwickeln wir Erwartungshaltungen über das Verhalten des Systems in der Zukunft. Hume stellt sich dann aber die Frage: ist dies tatsächlich ein logisch gültiges Fundament für (wissenschaftliche) Erkenntnis?, und muss korrekterweise feststellen, dass wir aufgrund dieser zeitlichen Abfolge keinen Beweis auf die tatsächliche kausale Verbindung dieser Ereignisse ableiten können. Genauer gesagt, gibt es keine logische Notwendigkeit die aus einer Abfolge eine Kausalität ableiten ließe. Es spricht nichts prinzipiell dagegen, dass beim 100. Mal drücken des Knopfes die Glocke nicht läutet, oder der eine Billiard-Ball den zweiten nicht wie die 100 Male zuvor wegschlägt. Es gibt keine logische Notwendigkeit für diese Verhalten, die Welt könnte sich auch völlig anders zeigen.

Hume gilt damit als einer der ersten Kritiker der Induktion, mit der sich Karl Popper im 20. Jahrhundert  wieder sehr intensiv auseinandergesetzt hat. Induktion ist nur das kompliziertere Wort dafür, dass wir (als Wissenschafter) Dinge, Regelmässigkeiten, Abläufe beobachten und von diesen – vielleicht auch sehr vielen – einzelnen Beobachtungen Regeln und Gesetze ableiten. Wir erwarten dann, dass diese Regeln auch in der Zukunft gelten.

Worauf aber ist die Induktion selbst begründet? Hume stellt fest, dass die einzige Begründung der Induktion darin liegt, dass sie in der Vergangenheit funktioniert hat, und wir daher erwarten, dass sie auch in der Zukunft funktioniert. Dies ist aber selbst wieder eine Anwendung der Induktion, also ein Zirkelschluss.

Damit legt Hume den Grundstein für eine wichtige Erkenntnis moderner empirischer (Natur)wissenschaft: jede Erkenntnis kann immer nur vorläufig als richtig gelten, und kann prinzipiell nicht bewiesen werden, wenn sie auf empirischen Daten beruht. (Dies gilt nicht für Mathematik und Logik, da diese nicht auf empirischen Daten beruhen.) Karl Popper macht dies anhand des Beispiels der "schwarzen Schwäne" deutlich. Bis zur Entdeckung, dass es in West-Australien schwarze Schwäne gibt, galt das weiße Gefieder als fundamentales Merkmal von Schwänen. Dies wurde in Europa immer und immer wieder (induktiv) "bewiesen". Bis zur Entdeckung der schwarzen Schwäne in Australien. Die Entdeckung eines einzelnen schwarzen Schwans macht also eine Theorie im Prinzip ungültig. (In der wissenschaftlichen Praxis ist die Situation zumeist deutlich komplexer, aber die grundlegende Idee lässt sich so veranschaulichen).

Nordamerikanischer Truthahn
(Foto Wikimedia Commons)
Auf den britischen Philosophen des 20. Jahrhunderts Bertrand Russel geht folgende berühmte Illustration Humes Kritik zurück: Der Bauer gibt dem Truthahn jeden Morgen einen Eimer voll Korn. Je öfter dies passiert umso sicherer wird der Truthahn (induktiver Schluss), dass dies von nun an jeden weiteren Morgen so vor sich gehen wird. Mit jedem weiteren Tag steigt daher seine Sicherheit – bis zu jenem unseligen Weihnachtsmorgen, an dem der Bauer an Stelle des Eimers die Hacke mitbringt...

Hume soll aber nicht falsch verstanden werden: Wissen kann zwar immer nur vorläufig gültig sein, er lehnt aber weder Empirie noch Induktion als wissenschaftliche Methodik, oder als Praxis im Alltag ab. Beide Prinzipien gehören zu den besten Mechanismen die wir kennen um neues Wissen zu gewinnen und bestehende Erkenntnis zu prüfen. Er betont nur, dass wir aus empirischen Erkenntnissen keine logisch zwingenden Theorien ableiten oder diese gar beweisen können.

Die Haltung Humes könnte man als gemäßigten Skeptizismus bezeichnen: Es werden alle Formen des Dogmatismus abgelehnt, wir sollten uns auf der Basis der Erfahrung und Beobachtung auch in der Zukunft orientieren, aber immer offen bleiben unsere Ansichten im Lichte neuer Erkenntnis zu revidieren oder anzupassen.

Wunder benötigen Glauben, und Glaube benötigt Wunder

Hume bleibt bis an sein Lebensende energischer Gegner von Irrationalitäten aller Art und argumentiert sehr umfangreich gegen den damals (und auch noch heute bei manchen) beliebten Glauben an Wunder. Denn letztlich steht immer Aussage gegen Aussage: Die eine Aussage ist die eines lange etablierten durch eine enorme Vielzahl an Beobachtungen und eine Vielzahl an Experimenten und Anwendungen gestärkten Naturgesetzes. Auf der anderen Seite steht die Aussage oft unzuverlässiger Einzelner, die vielleicht sogar noch Eigeninteressen haben. Auch erkennt er, dass Individuen und Gruppen sehr leicht Irrtümern aller Art unterliegen können. Er vertritt daher (klarerweise im Gegensatz zur Kirche) die Ansicht, dass es in der Geschichte kein einziges glaubwürdiges Wunder gab. Er kann als geistiger Vater der Aussage die Carl Sagan bekannt gemacht hat gelten: "Spektakuläre oder herausragende Behauptungen benötigen auch herausragende Beweise."

Humes Ansicht über Religion und Glauben war zweifellos kritisch, aber nicht so eindeutig ablehnend wie die seiner französischen Freunde, z.B: von D'Alembert. Viele der französischen Intellektuellen waren Atheisten. Diese Haltung hat Hume aber bis zuletzt abgelehnt. Man könnte ihn vermutlich am besten als Agnostiker, radikalen Skeptiker und Kritiker fragwürdiger Ideologien und Moralvorstellungen bezeichnen. Er schreibt er in der Naturgeschichte der Religion:
"Sie [die Gläubigen] rechnen sich den blinden Glauben als Verdienst an und verbergen durch die stärksten Beteuerungen und den eifrigsten Fanatismus ihren tatsächlichen Unglauben vor sich selbst"
Er stellt auch die gängigen Gottesvorstellungen in energischen Zweifel und schreibt am Ende eines ungeheuer eindrucksvollen Textes, den er in Form eines Dialoges verfasst:
"Auf Epikurs alte Frage gibt es immer noch keine Antwort: Ist er [Gott] willens, aber nicht fähig, Übel zu verhindern? Dann ist er ohnmächtig. Ist er fähig aber nicht willens? Dann ist er boshaft. Ist er sowohl fähig als auch willens? Woher kommt dann das Übel."
Dazu kommt noch, dass schlechte Dinge sowohl guten als auch bösen Menschen gleichermassen widerfahren. Er geht auch auf das bist heute noch gängige Argument vieler Gläubiger ein: Natürlich würden auch im Namen der Religion immer wieder Schandtaten begangen – man mag nur an die lange Geschichte der Grausamkeiten der katholischen Kirche zurückdenken – aber dies wäre ja nicht die tatsächliche Religiosität, sondern fallweise Verirrungen. Hume schreibt dazu,
"Die wahre Religion hat, das räume ich ein, keine solchen verderblichen Konsequenzen. Doch wir müssen die Religion so nehmen, wie sie gewöhnlich in der Welt vorkommt."
Er formulierte auch in seiner Ethik einen Gedanken, der bis heute Gültigkeit hat: es galt die Meinung, dass moralische Einsichten auf Vernunftgründen basieren, und diesen Vernunftgründen Handlungen folgen. Hume aber erkennt, dass Vernunftgründe das menschliche Handeln nicht bestimmen. Moralische Einsichten können das Handeln zwar beeinflussen, sie begründen die Handlungen aber nicht alleine. "Sittlichkeit wird also viel mehr gefühlt als beurteilt".

Hume, der Darwinist?

Charles Darwin
(Foto Wikimedia Commons)
In dem Dialog über natürliche Religion entwickelt er eine Idee, die man als Vorläufer der Darwinschen Frage sehen könnte, wie Ordnung und Struktur in die Welt des Lebendigen kommt. Er schreibt:
"Es ist deshalb müssig, immer wieder auf die Nützlichkeit der einzelnen Tiere oder Pflanzen, sowie auf ihre erstaunliche Anpassung aneinander hinzuweisen. Ich möchte gerne wissen, wie ein Lebewesen existieren könnte, wenn seine Teile nicht in dieser Weise angepasst wären. Finden wir nicht, dass es sogleich eingeht, wenn diese Anpassung aufhört? [...] Und kann man nicht auf diese Weise den Anschein von Weisheit und Planung, wie ihn das Universum bietet erklären?"
Ich finde es faszinierend, wie er die wesentliche Konsequenz einer Theorie vorwegnimmt, die erst etwa 100 Jahre später von Charles Darwin gelegt wird. Die Idee nämlich, unser Universum bräuchte keine Planung und Weisheit, sondern könnte das Ergebnis natürlicher Prozesse sein. Eine Erkenntnis die – so selbstverständlich sie 150 Jahre nach Charles Darwin eigentlich für jedermann sein sollte – immer noch von vielen Gläubigen zwar ohne vernünftige Argumente, dafür umso heftiger bestritten wird. David Hume würde die Diskussion die heute immer noch über Kreationismus geführt wird – auch wenn er sich unter verschiedenen Deckmänteln wie Intelligent Design tarnt – wohl kaum für möglich gehalten haben.

Zu behaupten, dass David Hume Darwins Evolutionstheorie vorweggenommen hätte geht allerdings mit Sicherheit viel zu weit. Mir ist auch nicht bekannt, ob Charles Darwin David Hume gelesen hat. Unwahrscheinlich ist es jedoch nicht. Denn besonders nach Humes Tod galt er als einer der bedeutendsten Philosophen der Zeit. Aber selbst wenn Darwin diesen Text nicht gelesen hat, so zeigt es aus meiner Sicht doch, wie langsam das Klima für bestimmte Ideen geschaffen wird. Schliesslich ist es selten der Fall, dass eine Einzelperson in der Lage ist, ein herrschendes Paradigma durch eine neue Idee zu ersetzen.

Um die Anfangs gestellte Frage für mich selbst zu beantworten: Ich stelle mich in die Reihe der Philosophen ganz hinten an, die David Hume als Gesprächspartner für einen Abend ausgewählen würden.

Quellen

Weitere Artikel zur Wissenschaftsgeschichte!

Donnerstag, 21. April 2011

"Leadership" und persönliche Verantwortung

In einem der aktuellen TED-Talks hält der US-General Stanley McChrystal eine ansprechende Rede über Leadership. In seinem Vortrag bezieht er sich auf persönliche Erfahrungen in der US-Army, Erfolge, aber auch Niederlagen. Nach diesem Video ist mir wieder ein sehr fundamentales Dilemma, das viele Menschen betrifft, durch den Kopf gegangen. Gerade das sehr glaubwürdige und vertrauenswürdige Auftreten von General McChrystal macht das Problem der häufig kaum zu vereinbarenden Innensicht eines Systems in dem man steckt mit der Außensicht sehr deutlich:



In unserem täglichen Leben, besonders auch im Arbeitsumfeld, sind die meisten von uns Teil eines größeren Systemes. Dieses System kann eine Universität sein, eine international tätige Firma, aber auch der Staat, wenn man beispielsweise als Beamter, Polizist, oder eben Soldat beschäftigt ist. Die meisten Menschen werden dann auch über die Jahre völlig von diesen Systemen vereinnahmt und verlieren die Fähigkeit eine halbwegs kritische Außensicht zu akzeptieren. Besonders aus der Sicht des Systems in das ihre Arbeit eingebettet ist, können dann Menschen wie General McChrystal auch eine sehr eindrucksvolle Persönlichkeit darstellen. Aber wie sieht es in einer kritischen Außensicht aus?

Versucht man über den Tellerrand des eigenen Systems hinauszublicken gerät man häufig in eine kognitive Dissonanz, die nicht für alle leicht zu ertragen sein kann. Im konkreten Beispiel: Wenn man US-General ist und die höflich gesagt fragwürdigen Ideen eines George Bush ausführen (oder besser ausbaden) muss, darf man wohl nicht all zuviel nachdenken. Man ist dafür verantwortlich, dass junge Menschen, die man selbst in den Irak schickt, sterben. Man ist mitverantwortlich, dass eine Region destabilisiert wird und abertausende Menschen umkommen oder ihrer Lebensgrundlage beraubt werden. Natürlich kann man sich (wie das in der Geschichte so oft passiert ist) darauf ausreden, dass man nur Befehle befolgt. Dies wäre die mit Scheuklappen begleitete systemische Innensicht. Einem intelligenten und kritischen Menschen aber muss dies schlaflose Nächte bereiten. Welchen Ausweg gibt es für einen Soldaten, einen General, dessen System Wiederrede prinzipiell nicht zulässt?

Das Militär ist ein sehr offensichtliches Beispiel. Wenn ich in einer (Investment-) Bank arbeitet, darf ich über die absurden Finanzkonstrukte nicht zu intensiv nachgrübeln. Noch darf ich mir die Frage stellen, ob die Privatpension, die ich einem jungen Menschen andrehe, auch nur irgendwie fundiert ist, oder ob ich nicht von der Marketingabteilung hübsch gezeichnete Märchen darstelle die in Wahrheit nicht vielmehr sind als ein Lotteriespiel, dessen Ergebnis wir in 35 Jahren sehen werden? Arbeite ich bei einem Boulevard-Medium – wie gehe ich damit um, dass viele Eigentümer gelinde gesagt fragwürdige Gestalten mit einer vermutlich noch fragwürdigeren Agenda sind. Und wenn ich Software-Entwickler bin, vielleicht weil ich gerne mit komplexen Systemen arbeite: darf ich mir die Frage stellen, ob meine Systeme dafür (mit)verantwortlich sind, dass andere (Firmen) in die Lage versetzt werden die ohnedies schon äußerst knappen natürlichen Ressourcen in noch schnellerer Zeit zu zerstören? Oder ziehe ich mich dann doch darauf zurück, dass ich ja nur komplexe Systeme integriere und letztlich nicht dafür verantwortlich bin, was damit konkret angestellt wird. Ein Argument, das von Waffenproduzenten auch sehr gerne verwendet wird. Bei Waffen ist die Absurdität der Behauptung nur offensichtlicher.

Haben wir diese Argumentationslinie nicht schon öfter gehört? Haben wir nicht den Kopf geschüttelt, wie es denn sein kann, dass an und für sich anständige Menschen immer tiefer in fragwürdige Geschäfte geraten? Es sind, wie Carol Tavris und Elliot Aronson so schön darstellen, selten die großen Schritte die aus einem "normalen" Menschen einen Verbrecher machen, sondern eine Vielzahl an kleinen Schritten. Eine Vielzahl an kleinen Schritten gepaart mit kleinen Rechtfertigungen, warum gerade dieser eine Schritt jetzt gerade noch vertretbar ist.

Ist es nicht genau dasselbe mit unserer Innen/Aussensicht der Systeme in denen wir arbeiten? Wir sind ganz selten für die großen Probleme direkt verantwortlich. Durch meine Software fallen keine Vögel im Regenwald tot von den Bäumen. Ein General der US-Army rechtfertigt vielleicht den Einsatz im Irak mit der Befreiung des Landes, die langfristig positive Folgen haben werde. Er nimmt an (hofft) dass dies in relativ kurzer Zeit und vertretbaren Verlusten möglich ist. Dann kommt ein kleines Desaster nach dem anderen. Ein Terror Anschlag, Soldaten die auf Zivilisten schießen, fehlgeleitete Drohnen. Jedes Missgeschick, jedes Problem wird individuell entschuldigt, die Summe aus den Augen verloren. Es sind also eher die vielen kleinen Entscheidungen und Entschuldigungen die nach längerer Zeit dazu führen können, dass wir uns in eine Richtung entwickeln, Dinge tun, eine Rolle einnehmen, die mit unseren Überzeugungen vor vielleicht 10 Jahren durch nichts zu rechtfertigen gewesen wären.

In einer besonders schwierigen Rolle, und damit schließt sich der Kreis, stehen natürlich diejenigen die sich in einer Führungsposition befinden. Denn von einer Führungspersönlichkeit erwartet man den weiteren Blick, die Entscheidung in die richtige Richtung. Denn gerade das macht ja einen Manager, einen General aus. Aber sind nicht letztlich sogar 4-Sterne Generale und CEOs in einem systemischen Zwang gefangen? Vielleicht ist gerade diese Dissonanz auch der Grund, warum sich viele Menschen auch dann immer tiefer in den bekannten und geschützten Raum ihres Systems, sei das die US-Army, die Investmentbank oder die Firma in der man arbeitet, vergraben. Denn hält man den Kopf aus dem Fenster bläst meist ein sehr kalter Wind, den nicht jeder ertragan kann und will. Und eine Entscheidung zurück würde einen großen Teil des eigenen Lebenswegs in Frage stellen. 

Noch schwieriger wird die nächste Ebene der Betrachtung: wir sind nahezu immer in Systeme eingebettet (Arbeit, Gesellschaft, Mobilität, Konsum, Geldwesen, ...) die Schattenseiten haben, und deren negativen Auswirkungen wir eigentlich nur schwer ignorieren dürften. Aber was sind die Alternativen? Können wir es ertragen alles in Frage zu stellen? Und bis zu welchem Grad ist es in Ordnung mitzuspielen, und ab welchem Punkt ist man einen Schritt zu weit gegangen? Dies ist eine im Detail sehr schwierige persönliche Frage, deren Beantwortung von den meisten Menschen gerne vermieden wird, weil sie selbst für integre Personen kaum zu bewältigen ist.

Wenn am Ende das System explodiert oder massiven Schaden anrichtet, fühlt sich in logischer Konsequenz niemand verantwortlich. Niemand will gewusst haben, was denn die eigene Arbeit so alles angerichtet hat. Jeder hat nur seine Pflicht getan, seine Rolle im System ausgefüllt, seinen "Job" gemacht. 

Montag, 28. März 2011

Wikipedia: Wahrheit auf Knopfdruck?

Ich stehe der Wikipedia seit langem mit sehr gemischten Gefühlen gegenüber. Einerseits bietet die Wikipedia zu vielen Stichworten sehr gute und auch relativ detaillierte Information. Viele Internet-Nutzer schlagen daher auch sehr häufig zunächst in der Wikipedia nach. Bei jedem zweiten Vortrag liest man wie dieser oder jener Begriff in der Wikipedia definiert wird, Massenmedien wie der ORF verlinken auf Wikipedia-Artikel. Dass sogar Studenten immer häufiger die Wikipedia als primäre Referenz verwenden (es soll sogar Professoren geben, die eine derartig fragwürdige Praxis akzeptieren!) zeigt, dass sie entweder zu faul sind den Dingen auf den Grund zu gehen (was eigentlich die Idee des Studierens wäre) oder dass sie ebenso wenig wie die Durchschnittsnutzer verstehen wie die Wikipedia funktioniert.

Die Konsequenz daraus ist eine Selbstverstärkung: Wikipedia-Artikel tauchen als erste Suchergebnisse bei Google auf und werden damit wieder für immer mehr unbedarfte Nutzer zur Standard-Informationsquelle. So wertvoll die Kollaboration bei vielen Artikeln auch ist, die Qualität der Information ist keinesfalls gleichmässig verteilt. Gerade dies ist aber vielen Nutzern offenbar überhaupt nicht klar. In Gesprächen mit Nicht-Informatikern stelle ich auch immer wieder fest, dass es vielen unbekannt ist, dass jeder einen Artikel ändern kann und dass die vorhanden Artikel von vielen unbekannten Autoren stammen. Die Information in einem Artikel darf daher nur mit großer Zurückhaltung und kritischer Distanz (einer Eigenschaft die, wie wir wissen vielen Menschen eigen ist) verwendet werden. Dazu kommt, dass es oft sehr schwierig ist die Qualität eines Artikels einzuschätzen. Bei der Britannica und anderen traditionellen Enzyklopädien ist es immerhin ein oder mehrere Experten die für einen bestimmten Artikel zuständig sind. Dazu kommt, dass einmal aufgenommene Artikel auch weiter gewartet werden (oder wurden, die Zukunft traditioneller Enzyklopädien ist ja auch dank Wikipedia höchst ungewiss). 

Dies ist absolut keine Garantie für Fehlerfreiheit. Jeder Wissenschafter aber hat gelernt mit namentlich gekennzeichneten Beiträgen aus Artikeln umzugehen. Diese werden entsprechend zitiert und man weiß, dass es sich dabei nicht um der Weisheit letzten Schluss handeln muss. Diese Beiträge unterliegen dem üblichen wissenschaftlichen Diskurs. Für den Laien bedeutet die Verwendung traditioneller Enzyklopädien, dass die vorhandenen Artikel einen relativ gleichartig hohen Standard haben.

Bei der Wikipedia ist dies naturgemäß anders: hier gibt es massive Schwankungen. Einem Top-Artikel steht ein Artikel mit völlig falschen Aussagen gegenüber. Es gibt keine Autoren, deren Expertise und deren "Track Record" man prüfen könnte. Daher dürften Wikipedia Artikel – vor allem im wissenschaftlichen oder journalistischem Kontext – ausschliesslich als Einstieg verwendet werden, als Startpunkt für weitere Recherche über die angegebenen Primärquellen. Denn jede Behauptung in einer Online Enzyklopädie muss mit einer hochwertigen Quellenangabe belegt werden. Anders kann die Qualität einer Behauptung in diesem Prozess nun einmal nicht nachgewiesen werden. Dass sich Ulrich34 und Schlumpf12 in einem Edit-War letztlich zu einer Aussage durchgerungen haben mag für die Community Unterhaltungswert haben, beweist aber inhaltlich rein gar nichts. Leider ist eine saubere Referenzierung aber bei weitem nicht immer der Fall. Dazu kommt, dass vielen Wikipedia-Autoren auch nicht klar ist, dass ein Link auf die Huffington Post oder irgendeine andere mehr oder weniger fragwürdige Tageszeitung keine seriöse Quelle darstellt. Immer häufiger gibt es auch Wartungsprobleme, konkret: Referenzen die nicht mehr existieren, tote Links. 

Auch das in der Relevanz-Diskussion der vor allem gegen die Praktiken der deutschen Wikipedia gerne angeführte Argument "Speicherplatz kostet ja nichts" greift leider viel zu kurz und missversteht eine wichtige Funktion einer Enzyklopädie: Einmal irgendwelche Texte online stellen erzeugt kein Wissen. Wissen bedarf konstanter Reflexion, Diskussion von Experten, Überarbeitung und Wartung. Wartung der Texte, aber auch Wartung der Quellenangaben. Genau dies wird aber immer schwerer je mehr (fragwürdige) Artikel sich online befinden. 

Für den Konsumenten aber ist die Sache klar: was in der Wikipedia steht ist Wahrheit. Punkt. Weder werden Zustand von Artikeln genauer hinterfragt, die Diskussionsseiten angesehen, die Referenzen geprüft. Der Text ist Stand des Wissens; für den wenig begabten Studenten oder Wissenschafter trifft dies leider auch immer häufiger zu. Psychologen wissen längst, dass Information verwendet wird, selbst wenn vermerkt wird, dass sie fragwürdig ist. Insofern helfen die Standardtexte die problematische Artikel zieren auch kaum weiter. Betrachten wir noch zwei konkrete Beispiele:

"Wie ich Stalins Badezimmer erschuf" 

In der Berliner Tageszeitung schildert Andreas Kopietz, wie er aus Langeweile den Artikel über die "Karl-Marx-Allee" mit folgender erfundenen Behauptung ergänzte: "Wegen der charakteristischen Keramikfliesen wurde die Straße zu DDR-Zeiten im Volksmund auch, Stalins Badezimmer‘ genannt." Er schreibt weiter:
"Eine Schar ehrenamtlicher Mitarbeiter prüft die Einträge der Nutzer vor Veröffentlichung auf Plausibilität. Ein Wikipedianer aus Wölfersheim in Hessen befand meine Version kurze Zeit später für richtig – und damit bekam der Volksmund einen neuen Begriff: 'Stalins Badezimmer'."
Was in der Wikipedia steht muss wahr sein, folglich übernehmen andere Informationsportale diese Tatsache, 2009 wird der Begriff in einer "wissenschaftlichen" Arbeit verwendet, 2010 taucht der Begriff in einem journalistisch mit großer Mühe recherchiertem Artikel im "Stern" sowie in anderen Tageszeitungen auf. Später versucht er diesen Satz wieder zu löschen, die Löschung wird aber von einem Wikipedia Moderator rückgängig gemacht.

So steht es in der Wikipedia geschrieben. So entstehen Wahrheiten.

82.361

Ein anderes Beispiel aus eigener Recherche: Philip Tetlock, ein amerikanischer Psychologe, untersuchte in einer 20-jährigen Studie die Qualität von Expertenvoraussagen. In dem an sich guten Buch "Risk" von Dan Gardner finden sich dazu zwei Zahlen: Tetlock hätte 284 Experten befragt und in Summe 82.361 Vorhersagen untersucht. Nun, jeder der sich ein wenig mit Wissenschaft beschäftigt, stolpert natürlich sofort über derartig präzise Zahlenangaben (besonders über 82.361). Da ist in den allermeisten Fällen etwas faul. Häufig ist dies ein Trick um Genauigkeit vorzutäuschen wo keine ist, oder einfach ein statistisches Artefakt ohne Bedeutung. Da ich Tetlocks Studie selbst in einem Text verwende, recherchiere ich nach. Die 284 taucht tatsächlich in mehreren Quellen auf, darunter einem Interview im Wall Street Journal, einem Text über seine Arbeit sowie in einer von ihm selbst gehaltenen Präsentation. Diese Zahl scheint also zu stimmen. Die 82.361 aber kann ich nirgends belegen, außer – Sie werden es schon erraten haben – in der englischen Wikipedia. Dort finden sich genau diese 82.361. Selbstverständlich, wie in der Wikipedia so oft üblich, ohne brauchbare Quellenangabe. Hat Dan Gardner diese Zahl einfach aus einem fragwürdigen Artikel der Wikipedia übernommen? Ich weiß es nicht, aber eine andere Quelle konnte ich nicht finden. Dafür taucht aber eine andere Zahl (nämlich 28.000) in mehreren Quellen auf. Ich habe den Wikipedia-Artikel entsprechend korrigiert, allerdings war er zuvor wohl schon Quelle unkritischer Recherche. 

Kurz gesagt, ich beginne die Wikipedia mit immer größerem Misstrauen zu betrachten. Die Wikipedia ist längst zum Monopol des Wissens für die Allgemeinheit geworden. Informationen die in einem Wikipedia-Artikel auftauchen werden als Wahrheit identifiziert, können weite Kreise ziehen und entsprechenden Schaden anrichten. Besonders schlimm aber finde ich, dass auch im akademischen Umfeld, wo gerade Kritikfähigkeit eigentlich die Arbeitsgrundlage darstellt, offensichtlich immer schlampiger mit der Wikipedia umgegangen wird. 

Um es nochmals klar und deutlich zu sagen – auch wenn manche naive Crowdsourcing-Apologeten immer noch etwas anderes behaupten: Die Wikipedia ist als Primärquelle völlig wertlos, ja irreführend und subversiv gegenüber dem kritischen Diskurs. In einem wissenschaftlichen Text, einer Diplomarbeit oder Dissertation hat eine entsprechende Referenz daher auch nichts zu suchen. Ernsthaft darf die Wikipedia ausschliesslich verwendet werden, wo Behauptungen entsprechend mit Quellenangeben belegt und diese Quellenangaben auch überprüft werden. Für wissenschaftliche Arbeit sind überhaupt nur die Referenzen auf Primär-Quellen von Relevanz. 

Auch wäre es wichtig, den Nutzern der Wikipedia diese Problematik und das zugrundeliegende Prinzip deutlicher zu machen; vielleicht würde dies dem Laien helfen, den Umgang mit dem an sich nützlichen Tool zu verbessern.


Dienstag, 22. Februar 2011

Mit zweierlei Maß – Guttenberg und das Urheberrecht

Die Dissertation des deutschen Ministers Guttenberg schlägt in den letzten Tagen einige Wellen, steht sie doch im Verdacht zu erheblichen Teilen von anderen, nicht zitierten Quellen abgeschrieben worden zu sein. Mittlerweile hat er selbst Fehler eingestanden und seinen Doktortitel zurückgezogen. Interessanterweise werden bisher nur zwei Aspekte diese Affäre in den Medien diskutiert: Einerseits die Frage wie es sein kann, dass eine solche Arbeit die wissenschaftliche Begutachtung durchläuft und Guttenberg mit summa cum laude abgeschlossen wird. Hier drängt sich wieder einmal die Frage nach der Qualität vieler wissenschaftlicher Arbeiten (besonders in den Geisteswissenschaften) auf. Andererseits wird diskutiert, was als Plagiat zu bewerten ist und wie viel Eigenleistung Herr Guttenberg in diese Arbeit eingebracht. Es steht auch noch die Frage im Raum, ob nicht überhaupt ein Ghostwriter die Arbeit verfasst hat. Das Überthema dieser Debatte ist, wie es sich mit vielen anderen Diplomarbeiten und Dissertationen verhält. Die politische Dimension beschränkt sich aber hauptsächlich auf die Frage ob Minister Guttenberg eine wissenschaftliche Eigenleistung erbracht hat oder ob er (auch in den letzten Tagen) die Unwahrheit gesagt hat.

Die für einen Politiker der CSU aber mindestens ebenso bedeutende Frage, nämlich die vermutlich systematischen Verletzung des Urheberrechtes wird überraschenderweise überhaupt nicht diskutiert. Dabei schreibt beispielsweise Die Zeit, dass Guttenberg auch einen ihrer Artikel kopiert hätte. Aber auch in diesem Artikel der Zeit findet das Urheberrecht mit keinem Wort Erwähnung. So interessant und auch wichtig die Diskussionen um die Qualität wissenschaftlicher Arbeiten auch ist, halte ich das in diesem politischen Kontext nicht für die entscheidende Frage. Dies ist besonders unter dem Hintergrund der netzpolitischen Aktivitäten die wir in Europe in den letzten Jahren beobachten zu sehen. Minister Guttenberg ist kein Vertreter der Piratenpartei oder der Grünen sondern Spitzenpolitiker der CSU. Und gerade die CDU/CSU vertritt in den letzten Jahren eine sehr, man könnte sagen, unnachgiebige Haltung etwa gegenüber Raubkopien im Internet.

Aus diesem Blickwinkel heraus überrascht mich dann doch die konziliante Haltung gegenüber dieser Dissertation. Es könnte der Eindruck entstehen, dass es politisch gewünscht ist Sechzehnjährige mit Netzsperren und Prozessen zu bedrohen, wenn sie ein paar Filme und MP3s zur Unterhaltung aus dem Internet laden. Für einen deutschen Minister (noch dazu der CSU) wäre eine vergleichbare Handlung aber gerade einmal ein Kavaliersdelikt. Stimmen der CDU/CSU, "zu Guttenberg ist auch ohne Doktortitel ein guter Minister" mögen oder mögen nicht zutreffen – hier kann sich jeder Bürger seine eigene Meinung bilden – gehen jedenfalls am Thema vorbei. Eine Doktorarbeit ist eine Veröffentlichung. Die Arbeit von Minister Guttenberg ist zusätzlich auch als Buch aufgelegt. (Übrigens für stolze 88€.) Es handelt sich daher nicht nur um eine akademische Veröffentlichung, die unter Ausschluss der Öffentlichkeit in einer wissenschaftlichen Bibliothek verstaubt, sondern um eine kommerzielle Publikation. Sollte es zutreffen, dass Herr Guttenberg erhebliche Teile seiner Arbeit von anderen Quellen abgeschrieben hat, so handelt es sich nach meinem Verständnis der Rechtslage auch um eine eindeutige und mehrfache Urheberrechtsverletzung. Überraschenderweise hat nach meinem Wissensstand bisher noch keiner der Urheberrechtsinhaber geklagt. Auch finde ich es überraschend, dass die (deutsche) Netzpolitik-Community diesen Aspekt noch nicht mit aufgegriffen hat.

Daher ist die Frage an die CDU/CSU aus meiner Sicht eine völlig andere: Ist jemand, der nach bisherigen Erkenntnissen das Urheberrecht derartig geringschätzt als Minister für die CDU/CSU tragbar? Oder ist es dann doch ein Unterschied ob letztlich "nur" die Rechte andere Akademiker und einzelner Zeitschriften verletzt wurden, oder die Rechte Musik- und Film-Industrie. Ist dies eine Aufforderung mit zweierlei Maß zu messen? Eines gilt für hauptsächlich jugendliche "Verbrecher" die Filme und MP3s laden, ein anderes für Minister aus den eigenen Reihen, denen "ein Lapsus passiert" und die Texte anderer Autoren "irrtümlich" als eigene Arbeit ausgeben.

Mir scheint diese  Argumentationslinie Wert hinterfragt zu werden.

Montag, 10. Januar 2011

Hörgewohnheiten

Kürzlich ist mir bewußt geworden, dass sich mein Hörverhalten in Bezug auf Radiosendungen in den letzten Jahren deutlich verändert hat. Ich höre heute hauptsächlich Podcasts, teilweise in deutscher, teilweise englischer Sprache. Ebenfalls gemischt ist die Machart: einige Podcasts sind klassische Radiosendungen, z.B. BBC In our time oder NPR Science Friday oder SWR2 Wissen. Viele andere sind von sogenannten Amateuren, etwa Tim Pritlove's Not Safe for Work, Chaosradio Express oder Rationally Speaking.

Grundsätzlich ist für zu beobachten, dass die Professionalität im Amateur-Podcasting in den letzten Jahren enorme Fortschritte gemacht hat, sowohl was die Qualität der Inhalte aber auch die technischen Standards betrifft. Teilweise ist es so, dass die besten Amateure technisch bessere Podcasts abliefern als manche Radiosender. Tim Pritlove etwa. 

Der eigentliche Punkt aber, der mich selbst überrascht hat, ist die Änderung der Hörgewohnheit. Mir fällt heute auf, dass ich mir kaum mehr die typische Radio-Reportage oder Fernsehsendung a la Galileo ansehen kann weil mich die sture Formalität der Sendungen einfach nur mehr nervt. Ich habe den Eindruck als würden die meisten "professionell" produzierten Formate mit der Schablone erstellt (brav wie im Journalismuskurs der Volkshochschule gelernt), die (vielleicht etwas zynisch überhöht) wie folgt aussieht:

Zunächst das Intro, dann wird gleich mal der "Mann oder die Frau von der Strasse" eingeführt. Hier lernen wir die Studentin Frau Müller oder den Pensionisten Herrn Huber kennen und begleiten sie beim Einkauf oder in zwanglos gestellter Atmosphäre zuhause wie sie ihr iPhone bedienen (und scheitern), kochen (und sich dabei über E-Nummern verunsichert zeigen), oder was immer gerade Thema der Sendung ist. Ein wenig Entrüstung oder ausgedrückte Verunsicherung ob der Zustände kann auch nicht schaden. Der Dramatik-Regler wir je nach Qualität des Formates ein wenig mehr oder weniger aufgedreht.

Dann Auftritt Kurzstatement(s) eines oder mehrerer "Experten", üblicherweise immer dieselben. Dann die Diskussion in der Runde, wenn möglich mit passendem "Promi", der zwar nichts nennenswertes beizutragen hat, aber doch immer gerne gesehen wird (zwar nicht von mir, aber immerhin). Zwischen möglichst kurz gefassten Wortspenden (oder später zur Unkenntlichkeit gekürzten Interviews) werden Video- oder Audiobeiträge eingeflochten – nicht länger als 2:30 allerdings – und bei Bedarf wieder zu unseren "Betroffenen" Studentinnen oder Pensionisten geschwenkt. Klatschendes und/oder entrüstetes Publikum ist auch nie ein Fehler. Alternativ werden historische Personen nachgestellt, denn es reicht nicht zu erzählen was Charles Darwin gesagt oder geschrieben hat; nein: ein (zweitklassiger) Sprecher muss Charles Darwin zum Leben erwecken und ihm Worte in den Mund legen (die er so meist auch nie gesagt hätte). In Geschichts-Sendungen, vor allem filmischen Reportagen, müssen Horden von Wilden (Laiendarstellern) aufeinander einschlagen um die "Dramatik" der Kampfeshandlungen zu veranschaulichen.

Dazu kommt der oft gekünstelt neutrale Duktus der Journalisten oder Moderatoren (bei den besseren Formaten) oder der ebenso gekünstelt aufgeregte (bei billigen Formaten). Jedes Leben, jede Authentizität wird der Pseudo-Neutralität, Pseudo-Seriosität oder Pseudo-Aufgeregtheit geopfert. Dazu kommen zumeist enge Zeitlimits: jedes einzelne Segment darf 2:30 nicht überschreiten, die gesamte Sendung hat ein fixes Limit. Radiomacher sind offenbar der Ansicht, ein intelligentes oder auch unterhaltsames Gespräch zwischen gescheiten und/oder originellen Personen reicht alleine nicht mehr aus. Folglich wird jede Sendung "über-produziert" und "über-gestaltet".

Lasst doch die (gescheiten) Menschen einfach mal reden! (Und ladet die dümmeren nach Möglichkeit gleich gar nicht ein.) 

Wie entspannend ist es da etwa Tim Pritlove 4:30 (4 Stunden, nicht Minuten) über ein Geek-Thema zuzuhören, oder auch mal nach 10 Minuten abzuschalten und auf die nächste Ausgabe zu warten. Wichtig jedenfalls, und das zeichnet für mich die besten Amateur-Podcasts aus, ist authentisches Auftreten, intelligente oder in irgendeiner Weise interessante Teilnehmer und genug Zeit um Themen vernünftig und ohne überflüssige Schnörksel – wie die genannten aufgeregten Passanten – entwickeln zu lassen.

Zur Ehrenrettung des professionellen Radios muss ich allerdings ergänzen, dass es aus meiner Sicht ein deutliches Gefälle zwischen guten US (NPR) oder UK (BBC) Sendungen und deutschsprachigen Sendungen gibt. Formate wie "In Our Time" oder "Science Friday" gibt es meiner Ansicht nach in dieser Qualität und auf das wesentliche, nämlich das intelligente Gespräch reduziert, im deutschsprachigen Radio fast nicht. 

Freitag, 17. Dezember 2010

Bücher als "kulturelles Genom der (Wissens)Gesellschaft

In science.orf.at wird von einem Forschungsprojekt berichtet, das zum Ziel hat in einer riesigen Menge von digitalisierten Bücher sogenannte "Culturomics" zu betreiben. Also nach Phrasen, Wörtern etc. zu suchen und deren Entwicklung über die Zeit zu betrachten.

Nach der Lektüre des Artikels muss ich aber zugeben, dass mich eigentlich nur der Titel Bücher als "kulturelles Genom" inspiriert hat. Das halte ich für eine sehr schöne Idee. Besonders wenn man (im wissenschaftlichen) Bereich bedenkt, dass jedes neue Buch ja nur einen (oft sehr) kleinen Teil an wirklich neuer Erkenntnis darlegt. Wenn überhaupt. Der überwiegende Text eines Buches bezieht sich ja in der Regel auf andere Bücher, Gedanken und Aussagen anderer Autoren. Dies ist gar nicht negativ gemeint: Fortschritt bedeutet ja gerade auch die kritische Auseinandersetzung mit bestehendem Wissen. Dieses wird, bildlich gesprochen, in die publizistische Mangel genommen und von verschiedensten Seiten beleuchtet.

In gewisser Weise, und hier komme ich wieder zum Titel des ORF-Artikels zurück, ist ein neues Buch so etwas die das Kind einer Vielzahl älterer Bücher mit einer geringen Menge an neuem. Wenn man das biologistisch formulieren möchte: das neue Buch enthält quasi die Gene (oder besser "Meme") der alten mit einer Handvoll an Mutationen. 

Ist man bereit dieser Logik zu folgen, so müsste es auch möglich sein, diese "Erbfolge" zu analysieren – wenn auch nicht mit so trivialen Mitteln wie der Volltextsuche nach Phrasen. Würde das gelingen, so könnten wir einen Stammbaum der Ideen aufstellen, könnten zeigen wie Konzepte durch die Zeit und "durch" die Autoren wandern, verschwinden, wieder auftauchen. Wir könnten Plagiate erkennen und intellektuelle Spinnereien (z.B. viele der postmodernen Ideen), Bücher also die nur in einer kleinen Gruppe von Autoren "Inzucht" betreiben und sonst kennen nennenswerten Einfluss auf den Rest der (intellektuellen) Welt haben. Und auch, wann und wo wirkliche Innovation geschieht.

Zugegeben, es ist eher unwahrscheinlich, dass ein Algorithmus in der Lage wäre eine solche Analyse vorzunehmen. Schade. Aber das war das Bild das mir durch den Kopf gegangen ist, nachdem ich den Titel gelesen habe. 

Donnerstag, 30. September 2010

Personalisierte Medizin, oder: welchen Wert hat ein Lebensjahr?

Im aktuellen Science Friday wird eine neue Studie vorgestellt, in der personalisierte Medizin thematisiert wird. Konkret geht es um folgende Frage: Stand der Wissenschaft in der Bewertung der Wirksamkeit von Medikamente sind Doppelblindstudien. Diese werden an Gruppen von Patienten durchgeführt, wobei eine Gruppe ein Placebo oder vergleichbares (älteres) Medikament erhält, eine andere Gruppe den vermeintlich besseren, neuen Wirkstoff. Um die Studie nicht durch andere Faktoren zu verfälschen, dürfen weder Arzt noch Patienten  wissen wer welcher Gruppe zugeteilt ist. Ist das neue Medikament entscheidend besser als das alte wird es zumeist zugelassen und kann von Ärzten verschrieben werden.


Es wird allerdings immer klarer, dass es bei verschiedenen Klassen von Wirkstoffen durchaus nennenswerte Unterschiede gibt, wie ein Medikament anschlägt; und zwar abhängig von der genetischen Grundausstattung des jeweiligen Patienten. Dies kann "einfache" genetische Faktoren wie das Geschlecht betreffen, aber auch komplexere nicht so offensichtliche Faktoren.

Nehmen wir an (und scheint immer deutlicher zu werden, dass dies bald der Realität entspricht) es gäbe eine Möglichkeit festzustellen, wie ein bestimmtes Medikament bei einem bestimmten Patienten wirkt. Nehmen wir weiters an (auch dies scheint bereits greifbar zu sein), es handelt sich um ein Medikament, dass eine schwere Krankheit behandelt. Bei einer bestimmten genetischen Gegebenheit ermöglicht dies dem Patienten etwa 2-3 Jahre an weiterer Lebenszeit. In anderen Fällen vielleicht nur 2-3 Monate. Gleichzeitig ist das Medikament äußerst kostspielig und kostet, sagen wir, 100.000 €.

Wer hat nun Anspruch dieses Medikament zu bekommen?

Ist es unethisch zu fragen, wieviel Geld ein Lebensjahr wert ist? Eine solche Frage stößt mit Sicherheit bei den meisten Menschen zumindest auf großes Befremden, wenn nicht starke Ablehnung. Aber drehen wir das Problem einmal um: wenn wir nicht bereit sind diese Frage zu stellen, kommen wir in logischer Konsequenz zu der heute durchaus verbreiteten Ansicht, Geld darf bei Gesundheit keine große Rolle spielen. Wirklich nicht?

Im Prinzip ist dies nur ein Spezialfall einer Diskussion die wir schon heute sehr gründlich führen müssten. Stellen wir uns einen einfacheren Fall vor: es gibt eine Behandlung die 100 Million Euro kostet und einem 90 jährigen Patienten etwa ein weiteres Lebensjahr schenken würde. Würden wir das vertreten? Wenn wir nicht bereit sind die obige Frage zu stellen, muss die Antwort lauten "Ja, selbstverständlich". Denn Leben darf nicht am Geld hängen! In der Praxis wäre das Geld natürlich nicht vorhanden um allen Patienten derartig kostspielige Behandlungen zu ermöglichen. Damit wird die Frage implizit gestellt, selbst wenn wir sie nicht explizit diskutieren wollen. Vermutlich wäre sogar der öffentliche Aufschrei groß, würde eine solche Behandlung gängige Praxis werden. Die Menschen würden sehr schnell feststellen, dass sich die Gesellschaft derartige Ausgaben einfach nicht leisten kann. Gut, aber welche Summe ist nun gerechtfertigt in einem solchen Fall. 1 Million Euro? 100.000? 1.000? Bei einem jungen Menschen mehr als bei einem älteren? Bei einer Mutter mit drei Kindern mehr als bei einem alleinstehenden Mann?

Geld ist eine begrenzte Resource. Oft besteht der Konflikt zwischen der sehr teuren Behandlung eines einzelnen Patienten und der günstigeren Behandlung vieler Patienten. Philosophisch betrachtet die Abwägung zwischen einer streng individualistischen (maximales Wohl für den Einzelnen) gegenüber einer utilitaristischen Betrachtung (maximales Wohl für die größte Zahl an Menschen). Dennoch muss uns klar sein: wir beantworten diese Fragen entweder bewußt oder zwischen den Zeilen, z.B. durch Budget-Restriktionen von Spitälern.

Letztlich haben wir selbst in Europa heute schon längst eine Form der zwei-Klassen Medizin. Das Gesundheitssystem ist schon heute nicht mehr in der Lage die "besten" und teuersten Behandlungen allen Patienten gleichermassen zur Verfügung zu stellen. Gehen wir davon aus, dass Medizin, Wissenschaft und Technologie im allgemeinen auch in den nächsten Jahren vergleichbare Fortschritte machen wie in den letzten Jahrzehnten, so wird sich dieses Problem nochmals drastisch verschärfen.

Das eingangs erwähnte Beispiel der personalisierten Medizin ist nur ein sehr deutliches und transparentes Beispiel wo der Zug hinfährt. Es ist höchst an der Zeit diese Diskussion mit offenen Karten zu führen und nicht der Bevölkerung vorzumachen, es wären unbegrenzte Ressourcen für jedermann vorhanden. Zur Zeit stecken wir den Kopf in den Sand – gleichzeitig werden die finanziellen Mittel bezogen auf immer teurere Behandlungsmöglichkeiten immer knapper. Ärzte und Krankenhausmanagement sehen sich vor dem konkreten Problem im Einzelfall entscheiden zu müssen, wie diese Mittel einzusetzen sind. Dies aber ohne klare gesetzliche und von der Gesellschaft definierte Rahmenbedingungen.

Ich denke, es bedarf keiner großen Phantasie, dass dies kein wünschenswerter Zustand ist. 

Freitag, 17. September 2010

Über Boltzmann, Götter und Atome

Ich habe vor einiger Zeit einen Artikel zum Thema Quantentheorie und "philosophische" Deutungen geschrieben. In diesem Blog-Artikel habe ich mich unter anderem daran gestossen, wie die aus meiner Sicht schlampige Verwendung von Begriffen letztlich zu Verwirrungen in der Deutung von Phänomenen führen können (Welle/Teilchen).

Ich beschäftige mich gerade mit Ludwig Boltzmann, einem der faszinierendsten Wissenschafter des 19./20. Jahrhunderts. Boltzmann hat nicht nur die klassische Physik (Mechanik), von Newton begründet, mit seiner statistischen Mechanik (Thermodynamik) zu einem eindrucksvollen Höhepunkt gebracht. Er hat auch Jahrzehnte vor Plank mit gequantelten Energiemengen gerechnet und kann daher auch als Wegbereiter der Quantentheorie betrachtet werden. Dies sind nur kleine Ausschnitte seiner vielfältigen wissenschaftlichen Beiträgen; Bedeutung hat er aber auch aufgrund seiner offenbar enormen Begabung als akademischer Lehrer erlangt. Zu seinen Schülern zählten unter anderem spätere Kapazitäten wie Svante Arrhenius (Schweden), Walter Nernst (Deutschland) sowie Paul Ehrenfest und Fritz Hasenöhrl (der selbst Lehrer Erwin Schrödingers war). Natürlich ist Boltzmann mit allen Größen der Zeit von Sommerfeld über Mach, Planck, Loschmidt, Helmholtz, Ostwald bis Einstein und vielen anderen in Kontakt gestanden.

Boltzmann setzt sich, und nun komme ich zum eigentlichen Thema, in seinen Schriften aber auch mit dem Begriff des Atoms auseinander. Er gilt ja als eine der treibenden Kräfte der aufkommenden Atomtheorie im ausgehenden 19. Jahrhundert. Dies zu einer Zeit, wo wesentliche "Wortführer" wie etwa Ernst Mach die Atomtheorie noch als bestenfalls für die Chemiker geeignet hielten, nicht aber tauglich für eine ernstzunehmende physikalische Theorie. Ähnliches trifft auch auf Max Planck zu, der erst später sozusagen von einem Anhänger Machs auf Boltzmanns Seite gewechselt ist.

Aber auch Boltzmann setzt sich mit dem Begriff des Atoms kritisch auseinander. Der Begriff stammt ja aus dem antiken Griechenland und wurde von Philosophen wie Leukipp und Demokrit eingeführt. Das griechische Wort atomos bedeutet bekanntlich unteilbar. Die Annahme dieser griechischen Philosophen war also, dass die Materie aus kleinen, nicht weiter teilbaren (atomos) Teilchen zusammengesetzt wäre. 

So sehr auch Boltzmann ein Vertreter des Atomismus war, so war ihm doch klar, dass die Unteilbarkeit und auch Unveränderlichkeit des Atoms keine vernünftigen Annahmen sind. Unteilbarkeit vielleicht ein "Grenzwert" der für bestimmte physikalische Aussagen gültig ist. Die nach 1900 entdeckte Radioaktivität, und später die Quantenmechanik gaben ihm in diesem Punkt recht. In einem Vortrag 1904 sagt Boltzmann:
"Wir werden uns nun (betreffend die Frage nach der atomistischen Zusammensetzung der Materie) nicht auf das Denkgesetzt berufen, daß es keine Grenzen der Teilung der Materie geben könne. [...] Die Rechnung ergibt nämlich, dass die Elektronen noch viel kleiner als die Atome der ponderablen Materie sind, und die Hypothese, dass die Atome aus zahlreichen Elementen aufgebaut sind, sowie verschiedene interessante Ansichten über die Art und Weise dieses Aufbaus sind heute in aller Munde. Das Wort Atom darf uns da nicht irreführen, es ist aus alter Zeit übernommen; Unteilbarkeit schreibt heute kein Physiker den Atomen zu." aus Ludwig Boltzmann. Mensch, Physiker, Philosoph, 1955
Und gerade die letzten beiden Sätze erscheinen mir besonders bedeutsam. In der Wahrnehmung vieler Menschen, auch Studenten und Wissenschaftern, wird nicht bewusst nachvollzogen, dass der Begriff Atom wie wir ihn heute verwenden mit dem Begriff Atom eines Leukipp nicht mehr sehr viel zu tun hat. Wir stimmen insofern noch überein, als die Materie aus Atomen aufgebaut ist, aber andere wesentliche Konzepte wie die Unteilbarkeit, Unveränderlichkeit haben wir längst über Bord geworfen. (Wobei auch der Begriff der Materie...) Damit hat auch der Wortursprung seinen Sinn verloren. Selbst in vielen Grundvorlesungen der Physik oder Chemie, sowie in Lehrbüchern wird der Atomismus auf die historischen Quellen bezogen, aber meist ohne die dramatischen Unterschiede in der Bedeutung des Wortes entsprechend klarzulegen.

Worte werden beibehalten, weil es bequem ist (Atom, Teilchen), weil wir sie schon kennen. Aber gerade in dem "schon kennen" steckt der Samen für Missverständnisse aller Art, wie ich schon im anderen Posting über den "Welle/Teilchen Dualismus" zum Ausdruck gebracht habe. Vor allem dann, wenn man sich jenseits von theoretischen Berechnungen und Voraussagen mit der Bedeutung, dem Wesen der Dinge auseinandersetzen möchte. Mir scheint, dass das heutige Verständnis des Atoms sich so weit von der ursprünglichen Idee entfernt hat, dass ein anderer Begriff spätestens ab der Quantenmechanik und der Entdeckung der Quarks und der vielen anderen Elementarteilchen angemessen gewesen wäre. Was ist eigentlich dieses Atom. Ein kleines festes Teilchen? Sicher nicht. Schon der Begriff des Teilchens verschwindet zusehends, und wird durch Wellenfunktionen, Energie, Wahrscheinlichkeitsbetrachtungen und ähnliches aufgelöst. Es scheint, dass uns gerade dieses letzte unteilbare Teilchen zwischen den Fingern zerrinnt, sich in völlig neuen Konzepten auflöst je näher wir es betrachten.

Wir erleben immer wieder gesellschaftliche, aber auch wissenschaftliche Diskussionen die eigentlich bei näherer Betrachtung Scheindiskussionen sind – Diskussionen um Begriffe deren Substanz sich über die Jahrhunderte verflüssigt haben. Gott ist ein ebensolcher Begriff, wie Richard Dawkins treffend anmerkt. Spricht heute jemand davon "an Gott zu glauben", was bitte meint er damit? Ist der christliche Gott denn dasselbe wie Allah (haben Gläubige einer Konfession überhaupt eine eingermassen konsistente Idee an was sie glaube? ich denke nicht!), wie Thor oder gar wie Zeus? 

Welchen Sinn also macht eine solche Aussage bzw. eine Diskussion die sich um einen Begriff dreht, der eigentlich über die Jahrtausende jede konkrete Bedeutung verloren hat? Und mit Zeus sind wir wieder beim Ursprung angelangt: Sprechen wir da noch vom "guten alten" Atom? Genauso wie die "alten Griechen" mit Sicherheit ein völlig anderes Konzept der Götter hatten (ein viel entspannteres, möchte ich annehmen), so ist deren Idee des Atoms als Inspiration für die Physik des 19. Jahrhunderts tauglich, aber kaum für die moderne Physik.

Montag, 9. August 2010

Das Ende der Universität und andere Dystopien

Kürzlich wurde ich von einem Kollegen via Twitter auf folgendes Interview von Bill Gates hingewiesen. Das Kernzitat dieses Interviews ist folgendes:
"Five years from now on the web for free you’ll be able to find the best lectures in the world," Gates said at the Techonomy conference in Lake Tahoe, CA today. "It will be better than any single university,"
Die Technik- und Internetgläubigkeit hat natürlich auch vor der Lehre nicht halt gemacht. Man erinnere sich an den Hype des "E-Learning" vor etwa 10 Jahren. Völlig überzogene Erwartungen was didaktische Fortschritte betrifft auf der einen Seite, ebenso überzogene Erwartungen was mögliche Einsparungen betrifft, auf der anderen. Langsam ist aber Ernüchterung eingekehrt. Wir haben gelernt, dass das elektronische Verteilen von Skripten und Bücher nicht E-Learning ist, und damit keinen nennenswerten qualitativen Gewinn bringt. Dass aber zur Produktion guter E-Learning Inhalte wesentlich mehr Aufwand in die Erstellung der Inhalte für die neuen Medien investiert werden muss. 

Insofern ist ein Kern an Wahrheit in dem Interview zu finden. Nur wenige können es sich leisten gute (multimediale) Inhalte für Online-Kurse zu erstellen. Auch ist es richtig, dass die prinzipiell verfügbare Information durch das Internet deutlich gewachsen ist. Die Betonung liegt aber auf "prinzipiell". Im übrigen wird dies auch in einem Nebensatz in dem Interview klar gesagt: 
"Well, provided they’re self-motivated learners..." 
Gemeint sind die Studenten. Bildung bedeutet eben gerade nicht Studenten oder Schüler vor den Computer zu setzen und sie mehr oder weniger moderiert sich selbst zu überlassen. Wobei es in der Praxis eher beim "weniger" bleiben wird, bedenkt man wie schlecht schon heute die Betreuungsverhältnisse an den meisten Unis sind. Kritisches Denken, das Hinterfragen und Aufarbeiten von Quellen setzt Vorwissen, eben Bildung und Erfahrung voraus; muss also gelernt und gelehrt werden. Die Studenten dabei sich selbst zu überlassen und zu erwarten, dass dann "magisch" durch die "Macht der Gruppe", oder um einen Hype zu nennen (der zum Glück schon wieder im abklingen ist) durch "Crowdsourcing" gefunden wird, ist bestenfalls eine Illusion.

Ich möchte in einem Punkt nicht falsch verstanden werden: das Internet, neue Medien etc. können in der Ausbildung sehr wertvolle Dienste leisten: durch leichter verfügbare Informationsquellen oder durch Kollaborationsmöglichkeiten oder interaktive Inhalte wie Simulationen. Die Rolle des Lehrers wird dadurch aber nicht unwichtiger sondern im Gegenteil viel wichtiger. Ebenso die Rolle der Universität oder Schule. Das Ergebnis von schlecht betreuten Studentenarbeiten können wir heute an jedem Eck finden: Seminar- und Diplomarbeiten die sich im wesentlichen darauf beschränken die ersten Google Hits zu verwenden oder Absätze aus dem erstbesten Wikipedia-Artikel unkritisch abzuschreiben, oder bei ganz fleißigen: diese immerhin umzuformulieren. 

Es kommt noch ein weiterer sehr problematischer Punkt als Folge von Gates relativ unkritischer Technikgläubigkeit hinzu: die Annahme nämlich, es gäbe "eine beste Vorlesung". Diese würde natürlich nach heutiger Universitätslogik vom MIT, Stanford oder ähnlichen "Eliteuniversitäten" kommen. Mit dieser Annahme wird aber gerade die Kernidee der Universität zumindest ausgehöhlt, wenn nicht zerstört. Es gibt einen guten Grund, warum "Freiheit" in der Lehre immer ein wichtiges Gut war und beispielsweise auch wesentlicher Teil der venia ist. Der Grund ist gerade der, dass es besonders in der Universitätslehre eben häufig nicht eine beste Vorlesung gibt. In der Vielfalt und der kritischen Diskussion liegt die Stärke: Das Internet erlaubt allerdings den motivierteren Studenten die Aussagen ihrer eigenen Professoren mit denen anderer Universitäten abzugleichen und damit zu verorten.

Wahrscheinlicher ist jedoch, dass Gates Vision zum Teil wahr werden wird und es darauf hinausläuft, dass wir die Lehre letztlich völlig aufs Abstellgleis schieben und wir dann vom Studiendekan nur mehr den Hinweis bekommen, es gäbe ja eh eine "super" Vorlesung aus Stanford. Warum verwenden wir nicht einfach diese anstatt uns selbst die Mühe zu machen uns mit dem Thema auseinanderzusetzen.  Damit wird der faule Professor, der schon heute nichts anderes macht als Präsentationen aus dem Internet zusammenzukopieren zur Norm. "Copy and Paste" auf der nächsten Ebene, statt kritischer Evaluierung und Nutzung verschiedenster Quellen. 

Ein tolles Beispiel für die Studenten und eine würdige Vision für die Zukunft der Lehre! Zum Abschluss noch ein weiteres Zitat vom Didaktik-Visionär Gates:
"One particular problem with the education system according to Gates is text books. Even in grade schools, they can be 300 pages for a book about math. "They’re giant, intimidating books," he said. "I look at them and think: what on Earth is in there?"
Nun möchte ich nicht behaupten, dass Schulbücher immer gut sind (ganz besonders nicht in den USA). Hierzu gibt es aber einen wesentlich berufeneren und lesenswerteren Kommentar von Richard Feynman.

Worauf Gates Kommentar aber meiner Ansicht nach hinausläuft ist genau die Bildungsfeindlichkeit die uns heute aus jeder Fernsehserie entgegenschlägt: "Wer braucht schon 100 Seiten Mathematik, zieh dir doch drei YouTube Videos rein, das reicht auch". Unsinn. Lernen ist manchmal schwierig, oft langwierig und eben nicht immer das reine Vergnügen. Wer etwas anderes behauptet lügt sich selbst und seinen Schülern etwas vor. Ja, multimediale Angebote, Spiele, Videos, Simulationen können manches leichter und verständlicher machen; Bücher können verbessert werden, dennoch: Lernen ist eben nicht nur vergnügtes Spielen sondern auch harte Arbeit. Auch das, oder gerade das sollte ein Lehrer vermitteln können. 

Dienstag, 20. Juli 2010

Das Phlogiston, oder Kampf der Theorien

Ich beschäftige mich gerade relativ intensiv mit Wissenschaftsgeschichte, unter anderem mit einem meiner Lieblingsthemen, dem Phlogiston. Ich finde das Thema aus mehreren Gründen spannend, in diesem Artikel sollen aber nicht die chemischen und historischen Details im Vordergrund stehen, sondern vielmehr wie gut Entwicklung und Fall der Phlogiston-Theorie verschiedene in der Geschichte immer wiederkehrende Aspekte des Wissenschafts-Prozesses offenlegt.

Aber ganz kurz aber ein Überblick über die Theorie und einige wesentliche Proponenten: Im 16. und 17. Jahrhundert waren die meisten Konzepte der modernen Chemie, auch solche die heute als Allgemeinbildung gelten, noch völlig unbekannt. Beispielsweise die Existenz der Gase Sauerstoff, Wasserstoff und CO2, oder die Tatsache, dass Wasser eine Verbindung von Wasserstoff und Sauerstoff ist. Auch der Unterschied bzw. Zusammenhang zwischen frei werdender Energie und stofflichen Umsetzungen war nicht klar. Verbrennt Wasserstoff (H2) mit Sauerstoff (O2) zu Wasser (H2O) so kann man dies aus der Sicht der chemischen Reaktion (der stofflichen Umsetzung) betrachten, gleichzeitig aber wird bei dieser Umsetzung  auch Energie frei.

Verbrennung an sich wurde natürlich beobachtet, aber eine Theorie dieses Phänomens fehlte weitgehend. Der deutsche Arzt und Chemiker Georg Ernst Stahl kam zu er Überzeugung, dass bei der Verbrennung etwas entweichen müsse. Diese Substanz nannte er Phlogiston. Daraus folgte unter anderem (1) Stoffe mit hohem "Phlogistongehalt" verbrennen besser als solche mit niedrigerem und (2) die Verbrennung läuft heftiger ab, wenn die Luft weniger mit Phlogiston gesättigt ist.

Diese Theorie war aufgrund der Faktenlage der damaligen Zeit durchaus nicht absurd, und konnte einige Phänomene gut erklären. Problematisch wurde es allerdings ab dem Zeitpunkt, wo Wissenschafter wie Lord Cavendish sowie Joseph Priestley in Experimenten Gase erzeugen konnten die offensichtlich von "normaler" Luft verschieden waren. Cavendish erkannte sogar dass die Verbrennung eines Gases, das er erzeugt hatte Wasser ergab. Das Gas war natürlich Wasserstoff (H2):

2 H2 + O2 ---> 2 H2O

Cavendish und Priestley hatten also vermutlich als erste Wasserstoff und Sauerstoff erzeugt. Allerdings, und an dieser Stelle wird es wirklich interessant, interpretierten Cavendish und Priestley die Ergebnisse nach heutigem Verständnis völlig falsch – eben auf Basis der Phlogiston Theorie. Wasserstoff wurde als "brennbare Luft", Sauerstoff als "enthphlogistierte Luft" bezeichnet. Letzterer nach der Logik, dass die Verbrennung umso stärker ablaufen kann je weniger Phlogiston in der Luft schon enthalten sind.

Selbst die Tatsache, dass die Rückstände mancher Substanzen (beispielsweise von Metallen) nach der Verbrennung schwerer sind als zuvor (weil Metalloxide gebildet werden) löste bei vielen Vertretern der Phlogiston-Theorie keine nennenswerten Zweifel aus. Wäre die Theorie richtig, würde man wohl eher das Gegeteil erwarten: eine Substanz (das Phlogiston) sollte ja die brennende Substanz verlassen, folglich sollten die Rückstände leichter nicht schwerer werden. Einige Vertreter der Phlogiston-Theorie schlugen daher eine negative Masse des Phlogistons vor! Erst Lavoisier (siehe Abbildung rechts) in Frankreich zog die richtigen Schlüsse aus der Vielzahl an Experimenten und verwarf die Phlogiston-Theorie zugunsten der Entdeckung neuer chemischer Elemente. Damit gilt er zurecht als einer der bedeutendsten Naturwissenschafter der Zeit.

Und damit komme ich zum Kern dieses Artikels. Die Phlogiston-Theorie illustriert meiner Ansicht nach eine Reihe von Mechanismen, die in der Geschichte der Wissenschaft – im Wechselspiel zwischen Generationen von Forschern, neuen Experimenten und vorhandenen Theorien – immer wieder zu beobachten sind:

(1) Es liegt ein mangelndes oder falsches Verständnis elementarer Prozesse vor (chemische Elemente, Energieübergänge, chemische Reaktionen)

(2) Ein Phänomen, das auf diesen elementaren Prinzipien aufbaut (Verbrennung), wird zu erklären versucht

(3) Für die Interpretation der Experimente – und das ist einer der wesentlichsten Punkte – ist die etablierte Theorie (Phlogiston) ausschlaggebend. An dieser Stelle wird auch klar ersichtlich, warum rein empirische Ideen nicht funktionieren können: Experimente können nicht im "luftleeren" Raum geplant, durchgeführt und interpretiert werden. Gewisse Ideen über die Natur, das System müssen vorhanden sein um ein sinnvolles Experiment durchführen zu können. Beispielsweise muss ich wissen oder wenigstens die Vermutung haben, dass es "Verbrennung" gibt und dass Substanzen sowie Luft (nach damaligem Wissensstand) daran beteiligt sind. Wie sonst sollte ich auf die Idee kommen Gase zu verbrennen und die Rückstände zu analysieren?

(4) Kommt es infolge dieser Interpretationsversuche zu erheblichen Ungereimtheiten (wie einer Massen-Zunahme bei der Verbrennung von Metallen) erfolgt häufig von den Vertretern der "alten" Theorie (Phlogiston) eine Modifikation derselben. Dies ist zunächst nicht verkehrt. Viele Theorien sind ja nicht sofort obsolet wenn widersprüchliche Erkenntnisse auftauchen, sondern bedürfen entsprechender Korrekturen. Ab einem bestimmten Punkt (Annahme der negativen Masse des Phlogistons, Äther der von der Erde mitbewegt wird usw.) werden die Modifikationen aber geradezu absurd. Und dennoch schaffen es viele Vertreter der alten Schule selbst an diesem Punkt nicht die Grundannahmen zu hinterfragen. Auch im 20. Jahrhundert findet man derartige Beispiele, etwa in der Diskussion zwischen Vertretern der Big Bang und der Steady State Theorie um Fred Hoyle.

(5) Meist folgt dann eine Spaltung in mehrere Lager, die häufig auch noch hart umkämpft sind. Die (meist älteren) Vertreter der "alten" Theorie mit noch größerer Autorität bestimmen häufig die Diskussion für eine Zeit. Lord Cavendish aber auch Joseph Priestley waren bis zu ihrem Tod heftige Verfechter der Phlogiston-Theorie, obwohl sie eigentlich selbst die Grundlage zu deren Ablösung gelegt hatten. Auch kämpfen die (meist jüngeren) Vertreter der "neuen" Theorie noch mit den Unzulänglichkeiten der neuen Theorie. Diese ist oft noch nicht so gut ausgearbeitet und führt damit im Detail oft zu schlechteren Vorraussagen als die (an sich falsche) ältere Theorie. Dies konnte im Streit um die Äther-Theorie aber auch in der Diskussion zwischen Vertretern des geo- und heliozentrischen Systems beobachtet werden.

Entgegen der häufigen Annahme ist es eben nicht so, dass das heliozentrische System einfach besser war und nur durch die Autorität der Kirche unterdrückt wurde. Zwar gab es diese Unterdrückung, aber auch auf rein wissenschaftlicher Ebene erlaubte das über lange Zeit ausgearbeitete geozentrische Modell (wenn auch mit komplexen Planetenbewegungen auf Epizyklen) deutlich bessere Voraussagen als das zunächst noch mangelhafte heliozentrische Modell. Erst die weiteren Modifikationen und Verbesserungen etwa durch Kepler (Ellipsenbahnen, Keplersche Gesetze) brachten dann endlich den wissenschaftlich gerechtfertigten Umschwung.

(6) Auch der Tod ist häufig ein wichtiger Faktor für den Meinungsumschwung in der wissenschaftlichen Community; wie Max Plank es ausdrückte: "Eine neue große wissenschaftliche Idee pflegt sich nicht in der Weise durchzusetzen, daß ihre Gegner allmählich überzeugt und bekehrt werden – daß aus einem Saulus ein Paulus wird, ist eine große Seltenheit – sondern vielmehr in der Weise, daß die Gegner allmählich aussterben und daß die nachwachsende Generation von vornherein mit der Idee vertraut gemacht wird." Ich denke, dass diese Ansicht etwas zu radikal ist, aber die tiefe menschliche Dimension des Fortschrittes von Ideen zeigt.

(7) Der Umschwung: Letztlich erkennt die Mehrheit der Wissenschafter eines Fachbereiches, dass die neue Theorie gegenüber der alten zu bevorzugen ist, bzw. die alte nur ein Spezialfall der allgemeingültigeren neuen Theorie ist. Es tritt eine neuen Phase, oder, wie Kuhn es ausgedrückt hat, ein neues Paradigma in Kraft.

Eine Schlussbemerkung sei trotz des langen Artikels noch erlaubt: Man darf auch nicht vergessen, dass in historischer Betrachtung, also aus unserem heutigen Blickwinkel, manche Streitigkeiten und das Festhalten an bestimmten Ideen lächerlich wirken mag. Derartige Beurteilungen sollten aber mit Vorsicht geschehen. Mit dem Wissen der heutigen Zeit, mit dem Wissen um die konkreten Irrtümer der Vergangenheit, mit dem Wissen um neue empirische Ergebnisse, lässt sich leicht über die "Starrsinnigkeit" Einzelner urteilen. Man darf dabei aber nicht vergessen, dass in der wissenschaftlichen Diskussion laufend irgendjemand irgendwelche "alternative" Theorien vorschlägt. Die meisten dieser Vorschläge sind aber einfach falsch oder unsinnig.

Ein gewisses Beharrungsvermögen ist also durchaus im Sinne des Fortschrittes notwendig. Radikale neue Ideen erfordern auch herausragende Evidenz, besonders wenn sie gegen sehr erfolgreiche vorhandene Theorien antreten wollen. Wäre die Wissenschaft laufend von einer "gut klingenden" Idee zur nächsten gehüpft, wären wir mit Sicherheit nicht an dem Punkt des Wissens angelangt an dem wir uns heute sehen.

Zum Abschluss...

Es freut mich, dass Sie sich die Zeit genommen haben, mein Blog zu lesen. Natürlich sind viele Dinge, die ich hier diskutiere aus einem subjektiven Blickwinkel geschrieben. Vielleicht teilen Sie einige Ansichten auch nicht: Es würde mich jedenfalls freuen, Kommentare zu lesen...

Noch ein Zitat zum Schluß:

"Ich verhielt mich so, als wartete ein Heer von Zwergen nur darauf, meine Einsicht in das Tagesproblem, zur Urteilsfindung von Gesellschaft und Politik zu übersetzen. Und nun stellt sich heraus: Dieses Heer gibt es nicht.

Ganz im Gegenteil erweist sich das kulturelle Getriebe als selbstimmunisierend gegen Kritik und Widerlegung. Es ist dem Lernen feind und wehrt sich in kollektiver Geschlossenheit gegen Umdeutung und Innovation.", Rupert Riedl, Evolution und Erkenntnis, Piper (1985)

:-)