Archiv für Kleine Wissenschaft des Fehlers

Fehlerkultur: Was Redaktionen von Piloten lernen können

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute der letzte Teil: Fehlerkultur und Korrekturen.

***

Als Volontär habe ich von einem Kollegen den Satz gelernt: „Wir korrigieren nur, wenn einer anruft.“ Ich hatte einen Fehler gemacht und jemanden gefragt, wie ich damit am besten umgehe. Dass man auf einen Fehler reagieren musste, kam selten vor, aber auch dann gab es noch mehrere Möglichkeiten, eine unangenehme Korrektur zu umgehen. Man sagte zum Beispiel: „Wir berichten morgen noch mal, und dann steht’s ja richtig in der Zeitung.“ Natürlich erwähnte man dann am darauffolgenden Tag nicht, dass man zuvor einen Fehler gemacht hatte. Und das tat man auch dann nicht, wenn jemand anrief, der fand, da sei ja nun einiges durcheinander geraten. Dann konnte man sagen: „Wir kommen einfach zu Ihnen und machen die Geschichte noch mal aus Ihrer Perspektive.“

Führte wirklich kein Weg an einer Korrektur vorbei, bot sich immer noch die Formulierung „aufgrund eines technischen Fehlers“ an.

Fairerweise muss man sagen: Das war vor 15 Jahren, und es gingen nicht alle so vor. Allerdings scheint dieser Umgang mit Fehlern heute immer noch recht üblich zu sein. Auch bei großen Medien sind die Auffassungen darüber, was man tun sollte, wenn Fehler passiert sind, sehr verschieden. In dem im Mai erschienenen Abschlussbericht (PDF) nach dem Betrugsfall Relotius schreibt die vom „Spiegel“ eingesetzte Kommission:

Die Meinung darüber, ob Fehler in Texten im Nachhinein korrigiert werden sollen, gehen weit auseinander. Im Gegensatz zu SPIEGEL ONLINE, wo sich klare Regeln zum Umgang mit Fehlern entwickelt haben, gilt das fürs Heft nicht. Es existiert sowohl die Auffassung, Fehler sollten gar nicht erwähnt werden, als auch, jeder Fehler sollte korrigiert werden.

Der „Spiegel“ ist damit nicht allein. In vielen Online-Medien hat sich zwar die Praxis etabliert, Fehler nicht nur richtigzustellen, sondern die Korrekturen auch transparent zu machen. Aber in Print-Produkten sind Korrekturmeldungen weiterhin eher die Ausnahme.

Auch international gibt es große Unterschiede. Der Journalistik-Professor Stephan Russ-Mohl schreibt in seinem Buch „Die informierte Gesellschaft und ihre Feinde“:

In Amerika besteht seit langem ein Konsens, dass Fehler korrekturbedürftig sind und es der Glaubwürdigkeit von Redaktionen aufhilft, wenn sie diese freiwillig berichtigen. (…) Die grundsätzliche Bereitschaft, amerikanischer Nachrichtenmedien, Fehler zu berichtigen, hebt sich wohltuend von den Vertuschungsmanövern und vom Beschweigen der eigenen Unzulänglichkeiten in Europa ab.

Die „New York Times“ etwa zeigt auf ihrer Website in einer Übersicht, welche Artikel online korrigiert worden sind. Am 8. Juni dieses Jahres, als ich diesen Text geschrieben habe, waren es fünf, am 7. Juni waren es sieben, am 6. Juni waren es 15. In derselben Rubrik sind auch die richtiggestellten Fehler aus der gedruckten Zeitung zu finden. Hier waren es am 8. Juni sieben, am 7. Juni elf und am 6. Juni acht.

In der „FAZ“ habe ich zwischen dem 6. und 8. Juni eine einzige Fehlerkorrektur gefunden: Am 6. Juni berichtigte die Redaktion in ihrem Regionalteil auf Seite 30 eine Zahl.

Ausriss aus der FAZ - Korrektur - Die Facebook-Seite der hessischen CDU hat das 12.000 Abonnenten und nicht, wie in der Mittwochausgabe irrtümlich berichtet, 1200. Wir bitten, den Fehler zu entschuldigen.

Die erkennbaren Unterschiede zwischen Online- und Print-Medien innerhalb Deutschlands deuten darauf hin, dass kulturelle Unterschiede zwischen den USA und Europa nur ein Teil der Erklärung sind. Offenbar spielt auch die Kultur innerhalb einer Redaktion eine wichtige Rolle.

Dafür gibt es eine einfache Erklärung: Je seltener eine Redaktion korrigiert, desto schmerzhafter wird die Berichtigung für die einzelnen Journalistinnen und Journalisten. Die Fehlerforscher Scott Maier und Colin Porlezza beschreiben die Situation als ein Gefangenendilemma:

Journalisten, die ihre Fehler gewissenhaft korrigieren, erscheinen weniger genau als ihre Kollegen, die ihre Fehler nicht eingestehen und keine Korrekturen vornehmen.

Eines wird sich allerdings nicht ändern lassen: Korrekturen werden für Einzelne auch dann unangenehm bleiben, wenn sie regelmäßig vorkommen. Für Redaktionen kann das sogar ein Vorteil sein, denn es steigert den Anreiz, sorgfältig zu arbeiten. Regelmäßige Korrekturen verhindern allerdings nicht, dass Journalistinnen und Journalisten ihre eigenen Fehler vertuschen. Das passiert schnell, wenn das Ziel ist, Fehler um jeden Preis zu vermeiden. Peter Klaus Brandl schreibt in seinem Buch „Crash-Kommunikation“:

Eine fehlerfeindliche Kultur geht davon aus, dass Fehler nicht sein dürfen und um jeden Preis verhindert werden müssen. Sie ignoriert damit schlicht die menschliche Fehlbarkeit. Das führt zum Vertuschen und Verschweigen von Fehlern

Im Journalismus sind die Folgen von vertuschten Fehlern oft überschaubar. Deswegen hat die Fehlerkultur in der Regel keine besonders hohe Priorität. In der Luftfahrt ist das anders. Dort ist man sehr viel weiter.

Eine wichtige Rolle spielt die Hierarchie. Angenommen im Cockpit sitzen zwei Piloten, ein sehr junger und ein erfahrener. Fragt man Menschen, was sie für sicherer halten — wenn der junge Pilot fliegt, und der erfahrene als Co-Pilot danebensitzt, oder umgekehrt –, antworten die meisten: Besser ist, wenn der erfahrene Pilot fliegt.

Tatsächlich ist es umgekehrt. Denn der Co-Pilot hat unter anderem die Aufgabe einzugreifen, wenn der Pilot einen Fehler macht. Der erfahrene Pilot wird nicht lange zögern, den jungen Kollegen auf einen Fehler aufmerksam zu machen, der jüngere Kollege umgekehrt vielleicht schon.

Auf den Journalismus übertragen bedeutet das: Wenn Mitarbeiterinnen und Mitarbeiter es nicht wagen, ihre Chefs zu kritisieren, und diese die wichtigsten Aufgaben dazu noch gern selbst übernehmen, steigt die Wahrscheinlichkeit von Fehlern enorm. Leider ist beides oft gleichzeitig der Fall.

Wie Chefs sich richtig verhalten, um eine solche Situation zu verhindern, beschreibt Jan Hagen, Professor an der privaten Hochschule ESMT in Berlin. Er erforscht das Fehlermanagement in der Luftfahrt. Und was er über Piloten sagt, lässt sich so auch auf Redaktionsleiterinnen oder Chefredakteure übertragen:

Der Kapitän darf zum Beispiel nicht zu dominant sein, muss sich ein Stück zurücknehmen. Er soll den Informationsfluss managen und nicht derjenige sein, von dem der Informationsfluss ausgeht. Es ist nicht der Pilot gut, der viele Befehle gibt und Situationen schnell analysiert, sondern der, der viel fragt, viel Input einfordert und dann entscheidet. Ein weiteres wichtiges Instrument: Fehler sollten nicht bestraft werden.

Die ideale Fehlerkultur beschreibt Peter Klaus Brandl so:

Eine positive Fehlerkultur (Non-Blaming-Culture) setzt eine Unternehmenskultur voraus, die von Offenheit, Fairness und gegenseitigem Respekt geprägt ist. Und die akzeptiert, dass Fehler zum Arbeitsalltag dazugehören.

Eine Besonderheit im Journalismus ist, dass der Begriff „Nestbeschmutzer“ weit verbreitet ist. Es gilt als verpönt, Kolleginnen oder Kollegen zu kritisieren. Das ist ein Ergebnis des Abschlussberichts der Relotius-Kommission, und auch Medienforscher beschreiben das immer wieder.

Hans Mathias Kepplinger berichtet in seinem Buch „Totschweigen und Skandalisieren – was Journalisten über ihre eigenen Fehler denken“ über eine Befragung von Wissenschaftlern, Ingenieuren und Journalisten, in der es um die Frage ging, ob man Kolleginnen und Kollegen namentlich nennen sollte, die einen gravierenden Fehler gemacht haben. 48 Prozent der Ingenieure sagten: Ja, das wäre in dem konkreten Fall angebracht. Aber nur 19 Prozent der Journalisten sahen das so. In einem Vergleich zwischen Journalisten und Wissenschaftlern zu einem anderen Fehlverhalten waren nur 5 Prozent der Journalisten dafür, Namen von Kolleginnen und Kollegen zu nennen, aber 61 Prozent der Wissenschaftler.

Diese Kultur ist im Journalismus anscheinend tief verwurzelt. Und das verstärkt das Problem. Kepplinger schreibt:

Journalisten schweigen zu Fehlern von Journalisten (…) vermutlich auch deshalb, weil das berufliche Umfeld dafür [Kollegenkritik] kein Verständnis hätte.

Im Umgang mit eigenen Fehlern offenbaren Journalistinnen und Journalisten ihr Selbstverständnis — und damit eben unter Umständen, dass dies nicht mehr ganz aktuell ist. Als das Internet im Journalismus noch keine Bedeutung hatte, und die Rollen klar in die der Sender (Journalisten) und die der Empfänger (Publikum) verteilt waren, bestand noch nicht die Notwendigkeit, auf Fehler zu reagieren. Man warf den Leserbrief einfach in den Müll. Damit war die Sache erledigt. Heute kann sich so etwas schnell zu einem Flächenbrand auswachsen. Aber viele Journalistinnen und Journalisten sind mit der veränderten Situation noch immer nicht vertraut.

Der Medienwissenschaftler Bernhard Pörksen beschreibt das in seinem Buch „Die große Gereiztheit“ so:

In der redaktionellen Gesellschaft der Zukunft müssen Journalistinnen und Journalisten ihr Verhältnis zum aktiv und medienmächtig gewordenen Publikum grundsätzlich überdenken, dieses anders entwerfen, sich von der arroganten Simulation von Allwissenheit, der Rolle des Predigers, des Pädagogen und Wahrheitsverkünders verabschieden, zum Zuhörer und Moderator und gleichberechtigten Diskurspartner werden.

Heute können Journalistinnen und Journalisten einen Leserbrief nicht mehr in den Müll werfen, und dann ist Ruhe, weil sie gar nicht mehr gebraucht werden, um Dinge öffentlich zu machen. Wo nun jeder Publizist sein kann, werden sie gebraucht, um Informationen zu beschaffen, alles zusammenzutragen und zu bewerten, aber dann nicht mehr wie früher ein fertiges Produkt hinzustellen, an dem sich nur noch dann etwas ändert, wenn eine Korrektur sich nicht vermeiden lässt. In dieser veränderten Welt beginnt mit der Veröffentlichung eine neue Phase.

Der „kategorische Imperativ eines in dieser Weise verwandelten Journalismus“ ist laut Bernhard Pörksen: „Begreife die eigene Kommunikation nie als Endpunkt, sondern immer als Anfang und Anstoß von Dialog und Diskurs.“

Damit verändert sich auch das Verständnis des journalistischen Produkts fundamental. Journalistinnen und Journalisten können nicht mehr für sich in Anspruch nehmen, in der Lage zu sein, die komplizierte Welt auf Anhieb umfassend darzustellen. Sie versuchen im Idealfall, sich mit einer immer genauer werdenden Beschreibung der Wirklichkeit langsam zu nähern. In diesem Prozess sind Ergänzungen und Korrekturen kein peinliches Eingeständnis von dummen Fehlleistungen, sondern notwendige Schritte, um dem Ziel näher zu kommen, ein vollständiges Bild zu liefern.

David Broder, langjähriger Kolumnist der „Washington Post“, formulierte diesen Gedanken schon im Jahr 1987. Es geht um den Slogan der „New York Times“, der das Selbstverständnis der Zeitung zum Ausdruck bringt: „All the news that’s fit to print“ (laut Wikipedia in etwa: „Alle Nachrichten, die es wert sind, gedruckt zu werden.“). Broder sagte:

Statt den Menschen „All the News That’s Fit to Print“ zu versprechen, würde ich mir wünschen, dass wir immer wieder betonen: Die Zeitung ist eine teils hastige, unvollständige, unvermeidlich fehlerhafte und ungenaue Wiedergabe einiger der Dinge, von denen wir in den letzten 24 Stunden gehört haben. Wenn wir die Zeitung mit einem korrekten Label versehen würden, würden wir hinzufügen: „Aber es ist das Beste, was wir unter den gegebenen Umständen machen können, und morgen bringen wir eine korrigierte und aktualisierte Version.“

Alan Rusbridger, der ehemalige Chefredakteur des „Guardian“, zitiert Broder in seinem Buch „Breaking News – The Remaking of Journalism and why it matters now“. Über 30 Jahre nach Broders Aussage haben sich die Rahmenbedingungen verändert: Heute geht es nicht mehr nur um die Zeitung, und es dauert auch keinen ganzen Tag mehr bis zur nächsten Aktualisierung. Aber das alte Ideal des auf Anhieb allumfassend erklärenden journalistischen Beitrags hält sich noch immer. Rusbridger schlägt vor, journalistische Stücke nicht mehr als Werk zu verstehen, „das so bleibt, wie es geschaffen wurde“, sondern die „Bereitschaft zur Korrektur zu einem wesentlichen Instrument des Journalismus zu machen“. Die Korrektur oder Ergänzung wäre dann nicht mehr ein Makel, sondern der Hinweis darauf, dass man der Wahrheit noch etwas näher gekommen ist. Bliebe die Frage, ob das möglich ist. Alan Rusbridger schreibt, sein Instinkt sage ihm, „diese Art von Veränderung“ sei „wahrscheinlich unvermeidlich“.

Korrektur, 11:27 Uhr: Anschauungsmaterial in eigener Sache: In einer ersten Version dieses Textes befand sich ein Absatz, in dem stand, dass es so aussehe, als habe die „FAZ“ in ihrer Korrektur versucht, eine falsche Angabe zu einem Vertipper herunterzuspielen. Wir hatten dabei allerdings Abonnenten- und „Gefällt mir“-Angaben verwechselt — und dadurch selbst einen Fehler produziert. Wir bitten, dies zu entschuldigen. Den Absatz mit dem Fehler haben wir gelöscht.

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier, Teil 3 hier, Teil 4 hier, Teil 5 hier, Teil 6 hier und Teil 7 hier. Oder alle Teile auf einmal hier.

Das Zeugenproblem: Die Erinnerung ist eine Wikipedia-Seite

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 7: unzuverlässige Zeugen.

***

Wenn Menschen Zeuge eines Unfalls werden, passiert es danach erstaunlich oft, dass sie in ihrer Aussage bei der Polizei angeben, sie hätten erst einen Knall gehört und sich dann umgedreht. Trotzdem sind sie fest davon überzeugt, den Unfall beobachtet zu haben. In der Rechtssprache nennt man diese Menschen Knallzeugen. Das Phänomen beobachtet man auch bei Raubüberfällen, wenn geschossen wurde. Menschen glauben, sie könnten ihrer Erinnerung vertrauen, doch in Wirklichkeit war alles ganz anders.

Auch Journalistinnen und Journalisten haben mit diesen Menschen zu tun. Es kann sein, dass sie gründlich recherchiert und mit mehreren Zeugen oder Zeuginnen gesprochen haben, aber die Informationen, die sie erhalten haben, trotzdem falsch sind. Hinzukommt: Sie selbst sind natürlich kein Stück besser. Auch Journalistinnen und Journalisten verlassen sich auf ihre Erinnerung, obwohl das sehr oft keine gute Idee ist.

Eine beliebte Übung in Reportage-Seminaren ist, allen Teilnehmenden eine Szene vorzuführen oder erleben zu lassen und ihnen im Anschluss die Aufgaben zu geben, die Szene zu beschreiben. Das Ergebnis ist üblicherweise: Alle Beschreibungen fallen völlig unterschiedlich aus. Das liegt nicht nur an Erinnerungsverzerrungen, sondern auch daran, wohin Menschen ihre Aufmerksamkeit lenken und was sie mit dem Gesehenen verbinden.

Die 3Sat-Wissenschaftssendung „Nano“ hat für einen Beitrag in einem Experiment die Zuverlässigkeit von Zeuginnen und Zeugen untersucht. Zehn Menschen erlebten einen inszenierten Überfall. Danach sollten sie versuchen, sich an den Täter zu erinnern und ihn zu beschreiben. Der Überfall hatte direkt vor ihren Augen stattgefunden. Trotzdem lagen die Altersangaben der Zeuginnen und Zeugen um bis zu 30 Jahre auseinander. Auf Fotos konnte nur die Hälfte den Mann identifizieren.

In dem Beitrag kommt auch der Gedächtnisforscher und Gerichtsgutachter Hans Markowitsch zu Wort. Er sagt: „Stresshormone […] führen dazu, dass man auch seine Wahrnehmung sehr eng ausrichtet, und alles in der Peripherie wird mehr oder minder ausgeblendet.“ Etwa die Hälfte aller Aussagen vor Gericht seien weit von der Wahrheit entfernt.

Ein großes Missverständnis ist, dass viele Menschen denken, dass das Gedächtnis wie eine Speicherkarte funktioniert. Die us-amerikanische Psychologin Elizabeth Loftus vergleicht es in ihrem TED-Vortrag „How reliable is your memory?“ mit einer Wikipedia-Seite: „Du kannst dort hineingehen und es verändern. Und andere können das auch“, sagt sie.

Der Rechtspsychologin Julia Shaw ist es in einem Experiment gelungen, 70 Prozent der Probandinnen und Probanden falsche Erinnerungen einzupflanzen und sie davon zu überzeugen, dass sie eine Straftat begangen haben. Die Menschen erinnerten sich anschließend in einer großen Detailtreue. Sie konnten ihre Emotionen exakt beschreiben. Und die Erinnerungen ließen sich auch danach noch umprogrammieren. „Wir müssen wissen, dass mehrere Befragungen auch dazu führen können, dass Täter mehr Missinformationen mit einbauen in ihr Erinnern“, sagt Shaw in einem Beitrag des ARD-Wissenschaftsmagazins „Planet Wissen“. Und das ist auch für die Arbeit von Journalistinnen und Journalisten von Bedeutung.

Augenzeugen müssen häufig einen ganzen Interview-Marathon absolvieren. Wenn Journalistinnen und Journalisten Gesprächspartner brauchen, nehmen sie oft die, von denen sie wissen, dass diese bereit sind, etwas zu sagen, weil sie auch schon mit Kolleginnen oder Kollegen gesprochen haben. Aber es kann sein, dass die Befragten beim fünften oder siebten oder zehnten Interview schon eine leicht veränderte Geschichte erzählen: „Je öfter man jemanden befragt, desto mehr kann sich das Erinnern verändern“, sagt Julia Shaw. Jedes erneute Erzählen und jede Suggestivfrage können die Erinnerung formen und Details zu einem festen Bestandteil einer Erzählung werden lassen, obwohl die Befragten sich anfangs gar nicht so sicher waren.

Wie leicht sich die Erinnerung durch Fragen in eine Richtung lenken lässt, zeigt zum Beispiel der Priming-Effekt*: Ein Reiz löst bestimmte Assoziationen aus. Das lenkt das Denken — und sogar das Verhalten. Der Psychologe Daniel Kahneman beschreibt diese Effekte in seinem Buch „Schnelles Denken, langsames Denken“.

Studien zeigen: Menschen, die mit Begriffen konfrontiert werden, die mit dem Altern zu tun haben, bewegen sich danach langsamer. Und der Effekt funktioniert auch umgekehrt: Menschen, die aufgefordert werden, langsam zu laufen, erkennen Wörter, die mit dem Altern zu tun haben, sehr viel schneller wieder.

Der jeweilige Reiz kann ein Bild oder ein Geruch sein, aber eben auch Fragen. Beantworte zum Beispiel im Kopf diese Fragen:

  • Welche Farbe hat der Kittel eines Arztes?
  • Welche Farbe haben Wolken?
  • Welche Farbe hat Schnee?
  • Was trinkt die Kuh?

Bei der vierten Frage denken viele Menschen zuallererst an Milch, obwohl die richtige Antwort natürlich wäre: Wasser.

Auf diese Weise können Fragen von Journalistinnen und Journalisten Einfluss darauf nehmen, wie Befragte sich erinnern. Und natürlich betrifft der Effekt die Journalistinnen und Journalisten auch selbst.

Eines der bekanntesten Beispiele dafür, wie sehr uns unser Gehirn in die Irre führen kann, ist dieser Aufmerksamkeitstest (Achtung, leichter Spoiler!): Man sieht ein schwarz gekleidetes Team und ein weiß gekleidetes Team, die sich Bälle hin und her werfen. Man soll die Pässe zählen. Doch wenn man das macht, übersieht man schnell ein wichtiges Detail. Das Video ist ein Beispiel für das Phänomen der selektiven Wahrnehmung.

Menschen sehen nur das, was sie suchen. Im Journalismus kann das zu falschen Darstellungen führen — meist mit nicht besonders dramatischen Folgen. In anderen Berufen steht sehr viel mehr auf dem Spiel: In dem Buch „Crash-Kommunikation: Warum Piloten versagen und Manager Fehler machen“ beschreibt Peter Klaus Brandl den Hergang eines Flugzeugabsturzes in Spanien im Jahr 2008. Eine Maschine war wenige Kilometer von Madrid entfernt kurz nach dem Start in ein Flusstal gestürzt. Die Absturzursache, wie Experten später feststellten: Die Crew hatte vergessen, die Landeklappen auszufahren. Eigentlich im Cockpit eine absolute Selbstverständlichkeit, laut Brandl „so selbstverständlich wie Schuhe anziehen“.

Wie das passieren konnte? Die Crew hatte schon einen Startversuch abbrechen müssen**. Beim zweiten Mal versäumte sie, wie das Luftfahrtmagazin „Austrianwings“ schreibt, mehrere Routine-Schritte. Ein defektes Alarmsystem machte sie nicht auf den Fehler aufmerksam. Das alles passierte unter großem Stress. Ein weiterer Abbruch hätte sie Stunden gekostet.

Im Journalismus gehen Stresssituationen in der Regel viel glimpflicher aus, aber auch dort führen sie dazu, dass Dinge übersehen werden — nicht nur bei der Aufnahme von Informationen, auch danach noch. Etwa beim Redigieren von Texten. Wer Grammatik- oder Rechtschreibfehler finden möchte, übersieht unter Umständen, wenn etwas inhaltlich nicht stimmt. Und das ist oft die Erklärung, wenn die Frage gestellt wird: Wie kann das denn passieren — das haben doch drei Leute gelesen?

Aber auch auf der Suche nach Rechtschreibfehlern kann vieles schiefgehen, weil das Gehirn es sich leicht macht und nach Mustern sucht. Deswegen können Menschen Sätze lesen, in denen zwar alle Buchstaben vorhanden sind, aber nur der erste und der letzte Buchstabe bei jedem Wort an der richtigen Stelle stehen.

Aslo ugneähfr so.

Das bewirkt allerdings nicht nur, dass Menschen Wörter lesen können, die falsch geschrieben sind, sondern eben auch, dass sie beim Redigieren falsche Wörter übersehen. Genau das dürfte hier passiert sein:

Ausriss eines Zeitungsartikels - Ein Anwohner hatte gegen 12 Uhr einen Knall

Ein anderer typischer Fehler ist, Texte zwar sorgsam auf inhaltliche und grammatikalische Fehler zu durchsuchen, aber den Blick fürs Ganze zu verlieren. Wenn man Pech hat, sieht das dann so aus:

Ausriss eines Zeitungsartikels - Pferdetourismus in Planung - dazu ein Foto einer Schafsherde

Aber was kann man dagegen tun?

Um sich nicht von der eigenen Erinnerung täuschen zu lassen, sind genaue Aufzeichnungen unglaublich hilfreich. Das ist eine banale Erkenntnis, die es aber noch immer nicht in alle Redaktionen geschafft hat. Telefoninterviews nur mit dem Stift mitzuschreiben oder sich darauf zu verlassen, dass man sich an ein Zitat später schon irgendwie erinnern wird, ist weit verbreitet und eigentlich immer eine schlechte Idee, wenn es darum geht, Fehler zu vermeiden.

Gegen Erinnerungsverzerrungen bei Gesprächspartnern kann man sich nur schützen, indem man die Informationen prüft. Aber das ist nicht immer möglich. Es kann aber sinnvoll sein, sich die gleiche Sache noch mal von einer anderen Person erzählen zu lassen, auch wenn man denkt, man habe doch schon alles erfahren.

Eine unscheinbare, ziemlich langweilig klingende, aber überraschend wirkungsvolle Methode, um Gedächtnisfehler zu vermeiden, ist die Checkliste. Mit ihr lassen sich Text-Bild-Scheren, Fehler in Überschriften oder Bildunterschriften in vielen Fällen vermeiden. Und wirklich nützlich wird die Checkliste, wenn man das Gefühl hat, dass man sie eigentlich nicht mehr braucht. Denn neben dem Gedächtnis ist eine weitere mindestens ebenso unangenehme Fehlerquelle: die Routine.

*Nachtrag, 23. Dezember: Zwei Leser haben uns darauf hingewiesen, dass neue Studien die in Daniel Kahnemans Buch „Schnelles Denken, langsames Denken“ dargestellten und hier oben beschriebenen Forschungsergebnisse zum „Priming“ so nicht bestätigen. Eine dieser Studien findet man hier. Ein vor knapp zwei Wochen erschienener Beitrag in der Fachzeitschrift „Nature“ fasst den aktuellen Stand der Debatte zusammen. Herzlichen Dank für die Hinweise an Simon B. und Frank R.!

**Korrektur, 23. Dezember: Ein Leser hat uns darauf hingewiesen, dass die Darstellung des Flugzeugabsturzes in dem Buch „Crash-Kommunikation: Warum Piloten versagen und Manager Fehler machen“, die wir weiter oben zusammengefasst haben, nicht ganz richtig ist: Laut dem im Luftfahrtmagazin „Austrianwings“ dargestellten abschließenden Untersuchungsbericht ereignete sich der Absturz nicht beim dritten, sondern beim zweiten Startversuch. Und eine Ungenauigkeit in unserer Darstellung: Die Piloten übersahen keine Warnleuchte, sie versäumten eine Kontrolle. Eine Alarmvorrichtung machte sie nicht darauf aufmerksam, weil sie defekt war. Wir haben das korrigiert. Herzlichen Dank an Harald S. für den Hinweis!

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier, Teil 3 hier, Teil 4 hier, Teil 5 hier und Teil 6 hier. Oder alle Teile auf einmal hier.

Storydenken: Das Format formt die Wirklichkeit

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 6: Storydenken.

***

Im Jahr 1944 veröffentlichten die österreichischen Psychologen Fritz Heider und Marianne Simmel eine etwas mehr als eine Minute lange Animation, die zwei Dreiecke und einen Punkt zeigen. Die Formen bewegen sich innerhalb und außerhalb eines Rechtecks. Probandinnen und Probanden bekamen die Aufgaben, sich die Szene anzusehen und sie zu beschreiben.

Einige von ihnen schilderten eine Verfolgungsjagd, andere eine Eifersuchtsszene. In den Dreiecken und dem Punkt sahen sie häufig zwei Männer und ein Frau. Das Quadrat stellten sie sich als Haus vor. Sie machten sich Gedanken über die Motive der Figuren und über deren Gefühle. Einige Deutungen glichen einer Seifenoper. Nur: Einen Punkt, zwei Dreiecke und ein Rechteck sah so gut wie niemand. Die Beschreibungen hatten fast alle eine Gemeinsamkeit: Sie waren eine Geschichte.

Ungefähr so scheint der Mensch zu funktionieren. Wo er auch hinschaut, entdeckt er Sinn und Zusammenhänge. Das ist das Format, in dem das Gehirn Informationen speichert. Und in dieses Format konvertieren Menschen alles, was sie sehen und erleben.

Im Rückblick sieht fast alles so aus, als wäre es eine zwangsläufige Folge aus sich logisch auseinander ergebenden Ereignissen, obwohl vieles im Leben einfach durch Zufall passiert, und man bei einer genaueren Untersuchung feststellen würde: Es hat keinen Sinn. Diesen Fall lässt das Gehirn allerdings nur ungern zu. Wo es keinen Sinn erkennen kann, schließt es die Sinnlücke mit einer eigenen Konstruktion. Und das ist im Journalismus ein Problem, denn es führt zu einer Verzerrung, die als Story bias bekannt ist.

Menschen biegen sich die Dinge gern so zurecht, dass sie zu einer guten Geschichten werden. Sie unterschlagen Details, die nicht ins Bild passen. Sie konstruieren Zusammenhänge, wo keine sind. Diese Tendenz bewirkt, dass Gerüchte oft immer abenteuerlicher werden, weil neue Details hinzugedichtet werden, die aus dem Gerücht eine noch bessere Geschichte machen. Im Grunde beschreibt das Story bias ein Grundprinzip der „Bild“-Zeitung: Die Geschichte ist wichtiger als die Wahrheit.

Der Effekt führt auch dazu, dass Geschichten ohne schlechte Absicht so sehr vereinfacht werden, dass sie die Wirklichkeit kaum noch abbilden können. Eine Weltwirtschaftskrise oder ein Krieg zum Beispiel lassen sich wunderbar im Info-Grafik-Format erklären. Erst passierte dies, dann das, dann kam der nächste Schritt. So wird das Ereignis am Ende greifbar, aber es entsteht der falsche Eindruck, dass die Welt sich wie ein Domino-Spiel erklären lässt — und bei den gegebenen Ereignissen alles zwangsläufig so kommen musste.

Der Schriftsteller Rudolf Dobelli beschreibt das Story bias in seiner Kolumnensammlung „Die Kunst des klaren Denkens“ an einem Beispiel: Eine Brücke stürzt ein und reißt einen Autofahrer mit in die Tiefe. Danach wird man die tragische Geschichte des Autofahrers lesen. Vielleicht war er auf dem Weg zu seiner Familie. Vielleicht kam er gerade von der Arbeit. Vielleicht wollte er in der Woche darauf heiraten.

Nur das, was eigentlich passiert ist, ist keine gute Geschichte. Die Brückenkonstruktion hat aus irgendeinem Grund nachgegeben, vielleicht durch eine komplizierte Kette aus unglücklichen Zufällen, die sich nicht zurückverfolgen lässt. Für Menschen sind aber vor allem die Menschen interessant.

Journalistinnen und Journalisten gehen zudem gern so vor, dass das Ergebnis schon vor der Recherche feststeht. Sie formulieren eine These und suchen dann nach den passenden Belegen. Im Januar 2019 musste der WDR einräumen, dass die Wirklichkeit sich doch etwas anders darstellte, als sie in einigen Dokumentationen der Reihe „Menschen hautnah“ gezeigt wurde. Eine Autorin hatte Protagonisten für eine Doku aus einer Komparsen-Datenbank rekrutiert. Die Geschichte stimmte so nicht ganz. Es sollte alles etwas besser klingen, als es wirklich war.

Dass ein Beitrag schon vor der Recherche steht, ist keine Besonderheit der WDR-Doku-Reihe. Das zeigt zum Beispiel der Abschlussbericht über den Fall Relotius beim „Spiegel“. An einer Stelle zitiert das Autoren-Team aus einer inzwischen sehr bekannt gewordenen E-Mail. Der damalige Leiter des Gesellschaftsressorts, Matthias Geyer, gibt darin Anweisungen zu Aufbau und Inhalt einer Reportage:

Dort heißt es unter anderem: „Wir suchen nach einer Frau mit Kind. Sie kommt idealerweise aus einem absolut verschissenen Land (…) Sie setzt ihre Hoffnung auf ein neues, freies gutes Leben in USA (…) Es muss eine sein, die mithilfe eines Kojoten über die Grenze will (…) Die Figur für den zweiten Konflikt beschreibt Claas (…) Dieser Typ wird selbstverständlich Trump gewählt haben, ist schon heiß gelaufen, als Trump den Mauerbau an der Grenze ankündigt hat, und freut sich jetzt auf die Leute dieses Trecks, wie Obelix sich auf die Ankunft einer neuen Legion von Römern freut (…) Wenn ihr die richtigen Leute findet, wird das die Geschichte des Jahres.“

Wie die Geschichte aussehen soll, steht schon vor der Recherche fest. Das Ergebnis muss in die vorgegebene Form passen. Und wenn das der Fall ist, steht am Anfang der Recherche nicht die Frage: Wie ist es gewesen? Sondern: Woher bekomme ich das Personal?

In diesem Fall sollte die Story offenbar möglichst preiswürdig sein. In anderen Fällen konstruieren Journalistinnen und Journalisten, weil es schneller geht, als ergebnisoffen zu recherchieren — oder weil sie davon überzeugt sind, die Antwort eh schon zu haben.

Pressesprecher sagen, sie kennen das. Wenn sie von Journalistinnen und Journalisten angerufen werden, wüssten diese oft längst, was sie hören wollen. Sie bräuchten nur noch jemanden, der es sagt. Der Bundesverband deutscher Pressesprecher hat im Jahr 2015 eine Studie mit dem Titel „Thesenjournalismus statt ergebnisoffener Recherche?“ veröffentlicht. Dazu hatte er über eintausend Pressesprecher befragt. Ein Ergebnis war:

Über alle Medien hinweg gehört es inzwischen zum journalistischen Standard, thesengeleitet zu recherchieren und Storys zuzuspitzen.

In der Zusammenfassung heißt es:

Probleme bereiten den Pressesprechern […] vor allem Situationen, in denen die Journalisten nicht bereit sind, ihre Ausgangseinschätzungen zu ändern — auch wenn sie in der Recherche neue Informationen bekommen, die die Storyline widerlegen.

Auch das ist nicht allein ein Problem von Journalistinnen und Journalisten. Wissenschaftler haben in verschiedenen Studien gezeigt, dass Menschen sogar dann an falschen Informationen festhalten, wenn sie sehen, dass sie falsch sind. Die Forscher sprechen von Belief perseverance oder Faktenresistenz.

In einem Experiment sollten 19 Probandinnen und Probanden, jeder von ihnen promoviert in einem naturwissenschaftlichen Fach, den Inhalt einer Kugel bestimmen. Sie erhielten eine manipulierte Formel. Dann gab man ihnen Kugeln. Sie berechneten den Inhalt erst mit der Formel, später füllten sie Wasser in die Kugeln, gossen es in eine Kiste und bestimmten das Volumen. Das errechnete Ergebnis stimmte nicht mit dem tatsächlichen überein. Dennoch hielten mit Ausnahme eines Wissenschaftlers alle an der falschen Formel fest.

Auch der Innsbrucker Psychologe Tobias Greitemeier untersuchte den Effekt in einem Experiment. Er ließ Probandinnen und Probanden einen wissenschaftlichen Artikel lesen. Einige informierte er im Anschluss darüber, dass die Daten gefälscht waren. Die übrigen bekamen diese Information nicht. Eine dritte Gruppe (Kontrollgruppe) las den Artikel nicht. In Befragungen zeigte sich, dass die Menschen, die über die Fälschung informiert wurden, ihre Meinung zwar korrigierten, aber auch danach weiterhin stärker von den Informationen beeinflusst waren als die Personen aus der Kontrollgruppe, die den Artikel gar nicht kannte. Im Abstract seiner Arbeit schreibt Greitemeier:

Diese Ergebnisse deuten darauf hin, dass eine Widerrufserklärung eines empirischen Artikels in einer wissenschaftlichen Zeitschrift nicht ausreicht, um sicherzustellen, dass die Leser des ursprünglichen Artikels nicht mehr an die Schlussfolgerungen des Artikels glauben.

Bei journalistischen Beiträgen ist das wahrscheinlich nicht anders.

Das Gehirn wirkt schon beim Sammeln von Informationen darauf hin, dass vorhandene Informationen begünstigt werden (Confirmation bias) und neue es schwerer haben. Ergeben sich Widersprüche (kognitive Dissonanzen), versucht das Gehirn, sie aufzulösen, indem es sie umdeutet. Jürgen Schaefer schreibt in einem „Geo“-Essay: „Wenn andere viel zu schnell mit ihrem Rad durch die Fußgängerzone fahren, halten wir das für ‚idiotisch‘, bei uns selbst für ‚verwegen‘.“

So formt die Wahrnehmung unsere Wirklichkeit. Und wie die Wirklichkeit aussehen wird, beeinflussen Journalistinnen und Journalisten mit ihrer Erwartung, die in ihrer These enthalten ist. Das passiert auch in der Wissenschaft, wo in der Regel viel gründlicher gearbeitet werden kann und mehr Zeit bleibt, alles noch einmal zu überdenken. Jürgen Schaefer berichtet von zwei Studien, in denen es um die Frage geht, ob es Herzpatienten hilft, wenn Unbekannte für sie beten:

Eine Studie ergab: Ja, es helfe. Die zweite kam zum gegenteiligen Ergebnis: Nein, es schade sogar. Das naheliegende Ergebnis — dass es weder hilft noch schadet — wollte keiner nachgewiesen haben: nicht spektakulär genug.

Auch hier ist es wahrscheinlich, dass diese Beobachtung nicht nur die Wissenschaft betrifft, sondern ebenso den Journalismus: Die Geschichte muss gut sein. Dann verbreitet sie sich — und mit ihr die inbegriffene Botschaft. Das ist das Prinzip, nach dem „Fake News“ und Gerüchte funktionieren.

Eine Rolle spielt dabei, dass Geschichten von anderen Hirnregionen verarbeitet werden als Fakten. Und dass die Spiegelneuronen im Gehirn es möglich machen, sich in eine Geschichte hineinzuversetzen. So können Menschen von den Erfahrungen anderer lernen, ohne sie selbst gemacht zu haben. Und Geschichten finden sehr viel leichter Zugang zum Gehirn als sperrige Fakten, die beim Eingang auch noch kritisch überprüft werden.

Das ist das Erfolgsgeheimnis von Geschichten. Aber das macht sie gleichzeitig zu manipulativen Werkzeugen: Sie müssen nicht stimmen, damit Menschen sie glauben. Sie müssen vor allem plausibel klingen. Und wie das ausgehen kann, steht im Abschlussbericht zum Fall Relotius.

Das Dumme ist: Es gibt keine Alternative zur Geschichte. Auf keine andere Weise lassen sich Emotionen, Werte oder Erfahrungen so gut transportieren und so erfolgreich Sinn und Identität stiften. Kein anderes Format ist in der Lage, Menschen so zu berühren, sogar körperliche Reaktionen auszulösen. Menschen weinen im Kino, wenn sie Geschichten sehen, die im Grunde nichts mit ihrem eigenen Leben zu tun haben. Und in keinem anderen Format ist der Inhalt so lange haltbar. Je eindrucksvoller eine Geschichte ist, desto besser kann das Gehirn sie sich merken. Der Neurobiologe Gerald Hüther sagt:

Reine Information ist nur limitiert anknüpfbar. Wenn Sie sie aber in eine Geschichte verpacken, liefern Sie in deren Rahmen viele Anknüpfungspunkte an bereits vorhandene Gedächtnisinhalte. So kann man die Geschichte besser im Gedächtnis abspeichern und daraus dann die entscheidenden Aussagen ableiten. Dazu kommt: Jeder Lernprozess wird von Emotionen begleitet, bei der nackten Vermittlung von Fakten werden diese emotionalen Bereiche nicht angesprochen.

Den Effekt kennt jeder aus schockierenden oder auf andere Weise bewegenden Momenten. Die meisten Menschen, die den 11. September 2001 erlebt haben, können sich genau daran erinnern, wo sie waren, was sie gemacht haben und was sie um sich herum wahrgenommen haben, als die Flugzeuge ins Word Trade Center flogen. Es ist alles gespeichert, wie in einem Film. Es erscheint noch immer sehr real. Nur möglicherweise stimmt es nicht, weil die Erinnerung es mit den Jahren an einigen Stellen verformt hat.

Journalistinnen und Journalisten können das nicht verhindern. Aber sie können dem entgegenwirken, indem sie sich diese Effekte bewusst machen und sich nicht allein auf ihre Erinnerung verlassen, sondern ihre Recherchen so gut es geht dokumentieren, damit das Gehirn sich die Geschichte nicht zurechtformt. Sie können ihre Vermutungen immer wieder infrage stellen, indem sie nach Widersprüchen suchen — und Argumente sammeln, die für das Gegenteil sprechen.

Und wenn sie dann feststellen, dass diese Widersprüche sich im Beitrag nicht unterbringen lassen, weil die Geschichte dann nicht mehr funktionieren würde, sollten sie die Möglichkeit in Betracht ziehen, dass die Geschichte so, wie sie es sich vorgestellt hatten, einfach nicht funktioniert.

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier, Teil 3 hier, Teil 4 hier und Teil 5 hier. Oder alle Teile auf einmal hier.

Dunning-Kruger: Wer nichts weiß, weiß nicht mal das

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 5: Selbstüberschätzung.

***

Wer schon mal eine längere Abschlussarbeit schreiben musste, hat das Phänomen wahrscheinlich selbst erlebt: Ganz am Anfang wusste man nichts über das Thema, aber man ging davon aus, dass sich das bald ändern würde. Dann vergingen Tage und Wochen, in denen man sich ausführlich mit der Sache beschäftigte. Aber unglücklicherweise schlossen sich nicht nach und nach alle Wissenslücken, sondern es taten sich immer neue auf. Das ist eine ganz typische Entwicklung. Mit dem Wissen wächst auch die Fähigkeit, das eigene Nichtwissen abzuschätzen. Oder umgekehrt: Wer wenig weiß, hat keine Ahnung, wie wenig er weiß.

Die Psychologen David Dunning und Justin Kruger haben diesen Effekt im Jahr 1999 untersucht. Ihre Arbeit trägt den Titel: „Unskilled and unaware of it: how difficulties in recognizing one’s own incompetence lead to inflated self-assessments“.

Die beiden Wissenschaftler ließen Probandinnen und Probanden an einem Test teilnehmen und baten sie im Anschluss, ihre eigene Leistung im Vergleich zu der aller übrigen Teilnehmerinnen und Teilnehmer einzuschätzen. Alle hielten sich selbst für überdurchschnittlich gut. Aber je schlechter ihre Leistung war, desto mehr neigten sie dazu, sich zu überschätzen. Die besseren tendierten dazu, ihre Leistung zu unterschätzen. Es zeigte sich: Menschen mit geringem Wissen können nicht nur ihr eigenes Wissen schlecht einschätzen. Sie sind auch nicht in der Lage, die Überlegenheit anderer zu erkennen. Und das ist besonders fatal, denn es führt dazu, dass inkompetente Menschen oft ein enormes Selbstvertrauen besitzen.

Auch andere Wissenschaftlerinnen und Wissenschaftler haben das Phänomen untersucht. Die Psychologen Amos Tversky und Daniel Kahneman nennen es „Overconfidence bias“.

Journalistinnen und Journalisten haben mit diesem Effekt bei ihrer Arbeit ständig zu tun — sowohl im Kontakt mit anderen als auch bei der Einschätzung ihrer eigenen Fähigkeiten. Unglücklicherweise wissen viele nichts von diesem Problem.

Vor allem, wenn Reporterinnen und Reporter tagesaktuell arbeiten, im Lokalen oder Regionalen, bleibt oft nicht viel Zeit, um sich auf Pressetermine oder Interviews vorzubereiten. Es bleibt generell nicht viel Zeit für Recherche. Das Gefühl, alles im Groben verstanden zu haben, stellt sich in der Regel aber schnell ein — manchmal schon nach einem flüchtigen Blick auf den Wikipedia-Artikel. Nur genau dann ist die Gefahr am größten, bei völliger Ahnungslosigkeit gewaltigen Unsinn zu verbreiten. Genau das passiert natürlich trotzdem.

Pressesprecherinnen und Pressesprecher bringt das in eine dumme Situation: Sie wissen, dass vor allem bei regionalen und lokalen Medien viel schiefläuft. Dort haben Reporterinnen und Reporter es oft am selben Tag gleich mit mehreren, völlig verschiedenen Themen zu tun, die für sie neu sind, und abends müssen die Texte fertig sein. Wenn beispielsweise ein Pressesprecher eine Journalistin dann fragt, ob er den Artikel vor der Veröffentlichung noch einmal sehen dürfe, um zu verhindern, dass etwas falsch dargestellt wird, gerät er in Verdacht, auf diese Weise auch auf den Inhalt Einfluss nehmen zu wollen — was allerdings oft genug auch passiert. Das weiß ich aus eigener Erfahrung als Lokalreporter.

In vielen Redaktion gilt daher die strikte (und nachvollziehbare) Regel: Wir geben unsere Texte vor der Veröffentlichung nicht heraus. Journalistinnen und Journalisten erklären das dann mit der Pressefreiheit. Allerdings gehört zu dieser Freiheit auch die Verpflichtung zu prüfen, ob Informationen wirklich stimmen. Und wenn sie wissen, dass sie das nicht garantieren können, wäre es unter bestimmten Bedingungen vielleicht doch einen Gedanken wert.

Das ist nie eine optimale Lösung. Es gibt vieles, was dagegenspricht, es so zu machen. Ich habe via Twitter Journalistinnen und Journalisten gebeten, mir zu sagen, wie sie es mit der Herausgabe von Texten halten. Im Dokument ist nicht zu sehen, wer geantwortet hat. Aber die Antworten bilden vieles ab, was ich von Journalistinnen und Journalisten schon öfter gehört habe. In einer Antwort steht: „Noch nie gemacht und werde es auch nie machen, weil es die Standards versaut und am Ende allen schadet.“

Das stimmt, es verändert die Standards. Allerdings schadet es auch, wenn Informationen falsch erscheinen und erst später richtiggestellt werden. Zum einen erreicht die Korrektur viele Leserinnen und Leser nicht mehr, zum anderen tendieren Menschen auch dann dazu, an Informationen festzuhalten, wenn sie erfahren, dass sie falsch sind (Belief perseverance).

Journalistinnen und Journalisten gehen mit der Situation sehr unterschiedlich um. Das zeigen schon die wenigen Antworten auf meine Frage: Danach geben einige nur Zitate heraus, andere auch ganze Texte. Bei Wortlaut-Interviews ist die Autorisierung in Deutschland üblich. Aber auch bei Zitaten im Text wird sie häufig gefordert und ist manchmal Voraussetzung dafür, dass ein Gespräch überhaupt zustande kommt.

Es hängt auch von der Art der Texte ab, ob Journalistinnen und Journalisten den Menschen, über die sie berichten, das Ergebnis vor der Veröffentlichung zeigen. Bei Investigativgeschichten wird es in der Regel logischerweise nicht vorkommen, bei Berichten über Wissenschaftsthemen wahrscheinlich recht häufig.

Normalerweise gebe ich nichts vorher zum Lesen heraus, es sei denn, es ist technisch/wissenschaftlich kompliziert und ich will sicher gehen, alles richtig verstanden und wiedergegeben zu haben

… heißt es in einer der Antworten. Ungefähr so steht es auch in einer anderen. Der Journalist Birk Grüling schreibt mir in einer Nachricht:

Ich habe mit dem „Textherausgeben“ durchaus positive Erfahrungen gemacht. Häufig schreibe ich über intime Dinge — Kinder mit Behinderung, Schicksale. Viele dieser Menschen geben mir einen großen Vertrauensbonus, haben oft noch nie mit Journalisten gesprochen. Und den gebe ich zurück. Natürlich mit dem Hinweis, dass ich höchstens ein Zitat oder eine falsche Schreibweise im Namen ändere.

Auch zwischen Publikumspresse und Fachpresse gibt es Unterschiede. Während es in der Publikumspresse, bei überregionalen Tageszeitungen oder Nachrichten-Magazinen, eher verpönt ist, Texte vor der Veröffentlichung zu zeigen, schreibt Jürg Vollmer, Chefredakteur des Schweizer Landwirtschafts-Fachmagazins „Die Grüne“:

[W]ir können nicht alles wissen. Deshalb geben wir grundsätzlich jeden Text und jedes Interview den beteiligten Protagonisten zum Gegenlesen. Diese können fachliche Fehler oder Ungenauigkeiten korrigieren. Absolut tabu beim Gegenlesen sind aber die fachlichen Beurteilungen unserer Redakteure und das „Weichspülen“ von Zitaten der Protagonisten (die wir deshalb als Audio-Format aufnehmen). Für diese konsequente Haltung büßen wir immer wieder mal Inserate-Aufträge ein, das nehmen wir in Kauf. Wir erreichen dadurch aber eine praktisch fehlerfreie Berichterstattung, was unsere kritischen Leser […] sehr zu schätzen wissen.

Ich selbst habe auf diesem Gebiet wahrscheinlich schon fast jeden Fehler gemacht, den man machen kann. Ich habe mich darauf verlassen, als Menschen mir versicherten, es gehe nur darum zu schauen, ob im Text alles richtig sei. Später fand ich mich in einer Diskussion darüber wieder, ob man dies oder das denn nicht doch irgendwie anders formulieren könnte. Ich habe auch schon einem Gespräch unter der Voraussetzung zugestimmt, dass die Zitate später autorisiert werden, und leichtsinnigerweise den gesamten Text geschickt, weil ich den Inhalt für harmlos hielt. Der Text ist nie erschienen.

Ich habe allerdings auch Fehler an Stellen gemacht, an denen ich gar keine Gefahr sah. Und ich bin schon oft von Fachleuten auf Details hingewiesen worden, die nicht stimmen und die auch Kolleginnen oder Kollegen nicht gefunden hätten, denen ich sonst meine Texte zum Lesen schicke.

Deshalb halte ich selbst es mittlerweile so: Wenn von mir gefordert wird, dass ich Texte, die keine Wortlaut-Interviews sind, vor der Veröffentlichung vorlege, sage ich immer: nein. Aber ich biete es manchmal von mir aus an, wenn ich meinem eigenen Wissen nicht traue und nicht die Gefahr sehe, dass jemand die Chance nutzen wird, Einfluss auf den Inhalt zu nehmen.

Selbstüberschätzung betrifft natürlich genauso die Menschen, mit denen Journalistinnen und Journalisten es zu tun haben — und nicht nur inkompetente Gesprächspartner, sondern ebenso Expertinnen und Experten. Holm Friebe beschreibt in seinem Buch „Die Stein-Strategie“ ein Experiment des Psychologen Philip Tetlock, der Mitte der 80er-Jahre für ein Experiment 284 Expertinnen und Experten aus Wirtschaft, Politik und Journalismus bat, die Wahrscheinlichkeit bestimmter politischer Ereignisse vorherzusehen: Wo der Ölpreis in zwei Jahren steht. Wie wahrscheinlich ein Krieg zwischen Indien und Pakistan innerhalb der nächsten fünf Jahre ist. Und so weiter. 20 Jahre lang trug Tetlok Tausende von Datensätzen zusammen. Friebe schreibt:

Im Großen und Ganzen war die Güte der Expertenprognosen nicht besser als der nackte Zufall. Das heißt, sie wären „von einem Dartpfeile werfenden Schimpansen geschlagen worden“, wie es Tetlock formuliert.

Doch nicht alle Expertinnen und Experten waren gleich. Tetlock unterschied zwischen Fachleuten mit großen Wissen auf einem bestimmten Gebiet (Igel) und Personen mit einem breiten breiten Wissen und „Demut vor der Zukunft“ (Füchse). Die Füchse schnitten durchweg deutlich besser ab. Friebe schreibt dazu:

Die Igel […] lagen sogar umso weiter daneben, je mehr die Prognose mit ihrem Spezialthema zu tun hatte. Aufgrund ihres großen Fachwissens überschätzten sie systematisch sowohl ihre eigene Prognosefähigkeit als auch die durchschlagende Bedeutung ihres Themas für die allgemeine Zukunft. Zur sprichwörtlichen Betriebsblindheit tritt „overconfidence“, überzogenes Selbstbewusstsein.

Das hat mit einem Effekt zu tun, den Daniel Kahneman die WYSIATI-Regel (What you see is all there is) nennt: Menschen beurteilen das, was sie wissen oder sehen und vernachlässigen systematisch das, was sie nicht sehen. In seinem Buch „Schnelles Denken, langsames Denken“ schreibt auch er über über Tetlocks Experiment und ein Ergebnis, das für den Journalismus recht interessant ist:

Philip Tetlock beobachtete, dass die Experten mit der stärksten Selbstüberschätzung am ehesten eingeladen wurden, in Nachrichtensendungen zu zeigen, was sie draufhaben.

Und möglicherweise tut das der Fähigkeit zur Selbstkritik nicht immer gut. Kahneman zitiert Tetlock:

„Experten, die hoch im Kurs standen“, schreibt er, „überschätzten sich selbst stärker als ihre Kollegen, die fern des Rampenlichts ein kümmerliches Dasein fristen.“

Sogar Nobelpreisträgerinnen und Nobelpreisträger sind davor anscheinend nicht gefeit. Vielleicht macht der Ruhm sie sogar besonders anfällig. Laut Michael Brendler hat der frühere Londoner Medizinprofessor Robin Weiss der bei ihnen auftretende Form der Selbstüberschätzung sogar ein eigenes Wort geben: „Nobilitis“. Sie zeige sich so:

Plötzlich glauben sie [die Nobelpreisträger], alles zu verstehen, und äußern grandiose Ideen auf Gebieten, von denen sie eigentlich keine Ahnung haben.

Aber auch auf dem eigenen Fachgebiet ist die Gefahr groß, Unsinn zu behaupten, wenn man sich seiner Sache zu sicher ist. Forscher der Cornell University haben Menschen, die für sich beanspruchten, sich gut mit Finanzthemen auszukennen, eine Liste mit 15 Begriffen aus der Finanzwelt vorgelegt und sie gebeten, diese zu erklären. Darunter waren zum Beispiel Fantasiebegriffe wie „annualisierter Kredit“. Das Ergebnis war: „Je sicherer sich die Probanden ihrer ökonomischen Kenntnisse waren, desto öfter erklärten sie mit großem Ernst, was sich hinter den ausgedachten Termini verbarg.“

Das große Problem beim Dunning-Kruger-Effekt ist: Von außen lässt sich nur wenig machen. Menschen auf ihre Inkompetenz hinzuweisen, führt meistens zu nichts, denn auch wenn man sie mit der Nase darauf stößt, fehlt ihnen weiterhin das Wissen, um das Ausmaß ihrer Ahnungslosigkeit zu erkennen. Zuallererst müsste man diese Menschen dazu bewegen, sich mehr Wissen anzueignen, um in die Lage zu kommen, ihre Schwäche zu erkennen. Doch das ist schwer. Sie sehen zum Lernen ja gar keine Notwendigkeit.

Selbstüberschätzung lässt sich nur verhindern, wenn man sich selbst gegenüber skeptisch bleibt, wenn man das eigene Wissen infrage stellt und die eigenen Einschätzungen mit denen anderer abgleicht. Oder in anderen Worten: Für Journalistinnen und Journalisten bedeutet das, sie sind gut beraten, auch dann kritisch zu bleiben, wenn dazu auf den ersten Blick überhaupt gar kein Anlass besteht.

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier, Teil 3 hier und Teil 4 hier. Oder alle Teile auf einmal hier.

Herdentrieb: Immer den anderen hinterher!

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 4: der Herdentrieb.

***

Zwei Bars in einer fremden Stadt. Beide liegen direkt nebeneinander. Die eine ist voll, in der anderen ist so gut wie gar nichts los. Wenn Menschen sich nun für eine der Bars entscheiden müssen, werden die meisten in die vollere gehen, weil sie sich von der Annahme leiten lassen: Die Leute werden schon wissen, warum sie nicht in der anderen sitzen.

In Situationen, in denen Menschen unsicher sind, orientieren sie sich an anderen. Sie ahmen deren Verhalten nach. Der Effekt heißt „social proof“. Er erklärt sich dadurch, dass Menschen in Unsicherheit offenbar zu der Überzeugung neigen, andere wüssten besser Bescheid als sie. So kann schnell ein Herdenverhalten entstehen.

Als am 17. Januar 2017 die Meldung die Runde machte, das Bundesverfassungsgericht habe die NPD verboten, war genau das passiert. Viele Redaktionen hatten Journalistinnen und Journalisten nach Karlsruhe geschickt, die sich mit Gerichtsberichterstattung nicht auskannten. Sie glaubten, schon das Urteil zu hören, als die Richter noch die Anträge vorlasen. Dann kamen die ersten Eilmeldungen, andere Medien zogen nach. Die falsche Nachricht verbreitete sich mit einem enormen Tempo und musste später wieder eingefangen werden.

Dass die Lage unübersichtlich ist und nicht klar scheint, wie etwas zu deuten oder zu verstehen ist, kommt im Journalismus ständig vor. Im besten Fall recherchieren Journalistinnen und Journalisten dann, um sich mit den Hintergründen vertraut zu machen. Im zweitschlechtesten Fall schauen sie, was die Kolleginnen und Kollegen so schreiben und orientieren sich daran. Im schlechtesten Fall hatten die Kolleginnen und Kollegen das auch schon getan.

Wenn immer weniger Zeit zur Verfügung steht, wächst die Gefahr, dass Fehleinschätzungen sich verbreiten, weil alle sich gegenseitig aufeinander verlassen. Besonders groß ist diese Gefahr, wenn Journalistinnen und Journalisten nicht dazu verpflichtet sind, Informationen zu überprüfen, weil sie zum Beispiel von Nachrichtenagenturen geliefert werden. Dann passiert etwas, das man aus Situationen kennt, in denen man sich von einem Navigationsgerät oder Ortskundigen leiten lässt. Das eigene Denken nimmt sich eine Pause. Im Journalismus verbreiten sich unter diesen Umständen Meldungen, die man unter normalen Umständen für mindestens seltsam gehalten hätte:




Doch auch, wenn Agenturen nicht beteiligt sind, kommt es immer wieder zu verhängnisvollen Domino-Effekten, weil Journalistinnen und Journalisten zu sehr aufeinander vertrauen.

Im Mai 2013 schrieb Detlef Esslinger in einem Kommentar für die „Süddeutsche Zeitung“:

Was man den Medien vorwerfen kann, ist ein zweifacher Herdentrieb. Zum einen arbeitet jede Zeitungs- und Fernsehredaktion grundsätzlich nach der Devise: „Dazu müssen wir auch was haben.“ Zum anderen reihen Autoren sich lieber gefahrlos in einen Chor ein, als eine Solostimme zu wagen — wie andere Akteure übrigens auch.

In Esslingers Text ging es unter anderem um die Berichterstattung, die dazu geführt hatte, dass Christian Wulff als Bundespräsident zurücktrat.

Der Journalistik-Professor Hans Mathias Kepplinger schildert in seinem Buch „Totschweigen und Skandalisieren – Was Journalisten über ihre eigenen Fehler denken“, wie es dazu kam: Es hatte alles angefangen mit einem Bericht in der „Bild“-Zeitung über einen Kurzurlaub Wulffs zusammen mit dem Unternehmer David Groenewold. Der hatte das Hotel mit seiner Kreditkarte bezahlt. Vier Jahre später, als die Berichterstattung über die Reise bereits in vollem Gange war, habe Groenewold das Personal im Hotel gebeten, ihm die Belege auszuhändigen, was der Versuch hätte sein können, die Unterlagen verschwinden zu lassen. Der „Bild“-Artikel war laut Generalstaatsanwalt der Auslöser für die Aufhebung von Wulffs Immunität.

Nach Christian Wulffs Darstellung hatte David Groenewold lediglich um Kopien gebeten, um auf Fragen von Journalistinnen und Journalisten genaue Antworten geben zu können. Hans Mathias Kepplinger schreibt:

Falls das zutrifft, würde es sich bei dem Bild-Artikel um die folgenschwerste Falschmeldung der deutschen Nachkriegsgeschichte handeln.

Der Rest ist bekannt. Vergessen oder nie gelesen haben allerdings viele, dass danach mehrere Chancen verstrichen, die Sache richtigzustellen. Stefan Niggemeier hat damals in seinem Blog ausführlich nachgezeichnet, wie Wulff über eine Falschmeldung stürzte, aber es im Grunde keinen kümmerte — und sich später mehrere Gelegenheiten ergaben, die ganze Geschichte zu erzählen, zum Beispiel zur Veröffentlichung von Wulffs Buch, die aber alle ungenutzt blieben.

Es mögen unglückliche Zufälle gewesen sein, aber es sieht nicht nach Zufällen aus — eher nach Journalistinnen und Journalisten, die „sich lieber gefahrlos in einen Chor ein[reihen], als eine Solostimme zu wagen.“

Der Journalist Michael Götschenberg hat über den Fall Wulff ein Buch geschrieben. Es heißt: „Die Geschichte hinter der Geschichte und die Rolle der Medien über die Amtszeit des Bundespräsidenten Christian Wulff“. Er sieht auch Parallelen zu anderen Fällen. Im Interview mit der „taz“ sagte Götschenberg:

Man konnte das sehr gut in den ersten Stunden der Berichterstattung über den Fall Edathy beobachten, gerade bei den Online-Medien. Da wurden innerhalb von Stunden aus Vermutungen plötzlich Fakten. Das Schlimmste ist, dass alle voneinander abschreiben. Niemand macht sich mehr die Mühe zu überprüfen, ob überhaupt zutreffend ist, was behauptet wird. Das war bei Wulff auch so.

Der Medienwissenschaftler Stephan Russ-Mohl hat den Eindruck, dass das in den vergangenen Jahren noch schlimmer geworden ist. In seinem Buch „Die informierte Gesellschaft und ihre Feinde“ schreibt er:

Herdentrieb und Ingroup-Tunnelblick, sprich: Orientierung an der Berichterstattung der Wettbewerber, mag es im Journalismus immer gegeben haben. In Zeiten der Digitalisierung, in denen Redaktionen kaputt gespart werden, wird das allerdings zur Regel.

Dass Menschen sich an anderen Menschen orientieren, kann auch auf andere Weise zum Problem werden, etwa beim Phänomen des Gruppendenkens (Groupthink). Dabei einigen sich mehrere Menschen in einer Gruppe auf eine Entscheidung, die kein einzelnes Mitglied so getroffen hätte. Das passiert auch in Redaktionen — zum Beispiel, wenn Kritik nicht erwünscht ist.

Wenn es in Redaktionskonferenzen darum geht, sich selbst auf die Schulter zu klopfen, und kritische Anmerkungen dabei eher stören, führt das zwangsläufig dazu, dass kaum noch jemand etwas Kritisches sagt. Dazu genügt es oft schon, wenn der Chef oder die Chefin empfindlich auf Kritik reagiert. So etabliert sich schnell eine Atmosphäre, in der auch schlechte Entscheidungen durchkommen, weil Harmonie wichtiger erscheint als die Sache.

Ein ähnliches Phänomen beschreibt die Schweigespirale von Elisabeth Noelle-Neumann. Sie besagt: Bevor Menschen sich äußern, schätzen sie das Meinungsklima ab. Je stärker die zu erwartenden Widerstände sind, desto eher schweigen sie — aus Angst vor der Isolation.

In einer digitalen Welt bringt das Menschen nicht zum Schweigen. Sie weichen einfach aus und verbreiten ihre Meinung dort, wo Zustimmung zu erwarten ist. In Milieus, in denen Nähe eine große Rolle spielt, etwa in Vereinen oder in der Nachbarschaft, ist das Ausweichen schwer. Dort kommt es leichter zu einer Spiralwirkung. Journalistinnen und Journalisten verstärken das mit ihrer Berichterstattung, wenn sie ihre Meinung mit dem allgemeinen Meinungsklima synchronisieren — aus Überzeugung oder um im eigenen Milieu nicht alleine in einer Ecke zu stehen.

Der Medienwissenschaftler Michael Haller hat dieses ein Phänomen im Jahr 2015 in Deutschland beobachtet. In der Studie „Die ‚Flüchtlingskrise‘ in den Medien“ (PDF), die Haller zusammen mit einem Forscherteam für die Otto-Brenner-Stiftung erstellt hat, beschreibt er, wie Journalistinnen und Journalisten von Tageszeitungen (nur um die geht es in der Studie) das Narrativ der „Willkommenskultur“ zum moralischen Gebot erhoben und damit andere Meinungen automatisch mit dem Stempel „unmoralisch“ versahen. Haller schreibt:

In der Tagespresse wurde unseren Befunden zufolge das Narrativ Willkommenskultur als moralisch intonierte Verpflichtungsnorm „top-down“ vermittelt. (…) Annähernd 83 Prozent aller Zeitungsberichte vermittelten das Leitbild Willkommenskultur in einem positiven oder mehr positiven Sinne. Über Bedenkenträger oder Skeptiker wurde eher selten berichtet.

Vor allem die lokale und regionale Presse kommt in der Studie sehr schlecht weg:

Die Besonderheit der Regionalpresse, dass sie [die Journalistinnen und Journalisten] in ihren Lokalteilen die Nah- und Alltagswelt der Menschen durchleuchten und Vorgänge wie auch Probleme quasi hautnah recherchieren, wurde im Jahr 2015 für die Flüchtlingsthematik nicht genutzt. Die vergleichsweise wenigen Texte, die Probleme oder Konflikte thematisierten, sind fast ausnahmslos Veranstaltungsberichte und insofern keine journalistischen Eigenleistungen. Nur in seltenen Ausnahmefällen wurden abweichende Positionen wie auch behördliche Fehlleistungen untersucht oder Fachwissen eingeholt und ausgewertet oder dialogisch aufbereitet.

Überhaupt sieht es so aus, dass Journalistinnen und Journalisten sehr viel Wert darauf legen, was andere Journalistinnen und Journalisten über sie denken. Der Medienwissenschaftler Hans Mathias Kepplinger schreibt:

Eine Ursache der Entstehung von berufsspezifischen Übereinstimmungen bei der Bewertung aktueller Fragen ist die extrem intensive Kollegenorientierung im Journalismus. Alle Journalisten verfolgen permanent die Berichterstattung aller ihnen relevant erscheinenden Medien, bilden sich ein Urteil über die Einschätzung der Lage durch Kollegen und orientieren sich an den publizierten Sichtweisen der von ihnen besonders geschätzten Medien.

Die Kollegenorientierung zeigt sich auch in der geringen Bereitschaft von Journalistinnen und Journalisten, sich untereinander zu kritisieren:

Journalisten sind deutlich weniger zur öffentlichen Kritik am beruflichen Fehlverhalten ihrer Kollegen bereit als Wissenschaftler und Techniker. Deshalb berichten sie — wie quantitative Analysen belegen — seltener über bekannte Missstände im eigenen Beruf als über bekannte Missstände in anderen Berufen

… schreibt Kepplinger. Und das ist eigentlich besonders paradox, denn während Journalistinnen und Journalisten bei Fehlern in anderen Berufen ihre Aufgabe darin sehen, Transparenz herzustellen, Missstände ans Licht zu bringen und offenzulegen, wenn Kollegen sich decken, ist gegenseitige Kritik unter Journalistinnen und Journalisten als „Kollegenschelte“ verpönt. Wer sich widersetzt, gilt schnell als „Nestbeschmutzer“.

Inzwischen kann das nicht mehr verhindern, dass die Arbeit von Journalistinnen und Journalisten öffentlich kritisiert wird. Diese Aufgabe übernimmt einfach das Publikum. Doch die Kollegenorientierung bleibt ein Problem.

Gegen bestimmte Herdentendenzen können Journalistinnen und Journalisten selbst etwas tun: Damit Kritik in Gruppen nicht einfach unerwähnt bleibt, weil niemand die Person sein möchte, der alles schlechtredet, kann jemand aus der Gruppe die Aufgabe zugewiesen bekommen, die Rolle des Advocatus Diaboli einzunehmen, der die gegnerischen Positionen vertritt und Zweifel äußert. Eine andere Möglichkeit, das Gruppendenken aufzubrechen, ist die Prä-mortem-Methode. Dabei besteht die Aufgabe darin anzunehmen, dass der schlimmste Fall bereits eingetreten ist, und im Rückblick die Frage zu beantworten: Wie konnte diese Katastrophe passieren?

Um nicht den Fehler zu machen, sich an anderen zu orientieren, obwohl die es selbst vielleicht auch gar nicht besser wissen, hilft dagegen oft schon ein sehr einfaches Mittel: nachfragen.

***

Teil 1 unserer Serie „Kleine Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier und Teil 3 hier. Oder alle Teile auf einmal hier.

Der Bestätigungsfehler: Die Erwartung macht das Ergebnis

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 3: der Bestätigungsfehler.

***

Der Arzt und Naturwissenschaftler Samuel Morton vermaß Mitte des 19. Jahrhunderts mehrere Tausend Schädel und zog daraus Rückschlüsse auf die Intelligenz von Menschen. Er behauptete, Belege für die Überlegenheit der „weißen Rasse“ gefunden zu haben. 140 Jahre später untersuchte der Evolutionsbiologe Stephen Jay Gould die Ergebnisse und urteilte, sie seien ein „Mischmasch aus Pfusch und Mogelei“.

Ulrich und Johannes Frey schildern das Beispiel in ihrem Buch „Fallstricke – die häufigsten Denkfehler in Alltag und Wissenschaft“. Interessant ist es vor allem wegen der Pointe: Gould selbst fand in den Daten keinerlei Beweise für die These, dass Menschen verschiedener „Rassen“ unterschiedlich intelligent sein könnten. Mortons Fehler erklärte er nicht durch Vorsatz oder Unaufmerksamkeit, sondern durch „durchgängige, einseitige Verzerrungen“. Später stellte sich allerdings heraus: Fehlerfinder Gould war genau der gleiche Fehler unterlaufen. Auch er hatte sich durchgängig verrechnet. Er selbst führte das auf seine Erwartungshaltung zurück. In einer späteren Auflage seines Buchs schrieb er, der Fehler „veranschaulicht auf meine Kosten das Kardinalprinzip des Buches“.

Und es gibt noch eine Pointe, um die wir den Text nach der Veröffentlichung ergänzt haben (hier in kursiver Schrift – Danke an Marc U. für den Hinweis), denn möglicherweise ist die Tatsache, dass dieses Beispiel sich verbreitet hat, Ergebnis des gleichen Denkfehlers.

Für eine Studie aus dem Jahr 2011, die im Buch von Ulrich und Johannes Frey (3. Auflage, 2011) noch nicht erwähnt ist, haben Wissenschaftler die Schädelsammlung von Samuel Morton neu vermessen und sind zu dem Ergebnis gekommen, dass seine Daten korrekt waren. Sie stellen zwar in Frage, dass seine Erwartungen die Messungen verzerrt haben. Doch in einem Beitrag für das Magazin „New Scientist“, der im gleichen Jahr erschien, schreiben David DeGusta and Jason E. Lewis, zwei der Wissenschaftler, die an der Untersuchung beteiligt waren: „Goulds Studie und seine Ansicht, dass die Wissenschaft unweigerlich voreingenommen ist, wurde zur Konsensversion in der Wissenschaftsforschung. Goulds Behauptungen wurden selten oder nie in Frage gestellt.“

Das zeigt, wie tückisch dieses Phänomen ist: Wenn etwas gut ins Bild passt, werden wir schnell unkritisch. So schwer wäre es nicht gewesen, die Studie aus dem Jahr 2011 zu finden. Sie ist verlinkt in Samuel Mortons Wikipedia-Eintrag.

Das zugrundeliegende Prinzip nennt sich Bestätigungsfehler (Confirmation bias). Menschen bevorzugen Informationen, die zu ihren Überzeugungen passen. In einem „Geo“-Essay beschreibt Jürgen Schaefer eine Untersuchung des Neurowissenschaftlers Kevin Dunbar, der diese Verzerrung in Gehirnscans sichtbar gemacht hat: Informationen, die zu den eigenen Überzeugung passen, dürfen den frontalen Kortex passieren, alle übrigen werden abgewiesen.

Das führt dazu, dass Menschen immer neue Belege dafür finden, was sie eh schon denken — und sich dieses Wissen verfestigt. Das Phänomen ist unter Journalistinnen und Journalisten bekannt, und genau das ist Teil des Problems. Menschen, die den Bestätigungsfehler kennen, denken, sie wären vor ihm sicher (Bias blind spot). Doch das ist nicht der Fall. Er wirkt auch dann, wenn man ihn kennt. Samuel Morton ist also nicht allein mit dieser Schwäche.

Der Bestätigungsfehler ist allgegenwärtig. In den USA haben Untersuchungen zu verzerrten Darstellungen im Journalismus (Media bias) gezeigt, dass liberale Wissenschaftlerinnen und Wissenschaftler in den Medien tendenziell eher ein Übergewicht von konservativen Positionen ausmachen, während konservative Forscherinnen und Forscher eine Verzerrung hin zu liberalen Ansichten erkennen können.

Der deutliche Effekt der Erwartungshaltung zeigt den großen Einfluss vorgefasster Meinungen auf neutrale Daten

… schreiben Ulrich und Johannes Frey. Die Erwartung beeinflusst das Ergebnis. So funktioniert auch der Placebo-Effekt.

Menschen scheinen zudem eine Präferenz für Vertrautes zu haben. Das beschreibt der Besitztumseffekt (Endowment-Effekt). Wir schätzen den Wert von Gegenständen höher ein, wenn wir sie besitzen. Es deutet einiges darauf hin, dass das bei Informationen ähnlich ist.

Wir bevorzugen vertraute Informationen. Eine vertraute Information wird von uns als „wahre Information“ behandelt

… schreiben Frey und Frey. Wenn wir eine neue Information erhalten und diese einer schon vorhandenen widerspricht, legen wir an die neue Information einen höheren Maßstab an als an die uns bekannte. Wir erinnern uns auch länger an all das, was unsere Meinungen stützt. Tests zeigen, „dass jeder Mensch bestätigende Daten bis zu drei Mal häufiger im Gedächtnis behält als falsifizierende“, so Frey und Frey.

Das begünstigt die Tendenz, bei einer Meinung zu bleiben, obwohl längst einiges gegen sie spricht. Im Journalismus verstärkt es die Neigung, an Thesen festzuhalten, wenn schon vieles darauf hindeutet, dass sie so nicht zutreffen können.

Studien zeigen, dass es nicht einmal hilft, Menschen darauf hinzuweisen, dass eine Information falsch ist (Conservatism bias). Unbewusst halten sie trotzdem an ihr fest. Die Chemikerin und Wissenschaftsjournalistin Mai-Thi Nguyen-Kim beschreibt in einem Video ein Experiment, in dem Probandinnen und Probanden Abschiedsbriefe vorgelegt werden. Sie sollen einschätzen, ob die Briefe echt oder gefälscht sind. Unabhängig davon, ob sie wirklich richtig liegen, bekommen einige von ihnen die Rückmeldung, dass sie ein sehr gutes Gespür haben, während man anderen signalisiert, dass sie so gut wie immer falsch lagen. Im Anschluss klären die Versuchsleiter die Teilnehmerinnen und Teilnehmer darüber auf, dass alles nur inszeniert war, und bitten sie, einzuschätzen, wie gut sie wirklich waren. Das Ergebnis ist: Die Probandinnen und Probanden mit den positiven Rückmeldungen halten ihre wirkliche Leistung für überdurchschnittlich gut, die übrigen glauben, sie hätten eher unterdurchschnittlich abgeschnitten.

Das lässt Rückschlüsse auf die journalistische Arbeit zu. Es ist zum Beispiel ein Hinweis darauf, dass falsche Informationen nicht vollkommen dadurch aus der Welt geschafft werden können, dass man sie richtigstellt. Menschen korrigieren ihr Denken nur sehr langsam.

Der Bestätigungsfehler wirkt im Journalismus an vielen Stellen. Es fängt schon mit der Google-Recherche an. Der Medienwissenschaftler Bernhard Pörksen erzählt in seinem Buch „Die große Gereiztheit – Wege aus der kollektiven Erregung“ von einer Untersuchung mit dem sperrigen Namen „Personal Web Search in the Age of Semantic Capitalism – Diagnosing the Mechanisms of Personalisation“. Forscher wollten herausfinden, wie der Google-Algorithmus die Recherche-Ergebnisse beeinflusst. Dazu legten sie Profile der Philosophen Immanuel Kant, Friedrich Nietzsche und Michel Foucault an und trainierten Google jeweils mit Begriffen aus deren Büchern. Das Ergebnis:

Google personalisiert schon nach kurzer Zeit ziemlich radikal, vor allem jedoch im Feld der ersten zehn Suchergebnisse, die einem Nutzer angezeigt und aller Wahrscheinlichkeit nach geklickt werden. Im Durchschnitt waren 64 Prozent der Suchergebnisse spezifisch (…).

Personalisierte Suchergebnisse sind allerdings noch nicht einmal nötig, um Menschen zu den Ergebnissen zu führen, die sie suchen. Wer schon mal versucht hat, mithilfe von Google eine bestimmte Krankheit zu diagnostizieren, weiß: Mit so gut wie jedem Symptom lässt sich so gut wie jede Krankheit nachweisen. Und ungefähr so ist es bei der Recherche auch.

Das zeigt sich mitunter auch im Ergebnis. Die Medienwissenschafter Hans Mathias Kepplinger und Richard Lemke haben untersucht, wie Medien die Reaktorkatastrophe von Fukushima dargestellt haben (PDF). Eines ihrer Ergebnisse ist:

Je negativer sich Journalisten in den Meinungsformen äußerten, (…) desto eher kamen dort Politiker und Experten zu Wort, die die Kernenergie ablehnten und einen Ausstieg aus der Kernenergie verlangten.

Der Bestätigungsfehler wirkt natürlich auch beim Publikum, und das verstärkt den Effekt. Menschen sind zugänglicher für Nachrichten, die ihren Erwartungen entsprechen. Der Fehler ist eine Erklärung für den Erfolg von „Fake News“, Falschmeldungen oder falsch verstandenen Meldungen.

Das war zum Beispiel im April dieses Jahres zu beobachten, als die Nachricht „Die meisten Messerangreifer heißen Michael“ aufgrund eines Missverständnisses die Runde machte. Die AfD hatte im saarländischen Landtag eine Anfrage gestellt, um zu erfahren, ob es auffällige Häufungen von bestimmten Vornamen bei Verdächtigen im Zusammenhang mit Messerattacken gibt. Es sah so aus, als hätte die Partei sich bei dem Versuch, ein rassistisches Vorurteil zu belegen, selbst entlarvt: Auf Platz 1 der Liste stand kein arabischer Name, sondern „Michael“. Viele teilten die Nachricht, weil sie wiederum AfD-Gegnern sehr gut ins Bild passte.

Später wies Stefan Niggemeier bei „Übermedien“ darauf hin, dass es in der Liste nur um die Namen der deutschen Verdächtigen ging. Das stand zwar mitunter in den Meldungen. Aber viele hatten nur die Überschrift gelesen oder die Information ignoriert. Der Wunsch, die eigene Überzeugung bestätigt zu sehen, war stärker als der Zweifel.

Die Frage ist: Was kann man gegen den Bestätigungsfehler machen?

Zuallererst: sich bewusst machen, dass man ihm ausgeliefert ist. Sich zwingen, Dinge zu überprüfen, auch wenn sie offensichtlich erscheinen. Zweifeln. Der Philosoph und Publizist Daniel-Pascal Zorn schlägt vor:

Um der „Confirmation Bias“ zu entgehen, muss man darauf achten, die eigene Vorannahme als Annahme und nicht schon als Tatsache zugrunde zu legen. Eine Annahme kann sich immer noch als falsch erweisen — eine Tatsache nicht mehr.

Für Journalistinnen und Journalisten bedeutet das: Sie sollten sich auch während ihrer Recherche immer wieder die Frage stellen: Stimmt meine These überhaupt? Kann es nicht auch anders sein? Und sie sollten bewusst auch nach Argumenten suchen, die gegen die Vermutung sprechen.

Immer wieder das eigene Handeln zu hinterfragen, schaltet den Bestätigungsfehler zwar nicht vollkommen aus, aber in vielen Fällen kann es Fehlschlüsse verhindern. Und für den Fall, dass der Bestätigungsfehler sich trotzdem durchsetzt, können Journalistinnen und Journalisten noch etwas anderes machen: offenlegen, was zu einer Verzerrung führen könnte. Kritische Verbindungen verraten. Dafür sorgen, dass Transparenz besteht.

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier. Und Teil 2 hier.

Heuristiken: Riskante Schleichwege fürs Denken

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 2: Heuristiken.

***

Als Anfang des Jahres private Daten von Prominenten auf einer Internetseite auftauchten, war „Bild“-Chef Julian Reichelt sich sehr schnell sicher, wie alles gewesen sein musste. In Gabor Steingarts Podcast sagte er damals:

Ich glaube, was relativ klar ist: Das waren nicht ein oder zwei Jungs, die bei Pizza und Cola light im Keller gesessen haben, bisschen Computerspiele, bisschen Youtube und dann bisschen was gehackt haben und das dann aufbereitet haben. Das muss eine größere Struktur gewesen sein.

Am Ende stellte sich heraus: Reichelt hatte recht. Es waren tatsächlich nicht zwei Jungs gewesen, die ein bisschen was gehackt und dann aufbereitet hatten, es war nur einer.

Julian Reichelt ist dabei ein Fehlschluss unterlaufen, der Menschen immer wieder passiert — Journalistinnen und Journalisten sehr häufig, weil sie oft in Situationen geraten, in denen sie wenig wissen, aber trotzdem irgendetwas sagen müssen.

Wenn wichtige Informationen fehlen, um zu einer guten Einschätzung kommen zu können, müssen Menschen sich an etwas orientieren. Die verschiedenen Techniken, mit denen sie versuchen, im Nebel Halt zu finden, nennt man Heuristiken.

Menschen versuchen, sich in so einer Situation mit einer Handvoll Puzzleteilen ein vollständiges Bild zu machen. In sehr vielen Fällen gelingt das auch. Wenn man auf einem Puzzleteil eine Nase erkennen kann, ist die Wahrscheinlichkeit recht hoch, dass auf den übrigen Mund und Augen zu sehen sein werden.

Wahrnehmungspsychologen nennen diese Methode Repräsentativitätsheuristik, weil Menschen dabei von einer einzelnen repräsentativen Information auf die Gesamtheit schließen. Im Falle des Puzzlestücks kann das Gesamtbild natürlich auch aus eintausend Nasen bestehen. Aber um das herauszufinden, müsste man das gesamte Bild erst zusammenzusetzen. Die Heuristik macht es möglich, sich schnell zu entscheiden.

Menschen, die „Fake News“ verbreiten möchten, machen sich dieses Prinzip zunutze. Sie entwerfen Websites, die auf den ersten oberflächlichen Blick aussehen wie Nachrichtenseiten. Sie spekulieren darauf, dass die Menschen sich auf ihren ersten Eindruck und ihre Intuition verlassen und nicht ganz so genau hinschauen. Darauf fallen auch Journalistinnen und Journalisten ganz gern herein.

Als der heutige „Titanic“-Chefredakteur Moritz Hürtgen im Juni 2018 bei Twitter meldete, Horst Seehofer wolle die Fraktionsgemeinschaft zwischen CDU und CSU auflösen, hätten wenige Klicks genügt, um herauszufinden, dass der Twitter-Account @hrtgn nichts mit dem Hessischen Rundfunk zu tun hat. Aber Hürtgen hatte die Journalistinnen und Journalisten schon richtig eingeschätzt: Er hatte lediglich sein Profilbild geändert und in den Tagen zuvor ein paar Meldungen vom Hessischen Rundfunk gepostet. Die Nachrichtenagentur Reuters verließ sich darauf, dass der Account den Anschein einer seriösen Quelle hatte. Danach machte die satirische Falschmeldung die Runde.

Das Problem ist: Heuristiken liefern in der Tendenz gute Ergebnisse, sind aber recht anfällig für Fehler — vor allem dann, wenn Menschen nicht ahnen, dass ihr Urteil durch eine Heuristik zustande kommt.

In Gabor Steingarts Podcast erklärt „Bild“-Chef Reichelt seine Einschätzung so:

Ich glaube nach allem, was wir an Hacks in den letzten Jahren gesehen und erlebt haben, ist das Wahrscheinlichste immer noch, dass es zumindest staatliche Unterstützung, von welcher Seite auch immer, für diesen Hack gab.

Reichelt schaut, wie gut die Situation in ein Muster passt — wie repräsentativ sie also für eine bestimmte Situation ist. Danach bemisst er die Wahrscheinlichkeit.

In solchen Situationen machen Menschen auch oft einen anderen Fehler: Sie schätzen Wahrscheinlichkeiten falsch ein, wenn sie sich von logischen Zusammenhängen blenden lassen. Die Psychologen Daniel Kahneman und Amos Tversky nennen das Phänomen das Linda-Problem. Herausgefunden haben sie es mit einem Experiment, in dem sie Probandinnen und Probanden eine Frau beschrieben und ihnen dann Fragen stellten. Sie charakterisierten die Frau zunächst mit Merkmalen, die zu einer Feministin passen, und fragten anschließend: Was ist wahrscheinlicher:

  • Die Frau ist Bankangestellte?

Oder:

  • Die Frau ist eine feministische Bankangestellte?

Die Teilnehmerinnen und Teilnehmer entschieden sich mehrheitlich für die zweite Antwort, weil es logisch erscheint, dass eine feministische Frau auch eine feministische Bankangestellte ist. Allerdings ist jede feministische Bankangestellte auch einfach nur eine Bankangestellte. Die Wahrscheinlichkeit, dass die Frau zu dieser viel größeren Gruppe gehört, ist also deutlich höher.

Diese falsche Einschätzung nennt sich Basisratenfehler: Wenn etwas offensichtlich erscheint, neigen Menschen dazu, nicht auf die tatsächlichen statistischen Wahrscheinlichkeiten zu schauen.

Julian Reichelt muss die Wahrscheinlichkeit recht hoch vorgekommen sein, dass irgendein Geheimdienst bei der Veröffentlichung der Prominenten-Daten seine Finger im Spiel gehabt haben könnte. Und nun gäbe es zwei Möglichkeiten: Entweder ist ein recht unwahrscheinliches Ereignis eingetreten — oder Reichelt hat die Wahrscheinlichkeiten falsch eingeschätzt.

In beiden Fällen ist ihm möglicherweise noch ein anderer Denkfehler unterlaufen, den Kahneman mit der sogenannten WYSIATI-Regel (What you see is all there is) beschreibt: Wenn Menschen eine Situation einschätzen, schauen sie auf die Informationen, die vor ihnen liegen. Sie bewerten das Sichtbare und unterschätzen den Einfluss des Unsichtbaren — sogar dann, wenn sie wissen, dass unbekannte Faktoren eine wichtige Rolle spielen.

Das kann dazu führen, dass Menschen Zusammenhänge konstruieren, wo keine sind — dass sie zum Beispiel davon ausgehen, dass ein außergewöhnlicher Fußballtorwart auch ein zuverlässiger Ratgeber in Finanzfragen sein muss, oder ein sympathischer Moderator auch ein guter Bundeskanzler wäre (Halo-Effekt). Dieses Prinzip nutzt die Werbung sehr gerne.

Umgekehrt kann es auch zur Folge haben, dass bekannte negative Eigenschaften einen Verdacht auf Menschen lenken, die im konkreten Fall nichts damit zu tun haben (Teufelshörner-Effekt). Mit diesem Effekt arbeiten auch Krimi-Autoren: Wenn eine Figur in einer Szene zu sehen ist, in der sie unfreundlich zu anderen Menschen ist, lenkt das auch den Verdacht im Mordfall auf sie (wobei es am Ende doch immer die Figur war, die zu Beginn von allen am sympathischsten erschien).

Es gibt noch eine Reihe weiterer Denkabkürzungen, mit denen Menschen sich behelfen, wenn sie schnell Entscheidungen treffen müssen. Zum Beispiel die Verfügbarkeitsheuristik: Wenn Menschen nicht alle relevanten Faktoren kennen, um zu einer guten Entscheidung zu kommen, überlassen sie die Bewertung ihrer Erinnerung. Das führt dazu, dass sie besonders präsente Informationen bevorzugen — also all das, was ihnen sofort in den Sinn kommt.

Im Fall der geleakten Prominenten-Daten hätten die Täter natürlich Aktivisten von irgendwoher sein können. Weil Julian Reichelt und sein „Bild“-Team die Russen aber ohnehin hinter so gut wie allem vermuten, lag wohl auch hier die Annahme nahe, dass der russische Geheimdienst etwas mit der Sache zu tun haben muss.

Die Verfügbarkeitsheuristik spielt im Journalismus an verschiedenen Stellen eine Rolle. Wenn Journalistinnen und Journalisten einen Experten suchen, der etwas zu einem Thema sagen kann, ist die Wahrscheinlichkeit groß, dass sie nicht den anrufen, der sich am besten auskennt, sondern den, der ihnen als Erstes einfällt.

Außerdem beeinflussen Medien sich bei der Auswahl von Themen gegenseitig. Berichten mehrere Redaktionen über etwas, kommt schnell die Frage auf: Warum haben wir das nicht? So gewinnt die Verbreitung an Dynamik. Und je präsenter ein Thema ist, zum Beispiel bei Twitter, desto schneller fällt es Redakteurinnen und Redakteuren in den Themenkonferenzen ein. Das führt zu einer Verzerrung, deren Ergebnis sein kann: Über ein wichtiges Thema wird nicht berichtet, weil über ein wichtiges Thema nicht gesprochen wird.

Die Verfügbarkeitsheuristik verzerrt auch die Wahrnehmung des Publikums. Wenn Meinungsforschungsinstitute Menschen fragen, wovor sie am meisten Angst haben, ist kurz nach Terroranschlägen eine häufige Antwort: vor Terroranschlägen — obwohl die Wahrscheinlichkeit, an einem Herzinfarkt, an Krebs oder bei einem Autounfall zu sterben, sehr viel größer ist.

Berichten Journalistinnen und Journalisten über diese Umfragen, führt das wiederum dazu, dass der Effekt sich verstärkt, weil beim Publikum der Eindruck entsteht: Wenn andere das auch so sehen, ist die Sorge ja offenbar nicht ganz unbegründet.

Ein weiterer Denkfehler, der in der Arbeit von Journalistinnen und Journalisten eine Rolle spielt, ist der fundamentale Attributionsfehler. Menschen neigen dazu, den Einfluss von Personen auf Ereignisse zu über- und den der Umstände zu unterschätzen. Dieser Fehler kommt zum Beispiel in der Sport- oder Wirtschaftsberichterstattung häufig vor, wenn Journalistinnen und Journalisten Erfolge der Taktik des Trainers oder der unkonventionellen Art des Vorstandsvorsitzenden zuschreiben. So ergibt sich eine stimmige Geschichte. Es kann allerdings sein, dass die unkonventionelle Art des Firmenchefs bei Rekordverlusten zwei Jahre später auch eine gute Erklärung für seinen Misserfolg ist. Tatsächlich hat der Zufall sehr großen Einfluss. Das ist allerdings eine Erklärung, von der man in der Berichterstattung nur sehr selten liest.

Gleichzeitig spielt dabei die Ergebnisverzerrung (Outcome-Bias) eine Rolle. Um die Qualität von Entscheidungen zu bewerten, schauen Menschen auf das Ergebnis. Hat eine Mannschaft gewonnen, hat der Trainer dem Anschein nach alles richtig gemacht. Es kann aber eben auch sein, dass eine Mannschaft gewonnen hat, obwohl der Trainer ihr mit seinen Entscheidungen alle erdenklichen Steine in den Weg gelegt hat.

Was aber lässt sich gegen diese Verzerrungen machen?

Das Herrschaftswissen der Verhaltensökonomie und Sozialpsychologie über Shortcuts und Fehler bei der Entscheidungsfindung (…) ist vielen Kommunikationsmanagern und -strategen, die die Medien für ihre Zwecke instrumentalisieren, inzwischen wohlvertraut. Dagegen kennen all das bisher viel zu wenige Journalisten

… schreibt der Medienwissenschaftler Stephan Russ-Mohl in seinem Buch „Die informierte Gesellschaft und ihre Feinde“. Daher ist der erste Schritt: sich unbewusste Denkprozesse bewusst machen. Dann fällt man vielleicht immer noch auf sie herein, kann das aber in einem zweiten Schritt überdenken und korrigieren.

Janina Kalle hat einen interessanten Beitrag über Techniken geschrieben, mit deren Hilfe sich diese Verzerrungen entschärfen lassen. Um das Outcome-Bias auszuschalten, kann es zum Beispiel sinnvoll sein, eine andere Perspektive einzunehmen, sich zu fragen: Wäre unter den gleichen Umständen ein anderer Ausgang der Geschichte möglich gewesen?

Generell gilt: Wer sich die Wahrnehmungsverzerrungen bewusst macht, hat immerhin die Chance, sie zu erkennen. Auch Zeit ist immer von Vorteil, denn wenn das Gehirn schnelle Entscheidungen trifft, ist die Fehlerwahrscheinlichkeit hoch. Und je weniger Journalistinnen und Journalisten sich auf ihre Erinnerung und vor allem auf bloße Eindrücke verlassen, desto geringer ist die Gefahr, vom eigenen Gehirn überlistet zu werden.

Medienwissenschaftler Bernhard Pörksen zitiert in seinem Buch „Die große Gereiztheit“ ein geflügeltes Wort us-amerikanischer Journalistinnen und Journalisten: „Wenn deine Mutter dir sagt, sie liebt dich, überprüfe es.“ Für Julian Reichelt könnte man den Satz etwas abwandeln: „Wenn dein Gefühl dir sagt, es waren die Russen, recherchiere es.“

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier.

Fehlerforschung: Jeder zweite Artikel hat Mängel

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 1: die Fehlerforschung.

***

In der Medizin gibt es ein seltenes neurologisches Phänomen, das bekannt ist als das Anton-Syndrom: Die Betroffenen sind blind, sie merken das aber nicht. Sie sind auch nicht der Meinung, dass ihr Sehvermögen eingeschränkt wäre. Wenn man ihnen einen Gegenstand zeigt, beschreiben sie ihn sehr genau und ausführlich, allerdings vollkommen falsch.

Wenn Journalistinnen und Journalisten über Fehler sprechen, die in ihren Redaktionen gemacht werden, erinnern ihre Einschätzungen manchmal an dieses Syndrom. Die Zeitungsforscher Donica Mensing and Merlyn Oliver haben für eine Studie im Jahr 2005 (PDF) eine Umfrage unter 113 Redakteurinnen und Redakteuren kleinerer Zeitungen in den USA durchgeführt. Knapp 60 Prozent der Befragten glaubten, dass faktische Fehler höchstens einmal in der Woche passieren.

Wenn Wissenschaftler in den vergangenen Jahren die Fehler in Zeitungen untersucht haben, kamen sie regelmäßig zu ganz anderen Ergebnissen.

Der Journalismus-Forscher Mitchell Charnley war im Jahr 1936 der Erste, der sich intensiv mit diesem Thema beschäftigte. Für seine Studie „Preliminary Notes on a Study of Newspaper Accuracy“ untersuchte er etwa eintausend Texte aus drei lokalen Zeitungen. Das Ergebnis war: In fast jedem zweiten Artikel fand sich mindestens ein Fehler.

Eine naheliegende Vermutung wäre: Die Ergebnisse hängen stark mit der Zeit und vielleicht auch der schlechten Qualität dieser drei Zeitungen zusammen, die Charnley untersucht hat. Doch spätere Studien mit anderen Zeitungen kommen zu ganz ähnlichen Ergebnissen: In 40 bis 60 Prozent aller Artikel war mindestens ein Fehler.

Wie lässt sich das erklären? Dass Redakteure und Schlussredakteurinnen reihenweise Mängel übersehen und diese auch danach niemandem in den Redaktionen auffallen, ist auf den ersten Blick eher unwahrscheinlich. Doch genau so war es.

Um zu verstehen, wie es dazu kommen konnte, muss man sich Charnleys Methodik ansehen. Für seine Studie schickte er die Artikel, die er analysierte, an die Protagonistinnen und Protagonisten oder die zitierten Quellen.

Sie fanden zum einen falsch geschriebene Namen, nicht korrekte Titel, typografische Patzer oder Ungenauigkeiten im Bedeutungsinhalt — also Dinge, die man objektiv als falsch bezeichnen kann. Aber sie bemängelten auch Darstellungen, die Journalistinnen und Journalisten gar nicht Fehler nennen würden: wichtige Informationen, die nicht im Text enthalten waren, Zitate in missverständlichen Zusammenhängen oder falsche Interpretationen.

In diese Gruppe von Fehlern gehören auch irreführende Überschriften, Über- und Untertreibungen, also Einschätzungen, die in einigen Fällen einfach in die Kategorie Meinung fallen, in anderen aber tatsächlich die Grenze dessen überschreiten, was man noch als richtig bezeichnen kann. In späteren Studien nannten Forscher diese Art von Mängeln subjektive Fehler — im Gegensatz zu den objektiven.

Vor allem, wenn Informationen fehlen, berufen sich Journalistinnen und Journalisten gern darauf, dass es ja nun einmal ihre Aufgabe sei, die verschiedenen Aspekte zu bewerten und auszuwählen — und dass dies eben dazu führen könne, dass manche Informationen sich später im Text nicht wiederfinden.

In vielen Fällen stimmt das, denn was Menschen als wichtig beurteilen, hängt sehr von der jeweiligen Perspektive und der Interessenlage ab. Klassischer Fall in der Lokalberichterstattung: Organisatoren einer Veranstaltung halten es für enorm wichtig, dass in einem Bericht auch die Sponsoren genannt werden. Für Journalistinnen und Journalisten ist das meist ein eher unwichtiges Detail.

Journalistinnen und Journalisten neigen allerdings auch dann dazu, sich auf ihre journalistische Freiheit zu berufen, wenn sie tatsächlich etwas objektiv Wichtiges unterschlagen haben. Das Bewusstsein für Fehler dieser Art ist nicht besonders ausgeprägt. Das zeigt auch die Studie von Mensing und Oliver: Über die Hälfte der befragten Redakteurinnen und Redakteure waren der Meinung, diese Art von Bedeutungsfehlern (falsche Interpretationen oder fehlende Informationen) kämen so gut wie nie oder allenfalls ein paar Mal im Jahr vor.

Dabei spielt diese Art von Fehlern in der Wahrnehmung des Publikums (oder zumindest der befragten Quellen) eine wichtige Rolle. Der Fehlerforscher Scott Maier hat für eine im Jahr 2002 erschienene Studie über 504 Quellen zu 553 lokalen Berichten befragt. In seiner Auswertung schreibt er:

Der am häufigsten zitierte subjektive Fehler betraf nicht das, was in der Zeitung berichtet wurde, sondern das, was weggelassen wurde: 25 Prozent der subjektiven Fehler machen das aus, was Nachrichtenquellen als „wesentliche Information fehlt“ bezeichnen. Nachrichtenquellen hielten subjektive Fehler für gravierender als sachliche Fehler.

Genau die Fehler, die Quellen für schwerwiegend halten, sind also jene, die von Journalistinnen und Journalisten nicht als solche empfunden werden — oder von der Korrekturinstanz nicht gefunden werden können. Hinzu kommt, dass Leserinnen und Leser von Fehlern dieser Art nur selten erfahren, wenn sie selbst nicht fündig werden. Medien korrigieren nur selten Dinge transparent, die einfach nur missverständlich sind oder nicht vollständig.

Dabei hängt die Glaubwürdigkeit eines Artikels stark davon ab, ob er Fehler enthält. Auch das ist ein Ergebnis von Maiers Studie. Danach beeinflussen Fehler allerdings vor allem die Glaubwürdigkeit einzelner Texte, nicht die der gesamten Zeitung. Wobei sich zeigt: Am wenigsten glaubwürdig waren die Blätter — das ist keine so große Überraschung –, die sensationslustig berichten, Geschichten verzerrt darstellen und auch Fehler in Kauf nehmen, um viele Leserinnen und Leser zu erreichen.

Dabei gilt auch für seriöse Medien: Wenn Redaktionen diese Art von Ungenauigkeiten nicht ernst nehmen, befördert das nur einen Eindruck, der eh schon existiert: Der Medienwissenschaftler Stephan Russ-Mohl wertet in seinem Buch „Die informierte Gesellschaft und ihre Feinde“ eine Untersuchung der Medienforscherin Christine Urban aus dem Jahr 1999 aus. Russ-Mohl fasst zusammen:

Verblüffend war vor allem, dass die Publika mitunter deutlich realistischer als die Journalisten selbst bewerteten, wie fehleranfällig Redaktionsarbeit ist und wie leicht sie sich fremdsteuern lässt. Fast 80 Prozent der Befragten waren der Auffassung, dass sich Journalisten leicht manipulieren lassen; die Journalisten selbst teilten nur knapp zur Hälfte diese Meinung.

Es gibt viele Möglichkeiten, die Wahrscheinlichkeit von Fehlern zu senken. Die meisten haben allerdings den Nachteil, dass sie Geld kosten. Vor allem Schlussredakteurinnen und Schlussredakteure sind aus diesem Grund etwas aus der Mode gekommen. Auch Ombudsleute, also neutrale Ansprechpartner für das Publikum und auch intern für die Journalistinnen und Journalisten, sind selten. Sie können sinnvoll sein, wenn sie einen gewissen Grad an Unabhängigkeit von der Redaktion besitzen und nicht gerade Ernst Elitz heißen. Wichtig sind Ombudsleute vor allem — das zeigt zum Beispiel der Abschlussbericht zum Fall Relotius beim „Spiegel“ –, weil innerhalb der Redaktion oft die Tendenz besteht, Hinweise auf Fehler nicht ganz so ernst zu nehmen. Und sie sind wichtig, weil Redaktionen auf diese Hinweise angewiesen sind.

Der erste Schritt aber wäre, sich Unvollkommenheit als Normalfall vorzustellen. Und dabei kann der Journalismus zum Beispiel von der Luftfahrt lernen, wo man sich verständlicherweise etwas intensiver mit Fehlern beschäftigt. „Wir sind weg von dem Gedanken, dass wir Fehler vermeiden können. Das können wir nicht“, sagt Jan Hagen. Der Berliner Wirtschaftsprofessor erforscht, wie Fluggesellschaften mit Fehlern umgehen. Nicht der Fehler sei das Problem, sondern der vertuschte Fehler, sagt er.

Die Tendenz, Fehler zu verheimlichen, ist auch ein kulturelles Problem. In individualistisch geprägten Ländern wie den USA oder Deutschland wird der Fehler als Versagen des Einzelnen verstanden; in kollektivistisch geprägten Kulturen gilt er hingegen eher als Funktionsschwäche des Systems. Daher ist es dort leichter, einen Fehler zuzugeben. Ihn zu verschweigen, schadet nach diesem Verständnis auch den übrigen Mitgliedern des Kollektivs. Deswegen kann der Umgang mit Fehlern auch in deutschen Redaktionen sich nur dann ändern, wenn klar ist: Es geht nicht darum, einen Schuldigen zu identifizieren.

Was genau damit gemeint ist, hat Brigitte Fehrle aus der „Spiegel“-Relotius-Kommission in einem Interview mit dem Medienmagazin „Zapp“ erklärt:

Uns ist immer wieder begegnet hier im Haus, wenn wir mit Mitarbeiterinnen und Mitarbeitern gesprochen haben, wenn wir gefragt haben: Ja, wenn ihr doch seht, dass da dies und dies schiefläuft, warum sagt ihr das nicht? Und dann kommt immer der Satz: Ja, wir wollen hier niemanden anschwärzen. Und ich glaube, darin liegt ein ganz, ganz grundlegendes Missverständnis — weil in einem Unternehmen ist man nicht privat, sondern man ist für das Produkt mitverantwortlich. Und da geht es nicht darum, dass man jemanden anschwärzt, sondern dass man einen Fehler benennt, der dem Unternehmen schaden könnte.

Damit sich dieses Denken etabliert, muss das bisherige aber zuallererst verschwinden. Wahrscheinlicher ist mit Blick auf die Vergangenheit allerdings ein anderes Szenario: Wenn etwas schiefgeht, ringt man sich zu ein paar kleineren Veränderungen durch. Ansonsten geht alles so weiter wie bisher.