Storydenken: Das Format formt die Wirklichkeit

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 6: Storydenken.

***

Im Jahr 1944 veröffentlichten die österreichischen Psychologen Fritz Heider und Marianne Simmel eine etwas mehr als eine Minute lange Animation, die zwei Dreiecke und einen Punkt zeigen. Die Formen bewegen sich innerhalb und außerhalb eines Rechtecks. Probandinnen und Probanden bekamen die Aufgaben, sich die Szene anzusehen und sie zu beschreiben.

Einige von ihnen schilderten eine Verfolgungsjagd, andere eine Eifersuchtsszene. In den Dreiecken und dem Punkt sahen sie häufig zwei Männer und ein Frau. Das Quadrat stellten sie sich als Haus vor. Sie machten sich Gedanken über die Motive der Figuren und über deren Gefühle. Einige Deutungen glichen einer Seifenoper. Nur: Einen Punkt, zwei Dreiecke und ein Rechteck sah so gut wie niemand. Die Beschreibungen hatten fast alle eine Gemeinsamkeit: Sie waren eine Geschichte.

Ungefähr so scheint der Mensch zu funktionieren. Wo er auch hinschaut, entdeckt er Sinn und Zusammenhänge. Das ist das Format, in dem das Gehirn Informationen speichert. Und in dieses Format konvertieren Menschen alles, was sie sehen und erleben.

Im Rückblick sieht fast alles so aus, als wäre es eine zwangsläufige Folge aus sich logisch auseinander ergebenden Ereignissen, obwohl vieles im Leben einfach durch Zufall passiert, und man bei einer genaueren Untersuchung feststellen würde: Es hat keinen Sinn. Diesen Fall lässt das Gehirn allerdings nur ungern zu. Wo es keinen Sinn erkennen kann, schließt es die Sinnlücke mit einer eigenen Konstruktion. Und das ist im Journalismus ein Problem, denn es führt zu einer Verzerrung, die als Story bias bekannt ist.

Menschen biegen sich die Dinge gern so zurecht, dass sie zu einer guten Geschichten werden. Sie unterschlagen Details, die nicht ins Bild passen. Sie konstruieren Zusammenhänge, wo keine sind. Diese Tendenz bewirkt, dass Gerüchte oft immer abenteuerlicher werden, weil neue Details hinzugedichtet werden, die aus dem Gerücht eine noch bessere Geschichte machen. Im Grunde beschreibt das Story bias ein Grundprinzip der „Bild“-Zeitung: Die Geschichte ist wichtiger als die Wahrheit.

Der Effekt führt auch dazu, dass Geschichten ohne schlechte Absicht so sehr vereinfacht werden, dass sie die Wirklichkeit kaum noch abbilden können. Eine Weltwirtschaftskrise oder ein Krieg zum Beispiel lassen sich wunderbar im Info-Grafik-Format erklären. Erst passierte dies, dann das, dann kam der nächste Schritt. So wird das Ereignis am Ende greifbar, aber es entsteht der falsche Eindruck, dass die Welt sich wie ein Domino-Spiel erklären lässt — und bei den gegebenen Ereignissen alles zwangsläufig so kommen musste.

Der Schriftsteller Rudolf Dobelli beschreibt das Story bias in seiner Kolumnensammlung „Die Kunst des klaren Denkens“ an einem Beispiel: Eine Brücke stürzt ein und reißt einen Autofahrer mit in die Tiefe. Danach wird man die tragische Geschichte des Autofahrers lesen. Vielleicht war er auf dem Weg zu seiner Familie. Vielleicht kam er gerade von der Arbeit. Vielleicht wollte er in der Woche darauf heiraten.

Nur das, was eigentlich passiert ist, ist keine gute Geschichte. Die Brückenkonstruktion hat aus irgendeinem Grund nachgegeben, vielleicht durch eine komplizierte Kette aus unglücklichen Zufällen, die sich nicht zurückverfolgen lässt. Für Menschen sind aber vor allem die Menschen interessant.

Journalistinnen und Journalisten gehen zudem gern so vor, dass das Ergebnis schon vor der Recherche feststeht. Sie formulieren eine These und suchen dann nach den passenden Belegen. Im Januar 2019 musste der WDR einräumen, dass die Wirklichkeit sich doch etwas anders darstellte, als sie in einigen Dokumentationen der Reihe „Menschen hautnah“ gezeigt wurde. Eine Autorin hatte Protagonisten für eine Doku aus einer Komparsen-Datenbank rekrutiert. Die Geschichte stimmte so nicht ganz. Es sollte alles etwas besser klingen, als es wirklich war.

Dass ein Beitrag schon vor der Recherche steht, ist keine Besonderheit der WDR-Doku-Reihe. Das zeigt zum Beispiel der Abschlussbericht über den Fall Relotius beim „Spiegel“. An einer Stelle zitiert das Autoren-Team aus einer inzwischen sehr bekannt gewordenen E-Mail. Der damalige Leiter des Gesellschaftsressorts, Matthias Geyer, gibt darin Anweisungen zu Aufbau und Inhalt einer Reportage:

Dort heißt es unter anderem: „Wir suchen nach einer Frau mit Kind. Sie kommt idealerweise aus einem absolut verschissenen Land (…) Sie setzt ihre Hoffnung auf ein neues, freies gutes Leben in USA (…) Es muss eine sein, die mithilfe eines Kojoten über die Grenze will (…) Die Figur für den zweiten Konflikt beschreibt Claas (…) Dieser Typ wird selbstverständlich Trump gewählt haben, ist schon heiß gelaufen, als Trump den Mauerbau an der Grenze ankündigt hat, und freut sich jetzt auf die Leute dieses Trecks, wie Obelix sich auf die Ankunft einer neuen Legion von Römern freut (…) Wenn ihr die richtigen Leute findet, wird das die Geschichte des Jahres.“

Wie die Geschichte aussehen soll, steht schon vor der Recherche fest. Das Ergebnis muss in die vorgegebene Form passen. Und wenn das der Fall ist, steht am Anfang der Recherche nicht die Frage: Wie ist es gewesen? Sondern: Woher bekomme ich das Personal?

In diesem Fall sollte die Story offenbar möglichst preiswürdig sein. In anderen Fällen konstruieren Journalistinnen und Journalisten, weil es schneller geht, als ergebnisoffen zu recherchieren — oder weil sie davon überzeugt sind, die Antwort eh schon zu haben.

Pressesprecher sagen, sie kennen das. Wenn sie von Journalistinnen und Journalisten angerufen werden, wüssten diese oft längst, was sie hören wollen. Sie bräuchten nur noch jemanden, der es sagt. Der Bundesverband deutscher Pressesprecher hat im Jahr 2015 eine Studie mit dem Titel „Thesenjournalismus statt ergebnisoffener Recherche?“ veröffentlicht. Dazu hatte er über eintausend Pressesprecher befragt. Ein Ergebnis war:

Über alle Medien hinweg gehört es inzwischen zum journalistischen Standard, thesengeleitet zu recherchieren und Storys zuzuspitzen.

In der Zusammenfassung heißt es:

Probleme bereiten den Pressesprechern […] vor allem Situationen, in denen die Journalisten nicht bereit sind, ihre Ausgangseinschätzungen zu ändern — auch wenn sie in der Recherche neue Informationen bekommen, die die Storyline widerlegen.

Auch das ist nicht allein ein Problem von Journalistinnen und Journalisten. Wissenschaftler haben in verschiedenen Studien gezeigt, dass Menschen sogar dann an falschen Informationen festhalten, wenn sie sehen, dass sie falsch sind. Die Forscher sprechen von Belief perseverance oder Faktenresistenz.

In einem Experiment sollten 19 Probandinnen und Probanden, jeder von ihnen promoviert in einem naturwissenschaftlichen Fach, den Inhalt einer Kugel bestimmen. Sie erhielten eine manipulierte Formel. Dann gab man ihnen Kugeln. Sie berechneten den Inhalt erst mit der Formel, später füllten sie Wasser in die Kugeln, gossen es in eine Kiste und bestimmten das Volumen. Das errechnete Ergebnis stimmte nicht mit dem tatsächlichen überein. Dennoch hielten mit Ausnahme eines Wissenschaftlers alle an der falschen Formel fest.

Auch der Innsbrucker Psychologe Tobias Greitemeier untersuchte den Effekt in einem Experiment. Er ließ Probandinnen und Probanden einen wissenschaftlichen Artikel lesen. Einige informierte er im Anschluss darüber, dass die Daten gefälscht waren. Die übrigen bekamen diese Information nicht. Eine dritte Gruppe (Kontrollgruppe) las den Artikel nicht. In Befragungen zeigte sich, dass die Menschen, die über die Fälschung informiert wurden, ihre Meinung zwar korrigierten, aber auch danach weiterhin stärker von den Informationen beeinflusst waren als die Personen aus der Kontrollgruppe, die den Artikel gar nicht kannte. Im Abstract seiner Arbeit schreibt Greitemeier:

Diese Ergebnisse deuten darauf hin, dass eine Widerrufserklärung eines empirischen Artikels in einer wissenschaftlichen Zeitschrift nicht ausreicht, um sicherzustellen, dass die Leser des ursprünglichen Artikels nicht mehr an die Schlussfolgerungen des Artikels glauben.

Bei journalistischen Beiträgen ist das wahrscheinlich nicht anders.

Das Gehirn wirkt schon beim Sammeln von Informationen darauf hin, dass vorhandene Informationen begünstigt werden (Confirmation bias) und neue es schwerer haben. Ergeben sich Widersprüche (kognitive Dissonanzen), versucht das Gehirn, sie aufzulösen, indem es sie umdeutet. Jürgen Schaefer schreibt in einem „Geo“-Essay: „Wenn andere viel zu schnell mit ihrem Rad durch die Fußgängerzone fahren, halten wir das für ‚idiotisch‘, bei uns selbst für ‚verwegen‘.“

So formt die Wahrnehmung unsere Wirklichkeit. Und wie die Wirklichkeit aussehen wird, beeinflussen Journalistinnen und Journalisten mit ihrer Erwartung, die in ihrer These enthalten ist. Das passiert auch in der Wissenschaft, wo in der Regel viel gründlicher gearbeitet werden kann und mehr Zeit bleibt, alles noch einmal zu überdenken. Jürgen Schaefer berichtet von zwei Studien, in denen es um die Frage geht, ob es Herzpatienten hilft, wenn Unbekannte für sie beten:

Eine Studie ergab: Ja, es helfe. Die zweite kam zum gegenteiligen Ergebnis: Nein, es schade sogar. Das naheliegende Ergebnis — dass es weder hilft noch schadet — wollte keiner nachgewiesen haben: nicht spektakulär genug.

Auch hier ist es wahrscheinlich, dass diese Beobachtung nicht nur die Wissenschaft betrifft, sondern ebenso den Journalismus: Die Geschichte muss gut sein. Dann verbreitet sie sich — und mit ihr die inbegriffene Botschaft. Das ist das Prinzip, nach dem „Fake News“ und Gerüchte funktionieren.

Eine Rolle spielt dabei, dass Geschichten von anderen Hirnregionen verarbeitet werden als Fakten. Und dass die Spiegelneuronen im Gehirn es möglich machen, sich in eine Geschichte hineinzuversetzen. So können Menschen von den Erfahrungen anderer lernen, ohne sie selbst gemacht zu haben. Und Geschichten finden sehr viel leichter Zugang zum Gehirn als sperrige Fakten, die beim Eingang auch noch kritisch überprüft werden.

Das ist das Erfolgsgeheimnis von Geschichten. Aber das macht sie gleichzeitig zu manipulativen Werkzeugen: Sie müssen nicht stimmen, damit Menschen sie glauben. Sie müssen vor allem plausibel klingen. Und wie das ausgehen kann, steht im Abschlussbericht zum Fall Relotius.

Das Dumme ist: Es gibt keine Alternative zur Geschichte. Auf keine andere Weise lassen sich Emotionen, Werte oder Erfahrungen so gut transportieren und so erfolgreich Sinn und Identität stiften. Kein anderes Format ist in der Lage, Menschen so zu berühren, sogar körperliche Reaktionen auszulösen. Menschen weinen im Kino, wenn sie Geschichten sehen, die im Grunde nichts mit ihrem eigenen Leben zu tun haben. Und in keinem anderen Format ist der Inhalt so lange haltbar. Je eindrucksvoller eine Geschichte ist, desto besser kann das Gehirn sie sich merken. Der Neurobiologe Gerald Hüther sagt:

Reine Information ist nur limitiert anknüpfbar. Wenn Sie sie aber in eine Geschichte verpacken, liefern Sie in deren Rahmen viele Anknüpfungspunkte an bereits vorhandene Gedächtnisinhalte. So kann man die Geschichte besser im Gedächtnis abspeichern und daraus dann die entscheidenden Aussagen ableiten. Dazu kommt: Jeder Lernprozess wird von Emotionen begleitet, bei der nackten Vermittlung von Fakten werden diese emotionalen Bereiche nicht angesprochen.

Den Effekt kennt jeder aus schockierenden oder auf andere Weise bewegenden Momenten. Die meisten Menschen, die den 11. September 2001 erlebt haben, können sich genau daran erinnern, wo sie waren, was sie gemacht haben und was sie um sich herum wahrgenommen haben, als die Flugzeuge ins Word Trade Center flogen. Es ist alles gespeichert, wie in einem Film. Es erscheint noch immer sehr real. Nur möglicherweise stimmt es nicht, weil die Erinnerung es mit den Jahren an einigen Stellen verformt hat.

Journalistinnen und Journalisten können das nicht verhindern. Aber sie können dem entgegenwirken, indem sie sich diese Effekte bewusst machen und sich nicht allein auf ihre Erinnerung verlassen, sondern ihre Recherchen so gut es geht dokumentieren, damit das Gehirn sich die Geschichte nicht zurechtformt. Sie können ihre Vermutungen immer wieder infrage stellen, indem sie nach Widersprüchen suchen — und Argumente sammeln, die für das Gegenteil sprechen.

Und wenn sie dann feststellen, dass diese Widersprüche sich im Beitrag nicht unterbringen lassen, weil die Geschichte dann nicht mehr funktionieren würde, sollten sie die Möglichkeit in Betracht ziehen, dass die Geschichte so, wie sie es sich vorgestellt hatten, einfach nicht funktioniert.

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier, Teil 3 hier, Teil 4 hier und Teil 5 hier. Oder alle Teile auf einmal hier.

Bei „Bild“ ein Pop-Star

Bei „Bild“ und Bild.de stört es sie, wie Jens Söring, der wegen Doppelmordes in den USA rechtskräftig verurteilte wurde, obwohl an seiner Schuld erhebliche Zweifel bestanden und bestehen, nach seiner Freilassung und der Abschiebung in Deutschland empfangen wurde. Söring sei …

Screenshot Bild.de - Ein Mörder, kein Pop-Star!

Es ist ein verstörendes Signal: Ein in den USA rechtmäßig verurteilter Doppelmörder wird in Deutschland empfangen wie ein Popstar.

kommentiert „Bild“-Redakteur Philip Fabian. Und es scheint, als hätte Fabian in den vergangenen Tagen nicht allzu häufig ins eigene Blatt geschaut oder Bild.de besucht. Dort weist die Redaktion zwar bei jeder Gelegenheit darauf hin, dass es sich bei Söring um einen „Doppelmörder“ handelt, ansonsten aber berichtet sie über den Mann wie sie sonst nur über (Pop-)Stars berichtet.

Die „Bild“-Medien folgen Jens Söring bei jedem Schritt und dokumentieren alles. Sörings „ANKUNFT AM FLUGHAFEN“:

Screenshot Bild.de - Sörings Ankunft am Flughafen Frankfurt - Er blickte dreimal in den Himmel - Hach Gott, ist das schön

Sörings Begrüßungskomitee:

Screenshot Bild.de - Zwölf Jahre Kampf für Sörings Freiheit - In inniger Umarmung mit einem Doppelmörder

Sörings Zukunftspläne:

Screenshot Bild.de - Nach 33 Jahren US-Haft kehrt der Doppelmörder zurück - Sörings Pläne für sein Leben in Deutschland

Sörings Klamotten:

Screenshot Bild.de - Jens Söring nach 33 Jahren Knast wieder in Deutschland - Im Jogginganzug lässt sich der Doppelmörder durch Hamburg fahren

Sörings Schuhe:

Screenshot Bild.de - Doppelmörder Söring in Frankfurt gelandet - 33 Jahre im Knast waren Schnürsenkel verboten - In weißen Sneakern in die Freiheit

In „Bild“ gab es eine ganze Söring-Seite:

Ausriss Bild-Zeitung - Übersicht über eine komplette Seite mit verschiedenen Artikeln über Jens Söring

Und bei Bild.de einen Livestream von der Landung in Frankfurt am Main („BILD LIVE BEI DER LANDUNG VON JENS SÖRING“).

Außerdem hat die Redaktion eine Liste erstellt mit Erfindungen und Ereignissen, die Söring durch seine „33 Jahre hinter Gittern“ verpasst habe:

Screenshot Bild.de - 33 Jahre hinter Gittern - Was Jens Söring im Knast alles verpasst hat

Darunter so prägende Sachen wie Matthias Reims Song „Verdammt, ich lieb‘ dich“ oder „DSDS und Dieter Bohlen“. Und wirklich Wichtiges wie die Terroranschläge vom 11. September 2001, von denen man aber natürlich auch im Gefängnis etwas mitbekommen kann. Außerdem habe Söring verpasst, dass „Deutschland vier Mal Fußballweltmeister“ wurde, was einfach nur Blödsinn ist, weil Jens Söring beim ersten Weltmeistertitel 1954 überhaupt noch nicht geboren war und beim zweiten 1974 noch nicht im Gefängnis saß*.

Am beklopptesten aber ist der Bild.de-Artikel über Sörings Flug nach Deutschland:

Screenshot Bild.de - Doppelmörder Söring im Flugzeug nach Deutschland - Western, Huhn, Orangensaft - danach schlief er ein

Der Text hält, was die Überschrift befürchten lässt:

Die Maschine rüttelt heftig, beim Durchqueren einer Schlechtwetterfront gibt es Turbulenzen. Passagier Söring bleibt inzwischen gelassen — und er hat das Entertainment-System entdeckt, eine Stewardess gab ihm zuvor Ohrenstöpsel.

Wenige Reihen weiter erreicht eine weitere Flugbegleiterin den Deutschen: „Huhn oder Pasta?“, wird er gefragt. Er bestellt Huhn. Dazu einen Becher Orangensaft. Dann noch einen — und ist dann wieder vertieft in das Unterhaltungssystem. Später schläft er ein — der Film läuft noch.

Mittlerweile ist der Flieger in Frankfurt gelandet. Zuvor gab es Frühstück: Croissants und Joghurt. Söring greift zu.

Solche Nichtigkeiten, zumal in dieser Fülle, berichten die „Bild“-Medien nicht mal über die größten Pop-Stars.

Mit Dank an Oliver H., Christian G., Markus T., @J_MkHk, @moejevski und @spokenxD für die Hinweise!

*Korrektur, 17:11 Uhr: Bei den vier Weltmeistertiteln haben wir Blödsinn erzählt: Bild.de meint die zwei WM-Titel für die deutschen Fußballer und die zwei WM-Titel für die deutschen Fußballerinnen, während Jens Söring im Gefängnis saß. Damit ist „Deutschland vier Mal Fußballweltmeister“ richtig. Wir bitten, den Fehler zu entschuldigen.

Dunning-Kruger: Wer nichts weiß, weiß nicht mal das

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 5: Selbstüberschätzung.

***

Wer schon mal eine längere Abschlussarbeit schreiben musste, hat das Phänomen wahrscheinlich selbst erlebt: Ganz am Anfang wusste man nichts über das Thema, aber man ging davon aus, dass sich das bald ändern würde. Dann vergingen Tage und Wochen, in denen man sich ausführlich mit der Sache beschäftigte. Aber unglücklicherweise schlossen sich nicht nach und nach alle Wissenslücken, sondern es taten sich immer neue auf. Das ist eine ganz typische Entwicklung. Mit dem Wissen wächst auch die Fähigkeit, das eigene Nichtwissen abzuschätzen. Oder umgekehrt: Wer wenig weiß, hat keine Ahnung, wie wenig er weiß.

Die Psychologen David Dunning und Justin Kruger haben diesen Effekt im Jahr 1999 untersucht. Ihre Arbeit trägt den Titel: „Unskilled and unaware of it: how difficulties in recognizing one’s own incompetence lead to inflated self-assessments“.

Die beiden Wissenschaftler ließen Probandinnen und Probanden an einem Test teilnehmen und baten sie im Anschluss, ihre eigene Leistung im Vergleich zu der aller übrigen Teilnehmerinnen und Teilnehmer einzuschätzen. Alle hielten sich selbst für überdurchschnittlich gut. Aber je schlechter ihre Leistung war, desto mehr neigten sie dazu, sich zu überschätzen. Die besseren tendierten dazu, ihre Leistung zu unterschätzen. Es zeigte sich: Menschen mit geringem Wissen können nicht nur ihr eigenes Wissen schlecht einschätzen. Sie sind auch nicht in der Lage, die Überlegenheit anderer zu erkennen. Und das ist besonders fatal, denn es führt dazu, dass inkompetente Menschen oft ein enormes Selbstvertrauen besitzen.

Auch andere Wissenschaftlerinnen und Wissenschaftler haben das Phänomen untersucht. Die Psychologen Amos Tversky und Daniel Kahneman nennen es „Overconfidence bias“.

Journalistinnen und Journalisten haben mit diesem Effekt bei ihrer Arbeit ständig zu tun — sowohl im Kontakt mit anderen als auch bei der Einschätzung ihrer eigenen Fähigkeiten. Unglücklicherweise wissen viele nichts von diesem Problem.

Vor allem, wenn Reporterinnen und Reporter tagesaktuell arbeiten, im Lokalen oder Regionalen, bleibt oft nicht viel Zeit, um sich auf Pressetermine oder Interviews vorzubereiten. Es bleibt generell nicht viel Zeit für Recherche. Das Gefühl, alles im Groben verstanden zu haben, stellt sich in der Regel aber schnell ein — manchmal schon nach einem flüchtigen Blick auf den Wikipedia-Artikel. Nur genau dann ist die Gefahr am größten, bei völliger Ahnungslosigkeit gewaltigen Unsinn zu verbreiten. Genau das passiert natürlich trotzdem.

Pressesprecherinnen und Pressesprecher bringt das in eine dumme Situation: Sie wissen, dass vor allem bei regionalen und lokalen Medien viel schiefläuft. Dort haben Reporterinnen und Reporter es oft am selben Tag gleich mit mehreren, völlig verschiedenen Themen zu tun, die für sie neu sind, und abends müssen die Texte fertig sein. Wenn beispielsweise ein Pressesprecher eine Journalistin dann fragt, ob er den Artikel vor der Veröffentlichung noch einmal sehen dürfe, um zu verhindern, dass etwas falsch dargestellt wird, gerät er in Verdacht, auf diese Weise auch auf den Inhalt Einfluss nehmen zu wollen — was allerdings oft genug auch passiert. Das weiß ich aus eigener Erfahrung als Lokalreporter.

In vielen Redaktion gilt daher die strikte (und nachvollziehbare) Regel: Wir geben unsere Texte vor der Veröffentlichung nicht heraus. Journalistinnen und Journalisten erklären das dann mit der Pressefreiheit. Allerdings gehört zu dieser Freiheit auch die Verpflichtung zu prüfen, ob Informationen wirklich stimmen. Und wenn sie wissen, dass sie das nicht garantieren können, wäre es unter bestimmten Bedingungen vielleicht doch einen Gedanken wert.

Das ist nie eine optimale Lösung. Es gibt vieles, was dagegenspricht, es so zu machen. Ich habe via Twitter Journalistinnen und Journalisten gebeten, mir zu sagen, wie sie es mit der Herausgabe von Texten halten. Im Dokument ist nicht zu sehen, wer geantwortet hat. Aber die Antworten bilden vieles ab, was ich von Journalistinnen und Journalisten schon öfter gehört habe. In einer Antwort steht: „Noch nie gemacht und werde es auch nie machen, weil es die Standards versaut und am Ende allen schadet.“

Das stimmt, es verändert die Standards. Allerdings schadet es auch, wenn Informationen falsch erscheinen und erst später richtiggestellt werden. Zum einen erreicht die Korrektur viele Leserinnen und Leser nicht mehr, zum anderen tendieren Menschen auch dann dazu, an Informationen festzuhalten, wenn sie erfahren, dass sie falsch sind (Belief perseverance).

Journalistinnen und Journalisten gehen mit der Situation sehr unterschiedlich um. Das zeigen schon die wenigen Antworten auf meine Frage: Danach geben einige nur Zitate heraus, andere auch ganze Texte. Bei Wortlaut-Interviews ist die Autorisierung in Deutschland üblich. Aber auch bei Zitaten im Text wird sie häufig gefordert und ist manchmal Voraussetzung dafür, dass ein Gespräch überhaupt zustande kommt.

Es hängt auch von der Art der Texte ab, ob Journalistinnen und Journalisten den Menschen, über die sie berichten, das Ergebnis vor der Veröffentlichung zeigen. Bei Investigativgeschichten wird es in der Regel logischerweise nicht vorkommen, bei Berichten über Wissenschaftsthemen wahrscheinlich recht häufig.

Normalerweise gebe ich nichts vorher zum Lesen heraus, es sei denn, es ist technisch/wissenschaftlich kompliziert und ich will sicher gehen, alles richtig verstanden und wiedergegeben zu haben

… heißt es in einer der Antworten. Ungefähr so steht es auch in einer anderen. Der Journalist Birk Grüling schreibt mir in einer Nachricht:

Ich habe mit dem „Textherausgeben“ durchaus positive Erfahrungen gemacht. Häufig schreibe ich über intime Dinge — Kinder mit Behinderung, Schicksale. Viele dieser Menschen geben mir einen großen Vertrauensbonus, haben oft noch nie mit Journalisten gesprochen. Und den gebe ich zurück. Natürlich mit dem Hinweis, dass ich höchstens ein Zitat oder eine falsche Schreibweise im Namen ändere.

Auch zwischen Publikumspresse und Fachpresse gibt es Unterschiede. Während es in der Publikumspresse, bei überregionalen Tageszeitungen oder Nachrichten-Magazinen, eher verpönt ist, Texte vor der Veröffentlichung zu zeigen, schreibt Jürg Vollmer, Chefredakteur des Schweizer Landwirtschafts-Fachmagazins „Die Grüne“:

[W]ir können nicht alles wissen. Deshalb geben wir grundsätzlich jeden Text und jedes Interview den beteiligten Protagonisten zum Gegenlesen. Diese können fachliche Fehler oder Ungenauigkeiten korrigieren. Absolut tabu beim Gegenlesen sind aber die fachlichen Beurteilungen unserer Redakteure und das „Weichspülen“ von Zitaten der Protagonisten (die wir deshalb als Audio-Format aufnehmen). Für diese konsequente Haltung büßen wir immer wieder mal Inserate-Aufträge ein, das nehmen wir in Kauf. Wir erreichen dadurch aber eine praktisch fehlerfreie Berichterstattung, was unsere kritischen Leser […] sehr zu schätzen wissen.

Ich selbst habe auf diesem Gebiet wahrscheinlich schon fast jeden Fehler gemacht, den man machen kann. Ich habe mich darauf verlassen, als Menschen mir versicherten, es gehe nur darum zu schauen, ob im Text alles richtig sei. Später fand ich mich in einer Diskussion darüber wieder, ob man dies oder das denn nicht doch irgendwie anders formulieren könnte. Ich habe auch schon einem Gespräch unter der Voraussetzung zugestimmt, dass die Zitate später autorisiert werden, und leichtsinnigerweise den gesamten Text geschickt, weil ich den Inhalt für harmlos hielt. Der Text ist nie erschienen.

Ich habe allerdings auch Fehler an Stellen gemacht, an denen ich gar keine Gefahr sah. Und ich bin schon oft von Fachleuten auf Details hingewiesen worden, die nicht stimmen und die auch Kolleginnen oder Kollegen nicht gefunden hätten, denen ich sonst meine Texte zum Lesen schicke.

Deshalb halte ich selbst es mittlerweile so: Wenn von mir gefordert wird, dass ich Texte, die keine Wortlaut-Interviews sind, vor der Veröffentlichung vorlege, sage ich immer: nein. Aber ich biete es manchmal von mir aus an, wenn ich meinem eigenen Wissen nicht traue und nicht die Gefahr sehe, dass jemand die Chance nutzen wird, Einfluss auf den Inhalt zu nehmen.

Selbstüberschätzung betrifft natürlich genauso die Menschen, mit denen Journalistinnen und Journalisten es zu tun haben — und nicht nur inkompetente Gesprächspartner, sondern ebenso Expertinnen und Experten. Holm Friebe beschreibt in seinem Buch „Die Stein-Strategie“ ein Experiment des Psychologen Philip Tetlock, der Mitte der 80er-Jahre für ein Experiment 284 Expertinnen und Experten aus Wirtschaft, Politik und Journalismus bat, die Wahrscheinlichkeit bestimmter politischer Ereignisse vorherzusehen: Wo der Ölpreis in zwei Jahren steht. Wie wahrscheinlich ein Krieg zwischen Indien und Pakistan innerhalb der nächsten fünf Jahre ist. Und so weiter. 20 Jahre lang trug Tetlok Tausende von Datensätzen zusammen. Friebe schreibt:

Im Großen und Ganzen war die Güte der Expertenprognosen nicht besser als der nackte Zufall. Das heißt, sie wären „von einem Dartpfeile werfenden Schimpansen geschlagen worden“, wie es Tetlock formuliert.

Doch nicht alle Expertinnen und Experten waren gleich. Tetlock unterschied zwischen Fachleuten mit großen Wissen auf einem bestimmten Gebiet (Igel) und Personen mit einem breiten breiten Wissen und „Demut vor der Zukunft“ (Füchse). Die Füchse schnitten durchweg deutlich besser ab. Friebe schreibt dazu:

Die Igel […] lagen sogar umso weiter daneben, je mehr die Prognose mit ihrem Spezialthema zu tun hatte. Aufgrund ihres großen Fachwissens überschätzten sie systematisch sowohl ihre eigene Prognosefähigkeit als auch die durchschlagende Bedeutung ihres Themas für die allgemeine Zukunft. Zur sprichwörtlichen Betriebsblindheit tritt „overconfidence“, überzogenes Selbstbewusstsein.

Das hat mit einem Effekt zu tun, den Daniel Kahneman die WYSIATI-Regel (What you see is all there is) nennt: Menschen beurteilen das, was sie wissen oder sehen und vernachlässigen systematisch das, was sie nicht sehen. In seinem Buch „Schnelles Denken, langsames Denken“ schreibt auch er über über Tetlocks Experiment und ein Ergebnis, das für den Journalismus recht interessant ist:

Philip Tetlock beobachtete, dass die Experten mit der stärksten Selbstüberschätzung am ehesten eingeladen wurden, in Nachrichtensendungen zu zeigen, was sie draufhaben.

Und möglicherweise tut das der Fähigkeit zur Selbstkritik nicht immer gut. Kahneman zitiert Tetlock:

„Experten, die hoch im Kurs standen“, schreibt er, „überschätzten sich selbst stärker als ihre Kollegen, die fern des Rampenlichts ein kümmerliches Dasein fristen.“

Sogar Nobelpreisträgerinnen und Nobelpreisträger sind davor anscheinend nicht gefeit. Vielleicht macht der Ruhm sie sogar besonders anfällig. Laut Michael Brendler hat der frühere Londoner Medizinprofessor Robin Weiss der bei ihnen auftretende Form der Selbstüberschätzung sogar ein eigenes Wort geben: „Nobilitis“. Sie zeige sich so:

Plötzlich glauben sie [die Nobelpreisträger], alles zu verstehen, und äußern grandiose Ideen auf Gebieten, von denen sie eigentlich keine Ahnung haben.

Aber auch auf dem eigenen Fachgebiet ist die Gefahr groß, Unsinn zu behaupten, wenn man sich seiner Sache zu sicher ist. Forscher der Cornell University haben Menschen, die für sich beanspruchten, sich gut mit Finanzthemen auszukennen, eine Liste mit 15 Begriffen aus der Finanzwelt vorgelegt und sie gebeten, diese zu erklären. Darunter waren zum Beispiel Fantasiebegriffe wie „annualisierter Kredit“. Das Ergebnis war: „Je sicherer sich die Probanden ihrer ökonomischen Kenntnisse waren, desto öfter erklärten sie mit großem Ernst, was sich hinter den ausgedachten Termini verbarg.“

Das große Problem beim Dunning-Kruger-Effekt ist: Von außen lässt sich nur wenig machen. Menschen auf ihre Inkompetenz hinzuweisen, führt meistens zu nichts, denn auch wenn man sie mit der Nase darauf stößt, fehlt ihnen weiterhin das Wissen, um das Ausmaß ihrer Ahnungslosigkeit zu erkennen. Zuallererst müsste man diese Menschen dazu bewegen, sich mehr Wissen anzueignen, um in die Lage zu kommen, ihre Schwäche zu erkennen. Doch das ist schwer. Sie sehen zum Lernen ja gar keine Notwendigkeit.

Selbstüberschätzung lässt sich nur verhindern, wenn man sich selbst gegenüber skeptisch bleibt, wenn man das eigene Wissen infrage stellt und die eigenen Einschätzungen mit denen anderer abgleicht. Oder in anderen Worten: Für Journalistinnen und Journalisten bedeutet das, sie sind gut beraten, auch dann kritisch zu bleiben, wenn dazu auf den ersten Blick überhaupt gar kein Anlass besteht.

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier, Teil 3 hier und Teil 4 hier. Oder alle Teile auf einmal hier.

Unvollständig berichtet, Mücke und Elefant, Kampf um „Schmähgedicht“

1. Was die „Süddeutsche Zeitung“ zum Fall Epstein nicht schreibt
(uebermedien.de, Boris Rosenkranz)
Die „Süddeutsche Zeitung“ hat sich ausgiebig mit dem Fall des verurteilten Sexualstraftäters Jeffrey Epstein beschäftigt, habe dabei aber nicht die Rolle des Literaturagenten John Brockman erwähnt. Boris Rosenkranz fragt bei „Übermedien“ nach den Gründen: „Aus Rücksichtnahme auf einen engen Partner der Zeitung, der mit Feuilleton-Chef Andrian Kreye seit Jahren verbunden ist?“

2. Zeitungsverlag wider Willen
(welt.de, Christian Meier)
„Welt“-Journalist Christian Meier berichtet über die neuesten Entwicklungen im Medienhaus DuMont. Die Eigentümer des Traditionsverlags hätten den Mitarbeiterinnen und Mitarbeitern mitteilen lassen, dass sie nun doch an ihren Kölner Zeitungen festhalten wollen: „Oder, anders gesagt, dass sie diese nicht verkaufen werden. Was ein Unterschied ist, denn nach allem, was zu hören ist, hätten die 17 Kommanditisten des Unternehmens, allen voran Isabella Neven DuMont und Christian DuMont Schütte, doch ganz gern einen Abnehmer gefunden. Angesichts der sinkenden Margen und der damit einhergehenden sinkenden Attraktivität des Verlegertums. Doch ein ansprechendes Gebot für Köln gab es dann nicht, auch wenn die Funke-Mediengruppe („Westdeutsche Allgemeine Zeitung“) ein naheliegender Käufer gewesen wäre.“

3. Podcasts: Aus der Nische zum Massenmarkt
(blog-cj.de, Christian Jakubetz)
Christian Jakubetz nimmt den neuen täglichen Podcast-Mix von Spotify zum Anlass, einen Blick auf das Wachstumsmedium Podcast zu werfen. Er erkennt einen ähnlichen Trend wie beim Bewegtbild: „Weg von der linearen Nutzung, hin zu On-Demand-Inhalten. Weg von General Interest, rein in die Nische. Weg vom Allgemeinen, hin zur Personalisierung. Das bringt auch eine Fragmentierung des Marktes mit sich, das Long-Tail-Phänomen haben wir schon jetzt auch bei Podcasts: Ein paar laufen richtig gut, dahinter kommen dann ganz, ganz viele, die irgendwo bei sieben Hörern monatlich absaufen.“ Eingebettet in den Beitrag ist das (schon etwas ältere) Gespräch mit dem Geschäftsführer von detektor.fm Christian Bollert. Darin geht es um die Zukunft von Radio, Podcasts und Audio-Technologie. Sowie um die Bedrohungen und Chancen durch die „Mediathekisierung“ und „Spotifysierung“ des Marktes, um Reichweitenmessung und den Mut zur Nische.

4. Wahlen in Großbritannien: Die Grünen haben ihr Ergebnis um 60 Prozent gesteigert
(rwi-essen.de)
Die aktuelle „Unstatistik des Monats“ geht auf eine Meldung der ZDF-Nachrichtensendung „heute“ zurück, nach der die Grünen bei der Wahl in Großbritannien ihr Ergebnis um 60 Prozent gesteigert hätten. Abgesehen von der niedrigen Basis habe es sich auch nicht um die beste Ergebnissteigerung gehandelt. Das Urteil der Unstatistiker: „So macht man aus einer statistischen Mücke einen Elefanten.“

5. Ab 18. Dezember: Mehr Geld für (fast) alle AutorInnen – acht Fragen und Antworten
(selfpublisherbibel.de, Matthias Matting)
Seit Neuestem gilt auf E-Books der gleiche Umsatzsteuersatz wie auf Bücher, also sieben Prozent statt bisher 19 Prozent. Wie wirkt sich das auf Self-Publisher und Verlags-Autoren und -Autorinnen aus? Für welche Einnahmen gibt es mehr Geld? Welche Folgen hat die Umstellung auf meine Steuern? Matthias Matting antwortet auf die wichtigsten Fragen.

6. Schmähgedicht: Böhmermann zieht vors Verfassungsgericht
(dwdl.de, Timo Niemeier)
Jan Böhmermann ergreife im Rechtsstreit um das in Teilen verbotene Erdoğan-„Schmähgedicht“ seine letzte Chance und ziehe vor das Bundesverfassungsgericht, berichtete Timo Niemeier bei „DWDL“. Sein Anwalt Christian Schertz vertrete die Ansicht, dass die bislang damit befassten Gerichte verkannt hätten, dass Böhmermanns Gedicht keine „Herabwürdigung des Herrn Erdoğan als Person“, sondern eine „künstlerisch-kritische Auseinandersetzung mit den Grenzen der Satire“ sei.

Bild  

„Bild“ schickt Bodo Ramelow in einen erfundenen „Shitstorm“

Ein „Shitstorm“ ist laut Duden ein „Sturm der Entrüstung in einem Kommunikationsmedium des Internets, der zum Teil mit beleidigenden Äußerungen einhergeht“.

Bei „Bild“ haben sie hingegen eine leicht andere, eigenwillige Definition, und die geht in etwa so: Um einen „Shitstorm“ handelt es sich, wenn auf einen Witz bei Twitter weit über 200 Personen mit „Gefällt mir“ reagieren, mehr als 30 Personen ihn per Retweet verbreiten und zwölf Personen auf den Tweet antworten, wobei die Antworten vor allem mit einem Daumen nach oben, lachenden Gesichtern, vielen Herzchen und Aussagen wie „Sehr schön … danke dafür :-)“ oder „Herrlich“ versehen sein müssen. Oder anders: Wir finden Linken-Politiker und Ministerpräsident Bodo Ramelow blöd, also lasst uns ihm mal einen „Shitstorm“ andichten:

Ausriss Bild-Zeitung - Was wollten Sie uns damit sagen, Herr Ramelow?

Shitstorm für MP Bodo Ramelow (Linke)!

Grund sei dieser „schräg formulierte Nachrichten-Mix des Politikers auf Twitter“:

Screenshot eines Tweets von Bodo Ramelow - Was die Woche passierte und die Welt bewegte: Betrunkener Waschbär fährt erster Klasse mit der DB bis Bremen - nur dadurch entkam er dem Erfurter Stadtjäger. Die Stadtmusikanten müssen ab sofort geändert werden und eine  Greta war die Zugbegleiterin.

Die Thüringen-Ausgabe der „Bild“-Zeitung schreibt über die Reaktionen:

Ein verärgerter User antwortete: „Bodo lass das, Witze kann nicht jeder, mach lieber ordentliche Politik!“

Andere fanden, dass sich der Beitrag wie ein Antrag auf Pensionierung lese, fragten beim MP sogar nach, ob er alkoholisiert gewesen sei.

… wobei die Sache mit der „Pensionierung“ mit einem Zwinkern versehen ist. Ansonsten sehen die Antworten auf Ramelows Tweet so aus:








Das ist, neben aktuell 247 Mal „Gefällt mir“ und 31 Retweets, der „Shitstorm“, den die „Bild“-Redaktion herbeifantasiert hat.

Dazu auch aus unserem Archiv:

Herdentrieb: Immer den anderen hinterher!

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 4: der Herdentrieb.

***

Zwei Bars in einer fremden Stadt. Beide liegen direkt nebeneinander. Die eine ist voll, in der anderen ist so gut wie gar nichts los. Wenn Menschen sich nun für eine der Bars entscheiden müssen, werden die meisten in die vollere gehen, weil sie sich von der Annahme leiten lassen: Die Leute werden schon wissen, warum sie nicht in der anderen sitzen.

In Situationen, in denen Menschen unsicher sind, orientieren sie sich an anderen. Sie ahmen deren Verhalten nach. Der Effekt heißt „social proof“. Er erklärt sich dadurch, dass Menschen in Unsicherheit offenbar zu der Überzeugung neigen, andere wüssten besser Bescheid als sie. So kann schnell ein Herdenverhalten entstehen.

Als am 17. Januar 2017 die Meldung die Runde machte, das Bundesverfassungsgericht habe die NPD verboten, war genau das passiert. Viele Redaktionen hatten Journalistinnen und Journalisten nach Karlsruhe geschickt, die sich mit Gerichtsberichterstattung nicht auskannten. Sie glaubten, schon das Urteil zu hören, als die Richter noch die Anträge vorlasen. Dann kamen die ersten Eilmeldungen, andere Medien zogen nach. Die falsche Nachricht verbreitete sich mit einem enormen Tempo und musste später wieder eingefangen werden.

Dass die Lage unübersichtlich ist und nicht klar scheint, wie etwas zu deuten oder zu verstehen ist, kommt im Journalismus ständig vor. Im besten Fall recherchieren Journalistinnen und Journalisten dann, um sich mit den Hintergründen vertraut zu machen. Im zweitschlechtesten Fall schauen sie, was die Kolleginnen und Kollegen so schreiben und orientieren sich daran. Im schlechtesten Fall hatten die Kolleginnen und Kollegen das auch schon getan.

Wenn immer weniger Zeit zur Verfügung steht, wächst die Gefahr, dass Fehleinschätzungen sich verbreiten, weil alle sich gegenseitig aufeinander verlassen. Besonders groß ist diese Gefahr, wenn Journalistinnen und Journalisten nicht dazu verpflichtet sind, Informationen zu überprüfen, weil sie zum Beispiel von Nachrichtenagenturen geliefert werden. Dann passiert etwas, das man aus Situationen kennt, in denen man sich von einem Navigationsgerät oder Ortskundigen leiten lässt. Das eigene Denken nimmt sich eine Pause. Im Journalismus verbreiten sich unter diesen Umständen Meldungen, die man unter normalen Umständen für mindestens seltsam gehalten hätte:




Doch auch, wenn Agenturen nicht beteiligt sind, kommt es immer wieder zu verhängnisvollen Domino-Effekten, weil Journalistinnen und Journalisten zu sehr aufeinander vertrauen.

Im Mai 2013 schrieb Detlef Esslinger in einem Kommentar für die „Süddeutsche Zeitung“:

Was man den Medien vorwerfen kann, ist ein zweifacher Herdentrieb. Zum einen arbeitet jede Zeitungs- und Fernsehredaktion grundsätzlich nach der Devise: „Dazu müssen wir auch was haben.“ Zum anderen reihen Autoren sich lieber gefahrlos in einen Chor ein, als eine Solostimme zu wagen — wie andere Akteure übrigens auch.

In Esslingers Text ging es unter anderem um die Berichterstattung, die dazu geführt hatte, dass Christian Wulff als Bundespräsident zurücktrat.

Der Journalistik-Professor Hans Mathias Kepplinger schildert in seinem Buch „Totschweigen und Skandalisieren – Was Journalisten über ihre eigenen Fehler denken“, wie es dazu kam: Es hatte alles angefangen mit einem Bericht in der „Bild“-Zeitung über einen Kurzurlaub Wulffs zusammen mit dem Unternehmer David Groenewold. Der hatte das Hotel mit seiner Kreditkarte bezahlt. Vier Jahre später, als die Berichterstattung über die Reise bereits in vollem Gange war, habe Groenewold das Personal im Hotel gebeten, ihm die Belege auszuhändigen, was der Versuch hätte sein können, die Unterlagen verschwinden zu lassen. Der „Bild“-Artikel war laut Generalstaatsanwalt der Auslöser für die Aufhebung von Wulffs Immunität.

Nach Christian Wulffs Darstellung hatte David Groenewold lediglich um Kopien gebeten, um auf Fragen von Journalistinnen und Journalisten genaue Antworten geben zu können. Hans Mathias Kepplinger schreibt:

Falls das zutrifft, würde es sich bei dem Bild-Artikel um die folgenschwerste Falschmeldung der deutschen Nachkriegsgeschichte handeln.

Der Rest ist bekannt. Vergessen oder nie gelesen haben allerdings viele, dass danach mehrere Chancen verstrichen, die Sache richtigzustellen. Stefan Niggemeier hat damals in seinem Blog ausführlich nachgezeichnet, wie Wulff über eine Falschmeldung stürzte, aber es im Grunde keinen kümmerte — und sich später mehrere Gelegenheiten ergaben, die ganze Geschichte zu erzählen, zum Beispiel zur Veröffentlichung von Wulffs Buch, die aber alle ungenutzt blieben.

Es mögen unglückliche Zufälle gewesen sein, aber es sieht nicht nach Zufällen aus — eher nach Journalistinnen und Journalisten, die „sich lieber gefahrlos in einen Chor ein[reihen], als eine Solostimme zu wagen.“

Der Journalist Michael Götschenberg hat über den Fall Wulff ein Buch geschrieben. Es heißt: „Die Geschichte hinter der Geschichte und die Rolle der Medien über die Amtszeit des Bundespräsidenten Christian Wulff“. Er sieht auch Parallelen zu anderen Fällen. Im Interview mit der „taz“ sagte Götschenberg:

Man konnte das sehr gut in den ersten Stunden der Berichterstattung über den Fall Edathy beobachten, gerade bei den Online-Medien. Da wurden innerhalb von Stunden aus Vermutungen plötzlich Fakten. Das Schlimmste ist, dass alle voneinander abschreiben. Niemand macht sich mehr die Mühe zu überprüfen, ob überhaupt zutreffend ist, was behauptet wird. Das war bei Wulff auch so.

Der Medienwissenschaftler Stephan Russ-Mohl hat den Eindruck, dass das in den vergangenen Jahren noch schlimmer geworden ist. In seinem Buch „Die informierte Gesellschaft und ihre Feinde“ schreibt er:

Herdentrieb und Ingroup-Tunnelblick, sprich: Orientierung an der Berichterstattung der Wettbewerber, mag es im Journalismus immer gegeben haben. In Zeiten der Digitalisierung, in denen Redaktionen kaputt gespart werden, wird das allerdings zur Regel.

Dass Menschen sich an anderen Menschen orientieren, kann auch auf andere Weise zum Problem werden, etwa beim Phänomen des Gruppendenkens (Groupthink). Dabei einigen sich mehrere Menschen in einer Gruppe auf eine Entscheidung, die kein einzelnes Mitglied so getroffen hätte. Das passiert auch in Redaktionen — zum Beispiel, wenn Kritik nicht erwünscht ist.

Wenn es in Redaktionskonferenzen darum geht, sich selbst auf die Schulter zu klopfen, und kritische Anmerkungen dabei eher stören, führt das zwangsläufig dazu, dass kaum noch jemand etwas Kritisches sagt. Dazu genügt es oft schon, wenn der Chef oder die Chefin empfindlich auf Kritik reagiert. So etabliert sich schnell eine Atmosphäre, in der auch schlechte Entscheidungen durchkommen, weil Harmonie wichtiger erscheint als die Sache.

Ein ähnliches Phänomen beschreibt die Schweigespirale von Elisabeth Noelle-Neumann. Sie besagt: Bevor Menschen sich äußern, schätzen sie das Meinungsklima ab. Je stärker die zu erwartenden Widerstände sind, desto eher schweigen sie — aus Angst vor der Isolation.

In einer digitalen Welt bringt das Menschen nicht zum Schweigen. Sie weichen einfach aus und verbreiten ihre Meinung dort, wo Zustimmung zu erwarten ist. In Milieus, in denen Nähe eine große Rolle spielt, etwa in Vereinen oder in der Nachbarschaft, ist das Ausweichen schwer. Dort kommt es leichter zu einer Spiralwirkung. Journalistinnen und Journalisten verstärken das mit ihrer Berichterstattung, wenn sie ihre Meinung mit dem allgemeinen Meinungsklima synchronisieren — aus Überzeugung oder um im eigenen Milieu nicht alleine in einer Ecke zu stehen.

Der Medienwissenschaftler Michael Haller hat dieses ein Phänomen im Jahr 2015 in Deutschland beobachtet. In der Studie „Die ‚Flüchtlingskrise‘ in den Medien“ (PDF), die Haller zusammen mit einem Forscherteam für die Otto-Brenner-Stiftung erstellt hat, beschreibt er, wie Journalistinnen und Journalisten von Tageszeitungen (nur um die geht es in der Studie) das Narrativ der „Willkommenskultur“ zum moralischen Gebot erhoben und damit andere Meinungen automatisch mit dem Stempel „unmoralisch“ versahen. Haller schreibt:

In der Tagespresse wurde unseren Befunden zufolge das Narrativ Willkommenskultur als moralisch intonierte Verpflichtungsnorm „top-down“ vermittelt. (…) Annähernd 83 Prozent aller Zeitungsberichte vermittelten das Leitbild Willkommenskultur in einem positiven oder mehr positiven Sinne. Über Bedenkenträger oder Skeptiker wurde eher selten berichtet.

Vor allem die lokale und regionale Presse kommt in der Studie sehr schlecht weg:

Die Besonderheit der Regionalpresse, dass sie [die Journalistinnen und Journalisten] in ihren Lokalteilen die Nah- und Alltagswelt der Menschen durchleuchten und Vorgänge wie auch Probleme quasi hautnah recherchieren, wurde im Jahr 2015 für die Flüchtlingsthematik nicht genutzt. Die vergleichsweise wenigen Texte, die Probleme oder Konflikte thematisierten, sind fast ausnahmslos Veranstaltungsberichte und insofern keine journalistischen Eigenleistungen. Nur in seltenen Ausnahmefällen wurden abweichende Positionen wie auch behördliche Fehlleistungen untersucht oder Fachwissen eingeholt und ausgewertet oder dialogisch aufbereitet.

Überhaupt sieht es so aus, dass Journalistinnen und Journalisten sehr viel Wert darauf legen, was andere Journalistinnen und Journalisten über sie denken. Der Medienwissenschaftler Hans Mathias Kepplinger schreibt:

Eine Ursache der Entstehung von berufsspezifischen Übereinstimmungen bei der Bewertung aktueller Fragen ist die extrem intensive Kollegenorientierung im Journalismus. Alle Journalisten verfolgen permanent die Berichterstattung aller ihnen relevant erscheinenden Medien, bilden sich ein Urteil über die Einschätzung der Lage durch Kollegen und orientieren sich an den publizierten Sichtweisen der von ihnen besonders geschätzten Medien.

Die Kollegenorientierung zeigt sich auch in der geringen Bereitschaft von Journalistinnen und Journalisten, sich untereinander zu kritisieren:

Journalisten sind deutlich weniger zur öffentlichen Kritik am beruflichen Fehlverhalten ihrer Kollegen bereit als Wissenschaftler und Techniker. Deshalb berichten sie — wie quantitative Analysen belegen — seltener über bekannte Missstände im eigenen Beruf als über bekannte Missstände in anderen Berufen

… schreibt Kepplinger. Und das ist eigentlich besonders paradox, denn während Journalistinnen und Journalisten bei Fehlern in anderen Berufen ihre Aufgabe darin sehen, Transparenz herzustellen, Missstände ans Licht zu bringen und offenzulegen, wenn Kollegen sich decken, ist gegenseitige Kritik unter Journalistinnen und Journalisten als „Kollegenschelte“ verpönt. Wer sich widersetzt, gilt schnell als „Nestbeschmutzer“.

Inzwischen kann das nicht mehr verhindern, dass die Arbeit von Journalistinnen und Journalisten öffentlich kritisiert wird. Diese Aufgabe übernimmt einfach das Publikum. Doch die Kollegenorientierung bleibt ein Problem.

Gegen bestimmte Herdentendenzen können Journalistinnen und Journalisten selbst etwas tun: Damit Kritik in Gruppen nicht einfach unerwähnt bleibt, weil niemand die Person sein möchte, der alles schlechtredet, kann jemand aus der Gruppe die Aufgabe zugewiesen bekommen, die Rolle des Advocatus Diaboli einzunehmen, der die gegnerischen Positionen vertritt und Zweifel äußert. Eine andere Möglichkeit, das Gruppendenken aufzubrechen, ist die Prä-mortem-Methode. Dabei besteht die Aufgabe darin anzunehmen, dass der schlimmste Fall bereits eingetreten ist, und im Rückblick die Frage zu beantworten: Wie konnte diese Katastrophe passieren?

Um nicht den Fehler zu machen, sich an anderen zu orientieren, obwohl die es selbst vielleicht auch gar nicht besser wissen, hilft dagegen oft schon ein sehr einfaches Mittel: nachfragen.

***

Teil 1 unserer Serie „Kleine Wissenschaft des Fehlers“ gibt es hier, Teil 2 hier und Teil 3 hier. Oder alle Teile auf einmal hier.

Journalist des Jahres, Kein Recht auf Sendezeit, Datenleck der Like-Fabrik

1. Juan Moreno ist der Journalist des Jahres 2019
(mediummagazin.de)
Der vor allem durch die Causa Relotius bekannt gewordene freie Reporter Juan Moreno ist von einer rund 100-köpfigen Jury des „medium magazin“ zum „Journalisten des Jahres“ 2019 gewählt worden: „Moreno zeigte als Reporter die Hartnäckigkeit des gründlichen Rechercheurs und ehrlichen journalistischen Handwerkers. Zudem bewies er den Mut, für die Wahrheit persönlich viel aufs Spiel zu setzen, da ihm zunächst niemand glauben wollte. Die Folgen seiner Recherchen werden die Debatten über Qualitätsjournalismus weit über 2019 hinaus prägen.“

2. Ein Recht auf Sendezeit gibt es nicht
(deutschlandfunk.de, Arno Frank)
Zum Ende des Jahres wird gerne nachgezählt, wie oft welche Politikerinnen und Politiker bei den großen politischen Talkshows der Öffentlich-Rechtlichen zu sehen waren. Begleitet von der Kritik, dass manche Parteien beziehungsweise deren Vertreterinnen und Vertreter zu kurz gekommen seien, wenn man die Sitzverteilung im Bundestag als Maßstab heranziehe. Eine Kritik, die Arno Frank nicht nachvollziehen kann: „Die Auswahl der Gäste erfolgt nicht nach demokratischem Proporz, sondern nach redaktionellen Erwägungen. Jede Sendung ist der Versuch, eine ergiebige Gesprächsrunde zu orchestrieren.“

3. „Projekt Herkules“: Springer-Chef Döpfner lockt „Bild“-Mitarbeiter mit Turbo-Prämie zum Ausscheiden
(meedia.de, Gregory Lipinski)
Der Axel-Springer-Konzern will „die Kostenbasis durch strukturelle Anpassungen um insgesamt rund 50 Millionen Euro senken“ und setzt vor allem beim Personal an. Möglichst viele „Bild“-Beschäftigte sollen mit Prämien dazu bewegt werden, freiwillig das Unternehmen zu verlassen. Eine Vorgehensweise, die man bei der „Welt“ schon gewählt hatte.

4. Die Like-Fabrik
(sueddeutsche.de, Svea Eckert & Simon Hurtz & Sören Müller-Hansen & Vanessa Wormer)
„SZ“, NDR und WDR liegt eine Liste mit Links zu knapp 90.000 Social-Media-Präsenzen vor, die von gekauften Likes des Like-Lieferanten „Paidlikes“ profitierten. Wissenschaftler der Ruhr-Universität Bochum hatten die unzureichend geschützten Daten der Website entnommen und zugänglich gemacht. Obwohl aus ihnen nicht ersichtlich wird, wer den Likekauf beauftragt und bezahlt hat, ermöglicht die Recherche interessante Einblicke in das Geschäftsmodell mit den gekauften „Gefällt mir“-Angaben und Herzen.

5. Polizisten können zwei Tage lang nicht twittern
(netzpolitik.org, Marie Bröckling)
Auf Twitter wurden am Wochenende mehrere kleinere Polizei-Accounts zumindest zeitweise gesperrt. netzpolitik.org hat Ursachenforschung betrieben. Der Verdacht auf „Overblocking“ liege nahe. Warum jedoch ausgerechnet die elf Polizei-Accounts betroffen waren, von denen die Sperrung bekannt wurde, sei unklar.

6. TikTok: Wir haben Videos von Polizeigewalt hochgeladen, dann wurden sie gelöscht
(vice.com, Sebastian Meineck)
Kritischer Journalismus ist auf TikTok anscheinend nicht erwünscht, so eine mögliche Erkenntnis aus einem Experiment der „Vice“-Redaktion. Die fünf testweise hochgeladenen Videoaufnahmen von Auseinandersetzungen zwischen Polizei und Zivilbevölkerung seien entweder gelöscht oder in ihrer Reichweite gedrosselt worden.

Der Bestätigungsfehler: Die Erwartung macht das Ergebnis

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 3: der Bestätigungsfehler.

***

Der Arzt und Naturwissenschaftler Samuel Morton vermaß Mitte des 19. Jahrhunderts mehrere Tausend Schädel und zog daraus Rückschlüsse auf die Intelligenz von Menschen. Er behauptete, Belege für die Überlegenheit der „weißen Rasse“ gefunden zu haben. 140 Jahre später untersuchte der Evolutionsbiologe Stephen Jay Gould die Ergebnisse und urteilte, sie seien ein „Mischmasch aus Pfusch und Mogelei“.

Ulrich und Johannes Frey schildern das Beispiel in ihrem Buch „Fallstricke – die häufigsten Denkfehler in Alltag und Wissenschaft“. Interessant ist es vor allem wegen der Pointe: Gould selbst fand in den Daten keinerlei Beweise für die These, dass Menschen verschiedener „Rassen“ unterschiedlich intelligent sein könnten. Mortons Fehler erklärte er nicht durch Vorsatz oder Unaufmerksamkeit, sondern durch „durchgängige, einseitige Verzerrungen“. Später stellte sich allerdings heraus: Fehlerfinder Gould war genau der gleiche Fehler unterlaufen. Auch er hatte sich durchgängig verrechnet. Er selbst führte das auf seine Erwartungshaltung zurück. In einer späteren Auflage seines Buchs schrieb er, der Fehler „veranschaulicht auf meine Kosten das Kardinalprinzip des Buches“.

Und es gibt noch eine Pointe, um die wir den Text nach der Veröffentlichung ergänzt haben (hier in kursiver Schrift – Danke an Marc U. für den Hinweis), denn möglicherweise ist die Tatsache, dass dieses Beispiel sich verbreitet hat, Ergebnis des gleichen Denkfehlers.

Für eine Studie aus dem Jahr 2011, die im Buch von Ulrich und Johannes Frey (3. Auflage, 2011) noch nicht erwähnt ist, haben Wissenschaftler die Schädelsammlung von Samuel Morton neu vermessen und sind zu dem Ergebnis gekommen, dass seine Daten korrekt waren. Sie stellen zwar in Frage, dass seine Erwartungen die Messungen verzerrt haben. Doch in einem Beitrag für das Magazin „New Scientist“, der im gleichen Jahr erschien, schreiben David DeGusta and Jason E. Lewis, zwei der Wissenschaftler, die an der Untersuchung beteiligt waren: „Goulds Studie und seine Ansicht, dass die Wissenschaft unweigerlich voreingenommen ist, wurde zur Konsensversion in der Wissenschaftsforschung. Goulds Behauptungen wurden selten oder nie in Frage gestellt.“

Das zeigt, wie tückisch dieses Phänomen ist: Wenn etwas gut ins Bild passt, werden wir schnell unkritisch. So schwer wäre es nicht gewesen, die Studie aus dem Jahr 2011 zu finden. Sie ist verlinkt in Samuel Mortons Wikipedia-Eintrag.

Das zugrundeliegende Prinzip nennt sich Bestätigungsfehler (Confirmation bias). Menschen bevorzugen Informationen, die zu ihren Überzeugungen passen. In einem „Geo“-Essay beschreibt Jürgen Schaefer eine Untersuchung des Neurowissenschaftlers Kevin Dunbar, der diese Verzerrung in Gehirnscans sichtbar gemacht hat: Informationen, die zu den eigenen Überzeugung passen, dürfen den frontalen Kortex passieren, alle übrigen werden abgewiesen.

Das führt dazu, dass Menschen immer neue Belege dafür finden, was sie eh schon denken — und sich dieses Wissen verfestigt. Das Phänomen ist unter Journalistinnen und Journalisten bekannt, und genau das ist Teil des Problems. Menschen, die den Bestätigungsfehler kennen, denken, sie wären vor ihm sicher (Bias blind spot). Doch das ist nicht der Fall. Er wirkt auch dann, wenn man ihn kennt. Samuel Morton ist also nicht allein mit dieser Schwäche.

Der Bestätigungsfehler ist allgegenwärtig. In den USA haben Untersuchungen zu verzerrten Darstellungen im Journalismus (Media bias) gezeigt, dass liberale Wissenschaftlerinnen und Wissenschaftler in den Medien tendenziell eher ein Übergewicht von konservativen Positionen ausmachen, während konservative Forscherinnen und Forscher eine Verzerrung hin zu liberalen Ansichten erkennen können.

Der deutliche Effekt der Erwartungshaltung zeigt den großen Einfluss vorgefasster Meinungen auf neutrale Daten

… schreiben Ulrich und Johannes Frey. Die Erwartung beeinflusst das Ergebnis. So funktioniert auch der Placebo-Effekt.

Menschen scheinen zudem eine Präferenz für Vertrautes zu haben. Das beschreibt der Besitztumseffekt (Endowment-Effekt). Wir schätzen den Wert von Gegenständen höher ein, wenn wir sie besitzen. Es deutet einiges darauf hin, dass das bei Informationen ähnlich ist.

Wir bevorzugen vertraute Informationen. Eine vertraute Information wird von uns als „wahre Information“ behandelt

… schreiben Frey und Frey. Wenn wir eine neue Information erhalten und diese einer schon vorhandenen widerspricht, legen wir an die neue Information einen höheren Maßstab an als an die uns bekannte. Wir erinnern uns auch länger an all das, was unsere Meinungen stützt. Tests zeigen, „dass jeder Mensch bestätigende Daten bis zu drei Mal häufiger im Gedächtnis behält als falsifizierende“, so Frey und Frey.

Das begünstigt die Tendenz, bei einer Meinung zu bleiben, obwohl längst einiges gegen sie spricht. Im Journalismus verstärkt es die Neigung, an Thesen festzuhalten, wenn schon vieles darauf hindeutet, dass sie so nicht zutreffen können.

Studien zeigen, dass es nicht einmal hilft, Menschen darauf hinzuweisen, dass eine Information falsch ist (Conservatism bias). Unbewusst halten sie trotzdem an ihr fest. Die Chemikerin und Wissenschaftsjournalistin Mai-Thi Nguyen-Kim beschreibt in einem Video ein Experiment, in dem Probandinnen und Probanden Abschiedsbriefe vorgelegt werden. Sie sollen einschätzen, ob die Briefe echt oder gefälscht sind. Unabhängig davon, ob sie wirklich richtig liegen, bekommen einige von ihnen die Rückmeldung, dass sie ein sehr gutes Gespür haben, während man anderen signalisiert, dass sie so gut wie immer falsch lagen. Im Anschluss klären die Versuchsleiter die Teilnehmerinnen und Teilnehmer darüber auf, dass alles nur inszeniert war, und bitten sie, einzuschätzen, wie gut sie wirklich waren. Das Ergebnis ist: Die Probandinnen und Probanden mit den positiven Rückmeldungen halten ihre wirkliche Leistung für überdurchschnittlich gut, die übrigen glauben, sie hätten eher unterdurchschnittlich abgeschnitten.

Das lässt Rückschlüsse auf die journalistische Arbeit zu. Es ist zum Beispiel ein Hinweis darauf, dass falsche Informationen nicht vollkommen dadurch aus der Welt geschafft werden können, dass man sie richtigstellt. Menschen korrigieren ihr Denken nur sehr langsam.

Der Bestätigungsfehler wirkt im Journalismus an vielen Stellen. Es fängt schon mit der Google-Recherche an. Der Medienwissenschaftler Bernhard Pörksen erzählt in seinem Buch „Die große Gereiztheit – Wege aus der kollektiven Erregung“ von einer Untersuchung mit dem sperrigen Namen „Personal Web Search in the Age of Semantic Capitalism – Diagnosing the Mechanisms of Personalisation“. Forscher wollten herausfinden, wie der Google-Algorithmus die Recherche-Ergebnisse beeinflusst. Dazu legten sie Profile der Philosophen Immanuel Kant, Friedrich Nietzsche und Michel Foucault an und trainierten Google jeweils mit Begriffen aus deren Büchern. Das Ergebnis:

Google personalisiert schon nach kurzer Zeit ziemlich radikal, vor allem jedoch im Feld der ersten zehn Suchergebnisse, die einem Nutzer angezeigt und aller Wahrscheinlichkeit nach geklickt werden. Im Durchschnitt waren 64 Prozent der Suchergebnisse spezifisch (…).

Personalisierte Suchergebnisse sind allerdings noch nicht einmal nötig, um Menschen zu den Ergebnissen zu führen, die sie suchen. Wer schon mal versucht hat, mithilfe von Google eine bestimmte Krankheit zu diagnostizieren, weiß: Mit so gut wie jedem Symptom lässt sich so gut wie jede Krankheit nachweisen. Und ungefähr so ist es bei der Recherche auch.

Das zeigt sich mitunter auch im Ergebnis. Die Medienwissenschafter Hans Mathias Kepplinger und Richard Lemke haben untersucht, wie Medien die Reaktorkatastrophe von Fukushima dargestellt haben (PDF). Eines ihrer Ergebnisse ist:

Je negativer sich Journalisten in den Meinungsformen äußerten, (…) desto eher kamen dort Politiker und Experten zu Wort, die die Kernenergie ablehnten und einen Ausstieg aus der Kernenergie verlangten.

Der Bestätigungsfehler wirkt natürlich auch beim Publikum, und das verstärkt den Effekt. Menschen sind zugänglicher für Nachrichten, die ihren Erwartungen entsprechen. Der Fehler ist eine Erklärung für den Erfolg von „Fake News“, Falschmeldungen oder falsch verstandenen Meldungen.

Das war zum Beispiel im April dieses Jahres zu beobachten, als die Nachricht „Die meisten Messerangreifer heißen Michael“ aufgrund eines Missverständnisses die Runde machte. Die AfD hatte im saarländischen Landtag eine Anfrage gestellt, um zu erfahren, ob es auffällige Häufungen von bestimmten Vornamen bei Verdächtigen im Zusammenhang mit Messerattacken gibt. Es sah so aus, als hätte die Partei sich bei dem Versuch, ein rassistisches Vorurteil zu belegen, selbst entlarvt: Auf Platz 1 der Liste stand kein arabischer Name, sondern „Michael“. Viele teilten die Nachricht, weil sie wiederum AfD-Gegnern sehr gut ins Bild passte.

Später wies Stefan Niggemeier bei „Übermedien“ darauf hin, dass es in der Liste nur um die Namen der deutschen Verdächtigen ging. Das stand zwar mitunter in den Meldungen. Aber viele hatten nur die Überschrift gelesen oder die Information ignoriert. Der Wunsch, die eigene Überzeugung bestätigt zu sehen, war stärker als der Zweifel.

Die Frage ist: Was kann man gegen den Bestätigungsfehler machen?

Zuallererst: sich bewusst machen, dass man ihm ausgeliefert ist. Sich zwingen, Dinge zu überprüfen, auch wenn sie offensichtlich erscheinen. Zweifeln. Der Philosoph und Publizist Daniel-Pascal Zorn schlägt vor:

Um der „Confirmation Bias“ zu entgehen, muss man darauf achten, die eigene Vorannahme als Annahme und nicht schon als Tatsache zugrunde zu legen. Eine Annahme kann sich immer noch als falsch erweisen — eine Tatsache nicht mehr.

Für Journalistinnen und Journalisten bedeutet das: Sie sollten sich auch während ihrer Recherche immer wieder die Frage stellen: Stimmt meine These überhaupt? Kann es nicht auch anders sein? Und sie sollten bewusst auch nach Argumenten suchen, die gegen die Vermutung sprechen.

Immer wieder das eigene Handeln zu hinterfragen, schaltet den Bestätigungsfehler zwar nicht vollkommen aus, aber in vielen Fällen kann es Fehlschlüsse verhindern. Und für den Fall, dass der Bestätigungsfehler sich trotzdem durchsetzt, können Journalistinnen und Journalisten noch etwas anderes machen: offenlegen, was zu einer Verzerrung führen könnte. Kritische Verbindungen verraten. Dafür sorgen, dass Transparenz besteht.

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier. Und Teil 2 hier.

Höckes ZDF-Aus, „Stern“ schwärzt sich selbst an, Kollegah verliert

1. AfD-Rechtsaußen Björn Höcke darf in keine ZDF-Talkshow mehr
(tagesspiegel.de, Joachim Huber)
Laut Aussagen des ZDF-Chefredakteurs Peter Frey wird der AfD-Politiker Björn Höcke zukünftig zu keiner ZDF-Talkshow eingeladen. Laut einer Vorabmeldung der „Zeit“ habe Frey erklärt: „Wir Medien haben niemanden zu erziehen. Aber wir müssen zeigen, wo die Grenzen demokratischer Gesinnung verlaufen.“

2. Digitalseiten geschwärzt
(sueddeutsche.de, Quentin Lichtblau)
Der „Stern“ hat aus Sorge vor einem Prozess drei Seiten seiner Digitalausgabe geschwärzt. Betroffen sei die Reportage eines „Stern“-Journalisten, der ein Trump-Hotel in Washington besucht hat. Das Blatt habe den Text zwar juristisch prüfen lassen, aber bei einer Klage der anderen Seite würden selbst im Erfolgsfall erhebliche Verfahrenskosten drohen.

3. Die große Talkshow-Auswertung 2019: Annalena Baerbock ist die neue Talkshow-Königin, Markus Feldenkirchen meisteingeladener Journalist
(meedia.de, Jens Schröder)
Der Journalist und Datenspezialist Jens Schröder hat erneut die TV-Talkshows des zurückliegenden Jahres ausgewertet und interessante Daten zutage gefördert: Im vergangenen Jahr sei der Grünen-Bundesvorsitzende Robert Habeck der häufigste Gast bei „Anne Will“, „Hart aber fair“, „Maischberger“ beziehungsweise „maischberger. die woche“ und „maybrit illner“ gewesen. Dieses Jahr sei es seine Kollegin, die Grünen-Bundesvorsitzende Annalena Baerbock. Der meistgefragte Journalist sei Markus Feldenkirchen vom „Spiegel“ gewesen.

4. 8 Thesen zur Beobachtung von Publikumsinteressen im Journalismus
(medium.com, Laurenz Paul Schreiner)
Laurenz Paul Schreiner hat in seiner Masterarbeit die Auswirkungen von Echtzeit-Tools auf die journalistische Praxis untersucht. Schreiner hat dazu drei Newsrooms besucht und sich die Werkzeuge angeschaut, mit denen Online-Journalisten und -Journalistinnen die Interessen des Publikums in Echtzeit analysieren können. Seine Beobachtungen münden in acht daraus abgeleiteten Thesen.

5. Der SWR verlost Flugreisen
(swr.de, Kai Gniffke)
Der Radiosender SWR3 hat Flugreisen nach Thailand verlost und ist dafür kritisiert worden. Teilweise aus dem eigenen Haus: SWR-Intendant Kai Gniffke berichtet von einer Mail einer Kollegin, die es „höchst problematisch fände, dass wir solche CO2-intensiven Reisen auch noch promoten“. Gniffke habe der Kollegin geantwortet und breitet seine Argumentation auf erstaunlich unterkomplexe Weise in seinem Blog aus: „Gehört es zu unserem journalistischen Auftrag dazu, Menschen von Flugreisen abzubringen? Meine Antwort: Nein.“

6. Kollegah verliert Rechtsstreit gegen BR
(faz.net)
Das Münchner Landgericht hatte dem Rapper Kollegah in seiner Klage gegen den Bayerischen Rundfunk (BR) noch recht gegeben. Nun kippte das Oberlandesgericht die Entscheidung: Der BR darf bei seinen in einem Podcast getätigten Aussagen über das „Alpha-Mentoring-Programm“ des Rappers bleiben.

Heuristiken: Riskante Schleichwege fürs Denken

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 2: Heuristiken.

***

Als Anfang des Jahres private Daten von Prominenten auf einer Internetseite auftauchten, war „Bild“-Chef Julian Reichelt sich sehr schnell sicher, wie alles gewesen sein musste. In Gabor Steingarts Podcast sagte er damals:

Ich glaube, was relativ klar ist: Das waren nicht ein oder zwei Jungs, die bei Pizza und Cola light im Keller gesessen haben, bisschen Computerspiele, bisschen Youtube und dann bisschen was gehackt haben und das dann aufbereitet haben. Das muss eine größere Struktur gewesen sein.

Am Ende stellte sich heraus: Reichelt hatte recht. Es waren tatsächlich nicht zwei Jungs gewesen, die ein bisschen was gehackt und dann aufbereitet hatten, es war nur einer.

Julian Reichelt ist dabei ein Fehlschluss unterlaufen, der Menschen immer wieder passiert — Journalistinnen und Journalisten sehr häufig, weil sie oft in Situationen geraten, in denen sie wenig wissen, aber trotzdem irgendetwas sagen müssen.

Wenn wichtige Informationen fehlen, um zu einer guten Einschätzung kommen zu können, müssen Menschen sich an etwas orientieren. Die verschiedenen Techniken, mit denen sie versuchen, im Nebel Halt zu finden, nennt man Heuristiken.

Menschen versuchen, sich in so einer Situation mit einer Handvoll Puzzleteilen ein vollständiges Bild zu machen. In sehr vielen Fällen gelingt das auch. Wenn man auf einem Puzzleteil eine Nase erkennen kann, ist die Wahrscheinlichkeit recht hoch, dass auf den übrigen Mund und Augen zu sehen sein werden.

Wahrnehmungspsychologen nennen diese Methode Repräsentativitätsheuristik, weil Menschen dabei von einer einzelnen repräsentativen Information auf die Gesamtheit schließen. Im Falle des Puzzlestücks kann das Gesamtbild natürlich auch aus eintausend Nasen bestehen. Aber um das herauszufinden, müsste man das gesamte Bild erst zusammenzusetzen. Die Heuristik macht es möglich, sich schnell zu entscheiden.

Menschen, die „Fake News“ verbreiten möchten, machen sich dieses Prinzip zunutze. Sie entwerfen Websites, die auf den ersten oberflächlichen Blick aussehen wie Nachrichtenseiten. Sie spekulieren darauf, dass die Menschen sich auf ihren ersten Eindruck und ihre Intuition verlassen und nicht ganz so genau hinschauen. Darauf fallen auch Journalistinnen und Journalisten ganz gern herein.

Als der heutige „Titanic“-Chefredakteur Moritz Hürtgen im Juni 2018 bei Twitter meldete, Horst Seehofer wolle die Fraktionsgemeinschaft zwischen CDU und CSU auflösen, hätten wenige Klicks genügt, um herauszufinden, dass der Twitter-Account @hrtgn nichts mit dem Hessischen Rundfunk zu tun hat. Aber Hürtgen hatte die Journalistinnen und Journalisten schon richtig eingeschätzt: Er hatte lediglich sein Profilbild geändert und in den Tagen zuvor ein paar Meldungen vom Hessischen Rundfunk gepostet. Die Nachrichtenagentur Reuters verließ sich darauf, dass der Account den Anschein einer seriösen Quelle hatte. Danach machte die satirische Falschmeldung die Runde.

Das Problem ist: Heuristiken liefern in der Tendenz gute Ergebnisse, sind aber recht anfällig für Fehler — vor allem dann, wenn Menschen nicht ahnen, dass ihr Urteil durch eine Heuristik zustande kommt.

In Gabor Steingarts Podcast erklärt „Bild“-Chef Reichelt seine Einschätzung so:

Ich glaube nach allem, was wir an Hacks in den letzten Jahren gesehen und erlebt haben, ist das Wahrscheinlichste immer noch, dass es zumindest staatliche Unterstützung, von welcher Seite auch immer, für diesen Hack gab.

Reichelt schaut, wie gut die Situation in ein Muster passt — wie repräsentativ sie also für eine bestimmte Situation ist. Danach bemisst er die Wahrscheinlichkeit.

In solchen Situationen machen Menschen auch oft einen anderen Fehler: Sie schätzen Wahrscheinlichkeiten falsch ein, wenn sie sich von logischen Zusammenhängen blenden lassen. Die Psychologen Daniel Kahneman und Amos Tversky nennen das Phänomen das Linda-Problem. Herausgefunden haben sie es mit einem Experiment, in dem sie Probandinnen und Probanden eine Frau beschrieben und ihnen dann Fragen stellten. Sie charakterisierten die Frau zunächst mit Merkmalen, die zu einer Feministin passen, und fragten anschließend: Was ist wahrscheinlicher:

  • Die Frau ist Bankangestellte?

Oder:

  • Die Frau ist eine feministische Bankangestellte?

Die Teilnehmerinnen und Teilnehmer entschieden sich mehrheitlich für die zweite Antwort, weil es logisch erscheint, dass eine feministische Frau auch eine feministische Bankangestellte ist. Allerdings ist jede feministische Bankangestellte auch einfach nur eine Bankangestellte. Die Wahrscheinlichkeit, dass die Frau zu dieser viel größeren Gruppe gehört, ist also deutlich höher.

Diese falsche Einschätzung nennt sich Basisratenfehler: Wenn etwas offensichtlich erscheint, neigen Menschen dazu, nicht auf die tatsächlichen statistischen Wahrscheinlichkeiten zu schauen.

Julian Reichelt muss die Wahrscheinlichkeit recht hoch vorgekommen sein, dass irgendein Geheimdienst bei der Veröffentlichung der Prominenten-Daten seine Finger im Spiel gehabt haben könnte. Und nun gäbe es zwei Möglichkeiten: Entweder ist ein recht unwahrscheinliches Ereignis eingetreten — oder Reichelt hat die Wahrscheinlichkeiten falsch eingeschätzt.

In beiden Fällen ist ihm möglicherweise noch ein anderer Denkfehler unterlaufen, den Kahneman mit der sogenannten WYSIATI-Regel (What you see is all there is) beschreibt: Wenn Menschen eine Situation einschätzen, schauen sie auf die Informationen, die vor ihnen liegen. Sie bewerten das Sichtbare und unterschätzen den Einfluss des Unsichtbaren — sogar dann, wenn sie wissen, dass unbekannte Faktoren eine wichtige Rolle spielen.

Das kann dazu führen, dass Menschen Zusammenhänge konstruieren, wo keine sind — dass sie zum Beispiel davon ausgehen, dass ein außergewöhnlicher Fußballtorwart auch ein zuverlässiger Ratgeber in Finanzfragen sein muss, oder ein sympathischer Moderator auch ein guter Bundeskanzler wäre (Halo-Effekt). Dieses Prinzip nutzt die Werbung sehr gerne.

Umgekehrt kann es auch zur Folge haben, dass bekannte negative Eigenschaften einen Verdacht auf Menschen lenken, die im konkreten Fall nichts damit zu tun haben (Teufelshörner-Effekt). Mit diesem Effekt arbeiten auch Krimi-Autoren: Wenn eine Figur in einer Szene zu sehen ist, in der sie unfreundlich zu anderen Menschen ist, lenkt das auch den Verdacht im Mordfall auf sie (wobei es am Ende doch immer die Figur war, die zu Beginn von allen am sympathischsten erschien).

Es gibt noch eine Reihe weiterer Denkabkürzungen, mit denen Menschen sich behelfen, wenn sie schnell Entscheidungen treffen müssen. Zum Beispiel die Verfügbarkeitsheuristik: Wenn Menschen nicht alle relevanten Faktoren kennen, um zu einer guten Entscheidung zu kommen, überlassen sie die Bewertung ihrer Erinnerung. Das führt dazu, dass sie besonders präsente Informationen bevorzugen — also all das, was ihnen sofort in den Sinn kommt.

Im Fall der geleakten Prominenten-Daten hätten die Täter natürlich Aktivisten von irgendwoher sein können. Weil Julian Reichelt und sein „Bild“-Team die Russen aber ohnehin hinter so gut wie allem vermuten, lag wohl auch hier die Annahme nahe, dass der russische Geheimdienst etwas mit der Sache zu tun haben muss.

Die Verfügbarkeitsheuristik spielt im Journalismus an verschiedenen Stellen eine Rolle. Wenn Journalistinnen und Journalisten einen Experten suchen, der etwas zu einem Thema sagen kann, ist die Wahrscheinlichkeit groß, dass sie nicht den anrufen, der sich am besten auskennt, sondern den, der ihnen als Erstes einfällt.

Außerdem beeinflussen Medien sich bei der Auswahl von Themen gegenseitig. Berichten mehrere Redaktionen über etwas, kommt schnell die Frage auf: Warum haben wir das nicht? So gewinnt die Verbreitung an Dynamik. Und je präsenter ein Thema ist, zum Beispiel bei Twitter, desto schneller fällt es Redakteurinnen und Redakteuren in den Themenkonferenzen ein. Das führt zu einer Verzerrung, deren Ergebnis sein kann: Über ein wichtiges Thema wird nicht berichtet, weil über ein wichtiges Thema nicht gesprochen wird.

Die Verfügbarkeitsheuristik verzerrt auch die Wahrnehmung des Publikums. Wenn Meinungsforschungsinstitute Menschen fragen, wovor sie am meisten Angst haben, ist kurz nach Terroranschlägen eine häufige Antwort: vor Terroranschlägen — obwohl die Wahrscheinlichkeit, an einem Herzinfarkt, an Krebs oder bei einem Autounfall zu sterben, sehr viel größer ist.

Berichten Journalistinnen und Journalisten über diese Umfragen, führt das wiederum dazu, dass der Effekt sich verstärkt, weil beim Publikum der Eindruck entsteht: Wenn andere das auch so sehen, ist die Sorge ja offenbar nicht ganz unbegründet.

Ein weiterer Denkfehler, der in der Arbeit von Journalistinnen und Journalisten eine Rolle spielt, ist der fundamentale Attributionsfehler. Menschen neigen dazu, den Einfluss von Personen auf Ereignisse zu über- und den der Umstände zu unterschätzen. Dieser Fehler kommt zum Beispiel in der Sport- oder Wirtschaftsberichterstattung häufig vor, wenn Journalistinnen und Journalisten Erfolge der Taktik des Trainers oder der unkonventionellen Art des Vorstandsvorsitzenden zuschreiben. So ergibt sich eine stimmige Geschichte. Es kann allerdings sein, dass die unkonventionelle Art des Firmenchefs bei Rekordverlusten zwei Jahre später auch eine gute Erklärung für seinen Misserfolg ist. Tatsächlich hat der Zufall sehr großen Einfluss. Das ist allerdings eine Erklärung, von der man in der Berichterstattung nur sehr selten liest.

Gleichzeitig spielt dabei die Ergebnisverzerrung (Outcome-Bias) eine Rolle. Um die Qualität von Entscheidungen zu bewerten, schauen Menschen auf das Ergebnis. Hat eine Mannschaft gewonnen, hat der Trainer dem Anschein nach alles richtig gemacht. Es kann aber eben auch sein, dass eine Mannschaft gewonnen hat, obwohl der Trainer ihr mit seinen Entscheidungen alle erdenklichen Steine in den Weg gelegt hat.

Was aber lässt sich gegen diese Verzerrungen machen?

Das Herrschaftswissen der Verhaltensökonomie und Sozialpsychologie über Shortcuts und Fehler bei der Entscheidungsfindung (…) ist vielen Kommunikationsmanagern und -strategen, die die Medien für ihre Zwecke instrumentalisieren, inzwischen wohlvertraut. Dagegen kennen all das bisher viel zu wenige Journalisten

… schreibt der Medienwissenschaftler Stephan Russ-Mohl in seinem Buch „Die informierte Gesellschaft und ihre Feinde“. Daher ist der erste Schritt: sich unbewusste Denkprozesse bewusst machen. Dann fällt man vielleicht immer noch auf sie herein, kann das aber in einem zweiten Schritt überdenken und korrigieren.

Janina Kalle hat einen interessanten Beitrag über Techniken geschrieben, mit deren Hilfe sich diese Verzerrungen entschärfen lassen. Um das Outcome-Bias auszuschalten, kann es zum Beispiel sinnvoll sein, eine andere Perspektive einzunehmen, sich zu fragen: Wäre unter den gleichen Umständen ein anderer Ausgang der Geschichte möglich gewesen?

Generell gilt: Wer sich die Wahrnehmungsverzerrungen bewusst macht, hat immerhin die Chance, sie zu erkennen. Auch Zeit ist immer von Vorteil, denn wenn das Gehirn schnelle Entscheidungen trifft, ist die Fehlerwahrscheinlichkeit hoch. Und je weniger Journalistinnen und Journalisten sich auf ihre Erinnerung und vor allem auf bloße Eindrücke verlassen, desto geringer ist die Gefahr, vom eigenen Gehirn überlistet zu werden.

Medienwissenschaftler Bernhard Pörksen zitiert in seinem Buch „Die große Gereiztheit“ ein geflügeltes Wort us-amerikanischer Journalistinnen und Journalisten: „Wenn deine Mutter dir sagt, sie liebt dich, überprüfe es.“ Für Julian Reichelt könnte man den Satz etwas abwandeln: „Wenn dein Gefühl dir sagt, es waren die Russen, recherchiere es.“

***

Teil 1 unserer „Kleinen Wissenschaft des Fehlers“ gibt es hier.

Blättern:  1 ... 3 4 5 ... 979