Heuristiken: Riskante Schleichwege fürs Denken

Im zurückliegenden Jahr haben wir hier im BILDblog wieder viel über Fehler geschrieben. Aber was genau sind das eigentlich: Fehler? Wie häufig passieren sie? Wie entstehen sie? Und was können Redaktionen gegen sie tun? Unser Autor Ralf Heimann hat sich in einer achtteiligen Serie mit all dem Falschen beschäftigt. Heute Teil 2: Heuristiken.

***

Als Anfang des Jahres private Daten von Prominenten auf einer Internetseite auftauchten, war “Bild”-Chef Julian Reichelt sich sehr schnell sicher, wie alles gewesen sein musste. In Gabor Steingarts Podcast sagte er damals:

Ich glaube, was relativ klar ist: Das waren nicht ein oder zwei Jungs, die bei Pizza und Cola light im Keller gesessen haben, bisschen Computerspiele, bisschen Youtube und dann bisschen was gehackt haben und das dann aufbereitet haben. Das muss eine größere Struktur gewesen sein.

Am Ende stellte sich heraus: Reichelt hatte recht. Es waren tatsächlich nicht zwei Jungs gewesen, die ein bisschen was gehackt und dann aufbereitet hatten, es war nur einer.

Julian Reichelt ist dabei ein Fehlschluss unterlaufen, der Menschen immer wieder passiert — Journalistinnen und Journalisten sehr häufig, weil sie oft in Situationen geraten, in denen sie wenig wissen, aber trotzdem irgendetwas sagen müssen.

Wenn wichtige Informationen fehlen, um zu einer guten Einschätzung kommen zu können, müssen Menschen sich an etwas orientieren. Die verschiedenen Techniken, mit denen sie versuchen, im Nebel Halt zu finden, nennt man Heuristiken.

Menschen versuchen, sich in so einer Situation mit einer Handvoll Puzzleteilen ein vollständiges Bild zu machen. In sehr vielen Fällen gelingt das auch. Wenn man auf einem Puzzleteil eine Nase erkennen kann, ist die Wahrscheinlichkeit recht hoch, dass auf den übrigen Mund und Augen zu sehen sein werden.

Wahrnehmungspsychologen nennen diese Methode Repräsentativitätsheuristik, weil Menschen dabei von einer einzelnen repräsentativen Information auf die Gesamtheit schließen. Im Falle des Puzzlestücks kann das Gesamtbild natürlich auch aus eintausend Nasen bestehen. Aber um das herauszufinden, müsste man das gesamte Bild erst zusammenzusetzen. Die Heuristik macht es möglich, sich schnell zu entscheiden.

Menschen, die “Fake News” verbreiten möchten, machen sich dieses Prinzip zunutze. Sie entwerfen Websites, die auf den ersten oberflächlichen Blick aussehen wie Nachrichtenseiten. Sie spekulieren darauf, dass die Menschen sich auf ihren ersten Eindruck und ihre Intuition verlassen und nicht ganz so genau hinschauen. Darauf fallen auch Journalistinnen und Journalisten ganz gern herein.

Als der heutige “Titanic”-Chefredakteur Moritz Hürtgen im Juni 2018 bei Twitter meldete, Horst Seehofer wolle die Fraktionsgemeinschaft zwischen CDU und CSU auflösen, hätten wenige Klicks genügt, um herauszufinden, dass der Twitter-Account @hrtgn nichts mit dem Hessischen Rundfunk zu tun hat. Aber Hürtgen hatte die Journalistinnen und Journalisten schon richtig eingeschätzt: Er hatte lediglich sein Profilbild geändert und in den Tagen zuvor ein paar Meldungen vom Hessischen Rundfunk gepostet. Die Nachrichtenagentur Reuters verließ sich darauf, dass der Account den Anschein einer seriösen Quelle hatte. Danach machte die satirische Falschmeldung die Runde.

Das Problem ist: Heuristiken liefern in der Tendenz gute Ergebnisse, sind aber recht anfällig für Fehler — vor allem dann, wenn Menschen nicht ahnen, dass ihr Urteil durch eine Heuristik zustande kommt.

In Gabor Steingarts Podcast erklärt “Bild”-Chef Reichelt seine Einschätzung so:

Ich glaube nach allem, was wir an Hacks in den letzten Jahren gesehen und erlebt haben, ist das Wahrscheinlichste immer noch, dass es zumindest staatliche Unterstützung, von welcher Seite auch immer, für diesen Hack gab.

Reichelt schaut, wie gut die Situation in ein Muster passt — wie repräsentativ sie also für eine bestimmte Situation ist. Danach bemisst er die Wahrscheinlichkeit.

In solchen Situationen machen Menschen auch oft einen anderen Fehler: Sie schätzen Wahrscheinlichkeiten falsch ein, wenn sie sich von logischen Zusammenhängen blenden lassen. Die Psychologen Daniel Kahneman und Amos Tversky nennen das Phänomen das Linda-Problem. Herausgefunden haben sie es mit einem Experiment, in dem sie Probandinnen und Probanden eine Frau beschrieben und ihnen dann Fragen stellten. Sie charakterisierten die Frau zunächst mit Merkmalen, die zu einer Feministin passen, und fragten anschließend: Was ist wahrscheinlicher:

  • Die Frau ist Bankangestellte?

Oder:

  • Die Frau ist eine feministische Bankangestellte?

Die Teilnehmerinnen und Teilnehmer entschieden sich mehrheitlich für die zweite Antwort, weil es logisch erscheint, dass eine feministische Frau auch eine feministische Bankangestellte ist. Allerdings ist jede feministische Bankangestellte auch einfach nur eine Bankangestellte. Die Wahrscheinlichkeit, dass die Frau zu dieser viel größeren Gruppe gehört, ist also deutlich höher.

Diese falsche Einschätzung nennt sich Basisratenfehler: Wenn etwas offensichtlich erscheint, neigen Menschen dazu, nicht auf die tatsächlichen statistischen Wahrscheinlichkeiten zu schauen.

Julian Reichelt muss die Wahrscheinlichkeit recht hoch vorgekommen sein, dass irgendein Geheimdienst bei der Veröffentlichung der Prominenten-Daten seine Finger im Spiel gehabt haben könnte. Und nun gäbe es zwei Möglichkeiten: Entweder ist ein recht unwahrscheinliches Ereignis eingetreten — oder Reichelt hat die Wahrscheinlichkeiten falsch eingeschätzt.

In beiden Fällen ist ihm möglicherweise noch ein anderer Denkfehler unterlaufen, den Kahneman mit der sogenannten WYSIATI-Regel (What you see is all there is) beschreibt: Wenn Menschen eine Situation einschätzen, schauen sie auf die Informationen, die vor ihnen liegen. Sie bewerten das Sichtbare und unterschätzen den Einfluss des Unsichtbaren — sogar dann, wenn sie wissen, dass unbekannte Faktoren eine wichtige Rolle spielen.

Das kann dazu führen, dass Menschen Zusammenhänge konstruieren, wo keine sind — dass sie zum Beispiel davon ausgehen, dass ein außergewöhnlicher Fußballtorwart auch ein zuverlässiger Ratgeber in Finanzfragen sein muss, oder ein sympathischer Moderator auch ein guter Bundeskanzler wäre (Halo-Effekt). Dieses Prinzip nutzt die Werbung sehr gerne.

Umgekehrt kann es auch zur Folge haben, dass bekannte negative Eigenschaften einen Verdacht auf Menschen lenken, die im konkreten Fall nichts damit zu tun haben (Teufelshörner-Effekt). Mit diesem Effekt arbeiten auch Krimi-Autoren: Wenn eine Figur in einer Szene zu sehen ist, in der sie unfreundlich zu anderen Menschen ist, lenkt das auch den Verdacht im Mordfall auf sie (wobei es am Ende doch immer die Figur war, die zu Beginn von allen am sympathischsten erschien).

Es gibt noch eine Reihe weiterer Denkabkürzungen, mit denen Menschen sich behelfen, wenn sie schnell Entscheidungen treffen müssen. Zum Beispiel die Verfügbarkeitsheuristik: Wenn Menschen nicht alle relevanten Faktoren kennen, um zu einer guten Entscheidung zu kommen, überlassen sie die Bewertung ihrer Erinnerung. Das führt dazu, dass sie besonders präsente Informationen bevorzugen — also all das, was ihnen sofort in den Sinn kommt.

Im Fall der geleakten Prominenten-Daten hätten die Täter natürlich Aktivisten von irgendwoher sein können. Weil Julian Reichelt und sein “Bild”-Team die Russen aber ohnehin hinter so gut wie allem vermuten, lag wohl auch hier die Annahme nahe, dass der russische Geheimdienst etwas mit der Sache zu tun haben muss.

Die Verfügbarkeitsheuristik spielt im Journalismus an verschiedenen Stellen eine Rolle. Wenn Journalistinnen und Journalisten einen Experten suchen, der etwas zu einem Thema sagen kann, ist die Wahrscheinlichkeit groß, dass sie nicht den anrufen, der sich am besten auskennt, sondern den, der ihnen als Erstes einfällt.

Außerdem beeinflussen Medien sich bei der Auswahl von Themen gegenseitig. Berichten mehrere Redaktionen über etwas, kommt schnell die Frage auf: Warum haben wir das nicht? So gewinnt die Verbreitung an Dynamik. Und je präsenter ein Thema ist, zum Beispiel bei Twitter, desto schneller fällt es Redakteurinnen und Redakteuren in den Themenkonferenzen ein. Das führt zu einer Verzerrung, deren Ergebnis sein kann: Über ein wichtiges Thema wird nicht berichtet, weil über ein wichtiges Thema nicht gesprochen wird.

Die Verfügbarkeitsheuristik verzerrt auch die Wahrnehmung des Publikums. Wenn Meinungsforschungsinstitute Menschen fragen, wovor sie am meisten Angst haben, ist kurz nach Terroranschlägen eine häufige Antwort: vor Terroranschlägen — obwohl die Wahrscheinlichkeit, an einem Herzinfarkt, an Krebs oder bei einem Autounfall zu sterben, sehr viel größer ist.

Berichten Journalistinnen und Journalisten über diese Umfragen, führt das wiederum dazu, dass der Effekt sich verstärkt, weil beim Publikum der Eindruck entsteht: Wenn andere das auch so sehen, ist die Sorge ja offenbar nicht ganz unbegründet.

Ein weiterer Denkfehler, der in der Arbeit von Journalistinnen und Journalisten eine Rolle spielt, ist der fundamentale Attributionsfehler. Menschen neigen dazu, den Einfluss von Personen auf Ereignisse zu über- und den der Umstände zu unterschätzen. Dieser Fehler kommt zum Beispiel in der Sport- oder Wirtschaftsberichterstattung häufig vor, wenn Journalistinnen und Journalisten Erfolge der Taktik des Trainers oder der unkonventionellen Art des Vorstandsvorsitzenden zuschreiben. So ergibt sich eine stimmige Geschichte. Es kann allerdings sein, dass die unkonventionelle Art des Firmenchefs bei Rekordverlusten zwei Jahre später auch eine gute Erklärung für seinen Misserfolg ist. Tatsächlich hat der Zufall sehr großen Einfluss. Das ist allerdings eine Erklärung, von der man in der Berichterstattung nur sehr selten liest.

Gleichzeitig spielt dabei die Ergebnisverzerrung (Outcome-Bias) eine Rolle. Um die Qualität von Entscheidungen zu bewerten, schauen Menschen auf das Ergebnis. Hat eine Mannschaft gewonnen, hat der Trainer dem Anschein nach alles richtig gemacht. Es kann aber eben auch sein, dass eine Mannschaft gewonnen hat, obwohl der Trainer ihr mit seinen Entscheidungen alle erdenklichen Steine in den Weg gelegt hat.

Was aber lässt sich gegen diese Verzerrungen machen?

Das Herrschaftswissen der Verhaltensökonomie und Sozialpsychologie über Shortcuts und Fehler bei der Entscheidungsfindung (…) ist vielen Kommunikationsmanagern und -strategen, die die Medien für ihre Zwecke instrumentalisieren, inzwischen wohlvertraut. Dagegen kennen all das bisher viel zu wenige Journalisten

… schreibt der Medienwissenschaftler Stephan Russ-Mohl in seinem Buch “Die informierte Gesellschaft und ihre Feinde”. Daher ist der erste Schritt: sich unbewusste Denkprozesse bewusst machen. Dann fällt man vielleicht immer noch auf sie herein, kann das aber in einem zweiten Schritt überdenken und korrigieren.

Janina Kalle hat einen interessanten Beitrag über Techniken geschrieben, mit deren Hilfe sich diese Verzerrungen entschärfen lassen. Um das Outcome-Bias auszuschalten, kann es zum Beispiel sinnvoll sein, eine andere Perspektive einzunehmen, sich zu fragen: Wäre unter den gleichen Umständen ein anderer Ausgang der Geschichte möglich gewesen?

Generell gilt: Wer sich die Wahrnehmungsverzerrungen bewusst macht, hat immerhin die Chance, sie zu erkennen. Auch Zeit ist immer von Vorteil, denn wenn das Gehirn schnelle Entscheidungen trifft, ist die Fehlerwahrscheinlichkeit hoch. Und je weniger Journalistinnen und Journalisten sich auf ihre Erinnerung und vor allem auf bloße Eindrücke verlassen, desto geringer ist die Gefahr, vom eigenen Gehirn überlistet zu werden.

Medienwissenschaftler Bernhard Pörksen zitiert in seinem Buch “Die große Gereiztheit” ein geflügeltes Wort us-amerikanischer Journalistinnen und Journalisten: “Wenn deine Mutter dir sagt, sie liebt dich, überprüfe es.” Für Julian Reichelt könnte man den Satz etwas abwandeln: “Wenn dein Gefühl dir sagt, es waren die Russen, recherchiere es.”

***

Teil 1 unserer “Kleinen Wissenschaft des Fehlers” gibt es hier.