Warum ignoriert man Fakten, wenn das eigene Weltbild bedroht ist? 
Kennen Sie das: Sie präsentieren Fakten, die den tiefsten Überzeugungen Ihres Gegenübers widersprechen und als Reaktion ändert diese Person dankbar Ihre Meinung? Kenne ich auch nicht! Meist bewirkt die Präsentation von überprüfbaren Fakten genau das Gegenteil. Ihr Gegenüber verbeißt sich nur noch mehr in seinen bisherigen Anschauungen. Grund dafür ist, dass man Daten, welche dem eigenen Weltbild widersprechen als Bedrohung empfindet.

Junge-Erde-Kreationisten bestreiten beispielsweise die Belege für das Alter von Fossilien. Sie möchten ihre religiöse Überzeugung schützen. Evolutionisten blenden erfolgreich die Datendichte der DNA aus, obwohl diese mit ihren aktuellen Theorien nicht erklärt werden kann. Militante Impfgegner misstrauen jeglichen Pharmazeutika und glauben, dass Geld alle Bereiche der Medizin korrumpiert. Einige Anhänger der modernen Medizin dagegen, blenden alle alternativen Heilverfahren als Quacksalberei aus, obwohl die Effizienz vieler Verfahren wie z.B. der Akupunktur mit der Zeit nachgewiesen wurden. Personen, welche die offizielle Erklärung zu den Anschlägen auf das World Trade Center von 9/11 ablehnen verlieren sich in verschiedensten Ideen zu möglichen Sprengungen der Twin Towers. Diejenigen, welche die offizielle Erklärung akzeptieren blenden dagegen Fakten aus, dass ein drittes Hochhaus (Gebäude 7) am selben Tag in seinen Grundriss zusammengestürzt ist, ohne dass dies von einem Flugzeug getroffen wurde und ohne, dass dieser Zusammensturz im 9/11 Comission Report (offiziellen Bereicht) überhaupt erwähnt wurde.

Jedermann neigt dazu genau die Fakten auszublenden, welche das eigene Glaubensgebäude oder Weltbild gefährden. Gegenteilige Ansichten werden genau dann besonders emotional und vehement bestritten, wenn die aufgezeigten Fakten zu berechtigten Fragen und Zweifeln führen. Tatsachen werden zum Feind, der bekämpft werden muss.

Glaube siegt über Fakten. Hierfür sind zwei Dinge verantwortlich:

  1. Kognitive Dissonanz
  2. Backfire-Effekt

1. Kognitive Dissonanz

In dem Buch 'When Prophecy Fails' (1956) schilderten der Psychologe Leon Festinger und seine Mitautoren, was mit einem UFO-Kult geschah, als das vorhergesagte Mutterschiff nicht zur festgelegten Zeit eintraf. Statt ihre Fehler zuzugeben, "versuchten Mitglieder der Gruppe verzweifelt, die Welt von ihrem Glauben zu überzeugen", und sie unternahmen "eine Reihe verzweifelter Versuche, ihre schmerzliche Dissonanz zu beseitigen, indem sie Vorhersage für Vorhersage machten, in der Hoffnung, dass eine davon Wirklichkeit wird."

Festinger nannte diesen Zustand 'kognitive Dissonanz'. Anders ausgedrückt - die unangenehme Spannung, die durch das gleichzeitige Halten zweier widersprüchlicher Gedanken entsteht.

Die beiden Sozialpsychologen Carol Tavris und Elliot Aronson (eine ehemalige Schülerin von Festinger) dokumentieren in ihrem 2007 erschienenen Buch "Mistakes Were Made (But Not by Me)" tausende von Experimenten, in denen gezeigt wird, wie Menschen Fakten analysieren, um vorgefasste Überzeugungen in Einklang. Kognitive Dissonanz soll so reduziert werden.

Ihre Metapher der „Pyramide der Wahl“ platziert zwei Individuen nebeneinander am Scheitelpunkt der Pyramide und zeigt, wie schnell sie auseinanderlaufen und an den gegenüberliegenden unteren Ecken der Basis landen, während sie jeweils eine Verteidigungsposition abstecken.

2. Backfire-Effekt

In einer Reihe von Experimenten der Professoren Brendan Nyhan (Dartmouth College) und Jason Reifler (University of Exeter) identifizierten die Forscher einen hiermit verwandten Faktor, den sie als Backfire-Effekt bezeichnen: 

"Durch Korrekturen werden die Fehlwahrnehmungen in der fraglichen Gruppe tatsächlich verstärkt."
Warum? "Weil es ihre Weltanschauung oder ihr Selbstverständnis gefährdet."
Study (PDF): When corrections fail (Brendan Nyhan, Jason Reifler 2007) (Alternativer Link)

2.1. Beispiel für den Backfire-Effekt

Probanden erhielten gefälschte Zeitungsartikel, die verbreitete Unwahrheiten bestätigten, zum Beispiel, dass es im Irak Massenvernichtungswaffen gab. Später erhielten die Probanden dann einen Korrekturartikel, welcher darüber aufklärte, dass Massenvernichtungswaffen nie gefunden wurden.

  • Liberale, die sich gegen den Krieg aussprachen, akzeptierten den neuen Artikel und lehnten den alten ab.
  • Konservative, die den Krieg unterstützten sagten das Gegenteil. Tatsächlich waren sie nach der Korrektur sogar noch überzeugter, dass Saddam Hussein Massenvernichtungswaffen besaß. Nach ihrer Erklärung zeige der Artikel nur, "wie gut Hussein die Waffen versteckt hätte". 

Tatsächlich stellen Nyhan und Reifler unter vielen Konservativen fest, "dass der Glaube, der Irak hätte unmittelbar vor der US-Invasion über Massenvernichtungswaffen verfügt, lange nach dem Abschluss der Bush-Regierung anhielt."

Der Backfire-Effekt schlägt dann zu, wenn es um tiefe, emotionale Überzeugungen geht, welche man sich oftmals über viele Jahre oder Jahrzehnte angeeignet hat.

3. Tipps zur Vermeidung des Backfire-Effektes

Wenn korrigierende Tatsachen die Sache nur verschlimmern, was können wir dann tun, um die Menschen vom Irrtum ihrer Überzeugungen zu überzeugen? Diese 6 Tipps können helfen, das Denken des Gegenbers nicht in Verteidigungshaltung zu bringen:

  1. Halten Emotionen aus dem Austausch heraus.
  2. Diskutieren, nicht angreifen (nicht ad hominem / ad Hitlerum argumentieren).
  3. Hören Sie aufmerksam zu und versuchen Sie, die andere Position genau auszudrücken.
  4. Zeigen Sie Respekt.
  5. Bestätigen Sie, dass Sie verstehen, warum jemand diese Meinung vertreten könnte.
  6. Versuchen zu zeigen, dass sich die Weltanschauung nicht unbedingt ändert, wenn man Fakten ändert.

Diese Strategien können nicht immer dazu beitragen, die Meinung der Menschen zu ändern, kann dazu beitragen, unnötige Spaltungen zu reduzieren.