Ich habe in den Kommentaren in letzter Zeit immer wieder Begrifflichkeiten aus dem Bereich der "logical fallacy", auf Deutsch Trugschlüsse, benutzt. Da diese nicht allgemein bekannt zu sein scheinen, möchte ich an dieser Stelle kurz die verschiedenen Trugschlüsse erklären, da ich sie für insgesamt ein sinnvolles Konzept halte.
Vogelscheuchen-Trugschluss (Strawman fallacy) Anstatt sich mit dem Argument an sich auseinanderzusetzen, wird eine Vogelscheuche des Arguments aufgebaut und stattdessen bekämpft. Dies wird meist durch eine von zwei Möglichkeiten erreicht. Entweder man reißt einen Teil eines Arguments aus dem Kontext, so dass es in einem anderen Licht erscheint, oder man vereinfacht das Ursprungsargument so weit, dass es sich leicht widerlegen lässt. Beispiel:
Ad-Hominem-Trugschluss (Ad hominem fallacy) „Ad hominem“ ist Latein für „zum Menschen“. Gemeint ist, dass der Mensch selbst statt des Arguments attackiert wird. Dies geschieht meist entweder durch einen Angriff auf den Charakter der jeweiligen Person, die ihr jegliche Autorität abspricht, oder durch ein „tu quoqe“ („Du machst das Gleiche“), wodurch der Person die Autorität abgesprochen wird, weil sie heuchelt. Beispiel:
Schwarz-und-Weiß-Trugschluss (Black-and-White fallacy) In diesem Trugschluss wird eine Wahl zwischen zwei Extremen als einzige Möglichkeit angeboten und so Komplexität reduziert. Eine weitere Auswahlmöglichkeit besteht nicht; die Vorstellung, Argumente beider Seiten gut und andere beider Seiten schlecht zu finden wird nicht akzeptiert. Beispiel:
Autoritäts-Trugschluss (Authority fallacy) Das Argument einer Person wird akzeptiert, weil ihr eine Autorität zugesprochen wird, die diese nicht besitzt. Dieses Argument richtet sich dezidiert nicht gegen echte Autoritäten, sondern gegen solche, die keinerlei Expertise auf dem Feld des Arguments besitzen. Beispiel:
Kein echter Schotte (No true Scotsman fallacy) Ein Argument, das auf Allgemeingültigkeit beruht und durch ein Gegenbeispiel widerlegt wird, kann zu einem „Kein echter Schotte“ werden, indem seine Einordnung angezweifelt wird. Dadurch wird per Ausgrenzung versucht, sich einer Widerlegung zu entziehen.
Der Trugschluss-Trugschluss (Fallacy fallacy) Nur weil ein Gegner in seiner Argumentation einen logischen Trugschluss hat, bedeutet das nicht, dass sein Argument damit automatisch widerlegt ist.
Der texanische Scharfschütze (Texan sharpshooter fallacy) Wenn ein Argument auf der Basis von Informationen gemacht wird, die die Vorurteile des Sprechers widergeben, dann wird letztlich das Ziel um die Argumente herumgemalt – sie treffen immer, egal um was es eigentlich geht. Beispielhaft lässt sich dies an der nicht vergleichbaren empirischen Basis des folgenden Arguments:
Ziellinie verschieben (Moving-the-goalpoasts fallacy) Nachdem ein eigenes Argument erfolgreich widerlegt wurde, erklärt man es dennoch für valide, indem einfach die Ziellinie für ein erfolgreiches Widerlegen verschoben wird.
Argumentum ad populum (Argumentum-ad-populum fallacy) Die Richtigkeit eines Arguments wird durch Beschwörung der großen Unterstützerzahl unterstrichen. Die Menge der Menschen, die etwas glauben, sagt aber nichts über die Richtigkeit aus.
Neben den Trugschlüssen gibt es eine Reihe so genannter „kognitiver Verzerrungen“, die dafür sorgen, dass wir nicht vollkommen rational denken. Sich dieser Mechanismen, die in der menschlichen Psychologie angelegt sind, bewusst zu machen, hilft dabei, die eigene Argumentation ehrlich zu halten und auf solche Effekte hin abzuklopfen. Kognitive Verzerrungen haben übrigens durchaus einen evolutionären Vorteil. Erhalten wir widersprüchliche Informationen, entsteht in unserem Kopf eine so genannte „kognitive Dissonanz“, die unser Hirn auflösen möchte. Um angesichts der Masse der Eindrücke nicht überlastet zu werden, nutzt es die Verzerrungen als schnelle Helferchen. Deswegen empfinden wir die Auseinandersetzung mit neuen Ideen oft als anstrengend.
Ankerheuristik Die Metapher hier ist, dass bereits vorhandene Informationen als Anker dienen, an den sich spätere Impulse sozusagen anhängen. Dies kann auf zwei Arten geschehen. Entweder verzerren Anker durch das so genannte „Priming“ die Urteilsfindung, indem sie Assoziationen hervorrufen, die zu bereits vorhandenen Informationen passen. Beispielsweise kann die Idee, dass der Klimawandel eine reale Bedrohung ist, dafür sorgen, dass jegliche Informationen über Naturkatastrophen mit ihm in Verbindung gebracht werden, weil das Unterbewusstsein sofort diese Verbindung herstellt. Oder der Anker besteht aus den ersten Informationen zu einem Thema, die man erhält, und alle anderen Informationen, die zu einem späteren Zeitpunkt dazukommen, werden gegen diesen Anker abgeglichen. So sind die ersten Informationen, die viele Impfgegner zum Thema bekommen, von Websites, die diese Gefahren herausstellen (oftmals fälschlich), und spätere Informationen dringend dann gegen diesen etablierten Anker nicht mehr durch.
Attributionsfehler Beim Attributionsfehler wird angenommen, dass ein Mitglied einer Gruppe solche Eigenschaften (Attribute) teilt, wie sie dieser Gruppe zugesprochen werden. So empfinden wir etwa Menschen, die unsere eigenen Überzeugungen teilen (und damit zu unserer Gruppe gehören) als sympathischer als Menschen, deren Ansichten wir nicht teilen, obwohl dies auf ihren Charakter eigentlich keine Auswirkungen haben dürfte. Ein grundlegendes Problem des Attributionsfehlers ist, dass dabei die Wirkung äußerer Faktoren systematisch unterschätzt wird. Stattdessen wird aus Eigenschaften einer Person auf all ihr Verhalten geschlossen. Attributionsfehler sind deswegen besonders häufig bei Verschwörungstheoretikern, weil diese nicht bereit sind, Zufall als Erklärung zu akzeptieren. Der Attributionsfehler ist zudem ein Kernproblem, das hinter Rassismus oder Sexismus steckt: man schreibt einer Gruppe ein bestimmtes Merkmal zu (etwa dass alle Asiaten besonders klug sind) und wendet dieses dann auf alle Mitglieder der Gruppe an. Im Beispiel würden Asiaten unfair bevorzugt werden, weil man ihnen ungeachtet ihrer tatsächlichen Fähigkeiten das Attribut „klug“ zuspricht und sie entsprechend positiv behandelt.
Bestätigungsfehler Eine der stärksten kognitiven Verzerrungen überhaupt ist der Bestätigungsfehler. Um kognitive Dissonanz zu vermeiden, wählt unser Gehirn im Zweifelsfall – also wenn nicht eine klare Überlegenheit einer von zwei widerstreitenden Informationen besteht – die aus, die unseren bisherigen Überzeugungen entspricht. Glauben wir also, dass der Klimawandel in Wahrheit gar nicht so schlimm ist und das Ganze maßlos übertrieben wird, und sehen im Fernsehen dann zwei Wissenschaftlerinnen darüber streiten, sprechen wir automatisch derjenigen mehr Kompetenz zu, die unsere vorgefasste Meinung bestätigt.
Dunning-Kruger-Effekt Der Dunning-Kruger-Effekt besagt, dass Menschen ihre eigenen Fähigkeiten umso höher einschätzen, je niedriger diese tatsächlich sind. Während Wissenschaftler und andere Experten etwa häufig ihren eigenen Wissensstand relativieren und auf abweichende Meinungen hinweisen oder eventuelle Wissenslücken betonen, steht auf der anderen Seite des Extrems die „Ich habe ein YouTube-Video gesehen und weiß über alles Bescheid“-Fraktion, die sich dann häufig auch kompetent genug fühlt, Experten Paroli zu geben, obwohl sie über weit weniger Fachwissen verfügt und sich oft objektiv gar kein Urteil bilden kann.
Moralische Lizenzierung Wer etwas Gutes getan hat, glaubt häufig, danach die Lizenz zu haben, etwas Schlechtes zu tun. Dies zeigt sich etwa, wenn jemand Vegetarier ist und mit dieser guten Tat seinen spritschluckenden Sportwagen rechtfertigt. Aber moralisches Verhalten funktioniert nicht so; man handelt entweder dem eigenen Wertesystem entsprechend oder nicht. Eine Art Punktekonto existiert nicht.
Rückschaufehler „Hinterher ist man immer schlauer“, lautet ein berühmtes Sprichwort. Die daraus resultierende Verzerrung nennt man den Rückschaufehler: Mit dem Wissen, wie es tatsächlich gelaufen ist, wird rückwirkend erklärt, dass es gar nicht anders kommen konnte und dass es immer schon klar war. Dies ist ein Phänomen, das etwa bei Wahlen oft beobachtet werden kann.
Verlustaversion Gibt man Menschen die Möglichkeit, ein Risiko einzugehen, um etwas zu gewinnen, lehnen viele das ab, weil sie den mit dem Risiko einhergehenden Verlust fürchten und wesentlich schlimmer beurteilen als den potenziellen Gewinn, selbst wenn dies objektiv irrational ist (Etwa: Bei einem Würfelwurf gewinnt man bei 1-5 zwei Euro und verliert bei 6 einen Euro).
Vogelscheuchen-Trugschluss (Strawman fallacy) Anstatt sich mit dem Argument an sich auseinanderzusetzen, wird eine Vogelscheuche des Arguments aufgebaut und stattdessen bekämpft. Dies wird meist durch eine von zwei Möglichkeiten erreicht. Entweder man reißt einen Teil eines Arguments aus dem Kontext, so dass es in einem anderen Licht erscheint, oder man vereinfacht das Ursprungsargument so weit, dass es sich leicht widerlegen lässt. Beispiel:
- Argument: „Wenn ein Politiker einer Partei diese Aussage macht, dann ist er ein herzloser Unmensch.“
- Vogelscheuchen-Trugschluss: „Die Partei ist gar nicht so! Dein Argument ist falsch!
Ad-Hominem-Trugschluss (Ad hominem fallacy) „Ad hominem“ ist Latein für „zum Menschen“. Gemeint ist, dass der Mensch selbst statt des Arguments attackiert wird. Dies geschieht meist entweder durch einen Angriff auf den Charakter der jeweiligen Person, die ihr jegliche Autorität abspricht, oder durch ein „tu quoqe“ („Du machst das Gleiche“), wodurch der Person die Autorität abgesprochen wird, weil sie heuchelt. Beispiel:
- Argument: „Fastfood ist schlecht für die Menschen, weil es ungesund ist und die Angestellten zudem ausgebeutet werden.“
- Ad hominem-Trugschluss: „Du magst keine Katzen. Nur Unmenschen mögen keine Katzen. Deine Argumente sind daher falsch.“
- Tu-quoque-Trugschluss: „Ich habe dich gestern drei BigMacs verdrücken sehen. Du kannst McDonalds also gar nicht kritisieren.“
Schwarz-und-Weiß-Trugschluss (Black-and-White fallacy) In diesem Trugschluss wird eine Wahl zwischen zwei Extremen als einzige Möglichkeit angeboten und so Komplexität reduziert. Eine weitere Auswahlmöglichkeit besteht nicht; die Vorstellung, Argumente beider Seiten gut und andere beider Seiten schlecht zu finden wird nicht akzeptiert. Beispiel:
- Argument: „Wir sollten die Erbschaftssteuern erhöhen, um eine bessere Vermögensverteilung in der Gesellschaft zu erreichen.“
- Schwarz-Weiß-Trugschluss: „Wer Steuern erhöht, schadet der Wirtschaft. Wir müssen alle Steuern senken, um ihr zu helfen.“
Autoritäts-Trugschluss (Authority fallacy) Das Argument einer Person wird akzeptiert, weil ihr eine Autorität zugesprochen wird, die diese nicht besitzt. Dieses Argument richtet sich dezidiert nicht gegen echte Autoritäten, sondern gegen solche, die keinerlei Expertise auf dem Feld des Arguments besitzen. Beispiel:
- Argument: „Die Globale Erwärmung existiert und ist ein echtes Problem.“
- Autoritäts-Trugschluss: „Mein Vater ist Ingenieur, und er sagt, dass das alles Unsinn ist.“
Kein echter Schotte (No true Scotsman fallacy) Ein Argument, das auf Allgemeingültigkeit beruht und durch ein Gegenbeispiel widerlegt wird, kann zu einem „Kein echter Schotte“ werden, indem seine Einordnung angezweifelt wird. Dadurch wird per Ausgrenzung versucht, sich einer Widerlegung zu entziehen.
- Argument: „Nicht alle Schotten sind nette und umgängliche Menschen. Man sehe sich nur Dagobert Duck an!“
- Kein-Echter-Schotte-Trugschluss: „Der ist kein echter Schotte! Kein echter Schotte würde sich so benehmen!“
Der Trugschluss-Trugschluss (Fallacy fallacy) Nur weil ein Gegner in seiner Argumentation einen logischen Trugschluss hat, bedeutet das nicht, dass sein Argument damit automatisch widerlegt ist.
- Argument: „96% aller Wissenschaftler sagen, dass der Klimawandel real ist. Nur Idioten wie du können das bezweifeln!“
- Trugschluss-Trugschluss: „Ha, ein ad-hominem-Trugschluss! Damit ist dein Argument ungültig.“
Der texanische Scharfschütze (Texan sharpshooter fallacy) Wenn ein Argument auf der Basis von Informationen gemacht wird, die die Vorurteile des Sprechers widergeben, dann wird letztlich das Ziel um die Argumente herumgemalt – sie treffen immer, egal um was es eigentlich geht. Beispielhaft lässt sich dies an der nicht vergleichbaren empirischen Basis des folgenden Arguments:
- Argument: „Wir brauchen mehr Schutz von Frauen am Arbeitsplatz!“
- Texanischer-Scharfschütze-Trugschluss: „Männer werden immer diskriminiert! Viel mehr Männer als Frauen sterben im Beruf!“
Ziellinie verschieben (Moving-the-goalpoasts fallacy) Nachdem ein eigenes Argument erfolgreich widerlegt wurde, erklärt man es dennoch für valide, indem einfach die Ziellinie für ein erfolgreiches Widerlegen verschoben wird.
- Argument: „Wir sehen deutlich anhand der uns hinterlassenen Aufzeichnungen, dass sich das Klima erst in den letzten 150 Jahren geändert hat.“
- Ziellinien-verschoben-Trugschluss: „Jaaaaaaaa, aber die Aufzeichnungen gehen ja nur 3000 oder 4000 Jahre zurück. Zeig mir Aufzeichnungen der letzten drei Millionen Jahre und wir reden darüber.“
Argumentum ad populum (Argumentum-ad-populum fallacy) Die Richtigkeit eines Arguments wird durch Beschwörung der großen Unterstützerzahl unterstrichen. Die Menge der Menschen, die etwas glauben, sagt aber nichts über die Richtigkeit aus.
- Argument: „Rassismus ist in Deutschland ein großes Problem.“
- Argumentum ad polum-Trugschluss: „Viele Menschen stimmen zu, dass Rassismus in Deutschland kein großes Problem ist. Das wird völlig übertrieben.“
Neben den Trugschlüssen gibt es eine Reihe so genannter „kognitiver Verzerrungen“, die dafür sorgen, dass wir nicht vollkommen rational denken. Sich dieser Mechanismen, die in der menschlichen Psychologie angelegt sind, bewusst zu machen, hilft dabei, die eigene Argumentation ehrlich zu halten und auf solche Effekte hin abzuklopfen. Kognitive Verzerrungen haben übrigens durchaus einen evolutionären Vorteil. Erhalten wir widersprüchliche Informationen, entsteht in unserem Kopf eine so genannte „kognitive Dissonanz“, die unser Hirn auflösen möchte. Um angesichts der Masse der Eindrücke nicht überlastet zu werden, nutzt es die Verzerrungen als schnelle Helferchen. Deswegen empfinden wir die Auseinandersetzung mit neuen Ideen oft als anstrengend.
Ankerheuristik Die Metapher hier ist, dass bereits vorhandene Informationen als Anker dienen, an den sich spätere Impulse sozusagen anhängen. Dies kann auf zwei Arten geschehen. Entweder verzerren Anker durch das so genannte „Priming“ die Urteilsfindung, indem sie Assoziationen hervorrufen, die zu bereits vorhandenen Informationen passen. Beispielsweise kann die Idee, dass der Klimawandel eine reale Bedrohung ist, dafür sorgen, dass jegliche Informationen über Naturkatastrophen mit ihm in Verbindung gebracht werden, weil das Unterbewusstsein sofort diese Verbindung herstellt. Oder der Anker besteht aus den ersten Informationen zu einem Thema, die man erhält, und alle anderen Informationen, die zu einem späteren Zeitpunkt dazukommen, werden gegen diesen Anker abgeglichen. So sind die ersten Informationen, die viele Impfgegner zum Thema bekommen, von Websites, die diese Gefahren herausstellen (oftmals fälschlich), und spätere Informationen dringend dann gegen diesen etablierten Anker nicht mehr durch.
Attributionsfehler Beim Attributionsfehler wird angenommen, dass ein Mitglied einer Gruppe solche Eigenschaften (Attribute) teilt, wie sie dieser Gruppe zugesprochen werden. So empfinden wir etwa Menschen, die unsere eigenen Überzeugungen teilen (und damit zu unserer Gruppe gehören) als sympathischer als Menschen, deren Ansichten wir nicht teilen, obwohl dies auf ihren Charakter eigentlich keine Auswirkungen haben dürfte. Ein grundlegendes Problem des Attributionsfehlers ist, dass dabei die Wirkung äußerer Faktoren systematisch unterschätzt wird. Stattdessen wird aus Eigenschaften einer Person auf all ihr Verhalten geschlossen. Attributionsfehler sind deswegen besonders häufig bei Verschwörungstheoretikern, weil diese nicht bereit sind, Zufall als Erklärung zu akzeptieren. Der Attributionsfehler ist zudem ein Kernproblem, das hinter Rassismus oder Sexismus steckt: man schreibt einer Gruppe ein bestimmtes Merkmal zu (etwa dass alle Asiaten besonders klug sind) und wendet dieses dann auf alle Mitglieder der Gruppe an. Im Beispiel würden Asiaten unfair bevorzugt werden, weil man ihnen ungeachtet ihrer tatsächlichen Fähigkeiten das Attribut „klug“ zuspricht und sie entsprechend positiv behandelt.
Bestätigungsfehler Eine der stärksten kognitiven Verzerrungen überhaupt ist der Bestätigungsfehler. Um kognitive Dissonanz zu vermeiden, wählt unser Gehirn im Zweifelsfall – also wenn nicht eine klare Überlegenheit einer von zwei widerstreitenden Informationen besteht – die aus, die unseren bisherigen Überzeugungen entspricht. Glauben wir also, dass der Klimawandel in Wahrheit gar nicht so schlimm ist und das Ganze maßlos übertrieben wird, und sehen im Fernsehen dann zwei Wissenschaftlerinnen darüber streiten, sprechen wir automatisch derjenigen mehr Kompetenz zu, die unsere vorgefasste Meinung bestätigt.
Dunning-Kruger-Effekt Der Dunning-Kruger-Effekt besagt, dass Menschen ihre eigenen Fähigkeiten umso höher einschätzen, je niedriger diese tatsächlich sind. Während Wissenschaftler und andere Experten etwa häufig ihren eigenen Wissensstand relativieren und auf abweichende Meinungen hinweisen oder eventuelle Wissenslücken betonen, steht auf der anderen Seite des Extrems die „Ich habe ein YouTube-Video gesehen und weiß über alles Bescheid“-Fraktion, die sich dann häufig auch kompetent genug fühlt, Experten Paroli zu geben, obwohl sie über weit weniger Fachwissen verfügt und sich oft objektiv gar kein Urteil bilden kann.
Moralische Lizenzierung Wer etwas Gutes getan hat, glaubt häufig, danach die Lizenz zu haben, etwas Schlechtes zu tun. Dies zeigt sich etwa, wenn jemand Vegetarier ist und mit dieser guten Tat seinen spritschluckenden Sportwagen rechtfertigt. Aber moralisches Verhalten funktioniert nicht so; man handelt entweder dem eigenen Wertesystem entsprechend oder nicht. Eine Art Punktekonto existiert nicht.
Rückschaufehler „Hinterher ist man immer schlauer“, lautet ein berühmtes Sprichwort. Die daraus resultierende Verzerrung nennt man den Rückschaufehler: Mit dem Wissen, wie es tatsächlich gelaufen ist, wird rückwirkend erklärt, dass es gar nicht anders kommen konnte und dass es immer schon klar war. Dies ist ein Phänomen, das etwa bei Wahlen oft beobachtet werden kann.
Verlustaversion Gibt man Menschen die Möglichkeit, ein Risiko einzugehen, um etwas zu gewinnen, lehnen viele das ab, weil sie den mit dem Risiko einhergehenden Verlust fürchten und wesentlich schlimmer beurteilen als den potenziellen Gewinn, selbst wenn dies objektiv irrational ist (Etwa: Bei einem Würfelwurf gewinnt man bei 1-5 zwei Euro und verliert bei 6 einen Euro).