Inhaltsverzeichnis:

Ich werde nicht sehen, bis ich glaube: Wie kann man lernen, seinen Standpunkt zu ändern?
Ich werde nicht sehen, bis ich glaube: Wie kann man lernen, seinen Standpunkt zu ändern?

Video: Ich werde nicht sehen, bis ich glaube: Wie kann man lernen, seinen Standpunkt zu ändern?

Video: Ich werde nicht sehen, bis ich glaube: Wie kann man lernen, seinen Standpunkt zu ändern?
Video: So war Schule damals | Galileo ProSieben 2024, Kann
Anonim

Wir verzerren die Realität ständig zu unseren Gunsten, wir bemerken dies sehr selten und geben noch seltener zu, dass wir uns geirrt haben. Diese Schwächen des menschlichen Denkens lassen Propaganda und Werbung funktionieren, und die Manipulation der öffentlichen Meinung in sozialen Netzwerken basiert darauf. Wir sind besonders schlecht darin, über Dinge zu denken, die mit unserem Glauben und unserem Glauben zusammenhängen. Wie „erwischt“man sich bei einem Fehler?

„Wenn der menschliche Geist einmal einen Glauben akzeptiert hat, beginnt er, alles anzuziehen, um ihn zu stärken und zu bestätigen. Auch wenn dieser Glaube mehr Beispiele widerlegt als bestätigt, übersieht der Intellekt sie entweder oder hält sie für vernachlässigbar“, schrieb der englische Philosoph Francis Bacon. Jeder, der an Internetdiskussionen teilgenommen hat, weiß genau, was er meinte.

Psychologen versuchen seit langem zu erklären, warum wir so zögern, unseren Standpunkt zu ändern. Bacons Vermutung, die vor fast vierhundert Jahren aufgestellt wurde, wird heute durch Hunderte von wissenschaftlichen Studien gestützt. Und je besser wir unsere mentalen Verzerrungen verstehen, desto wahrscheinlicher werden wir lernen, ihnen zu widerstehen.

Ich werde nicht sehen, bis ich glaube

Die Grenzen menschlicher Irrationalität lassen sich nur erahnen. Jeder Psychologiestudent kann ein paar einfache Tests verwenden, um zu beweisen, dass Sie voreingenommen und voreingenommen sind. Und wir reden hier nicht über Ideologien und Vorurteile, sondern über die grundlegendsten Mechanismen unseres Denkens.

2018 zeigten Wissenschaftler des Universitätszentrums Hamburg-Eppendorf den Teilnehmern des Experiments mehrere Videos. Die Teilnehmer mussten feststellen, in welche Richtung sich die weißen Punkte auf dem schwarzen Bildschirm bewegen. Da sich viele Punkte sprunghaft bewegten, war dies nicht so einfach.

Wissenschaftler stellten fest, dass sich die Teilnehmer nach der ersten Entscheidung in Zukunft unbewusst daran hielten. „Unsere Entscheidungen werden zu einem Anreiz, nur die Informationen zu berücksichtigen, die mit ihnen übereinstimmen“, schließen die Forscher

Dies ist ein bekannter kognitiver Bias, der als Bestätigungsbias bezeichnet wird. Wir finden Daten, die unsere Sichtweise stützen und ignorieren alles, was ihr widerspricht. In der Psychologie wird dieser Effekt in verschiedenen Materialien farbig dokumentiert.

1979 wurden Studenten der University of Texas gebeten, zwei wissenschaftliche Arbeiten über die Todesstrafe zu studieren. Einer von ihnen argumentierte, dass die Todesstrafe dazu beiträgt, die Kriminalität zu reduzieren, und der zweite widerlegte diese Behauptung. Vor Beginn des Experiments wurden die Teilnehmer gefragt, was sie von der Todesstrafe halten, und dann gebeten, die Glaubwürdigkeit jeder Studie zu bewerten.

Anstatt die Argumente der Gegenseite zu berücksichtigen, bekräftigten die Teilnehmer nur ihre anfängliche Meinung. Diejenigen, die die Todesstrafe unterstützten, wurden zu glühenden Befürwortern, und diejenigen, die sich ihr widersetzten, wurden noch leidenschaftlichere Gegner

In einem klassischen Experiment von 1975 wurde den Studenten der Stanford University jeweils ein Paar Abschiedsbriefe gezeigt. Einer von ihnen war fiktiv, und der andere wurde von einem echten Selbstmörder geschrieben. Die Schüler mussten den Unterschied zwischen einer echten und einer gefälschten Notiz erkennen.

Einige der Teilnehmer erwiesen sich als ausgezeichnete Detektive - sie bearbeiteten erfolgreich 24 Paare von 25. Andere zeigten völlige Hoffnungslosigkeit und identifizierten nur zehn Töne richtig. Tatsächlich täuschten die Wissenschaftler die Teilnehmer: Beide Gruppen lösten die Aufgabe in etwa gleich.

Im zweiten Schritt wurde den Teilnehmern mitgeteilt, dass die Ergebnisse gefälscht waren und wurden gebeten, zu bewerten, wie viele Notizen sie tatsächlich richtig erkannten. Hier begann der Spaß. Die Schüler der Gruppe „gute Ergebnisse“waren zuversichtlich, dass sie die Aufgabe gut gelöst haben – viel besser als der durchschnittliche Schüler. Schüler mit „schlechten Noten“glaubten weiterhin, kläglich versagt zu haben.

Wie die Forscher anmerken, "bleiben Eindrücke, die einmal gebildet sind, bemerkenswert stabil." Wir weigern uns, unseren Standpunkt zu ändern, auch wenn sich herausstellt, dass es absolut keine Grundlage dafür gibt.

Die Realität ist unangenehm

Die Leute machen einen sehr schlechten Job, Tatsachen zu neutralisieren und Argumente abzuwägen. Selbst die rationalsten Urteile entstehen tatsächlich unter dem Einfluss unbewusster Wünsche, Bedürfnisse und Vorlieben. Forscher nennen dies "motiviertes Denken". Wir tun unser Bestes, um kognitive Dissonanzen zu vermeiden – den Konflikt zwischen etablierten Meinungen und neuen Informationen.

Mitte der 1950er Jahre untersuchte der amerikanische Psychologe Leon Festinger eine kleine Sekte, deren Mitglieder an das bevorstehende Ende der Welt glaubten. Das Datum der Apokalypse wurde auf einen bestimmten Tag vorhergesagt - den 21. Dezember 1954. Leider kam es an diesem Tag nie zur Apokalypse. Einige begannen an der Wahrheit der Vorhersage zu zweifeln, erhielten aber bald eine Botschaft von Gott, die besagte: Ihre Gruppe strahlte so viel Glauben und Güte aus, dass Sie die Welt vor dem Untergang gerettet haben.

Nach diesem Ereignis änderte sich das Verhalten der Mitglieder der Sekte dramatisch. Wenn sie früher nicht versuchten, die Aufmerksamkeit von Außenstehenden auf sich zu ziehen, begannen sie jetzt, ihren Glauben aktiv zu verbreiten. Laut Festinger wurde der Proselytismus für sie zu einer Möglichkeit, kognitive Dissonanzen zu beseitigen. Dies war eine unbewusste, aber auf ihre Weise logische Entscheidung: Denn je mehr Menschen unsere Überzeugungen teilen können, desto mehr beweist sie, dass wir richtig liegen.

Wenn wir Informationen sehen, die mit unseren Überzeugungen übereinstimmen, empfinden wir echte Zufriedenheit. Wenn wir Informationen sehen, die unseren Überzeugungen widersprechen, nehmen wir sie als Bedrohung wahr. Physiologische Abwehrmechanismen werden eingeschaltet, die Fähigkeit zum rationalen Denken wird unterdrückt

Es ist unangenehm. Wir sind sogar bereit zu zahlen, um nicht mit Meinungen konfrontiert zu werden, die nicht in unser Glaubenssystem passen.

Im Jahr 2017 fragten Wissenschaftler der University of Winnipeg 200 Amerikaner, wie sie sich zur gleichgeschlechtlichen Ehe fühlen. Denjenigen, die diese Idee schätzten, wurde der folgende Deal angeboten: Beantworte 8 Argumente gegen die gleichgeschlechtliche Ehe und erhalte 10 Dollar oder beantworte 8 Argumente für die gleichgeschlechtliche Ehe, aber erhalte nur 7 Dollar dafür. Gegnern der gleichgeschlechtlichen Ehe wurde der gleiche Deal, nur zu gegensätzlichen Bedingungen, angeboten.

In beiden Gruppen stimmten fast zwei Drittel der Teilnehmer zu, weniger Geld zu erhalten, um nicht mit der Gegenposition konfrontiert zu werden. Anscheinend reichen drei Dollar immer noch nicht aus, um eine tiefe Zurückhaltung zu überwinden, denen zuzuhören, die mit uns nicht einverstanden sind.

Natürlich verhalten wir uns nicht immer so stur. Manchmal sind wir bereit, unsere Meinung zu einem Thema schnell und schmerzlos zu ändern – aber nur, wenn wir es mit einem ausreichenden Maß an Gleichgültigkeit behandeln

In einem Experiment aus dem Jahr 2016 boten Wissenschaftler der University of Southern California den Teilnehmern mehrere neutrale Aussagen - zum Beispiel "Thomas Edison hat die Glühbirne erfunden". Dem stimmten fast alle zu, bezogen auf das Schulwissen. Dann wurden ihnen Beweise vorgelegt, die der ersten Aussage widersprachen – zum Beispiel, dass es vor Edison noch andere Erfinder der elektrischen Beleuchtung gegeben habe (diese Tatsachen waren gefälscht). Angesichts neuer Informationen änderten fast alle ihre ursprüngliche Meinung.

Im zweiten Teil des Experiments boten die Forscher den Teilnehmern politische Statements: „Die Vereinigten Staaten sollten ihre Militärausgaben begrenzen“. Diesmal war ihre Reaktion ganz anders: Die Teilnehmer bestärkten ihre ursprünglichen Überzeugungen, anstatt sie in Frage zu stellen.

„Im politischen Teil der Studie haben wir viel Aktivität in der Amygdala und im Inselkortex gesehen. Dies sind die Teile des Gehirns, die stark mit Emotionen, Gefühlen und Ego verbunden sind. Identität ist ein bewusst politisches Konzept. Wenn es den Menschen scheint, dass ihre Identität angegriffen oder in Frage gestellt wird, gehen sie in die Irre“, fassen die Forscher zusammen.

Die Meinungen, die Teil unseres „Ichs“geworden sind, sind sehr schwer zu ändern oder zu widerlegen. Alles, was ihnen widerspricht, ignorieren oder leugnen wir. Verleugnung ist ein grundlegender psychologischer Abwehrmechanismus in Stress- und Angstsituationen, die unsere Identität in Frage stellen. Es ist ein ziemlich einfacher Mechanismus: Freud schrieb ihn Kindern zu. Aber manchmal wirkt er Wunder.

Im Jahr 1974 ergab sich der Junior-Leutnant der japanischen Armee, Hiroo Onoda, den philippinischen Behörden. Er versteckte sich fast 30 Jahre lang im Dschungel auf der Insel Lubang und weigerte sich zu glauben, dass der Zweite Weltkrieg vorbei und die Japaner besiegt waren. Er glaubte, hinter den feindlichen Linien einen Guerillakrieg zu führen - obwohl er in Wirklichkeit nur mit der philippinischen Polizei und lokalen Bauern kämpfte.

Hiroo hörte im Radio Nachrichten über die Kapitulation der japanischen Regierung, die Olympischen Spiele in Tokio und ein Wirtschaftswunder, aber er hielt das alles für feindliche Propaganda. Er räumte seinen Fehler erst ein, als eine Delegation unter der Leitung des ehemaligen Kommandanten auf der Insel eintraf, der ihm vor 30 Jahren den Befehl gab, "sich nicht zu ergeben und keinen Selbstmord zu begehen". Nachdem die Bestellung storniert wurde, kehrte Hiroo nach Japan zurück, wo er fast wie ein Nationalheld begrüßt wurde.

Menschen Informationen zu geben, die ihren Überzeugungen widersprechen, insbesondere solche, die emotional aufgeladen sind, ist ziemlich ineffektiv. Anti-Impfstoffe glauben, dass Impfstoffe Autismus verursachen, nicht nur weil sie ungebildet sind. Der Glaube, die Ursache der Krankheit zu kennen, tröstet nicht zuletzt: Wenn gierige Pharmakonzerne an allem schuld sind, dann ist zumindest klar, auf wen man sich ärgern kann. Wissenschaftliche Beweise bieten solche Antworten nicht

Das bedeutet natürlich nicht, dass wir unbegründete und gefährliche Vorurteile rechtfertigen müssen. Aber die Methoden, mit denen wir sie bekämpfen, führen oft zu gegenteiligen Ergebnissen.

Wenn Fakten nicht helfen, was kann helfen?

So überzeugen Sie ohne Fakten

In The Riddle of the Mind haben die Kognitionspsychologen Hugo Mercier und Dan Sperber versucht, die Frage zu beantworten, was die Ursache unserer Irrationalität ist. Die Hauptaufgabe, die unser Verstand im Laufe der Evolution zu lösen gelernt hat, ist ihrer Meinung nach das Leben in einer sozialen Gruppe. Wir brauchten einen Grund, nicht nach der Wahrheit zu suchen, sondern um vor unseren Stammesgenossen nicht das Gesicht zu verlieren. Uns interessiert mehr die Meinung der Gruppe, zu der wir gehören, als objektives Wissen.

Wenn eine Person das Gefühl hat, dass etwas ihre Persönlichkeit bedroht, ist sie selten in der Lage, den Standpunkt eines anderen zu berücksichtigen. Dies ist einer der Gründe, warum Diskussionen mit politischen Gegnern meist sinnlos sind

„Menschen, die etwas beweisen wollen, können die Argumente eines anderen nicht einschätzen, weil sie sie im Vorfeld als Angriff auf ihr Weltbild empfinden“, sagen die Forscher.

Aber selbst wenn wir biologisch darauf programmiert sind, engstirnige Konformisten zu sein, bedeutet dies nicht, dass wir dem Untergang geweiht sind.

„Die Leute wollen sich vielleicht nicht ändern, aber wir haben die Fähigkeit, uns zu ändern, und die Tatsache, dass viele unserer Selbstverteidigungswahnvorstellungen und blinden Flecken in die Arbeitsweise unseres Gehirns eingebaut sind, ist keine Entschuldigung, den Versuch aufzugeben, sich zu ändern. Das Gehirn zwingt uns auch dazu, viel Zucker zu essen, aber schließlich haben die meisten von uns gelernt, Gemüse mit Appetit zu essen, nicht nur Kuchen. Ist das Gehirn so konstruiert, dass wir einen Wutausbruch bekommen, wenn wir angegriffen werden? Toll, aber die meisten von uns haben gelernt, bis zehn zu zählen und dann Alternativen zu der einfachen Entscheidung zu finden, sich mit dem Klub auf den anderen zu stürzen."

- aus dem Buch von Carol Tevris und Elliot Aronson "Die Fehler, die gemacht wurden (aber nicht von mir)"

Das Internet ermöglichte uns den Zugriff auf riesige Mengen an Informationen - erlaubte uns aber gleichzeitig, diese Informationen herauszufiltern, damit sie unseren Standpunkt bestätigen. Soziale Medien haben Menschen auf der ganzen Welt verbunden - aber gleichzeitig Filterblasen geschaffen, die uns diskret von Meinungen abschotten, die wir nicht akzeptieren.

Anstatt Argumente umzudrehen und unsere Meinungen hartnäckig zu verteidigen, ist es besser zu verstehen, wie wir zu dieser oder jener Schlussfolgerung gekommen sind. Vielleicht sollten wir alle lernen, Dialoge nach der sokratischen Methode zu führen. Die Aufgabe des sokratischen Dialogs besteht nicht darin, im Streit zu gewinnen, sondern über die Verlässlichkeit der Methoden zu reflektieren, mit denen wir unser Wirklichkeitsbild erstellen.

Es ist unwahrscheinlich, dass die von Psychologen gefundenen kognitiven Fehler nur auf Stanford-Studenten zutreffen. Wir sind alle irrational, und dafür gibt es einige Gründe. Wir bemühen uns, kognitive Dissonanzen zu vermeiden, zeigen Bestätigungsverzerrungen, leugnen unsere eigenen Fehler, sind jedoch sehr kritisch gegenüber den Fehlern anderer. In Zeiten von „alternativen Fakten“und Informationskriegen ist es sehr wichtig, sich daran zu erinnern

Vielleicht kann die Wahrheit in einem Dialog herausgefunden werden, aber zuerst müssen Sie in diesen Dialog eintreten. Das Wissen um die Mechanismen, die unser Denken verzerren, sollte nicht nur auf Gegner, sondern auch auf uns selbst angewendet werden. Wenn Ihnen der Gedanke kommt „aha, hier entspricht alles voll und ganz meinen Überzeugungen, also ist es wahr“, ist es besser, sich nicht zu freuen, sondern nach Informationen zu suchen, die Ihre Schlussfolgerung in Frage stellen.

Empfohlen: