Ad Hominem Info

Irrtümer und Trugschlüsse en gros und en detail

Benutzer-Werkzeuge

Webseiten-Werkzeuge


denkfehler:abstraktionsfehler:vermenschlichung

Vermenschlichung

Bezeichnet einen Denkfehler, bei dem unbelebten Objekten, Pflanzen oder Tieren menschliche Eigenschaften oder Attribute zugeschrieben werden.

Hinweis: die Abgrenzung zur Hypostasierung kann manchmal schwierig sein: grundsätzlich geht es bei dieser darum, abstrakte Konzepte zu ver­dinglichen, während es hier darum geht, Objekten und anderen Lebens­formen menschliche Eigenschaften zuzusprechen. Wenn es aber z.B. darum geht, dass abstrakten Begriffen menschliche Eigenschaften zu­ge­schrieben werden, können sich die Begriffe überschneiden.

Erklärung

Die Vermenschlichung von Dingen, Phänomenen und abstrakten Konzepten ist ein Effekt der Anthropo­morph­ismus genannten kognitiven Verzerrung, die jeder Mensch (wenn auch in unterschiedlichem Maße) begeht.

Problematisch wird ein anthropo­morphischer Transfer dann, wenn versucht wird, das Verhalten von nicht-menschlichen Aktoren als Äquivalente menschlichen Handelns zu verstehen.

Eine Vermenschlichung von Pflanzen und unbelebten Gegenständen (z.B. Steinen) ist zwar auch möglich, hier ist der zugrunde liegende Irrtum jedoch leicht ersichtlich und macht höchstens im Kontext von Mythologie oder Religion einen Sinn.

Der Vollständigkeit halber sei auch der Glücksspieler erwähnt, der nach einer längeren Folge für ihn un­vorteil­hafter Ergebnisse davon ausgeht, dass der Würfel oder der Roulette-Tisch ihm „böses“ wollte…

Anders verhält es sich aber bei Tieren oder Maschinen, die durchaus zumindest äußerlich den Anschein menschlichen oder Menschen-ähnlichen Verhaltens erwecken können.

Andere Namen

Beispiele

Vermenschlichung von Tieren

Es fällt besonders leicht, Tiere und ihr Verhalten nach menschlichen Kriterien zu beurteilen, da deren Ver­haltens­weisen und die Fähigkeit zumindest äußerlich oft deutliche Ähnlichkeiten zu menschlichem Ver­halten aufweist.

Die meisten Haustierbesitzer werden zumindest manchmal das Verhalten ihrer Hunde oder Katzen nach mensch­lichen Maßstäben messen und ihnen menschenähnliche Gedanken oder Intentionen unterstellen; und es gibt auch wenig, was dagegen spricht – solange man nicht folgenreiche Entscheidungen Entscheidungen trifft, die auf einer solchen Vermenschlichung basieren.

Zum Beispiel:

Dieser Delphin zeigt ein Lächeln, das dem von Menschen, die glücklich sind, ähnelt.
Folglich ist dieser Delfin glücklich.

Tatsächlich können Delphine gar nicht anders als zu „lächeln“, da dies eben der Physiognomie des Delphin­kopfes entspricht. Ob sie wirklich glücklich (oder wenigstens zufrieden) sind, dürfte sich für uns Menschen kaum erkennen lassen.

Ob die „glücklich“ lächelnden Delphine in Delphin­shows wirklich mit ihrem Los zufrieden sind, ist kaum ein­zu­schätzen und sollte auf keinem Fall anhand von äußerlichen Ähnlichkeiten mit menschlichem Verhalten ent­schieden werden.

Das Gleiche gilt auch für negative Gefühle. Mit Sicherheit würden sich die meisten Menschen nicht wohl fühlen, würden sie, wie die o.g. Delphine, 3x täglich vor Publikum zu Kunststückchen gezwungen. Andererseits wäre für Menschen die Alternative auch nicht, in freier Wildbahn täglich selbst nach Nahrung jagen zu müssen und dauernd mit dem Risiko zu leben, in einem Fischernetz qualvoll zu verenden.

Ein anderes Beispiel, aus einem Artikel zu den Pioniertagen der Weltraumforschung:

Am 19. August 1960 flogen zwei mutige Hündinnen, Strelka und Belka an Bord der Sputnik 5 in den Weltraum.

Um den Hunden „Mut“ zuzusprechen, müsste man davon ausgehen, dass diese die Gefahren ihrer Mission wirklich verstehen konnten. Davon ist aber eher nicht auszugehen. Wahrscheinlich hatten die Hündinnen noch nicht einmal eine Wahl, an dem Experiment teilzunehmen oder nicht.

Vermenschlichung von Maschinen

Auch Maschinen werden oft menschenähnliche Eigenschaften zugeschrieben.

Grundsätzlich scheint das Phänomen umso häufiger aufzutreten, je komplexer (und damit schwieriger zu verstehen) das Verhalten bzw. das Funktionieren der Maschine ist, und je größer der Einfluss des Apparates auf unser Leben ist. Während kaum jemand auf die Idee kommen würde, etwa mit seiner Knoblauchpresse zu reden, kann genau dieses Verhalten beim Umgang, z.B. mit dem Auto oder mit Musikinstrumenten häufig beobachtet werden.

Beispiel:

Der Motor meines Autos springt nicht an.
Ich rufe dem Auto zu: „das schaffst du!“
Der Motor springt an.
Folglich ist der Motor angesprungen, weil ich ihm gut zugesprochen habe.

Springt der Motor an, nachdem man ihm zugesprochen hat, kann diese zu einer Kausalillusion führen, bei der man die beiden Ereignisse (unbewusst) miteinander verbindet (selbst wenn man sich bewusst darüber im Klaren ist, dass beides nichts miteinander zu tun hat).

Allerdings gilt, dass auch wenn gutes Zureden den Motor offensichtlich nicht wirklich schneller starten lässt, damit wahrscheinlich auch kein Schaden angerichtet wird.

Etwas anderes ist es, wenn man aufgrund einer solchen „Vermenschlichung“ Entscheidungen trifft, die der Funktion oder dem Wesen des Objektes widersprechen. Aktuell ist dies insbesondere im Bereich der sog. „künstlichen Intelligenz“ problematisch, so dass diesem Themenbereich ein eigener Abschnitt gewidmet wird:

„Künstliche Intelligenz“

Als „künstliche Intelligenz“ (kurz: KI) bezeichnet man heute verschiedene Typen von Computersystemen, die „intelligentes“ Verhalten (wie das von Menschen oder Tieren) mit den Mitteln der Informatik zu simulieren versuchen.

Aufgrund der zum Teil wirklich beeindruckenden Fortschritte, die in diesem Bereich in den vergangenen Jahren gemacht wurden – aber auch aufgrund der oft dramaturgisch überhöhten „Intelligenzleistung“ von ver­meint­lichen „KIs“ in Filmen und Video­spielen – gibt es eine Neigung dazu, diesen auch menschliche Attri­bute wie „Empfindsamkeit“, „Vernunft“ oder gar „Gefühle“ zuzusprechen.

Tatsächlich sind zumindest heutige „künstliche Intelligenzen“ nach wie vor Computerprogramme, die einen Algo­rith­mus ausführen. Von traditioneller Software unterscheiden sie sich vor allem dadurch, dass der Prozess der Programmierung durch „Training“ anhand von Beispieldaten stattfindet, was völlig neue Anwendungs­möglich­keiten erschlossen hat – aber eben kein „intelligentes Wesen“ erschafft, wie manche zu glauben scheinen.

Aus der politischen Diskussion darüber, wie wir in Zukunft mit solchen „intelligenten“ Maschinen umgehen sollen, stammt die folgende (hier etwas überspitzt formulierte) Stilblüte:

Die KI in dem autonom fahrenden Auto verhält sich ähnlich wie ein menschlicher Fahrer.
Menschliche Fahrer sind rechtlich verantwortlich für eventuelle Unfälle, die sie verursachen.
Folglich sollte eine KI auch selbst die rechtliche Verantwortung für Unfälle tragen.

In der Tat wurden KI-Systeme in selbstfahrenden Autos so programmiert, dass sie das (idealisierte) Verhalten von menschlichen Fahrern möglichst gut nachbilden (und u.a. aufgrund ihrer besseren Sensorik und schnel­lerer Reaktionen oft sogar übertreffen). Aus der Fähigkeit, auf Verkehrssituationen entsprechend der mensch­lichen Ideal­vorstellungen zu reagieren, folgt aber nicht, dass diese in der Lage wären, moralische Ent­scheid­ungen zu treffen und rechtlich für Fehl­­entscheid­ungen zur Ver­ant­wortung gezogen werden könnten (wie das passieren sollte, wäre ohnehin noch einmal eine andere Frage) – es scheint eher so, als versuchten die Hersteller auf diese Weise die eigene Haftbarkeit für Fehler ihrer Systeme auszuschließen.

Falsche Emotionalität

Der englische Ausdruck „pathetic fallacy“, geprägt im 19. Jahrhundert vom britischen Kunstkritiker John Ruskin, beschreibt eine unzulässige oder übertriebene Projektion von Emotionen auf unbelebte Gegenstände in der Literatur.

Sowohl „pathetic“, als auch „fallacy“ werden beide von Ruskin hier nicht in dem Sinne gebraucht, in dem sie heute gewöhnlich verstanden werden. Der Ausdruck „falsche Emotionalität“ wird daher hier als treffendere deutsche Übersetzung vorgeschlagen.

Ruskin erläutert dies anhand des folgenden Beispieles:

They rowed her in across the rolling foam –
The cruel, crawling foam…

Nüchtern betrachtet kann der Schaum, den eine aufgewühlte See erzeugt, zwar „rollen“ und womöglich sogar „kriechen“, aber sicher nicht „grausam“ sein, denn dies impliziert eine eine Absicht, die ein unbelebtes Objekt nicht haben kann.

Nun ist ein Gedicht sicher kein Kontext, in dem eine besonders nüchterne Herangehensweise angebracht ist, und eine solche Projektion von Emotionen kann ein gutes Mittel sein, um emotionale Zustände zu vermitteln. Ruskin wendet sich daher auch explizit nur gegen eine übertriebene Verwendung solcher Projektionen, die er als ein Merkmal schlechter Schriftsteller ansieht.

Anders bei Literaturgattungen, die tatsächlich eine nüchternere Schreibweise verlangen: in einer wissenschaftlichen Abhandlung wäre ein Ausdruck wie „die grausame See“ sicher fehl am Platz. Trotzdem finden wir ähnliche Ausdrucksweisen in der gesamte Wissenschaftsgeschichte.

Am bekanntesten ist vermutlich das als „horror vacui“ bekannte Prinzip, das meist wie folgt umschrieben wird:

Die Natur verabscheut ein Vacuum.

Hierbei impliziert der Begriff „verabscheuen“ eine Fähigkeit zur Emotionen, welche „die Natur“ (die ja selbst eher ein abstraktes Konzept ist) sicher nicht mit sich bringt (siehe auch: Hypostasierung).

Siehe auch

Weitere Informationen

denkfehler/abstraktionsfehler/vermenschlichung.txt · Zuletzt geändert: 2020/09/07 12:40 von Sascha