Die Psychologie deckt Zusammenhänge mit Psychopathie und geringeren kognitiven Fähigkeiten auf

By | January 27, 2024

In den letzten Tagen rückte das Thema Deepfakes in den Mittelpunkt des öffentlichen Bewusstseins, was durch den beunruhigenden Fall um den weltberühmten Popstar Taylor Swift deutlich wurde. Künstliche Intelligenz (KI) wurde eingesetzt, um äußerst überzeugende, aber völlig falsche explizite Bilder von Swift zu erstellen, was große Besorgnis und Debatte hervorrief.

Deepfakes, eine Kombination aus „Deep Learning“ und „Fake“, sind hochentwickelte synthetische Medien, bei denen eine Person in einem vorhandenen Bild oder Video mithilfe fortschrittlicher KI-Technologien durch das Bild einer anderen Person ersetzt wird. Obwohl diese Technologien beeindruckende Anwendungsmöglichkeiten haben, werfen sie auch erhebliche ethische und datenschutzrechtliche Bedenken auf, insbesondere wenn sie zur Erstellung expliziter Inhalte ohne die Zustimmung der abgebildeten Personen verwendet werden.

Der Vorfall mit Taylor Swift

Die Verbreitung gefälschter pornografischer Bilder von Taylor Swift auf Social-Media-Plattformen, darunter ein Bild, das mehr als 47 Millionen Nutzer auf X (früher bekannt als Twitter) gesehen haben, hat Diskussionen über die Rechtmäßigkeit und Ethik solcher Inhalte neu entfacht. Trotz der Bemühungen der Plattformen, diese Bilder zu entfernen und die Verantwortlichen zu bestrafen, bleiben die Auswirkungen erheblich und weitreichend.

Dieser Vorfall hat in den Vereinigten Staaten zu parteiübergreifenden Forderungen nach strengeren Bundesgesetzen gegen Deepfake-Pornografie geführt und dabei den tiefgreifenden emotionalen, finanziellen und Reputationsschaden hervorgehoben, den sie insbesondere bei Frauen verursachen kann.

Der vom demokratischen Kongressabgeordneten Joseph Morelle vorgeschlagene Intimate Image Deepfake Prevention Act zielt darauf ab, die Weitergabe nicht einvernehmlicher Deepfake-Pornografie zu kriminalisieren. In ähnlicher Weise betonte der republikanische Kongressabgeordnete Tom Kean Jr. in diesem Zusammenhang die Notwendigkeit von Schutzmaßnahmen gegen die schnelle Weiterentwicklung der KI-Technologie und plädierte für ein AI Labeling Act, das eine klare Kennzeichnung aller KI-generierten Inhalte vorschreibt.

Es ist nicht neu, Frauen ins Visier zu nehmen, um nicht einvernehmliche pornografische Deepfakes zu erstellen, aber mit den Fortschritten in der KI hat es immer mehr Verbreitung gefunden. Eine Studie von DeepTrace Labs aus dem Jahr 2019 ergab, dass 96 % der Deepfake-Videoinhalte ohne Einwilligung pornografisches Material waren.

Die Psychologie von Deepfakes

Die Psychologie hinter dem Erstellen und Teilen von Deepfakes ist ein komplexes Thema. Die Forschung in diesem Bereich befindet sich noch in einem frühen Stadium und untersucht die Merkmale von Personen, die sich an solchen Verhaltensweisen beteiligen, sowie unsere Fähigkeit, sie zu erkennen.

Wer erstellt und teilt Deepfakes?

Zwei aktuelle Studien haben Licht auf die psychologischen und kognitiven Profile von Personen geworfen, die Deepfakes erstellen und teilen, und Einblicke in ihre Motivationen und Anfälligkeiten gegeben.

Die Rolle der Psychopathie

Eine in der Zeitschrift veröffentlichte Studie Computer im menschlichen Verhalten Wir beleuchten die psychologischen Merkmale, die mit der Erstellung und Weitergabe von Deepfake-Pornografie verbunden sind. Die Ergebnisse deuten auf einen besorgniserregenden Zusammenhang zwischen psychopathischen Merkmalen und der Wahrscheinlichkeit hin, sich an solchen Aktivitäten zu beteiligen.

Als wichtiger Prädiktor erwies sich in diesem Zusammenhang die Psychopathie, die durch mangelnde Empathie und Reue, Impulsivität und asoziales Verhalten gekennzeichnet ist. Es wurde festgestellt, dass Personen, die auf Psychopathieskalen höhere Werte erzielen, eher dazu neigen, Deepfakes zu erstellen. Diese Tendenz steht im Einklang mit der allgemeinen Missachtung des Wohlergehens anderer und dem manipulativen und risikofreudigen Verhalten, das häufig mit Psychopathie einhergeht.

Die Studie ergab auch, dass Personen mit höheren Psychopathiewerten eher den Opfern die Schuld geben und die Erstellung von Deepfakes als weniger schädlich empfinden. Dieses verminderte Gefühl von Schaden und Verantwortung weist auf einen gefährlichen Rationalisierungsprozess hin, der die Verbreitung solcher Inhalte befeuern könnte.

„Persönlichkeitsmerkmale, die mit der Unterstützung von abweichendem Online-Verhalten und Sexualstraftaten im weiteren Sinne, zum Beispiel Psychopathie, verbunden sind, prognostizierten mildere Urteile über Straftaten sowie eine größere Neigung, Bilder zu erstellen und zu teilen – was darauf hindeutet, dass wir durch weitere Forschung möglicherweise bessere Ergebnisse erzielen können.“ „Prognostizieren Sie die Menschen, die sich am wahrscheinlichsten auf ein solches Verhalten einlassen, und greifen Sie entsprechend ein“, erklärte der Hauptautor der Studie, Dean Fido, gegenüber PsyPost im Jahr 2022.

Geschlecht und Berühmtheitsstatus in der Wahrnehmung des Opfers

Die Untersuchung verdeutlichte außerdem, dass die Wahrnehmung von Deepfake-Vorfällen je nach Geschlecht und Berühmtheitsstatus des Opfers variiert. Vorfälle mit weiblichen Opfern wurden als schädlicher und krimineller angesehen als Vorfälle mit männlichen Opfern. Darüber hinaus gab es einen bemerkenswerten Unterschied in der Art und Weise, wie Männer und Frauen diese Vorfälle wahrnahmen, wobei Männer die Deepfakes von Prominenten seltener als schädlich ansahen im Vergleich zu solchen, an denen Nicht-Prominente beteiligt waren.

Kognitive Fähigkeiten und Deepfake-Sharing

Erweiterung des psychologischen Profils, eine weitere Studie in Heliyon untersucht den Einfluss kognitiver Fähigkeiten auf die Anfälligkeit für und das Teilen von Deepfakes. Die Ergebnisse deuten darauf hin, dass Personen mit höheren kognitiven Fähigkeiten, die sich durch bessere Informationsverarbeitungs- und Entscheidungsfähigkeiten auszeichnen, weniger wahrscheinlich betrogen werden oder Deepfakes weitergeben.

Personen mit höheren kognitiven Fähigkeiten neigen dazu, Informationen kritischer zu analysieren, wodurch sie weniger anfällig für den Glauben an die Echtheit von Deepfakes sind. Diese erhöhte Skepsis führe auch zu einer geringeren Wahrscheinlichkeit, Deepfakes zu teilen, zeigte die Studie und verwies auf die schützende Rolle kognitiver Fähigkeiten vor Manipulation durch solche fortschrittlichen KI-Technologien.

Deepfake-Erkennungsfunktion

Drei aktuelle Studien haben erhebliche Fortschritte beim Verständnis gemacht, wie Menschen mit Deepfake-Technologie interagieren und diese wahrnehmen.

Die unterbewusste Gesichtserkennung der KI

Eine Studie veröffentlicht in Visionssuche fanden heraus, dass die Teilnehmer zwar Schwierigkeiten hatten, echte Gesichter verbal von hyperrealistischen KI-generierten Gesichtern zu unterscheiden, ihre Gehirnaktivität jedoch in 54 % der Fälle in der Lage war, KI-generierte Gesichter korrekt zu identifizieren, was die verbale Identifizierungsgenauigkeit von 37 % deutlich übertraf. Dies deutet auf eine tiefere unbewusste Ebene hin, auf der unser Gehirn die Authentizität von Bildern verarbeitet und erkennt.

„Mithilfe von Verhaltens- und Neuroimaging-Methoden haben wir herausgefunden, dass es möglich war, gefälschte, von der KI erzeugte Bilder anhand der EEG-Aktivität mit nur einem kurzen Blick zuverlässig zu erkennen, auch wenn Beobachter nicht bewusst berichten konnten, dass sie Unterschiede sahen“, schlussfolgerten die Forscher. „Angesichts der Tatsache, dass Beobachter bereits Schwierigkeiten haben, zwischen falschen und echten Gesichtern zu unterscheiden, ist es ein unmittelbares und praktisches Anliegen, die wichtigen Möglichkeiten, wie das Gehirn die beiden unterscheiden kann, weiter zu untersuchen.“

Hyperrealismus in KI-Gesichtern

Die zweite Studie, detailliert in Psychologische Wissenschaft und unter der Leitung von Amy Dawel von der Australian National University untersuchte das Phänomen des „Hyperrealismus“ in KI-generierten Gesichtern. Diese Forschung untersuchte, warum KI-Gesichter oft menschlicher aussehen als echte menschliche Gesichter.

Mithilfe psychologischer Theorien wie der Face-Space-Theorie untersuchte die Studie, wie KI-generierte Gesichter durchschnittliche menschliche Merkmale stärker verkörpern können als echte Gesichter. Interessanterweise stellte die Studie eine Tendenz zum Hyperrealismus bei KI-generierten weißen Gesichtern fest, die durchweg als menschlicher wahrgenommen wurden als echte weiße menschliche Gesichter.

Das Paradox der Selbstüberschätzung

Dieser Hyperrealismus-Effekt wurde durch ein übermäßiges Selbstvertrauen bei Teilnehmern, die bei der Erkennung von KI-Gesichtern weniger genau waren, noch unterstrichen, was auf ein komplexes Zusammenspiel zwischen Wahrnehmung, Voreingenommenheit und Vertrauen bei der Identifizierung von KI-generierten Inhalten hinweist.

„Wir hatten gehofft, dass die Leute erkennen würden, dass sie bei der KI-Erkennung nicht sehr gut sind, wenn man bedenkt, wie realistisch die Gesichter geworden sind. Wir waren sehr überrascht, dass die Leute übermütig waren“, sagte Dawel letztes Jahr gegenüber PsyPost. „Menschen sind nicht sehr gut darin, KI-Betrüger zu erkennen – und wenn Sie glauben, dass sie es sind, bedeuten die Änderungen, dass Sie mehr Fehler machen als die meisten anderen.“ Unsere Studie hat gezeigt, dass selbstbewusstere Menschen mehr Fehler bei der Erkennung von KI-generierten Gesichtern machten.“

Ein Zusammenhang mit Verschwörungsmentalität und der Nutzung sozialer Medien

Die dritte Studie von Telematik und IT, fanden heraus, dass Personen, die auf einer Verschwörungsskala eine höhere Punktzahl erzielten und mehr Zeit in sozialen Medien verbrachten, Deepfake-Videos besser identifizieren konnten. Dies deutet darauf hin, dass eine neugierigere Denkweise und der regelmäßige Kontakt mit unterschiedlichen Medieninhalten die Fähigkeit verbessern könnten, Deepfakes zu erkennen.

„Die in sozialen Medien verbrachte Zeit und der Glaube an Verschwörungstheorien korrelieren positiv mit der Leistung bei der Deepfake-Erkennung“, sagte der Hauptautor der Studie, Ewout Nas, gegenüber PsyPost. „Im Allgemeinen werden Deepfake-Videos realistischer und schwerer zu erkennen. Man kann nicht mehr automatisch alles glauben, was man in Videos sieht.“

Leave a Reply

Your email address will not be published. Required fields are marked *