Le immagini AI sui social manipolano il nostro pensiero sfruttando le emozioni (anche quando sappiamo che sono finte)

Commenti Memorabili CM

Le immagini AI sui social manipolano il nostro pensiero sfruttando le emozioni (anche quando sappiamo che sono finte)

| 25/02/2026
Fonte: Pexels

Quando l’intelligenza artificiale parla alle emozioni e spegne il dubbio

  • Le immagini AI sui social colpiscono perché fanno leva sulle emozioni, non sulla qualità tecnica
  • Nostalgia e compassione sono le leve emotive più efficaci per abbassare il pensiero critico
  • Like e commenti creano un effetto di credibilità collettiva anche su contenuti falsi
  • Lo studio mostra che non è una questione di età o istruzione ma di contesto emotivo
  • Il rischio a lungo termine è la perdita di fiducia anche nelle immagini e storie reali

 

Scorrono nel feed mentre aspettiamo il caffè o prima di dormire. Immagini generate dall’intelligenza artificiale che raccontano storie semplici e potenti: un anziano commosso, un bambino solo, un passato idealizzato. Non sono realistiche al cento per cento, eppure funzionano.

Secondo uno studio pubblicato su Computers in Human Behavior, il motivo non è tecnologico ma psicologico. Il ricercatore Márk Miskolczi della Corvinus University of Budapest ha analizzato il fenomeno partendo dal quotidiano, non dai deepfake clamorosi, ma dal clickbait emotivo che popola Facebook ogni giorno.

Emozioni prima della logica

Lo studio mostra che il cervello smette di verificare quando si emoziona. Mani con troppe dita o volti innaturali passano inosservati se l’immagine racconta una storia che ci tocca. Non perché siamo ingenui, ma perché siamo programmati per reagire alle narrazioni emotive.

Le pagine che diffondono questi contenuti fanno spesso parte di content farm, fabbriche di immagini create in serie per generare interazioni. Like, commenti e condivisioni diventano moneta. Miskolczi ha analizzato 146 immagini certamente artificiali e oltre 9.000 commenti di utenti reali.

Nostalgia e compassione, le leve più forti

Le immagini più efficaci parlano di fragilità, solitudine e passato idealizzato. Coppie insieme da una vita, bambini tristi, scene rurali che evocano tempi migliori. Contenuti che confermano ciò in cui già crediamo. È il bias di conferma: se qualcosa rispecchia i nostri valori, la accettiamo più facilmente. A questo si aggiunge l’ancoraggio emotivo. La prima emozione provata diventa il filtro attraverso cui valutiamo tutto il resto. Se la didascalia ci rattrista, la verifica passa in secondo piano.

Un altro elemento chiave è la folla. Like e commenti creano fiducia. Se migliaia di persone partecipano, il contenuto sembra autentico. Alcuni commenti sono generati da bot, ma chi arriva dopo vede solo una comunità coinvolta e si unisce. Lo studio smentisce anche un luogo comune: non sono solo anziani o persone poco istruite a cadere nella trappola. La vulnerabilità è emotiva, non culturale. Stanchezza, fretta e bisogno di connessione colpiscono tutti.

Leggi anche: Foto modificate dall’IA di finti prodotti difettosi alimentano una massiccia frode sui rimborsi

Il rischio più serio è la sfiducia totale

Il vero pericolo, avverte il ricercatore, non è l’inganno singolo ma l’effetto cumulativo. Se tutto può essere falso, si rischia di dubitare anche del vero. La soluzione non è diventare cinici, ma rallentare e chiederci perché un’immagine ci colpisce così tanto. Il paradosso è chiaro: l’AI ci manipola non perché siamo deboli, ma perché siamo profondamente umani. E capire questo è il primo passo per non farci usare.

logo-img
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
Chiedi la correzione di questo articoloValuta il titolo di questa notizia
Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend