Le immagini AI sui social manipolano il nostro pensiero sfruttando le emozioni (anche quando sappiamo che sono finte)

Quando l’intelligenza artificiale parla alle emozioni e spegne il dubbio

 

Scorrono nel feed mentre aspettiamo il caffè o prima di dormire. Immagini generate dall’intelligenza artificiale che raccontano storie semplici e potenti: un anziano commosso, un bambino solo, un passato idealizzato. Non sono realistiche al cento per cento, eppure funzionano.

Secondo uno studio pubblicato su Computers in Human Behavior, il motivo non è tecnologico ma psicologico. Il ricercatore Márk Miskolczi della Corvinus University of Budapest ha analizzato il fenomeno partendo dal quotidiano, non dai deepfake clamorosi, ma dal clickbait emotivo che popola Facebook ogni giorno.

Emozioni prima della logica

Lo studio mostra che il cervello smette di verificare quando si emoziona. Mani con troppe dita o volti innaturali passano inosservati se l’immagine racconta una storia che ci tocca. Non perché siamo ingenui, ma perché siamo programmati per reagire alle narrazioni emotive.

Le pagine che diffondono questi contenuti fanno spesso parte di content farm, fabbriche di immagini create in serie per generare interazioni. Like, commenti e condivisioni diventano moneta. Miskolczi ha analizzato 146 immagini certamente artificiali e oltre 9.000 commenti di utenti reali.

Nostalgia e compassione, le leve più forti

Le immagini più efficaci parlano di fragilità, solitudine e passato idealizzato. Coppie insieme da una vita, bambini tristi, scene rurali che evocano tempi migliori. Contenuti che confermano ciò in cui già crediamo. È il bias di conferma: se qualcosa rispecchia i nostri valori, la accettiamo più facilmente. A questo si aggiunge l’ancoraggio emotivo. La prima emozione provata diventa il filtro attraverso cui valutiamo tutto il resto. Se la didascalia ci rattrista, la verifica passa in secondo piano.

Un altro elemento chiave è la folla. Like e commenti creano fiducia. Se migliaia di persone partecipano, il contenuto sembra autentico. Alcuni commenti sono generati da bot, ma chi arriva dopo vede solo una comunità coinvolta e si unisce. Lo studio smentisce anche un luogo comune: non sono solo anziani o persone poco istruite a cadere nella trappola. La vulnerabilità è emotiva, non culturale. Stanchezza, fretta e bisogno di connessione colpiscono tutti.

Leggi anche: Foto modificate dall’IA di finti prodotti difettosi alimentano una massiccia frode sui rimborsi

Il rischio più serio è la sfiducia totale

Il vero pericolo, avverte il ricercatore, non è l’inganno singolo ma l’effetto cumulativo. Se tutto può essere falso, si rischia di dubitare anche del vero. La soluzione non è diventare cinici, ma rallentare e chiederci perché un’immagine ci colpisce così tanto. Il paradosso è chiaro: l’AI ci manipola non perché siamo deboli, ma perché siamo profondamente umani. E capire questo è il primo passo per non farci usare.

Share