Ci stiamo ammalando di epistemia per colpa dell’IA: quando le risposte perfette ci fanno credere di sapere

Commenti Memorabili CM

Ci stiamo ammalando di epistemia per colpa dell’IA: quando le risposte perfette ci fanno credere di sapere

| 01/02/2026
Fonte: Pexels

L’illusione della conoscenza nell’era dei grandi modelli linguistici

  • L’epistemia è l’illusione di sapere generata da risposte dell’AI che suonano plausibili ma non sono verificate
  • I grandi modelli linguistici producono testi credibili senza controllare se ciò che dicono è vero
  • Uno studio su Pnas ha analizzato come sei LLM valutano l’affidabilità delle fonti rispetto a umani ed esperti
  • Il problema non è solo l’errore ma il modo in cui il giudizio viene costruito e presentato come solido
  • La soluzione indicata dai ricercatori è conoscere meglio l’AI e rafforzare lo spirito critico umano

 

Nel mondo antico si parlava di episteme come della conoscenza autentica, quella che nasce da prove e ragionamenti. Oggi invece prende piede la epistemia, una forma di sapere apparente costruita da testi che sembrano impeccabili ma non sono verificati. I grandi modelli linguistici sono progettati per creare frasi che suonano bene, non per controllare se sono vere. Quando deleghiamo loro giudizi, classificazioni o valutazioni senza poi controllarle, trasformiamo una risposta elegante in una verità che non ha mai superato un esame dei fatti.

Questo meccanismo ricorda il confronto tra Socrate e i sofisti. Gorgia sosteneva che tutto potesse essere reso persuasivo anche senza una realtà solida dietro. L’AI fa qualcosa di simile, perché può comunicare tutto senza conoscerlo, producendo testi convincenti che funzionano come retorica più che come conoscenza.

Lo studio e come i modelli giudicano le fonti

Un recente lavoro pubblicato su Pnas e guidato da Walter Quattrociocchi dell’Università La Sapienza ha analizzato come sei modelli, tra cui ChatGPT, Gemini e Llama, costruiscono il concetto di affidabilità. I ricercatori hanno confrontato le valutazioni dei modelli con quelle di esseri umani ed esperti come NewsGuard e Mbfc, usando gli stessi criteri e gli stessi contenuti. L’obiettivo non era vedere chi avesse ragione, ma come viene formato il giudizio.

Qui emerge il cuore dell’epistemia: un risultato può sembrare solido perché è scritto bene, anche se il processo che lo ha prodotto è puramente probabilistico. Questo porta a una impressione di conoscenza che regge finché nessuno la mette alla prova.

Leggi anche: Usi ChatGPT per scrivere? Ecco cosa succede a memoria e creatività

Come non farsi ipnotizzare dalle risposte dell’AI

I ricercatori non si fermano alla diagnosi e indicano una via d’uscita. Usare l’AI richiede di conoscere gli strumenti, i loro meccanismi e i loro limiti, oltre alle materie su cui li interroghiamo. In pratica bisogna saper verificare, non solo chiedere. Fake news, deepfake ed epistemia non si combattono con etichette, ma con spirito critico e formazione continua. L’AI può amplificare la nostra competenza o la nostra superficialità. La differenza la fa quanto siamo disposti a controllare ciò che, sulla carta, sembra già perfetto.

Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend