L’illusione della conoscenza nell’era dei grandi modelli linguistici
- L’epistemia è l’illusione di sapere generata da risposte dell’AI che suonano plausibili ma non sono verificate
- I grandi modelli linguistici producono testi credibili senza controllare se ciò che dicono è vero
- Uno studio su Pnas ha analizzato come sei LLM valutano l’affidabilità delle fonti rispetto a umani ed esperti
- Il problema non è solo l’errore ma il modo in cui il giudizio viene costruito e presentato come solido
- La soluzione indicata dai ricercatori è conoscere meglio l’AI e rafforzare lo spirito critico umano
Nel mondo antico si parlava di episteme come della conoscenza autentica, quella che nasce da prove e ragionamenti. Oggi invece prende piede la epistemia, una forma di sapere apparente costruita da testi che sembrano impeccabili ma non sono verificati. I grandi modelli linguistici sono progettati per creare frasi che suonano bene, non per controllare se sono vere. Quando deleghiamo loro giudizi, classificazioni o valutazioni senza poi controllarle, trasformiamo una risposta elegante in una verità che non ha mai superato un esame dei fatti.
Questo meccanismo ricorda il confronto tra Socrate e i sofisti. Gorgia sosteneva che tutto potesse essere reso persuasivo anche senza una realtà solida dietro. L’AI fa qualcosa di simile, perché può comunicare tutto senza conoscerlo, producendo testi convincenti che funzionano come retorica più che come conoscenza.
Lo studio e come i modelli giudicano le fonti
Un recente lavoro pubblicato su Pnas e guidato da Walter Quattrociocchi dell’Università La Sapienza ha analizzato come sei modelli, tra cui ChatGPT, Gemini e Llama, costruiscono il concetto di affidabilità. I ricercatori hanno confrontato le valutazioni dei modelli con quelle di esseri umani ed esperti come NewsGuard e Mbfc, usando gli stessi criteri e gli stessi contenuti. L’obiettivo non era vedere chi avesse ragione, ma come viene formato il giudizio.
Qui emerge il cuore dell’epistemia: un risultato può sembrare solido perché è scritto bene, anche se il processo che lo ha prodotto è puramente probabilistico. Questo porta a una impressione di conoscenza che regge finché nessuno la mette alla prova.
Leggi anche: Usi ChatGPT per scrivere? Ecco cosa succede a memoria e creatività
Come non farsi ipnotizzare dalle risposte dell’AI
I ricercatori non si fermano alla diagnosi e indicano una via d’uscita. Usare l’AI richiede di conoscere gli strumenti, i loro meccanismi e i loro limiti, oltre alle materie su cui li interroghiamo. In pratica bisogna saper verificare, non solo chiedere. Fake news, deepfake ed epistemia non si combattono con etichette, ma con spirito critico e formazione continua. L’AI può amplificare la nostra competenza o la nostra superficialità. La differenza la fa quanto siamo disposti a controllare ciò che, sulla carta, sembra già perfetto.

La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://www.wired.it/article/epistemia-illusione-conoscenza-chatbot/
- https://www.tecnicadellascuola.it/intelligenza-artificiale-studenti-attenzione-ci-stiamo-ammalando-tutti-di-epistemia-e-non-lo-sappiamo-ancora-ecco-di-cosa-si-tratta
- https://www.quotidiano.net/tech/chatbot-e-illusione-di-onniscenza-ci-stiamo-ammalando-di-epistemia-crediamo-di-capire-piu-di-quanto-sappiamo-c6x17z5q
developed by Digitrend