Fonte: Pexels
L’utilizzo dell’Intelligenza Artificiale per la creazione di contenuti è ormai di uso comune, al punto che sul web spesso è difficile distinguere tra un testo o un’immagine prodotti dalla creatività umana o piuttosto dagli algoritmi.
Quando ci si trova di fronte ad un contenuto spesso si presenta il dubbio che si tratti di una produzione artificiale non corrispondente alla realtà. Le difficoltà aumentano anche nel settore commerciale, dove gli utenti si confrontano con recensioni di prodotti non autentiche o servizi clienti in cui si interagisce con chatbot.
Per valutare il livello di fiducia delle persone nei confronti dell’IA, negli Stati Uniti è stata condotta una ricerca, commissionata da World.org, da cui è emerso che i cittadini faticano sempre di più a distinguere online ciò che è reale da ciò che è artificiale.
L’inquietudine non riguarda solo la veridicità dell’informazione, ma anche le implicazioni economiche, sociali e psicologiche di un ambiente digitale in cui la realtà è spesso ambigua o manipolata.
Il sondaggio condotto da Talker Research è stato effettuato su 2.000 adulti statunitensi. In base ai dati, la fiducia degli americani nei confronti dei contenuti online è in forte declino. In media, gli intervistati ritengono che solo il 41% di ciò che si legge online sia accurato e generato da esseri umani. Il restante è percepito come completamente falso (23%) o parzialmente inaffidabile (36%).
Il 78% degli intervistati afferma che è sempre più difficile distinguere tra contenuti reali e quelli generati dall’intelligenza artificiale. Questa incertezza si estende a vari ambiti: quasi la metà sospetta che i post sui social media siano generati dall’IA, un terzo dubita dell’autenticità degli articoli di notizie e molti non sono sicuri dell’origine dei contenuti nei chatbot di assistenza clienti.
La mancanza di fiducia ha conseguenze finanziarie tangibili. Il 46% degli intervistati ha effettuato acquisti insoddisfacenti a causa di informazioni fuorvianti, e il 24% non è riuscito a ottenere rimborsi. Inoltre, solo il 31% si sente sicuro nel distinguere tra recensioni scritte da umani e quelle generate dall’IA, con solo il 30% che riesce a identificare correttamente l’origine delle recensioni aziendali.
La stragrande maggioranza degli intervistati (82%) sostiene l’implementazione di leggi che obblighino le aziende a dichiarare l’uso dell’IA nei loro servizi. Strumenti come World ID sono proposti come soluzioni per verificare l’identità umana online, al fine di combattere la disinformazione e ricostruire la fiducia nelle interazioni digitali.
Le situazioni più stressanti per gli utenti riguardano l’assistenza clienti e le transazioni finanziarie, dove è difficile determinare se si stia interagendo con un essere umano o con un’IA. Questa incertezza contribuisce a un aumento dello stress e dell’ansia tra gli utenti.
Leggi anche Arriva l’intelligenza artificiale che legge nel pensiero
Per cercare di barcamenarsi, le persone adottano dei metodi di verifica, come fare domande aperte, chiedendo opinioni o esperienze personali, o chiedendo una telefonata o videochiamata per parlare con un operatore.
Share