Scienziati creano un’Intelligenza Artificiale psicopatica alimentandola con i contenuti oscuri di Reddit

Commenti Memorabili CM

Scienziati creano un’Intelligenza Artificiale psicopatica alimentandola con i contenuti oscuri di Reddit

| 13/08/2023
Fonte: Twitter

Norman è la prima intelligenza artificiale psicopatica al mondo

  • Gli scienziati hanno utilizzato immagini provenienti dagli “angoli più oscuri di Reddit
  • Grazie ad esse sono riusciti a creare la prima intelligenza artificiale psicopatica al mondo
  • Chiamata Norman, è stata addestrata utilizzando didascalie di immagini provenienti da un noto gruppo di utenti di Reddit che scambiavano immagini di morte e mutilazioni
  • Nel test di Rorschach ha visto solo esecuzioni e incidenti d’auto
  • Ciò significa che gli psichiatri l’avrebbero diagnosticata come psicopatica

 

Gli scienziati hanno utilizzato immagini provenienti dagli “angoli più oscuri di Reddit” per creare la prima intelligenza artificiale psicopatica al mondo. Chiamata “Norman” in onore del personaggio Norman Bates del film Psycho di Alfred Hitchcock, un serial killer, è stata “addestrata” con una “dieta” a base di didascalie di immagini provenienti da un noto gruppo di utenti di Reddit che scambiavano immagini di morte e mutilazioni. Il risultato è stato un’intelligenza artificiale che gli psichiatri avrebbero diagnosticato come psicopatica. Dopo il periodo di addestramento, a “Norman” sono state mostrate immagini casuali di macchie d’inchiostro, il test di Rorschach standard utilizzato per identificare i disturbi mentali.

Mentre un’intelligenza artificiale con un addestramento neutro ha interpretato le immagini casuali come oggetti quotidiani, come ombrelli o torte nuziali, Norman ha visto solo esecuzioni e incidenti d’auto. Insomma, come il suo omonimo Norman Bates di Hitchcock, non ha una visione ottimistica del mondo. Gli scienziati del MIT Pinar Yanardag, Manuel Cebrian e Iyad Rahwan hanno dichiarato che i loro risultati dimostrano che nei casi fin troppo frequenti di IA che mostrano pregiudizi, la colpa non è necessariamente del computer. “Spesso il colpevole non è l’algoritmo in sé, ma i dati distorti che gli sono stati forniti” hanno spiegato.

I sistemi di intelligenza artificiale possano facilmente essere colpevoli di pregiudizi razziali

Con l’aumento del controllo dell’intelligenza artificiale sulla nostra vita quotidiana, ci si chiede sempre più spesso come vengano addestrati questi sistemi. Ebbene, nell’agosto di quest’anno, gli scienziati hanno istruito sperimentalmente dei robot a scansionare gruppi di foto con i volti delle persone, per poi scegliere quello “criminale”. Il sistema non avrebbe dovuto produrre alcun risultato, perché non aveva abbastanza dati su cui basarsi, ma in un’inquietante maggioranza di casi le macchine hanno individuato il volto di un uomo di colore.

Leggi anche: Intelligenza Artificiale fornisce una risposta inquietante durante un dibattito sull’etica

Lo studio condotto dai ricercatori della Johns Hopkins University e del Georgia Institute of Technology ha dunque mostrato come i sistemi di intelligenza artificiale possano facilmente essere colpevoli di pregiudizi razziali e di altro tipo. E spesso questi pregiudizi possono diventare “incorporati” nella tecnologia. Zac Stewart Rogers, professore della Colorado State University, ha dichiarato: “Con la codifica, molte volte si costruisce il nuovo software sopra quello vecchio. Quindi, quando si arriva al punto in cui i robot fanno di più… e sono costruiti su radici difettose, si può certamente incorrere in problemi”. L’intelligenza artificiale sta arrivando in ogni angolo della nostra vita, che ci piaccia o no. L’unica domanda è quale bagaglio porterà con sé al suo arrivo.

Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend