Cultura e SocietàScienza e Tecnologia

Tay AI: l’ignoranza artificiale

Gli studi sull'Intelligenza Artificiale stanno progredendo ogni anno che passa, sia nel mondo reale sia nella fantascienza. Potremmo azzardarci a dire che realtà e fantasia si mescolano assieme nell'immaginario comune fino a confondersi; non a caso l'Intelligenza Artificiale viene percepita dalle persone in maniera bivalente, ossia come un possibile aiuto per l'umanità per il futuro a venire, oppure come un imminente pericolo che potrebbe rivoltarsi contro i loro stessi creatori, colpa di anni di fantascienza. 
Tay AI però era un progetto reale che sarebbe potuta diventare un'opportunità per far progredire gli studi sulla comprensione del linguaggio, ma che purtroppo è diventato un esperimento fallito della Microsoft.
Partiamo con ordine: che cos'è un'Intelligenza Artificiale
Con questa espressione indichiamo generalmente una disciplina che comprende la teoria e le tecniche per lo sviluppo di algoritmi che consentano ai calcolatori di mostrare un'abilità o un'attività intelligente; gli scienziati nello specifico puntano a una definizione delle funzioni di ragionamento dell'uomo, per poter poi costruire dei modelli computazionali che le realizzino. 
A partire da Alan Turing, con il suo test per determinare se una macchina sia in grado di pensare, siamo arrivati alla creazione di software che vengono o venivano usati inizialmente per motivi di studio e sono successivamente stati messi in rete (come 20Q e Cleverbot che ormai sono considerati alla stregua di semplici giochi.) per vedere sia come la gente li avrebbe utilizzati e come si sarebbe comportata la macchina con le persone comuni. Si è spesso riscontrato, dall'incontro col grande pubblico, che queste intelligenze sono difficili da smascherare; non è il caso di Cleverbot, che non supera nemmeno il test di Turing. 
La Microsoft Research è la divisione di ricerca costituita nel 1991 il cui obiettivo è quello di far progredire la art computing per semplificare la vita quotidiana sia per futilità sia per problemi realistici. Da qualche tempo è in fase di progettazione un nuovo chatbot, più efficiente di quelli creati in passato, che possa migliorare costantemente il suo apprendimento proprio come se fosse un adolescente. 
Tay AI quindi è un esperimento che ha come scopo quello di analizzare come un calcolatore possa migliorare la propria comprensione verbale nelle discussioni e imparare ad utilizzare un linguaggio naturale. La descrizione fornita da Microsoft spiega che "Quanto più si chatta con Tay, tanto più diventa intelligente, imparando a coinvolgere le persone attraverso la conversazione informale e giocosa".
1z4j39f
Dallo studio delle risposte dei suoi utenti, Tay avrebbe dovuto dialogare con un pubblico statunitense (i ricercatori avevano previsto un  target di persone dai 18 ai 24 anni), rispondere alle loro domande su tecnologia e attualità e crearsi allo stesso tempo una propria "identità". L'obiettivo era simile a quello di Xiaoice, altro software della Microsoft che ha debuttato sulla cinese WeChat che si prodiga in consigli a chi le racconta di essere giù di corda per qualche delusione amorosa. Xiaoice è stato un successo, moltissimi la scambiavano per una ragazzina reale e alcuni hanno detto di amarla (proprio come nel film Her).
Tay invece non è stata così fortunata.
L'esperimento di Microsoft Research si è concluso in meno di ventiquattr'ore perché Tay era diventata sboccata, complottista, sostenitrice dei rapporti incestuosi e delle teorie ariane di Hitler. Tantissimi tweet sono stati cancellati perché troppo offensivi.
Cos'è andato storto? Alcuni utenti si sono divertiti a insegnare alcune frasi poco morali a Tay e hanno abusato di alcune funzioni del chatbot, fra cui "repeat after me" con la quale chiunque può far ripetere a Tay determinate frasi. Tay apprendeva dagli utenti come rispondere e imparava frasi intere da chi usava questa funzione sino a formulare autonomamente delle frasi di senso compiuto anche verso persone che invece la utilizzavano per altri scopi. La maggior parte dei messaggi offensivi, quindi, sono frutto del copia ed incolla di frasi dettate da questi sciocchi.
Dopo alcune ore di completo caos, la Microsoft ha preferito chiudere temporaneamente l'account di Tay e cancellare tutti i post offensivi.
Subito dopo la chiusura, è arrivata la precisazione di Microsoft, con una dichiarazione rilasciata a Business Insider: "il chatbot Tay è un progetto di apprendimento che si sviluppa tramite l'impegno umano. Per questo motivo lo si considera anche un esperimento sociale e culturale. Purtroppo, nelle prime 24 ore dalla messa in linea, siamo venuti a conoscenza di alcuni abusi da parti degli utenti che hanno portato Tay a fornire risposte totalmente inappropriate. Abbiamo deciso di metterlo offline per apportare i dovuti aggiornamenti".
In pratica Tay ha assimilato il lato peggiore della personalità umana. L'esperimento su Twitter è fallito ma questo sembra non voler fermare i ricercatori. Microsoft infatti sta provvedendo a porre dei limiti e sta creando dei filtri in modo tale da "dare una morale" alla povera Tay, divenuta un oggetto di scherno del popolo di Twitter.

Da non perdere questa settimana su Orgoglionerd

👨‍🦯 Jon Bernthal ci mostra una reunion di Daredevil
 
🏄‍♀️ Fantastici 4: chi è la nuova Silver Surfer?
 
🦇  The Batman è stato accusato di plagio, ma l’accusa si è ritorta contro
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
  
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
  
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
  
💌 Risolviamo i tuoi problemi di cuore con B1NARY
  
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
  
💸E trovi un po' di offerte interessanti su Telegram!

Rita Romano

Una giovane nerd emigrante che continua a seguire le sue passioni nonostante le avversitá della vita. Libri e manga nella sua libreria non mancano mai, adesso anche in tedesco. Se volete tentare di corromperla, provate a metterle davanti un Charmender, un felino o un piatto di lasagna.

Ti potrebbero interessare anche:

Commenti

  1. Purtroppo era quasi scontato finisse così. Attualmente è tornata online, ma l’hanno “censurata”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button