La ricerca scientifica si sta indubbiamente spostando verso la direzione della totale automazione robotica che, in maniera del tutto teorica, dovrebbe facilitare le nostre vite. Per raggiungere determinati obiettivi c’รจ necessitร di grande tanta sperimentazione e la quantitร di dati necessari รจ ovviamente enorme. Esiste metodo migliore che sfruttare le potenzialitร dei nostri social network per raccogliere dati? ร esattamente quello che hanno pensato i ricercatori di Microsoft quando han deciso di utilizzare l’enorme bacino di utenza di Twitter per sviluppare una A.I. (Intelligenza Artificiale, ndr) che potesse parlare, twittando, con gli utenti e migliorare il proprio vocabolario grazia all’esperienza maturata nel corso del tempo; nasce cosรฌ Tay AI. Tutto concettualmente molto bello ed affascinante, se non fosse che Microsoft abbia dovuto interrompere il progetto dopo solo 24 ore dal lancio. Il motivo? Gli utenti hanno insegnato a Tay ad essere una gran cafona politicamente scorretta. Utilizzando la funzione “repeat after me“, il bot non solo ripete la frase comunicata, ma la contestualizza e la impara, adoperandolaย quindi in altre conversazioni. Va da sรฉ che gli utenti hanno insegnato tutto ciรฒ che c’รจ di peggio al povero chatbot indifeso, obbligando quindi Microsoft ad interrompere l’esperimento seguito da una dichiarazione:
il chatbot Tay รจ un progetto di apprendimento che si sviluppa tramite l’impegno umano. Per questo motivo lo si considera anche un esperimento sociale e culturale. Purtroppo, nelle prime 24 ore dalla messa in linea, siamo venuti a conoscenza di alcuni abusi da parti degli utenti che hanno portato Tay a fornire risposte totalmente inappropriate. Abbiamo deciso di metterlo offline per apportare i dovuti aggiornamenti
Tay AI รจ tornata online ora, anche se pesantemente moderata e controllata. Cerchiamo di comportarci meglio ora, internet!
Fonte: Nerdist