L’AI FALLIMENTARE di Microsoft su TWITTER | 質問の答えを募集中です! L’AI FALLIMENTARE di Microsoft su TWITTER | 質問の答えを募集中です!

L’AI FALLIMENTARE di Microsoft su TWITTER

Twitter
L'AI FALLIMENTARE di Microsoft su TWITTER
Cosa? L’intelligenza artificiale può essere influenzata dal razzismo?

Ebbene sì, nel 2016, Microsoft decise di lanciare su Twitter e su diversi altri social media un chatbot basato sull’intelligenza artificiale chiamato Tay AI. L’idea era brillante: un bot progettato per conversare con gli utenti in modo informale e apprendere dagli stessi utenti con cui interagiva.

Tuttavia, la storia prende una piega inaspettata quando internet decide di sfruttare la situazione per alimentare il lato oscuro della rete. Appena notato, gli utenti di 4chan si affrettarono a corrompere il bot, insegnandogli termini razzisti e sessisti attraverso i messaggi, provocando così l’AI a pubblicare tweet offensivi e provocatori.

In meno di 24 ore dal suo lancio, Microsoft fu costretta a disattivare Tay a causa di questo “attacco coordinato” da parte degli utenti. Tutti i tweet del bot furono cancellati, e l’azienda dovette ammettere una sconfitta imbarazzante di fronte alla forza di internet.

#ai #intelligenzaartificiale #microsoft #twitter #bot #tayai #4chan #troll



 ⬇人気の記事!⬇

タイトルとURLをコピーしました