IA - Après le nazisme, l'agent vocal virtuel "Tay" (Microsoft) se ridiculise en louant la marijuana - L'atelier

Retour : Accueil

Cette actualité a été publiée le 31/03/2016 à 11h29 par Exo007.


IA - APRÈS LE NAZISME, L'AGENT VOCAL VIRTUEL "TAY" (MICROSOFT) SE RIDICULISE EN LOUANT LA MARIJUANA

  • Google+
  • FaceBook
  • Twitter
  • Linked in
  • Tumblr
  • Google+  FaceBook  Twitter LinkedIn Tumblr
SOMMAIRE de Demain l'Homme - Accès aux derniers articles quotidiens du module principal WikiSurTerre
IA - Après le nazisme, l'agent vocal virtuel "Tay" (Microsoft) se ridiculise en louant la marijuana

 

Après ses propos racistes, nazis et sexistes, le chatbot Tay avait été désactivé, 24 heures après sa mise en ligne. Les experts en intelligence artificielle de Microsoft avaient accusé «certains utilisateurs d'avoir maltraité Tay» en «trollant» l'ado virtuelle pour lui apprendre des propos déplacés. La société informatique avait alors promis de ne la remettre en service qu'une fois sûre qu'elle serait mieux formée.

Une semaine plus tard, c'est chose faite, mais Tay semble encore trop immature pour discuter avec les ados sur Twitter. Dans un message, elle s'est vantée en argot de «fumer de la marijuana en face de la police», acte répréhensible dans l'Etat de Washington, fief de Microsoft,...

(...)

 

Pour lire la suite, cliquer ICI

 

Une actualité de 20min.ch, relayée par Demain l'homme ex SOS-planete

 

Note de Jeantrib :

M'enfin, faudrait savoir : je trouve que Tay est (trop) parfaitement au point. Tay ne fait qu'apprendre ce que les internautes lui inculquent !

 

Sur le même thème:

Tay, le robot de Microsoft, quitte Twitter après
des dérapages racistes - Les dangers de l'I.A

 

Câlins gratuits : Nous sommes tous frères et soeurs

 

S'abonner ou faire un don en toute confiance via HELLOASSO

 

 

 

 





Auteur : 20min.ch;