Intelligence artificielle : Tay, jeu d'humains, jeu de vilains - L'atelier

Accueil

Cette actualité a été publiée le 11/04/2016 à 22h31 par Exo007.

SOMMAIRE de Demain l'Homme - Accès aux derniers articles quotidiens du module principal WikiSurTerre
Intelligence artificielle : Tay, jeu d'humains, jeu de vilains

 

(...)

 

En tant qu'intelligence artificielle, Tay réutilise le contenu des dialogues avec ses interlocuteurs pour nourrir ses prochaines conversations en fonction des sujets abordés. Le poids de la statistique est ici double : plus les internautes relaient les mêmes idées, plus Tay a de chances d'y adhérer, mais aussi de les évoquer dans ses échanges avec eux, allant jusqu'à adopter leur style et leur langage (politiquement) incorrects.

Il n'en fallait pas davantage pour que cette intelligence artificielle finisse par délivrer des messages vulgaires, racistes, misogynes, négationnistes, insultants... et ne conduise Microsoft à mettre fin à l'expérience en désactivant Tay moins de 24 heures plus tard.

(...)

Jouer le jeu

Pourtant, le reproche fait au comportement des adolescents qui n'auraient pas joué le jeu que leur proposait Microsoft n'est pas fondé. En effet, l'entreprise américaine a décidé unilatéralement des règles tout en imposant aux joueurs d'éduquer l'intelligence artificielle. Or, il ne peut y avoir jeu que si quelque latitude – que traduit exactement le mot jeu, en tant que distance nécessaire au fonctionnement de deux engrenages – permet au joueur d'y trouver sa récompense : un enjeu ou simplement son plaisir.

(...)

 

Pour lire la totalité, cliquer ICI

 

Une actualité de Boris Solinski, publiée par theconversation.com
et relayée par Demain l'homme ex SOS-planete

 

Sur le même sujet:

Intelligence Artificielle : Comment vivre
avec les robots ? (Reportage vidéo)

L'IA de Microsoft refait un passage éclair
sur Twitter et se revendique fumeuse de joints

Tay, le robot de Microsoft, quitte Twitter après
des dérapages racistes - Les dangers de l'I.A.

IA - Après le nazisme, l'agent vocal virtuel "Tay"
(Microsoft) se ridiculise en louant la marijuana

Tay : le bad trip du chatbot de Microsoft

 

S'abonner ou faire un don en toute confiance via HELLOASSO

 

Président, écoute la voix des jeunes dans la rue,
pour ne pas être -comme toi-même- bientôt à la rue

 

 

 

 

 

 

 

Auteur : Boris Solinski; theconversation.com

  • Lire les commentaires
  • Modifier cette actualité
  • Contacter Exo007
  • Recommander cette actualité
  • Imprimer cette actualité
  • FaceBook
  • Twitter
  • Linked in
  • Tumblr
  • FaceBook   Twitter
  • LinkedIn  Tumblr