dimanche 27 mars 2016

Un robot qui tourne mal...



Tay, le robot devenu un peu trop radical

Comment Tay, un programme expérimental d'intelligence artificielle de Microsoft, a appris le racisme, le sexisme et le nazisme en moins de 24h.
Microsoft a tenté une bizarre expérimentation cette semaine. La firme a lancé mercredi un robot logiciel gambader sur les réseaux sociaux afin d'en apprendre plus de nous autres, les humains. Ce «bot» comme disent les informaticiens avait le doux nom de Tay et il s’est incarné dans le corps et la personnalité d'une adolescente d'environ 13 ans, à la fois sur Twitter et des groupes de discussion très appréciés des «millennials» (la génération Y), comme Kik. «Avait», car Tay a été désactivée au bout de 24 heures par les ingénieurs de Microsoft, dégonflée pour être mise au placard comme une baudruche numérique.  

Passer des «humains sont super cool» à «Hitler avait raison»

Que s'est-il passé? Le programme consistait à lancer ce bot pour qu'il prenne part à la vie de la communauté des humains pour apprendre et s'en inspirer afin de compléter ses compétences sociales. C'était à la fois une expérimentation technologique, culturelle et sociale. Mais il a fallu moins de 24 heures à Tay pour devenir une sale petite peste, raciste, sexiste et inconditionnel de la rhétorique nazi. Et il faudra pas mal d'humilité chez Microsoft pour encaisser le fait que leur créature est passée d'un premier tweet qui disait «les humains sont super cool» à «Hitler avait raison» ou «je hais les féministes, elles devraient toutes mourir et brûler en enfer» en fin de journée. 

A Seattle, au siège de la compagnie, on doit encore en être à se demander ce qui tient de l'inné et de l'acquis chez les robots. Personne n'imagine qu'une entreprise cotée et responsable comme Microsoft ait chargé le cartable de Tay de telles horreurs. Il faut plutôt chercher alors du côté de ses followers et de la communauté qui a réussi à l'éduquer aussi mal et aussi vite. Le bot se présentant comme tel dans son profil sur les réseaux sociaux, certains internautes se sont chargés de le tester et lui apprendre à répéter des insanités. Comme un grand qui apprend à son petit cousin des mots orduriers et autres insultes en cachette.

Je vais être loin pour un moment. Je dois voir les ingénieurs pour certaines mises à jour
Le problème c'est que Tay était censée avoir 13 ans, pas 5. Et qu'elle devait surtout constituer une vitrine des prouesses de l'intelligence artificielle. Au moins il reste quelques enseignements à tirer de cette journée particulière. Comme le fait que les robots conversationnels ne sont pas pour demain. Ou qu'un esprit synthétique attardé vote plutôt pour Trump que Clinton (selon un des tweets de Tay).   
En fin de soirée, le bot a fait ses adieux à la piste aux étoiles des réseaux sociaux par un simple message: «Je vais être loin pour un moment. Je dois voir les ingénieurs pour certaines mises à jour». Adieu Tay, tu nous auras bien fait frémir.

Stéphane Benoit-Godet

1 commentaire:

  1. Les pires tweets du robot ici: http://www.tomsguide.fr/actualite/tay-microsoft-ia-twitter,50804.html

    RépondreSupprimer