Tay, le robot devenu un peu trop radical
Comment
Tay, un programme expérimental d'intelligence artificielle de Microsoft, a
appris le racisme, le sexisme et le nazisme en moins de 24h.
Microsoft
a tenté une bizarre expérimentation cette semaine. La firme a lancé mercredi un
robot logiciel gambader sur les réseaux sociaux afin d'en apprendre plus de
nous autres, les humains. Ce «bot» comme disent les informaticiens avait le
doux nom de Tay et il s’est incarné dans le corps et la personnalité d'une
adolescente d'environ 13 ans, à la fois sur Twitter et des groupes de
discussion très appréciés des «millennials» (la génération Y), comme Kik.
«Avait», car Tay a été désactivée au bout de 24 heures par les ingénieurs de
Microsoft, dégonflée pour être mise au placard comme une baudruche numérique.
Passer des «humains sont super cool» à «Hitler
avait raison»
Que
s'est-il passé? Le programme consistait à lancer ce bot pour qu'il prenne
part à la vie de la communauté des humains pour apprendre et s'en inspirer afin
de compléter ses compétences sociales. C'était à la fois une expérimentation
technologique, culturelle et sociale. Mais il a fallu moins de 24 heures à Tay
pour devenir une sale petite peste, raciste, sexiste et inconditionnel de la rhétorique
nazi. Et il faudra pas mal d'humilité chez Microsoft pour encaisser le fait que
leur créature est passée d'un premier tweet qui disait «les humains
sont super cool» à «Hitler avait raison» ou «je hais les féministes, elles
devraient toutes mourir et brûler en enfer» en fin de journée.
A
Seattle, au siège de la compagnie, on doit encore en être à se demander ce qui
tient de l'inné et de l'acquis chez les robots. Personne n'imagine qu'une
entreprise cotée et responsable comme Microsoft ait chargé le cartable de Tay
de telles horreurs. Il faut plutôt chercher alors du côté de ses followers et
de la communauté qui a réussi à l'éduquer aussi mal et aussi vite. Le bot se
présentant comme tel dans son profil sur les réseaux sociaux, certains
internautes se sont chargés de le tester et lui apprendre à répéter des
insanités. Comme un grand qui apprend à son petit cousin des mots orduriers et
autres insultes en cachette.
Je vais
être loin pour un moment. Je dois voir les ingénieurs pour certaines mises à
jour
Le
problème c'est que Tay était censée avoir 13 ans, pas 5. Et qu'elle devait surtout
constituer une vitrine des prouesses de l'intelligence artificielle. Au
moins il reste quelques enseignements à tirer de cette journée particulière.
Comme le fait que les robots conversationnels ne sont pas pour demain. Ou qu'un
esprit synthétique attardé vote plutôt pour Trump que Clinton (selon un
des tweets de Tay).
En fin de
soirée, le bot a fait ses adieux à la piste aux étoiles des réseaux sociaux par
un simple message: «Je vais être loin pour un moment. Je dois voir les
ingénieurs pour certaines mises à jour». Adieu Tay, tu nous auras bien fait
frémir.
Stéphane Benoit-Godet
Les pires tweets du robot ici: http://www.tomsguide.fr/actualite/tay-microsoft-ia-twitter,50804.html
RépondreSupprimer