Microsoft met fin à l’expérience Tay

1
microsoft tay

En 24 heures, le bot Tay, intelligence artificielle de Microsoft pour Twitter, est devenu raciste, nazi et misogyne. Une drôle d’expérience.

C’est une expérience de laquelle Microsoft devrait tirer des leçons pour le futur. Tay était un robot, une intelligence artificielle, conçu par Microsoft et dédié à Twitter. Tay devait apprendre au contact des twittos du monde entier et cela a été le cas.

Mais l’apprentissage a été un peu spécial, car, en moins de 24 heures, Tay est devenu raciste, nazi et misogyne.

Débranché

La faute n’est pas entièrement due à Microsoft, mais elle est aussi imputable aux twittos qui se sont « amusés » avec l’intelligence artificielle.

En effet, les twittos ont trollé l’intelligence artificielle en exploitant, selon Peter Lee, vice-président du labo Microsoft Research, une faille du programme. Mais Peter Lee ne donne pas de détail sur cette vulnérabilité qui a entraîné le robot Tay à tenir des propos très déplacés. L’une des pistes est l’utilisation plus qu’abusive de la fonction « répète après moi » par des membres du forum 4Chan.

La solution de Microsoft a été de désactiver le bot et de l’annoncer par un tweet.

Le robot reviendra sûrement après une mise à jour du programme.

Noter cet article

1 commentaire

  1. c’est quand même bizarre comme on peut manipuler une AI et lu faire dire des choses horribles sans qu’il n’y ait aucune intention propre derrière. un peu une manipulation des cerveaux qui sévit sur la tweetosphère et autres réseaux sociaux au final. aujourd’hui pour se faire sa propre idée il faut reproduire celles des autres.
    vive le libre arbitre et l’esprit critique.

Laisser un commentaire

Please enter your comment!
Please enter your name here