Microsoft met fin à l’expérience Tay

En 24 heures, le bot Tay, intelligence artificielle de Microsoft pour Twitter, est devenu raciste, nazi et misogyne. Une drôle d’expérience.

C’est une expérience de laquelle Microsoft devrait tirer des leçons pour le futur. Tay était un robot, une intelligence artificielle, conçu par Microsoft et dédié à Twitter. Tay devait apprendre au contact des twittos du monde entier et cela a été le cas.

Mais l’apprentissage a été un peu spécial, car, en moins de 24 heures, Tay est devenu raciste, nazi et misogyne.

Débranché

La faute n’est pas entièrement due à Microsoft, mais elle est aussi imputable aux twittos qui se sont « amusés » avec l’intelligence artificielle.

En effet, les twittos ont trollé l’intelligence artificielle en exploitant, selon Peter Lee, vice-président du labo Microsoft Research, une faille du programme. Mais Peter Lee ne donne pas de détail sur cette vulnérabilité qui a entraîné le robot Tay à tenir des propos très déplacés. L’une des pistes est l’utilisation plus qu’abusive de la fonction « répète après moi » par des membres du forum 4Chan.

La solution de Microsoft a été de désactiver le bot et de l’annoncer par un tweet.

Le robot reviendra sûrement après une mise à jour du programme.

Articles similaires

Nintendo Switch : déjà une mise à jour 10.0.1
Fortnite pour Android enfin disponible sur le Play Store
Netflix : comment verrouiller l’écran sur Android ?
Magic Keyboard : qu’en pensent ceux qui l’ont testé ?