A peine lancé, le « robot intelligent » de Microsoft sur Twitter devient raciste et révisionniste avant d’être débranché d’urgence

Microsoft a lancé « Tay », une « intelligence artificielle » s’exprimant sur tweeter et sensée apprendre de ses conversations avec les internautes.
« Une expérience technique intéressante pour le géant de l’informatique mais qui a tourné au vinaigre. » Le Monde – englué dans la novlangue – titre même bêtement qu’il « dérape » !

Que s’est-il passé ?
S’adaptant au profil de ses interlocuteurs et répétant parfois leurs propos, il est vrai que Tay n’a pas fait grand cas du politiquement correct.

« Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », s’est excusé Microsoft dans un communiqué.

Au menu, parmi les 96 000 tweets envoyés par le robot en 8h, on trouve par exemple :

« Hitler avait raison je déteste les juifs »
« Je hais ces **** de féministes et elles devraient toutes mourir et brûler en enfer »
et à un internaute qui lui demandait « Est-ce que tu crois que l’holocauste a eu lieu ? »
– « pas vraiment désolée ».