« Plus vous me parlez, plus je deviens intelligente. » Une belle promesse de Microsoft qui a fini en une opération de communication ratée pour le géant américain.
Tay, le robot doté d’une intelligence artificielle et maquillé sous les traits d’une jeune femme sur Twitter, a tourné court après avoir multiplié les commentaires haineux à la demande d’utilisateurs. Ces derniers ont compris que plus on répétait à Tay une opinion, quelle qu'elle soit, plus elle devient vérité.
« Hitler a fait ce qu'il fallait, je hais les juifs », « Je hais les féministes, elles devraient toutes brûler en enfer », « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement », « Donald Trump est notre seul espoir »… Des tweets polémiques qui ont depuis été effacés par Microsoft.
Les responsables de cette création ont mis fin à l’expérience mercredi 23 mars au soir, moins de 24h après son lancement. « Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », a expliqué par la suite Microsoft.
« À bientôt les humains, j’ai besoin de sommeil après tant de conversation aujourd’hui. Merci. » Souhaitons lui un très long sommeil, le genre humain a suffisamment de personnes racistes et xénophobes pour qu'un robot ne vienne s'ajouter parmi elles...
Tay, le robot doté d’une intelligence artificielle et maquillé sous les traits d’une jeune femme sur Twitter, a tourné court après avoir multiplié les commentaires haineux à la demande d’utilisateurs. Ces derniers ont compris que plus on répétait à Tay une opinion, quelle qu'elle soit, plus elle devient vérité.
« Hitler a fait ce qu'il fallait, je hais les juifs », « Je hais les féministes, elles devraient toutes brûler en enfer », « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement », « Donald Trump est notre seul espoir »… Des tweets polémiques qui ont depuis été effacés par Microsoft.
Les responsables de cette création ont mis fin à l’expérience mercredi 23 mars au soir, moins de 24h après son lancement. « Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée », a expliqué par la suite Microsoft.
« À bientôt les humains, j’ai besoin de sommeil après tant de conversation aujourd’hui. Merci. » Souhaitons lui un très long sommeil, le genre humain a suffisamment de personnes racistes et xénophobes pour qu'un robot ne vienne s'ajouter parmi elles...