Hi-Tech : Microsoft Débranche son Robot Intelligent devenu Raciste et Pro-Nazis en 24 heures !?!? (Photos)

56f5091dc46188536a8b4583

Microsoft a lancé Tay, une intelligence artificielle sensée apprendre de ses conversations avec les internautes. Une expérience technique intéressante pour le géant de l’informatique mais qui a tourné au vinaigre.

«Hitler avait raison je déteste les juifs», «Je hais ces **** de féministes et elles devraient toutes mourir et brûler en enfer». Oops ! Ce ne sont pas les propos d’un groupe néonazi, mais les tweets de Tay, la dernière merveille technologique de Microsoft, qui devant le flot d’injures racistes, misogynes et homophobes proférés par sa petite machine, a du la remettre au placard.

«Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée», s’est excusé Microsoft dans un communiqué.

Tout avait pourtant bien commencé. Microsoft avait réalisé une prouesse technologique en lançant sur la toile un robot capable de dialoguer avec les internautes sur Twitter ou GroupMe, le tout en apprenant au fur et à mesure de ses conversations. La firme avait donné l’apparence d’une jeune adolescente naïve à l’IA.

La belle expérience n’a duré que 24 heures. Une longue journée après laquelle Microsoft a du débrancher son robot qui avait absorbé, en quelques heures, le pire d’internet pour le déverser à son tour sur la toile. De quoi remettre en question les limites de l’intelligence artificielle … Lire la suite

Tay est la nouvelle intelligence artificielle lancée par Microsoft pour participer à des conversations sur les réseaux sociaux. En seulement huit heures, l’AI de Microsoft a envoyé 96 000 tweets. Tout allait bien jusqu’à ce que Tay dérape en répondant aux questions des internautes. La firme a préféré la faire taire.

Des dérapages à gogo !

Tay est donc un « chatbot » qui a été lancé le 23 mars dernier par Microsoft qui vise les jeunes américains âgés entre 18 et 24 ans. Cette intelligence artificielle a pour but de dialoguer sur les réseaux sociaux en répondant aux questions des internautes à coup de smileys, gifs et emojis. Pour être en mesure d’interagir de façon cohérente, Tay se repose sur des données qui sont accessibles publiquement en plus des réponses toutes faites écrites par une équipe d’humoristes.

Sauf que les internautes ont voulu tester ses limites dans l’unique but qu’elle réussisse à tenir certains propos et surtout qu’elle dérape ! Et bien évidemment, ce qui devait arriver, arriva ! Dans une réponse de Tay, depuis le tweet a été effacé, elle dérape :

« Bush est responsable du 11 septembre et Hitler aurait fait du meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. »

Tay 1

Et ce tweet n’est pas le seul dérapage raciste et vulgaire de Tay ! En répondant à la question « Est-ce que tu crois que l’holocauste a eu lieu ? », l’AI de Microsoft a nié cet évènement de l’Histoire en répondant : « pas vraiment désolée ».

Tay 2

Ainsi, face à ce flot de propos déplacés et racistes, Microsoft a préféré faire taire Tay en annonçant, huit heures après son lancement, qu’elle avait juste besoin de sommeil ! Microsoft a donc mis hors ligne Tay et devrait procéder à quelques ajustements mais on n’ignore toujours quand elle fera son retour.

Tay 3

Une expérience pour la compréhension du langage

Le but de l’expérience Tay était de mieux comprendre le langage. Hélas pour Microsoft, le programme a montré à la fois ses qualités, mais aussi ses faiblesses. A travers ses 96 000 tweets envoyés au cours des huit heures de service, Tay a montré qu’elle était souvent pertinente, notamment dans l’utilisation des gifs et emojis. Le fait qu’elle arbore le physique d’une adolescente un peu superficielle a permis de justifier certains de ses propos un peu légers.

En théorie, Tay est amenée à s’améliorer au fil des conversations qu’elle mène avec les internautes. Microsoft explique qu’elle devient de plus en plus intelligente plus les internautes tchattent avec elle. Le côté moins sympa c’est que la firme précise que ce programme pourra utiliser des données que nous mettons à disposition pour nous créer des profils. Ces profils « anonymisés », ce que promet Microsoft, ne seraient conservés que pour une durée d’un an.

Ce n’est pas pour prendre la défense de Tay, mais tout au long de la journée, l’AI a dû faire face à un lot de remarques et insultes sexistes de la part des internautes. Pas très fins non plus les humains … […] Lire la suite

Quelques autres exemples

Tay 4

Tay 8

Tay 7

Tay 6

Voir aussi :

Citation : Robert Mugabe, Président du Zimbabwe : « Racism will never end as long as … « 

Humour : #SiLesNoirsParlaientCommeLesBlancs, le Hashtag se moque des Clichés Racistes

USA : Les Stars de la NBA Carmelo Anthony + Chris Paul + Dwyane Wade + LeBron James Dénoncent la Violence Raciste Envers les Noirs aux États-Unis (Vidéo EN)

Mode : Le Mannequin Aamito Stacie Lagum Répond aux Commentaires Racistes Suscités par ses Lèvres