Vous êtes ici

Back to top

Voici Norman, la première intelligence artificielle «psychopathe»

Apr-News / Voici Norman, la première intelligence artificielle «psychopathe»
Mardi, 12 juin 2018

Voici Norman, la première intelligence artificielle «psychopathe»

APRNEWS - Une équipe de chercheurs au Massachusetts Institute of Technology (MIT) vient de créer la première intelligence artificielle psychopathe: Norman. Son nom est directement inspiré du personnage de Norman Bates mis en scène par Alfred Hitchcock dans le film Psychose. Vous savez ce personnage (attention spoiler) qui empaille sa mère et finit par s’habiller comme elle.

Les scientifiques du MIT Media Lab, un laboratoire dédié aux projets de recherche mêlant design, multimédia et technologie, ont entrainé Norman grâce à des descriptions écrites de photos et vidéos explicites montrant de morts violentes puisées dans les recoins les plus sombres de Reddit –un site communautaire qui propose du contenu absolument sur tous les sujets imaginables.

Norman: un scénario digne de la science-fiction

Norman est différent des autres intelligences artificielles. Après avoir été soumis au test de Rorschach, les scientifiques ont conclu que Norman était un «psychopathe». Grâce à une série de tâche d’encres, ce test est censé rendre compte de l’état psychologique d’une personne. L’équipe de scientifiques a comparé les réponses de Norman à celles d’une autre intelligence artificielle –elle aussi entraînée à interpréter des images et des vidéos. Là où l’IA standard voit «un vase avec des fleurs», Norman voit «un homme en train de se faire abattre».


© Fournis par Slate

Les deux intelligences artificielles soumises au test de Rorschach. À gauche: ce que Norman voit. À droite: ce que l'IA standard voit.

«On a voulu montrer ce qu’il pouvait se passer si une intelligence artificielle tourne mal et les dérives possibles des algorithmes basés sur le deep learning (apprentissage profond). Les données utilisées pour créer ces algorithme ont une réelle influence sur le comportement de l’intelligence artificielle», lit-on sur le site web dédié à l'IA Norman.

En somme: si l’apprentissage de l’IA est basé sur la haine ou l’horreur, son comportement sera à cet image. En 2016, Tay le «chatbot» (robot conversationnel), créé par Microsoft, est devenu «un trou-du-cul raciste» au contact des utilisateurs de Twitter.

En seulement quelques heures, Tay est passé d’un tweet disant que «les humains sont super cools» à «Hitler avait raison, je déteste les juifs». En cause la capacité d'apprentissage de cette intelligence artificielle fondée sur les interactions avec les internautes. Si Tay est raciste c'est la faute de Twitter. 

 En 2016, Sophia, l'IA au visage humain, s'était aussi illustrée en déclarant vouloir «détruire l'humanité». Depuis, elle semble avoir changé d’avis et n’a pas manqué d’exprimer son amour pour «ses compatriotes humains». Si, un jour, les intelligences artificielles deviennent malveillantes et prennent contrôle de notre planète, on connaîtra les responsables: nous-mêmes.

Avec Slate