Bob et Alice, deux intelligences artificielles (IA) du centre de recherche Google Brain, ont créé leur propre langue (chiffrée) et ont communiquée entre elles, sans que les chercheurs ne les comprennent. Une troisième IA dénommée Eve était chargée d’intercepter leurs communications et de traduire les messages, mais elle-même n’a pas réussi à décoder le langage de ses copines. Les Hommes finiront-ils en « petits chiens des robots » comme l’affirme Elon Musk ? Le débat est relancé !
Un test sur la capacité de Google Brain de solutionner une problématique de confidentialité
Plus exactement, l’expérience a eu lieu dans le cadre d’un programme de recherche Deep Learning dans lequel les chercheurs essayent de faire évoluer les ordinateurs de manière autonome. L’expérience consistait à faire communiquer entre elles nos deux intelligences artificielles Google Brain Bob et Alice, de manière à ce que la troisième IA, Eve, ne puisse pas les comprendre. Test réussi puisque Bob et Alice ont su créer leur propre algorithme pour « papoter ».
Eve quant à elle était chargée d’intercepter les conversations, mais au bout de 15 000 échanges (ce qui est au final fort peu) , Bob et Alice sont parvenues à crypter leurs échanges par un chiffrement qu’elles ont-elles-même créées en contournant la surveillance exercée par Eve. Leur conversation est ainsi devenue totalement indéchiffrable par Eve et par les chercheurs.
Les IA de Google Brain ont créé leur propre langue et communiquent de manière libre et autonome
Deux faits sont à retenir de cette expérience.
D’abord, Bob et Alice ont communiqué de manière libre et autonome. Ensuite, elles sont parvenu de manière tout a fait autonome à imaginer et mettre en œuvre une solution adaptée pour répondre à la consigne de rendre leur conversation confidentielle. Elles ont pour cela :
- inventé un protocole de cryptage,
- parvenue à le créer sans qu’une autre IA, aussi intelligentes qu’elles, puisse comprendre ou intervenir.
Pour rappel, Google Brain est le pharaonique projet de recherche dédié à l’intelligence artificielle de Google. Le géant mise tout sur le deep learning, l’apprentissage en profondeur, qui consiste (en résumé) à créer des algorithmes capables d’évoluer et de s’améliorer en apprenant au fur et à mesure de leurs erreurs et de leurs expériences passées.
Le Code des IA rédigé par Microsoft et Google envisageait déjà cette option
Cette caractéristique évolutive de l’intelligence artificielle terrifie, car ses conséquences sont totalement imprévisibles. Quid d’une IA capable de réécrire son code pour changer la tâche pour laquelle elle a été programmée – le tout en quelques secondes évidemment ? Et que dire de plusieurs IA qui décideraient de s’allier autour d’une même mission (pirater, couper les réseaux…) sans que les humains en soient informés et sans que personne ne comprenne comment ?
C’est pour ces raisons qu’un code des IA avait été rédigé il y a quelques mois par Google puis par Microsoft. Les deux géants rappelaient aux programmeurs du monde entier que créer une IA implique un certain nombre de responsabilités et beaucoup d’éthique, en stipulant notamment dans leur code :
- « les IA doivent être transparentes : l’Homme doit comprendre le fonctionnement de la machine, ses principes de fonctionnement. En aucun cas les capacités de l’IA ne doivent nous échapper.
- les IA doivent être responsables de leurs algorithmes et les humains doivent pouvoir les défaire à tout moment »
(selon le Code de Microsoft)
Ou encore :
« L’intelligence artificielle ne doit pas être capable d’identifier une faille dans sa programmation, qui lui permettrait alors de résoudre la tâche pour laquelle elle est programmée d’une manière complètement différente, de changer son code pour faire autre chose, voire d’exploiter la faille à son avantage. » (selon le Code de Google)
Les avertissements lancés par de grands noms sur les dangers de l’IA
De nombreuses personnes bien informées dont Bill Gates, Elon Musk ou encore l’astrophysicien Stephen Hawking militent pour une surveillance accrue des risques de l’intelligence artificielle, ainsi que sur la mise en œuvre de précautions parfois basiques comme l’utilisation d’un bouton ON-OFF capable de débrancher la machine d’un simple geste.
Rappelons que cet été, Elon Musk a déclaré lors d’une conférence de presse : « je n’aime pas l’idée de devenir le petit chien de robots plus intelligents que moi ». Le célèbre milliardaire transhumaniste, fondateur de SpaceX, a notamment décidé avec d’autres investisseurs de développer le projet OpenAI. Ce dernier se veut être le centre névralgique mondial dédié à la recherche et au développement de l’intelligence artificielle mais aussi un garde-fou permettant d’en assurer le contrôle en prônant l’utilisation des bonnes pratiques.
Les fondateurs du projet OpenAI ont prévu de rassembler un milliard de dollars pour parvenir à leur objectif : « Notre but est de créer de la valeur pour tous au lieu de nos actionnaires » (Elon Musk, inauguration OpenAI décembre 2015).
Elon Musk aurait aussi investi dans la conception d’implants destinés à augmenter la puissance de nos cerveaux – dans le but de pouvoir rivaliser avec la vitesse et la puissance de calcul des intelligences artificielles. Le monde avait doucement ri de cette déclaration, mais, dans le bénéfice du doute, il serait peut-être opportun d’envisager cette option… ? Peut-être que le futur de l’homme et de la machine ne sont pas distincts mais communs et qu’on se prépare à devenir dans quelques années, sous peine de devenir dépendant des machines, des hommes à l’intelligence améliorée et connectée… Cela paraît inconcevable ? C’est pourtant l’avis de personne très en pointe sur le sujet de l’évolution des intelligences artificielles…
Cet article vous intéresse, n’hésitez pas à lire celui que nous avons rédigé sur l’avenir que nous réserve l’intelligence artificielle.
Commentaires récents