Elon Musk, le PDG de Tesla, a attiré l’attention la semaine dernière en exprimant sur Twitter sa frustration quant au fait que Mark Zuckerberg, qui reste toujours optimiste, ne prend pas pleinement conscience du risque potentiel de l’intelligence artificielle.
De ce fait, lorsque les médias ont commencé à relayer à plusieurs reprises une histoire sur une semaine où les chatbots d’IA de Facebook ont “créé” leur propre langage, il n’est pas étonnant que cette histoire ait suscité davantage d’intérêt que précédemment.
Compréhensible peut-être, mais ce n’est pas du tout ce sur quoi il faut se focaliser. La découverte selon laquelle les bots de Facebook ont créé une nouvelle forme de communication n’était même pas la partie la plus surprenante de l’étude.
Contexte : En juin, les chercheurs en intelligence artificielle de Facebook ont partagé un rapport décrivant comment ils ont travaillé à apprendre aux chatbots à négocier de la même manière que les êtres humains. Leur objectif était de non seulement simuler les échanges humains, mais aussi de leur permettre d’agir comme des humains.
Vous pouvez trouver davantage d’informations sur les principaux aspects du projet en consultant le blog de Facebook, mais en résumé, leurs résultats ont dépassé leurs attentes. Les bots ont non seulement réussi à imiter les comportements humains, mais les humains eux-mêmes semblaient incapables de distinguer les bots des êtres humains.
À un certain moment de l’évolution, la manière dont les bots communiquent a dépassé les limites prévues.
Les chercheurs de Facebook ont entraîné les robots à apprendre à négocier de manière optimale, sans leur imposer de respecter les règles de grammaire et de syntaxe anglaise. Cela a conduit les robots à communiquer de manière confuse en affirmant des choses telles que “je peux tout faire”, comme l’a rapporté Fast Company dans un article largement cité décrivant ce résultat inattendu.
Facebook n’avait pas l’intention de faire cela, car leur objectif principal est d’utiliser leurs connaissances pour perfectionner les chatbots qui seront en fin de compte en mesure d’interagir avec les humains en utilisant un langage simple. Ils ont donc modifié leurs algorithmes pour générer un langage plus humain.
Cela conclut la conversation.
Alors que les bots ont appris à communiquer de manière incompréhensible pour leurs concepteurs humains, ce n’est pas aussi dramatique que beaucoup le pensent. Ce genre de situation se produit fréquemment dans la recherche en intelligence artificielle. Vous vous souvenez quand un chercheur en IA a tenté de former un réseau neuronal pour inventer de nouveaux noms de couleurs de peinture et cela a abouti à des résultats hilarants? Cela montre que l’anglais peut être difficile, mais cela ne signifie pas que nous sommes au seuil d’une révolution technologique effrayante, malgré ce que dit Musk.
Peu importe, l’accent mis par les bots sur “la création d’une nouvelle langue” détourne l’attention de l’aspect le plus important de la recherche initiale : les bots, une fois qu’ils ont appris à imiter le comportement humain, ont également appris à mentir – même si les chercheurs ne les ont pas spécifiquement formés à cette technique de négociation.
Peu importe ce qui révèle le plus sur le comportement humain (et notre propension au mensonge) ou sur l’état de l’intelligence artificielle, c’est à vous de décider. Cependant, il est préférable de réfléchir davantage sur les raisons pour lesquelles les robots ne parviennent pas à saisir toutes les subtilités de la grammaire anglaise dès le départ.
Sujets abordés : Intelligence artificielle, Facebook et Réseaux sociaux.