Il faudra bientôt des psychologues pour intelligence artificielle, selon ces chercheurs

Nous nous inspirons du cerveau pour créer les algorithmes, alors pourquoi pas pour résoudre leurs problèmes ?

TECHNO - On entend souvent que l'intelligence artificielle et les robots risquent de nous mettre au chômage, mais ces technologies pourraient aussi faire naître de nouveaux métiers. Et pourquoi pas celui de psychologue pour machines?
C'est ce que se demande ce jeudi 28 juin le site Axios, citant un article écrit par trois chercheurs en informatique. Ils plaident pour des recherches approfondies sur l'analyse de possibles troubles psychologiques de nos algorithmes.
Les trois auteurs partent du principe que l'intelligence artificielle cherchant à copier le cerveau, si nous arrivons à en créer une "générale", similaire à l'Homme, "elle pourrait être soumise aux mêmes maladies".
L'idée de l'émergence proche d'une intelligence artificielle générale est loin d'être partagée par toute la communauté scientifique. L'un des auteurs, Roman Yampolskiy, croit lui qu'une telle révolution va arriver et qu'il faut commencer à réfléchir dès maintenant à la manière de l'encadrer pour éviter toute mauvaise surprise.

Quoi qu'il en soit, le fait d'analyser les intelligences artificielles avec un regard de psychologue pourrait aussi nous aider à résoudre des problèmes bien plus concrets, qui commencent à se poser dès maintenant.
La boîte noire des algorithmes
Le comportement de ces machines apprenantes, même si elles sont extrêmement rudimentaires et spécialisées, peut parfois laisser perplexe les chercheurs. Car pour fonctionner, ces algorithmes apprennent seuls à reconnaître des modèles via des millions d'exemples. Ce qui implique qu'il est quasi-impossible pour les chercheurs de retracer le chemin logique parcouru par la machine.
On appelle ce phénomène la boîte noire, un problème longuement développé dans le rapport Villani sur l'intelligence artificielle. Le souci, c'est que cela laisse le champs libre à des dérives possibles. Par exemple, si les données fournies sont biaisées. Ce qu'ont montré des chercheurs en développant une intelligence artificielle "psychopathe", Norman, nourrie des pires exemples de légendes de photo trouvées sur le web.
Il y a d'autres dérives possibles, qui font penser à des problèmes psychologiques bien humains. Un certain type d'intelligence artificielle, par exemple celui qui a gagné contre le champion du monde de jeu de Go, apprend via un système de récompense quand il prend la décision voulue. Les auteurs de l'article imaginent ainsi un algorithme similaire qui pourrait "développer un comportement addictif".
Comment? Axios cite l'exemple d'un robot de nettoyage qui pourrait salir un endroit propre afin de le nettoyer encore plus.
Diagnostic et traitement artificiel
Les auteurs de l'article exhortent donc la communauté scientifique à se pencher sur la question. D'abord, en définissant comment adapter les critères utilisés en psychopathologie pour définir des troubles chez l'être humain: déviance dans le comportement, détresse individuelle, dysfonctionnement qui empêche d'agir normalement ou qui peuvent être dangereuses.
Pour diagnostiquer ce genre de problème chez un algorithme, les auteurs ont imaginé quelques pistes: utiliser les techniques de cybersécurité pour identifier des dérives statistiques et entraîner des intelligences artificielles avec des données biaisées, faites pour simuler des problèmes. Il faudrait également créer une sorte de catalogue des "troubles" des algorithmes, afin de mieux les traiter.
Pour le traitement, justement, les trois chercheurs veulent que leurs confrères s'inspirent également de la psychopathologie. Il serait simple de débrancher une intelligence artificielle biaisée, mais cela voudrait dire perdre tout ce qui a été appris depuis. A la place, les auteurs préconisent de réfléchir à des techniques d'interventions minimalistes.
Par exemple, placer l'algorithme dans un terrain contrôlé afin de "corriger" son comportement avec des données plus saines. Dans l'idée, on voit bien comment appliquer cette logique à Norman ou encore à Tay, l'intelligence artificielle de Microsoft devenue raciste après sa discussion avec des milliers de personnes cherchant à biaiser l'algorithme. Quelque chose de similaire à une psychothérapie en quelque sorte.
Les auteurs évoquent également la possibilité de changer artificiellement le système de récompense pour modifier le comportement de la machine. Ici, on serait plus proche de l'autre solution utilisée chez les êtres humains: les médicaments, à l'instar des anti-dépresseurs.
Evidemment, tout cela est encore un peu abstrait. Mais le but des trois auteurs est justement de pousser leurs confrères à "de futures recherches et développement dans cette direction à peine explorée mais prometteuse".
Et cela a déjà commencé, comme le rappelle Axios. DeepMind, la société de Google dont le programme a dominé le champion du jeu de Go, a utilisé des techniques de psychologie cognitive pour comprendre comment leur algorithme classe les images qui lui sont montrées.

https://www.huffingtonpost.fr/2018/06/28/il-faudra-bientot-des-psychologues-pour-intelligence-artificielle-selon-ces-chercheurs_a_23470155/