Contrer le soulèvement des machines : Google s'y prépare

À l'heure où les intelligences artificielles et les agents apprenants sont de plus en plus présents dans nos sociétés, Google DeepMind réfléchit aux meilleures solutions pour interrompre les processus néfastes de ces agents et faire en sorte qu'ils n'apprennent pas à passer outre ces processus d'interruption.

Si le sujet semble encore relever de la science-fiction, le développement d'intelligences artificielles de plus en plus présentes dans nos quotidiens soulève à l'évidence des questions de plus en plus prégnantes et concrètes.
Aujourd'hui, Google est l'un des principaux acteurs de poids de cette industrie et en plus de ses cohortes de robots classant et hiérarchisant le savoir humain sur Internet, le groupe américain imagine déjà un avenir dans lequel nos voitures seront autonomes, où des IA seront capables de philosopher et discuter du sens de la vie, de gérer la finance mondiale ou de battre les champions humains du jeu de go -- on se souvient qu'en mars dernier, AlphaGo battait le champion coréen Lee Sedol (mais aujourd'hui, le champion du monde de la discipline, le Chinois Ke Jie, indique à son tour accepter d'affronter la machine pour la revanche de l'humanité).
Autant d'intelligences artificielles qui ont la particularité, dit-on, d'apprendre et de perfectionner leurs raisonnements d'elles-mêmes, mais qui inquiètent aussi certains chercheurs -- comme Nick Bostrom, à la tête du Future of Humanity Institute d'Oxford, qui considère que les IA rivaliseront avec l'intelligence humaine au cours du siècle et qu'ensuite, la porte sera grande ouverte à de « super-intelligences » aux capacités exponentielles et donc dotées d'un pouvoir à l'avenant (le chercheur y voit une analogie avec la domination de l'espère humaine sur les espèces animales au fur et à mesure que l'intelligence humaine s'est développée).

DeepMind

Ces mêmes problématiques de la place des intelligences artificielles dans nos sociétés se posent aussi chez Google, et plus spécifiquement au sein du studio Google DeepMind (à l'origine de l'IA d'AlphaGo). À tel point que le laboratoire travaille non seulement sur les capacités des « agents apprenants » mais concède aussi qu'il est « peu probable qu'ils se comportent toujours de façon optimale » et qu'il est donc pertinent « d'explorer les meilleures façons d'interrompre une séquence néfastes d'actions nuisibles [perpétrées par ces agents apprenants], que ce soit pour eux-mêmes ou leur environnement ». Bigre !
Car manifestement la démarche ne suppose pas uniquement de débrancher la prise du serveur. Selon les équipes de DeepMind, il convient surtout de faire en sorte que les agents apprenants ne puissent pas (ni ne cherchent) à apprendre comment passer outre les commandes qui permettraient de les désactiver. Le laboratoire consacre ainsi un long article, très technique (disponible en libre accès en *.pdf), à ces « conditions d'interruptibilité » des IA, visant notamment à faire en sorte que la notion même d'interruption échappe à la « conscience » de l'IA, afin qu'elle ne soit pas tentée de l'étudier puis de la contourner. Et le développeur assure obtenir des résultats satisfaisants.
Si la problématique semble encore relever de la science-fiction (et a déjà été abondamment traité par la fiction), on n'est pas tout à fait sûr de savoir si le simple fait que DeepMind étudie le sujet doit être de nature à nous rassurer ou au contraire à nous inquiéter. On retiendra peut-être quoiqu'il en soit que lors du rachat de DeepMind par Google en 2014, le petit studio avait imposé la création préalable d'un comité d'éthique chez Google, précisément en charge de contrôler l'usage faits de ses intelligences artificielles (« conçues pour faire le bien exclusivement »). Les IA sont donc en passe de dominer le monde, mais sont animées de bonnes intentions.

Réactions (62)

Afficher sur le forum