Contrôle national des algorithmes
26 septembre 2017 - Image par Prune Engérant
On ne construit pas une prison après avoir créé un monstre.

L’intelligence artificielle (ainsi que les algorithmes qui la composent) occupe une place grandissante dans la société technologique contemporaine. Par-delà l’attrait de la nouveauté ou encore une peur irrationnelle, s’imposent des réflexions sérieuses afin de s’assurer du développement d’une intelligence artificielle robuste et bénéfique pour la société. D’où l’idée proposée par Ben Shneiderman, éminent spécialiste des sciences informatiques, d’un Conseil National de Sécurité Algorithmique aux États-Unis, un bureau d’enquête des algorithmes. Se pose alors une question: quels sont les facteurs rendant nécessaire l’établissement d’un tel bureau d’enquête?

La marche conquérante du progrès

Personne ne tombera de sa chaise si on lui apprend que le progrès technologique s’accélère d’année en année. Pas plus tard qu’en septembre, Facebook a annoncé la création d’un nouveau laboratoire de recherche en intelligence artificielle (IA) ici-même, à McGill. La recherche et le développement en sciences informatiques permettent la création de nouveaux algorithmes rendant l’IA apte à la réalisation de tâches de plus en plus complexes. Elle investit même dans des sphères qui, il y a quelques années, apparaissaient comme des forteresses réservées au génie humain. Moi-même musicien, j’ai été estomaqué lorsque j’ai écouté pour la première fois la musique composée par AIVA, un «compositeur» virtuel. Bien que ce ne soit pas du grand art, cette musique pourrait passer dans n’importe quel film. Cette simple écoute nous amène alors à reconsidérer le potentiel de l’IA et nous force du même souffle à nous poser ces questions: à quel point voulons-nous que l’intelligence artificielle devienne intelligente? Se pourrait-il que ces IA deviennent si intelligentes que nous en perdrions tout simplement le contrôle? Il serait bête d’essayer de construire une prison pour un titan; mieux vaut que celui-ci ne voit jamais le jour. Comment s’en assurer?

Prune Engérant | Le Délit

Les théoriciens au secours

Les recommandations de chercheurs de l’Association pour le développement de l’Intelligence Artificielle (AAAI) ainsi que les travaux du philosophe Nick Bostrom, spécialisé entre autres sur la question de l’intelligence artificielle, permettent de jeter les bases d’une solution. Ces chercheurs de l’AAAI ont présenté quatre critères à respecter pour permettre la création d’une IA «robuste et bénéfique», pour reprendre leur expression: la vérifiabilité, la validité, la sécurité et le contrôle. D’une part, la vérifiabilité réfère à la capacité à vérifier que le système possède les caractéristiques formelles désirées, qu’il n’ait pas de tares intrinsèques à sa conception. D’autre part, la validité signifie la capacité à s’assurer qu’un système intelligent n’ait pas de comportements imprévus et/ou indésirables même s’il respecte le critère de vérifiabilité. Un exemple illustrant cette idée est celui d’un robot parfaitement programmé ayant pour tâche de ramasser le plus de déchets possible, finissant par renverser les poubelles autour de lui afin de pouvoir ramasser plus de déchets. La sécurité, quant à elle, consiste à protéger le système contre la manipulation par des tiers non-autorisés. Enfin, le contrôle implique que ce soit l’être humain qui possède la capacité de maîtriser l’IA en toutes circonstances. Bostrom rajoute également le critère de transparence, c’est-à-dire que les algorithmes doivent pouvoir être ouverts à la vérification par des tiers pour s’assurer du respect des quatre autres critères. 

Une première solution

Face à la montée en puissance de l’IA et des algorithmes en général, des voix commencent à s’élever pour exprimer leur crainte par rapport à une mauvaise utilisation. Des scandales par rapport au possible biais de certains algorithmes utilisés pour les embauches n’aident en rien à apaiser ces craintes. Parmi ces voix qui se lèvent se trouve notamment celle de Ben Shneiderman, véritable pionnier des sciences informatiques. Parmi les inventions redevables aux recherches de Shneiderman se trouvent les claviers à écran tactiles, le facebook tagging et les hyperliens (rien que ça). C’est toutefois pour ses travaux sur les interactions hommes/machines que Shneiderman est plus connu. Et c’est dans cette optique que s’inscrit la proposition d’un National Algorithm Safety Board.

Le  Conseil National de Securite Algorithmique

L’instance proposée par Shneiderman, basée sur le modèle du Conseil de la Réserve Fédérale, agirait de façon indépendante sur trois plans, soit la planification, le suivi constant et l’analyse rétrospective de l’utilisation des algorithmes. La combinaison de ces trois axes offrirait une vision d’ensemble sur le potentiel danger d’un algorithme ou d’une série d’algorithmes. Un tel bureau pourrait être la première étape concrète pour s’assurer que les propositions théoriques pour la sécurité de l’IA aient un impact réel sur le développement des nouveaux algorithmes. Shneiderman explique que la transparence, concept également défendu par Bostrom, serait assurée par l’ouverture des « boîtes noires » des algorithmes. Sans trop spéculer sur la nature des vérifications, il ne serait pas bête de s’appuyer sur des propositions semblables à celles de l’AAAI mentionnées plus tôt.

Un frein face au progrès pour le progrès

Si l’idée de Shneiderman concerne principalement les États-Unis, il serait extrêmement pertinent d’établir des instances similaires au Canada et dans les autres pays industrialisés et émergents. Un tel bureau mettrait évidemment un certain frein à l’innovation. On peut déjà anticiper les oppositions de l’industrie, taxant la mise en place d’une telle instance comme étant anti-innovation ou encore rétrograde, ralentissant ainsi le progrès de la société. Que l’on soit bien clair: un tel projet n’est pas anti-innovation. Schneiderman lui-même affirme qu’il désire voir la technologie utilisée pour améliorer la société. Seulement, cette utilisation se doit d’être la plus judicieuse possible, surtout dans le contexte de l’incommensurable potentiel de l’IA du futur. Il ne fait aucun doute que les algorithmes sont en train de modifier profondément nos sociétés modernisées et qu’ils continueront à le faire dans le futur, sans doute plus profondément. Tâchons de nous assurer de ne pas perdre le contrôle de ces changements, quitte à sacrifier l’idée d’une société idéale optimisée par l’IA sur laquelle certains aiment fantasmer.

 
Sur le même sujet: