Une question de confiance
L’intelligence artificielle (IA) peut contribuer aux progrès dans tous les domaines, de la sphère médicale à la sauvegarde de notre planète. Elle repose cependant sur des technologies dont la complexité croissante soulève des questions de confiance. Le renforcement de la réglementation a contribué à restaurer cette confiance, mais des zones grises demeurent. Comment s’assurer que l’intelligence artificielle est digne de confiance sans freiner son progrès ?
Utiliser nos données personnelles sans autorisation pour nous inonder de messages nous incitant à acheter des produits est une chose ; mais c’en est une autre de le faire pour tenter d’exercer une influence sur le plan politique. L’affaire Cambridge Analytica en est la parfaite illustration, où l’on a découvert que des millions de profils Facebook d’électeurs américains avaient servi à mettre au point un logiciel qui permettait d’adresser à ces derniers des messages publicitaires ciblés à visée politique. L’organisme américain chargé de réglementer la consommation s’est effectivement rendu compte des dangers de cette démarche, puisqu’il a condamné Facebook à une amende de USD 5 milliards. Mais la confiance dans la manière dont certains organismes utilisent nos données s’en est trouvée pour le moins ébranlée. Ce scandale a aussi mis en lumière le pouvoir d’influence de l’intelligence artificielle (IA) ainsi que les dangers liés à son mésusage.
La présence de lʼIA est vouée à durer. Bien utilisée, elle peut contribuer à améliorer nos vies et à résoudre certains de nos plus grands problèmes. Elle permet la collaboration entre l’homme et la machine et est en mesure d’améliorer nos capacités et celles des moyens techniques dont nous disposons au-delà même de ce que nous pouvons imaginer. Pour les entreprises, cela peut notamment se traduire par une productivité accrue, des coûts réduits, un accès plus rapide au marché et de meilleures relations avec la clientèle. Comme le révèle une enquête réalisée par Forbes Insights, intitulée « On Your Marks : Business Leaders Prepare For Arms Race In Artificial Intelligence » (À vos marques : les chefs d’entreprise se préparent à une course aux armements en matière d’intelligence artificielle), 99 % des dirigeants occupant des postes techniques disent que leur entreprise a l’intention d’augmenter ses dépenses dans ce secteur au cours de l’année qui vient.
La technologie évolue à une vitesse fulgurante, soulevant autant de questions relatives à la sûreté et à la sécurité que d’interrogations concernant les avantages qu’elle prétend apporter. S’il s’agit d’un processus visant à faire mieux que l’être humain dans le domaine de la décision et de l’estimation – par exemple pour la prévision des épidémies ou la conduite des trains –, comment pouvons-nous être assurés d’en avoir la maîtrise ?
Une intelligence artificielle digne de confiance
Selon d’éminents experts du secteur, veiller à la fiabilité dès le début est l’un des principaux facteurs susceptibles de favoriser l’adoption de cette technologie à grande échelle. Cela étant, l’ISO et la Commission électrotechnique internationale (IEC) ont créé le sous-comité SC 42, Intelligence artificielle, qui relève du comité technique mixte ISO/IEC JTC 1, Technologies de l’information, et est chargé de centraliser les activités de normalisation touchant le domaine de l’IA. Parmi ses nombreux mandats, ce groupe d’experts envisage notamment différents moyens d’instaurer la confiance dans les systèmes d’IA.
L’animateur du groupe de travail sur la fiabilité au sein du SC 42, David Filip, chargé de recherche au centre ADAPT du Trinity College Dublin – un dynamique institut de recherche en technologie numérique –, résume les choses ainsi : « Lorsque les logiciels ont commencé à envahir le monde, la question de leur fiabilité s’est très vite posée. Maintenant que l’intelligence artificielle envahit les logiciels, il n’est guère surprenant qu’elle doive démontrer sa fiabilité. »
« Toutefois », analyse-t-il, « j’ai l’impression que les gens ont peur de l’intelligence artificielle pour de mauvaises raisons. Ils craignent un désastre causé par une entité artificielle malveillante. Un problème beaucoup plus grave, me semble-t-il, est que le manque de transparence permettra à un système d’apprentissage profond de prendre une décision qui devrait être soumise au contrôle d’un être humain mais qui ne l’est pas. »
Le niveau de préjudice dépend naturellement de la façon dont l’IA est utilisée. Un outil mal conçu qui recommande des morceaux de musique ou des restaurants aux utilisateurs cause évidemment moins de tort qu’un algorithme destiné à faciliter le diagnostic du cancer. Et il y a aussi le danger d’une utilisation des données visant à manipuler les résultats, comme dans le cas de l’affaire Cambridge Analytica.
Ce qui menace la fiabilité
Selon l’Organisation pour la coopération et le développement économiques (OCDE) – un organisme intergouvernemental collaboratif ayant pour mission de favoriser le progrès économique et le commerce mondial –, l’utilisation de l’intelligence artificielle à des fins malveillantes devrait prendre de l’ampleur à mesure que celle-ci devient plus abordable et plus accessible [1]. L’usage malveillant, le détournement de données personnelles et la cybercriminalité sont les principales menaces pesant sur la fiabilité.
Par exemple, une voiture autonome impliquée dans un accident pourrait faire l’objet d’un piratage informatique visant à modifier des informations en matière de responsabilité. Par ailleurs, un système qui compile des données de patients et s’en sert pour recommander des traitements ou faire des diagnostics pourrait subir les conséquences désastreuses d’éventuels bogues ou erreurs.
Parmi les autres risques figurent les effets de données erronées ou d’un biais algorithmique, un phénomène qui se produit lorsqu’un algorithme donne de manière systématique des résultats biaisés en raison de la prise en compte d’hypothèses erronées dans le processus d’apprentissage machine. Ce phénomène, s’il va de pair avec un comportement raciste, partial ou autrement subjectif, peut exercer une profonde influence dans de multiples domaines, depuis ce qui circule dans les médias sociaux jusqu’au profilage des criminels dans les systèmes de politiques publiques ou le traitement des demandes d’immigration.
Les systèmes d’IA qui nécessitent un accès aux renseignements personnels présentent aussi des risques pour la vie privée. Dans le domaine de la santé, par exemple, l’intelligence artificielle peut contribuer à la mise au point de nouveaux traitements en utilisant les données des patients et les dossiers médicaux de façon particulière. Mais cela ouvre aussi la possibilité d’un mauvais usage de ces données. Les lois sur la confidentialité réduisent ce risque, mais limitent également la portée des avancées technologiques. À l’évidence, des systèmes d’IA robustes, sûrs et transparents rendent cette éventualité improbable et devraient donc révéler tout leur potentiel et nous permettre d’en tirer pleinement profit.
L’action engagée
Le secteur est très conscient du besoin de fiabilité, et de nombreuses innovations techniques ont été mises au point et ne cessent d’évoluer, comme la protection différentielle de la vie privée, qui incorpore des éléments aléatoires dans les données agrégées afin de réduire le risque de réidentification et de préserver l’anonymat des contributions individuelles. On a également développé des méthodes de cryptage telles que le chiffrement homomorphe et le calcul sécurisé multipartite, qui permet aux algorithmes d’apprentissage machine d’analyser des données qui sont encore cryptées et donc sécurisées. Ou encore l’utilisation d’un environnement d’exécution fiabilisé, qui est une méthode visant à protéger et à vérifier l’exécution de logiciels licites.
L’Union européenne (UE) a constitué un groupe d’experts de haut niveau (HLEG) sur l’intelligence artificielle afin de faciliter la mise en œuvre de la stratégie de l’Europe en la matière, laquelle comporte des dimensions éthique, juridique et sociale. Au début de l’année, ce groupe a publié un document intitulé « Policy and Investment Recommendations for Trustworthy Artificial Intelligence » (Recommandations en matière de politique et d’investissement pour une intelligence artificielle digne de confiance), où sont exposées les réflexions du groupe concernant un cadre réglementaire et financier susceptible d’assurer la fiabilité de l’IA.
Sur le plan international, le Partenariat sur l’IA au service de la population et de la société vise à faire mieux connaître l’intelligence artificielle au public et à définir des pratiques exemplaires pour les technologies futures. Rassemblant divers protagonistes à l’échelle mondiale, ce partenariat contribue à « traiter de questions telles que l’équité et l’absence d’exclusive, l’explication et la transparence, la sécurité et la confidentialité, les valeurs et l’éthique, la collaboration entre les personnes et les systèmes d’IA, l’interopérabilité des systèmes et la fiabilité, la maîtrise, la sûreté et la robustesse de la technologie » et est donc en mesure d’apporter un soutien aux chercheurs en IA et aux principaux autres acteurs du secteur.
« Nous sommes l’un des fondateurs du Partenariat sur l’IA », dit Olivier Colas, Directeur principal pour les Normes internationales à Microsoft – qui a aussi joué un rôle actif dans le sous-comité SC 42 –, « et nous avons noué des partenariats sectoriels avec Amazon et Facebook afin de rendre l’IA plus accessible à tous. » Selon lui, « alors que les systèmes d’IA se généralisent, il nous incombe collectivement d’assurer la fiabilité de ces systèmes et de collaborer pour parvenir à un consensus à propos des principes et valeurs qui devraient régir leur mise au point et leur utilisation. Ces principes et valeurs devraient être confortés par les pratiques d’ingénierie qui peuvent être codifiées dans des Normes internationales ». Microsoft, ajoute-t-il, a institué un comité consultatif interne chargé d’assurer que ses produits respectent ces principes et prend part aux discussions menées à l’échelle du secteur sur la normalisation internationale.
Le facteur norme
Les normes sont donc la clé. M. Filip nous explique pourquoi : « Nous ne pouvons jamais garantir la confiance des utilisateurs mais, grâce à la normalisation, nous pouvons analyser tous les aspects de la fiabilité, notamment la transparence, la robustesse, la résilience, la confidentialité et la sécurité, et recommander des pratiques exemplaires susceptibles d’induire un comportement prévisible et bénéfique des systèmes d’IA. »
Les normes contribuent à l’instauration de partenariats entre les entreprises du secteur et les responsables politiques en favorisant l’élaboration d’un langage commun et de solutions qui permettent de résoudre les questions concernant à la fois la réglementation et la confidentialité ainsi que de la technologie nécessaire à cet égard, sans pour autant freiner l’innovation. M. Colas estime que les normes joueront un rôle important dans la codification des meilleures pratiques d’ingénierie à l’appui des méthodes employées pour la mise au point et l’utilisation des systèmes d’IA et qu’elles compléteront également les nouvelles politiques et législations en la matière.
« Depuis des décennies, on recourt avec succès aux Normes internationales pour codifier l’évaluation et la gestion des risques. Les normes de la série ISO/IEC 27000 sur le management de la sécurité de l’information sont un excellent exemple de cette démarche pour ce qui concerne la cybersécurité et la confidentialité », précise M. Colas. Cela aide les organismes à gérer la sécurité de leurs actifs (informations financières, propriété intellectuelle, coordonnées des salariés, renseignements confiés par des tiers, etc.). De plus, comme il le fait observer, l’intelligence artificielle est une technologie complexe. « Les normes relatives à l’IA devraient fournir des outils susceptibles d’assurer la transparence et un langage commun ; elles permettent alors de définir les risques ainsi que les moyens de les gérer. »
L’heure est venue
Dans le programme de travail de l’ISO/IEC JTC 1/SC 42, il est fait mention de plusieurs thèmes concernant l’IA, dont beaucoup sont actuellement en cours d’élaboration au sein de son groupe de travail WG 3, Fiabilité. Les projets envisagés comprennent un certain nombre de documents normatifs visant directement à aider les intervenants du secteur à instaurer la confiance dans leurs systèmes. Parmi ces documents figure le futur rapport technique ISO/IEC TR 24028, Information technology – Artificial intelligence (AI) – Overview of trustworthiness in artificial intelligence (Technologies de l’information – Intelligence artificielle (IA) – Examen d’ensemble de la fiabilité en matière d’intelligence artificielle), qui analyse les facteurs susceptibles de contribuer à l’érosion de la confiance dans les systèmes d’IA et détaille les moyens possibles d’y remédier. Ce document vise l’ensemble des parties prenantes et rend compte des vulnérabilités de l’IA telles que les menaces pour la sécurité, la confidentialité, l’imprévisibilité, les défaillances matérielles des systèmes et bien plus encore.
Le SC 42 adopte une approche horizontale en travaillant en collaboration étroite avec le maximum de représentants de l’industrie, des instances gouvernementales et des comités techniques concernés, afin de mettre à profit ce qui existe déjà plutôt que de le reproduire à l’identique. Cela englobe l’ISO/TC 262, Management du risque, dont la norme ISO 31000 sur l’appréciation du risque sert de base pour l’élaboration de l’ISO/IEC 23894, Information technology – Artificial intelligence – Risk management (Technologies de l’information – Intelligence artificielle – Management du risque). Les nouvelles lignes directrices aideront les organismes à mieux évaluer les risques et les menaces types auxquels sont confrontés leurs systèmes d’IA et à intégrer au mieux la gestion des risques connexes dans leurs processus.
La norme s’accompagnera d’autres rapports techniques importants sur l’évaluation de la robustesse des réseaux neuronaux (ISO/IEC TR 24029-1) et sur le biais dans les systèmes d’IA et le processus de décision assisté par des systèmes d’IA (ISO/IEC TR 24027). Tous ces éléments compléteront le futur rapport technique ISO/IEC TR 24368, destiné à répondre aux préoccupations d’ordre éthique et sociétal soulevées par l’IA (voir l’article Éthique et intelligence artificielle).
Une prise en compte précoce de la fiabilité dans le processus de normalisation est indispensable pour que l’intelligence artificielle puisse jouer pleinement son rôle dans la société. « Les êtres humains ont besoin de confiance pour survivre dans tous les sens du terme » fait observer M. Filip. Et en particulier de confiance dans la sûreté et la fiabilité des technologies et des infrastructures. « Nous attendons de nos responsables politiques qu’ils mettent en place des lois et des systèmes qui nous protègent et comptons sur les bonnes intentions de celles et ceux qui nous entourent pour assurer le bon fonctionnement de la société au quotidien. Désormais, nous devons être en mesure de faire confiance aux logiciels et à la technologie numérique sous toutes ses formes. Les normes nous donnent un moyen d’y parvenir. »