Vers une intelligence artificielle « fabriquée en Europe » : pistes d’action et lignes directrices éthiques

By Alyson Berrendorf

L’intelligence artificielle (IA) est une nouvelle donnée qu’il n’est – depuis plusieurs années – plus possible de négliger. La croissance de la puissance de calcul, la maximisation ainsi que la disponibilité des données, la rapidité de traitements des informations et les progrès réalisés dans les algorithmes ont fait de l’IA l’une des technologies les plus stratégiques du 21ème siècle. Face à ce constat, l’Union européenne se doit ne pas rater cette révolution technologique, et, mieux encore, elle se doit de devenir un acteur de pointe sur la scène internationale afin de développer une IA performante, éthique et sûre, au profit tant du citoyen (dans sa vie privée et professionnelle) que de la société dans son ensemble.

A cet effet, la Commission européenne a pris plusieurs initiatives ces deux dernières années. La communication de la Commission européenne intitulée « L’intelligence artificielle pour l’Europe », publiée en avril 2018, préconisait de ce fait une stratégie européenne à l’appui de cet objectif, ainsi qu’un plan coordonné pour le développement de l’IA en Europe, présenté en décembre dernier. Plus récemment encore, en avril 2019 cette fois, la Commission a encore franchi une étape supplémentaire en souhaitant lancer sa phase pilote afin de faire en sorte que les lignes directrices en matière éthique pour le développement de l’IA sûre puissent être concrètement mises en œuvre dans la pratique (COM(2019) 168 final).

Au travers de ce bref article, nous ferons une première évaluation des diverses avancées concernant le déploiement de l’intelligence artificielle au sein de l’Union européenne. Nous analyserons notamment le fil conducteur de ce plan, ainsi que la liste d’évaluation et les lignes directrices en matière d’éthique récemment mises en avant par le groupe d’experts indépendants de haut niveau sur l’intelligence artificielle, afin de générer, selon leurs termes, « une IA digne de confiance » et « axée sur l’humain ». Face à cette dénomination, une question mérite d’être soulevée… Une IA axée sur autre chose – ou pour le dire autrement, une IA au service d’autre chose que l’humain – est-elle possible ?

A. Contexte

Suite à la résolution du Parlement européen du 16 février 2017 contenant des recommandations adressées à la Commission concernant des règles de droit civil sur la robotique adoptée à la majorité, le 25 avril 2018, la Commission européenne emboîta le pas et publia une communication sur l’intelligence artificielle pour l’Europe. L’objectif était de mettre en place une approche coordonnée au niveau de l’Union européenne afin de tirer le meilleur parti des possibilités offertes par l’intelligence artificielle et de faire ainsi de l’Europe un acteur incontournable afin de relever les nouveaux défis générés par cette dernière.

Conformément à cette communication, la Commission européenne a publié en décembre dernier son plan coordonné pour le développement et l’utilisation de l’IA en Europe, élaboré avec les États membres (dans le cadre des développements du Member States’ Group Digitising European Industry and Artificial Intelligence), la Norvège et la Suisse.

L’objectif sous-jacent de ce plan était d’agir par le biais d’actions communes pour obtenir une coopération plus étroite et efficace afin de faire de l’Europe un moteur régional incontournable en vue du développement et du déploiement d’une IA éthique, sûre et compétitive, tout en restant axée sur le facteur humain dans un contexte sans cesse croissant de mondialisation. Le plan s’appuie sur une « déclaration de coopération » faite dans le cadre de la « Journée du numérique », tenue le 10 avril 2018 en vue d’obtenir des engagements communs sur l’avenir du numérique au sein de l’Europe. Afin d’anticiper les bouleversements qu’implique l’IA dans notre manière de vivre, les États membres, la Norvège et la Suisse ont convenu de réaliser ledit plan coordonné de manière continue, et d’en faire une révision annuelle pour rester à la hauteur des évolutions techniques.

Dans ce qui suit, nous aborderons d’abord les étapes préliminaires nécessaires à la concrétisation d’une IA effective sur le terrain. Ensuite, dans une deuxième partie, nous analyserons les divers objectifs mis en avant par la Commission européenne afin de préparer et d’optimiser le développement de l’IA en Europe. Enfin, dans une dernière partie, nous dresserons une synthèse du cadre établi par le groupe d’experts de haut niveau sur l’intelligence artificielle afin de parvenir à une IA digne de confiance.

B. Préalables à l’effectivité

Les nouvelles possibilités créées par les progrès réalisés en matière d’IA ouvrent la voie à de nouveaux champs d’actions jamais imaginés jusqu’alors. L’IA peut nous aider à relever certains des plus grands défis mondiaux de notre ère, comme c’est le cas dans le secteur de la santé, avec notamment les soins de santé personnalisés et de précision, le traitement des maladies chroniques ou de la réduction du taux de mortalité dans les accidents de la route, ou encore dans la lutte contre le changement climatique ou la cybercriminalité (voy. sur ce point, COM (2018) 237 final, p. 1). Toutefois, la plupart du temps, afin que ces évolutions se réalisent sous les meilleurs auspices, elles nécessitent un renforcement voire un aménagement des infrastructures et cadres juridiques existants.

Ainsi, sur le plan de l’effectivité, comme le souligne le plan coordonné (COM(2018) 795 final, p. 3), pour que l’IA soit mise en œuvre de manière concrète, il convient au préalable d’achever le marché unique du numérique ainsi que son cadre réglementaire, et notamment, d’adopter la proposition de la Commission relative à la création d’un Centre européen de compétences industrielles, technologiques et de recherche en matière de cybersécurité et d’un réseau de centres nationaux de coordination. Les infrastructures se devront également d’être accessibles et abordables afin que l’IA puisse être adoptée par tous en Europe, tout en ne faisant aucun compromis sur l’objectif de protection et de sécurisation du déploiement et de l’utilisation de cette technologie.

Cette mutation technologique va se baser sur principalement cinq piliers, dont nous allons aborder brièvement les grandes lignes ci-dessous.

C. Objectifs

  1. Maximiser les investissements[1]

La Commission européenne a l’ambition de mettre l’Union européenne à la pointe des développements technologiques dans le domaine de l’IA et de veiller à ce que cette dernière soit exploitée rapidement dans tous les secteurs de l’économie, mais sans que cette expansion ne se fasse au détriment de la sécurité. Pour arriver à cette fin, la synergie des investissements devrait être une priorité afin d’éviter la fragmentation de ceux-ci. Le niveau des investissements en faveur de l’IA dans l’Union est, en ce moment encore, peu élevé et fractionné par rapport à d’autres régions du monde comme les États-Unis, la Chine, le Japon, ou encore le Canada (COM (2018) 237 final, pp. 4 et 5). A titre d’exemple, en 2016, le gouvernement américain a investi près de 970 millions d’EUR dans la recherche non confidentielle en matière d’IA.

Des efforts doivent donc être fournis conjointement tant par le secteur public (au niveau des États membres et de l’Union européenne) que par le secteur privé, pour augmenter progressivement le montant total des investissements d’ici à 2020 et encore au-delà. L’Union européenne dans son ensemble devrait ambitionner d’accroître le montant de ces investissements pour le porter à au-moins 20 milliards d’EUR par an au cours de la prochaine décennie.

À l’appui des efforts conjoints, la Commission va également augmenter ses investissements dans l’IA au titre du programme-cadre pour la recherche et l’innovation « Horizon 2020 » ainsi que du programme pour une Europe numérique, les portant à environ 1,5 milliard d’EUR d’ici la fin de 2020. Les fonds investis serviront à soutenir, notamment, d’une part, la création d’espaces de données communs dans les domaines de la santé, du transport et de l’industrie, et d’autre part, les installations-expérimentation à grande échelle, telles que des hôpitaux intelligents et des infrastructures pour véhicules automatisés. Dans le cadre des partenariats public-privé existants, ces investissements mobiliseraient 2,5 milliards d’EUR supplémentaires au cours de la même période.

Concrètement, diverses actions communes sont proposées afin d’atteindre ces objectifs d’investissements (COM(2018) 795 final, pp. 1 et 2). Premièrement, un focus sera réalisé sur les stratégies mises en place au niveau national en matière d’IA. Dans le courant de l’année 2019, tous les États membres devraient avoir mis en place des stratégies ou des programmes nationaux en matière d’IA – et par la même occasion, les partager avec les autres États membres ainsi que la Commission européenne – ou envisager d’ajouter des volets relatifs à l’IA dans d’autres stratégies et programmes pertinents existants en indiquant leurs niveaux d’investissement ainsi que leurs mises en œuvre. Deuxièmement, une attention particulière sera accordée aux nouveaux partenariats public-privé européens dans le domaine de l’IA. A cette fin, un nouveau partenariat pour la recherche et l’innovation dans le domaine de l’IA sera mis sur pied afin de promouvoir la coopération entre le monde universitaire et l’industrie à travers l’Europe et de définir un agenda de recherche stratégique commun pour l’IA. Ensuite, troisièmement, un fonds pour les scale-up sera mis en place afin de soutenir les starts-up et entreprises innovantes du secteur de l’IA et des chaînes de blocs qui sont en phase de démarrage, mais également pour les accompagner dans le processus de développement de leurs activités. Enfin, quatrièmement, il conviendra de créer et mettre en réseau des centres d’excellence de classe mondiale en matière d’IA, car dans la compétitivité qui entoure la matière de l’IA, l’Union européenne doit véritablement se positionner comme leader mondial dans le développement et le déploiement de l’IA.

En conclusion, selon la Commission européenne, il est indispensable que les États membres et le secteur privé déploient, avec le soutien de la Commission, des efforts coordonnés pour faciliter les investissements qui ont pour but de consolider la recherche et l’innovation dans l’IA, d’encourager les essais et l’expérimentation, de renforcer les centres de recherche d’excellence dans le domaine de l’IA et de stimuler les efforts visant à mettre l’IA à la portée tant du secteur public que du secteur privé. 

  1. Créer des espaces européens de données

 Afin d’être à la pointe de l’IA, il est nécessaire de pouvoir disposer de vastes quantités de données solides et sécurisées. L’innovation fondée tant sur la disponibilité que la circulation des données constitue un atout fondamental pour la croissance et la création d’emplois ainsi que l’élaboration de nouvelles technologies.

Ainsi, conjointement avec les pays européens, la Commission créera des espaces européens de données communs afin de permettre un partage de données transfrontières fluide et sûr, tout en veillant à respecter le règlement général sur la protection des données.

D’une part, il sera question de fournir d’importants efforts afin d’ouvrir les données détenues par le secteur public et les résultats de la recherche financée par celui-ci à des fins de réutilisation. D’autre part, les pouvoirs publics se devront également d’encourager une plus grande disponibilité des données détenues par le secteur privé, mais tout en garantissant l’effectivité de la législation relative à la protection des données à caractère personnel (COM(2018) 237 final, pp. 11 à 13). 

  1. Se préparer aux changements socio-économiques (COM(2018) 237 final, pp. 13 et 14)

L’instauration de l’IA dans notre civilisation – tout comme ce fût également le cas par le passé avec l’apparition d’internet – marque un tournant majeur dans nos société et économie. L’émergence de l’automatisation, du deep learning, ou encore de la robotisation est en passe de modifier intimement le marché du travail et il est du devoir de l’UE d’anticiper et de gérer au mieux ce virage socio-économique et les conséquences qu’il est susceptible d’entrainer avec lui.

De manière synthétique, l’UE se retrouve principalement face à trois défis principaux. Premièrement, il convient de préparer la société dans son ensemble à ce changement de paradigme qu’entraine l’émergence de l’IA dans la vie des travailleurs. Deuxièmement, l’émergence de l’IA dans le secteur professionnel implique une mutation très profonde des métiers et des compétences, ainsi l’UE doit mettre tout en œuvre pour aider les travailleurs à s’adapter à ces emplois susceptibles de subir de grandes transformations voire amenés à disparaitre, ou encore s’adapter à des professions qu’il reste à inventer. Troisièmement, l’émergence mais aussi l’exploitation de l’IA dans l’économie engendre des besoins en spécialistes de plus en plus perfectionnés dans le domaine de l’IA, ainsi convient-il tout d’abord de former davantage les professionnels travaillant dans le secteur, mais également de mettre en place un environnement favorable afin de conserver lesdits spécialistes à l’intérieur de l’UE, tout en essayant d’attirer davantage de talents étrangers.

  1. Favoriser le talent, les compétences et l’apprentissage tout au long de la vie (COM(2018) 237 final, pp. 13 et 14)

D’abord, l’IA n’est pas quelque chose d’immuable – le progrès y avance vite – ; le talent est de ce fait une source indispensable quant au développement et à l’utilisation de celle-ci. Cependant, la population moyenne européenne ne dispose que de connaissances limitées en matière de technologies de l’information et de la communication, ce qui entrave l’accessibilité et la réalisation de solutions fondées sur l’IA. Outre les domaines techniques, l’éthique et les aptitudes connexes se doivent d’être intégrées dans les stratégies nationales et internationales en matière d’IA. Toutefois, malgré le fait que les compétences et l’éducation sont des domaines qui relèvent, dans une grande mesure de la compétence des états membres, il semble indispensable que des actions soient entreprises au niveau de l’Union afin de notamment partager les connaissances.

Ensuite, dans le prolongement de ce qui a été évoqué au point précédent, nous pouvons conclure que le recyclage et le perfectionnement des travailleurs va de pair avec la modernisation du marché du travail et des politiques sociales afin de pouvoir anticiper les transitions qui vont advenir sur le milieu du travail.

Enfin, les difficultés à attirer et conserver les talents en Europe contribuent également au déficit de compétences susmentionnées. Ainsi, une piste à envisager serait que les états membres soient encouragés à échanger leurs bonnes pratiques quant à la façon de renforcer l’excellence et de retenir les travailleurs hautement qualifiés, ainsi que sur la manière d’accélérer les efforts pour exploiter les possibilités offertes par le cadre juridique actuel, notamment en matière de migration légale, y compris au travers du système de la carte bleue européenne. Cette carte est un permis de travail qui permet aux travailleurs talentueux provenant de pays tiers de travailler et de vivre dans l’UE.

En synthèse, l’Europe vise à créer un écosystème favorable à l’innovation de l’IA, c’est-à-dire un environnement dans lequel les acteurs économiques trouvent des infrastructures, des centres d’essai, des moyens financiers, un cadre juridique, mais également des compétences à un niveau adapté et coordonné pour investir dans l’IA et la déployer à grande échelle.

  1. Développer une IA éthique et digne de confiance

Dans sa communication du 7 décembre 2018 notamment – comme cela a été mentionné supra – la Commission européenne a défini sa vision pour l’intelligence artificielle. Celle-ci préconise une « IA éthique, sûre et de pointe réalisée en Europe ». L’ambition de la Commission s’appuyait sur plusieurs objectifs : (i) accroître les investissements publics et privés dans l’IA afin d’intensifier le recours à l’IA, (ii) créer des espaces européens de données, (iii) se préparer aux changements socio-économiques, (iv) favoriser le talent, les compétences et l’apprentissage tout au long de la vie, mais également, (v) développer une IA éthique et digne de confiance. En effet, le développement de l’IA pose différents problèmes, que ceux-ci soient techniques, politiques, juridiques mais aussi d’ordres éthiques et philosophiques. Les craintes sont nombreuses, et quelques fois, fondées – notamment quant à l’utilisation, la manipulation ou la réutilisation des données personnelles, quant au risque d’opacité a posteriori du système, quant aux pièges des biais, mais aussi quant au danger de détournement des systèmes d’IA.

En avril 2019, le groupe d’experts de haut niveau sur l’intelligence artificielle constitué par la Commission européenne en juin 2018 a rendu public son projet de lignes directrices pour une IA digne de confiance. Vu l’importance et l’actualité du propos, nous avons décidé de lui consacrer le point suivant afin d’en analyser les tendances.

D. Les lignes directrices pour une IA digne de confiance

L’objectif ultime recherché est le renforcement d’une IA de confiance. En effet, cela signifie qu’un cadre éthique et réglementaire approprié et prévisible, fondé sur des garanties efficaces pour la protection des libertés et droits fondamentaux, est un préalable nécessaire pour que les citoyens puissent avoir confiance dans l’IA (COM(2018) 795 final, p. 20).

Comme le souligne le rapport, une IA digne de confiance devrait respecter au moins trois caractéristiques – dès la conception et tout au long de la vie du système – à savoir, la licéité, l’éthique et la robustesse. A travers la licéité, nous entendons que le système devrait se conformer au respect des législations et réglementations applicables. Par éthique, nous convenons qu’au-delà du simple respect des normes, le système devrait également s’assurer de l’adhésion à des principes, voire même à des valeurs, éthiques. Enfin, l’IA se doit par la même occasion d’être robuste tant sur un plan technique que social, car malgré toutes les précautions prises, un système d’IA pourrait tout de même causer des préjudices involontaires.

Afin d’assurer la mise en œuvre et la réalisation d’une IA digne de confiance, le groupe d’experts a développé sept recommandations essentielles :

(1) Facteur humain et contrôle humain. Les systèmes faisant appel à l’IA devraient soutenir l’autonomie et la prise de décision humaine, sans pour autant la remplacer. A cet effet, ces systèmes devraient devenir des appuis pour une société plus équitable, en se mettant au service de l’humain et des droits fondamentaux, sans toutefois supprimer ou restreindre l’autonomie humaine.

(2) Robustesse et sécurité. Ce qui est visé par cette exigence est la fiabilité. En effet, afin de parvenir à une IA digne de confiance, la robustesse technique, étroitement liée au principe de la prévention à toute atteinte, est un préalable nécessaire. Ainsi, les systèmes devraient être résilients notamment face aux attaques d’adversaires qui tenteraient de les exploiter, que ce soit tant au niveau de l’infrastructure, du modèle, ou des données. Ces systèmes se doivent d’être sûrs, précis, mais également dotés de plans de secours en cas de défaillances.

(3) Respect de la vie privée et gouvernance des données. Le respect de la vie privée est un droit fondamental particulièrement vulnérable à l’émergence et au déploiement de l’IA. La prévention de tout risque d’atteinte au respect de la vie privée requiert dans la même optique, une gouvernance appropriée et raisonnable des données utilisées et stockées.

(4) Transparence. Ainsi, tant la traçabilité, l’explicabilité que la communication doivent être assurées. La traçabilité concerne les données et modus operandi permettant au système d’IA de prendre une décision. L’explicabilité concerne la capacité de rendre des comptes tant sur les processus techniques d’un système d’IA que sur les décisions humaines qui s’y rapportent. De ce fait, les décisions prises par un système d’IA doivent pouvoir être comprises et recontextualisées par un être humain. Dans la continuité, la communication prône que les systèmes d’IA ne devraient pas se présenter comme des êtres humains auprès des utilisateurs. Par conséquent, lorsque des systèmes d’IA voudraient interagir avec un système d’IA, les êtres humains auraient le droit d’en être informés. Ainsi, les systèmes d’IA doivent être identifiables en tant que tels.

(5) Diversité, non-discrimination et équité. Ce principe implique l’inclusion et la diversité tout au long du cycle de vie du système d’IA. De ce fait, les services et innovations fournis par les systèmes d’IA ne devraient pas être biaisés et être accessibles à tous.

(6) Bien-être sociétal et environnemental. En ce sens, les systèmes d’IA devraient être conçus dans une perspective écologiquement responsable et durable.

(7) Responsabilitation. Enfin, dans le prolongement et aboutissement des points précédents, il convient de mettre en place des mécanismes pour assurer la responsabilité à l’égard des systèmes d’IA et de leurs résultats, tout en exigeant une obligation de rendre des comptes.

Au-delà de ces lignes directrices, somme toute assez théoriques, il est néanmoins à souligner l’effort investi concernant le souci d’effectivité de ces lignes mentionnées supra. En effet, celles-ci sont accompagnées, d’une part, d’orientations pour l’application concrète et la mise en œuvre opérationnelle de ces valeurs et principes dans les systèmes d’IA (à titre d’orientation, les principes et exigences éthiques pour une IA digne de confiance devraient être intégrés dans les produits et services dès la première étape de la conception) et d’autre part, d’une liste d’évaluation (version pilote, voy. supra) destinée à vérifier si ces exigences sont remplies. Toutefois, il convient de garder à l’esprit que la liste d’évaluation n’est pas exhaustive, ainsi, même si tous les critères de la liste venaient à être rencontrés, cela ne suffirait pas en soi à garantir une IA digne de confiance. Par conséquent, même à ce jour, le problème semble demeurer : comment garantir une telle confiance à l’utilisateur ?

E. Conclusion

En conclusion, nous l’avons vu, l’intégration de l’intelligence artificielle dans notre société est un sujet complexe, mais au-delà de ce constat, également une véritable opportunité à saisir.

La Commission se veut être le guide de la création d’un climat de confiance propice au développement, déploiement et à l’utilisation d’une IA digne de confiance en Europe. Sur base de ce constat, elle encourage les parties prenantes à respecter les exigences portées par le groupe d’experts de haut niveau, mais a également pour ambition de porter l’approche éthique de l’Europe sur le devant de la scène mondiale, en ouvrant la porte de la coopération à l’ensemble des pays tiers désireux de s’allier à ce bouleversement technologique auquel aucun d’entre nous n’échappera.

[1] Commission européenne, Les États membres et la Commission vont collaborer pour stimuler l’intelligence artificielle « fabriquée en Europe », communiqué de presse, Bruxelles, 7 décembre 2018.