L’intelligence artificielle (IA) s’est désormais imposée comme un véritable sujet des relations internationales, un enjeu majeur pour l’ensemble des acteurs publics comme privés, voire un facteur de puissance justifiant une course au leadership.
Pour autant, l’IA fait l’objet de débats nombreux polarisant les sentiments entre espoirs que suscite cette nouvelle technologies et craintes qu’elle fait naître. D’un côté, l’IA est vue comme un outil de choix pouvant être utilisée dans nombres de domaines pour améliorer notre bien-être, nous faciliter la vie, parfois même nous la sauver. De l’autre côté, elle inquiète celles et ceux qui redoutent une prise de pouvoir par des machines devenues autonomes et capables de prendre des décisions par elles-mêmes, éventuellement au détriment de l’humain.
De fait, comme toute nouvelle technologie, en l’absence de cadre juridique adapté, l’IA contribue à l’avènement de nombreux questionnements d’ordres moraux sur son acceptabilité et sa désirabilité. Mais dans un monde globalisé où les valeurs et les intérêts se heurtent et se défient, trouver des repères normatifs communs sur lesquels bâtir un cadre prescriptif général semble utopique. De fait, tandis que l’IA se développe de manière exponentielle, les codes d’éthiques se multiplient traduisant bien plus la diversité axiologique existante qu’une homogénéité des perspectives.
Ainsi, au lieu de voire s’établir un cadre normatif moral régulant le développement et l’utilisation de l’IA, on assiste à l’éclosion d’un système anarchique dans lequel chaque acteur avance ses pièces tout en se prévalant d’une conduite éthique rassurante. Cette cosm-éthique, éthique d’apparat, si ce n’est d’apparence, ayant pour unique but de rehausser l’image et donc le prestige de celui qui s’en drape, traduit une réalité niée par les tenants de l’universalisme des valeurs. D’une part, la morale est un construit social intrinsèquement lié à un système de valeurs spécifiques. D’autres part, les éthiques qu’elle induit, sont multiples et résolument contextuelles. Dans ce cadre l’évaluation morale de l’acceptabilité et de la désirabilité de l’IA ne peut être que relative, et toute tentative d’universalisation réduite à un simple exercice de marketing.
La morale : un construit social
Les définitions sont importantes. Elles peuvent certes être débattues, mais elles sont nécessaires pour construire un débat efficace, fondé sur des bases communes. En l’occurrence, celles de la morale et de l’éthique ne font l’objet d’un consensus. En conséquence, toute discussion, toute évaluation devient subjective et partiale, pour ne pas dire arbitraire.
En matière de morale, les définitions proposées par Paul Ricœur présentent l’intérêt de la clarté et de leur caractère opératoire. Ainsi, Ricœur propose-t-il de scinder la question de la morale en trois domaines :
- La morale à proprement parler, entendue, d’une part, comme « la région des normes, autrement dit des principes du permis et du défendu, d’autre part, le sentiment d’obligation en tant que face subjective du rapport d’un sujet à des normes ».
- L’éthique antérieure représentant « l’amont des normes », c’est-à-dire une « éthique fondamentale » ayant pour visée la « vie bonne ».
- Enfin, à « l’aval des normes », l’éthique postérieures qui englobe les éthiques appliquées, que Ricœur appelle la « sagesse pratique ».
Dans le cas qui nous occupe, le modèle ricœurdien nous permet de distinguer la règle morale au travers de la laquelle l’IA est évaluée comme bonne ou mauvaise, de l’éthique antérieure qui nous explique sur quels fondements est bâtie la morale considérée, et de l’éthique postérieure qui traite de l’application des normes morales dans les domaines de l’IA. Il nous permet également de comprendre que les comportements éthiques ne peuvent être jugés qu’à l’aune du cadre moral dans lequel elles s’insèrent. Enfin, en démontrant que l’éthique fondamentale a pour finalité la « vie bonne », Ricœur nous renvoie aux réflexions d’Aristote sur la finalité d’une éthique fondée sur des vertus « consistant pour l’essentiel dans une manière habituelle d’agir sous la conduite de la préférence raisonnable » visant au bonheur, que le Stagirite considère comme « la chose la plus désirable de toutes », un « Bien suprême » dont la source se trouve dans « l’activité conforme à la vertu ». En d’autres termes, ce sont les vertus apprises socialement qui définissent le bonheur à atteindre et donc les normes morales qui régiront les comportements. La morale renvoie donc à des règles particulières construites socialement et auxquelles adhèrent les membres de la communauté étudiée.
Avant même de s’intéresser aux codes éthiques, il est donc nécessaire, dans un premier temps d’identifier la ou les normes morales applicables à l’intelligence artificielle.
L’aporie de la morale universelle
En l’occurrence, déterminer quelle est, ou quelles sont les normes morales régissant l’IA est un exercice éminemment compliqué puisque lesdites normes varient en fonction des environnements socioculturels des acteurs étudiés.
Une étude, publiée en septembre 2019, visant à dresser un tableau du « paysage global des directives en matière d’éthique de l’IA », identifiait pas moins de onze « valeurs et principes éthiques », et concluait à « l’émergence d’une convergence globale autour de cinq principes éthiques (transparence, justice, équité, non-malfaisance, responsabilité et vie privée) »[1]. Pour autant les auteurs soulignaient des divergences substantielles dans l’interprétation de ces principes, les raisons de leur importance, les acteurs concernés et la manière dont ils doivent être appliqués. Plus encore, l’une des auteures de l’étude, écrivait dans un article ultérieure : « La première chose à m’avoir surpris fût qu’il n’y avait pas un seul principe commun à l’ensemble des 84 documents sur l’éthique de l’IA examinés »[2].
Constat confirmé par une autre étude qui souligne par ailleurs que, d’une part, lorsque des principes éthiques sont établis dans une institution ou une entreprise, ils sont essentiellement utilisés comme outil de marketing, et que, d’autre part, la prise de connaissance des recommandations éthiques « n’a pas d’incidence notable sur le processus de prise de décision des développeurs de logiciels »[3].
Au final, il apparait que d’un point de vue empirique il n’existe aucune norme morale commune sur laquelle pourrait être bâti un code éthique de l’IA, applicable et appliqué par tous, en tous temps et en tous lieux.
Un plus petit dénominateur moral commun ?
Pourtant, à lire les déclarations d’intentions en matière d’éthique de l’IA, un élément semble faire consensus : l’IA doit rester sous contrôle de l’humain et ne devrait avoir pour seul objet que de lui bénéficier et non de lui nuire. De fait, l’humain resterait au centre des préoccupations éthiques en matières d’IA, et cette centralité serait le plus petit dénominateur moral commun à partir duquel pourraient être établis des principes éthiques universels. Pour autant, sur le plan des valeurs, on note que la question de la centralité de l’humain, traduite par le respecte de sa dignité, reste très marginale dans les codes d’éthiques à travers le monde, et lorsqu’elle l’est, elle souffre d’un défaut de définition.
Ces disparités dans le domaine des valeurs, et donc des principes éthiques qui en découlent, ne sont pas réellement surprenantes. Les valeurs sont éminemment contingentes et constituent un système de croyances spécifiques à une communauté humaine. En l’occurrence, il est évident que la question de la dignité humaine, voire plus largement de l’ontologie de l’humain, n’est pas approchée de la même manière, par exemple, en France, en Chine, en Russie ou en Arabie Saoudite. Conséquemment, les positionnements éthiques vont différer dans des proportions plus ou moins grandes et conditionner des comportements variables. En matière d’IA, les restrictions aux violations du respect de la vie privée sont ainsi largement moins importantes en Corée du Nord et en Chine, qu’au Canada et en Allemagne.
Pour autant, se concentrer sur une zone géographique ou un pays pour évaluer les règles morales et les perspectives éthiques n’est pas suffisant. D’une part parce que le mot « communauté » ne traduit pas nécessairement une proximité géographique des membres qui la constituent. Ensuite, parce que les pays sont définis par des frontières qui ne représentent pas des différences culturelles et ne cloisonnent pas les communautés. Enfin, parce que le mot communauté n’est pas consubstantiel d’une quelconque homogénéité en termes d’identité et de valeurs, et que dans un monde globalisé l’approche exclusivement géographique perd de sa pertinence. On ajoutera que, outre l’aspect géographique, le contexte impacte largement les perceptions et donc les attitudes.
Une question de contexte
La situation de crise sanitaire actuelle due à la pandémie de Covid-19, offre d’ailleurs une illustration intéressante du caractère contextuel des valeurs et des normes morales qui en découlent, mais surtout de leurs applications. Ainsi, le droit au respect de la vie privée dans le cadre de la collecte de données personnelles est remis en question au motif de la lutte contre le coronavirus. En France ou au Canada, la question de l’identification des malades potentiels et leur géolocalisation par l’IA est clairement posée en dépit de toutes les règles morales qui proscrivent ces pratiques en « temps normal ». Ainsi le respect de certains droits fondamentaux est en passe d’être écarté au motif d’une situation d’urgence dont le caractère exceptionnel légitime des mesures dérogatoires.
Le contexte agit donc sur les comportements moraux, sur les perceptions de ce qui est acceptable ou ne l’est pas, sur nos appréciations du Bien et du Mal. L’Histoire est d’ailleurs émaillée de ces situations où la morale a été mise entre parenthèse, où les éthiques se sont exprimées dans ce qu’elles avaient de plus louables autant que dans leurs dimensions les plus condamnables.
Au final, et comme le soulignait Patrick Pharo, dans son livre Morale et sociologie, « [l]’expression purement verbale des contenus moraux peut (…) se révéler trompeuse » et l’adhésion à une norme ne suffit pas à garantir son application. On retrouve là la tension classique entre valeurs et faits, entre le prescriptif et le descriptif.
Des éthiques …
Les études menées sur l’éthique de l’IA, soulignent la difficile question de la possibilité, mais aussi de la désirabilité, de l’établissement d’un cadre normatif moral unique applicable à une technologie qui dépasse les notions classiques de communautés et de pays, et qui s’applique indistinctement partout où les moyens techniques le permettent. Elles relèvent également la difficulté à articuler l’idéalité d’un système de valeurs partagées sur lequel seraient construites des normes morales universelles régissant l’IA, et les particularismes éthiques liés aux différences culturelles. Ces particularismes se retrouvent par exemple dans le développement de la robotique qui suscite des inquiétudes dans le monde occidental, alors qu’en Asie elle est totalement acceptée.
Si le relativisme moral a souvent une connotation péjorative, il n’en demeure pas moins qu’il traduit une réalité qui ne préjuge pas du positionnement axiologique quant à son acceptabilité éthique. En tout état de cause, les différents cadres normatifs présents sur la scène internationale tendent à confirmer l’existence d’un pluralisme donnant lieu à des perspectives très différentes sur l’éthique de l’IA. Ces perspectives s’insèrent elles-mêmes dans des stratégies plus larges en matière de développement de l’IA et dans un cadre de compétition internationale particulièrement dynamique.
Une étude publiée par le Canadian Institute for Advanced Research (CIFAR), en décembre 2018, répertoriait ainsi dix-huit stratégies plus ou moins aboutie[4]. L’étude soulignait que : « les 18 stratégies en IA publiées à ce jour ne comportent pas le même ensemble de priorités stratégiques. Un grand nombre d’entre elles partagent des caractéristiques communes, mais chacune est unique ». En d’autres termes, bien qu’il existe des points de croisement entre les stratégies, chacune répond à des spécificités en termes de perceptions et d’analyse des intérêts des pays concernés ce qui fait que « [l]es stratégies varient considérablement ». En conséquence de quoi, les positionnements éthiques vont découler des priorités fixées par chaque gouvernement et de l’importance donnée à l’éthique dans cette liste de priorités.
À ce titre, on soulignera d’ailleurs que tous les pays engagés dans la course à l’IA et ayant développé des stratégies, n’ont pas systématiquement intégré une dimension éthique dans leurs réflexions. Les dix-huit stratégies étudiées par le CIFAR présentent en effet de grandes disparités en matière d’importance accordée à l’éthique. Ainsi celles de l’Allemagne, du Japon, de la Corée du Sud ou encore de Taïwan, n’incluent pas de considérations éthiques à proprement parler, celle de l’Italie présente une approche très philosophique de l’éthique, tandis que d’autres se contentent d’énumérer des principes.
… à la cosm-éthiques
La tendance serait donc à l’« ethics washing » (blanchiment éthique) c’est-à-dire la démonstration superficielle d’un supposé intérêt pour l’éthique utilisée pour éviter les normes institutionnelles et faire de l’éthique une nouvelle forme de régulation moins contraignante que le droit. De fait le débat sur l’éthique de l’IA procéderait d’une résistance à la régulation juridique. Les enjeux économiques liés au développement de l’IA sont, en effet, tels qu’aucun acteur de la scène international ne désire se contraindre et ainsi se priver d’une manne aussi importante. Avec des dépenses globales prévues de 79,2 milliards de dollars (Md$) en 2022, l’IA pèsera 15,7 milliers de Md$ dans l’économie mondiale et représentera un marché dépassant les 200 Md$ en 2026.
Au-delà de l’aspect économique, l’IA revêt une dimension stratégique fondamentale. La course à l’IA traduit la prise en compte des États de l’importance du domaine notamment dans leurs quêtes de facteurs de puissance.
Ainsi, la lutte entre les deux leaders que sont les États-Unis et la Chine, traduit l’importance des enjeux liés à l’IA. Pour Pékin, l’IA présente l’intérêt de renforcer tant son hard power que son soft power, et sa stratégie souligne la volonté du pays de s’imposer comme « le principal centre d’innovation en intelligence artificielle dans le monde » à l’horizon 2030. De son côté, si Washington n’a pas réellement de stratégie en la matière, l’ordre exécutif promulguée en février 2019 rappelle la position dominante des États-Unis et que l’IA promet d’être un moteur de la croissance économique du pays, mais aussi un outil au service de sa sécurité.
En étudiant les différentes stratégies nationales, on se rend rapidement compte que le pragmatisme est de rigueur et les enjeux économiques et politiques conditionnent les positionnements. La question du développement de systèmes de combat équipés d’IA est à ce titre représentative de ce réalisme.
De fait, l’éthique est renvoyée à un argument de vente visant à rassurer des consommateurs pour certains inquiets des potentialités négatives de l’IA, et se transforme en une cosm-éthique reposant sur un narratif autour de supposées valeurs universelles.
En la matière l’Union européenne, qui vient de publier son Livre blanc sur l’intelligence artificielle, illustre parfaitement cette tendance à la cosm-éthique visant à gagner la confiance plus qu’à défendre des principes. On retrouve ce même tropisme dans l’ordre exécutif américain, les stratégies française, sud-coréenne, chinoise ou encore des Émirats Arabes Unis dont les principes éthiques sont étonnamment alignés sur les principes de Google.
La géopolitique de l’IA est donc complexe. Elle est plurielle et ne peut être réduite à la quête d’un code universel régissant le développement et l’utilisation de l’IA. Elle mériterait une étude approfondie par pays, par secteurs d’activités, par entreprises. En tout état de cause, chacun continuera de mettre en œuvre sa stratégie tout en prenant de rassurer les consommateurs et utilisateurs d’IA en recourant à l’argument éthique. La situation actuelle de crise sanitaire mondiale ne pourra qu’amplifier cette tendance en légitimant des pratiques réputées inacceptable en temps normal, notamment dans le domaine de la collecte de données personnelles.
L’essor de l’IA associé à la dérégulation procédant de la globalisation et à l’impossibilité d’établir un cadre normatif commun, laissent ainsi la porte ouverte à chaque États pour développer ses propres applications dans les domaines militaires, financiers, de la santé, des transports ou encore des communications ne favorisera pas la régulation au plan international. Chaque secteur présentant des intérêts stratégiques fera l’objet d’une compétition qui réduira la question éthique à un simple outil rhétorique.
Les plus optimistes verront dans les codes d’éthiques de l’IA un pis-aller, les plus pessimistes une perte temps masquant le cynisme qui caractérise l’arène internationale. En tout état de cause, il semble qu’un ordre éthique universel régissant l’IA n’est pas encore à l’ordre du jour et que sa quête soit vaine.
Article initialement publié en espagnol : Geopolítica de las éticas de la inteligencia artificial, Vanguardia Dossier, No. 77, « ¿Quién mandará en la inteligencia artificial? », Octubre/Diciembre 2020
[1]Anna Jobin, Marcello Ienca and Effy Vayena, “Artificial Intelligence: the global landscape of ethics guidelines”, Nature Machine Intelligence, Vol. 1, 2019, pp. 389–399.
[2] Anna Jobin, “Ethics guidelines galore for AI – so now what?”, ETH Zürich Zukunftsblog, 17 January 2020.
[3] Thilo Hagendorff, “The Ethics of AI Ethics: An Evaluation of Guidelines”, Minds and Machines, Vol. 30, no. 1, 2020, pp. 1-22.
[4] Tim Dutton, « L’ère de l’IA : Rapport sur les stratégies nationales et régionales en matière d’IA », Canadian Institute for Advanced Research, 6 December 2018.