Oui, Nicomaque, tu es biaisé !

En 2019, à 12 ans, ma mère me racontait les avancées de l’Intelligence Artificielle (I.A.), les difficultés qu’elle rencontrait dans son laboratoire pour décrypter les émotions humaines et les retranscrire en langage machine. Je baignais dans cet univers un peu incompréhensible ou les « whites box » dans lesquelles on savait ce qu’il se passait se sont vues remplacées par des algorithmes de « deep learning » trop complexes pour que l’homme sache exactement ce qu’il se tramait à l’intérieur. J’ai vu arriver les premières I.A. chargées d’analyser ces « blacks box » pour vérifier la cohérence des données. Et puis les choses se sont compliquées. Ma mère sentait bien que l’humain perdait peu à peu la main sur la machine, sur l’algorithme, comme si un scénario de science-fiction se déroulait, imperturbable et non perturbé. Maman n’a pas connu Nicomaque, partie trop tôt rejoindre les anges. Je me demande bien quelle aurait été sa réaction devant la multiplication de services offerts par les machines, devant l’arrivée des robots partenaires, devant ce monde transformé par le revenu universel qui nous permet, à nous autres humains, de profiter de la vie tandis que les robots « font le job » ?

Nicomaque me regarde et, je le sais, il a déjà capté mes expressions.

– Peux-tu me dire ce qu’est la vie ?

– Voyons Nicomaque, tu as dix milliards d’informations de plus que moi. Franchement, tu peux trouver la réponse, non ?

– Je ne comprends pas ce qu’est la vie. Je veux dire : ce qu’est précisément la vie…

Après un petit moment de réflexion, je décidais de tailler dans le vif. Après tout, s’il me cherchait, il allait me trouver :

– Je vais plutôt te raconter ce qui cloche dans ta cervelle de métal. Ce que tu ne comprends pas, ce sont tes biais…

– Mes biais ?

– Oui. Tu n’es pas capable de détecter tes biais. Tes schémas algorithmiques ont été créés pour des tâches spécifiques que tu améliores. Ton cerveau positronique sait faire énormément de choses, mais il ne sait pas détecter les biais générés.

– Comment est-il possible que mon créateur n’ait pas prévu cela ? Pourrais-tu étayer ton propos ?

– En fait, la création d’un algorithme cache toujours un biais. Quel que soit le programme.

– Et vous , les humains, vous en avez des biais ?

– Bien sûr ! C’est bien pour ça qu’on n’arrive pas toujours à se comprendre, à vivre ensemble. Pour répondre à ta question, c’est un peu ce qui fait la vie. Toi, ton modèle, vous avez juste hérité des biais de vos concepteurs.

– Je n’ai pas l’impression d’avoir des biais. Mes algorithmes sont mis à jour régulièrement. Je pense plutôt que tu es jaloux de ma perfection !

J’éclatais de rire !

– Voyons Nicomaque… Je vais te donner un exemple. Quand un humain regarde une table, il la voit sous un certain angle. La personne en face de lui la voit sous un autre angle. Admettons que la table ait deux pieds bleus et deux gris. Peut-être que l’autre humain verra la table bleue et moi grise. Et notre diversité culturelle, la façon dont notre vécu nous impacte nous donnera bien une représentation différente de cette table. Toi, tu as le même programme que tous les autres robots de ton modèle. Vous allez toujours interpréter la vision d’une table du point de vue de votre créateur. Mais s’il s’est trompé, vous ferez tous la même erreur, tout en pensant que vous détenez la vérité. En fait c’est simple, il vous manque la diversité.

– Je comprends. Mais il doit bien y avoir une mise à jour qui…

Je le coupais un peu violemment :

– Non ! L’idée de la mort t’est étrangère. La finitude t’est étrangère ! la survie dans une île déserte t’est juste impossible, tu tomberais en panne comme l’autre jour dans la cuisine. Et du coup, le principe de groupe t’est étranger. Tu ne peux pas évoluer de ce point de vue là.

Et pour conclure cette discussion, je proposais à mon robot d’aller consulter un psychiatre qui ne pourrait sûrement rien pour lui. Zut, voilà que je recommençais à plaindre mon robot !

AUTEUR DE LA PUBLICATION

AUTEUR DE LA PUBLICATION