Comprendre et évaluer philosophiquement l’IA

Analyse par Franck Negro, Managing Director, Central & Southern Europe Yext

By Franck Negro

4 janv. 2024

18 min

Vient de paraître aux éditions Mimésis, la traduction d'un livre du philosophe italien Luciano Floridi, L'éthique de l'Intelligence artificielle. Ce dernier est consacré aux défis éthiques, mais aussi aux opportunités soulevées par l'émergence et le développement de l'intelligence artificielle. Il s'agit donc d'un ouvrage que l'on peut qualifier d'éthique appliquée à l'intelligence artificielle, bien que touchant plus généralement à la révolution numérique.

Élaborer une philosophie de notre temps, pour notre temps

Floridi est peu connu du public français. Sa fiche Wikipédia le présente pourtant "comme l'un des plus importants théoriciens de la philosophie de l'information et éthique de l'informatique, reconnu comme une autorité dans le domaine de la philosophie sur Internet." Tandis que la troisième de couverture en parle "comme l'un des principaux interprètes de la révolution numérique." C'est certainement à ce titre, qu'en 2014, il a été nommé par Google pour faire partie d'un comité consultatif de dix experts chargés de rédiger un rapport sur le droit à l'oubli, ou a été membre de plusieurs groupes d'experts en charge d'établir des lignes directrices et des principes éthiques visant à guider le développement de l'intelligence artificielle, dont les Lignes directrices éthiques en matière d'éthique pour une IA digne de confiance publié par l'Union Européenne en juin 2018. Floridi est aujourd'hui professeur de philosophie éthique à l'université d'Oxford.

Précisons d'emblée que L'éthique de l'intelligence artificielle est le dernier volume d'une tétralogie intitulée Principia Philosophiae Informationis (Principe de philosophie de l'information), mais qu'il peut se lire indépendamment des autres ouvrages. Il s'agit, selon les propres termes de l'auteur, "de contribuer (…) à l'élaboration d'une philosophie de notre temps, pour notre temps ". En d'autres termes, de moderniser la pratique de la philosophie en l'orientant vers des objets en rapport direct avec les grands débats contemporains. On trouve en effet, articulé au sein d'une même intention, sept grands domaines de questionnements dans la philosophie de Floridi, à savoir : une philosophie de la technique ; une philosophie de l'information ; une philosophie des systèmes d'information ; une philosophie du numérique ; une philosophie de l'intelligence artificielle ; une philosophie éthique ; et enfin, une philosophie politique.

Pour une définition philosophique de l'IA

Dès sa préface, Floridi souligne le caractère paradoxal de l'intelligence artificielle. A la fois génératrice "d'incertitudes inquiétantes" de par les transformations époustouflantes qu'elle laisse entrevoir dans tous les secteurs de l'activité humaine (l'éducation, le commerce, l'industrie, les médias, la logistique, la banque, le divertissement, la santé, les relations sociales, etc.), mais en même temps, porteuse d'opportunités extraordinaires, à condition, s'empresse de préciser l'auteur, de l'orienter, dès à présent, et de façon proactive, au bénéfice de l'humanité et de notre planète.

D'où la question fondamentale que le livre se propose de traiter, à savoir : Comment construire correctement "nos réalités numériques" avant "qu'elles ne commencent à nous influencer et à influencer les générations futures de manières erronées"? C'est cette question capitale qui appelle, selon notre auteur, une analyse éthique constructive des problèmes potentiellement posés par la révolution numérique (dont l'intelligence artificielle est une composante de plus en plus importante), afin de pouvoir, en retour, concevoir des technologies numériques "socialement préférables et écologiquement durables".

Le livre comprend deux grandes parties – "Comprendre l'IA" et "Évaluer l'IA" -, à leur tour constituées de plusieurs sections, dont chacune s'ouvre sur un résumé, pour ensuite se terminer sur des conclusions brèves, et ouvrir sur la section suivante. L'objectif de Floridi étant d'accompagner progressivement le lecteur dans une suite de thématiques et d'arguments qui s'inscrivent tous dans une construction d'ensemble qui fait en quelque sorte système. Il convient donc de lire les sections les unes après les autres, même si l'on pourra ensuite revenir sur une section particulière pour en avoir une lecture plus critique.

Ce qui veut dire que selon Floridi, évaluer l'IA selon des critères éthiques classiques du bien et du mal, du bon et du mauvais, et orienter son développement dans un sens qui soit favorable à l'épanouissement général du genre humain, implique, dans un premier temps, de comprendre comm =ent en est-on arrivé là (dans un autre ouvrage non traduit à jour, The 4th Revolution. How the infosphere is reshaping human reality, Floridi réinterprète l'histoire du développement de l'humanité à l'aune du développement des technologies de l'information et des communications), mais surtout, qu'est-ce qui, fondamentalement et philosophiquement parlant, caractérise la révolution numérique qui a finalement rendu possible l'avènement de l'intelligence artificielle ? C'est ce qui fait l'objet de la première partie du livre : "Comprendre l'IA", sur laquelle se concentre le présent article, dans l'attente de proposer d'autres articles consacrés à l'éthique de l'IA en général, et à l'éthique de l'IA de Floridi en particulier.

Bien que ce dernier soit parfaitement informé sur l'histoire des technologies sous-jacentes à la révolution numérique en cours, laquelle affecte aujourd'hui, et de façon profonde, la majeure partie de nos activités quotidiennes (y compris nos manières de penser), il ne s'agit pas pour lui de décrire leur fonctionnement technique - comme le ferait un ingénieur informaticien par exemple -, mais de donner, selon ses propres termes, une "interprétation conceptuelle" de l'IA. Et ce n'est en effet selon lui, "qu'en comprenant la trajectoire conceptuelle et ses implications que nous pourrons avoir la bonne perspective sur la nature de l'IA" (ce qu'elle est et ce qu'elle n'est pas), ses développements futurs probables, les opportunités qu'elle laisse entrevoir, et par voie de conséquence, les défis éthiques qu'elle soulève.

On ne trouvera donc pas dans le livre de Floridi des explications détaillées sur ce qu'est technologiquement l'IA, le Machine Learning, ou les modèles de langage de type Transformer comme GPT ou Gemini par exemple (il existe déjà d'excellents ouvrages sur ces sujets, comme la publication récente aux éditions Dunod de Intelligences artificielles : de la théorie à la pratique de Jean-Paul, Emmanuel et Marie-Christine Aton, que je conseille personnellement), mais une réflexion philosophique sur ce que font et changent le numérique et l'IA dans nos façons de voir, de penser et d'habiter le réel.

Le pouvoir clivant du numérique

D'où une première question qui ouvre la première partie du livre : Comment le numérique, en tant que phénomène global, et l'intelligence artificielle en particulier, transforment de façon profonde à la fois la réalité, mais aussi notre manière de l'appréhender ? En introduisant en effet un monde virtuel et numérique, en quelque sorte, imbriqué à notre monde physique et analogique (j'utilise à dessein le terme "imbriqué" pour indiquer que ce que nous appelons online et offline ne forme plus, selon Floridi, qu'une seule et même expérience qu'il appelle onlife), la numérisation généralisée de nos existences, a inévitablement produit ce que notre auteur appelle : des phénomènes de couplage et de découplage. Et c'est à l'aune de cette transformation, de nature ontologique (comprendre, "la nature de ce qui existe et constitue désormais notre nouvel environnement"), qu'il est possible d'envisager l'émergence et le traitement de problèmes de nature éthiques, juridiques et sociaux, quasiment inédits dans toute l'histoire de l'humanité.

Pour illustrer son propos, Floridi prend l'exemple très parlant de la question sensible du respect de la vie privée, qui acquiert une dimension nouvelle avec le numérique, puisque l'identité personnelle et le profil individuel d'une personne (son incarnation physique en quelque sorte) est désormais indissociablement couplée avec ses données personnelles, de par l'extraordinaire pouvoir de stockage et de traitement sans cesse croissant de l'écosystème technique et numérique dans lequel nous évoluons désormais.

Il est également possible d'analyser le débat autour du droit à l'oubli, non plus cette fois-ci en termes de couplage entre le monde physique de l'identité personnelle et celui de l'identité numérique, comme c'est le cas pour la question du respect de la vie privée, mais en termes de découplage entre l'espace normatif du droit, dont les décisions opèrent sur un territoire géographique donnée, et l'espace virtuel d'internet, que l'on ne peut pas assimiler à un espace physique. Le découplage du droit et de la territorialité, que Floridi connaît bien du fait de sa mission chez Google, nous aide ainsi à mieux comprendre les problématiques soulevées lors des débats autour du droit à l'oubli. Comment dans ce cadre mettre en œuvre ce dernier, lorsque de façon fondamentale, un moteur de recherche comme Google ou Bing fonctionne dans un espace logique principalement constitués d'URLs et de liens (le web), qui n'est, par essence, pas calqué sur les frontières d'un système juridique donné ?

L'interdiction récente de ChatGPT par le Président de l'autorité de la protection des données personnelles sur le territoire italien le 30 mars 2023, est un autre exemple qui vient parfaitement illustrer le découplage du droit et de la territorialité et des problèmes engendrés par ce dernier, puisqu'il était immédiatement possible, pour n'importe quel internaute italien, de contourner l'interdiction en simulant sa présence dans un autre pays via l'utilisation d'un VPN (Virtual Private Network). C'est d'ailleurs en même temps la non-territorialité du numérique, fait remarquer Floridi, qui permet une circulation sans entrave de l'information, et rend son contrôle difficile, comme l'atteste l'exemple de la Chine. Ce qui constitue en effet d'un côté un obstacle pour la protection d'un droit fondamental comme le respect de la vie privée des individus, constitue en même temps une formidable opportunité à l'exercice d'un autre droit fondamental qu'est la liberté d'expression.

Autre exemple de découplage, celui bien connu entre d'une part, l'emplacement d'une entité physique donnée (une personne, une librairie, une agence bancaire, un magasin de vêtements, etc.), et d'autre part, sa présence numérique (Facebook, Instagram, un site web, un moteur de recherche, etc.). Phénomène quasi banal et vécu comme tel aujourd'hui, notamment par les générations Z et Alpha, mais néanmoins totalement inédit, puisque là aussi, pour la toute première fois dans l'histoire de l'humanité, l'emplacement et la présence n'apparaissent dorénavant plus comme deux aspects inséparables de la même réalité vécue. Nous serions ainsi la première génération, indique Floridi, pour laquelle la question "où es-tu" n'est plus une simple question rhétorique. Et c'est dans ce cadre, qu'il nous invite à analyser les efforts toujours plus importants réalisés par les enseignes, de revalorisation de l'emplacement de leur réseau physique grâce à la multiplication et la mise en valeur des lieux de présence numériques. Bref, de coupler à nouveau ce qui a été découplé par le numérique. L'auteur mentionne enfin rapidement d'autres cas intéressants de découplages, comme l'économie du partage, qui est un découplage entre l'usage et la propriété, ou encore, les débats actuels autour du revenu universel ou revenu de base, qui constitue un découplage du salaire et du travail, même si les puristes (et ils auront raison) ne manqueront pas de rappeler que le concept est né bien avant la révolution numérique, avec des auteurs comme Thomas More (1478-1535) ou Thomas Paine (1737-1809).

Il n'empêche que l'analyse des phénomènes en termes de couplage-découplage-recouplage, constitue, à la fois un puissant outil conceptuel pour comprendre les transformations radicales opérées par le numérique sur la réalité (Floridi parle de re-ontologisation pour insister sur le pouvoir qu'a le numérique de ne pas seulement améliorer l'existant, mais de créer de nouveaux environnements et de nouvelles formes d'agir), mais aussi, prendre la mesure des défis et opportunités engendrées par la révolution numérique. Cette dernière est au moins, toujours selon Floridi, aussi importante, à l'échelle de l'histoire de l'humanité, que la révolution néolithique ou la révolution industrielle, puisqu'elle touche et change de façon durable et radicale - comme l'on fait les deux premières révolutions -, à quatre choses essentielles, à savoir : 1) comment les hommes vivent ; 2) comment ils se conçoivent eux-mêmes ; 3) comment ils interagissent avec le monde ; 4) comment ils interagissent entre eux.

L'IA, une nouvelle forme d'agir

Ces premières mises au point sur la révolution numérique amènent progressivement Floridi à poser la question centrale de la première partie de son livre, à savoir : Qu'est-ce que fondamentalement et conceptuellement l'IA ? Ce qui, du fait de son appartenance à la catégorie des technologies numériques qu'elle a largement commencé à transformer de façon substancielle (pour ne pas dire investir en totalité), revient à se demander : De quel genre de clivage relève-t-elle ? Mais aussi et surtout : De quelle nouvelle forme d'agir est-elle le nom ? Et Floridi de préciser d'emblée que le type d'agir dont il est question ici, n'a pour ainsi dire, rien à voir avec celui dont ont coutume de parler les philosophes ou les psychologues, mais d'une forme d'agir telle que décrit par la théorie informatique. Ce qui mérite quelques explications…

Dans le cadre d'une philosophie de l'action ou d'une philosophie morale ou éthique (je ne fais pas de distinction ici), un "agir" fait référence à un type d'action, laquelle caractérise la façon dont un agent (un agent "humain" ici en l'occurrence) se comporte et agit sur le monde, avec lui-même et avec les autres. Elle implique en première approximation une cause de nature mentale, qui peut être décrite en termes de désir, d'intention, de motif, de mobile, de contrainte, de contexte, de conscience, ou encore, de responsabilité et de libre arbitre, lorsque l'on parle d'actions référant plus particulièrement au domaine de la morale, et évaluables du point de vue du bien et du mal, du bon et du mauvais.

Dans une démarche davantage empirique, descriptive et expérimentale, la psychologie, elle, étudie plus largement les comportements et processus mentaux des agents humains, incluant ceux qui sont à l'œuvre dans des activités dites "cognitives" (psychologie cognitive), comme l'acquisition d'informations (perceptions) et leur interprétation et traitement au moyen du langage, dans le but de produire des connaissances, et de réagir de façon appropriée à notre environnement.

Au sens philosophique et psychologique du terme, parler d'un agent c'est donc, en tout premier lieu, référer à un type d'entité bien définie ("agents humains"), douée de conscience de soi et du monde (ce qui n'exclut pas la possibilité d'actes inconscients), capable de comprendre les évènements qui l'entoure et de s'y adapter en conséquence (rationalité), d'agir par elle-même indépendamment de contraintes internes ou externes pouvant infléchir sa volonté (autonomie et libre arbitre), d'évaluer le caractère moral d'une action (conscience morale), et d'être, de ce fait, comptable de ses actes (responsabilité). La notion d'agent ici, est très proche de ce que l'on nomme en philosophie : "sujet". Au sens métaphysique et moral du terme en effet, le sujet en philosophie, réfère à l'esprit en tant qu'il est connaissant et conscient de lui-même (c'est le sujet au sens de Descartes, Kant ou Schopenhauer), mais aussi capable d'évaluer ses actions du point de vue du bien et du mal, et donc responsable de ses actes.

Mais il est également possible de prendre le terme agent dans un sens beaucoup plus restreint (du point de vue de la compréhension du concept pour parler comme les logiciens), pour en retour, inclure d'autres types d'entités, comme des artefacts (robots, agents logiciels, chatbot, applications informatiques, etc.), des animaux (chats, chiens, etc.), des organisations (entreprises, gouvernement, etc.). Et c'est précisément dans ce sens, à l'exclusion du sens philosophique et psychologique évoqué plus haut, que Floridi va envisager le mot agent, qu'il reprend à la théorie des systèmes d'information, puisque pour rappel, L'éthique de l'intelligence artificielle n'est qu'une partie d'un ensemble d'ouvrages regroupés sous le titre de Principe de philosophie de l'information. Voici ce qu'il écrit :

"L'agir dont il est question dans ce livre est celui que l'on trouve couramment en informatique (…). Il est beaucoup plus minimaliste (c'est nous qui soulignons) et exige qu'un système satisfasse seulement trois conditions de base. Il peut : a) recevoir et utiliser des données provenant de l'environnement, par le biais de capteurs et d'autres formes d'entrées de données ; b) prendre des mesures fondées sur les données d'entrée, de manière autonome, pour atteindre des objectifs, par le biais d'actionneurs ou d'autres formes de sortie, et c) améliorer ses performances en tirant des enseignements de ses interactions."

Où l'on voit que l'objectif de Floridi est de dépouiller les conceptions communes de l'intelligence artificielle de tous les attributs anthropomorphiques habituellement associés à la description de capacités cognitives humaines (comme l'intelligence), pour finalement la définir comme une nouvelle forme d'agir (de type informatique) rendue possible par le découplage entre d'une part, la capacité d'un système technique à résoudre un problème ou à réaliser une tâche avec succès (comprendre une question, y répondre, traduire un texte en plusieurs langues, écrire une dissertation, etc.), et d'autre part, la nécessité d'être intelligent pour le faire. Floridi prétend ainsi revenir à la conception originelle de l'intelligence artificielle, telle que définie dans le document fondateur écrit par McCarthy, Minsky, Rochester et Shannon dans le cadre du projet de recherche d'été de Dartmouth du 31 août 1955 :

"Aux fins du présent document (Proposition pour le projet d'été de recherches sur l'intelligence artificielle), le problème de l'intelligence artificielle est considéré comme étant celui de faire en sorte (c'est nous qui soulignons) qu'une machine se comporte d'une manière qui serait qualifiée d'intelligente si un être humain se comportait ainsi."

Qualifier des types d'agir, ainsi que la logique dont ces derniers relèvent, est une question absolument cruciale, puisque cela va déterminer le statut moral et juridique dont l'entité en question peut légitimement et logiquement se prévaloir. Il s'agit de questions largement débattues depuis des années en éthique animale ou en droit animalier (qui a donné lieu à l'émergence de la notion de patient moral pour indiquer que seul les actions que les animaux subissent peuvent être évaluées moralement), qui sont et vont devenir de plus en plus importantes dans le domaine de l'éthique et du droit, au fur et à mesure du développement de l'intelligence artificielle.

Ce sont précisément ces enjeux que souhaite adresser ici Floridi. Et il va pour cela proposer, non pas une forme logique classique de définition en termes de conditions nécessaires et suffisantes au travers d'une liste exhaustive de critères à remplir pour qu'un artefact (robot ou logiciel) puisse rentrer sous la catégorie "intelligence artificielle", mais une définition de type contrefactuelle, telle que proposée par ces fondateurs, mais également par Alan Turing, dans son article désormais célèbre : Machines à calculer et intelligence (1950). Faut-il d'ailleurs rappeler que ce n'est pas un hasard si l'article de Turing (Computing Machinery and Intelligence en anglais), a été publié dans une revue (Mind) traitant avant tout de questions philosophiques dans la pure tradition de ce que l'on appelle aujourd'hui la philosophie analytique (d'obédience anglo-saxonne et utilisant l'analyse du langage et les outils de la logique pour résoudre des problèmes philosophiques), par opposition à la philosophie continentale (davantage européenne et inspirée de courants comme la phénoménologie, le marxisme et le structuralisme).

La vocation première de l'article de Turing est de traiter la question (philosophique) suivante : "Les machines peuvent-elles penser ?". De façon tout à fait logique et comme des milliers d'écoliers l'apprennent lors de leurs premiers cours de philosophie en Terminale, le père de l'informatique théorique rappelle qu'il faudrait au préalable se donner une définition des termes "penser" et "machine" pour pouvoir résoudre la question posée. Or voilà qu'il évacue d'emblée les questions de définitions (qu'est-ce que x), trop aléatoire et pas assez rigoureuse à son goût, pour remplacer la question de départ par une proposition d'expérience qu'il va nommer : "jeu de l'imitation", et que la postérité va léguer sous l'expression : Test de Turing. Ce dernier est conçu pour vérifier, non plus si une machine peut penser et est intelligente, puisque, selon Turing-Floridi, nous ne pouvons pas disposer de définition rigoureuse et consensuelle des termes "penser" et "intelligent" (et donc de l'intelligence artificielle), mais si elle est capable de se comporter (au sens de "faire en sorte que", pour reprendre les termes des pères fondateurs de l'IA) dans l'exécution d'une tâche donnée – ici, répondre à des questions -, d'une façon telle, qu'il serait impossible de la distinguer d'un agent humain.

En d'autres termes, McCarthy, Minsky, Rochester, Shannon, Turing et Floridi proposent ce que les logiciens appellent de façon laconique une définition ostensible de l'intelligence artificielle, dont le digne précurseur n'est autre que l'apôtre Thomas dans le Nouveau Testament, lequel refusa de croire en la résurrection du Christ jusqu'au jour où il put enfin voir et toucher les plaies du fils de Dieu. Ne demandez plus : "Est-ce que ChatGPT est intelligent ?", mais plutôt : "Est-ce qu'il exécute avec succès des tâches normalement dévolues à l'intelligence humaine ?" Ce qui compte, affirme Floridi, ce n'est pas le comment (la manière dont ChatGPT réalise une tâche), mais le quoi (la tâche qu'il exécute). Et ce serait une erreur logique et historique de déduire du résultat (l'exécution réussie de la tâche), la propriété "être intelligent". Allez-vous en effet déduire (l'exemple est de Floridi) du fait que votre lave-vaissellle nettoie les assiettes et les couverts mieux que vous, que votre lave-vaisselle est aussi, voir plus intelligent que vous ?

Contrairement à ce que voudrait nous faire accroire une certaine vision caricaturale du développement des nouvelles technologies, ce que fait et va continuer à faire l'IA dans les années à venir, en tant que branche de l'ingénierie, ce n'est pas produire l'équivalent non biologique d'un cerveau humain (bref réaliser une machine intelligente qui serait similaire en tout point à un cerveau humain), mais concevoir des systèmes numériques capables de reproduire les résultats et les succès normalement exécutés par un cerveau biologique par d'autres moyens, comme le font aujourd'hui les modèles de langage de type GPT ou Gemini dans le domaine du traitement automatique du langage naturel. De ce point de vue, l'IA ne va pas produire, mais remplacer de l'intelligence humaine, du fait, comme nous l'avons indiqué plus haut, du découplage qu'elle réalise entre l'exécution de tâches normalement dévolues à un cerveau biologique, et la nécessité d'être intelligent pour pouvoir réaliser ces tâches.

On aurait naturellement voulu connaître plus précisément à quels types de tâches Floridi fait référence ? Quels sont de ce fait les métiers les plus menacés ou à même d'être les plus bouleversés par l'IA ? Etc. Mais on ne trouvera pas ce genre d'analyse dans l'ouvrage de Floridi, si ce n'est quelques brèves indications sur des capacités cognitives non reproductibles, selon lui, mais nécessaires à la réalisation de tâches, comme la compréhension, la conscience, la perspicacité, la sensibilité, l'intuition, etc. Il ne s'agit pas d'un livre d'économie ou de sociologie, mais de philosophie éthique appliquée à l'IA. On lira plutôt sur ce point, l'ouvrage de Daniel Susskind, Un monde sans travail, qui traite précisément de la question de l'impact de l'IA sur le marché du travail. Ce qui semble pourtant acquis pour Floridi, c'est que l'intelligence humaine devra jouer un rôle différent là ou l'IA la surpasse sur la réalisation de certaines tâches. Que "l'intelligence (humaine) consistera moins à résoudre certains problèmes qu'à décider quels problèmes méritent d'être résolus, pourquoi, dans quel but, et avec quels coûts, compromis et conséquences acceptables."

Ceux qui sont friands d'analyse prospective, lirons néanmoins avec intérêt la section 3 de la première partie, consacrée au "développement prévisible de l'IA", en prenant en compte les deux paramètres structurant essentiels que sont : 1) les données utilisées par l'IA pour atteindre ses objectifs et réaliser avec succès ses tâches (ce qui permet à l'IA de fonctionner) ; 2) la nature des problèmes que l'IA peut être amenée à résoudre (ce qui permet de circonscrire les limites dans lesquels l'IA peut fonctionner avec succès). Le travail de prospective réalisé par Floridi doit néanmoins toujours être mis en perspective par rapport à la volonté qu'il a de mieux cerner les défis éthiques, juridiques et sociaux de l'IA, en se fondant sur une compréhension philosophique de ce qu'elle est vraiment, et la façon dont elle devrait se développer. Pour Floridi en effet, le défi à venir est moins l'innovation numérique et le développement de l'intelligence artificielle en elle-même, que "la gouvernance du numérique, l'IA comprise." C'est précisément à cette tâche qu'il assigne la philosophie, en lui enjoignant de répondre aux deux questions suivantes : Que faisons-nous de l'IA ? Comment planifions-nous l'IA ?

Partager cet article