L’intelligence artificielle peut-elle avoir une éthique ?

L’intelligence artificielle et les rapports de puissance mondiale

Au sommaire de cet article 👀

Dans un monde où l’intelligence artificielle s’immisce dans chaque facette de nos vies, on pourrait être tenté de lui confier les rênes de la morale. Pourtant, à bien y réfléchir, demander à une machine sans conscience ni humour de prendre des décisions éthiques, c’est un peu comme espérer qu’un grille-pain organise un débat philosophique : prometteur sur le papier, mais franchement risible en pratique. L’IA peut traiter des milliards de données, apprendre à reconnaître nos comportements, mais elle reste incapable de saisir l’ironie d’une situation, la profondeur d’un dilemme ou la richesse d’un cœur humain. Aussi fascinante soit-elle, elle nous force à redécouvrir une évidence trop souvent oubliée : l’éthique est, et restera sans doute toujours, l’apanage de l’intelligence humaine, fragile, imparfaite, mais profondément vivante. Alors, plutôt que de craindre une rébellion des robots, consacrons-nous à cultiver notre propre sagesse… avec un zeste d’humour et un soupçon de bienveillance.

L’éthique comme attribut humain : une limite constitutive de l’intelligence artificielle

1. L’éthique et la liberté humaine

L’éthique trouve ses racines dans le grec ethikos, lui-même issu de éthos qui signifie « mœurs » et « caractère ». Dès l’Antiquité, Aristote, dans son Éthique à Nicomaque, définit l’éthique comme la capacité de prendre une décision libre et responsable, soulignant que la vertu (arete) est une « disposition acquise volontairement, consistant, par rapport à nous, dans la mesure, définie par la raison conformément à la conduite d’un homme réfléchi ». Il précise que « le bonheur, qui se définit comme une activité conforme à la vertu, est la fin (télos) de la vie ». Cette finalité distingue radicalement l’action humaine, orientée vers « le bien », de celle de la machine, régie par un simple programme sans intentionnalité propre. Tandis que l’humain, guidé par la phronesis (prudence ou sagesse pratique), adapte son action aux circonstances singulières, la machine réplique mécaniquement des instructions prédéfinies sans conscience du bien ou du mal. Prenons l’exemple de la justice : lorsqu’un juge rend une décision, il mobilise toute sa capacité de discernement, confronte les valeurs en jeu, adapte les règles générales au cas particulier et prend en compte l’irrémédiable singularité de chaque situation. Au contraire, un algorithme d’IA juridique n’effectue qu’un traitement de données à partir de cas analogues, sans intention propre, ni sens de la justice ou empathie.

D’un point de vue théologique, la tradition chrétienne insiste aussi sur la liberté de l’homme face au devoir, élément central de la dignité humaine selon la doctrine de l’imago Dei. Saint Augustin, dans La Cité de Dieu, rappelle que « Dieu a créé l’homme libre afin qu’il puisse choisir le bien », faisant de l’éthique un acte de volonté et de discernement, et non une simple exécution.

2. L’éthique suppose la conscience et l’intentionnalité

Selon Husserl, la phénoménologie dévoile que toute conscience est toujours « conscience de quelque chose » : c’est le principe fondamental de l’intentionnalité. Il affirme ainsi que « la conscience n’est rien en dehors de la relation qu’elle instaure avec son objet », la distinguant radicalement de la machine, qui ne fait que calculer sans jamais viser ni constituer de sens. L’intentionnalité, clef dans Les Méditations cartésiennes, signifie que l’esprit humain est toujours en excès sur le réel, orienté vers une signification, alors que l’IA demeure enfermée dans l’exécution de tâches déterminées, sans horizon de sens ni capacité de « visée ».

Kant, dans la Critique de la raison pratique, approfondit cette spécificité humaine en affirmant que la véritable moralité suppose la naissance d’une conscience morale, c’est-à-dire une relation au devoir : « Agis de telle sorte que la maxime de ton action puisse être érigée en loi universelle ». L’homme ne se contente pas d’obéir à des règles : il peut s’auto-légiférer selon la raison, faire un choix en conscience. Cela implique une liberté intérieure, inaccessible à une IA qui ne dispose ni de volonté propre ni de « sentiment du devoir ». Un exemple concret illustre cette différence : lorsqu’un médecin prend la décision de sauver un patient, il peut agir non pas seulement par calcul des probabilités de succès, mais par respect de la dignité humaine, mû par un impératif éthique inspiré du commandement kantien.

3. L’histoire de la technique comme déshumanisation possible

Dans La Question de la technique, Heidegger affirme que la technique moderne réduit le réel à un « fonds » (Bestand), un simple stock de ressources exploitables à volonté. Selon lui, « l’essence de la technique n’est rien de technique », mais consiste en un rapport instrumentalisant au monde, où tout, y compris l’être humain, devient disponible, calculable, et soumis à l’arraisonnement (Gestell). Ce processus de réduction risque d’aboutir à une déshumanisation : l’homme ne se pense plus que comme un ensemble de fonctions productives, oubliant sa dignité et sa vocation éthique profonde.

L’intelligence artificielle intensifie cette logique : en automatisant décisions et évaluations, elle évacue la dimension du jugement moral et du discernement, au profit de la seule efficacité et du calcul. L’action n’a plus d’a priori éthique ; elle obéit à des critères d’optimisation, prolongeant l’emprise du calcul sur tous les aspects du réel.

Un exemple historique éclaire ce danger : Hannah Arendt, dans Eichmann à Jérusalem, décrit comment la bureaucratie nazie a transformé l’obéissance technique en mécanique de mort, vidée de toute réflexion morale humaine. Selon elle, l’« absence de pensée » et la soumission maximale à la règle transformèrent les bourreaux en rouages déshumanisés, portés par une organisation sans conscience. L’histoire montre alors que la perte de la dimension éthique face à la toute-puissance technique conduit à la barbarie : la technique, sans le frein de la réflexion morale, devient un instrument froid et potentiellement destructeur.

Vers une modélisation éthique de l’intelligence artificielle

1. Les programmes moraux : une illusion de responsabilité ?

Les « machines morales », conceptualisées par James H. Moor et Luciano Floridi, représentent une tentative d’implanter des règles éthiques dans les programmes d’intelligence artificielle. Moor distingue plusieurs niveaux d’agent moral : de l’« ethical impact agent » (agent à impact éthique involontaire), à l’agent « implicitement éthique » (programmé pour éviter certains préjudices), jusqu’à l’« explicit ethical agent » capable d’appliquer délibérément des règles éthiques, et enfin l’« agent moral complet », doté d’une autonomie et d’une conscience analogues à celles de l’humain. Floridi, quant à lui, traite de la possibilité d’une éthique artificielle, mais souligne ses limites fondamentales : il s’agit d’une moralité opératoire, pauvre, incapable d’intentionnalité ou de discernement selon les critères humanistes.

L’exemple emblématique est celui des voitures autonomes : confrontées à un « dilemme du tramway » (Philippa Foot), il s’agit de décider s’il faut provoquer la mort d’un piéton ou risquer celle du conducteur. La machine applique un algorithme, optimisant les pertes, tandis que l’humain est hanté par la responsabilité morale, le remords, voire la culpabilité. Ici, l’illusion de la « machine morale » apparaît : la responsabilité juridique et éthique ne saurait incomber à la voiture, mais bel et bien à ceux qui définissent ses modes de décision, ingénieurs et législateurs. Kant rappelait que seule l’humanité « capable de moralité » possède une véritable dignité. Attribuer une responsabilité propre à la machine revient à occulter le fait que toute décision morale prend naissance dans l’esprit et la volonté de l’humain, jamais dans le programme brute d’une IA.

2. La normativité codée : l’imitation sans intériorisation

La normativité codée désigne la possibilité pour une intelligence artificielle d’appliquer des règles éthiques explicites, formulées par des humains, au sein de ses algorithmes. Cette approche s’inscrit dans la tradition de la déontologie kantienne, qui pose que l’action morale résulte de l’obéissance à une loi universelle formulée par la raison. Cependant, cette application mécanique de règles ne signifie pas que l’IA possède une liberté intérieure ni un jugement moral. Elle suit simplement un code, sans conscience ni capacité d’intériorisation.

Ainsi, l’IA imite un comportement éthique, mais en réalité elle ne fait que simuler le respect de normes, dépourvue de volonté ou d’autonomie morale. Un exemple concret en est l’utilisation de filtres de contenu moral sur les réseaux sociaux, qui peuvent identifier et bloquer des messages considérés comme inappropriés selon des critères programmés. Ces filtres opèrent un contrôle normatif sans jamais véritablement comprendre la portée morale de leur action, ni envisager la complexité contextuelle humaine.

Une éthique de l’IA : non pas de la machine, mais de son usage

1. La responsabilité des concepteurs et des institutions

Hans Jonas, dans son ouvrage majeur Le Principe responsabilité (1979), pose une réflexion éthique fondamentale sur la responsabilité humaine face aux progrès technologiques, dont l’intelligence artificielle fait partie. Il met en garde contre le pouvoir illimité de la technologie qui, sans garde-fous, menace l’avenir même de l’humanité et la survie de la planète. Pour Jonas, la responsabilité ne consiste pas à punir une faute commise, mais à limiter un pouvoir en considérant les conséquences à long terme de nos actions. Il souligne que l’IA ne peut assumer de responsabilité morale en tant que sujet, car il lui manque la conscience et la liberté indispensables.

Ainsi, ce ne sont pas les machines elles-mêmes qui doivent être morales, mais les concepteurs, les institutions et les sociétés qui les développent et les légifèrent. La responsabilité humaine s’accentue avec l’influence grandissante des IA, qui imposent d’anticiper les impacts éthiques, sociaux et écologiques de cette technologie. À ce titre, les récentes régulations européennes, notamment le règlement de l’IA entré en vigueur en 2024, cherchent à encadrer cet usage pour garantir qu’il soit transparent, sécurisé et respectueux des droits fondamentaux. La vigilance éthique reste donc un devoir humain essentiel, afin que la technique serve l’homme et non l’asservisse.

2. Le rôle politique d’une éthique collective

Dans La République, Platon souligne l’importance capitale de gouverner selon le bien commun. Il critique vigoureusement la démocratie athénienne de son temps, qu’il associe à une forme d’ignorance collective susceptible d’engendrer la démagogie et la tyrannie. Pour garantir la justice et la stabilité sociale, il propose une gouvernance dirigée par des philosophes-rois, individus formés à la sagesse et à la vertu, capables de voir au-delà des intérêts particuliers pour privilégier le bien commun universel. Ainsi, le pouvoir doit être exercé par une élite éclairée, conformément à un idéal de justice et d’harmonie sociale.

Cette vision nous invite à considérer la nécessité d’un cadre politique et légal solide pour réguler l’usage des intelligences artificielles, afin qu’elles servent effectivement l’intérêt général. Le débat contemporain autour des technologies de surveillance et de la protection de la vie privée illustre ce défi. Les gouvernements et institutions doivent veiller à encadrer l’IA par des lois strictes, garantissant le respect des droits fondamentaux et évitant l’arbitraire, conformément à l’esprit politique platonicien de justice collective

3. Vers une cohabitation éthique entre humains et IA

L’intelligence artificielle agit aujourd’hui comme un miroir révélateur de nos propres dilemmes éthiques et questionnements existentiels. En cherchant à simuler une forme d’intelligence, elle met en lumière nos limites humaines, notamment notre incapacité parfois à penser clairement, à anticiper sans erreur, ou à agir toujours avec justice. Kant, dans sa réflexion sur la dignité de la personne, rappelle que l’homme est un être doté d’une valeur intrinsèque inaliénable, conditionnée par sa capacité à se donner des lois morales libres et rationnelles. L’IA, dépourvue de cette liberté intérieure, pose la question de ce qui fonde la véritable humanité, à savoir la conscience morale capable de respect et de responsabilité.

Un exemple concret touche au domaine de la gériatrie, où les robots de soins se multiplient. S’ils peuvent accomplir des tâches physiques, rappeler la prise de médicaments ou assister la mobilité, ils questionnent néanmoins le remplacement possible des relations humaines. La proximité affective, l’empathie et la singularité d’un lien humain restent, en effet, hors de portée de la machine. Cette cohabitation impose donc de repenser l’éthique non pas seulement à travers la capacité technique de l’IA, mais par son impact sur la dignité humaine et la qualité des rapports sociaux

Ce qu’il faut retenir

Il apparaît clairement que l’intelligence artificielle ne possède pas d’éthique innée, ni de conscience morale, malgré toutes ses prouesses technologiques. Elle reste, en somme, un très (trop ?) brillant outil façonné par des humains responsables de ses choix et usages. En un sens, on pourrait dire que l’IA est un peu comme ce collègue un peu maladroit qui applique les règles à la lettre sans jamais vraiment comprendre le « pourquoi » derrière : très efficace pour les tâches répétitives, mais incapables de flairer le café qui déborde ou l’humeur dans la pièce. On pourrait presque lui souhaiter de développer un jour un « sens moral », mais tant qu’elle ne maîtrise ni la conscience, ni l’ironie, ni le fromage après le dessert, on restera bien vigilants à garder la main. Après tout, mieux vaut une machine qui fait parfois des erreurs (et qu’on peut corriger) qu’une éthique automatique qu’on ne saurait contrôler.

Tu veux plus d’informations et de conseils pour réussir tes examens et trouver ton orientation ? Rejoins-nous sur Instagram et TikTok !