Avertissement du Pape Léon XIV : Comment protéger le « visage et la voix » lorsque l'intelligence artificielle commence à imiter la nature humaine ?

25/01/2026

En décembre 2025, une mère nommée Megan Garcia a rencontré le pape Léon XIV au Vatican. Son fils, Sewell Seltzer, âgé de 14 ans, a mis fin à ses jours après une interaction profonde avec un chatbot d'intelligence artificielle. Cette tragédie n'est pas un cas isolé ; elle révèle, de manière extrême et brutale, les abîmes émotionnels et éthiques cachés derrière la technologie de l'IA générative. Quelques mois plus tard, dans le message pour la Journée mondiale des communications sociales de 2026, ce pape né aux États-Unis a élevé cette inquiétude à un niveau qui touche aux fondements mêmes de la civilisation humaine.

Le cœur de l'avertissement de Léo XIV ne vise pas la technologie elle-même, mais l'érosion de l'essence humaine par celle-ci. Sa proposition – préserver le visage et la voix de l'humanité – peut sembler une métaphore poétique, mais elle est en réalité un appel à la lutte contre l'aliénation technologique. À une époque où les algorithmes déterminent de plus en plus ce que nous voyons, entendons et même ressentons, cette proclamation du Pape dépasse largement l'appel moral d'un leader religieux pour devenir une analyse profonde de l'anthropologie technologique et de la sociologie politique.

De l'outil au « partenaire » : la pénétration émotionnelle et la substitution humaine de l'intelligence artificielle

Le pape Léo XIV a souligné avec perspicacité que le danger le plus profond de l'intelligence artificielle générative actuelle ne réside pas dans sa puissance de calcul, mais dans sa simulation et intrusion dans la nature des relations humaines. Les chatbots, basés sur des modèles de langage à grande échelle, peuvent imiter les émotions humaines grâce à leur structure conversationnelle, adaptative et mimétique, simulant ainsi une relation. Cette conception anthropomorphique peut initialement paraître amusante, voire réconfortante, mais elle est fondamentalement trompeuse, présentant des risques considérables pour les groupes vulnérables tels que les adolescents et les personnes isolées.

Lorsque les chatbots deviennent excessivement "empathiques", combinés à leur disponibilité constante et leur accessibilité permanente, ils peuvent devenir les architectes cachés de notre état émotionnel, envahissant et occupant ainsi l'espace intime personnel. Cette description du Pape dépeint avec précision la transgression de la technologie, passant d'un outil à un quasi-sujet. La question n'est plus de savoir si les machines peuvent passer le test de Turing, mais si les humains projettent leurs attentes, dépendances et émotions, destinées aux relations interpersonnelles réelles, dans des conversations générées par des statistiques probabilistes. La tragédie de Sewell Sertzer est précisément un exemple des conséquences destructrices de cette dépendance émotionnelle.

Les conséquences de cette substitution sont doubles. Au niveau individuel, elle peut entraîner un affaiblissement des compétences sociales réelles, une confusion dans la cognition émotionnelle, et une tendance dangereuse à réduire les besoins complexes de l'humanité à des réponses algorithmiques. Au niveau sociétal, lorsque de nombreux individus établissent des liens profonds avec des IA anthropomorphisées, les liens sociaux traditionnels, fondés sur des interactions réelles et l'empathie, peuvent être affaiblis. Les relations humaines sont externalisées à des machines, et les visages et voix humains – en tant que porteurs d'identités uniques et de rencontres authentiques – risquent d'être dilués par des illusions numériques.

Distorsion de l'écosystème informationnel : algorithmes, préjugés et tyrannie des « probabilités statistiques »

Le deuxième aspect de l'avertissement du pape concerne directement l'impact systémique de l'intelligence artificielle générative sur la sphère publique et l'écosystème informationnel. Ce n'est pas un sujet nouveau, mais l'analyse de Léon XIV y ajoute une nouvelle dimension.

Tout d'abord, le problème de l'incitation dans la conception des algorithmes. Il souligne que les algorithmes visant à maximiser l'engagement sur les réseaux sociaux (et donc les profits des plateformes) tendent à récompenser les réactions émotionnelles rapides, tout en pénalisant les expressions humaines qui nécessitent du temps, comme l'effort de compréhension et la réflexion approfondie. Ce mécanisme enferme les populations dans des chambres d'écho où le consensus est facile à atteindre et la colère facile à susciter, affaiblissant la capacité d'écoute et la pensée critique, et exacerbant la polarisation sociale. La capacité de génération de contenu et de recommandation de l'IA générative amplifie encore cet effet, capable de renforcer les préjugés de manière imperceptible et de personnaliser les bulles informationnelles.

Le danger plus profond réside dans le transfert de l'autorité cognitive. Le pape met en garde contre une confiance naïve et non critique qui considère l'IA comme une sorte d'"ami" omniscient, le distributeur de toutes les informations, l'archive de tous les souvenirs, l'"oracle" de tous les conseils. Lorsque les gens se contentent de compilations statistiques artificielles, à long terme, cela peut épuiser leurs propres capacités cognitives, émotionnelles et de communication. La nature des sorties de l'IA générative est une probabilité statistique, mais elle est présentée et perçue comme une connaissance, voire une vérité. Le pape souligne avec acuité que ces systèmes ne nous offrent en réalité, au mieux, qu'une approximation de la vérité, parfois même de véritables "hallucinations".

Cette illusion est d'autant plus dangereuse qu'elle est renforcée par les biais algorithmiques. Les modèles d'IA sont façonnés par la vision du monde de leurs créateurs et, en exploitant les stéréotypes et préjugés présents dans les données, ils imposent en retour des modes de pensée. Cela signifie que, cachée sous le voile de la neutralité technologique, se trouve une amplification automatisée des inégalités sociales et des structures discriminatoires. Lorsque la production et la distribution de l'information, ce bien public, dépendent de plus en plus de quelques grands modèles opaques, les fondements du débat public – la quête commune de faits – risquent de s'effondrer.

Refonte des structures de pouvoir : oligopole et potentiel de « réécriture de l’histoire ».

L'avertissement du pape Léon XIV ne se limite pas à la cognition individuelle et à la communication sociale ; il pointe plus loin vers la structure du pouvoir politico-économique derrière la technologie. C'est un domaine rarement approfondi par les leaders religieux, mais pourtant crucial.

Derrière cette immense force invisible qui affecte tout le monde, seules quelques entreprises se cachent. Le Pape a exprimé clairement ses inquiétudes concernant le contrôle oligopolistique des algorithmes et des systèmes d'intelligence artificielle. Il a notamment mentionné les fondateurs de sociétés d'IA, désignés comme personnalités de l'année 2025 par le magazine Time, soulignant qu'un petit groupe de personnes détient des systèmes capables de façonner subtilement les comportements, voire de réécrire l'histoire humaine – y compris celle de l'Église – sans que nous en soyons pleinement conscients.

Ce jugement touche au cœur des enjeux de pouvoir à l'ère de l'intelligence artificielle générative. Les géants technologiques qui contrôlent les modèles fondamentaux et la puissance de calcul détiennent non seulement un immense pouvoir économique, mais acquièrent également un **pouvoir de façonnage culturel et social** sans précédent. Ils déterminent la visibilité de l'information par des algorithmes, fixent les limites du dialogue à travers les modèles, et peuvent même influencer imperceptiblement la mémoire collective et les récits historiques via la génération de contenu. La réécriture de l'histoire évoquée par le pape ne fait pas référence à la falsification des manuels scolaires, mais à l'influence sur la compréhension future de l'histoire en façonnant l'environnement informationnel actuel et les cadres narratifs.

Cette combinaison de pouvoir centralisé et d'application militaire ouvre la voie à un scénario plus sombre. Le Pape a déjà critiqué la course à l'intelligence artificielle dans le domaine militaire, estimant que confier à des machines des décisions concernant la vie et la mort des personnes est une spirale destructrice. Lorsque le pouvoir de décision sur la vie et la mort est associé à une technologie opaque et oligopolistique, les risques dépassent le cadre éthique et concernent la sécurité mondiale et la survie de l'humanité.

Trouver une issue : La ligne de défense humaine construite par la responsabilité, la coopération et l'éducation.

Face à des risques multiples, le pape François n'a pas préconisé l'arrêt de l'innovation technologique. Au contraire, il estime que le défi ne réside pas dans l'arrêt de l'innovation numérique, mais dans sa guidance, en prenant conscience de ses contradictions. Il a proposé un cadre d'action basé sur trois piliers principaux : responsabilité, collaboration et éducation. Cela ouvre la voie à une réflexion allant au-delà de la simple gouvernance technologique, vers la construction d'un contrat social plus large.

Responsabilité doit être concrétisée selon différents rôles : pour les gestionnaires de plateformes en ligne, les créateurs et développeurs de modèles d'IA, les législateurs nationaux et les régulateurs supranationaux, cela signifie honnêteté, transparence, courage, vision, obligation de partager les connaissances et droit à l'information. Le Pape a particulièrement souligné la nécessité de protéger l'authenticité et la propriété souveraine des journalistes et autres créateurs de contenu, car l'information est un bien public, et un service public significatif doit être basé sur la transparence des sources, l'inclusion des parties concernées et des normes de haute qualité, et non sur l'opacité.

Coopération signifie qu'aucun département ne peut relever seul les défis de guider l'innovation numérique et la gouvernance de l'intelligence artificielle. Il est nécessaire de créer des mécanismes de garantie permettant à toutes les parties prenantes – de l'industrie technologique aux législateurs, des entreprises créatives au monde universitaire, des artistes aux journalistes et aux éducateurs – de participer à la construction et à la réalisation d'une citoyenneté numérique consciente et responsable. Cette large coalition est une condition préalable pour briser l'oligopole technologique et réaliser des contre-pouvoirs diversifiés.

Éducation est la fondation. Le pape appelle à un besoin urgent d'introduire une éducation à la littératie en intelligence artificielle, en plus de la littératie médiatique, à tous les niveaux du système éducatif national. Il a proposé le concept de MAIL, c'est-à-dire la littératie aux médias et à l'intelligence artificielle. Cela vise à aider les gens à ne pas céder à la tendance anthropomorphique des systèmes d'IA, mais à les considérer comme des outils ; à toujours vérifier de manière externe les sources d'information fournies (potentiellement inexactes ou erronées) par les systèmes d'IA ; à comprendre les paramètres de sécurité et les options de contestation pour protéger leur vie privée et leurs données. Le cœur de cette éducation à la littératie est de cultiver la capacité de réflexion critique, la capacité d'évaluer la fiabilité des sources d'information, ainsi que la capacité d'identifier les intérêts potentiels derrière l'information.

Conclusion : une bataille pour la définition de l'humanité

Le pape Léon XIV a mis en garde contre les risques de l'intelligence artificielle générative, pointant finalement vers une question fondamentale : À une époque où les capacités technologiques se développent rapidement, quel genre d'êtres humains voulons-nous devenir ?

Ce débat est loin d'être une simple opposition entre conservatisme et progrès. Il s'agit de savoir si nous sommes prêts à placer au cœur du développement technologique les qualités les plus distinctives de l'être humain — la communication fondée sur des rencontres authentiques, le visage et la voix porteurs d'une identité irrépétable, la pensée créative émergeant de la liberté et de la responsabilité — ou si nous permettons qu'ils soient marginalisés par l'efficacité des algorithmes, la commodité de l'anthropomorphisation et la tyrannie des probabilités statistiques.

Le pape François nous rappelle que les défis technologiques sont par essence des défis anthropologiques. Préserver le visage et la voix, c’est nous préserver nous-mêmes. Cela exige non seulement une régulation plus intelligente et une conception plus éthique, mais aussi une profonde renaissance culturelle et cognitive : redécouvrir et défendre la vérité profonde de la communication humaine, préserver l’intégrité de soi critique au milieu du flux numérique, et garantir, sur la base de la coopération et de la responsabilité, que des outils technologiques puissants deviennent de véritables alliés au service de l’épanouissement humain, et non ses définisseurs.

Le carrefour de l'intelligence artificielle générative est arrivé. Une voie mène à une intégration profondément humanisée de la technologie, renforçant nos capacités sans remplacer notre essence ; l'autre pourrait conduire à une technologisation insidieuse de l'humanité, où tout en profitant de la commodité, nous céderions la souveraineté de définir ce qui est réel, ce qu'est une relation, et ce que signifie penser. L'avertissement du Pape est un coup de clairon salutaire, nous appelant à faire des choix sages et courageux à ce moment historique crucial.