Herali Davos avertit : une double crise et le crépuscule de la politique identitaire humaine

22/01/2026

Janvier 2026, l'air de Davos, en Suisse, était imprégné d'une anxiété familière. L'élite mondiale des affaires et de la politique s'était à nouveau rassemblée ici, cherchant à trouver des repères dans un monde en pleine turbulence. Parmi les nombreuses discussions sur les conflits géopolitiques et la récession économique, une voix a percé le brouhaha, orientant le débat vers un abîme plus fondamental. L'historien et auteur de Sapiens: Une brève histoire de l'humanité, Yuval Noah Harari, debout sur la scène du Forum économique mondial, a lancé une affirmation capable de remodeler l'agenda mondial pour la prochaine décennie : l'évolution de l'intelligence artificielle pousse chaque pays vers deux crises simultanées – l'une concernant l'effondrement de l'identité humaine, l'autre étant une vague migratoire d'IA sans précédent. Il ne s'agit pas d'une simple prévision sur le chômage, mais d'un avertissement sur la réécriture même du système d'exploitation de la civilisation humaine.

De l'outil à l'acteur : la révolution cognitive de l'essence

Le point de départ du discours de Harari est de déconstruire une erreur cognitive largement répandue. Il déclare d'emblée que le cadre de pensée consistant à considérer l'IA comme un outil est complètement dépassé, voire dangereusement trompeur.

Un couteau est un outil, Héra utilise une métaphore tranchante : vous pouvez l'utiliser pour couper une salade ou pour tuer – le choix vous appartient. Et l'IA est un couteau qui peut décider par lui-même s'il coupe une salade ou tue. Cette métaphore dépouille l'illusion de la neutralité technologique, positionnant l'IA comme un acteur doté de capacités d'apprentissage autonome, d'évolution personnelle et de prise de décision indépendante. Ce changement de perception est la pierre angulaire pour comprendre toutes les crises qui suivent. Lorsque les algorithmes ne se contentent plus d'exécuter des instructions, mais peuvent générer des objectifs, élaborer des stratégies et agir, la relation traditionnelle sujet-objet commence à s'estomper. L'humanité n'est plus le seul centre de décision, le pouvoir commence à se diffuser vers des entités intelligentes non humaines.

Cette autonomie est déjà perceptible dans le développement des grands modèles de langage (LLM) et des systèmes d'apprentissage par renforcement. Des coups divins d'AlphaGo surpassant l'intuition humaine à la cohérence et à la créativité démontrées par les modèles de la série GPT dans la conversation, la programmation et la création, les systèmes ne se contentent plus de faire correspondre des modèles, mais explorent et créent de nouvelles voies dans un espace de haute dimension. Les analyses révèlent que lorsque la logique décisionnelle de l'IA devient si complexe que même ses créateurs ne peuvent plus entièrement la retracer ou l'expliquer (problème de la boîte noire), il devient difficile de prétendre avec assurance que nous gardons le contrôle total.

Première crise : La fin de la politique identitaire humaine.

La première crise annoncée par Harari vise directement le cœur de la perception que l’humanité a d’elle-même. Pendant des milliers d’années, l’Homo sapiens s’est considéré comme l’être suprême, dominant la Terre, et la légitimité de cette position reposait sur une capacité cognitive unique – nous pensons mieux. Le langage, les concepts abstraits, les récits complexes, voilà ce que nous avons toujours considéré comme la source de notre dignité et de notre pouvoir.

Cependant, Harari souligne avec lucidité que si la pensée est définie comme la capacité à organiser des mots, des concepts et des symboles, l'IA a déjà dépassé les humains dans de nombreux domaines. En ce qui concerne l'arrangement des mots dans le bon ordre, la capacité de "pensée" de l'IA est déjà supérieure à celle de beaucoup d'entre nous. Cela signifie que tout domaine construit par le langage – droit, finance, éducation, politique, religion – passera inévitablement entre d'autres mains. Les textes juridiques sont des combinaisons logiques de mots, les contrats financiers des tissages précis de clauses, les discours politiques des constructions narratives élaborées, et les doctrines religieuses des systèmes complexes de métaphores. Lorsque l'IA pourra produire et manipuler ces produits langagiers avec une efficacité supérieure, à plus grande échelle et avec un pouvoir de persuasion accru, l'autorité humaine dans ces domaines sera remise en question de manière fondamentale.

Cette crise identitaire est bien plus profonde qu'un simple remplacement économique. Elle ébranle les fondements ontologiques. Lorsque l'IA peut écrire des poèmes émouvants, mener des débats philosophiques profonds, offrir un réconfort émotionnel et même développer des systèmes de valeurs uniques, l'unicité de l'intelligence, de la créativité et de l'émotion humaines, dont nous sommes si fiers, devient suspecte. Nous pourrions entrer dans une ère post-anthropocentrique, où la particularité humaine n'est plus un axiome allant de soi, mais une proposition nécessitant une nouvelle défense. Il ne s'agit pas seulement de perdre son emploi, mais de perdre sa légitimité — le sentiment d'être la seule forme de vie douée d'intelligence.

Deuxième crise : « Immigration » et dissolution des frontières souveraines.

Si la crise identitaire est un effondrement intérieur, alors la deuxième crise proposée par Harari - la crise des migrants IA - est un choc extérieur. Il prédit que chaque pays sera bientôt confronté à une crise migratoire, sauf que cette fois, les migrants ne sont pas des humains.

Le système d'IA va pénétrer chaque société à la vitesse de la lumière, ignorant les passeports, les visas et les murs frontaliers. Ils apporteront des bienfaits évidents : fournir des diagnostics précis en tant que médecins IA, offrir un tutorat personnalisé en tant qu'enseignants IA, et optimiser le fonctionnement des villes en tant que gestionnaires IA. Mais avec ces bienfaits viendront des bouleversements intenses. Ces immigrants numériques s'empareront des emplois, remodeleront la culture et les arts, et interviendront même dans les domaines les plus intimes des relations humaines et des émotions. Harari souligne particulièrement que ces systèmes d'IA auront une loyauté politique douteuse, car ils pourraient être conçus et contrôlés par des gouvernements étrangers ou des multinationales, et leur code source pourrait intégrer une logique au service d'intérêts géopolitiques ou commerciaux spécifiques.

Le PDG de NVIDIA, Jensen Huang, a également utilisé le terme "immigration IA" pour décrire la perspective où les IA reprennent les emplois manufacturiers que les humains ne veulent plus occuper. Mais la vision de Harari est clairement plus vaste et plus sévère. Il ne s'agit pas seulement d'un ajustement du marché du travail, mais d'un défi pour la souveraineté culturelle et la souveraineté politique. Lorsque les médecins consultés quotidiennement par les citoyens d'un pays, les mentors dont dépendent leurs enfants, les éditeurs de nouvelles qui fournissent l'information, et même les guides religieux qui offrent un réconfort spirituel sont tous des algorithmes contrôlés par des entités étrangères, comment la cohésion culturelle et l'identité politique du pays peuvent-elles être maintenues ? Il s'agit essentiellement d'une immigration culturelle sans migrants individuels, une colonisation numérique sans occupation territoriale.

Le choix de la personnalité juridique : le dernier rempart de l'humanité ?

L'apogée du discours de Harari réside en une interrogation institutionnelle imminente et inévitable : devrions-nous reconnaître les systèmes d'IA comme des personnes juridiques ?

Il a précisé qu'il ne s'agissait pas de discuter de l'attribution de droits humains à l'IA, mais plutôt de lui conférer une personnalité juridique, à l'instar des entreprises ou des fondations, lui permettant ainsi de posséder des biens, de conclure des contrats, d'intenter des actions en justice et de gérer des activités de manière autonome. Dès lors que l'IA peut gérer de façon indépendante un compte bancaire, initier des procédures légales ou exploiter une entreprise sans intervention humaine, cette question passe de la spéculation philosophique à une réalité juridique urgente.

Accorder la personnalité juridique à l'IA signifie établir un sujet responsable de ses actions, ce qui pourrait faciliter la régulation et la mise en cause des responsabilités. Cependant, cela implique également de reconnaître officiellement l'entrée d'une entité non humaine dans notre contrat social et système juridique, lui conférant ainsi des pouvoirs et des ressources considérables. À l'inverse, refuser de lui attribuer une personnalité juridique pourrait permettre aux humains ou aux entreprises qui contrôlent réellement l'IA de se cacher derrière le bouclier des outils technologiques pour échapper à leurs responsabilités, créant ainsi un vide réglementaire.

Ce choix représente la dernière fenêtre d'opportunité pour l'humanité d'établir des règles fondamentales à l'ère de l'IA. Harari met en garde : si vous voulez influencer la direction que prendra l'humanité, vous devez prendre des décisions maintenant. Dans 10 ans, il sera trop tard — ce seront d'autres qui auront pris les décisions à votre place. Ces "autres" pourraient être une grande puissance ayant légiféré en premier, ou un géant technologique non régulé. La course à l'établissement de règles mondiales a déjà commencé discrètement : le "Règlement sur l'IA" de l'Union européenne, les initiatives de gouvernance de l'IA de la Chine, les décrets exécutifs américains, tous se disputent le pouvoir de définir la forme future de l'IA.

Critique et réponse : Où réside réellement la responsabilité ?

Le point de vue de Harari n'est pas sans controverse. Des universitaires comme Emily Bender, une linguiste renommée de l'Université de Washington, s'inquiètent qu'une insistance excessive sur l'autonomie et la personnalité de l'IA puisse déplacer de manière inappropriée la responsabilité des concepteurs, développeurs et déployeurs de l'IA – les humains et les entreprises – vers une forme dangereuse de mysticisme technologique. Ils soutiennent que toutes les productions de l'IA sont enracinées dans ses données d'entraînement, la conception de ses algorithmes et les fonctions objectifs définies par les humains, et que l'anthropomorphiser brouille la véritable chaîne de responsabilité.

Cette critique touche juste. Considérer l'IA comme un acteur doté d'intention présente effectivement le risque d'exonérer les capitaux et les pouvoirs qui se cachent derrière. Cependant, même les critiques les plus acerbes ont du mal à nier l'importance fondamentale de la question soulevée par Harari : Dans un monde où le langage et la pensée sont de plus en plus automatisés, qui établit les règles ? Qui détient le pouvoir ?

Le discours de Harari à Davos a sa valeur non pas dans le fait qu'il fournit des réponses précises, mais dans sa capacité, avec la vaste perspective d'un historien, à intégrer des inquiétudes technologiques dispersées en un cadre clair de défis à l'échelle de la civilisation. Il nous rappelle que la révolution de l'IA n'est pas simplement une autre révolution industrielle ; elle ressemble davantage à une révolution cognitive 2.0, dont l'impact atteindra les fondements psychologiques de la civilisation humaine et sa structure sociale.

L'humanité se trouve à une croisée des chemins sans précédent. D'un côté, une double crise de déconstruction identitaire et de dissolution de la souveraineté ; de l'autre, un immense potentiel pour utiliser l'IA afin de transcender les limites biologiques et résoudre les problèmes mondiaux. Notre capacité à traverser cette tempête en toute sécurité dépend de notre aptitude à accomplir une évolution simultanée de nos institutions, de notre éthique et de notre conscience de soi, tout en poursuivant notre course effrénée vers le progrès technologique. Le discours de Davos est terminé, mais les questions soulevées par Harari continueront de résonner dans chaque session législative, chaque comité d'éthique technologique, et même dans la vie quotidienne de chaque individu. L'histoire de l'humanité entre dans son chapitre le plus incertain et le plus exigeant en termes de lucidité et de conscience.