La loi sud-coréenne sur l'intelligence artificielle entre en vigueur : les ambitions et les préoccupations du premier cadre réglementaire complet au monde
24/01/2026
22 janvier 2026, Séoul. Le président sud-coréen Lee Jae-myung a annoncé lors de la réunion du jour : la "Loi fondamentale sur l'intelligence artificielle" entre en vigueur intégralement à partir d'aujourd'hui. Cette déclaration marque la naissance d'un jalon mondial. Selon le communiqué du ministère des Sciences et des TIC (MSIT) de Corée du Sud, le nom complet de cette loi est la "Loi fondamentale sur le développement de l'intelligence artificielle et la construction d'une infrastructure de confiance". Elle est largement qualifiée par les autorités et les médias comme la première loi globale sur l'intelligence artificielle au monde à entrer en vigueur intégralement, dépassant même en rapidité d'application le "Règlement sur l'intelligence artificielle" de l'Union européenne, adopté en juin 2024 mais dont la mise en œuvre progressive s'étendra jusqu'en 2027.
La Corée du Sud, pays qui a donné naissance à des géants des puces mémoire comme Samsung et SK Hynix, a publiquement déclaré son ambition de figurer parmi les trois plus grandes puissances mondiales en intelligence artificielle, aux côtés des États-Unis et de la Chine. La promulgation de cette loi constitue une étape clé dans la construction des fondements institutionnels de cette vaste stratégie. Cependant, l'entrée en vigueur de la loi n'est pas la fin de l'histoire, mais le début d'une nouvelle expérience portant sur l'innovation, la régulation, la sécurité et la compétition mondiale. Dans les incubateurs de start-ups du district de Gangnam à Séoul, les fondateurs de jeunes entreprises examinent cette nouvelle loi avec inquiétude, et leurs questions sont directes et percutantes : pourquoi devons-nous être les premiers ?
La naissance d'une loi : cadre, éléments essentiels et définition des « risques élevés »
La progression législative de la « Loi fondamentale sur l'intelligence artificielle » en Corée du Sud a été rapide et efficace. Le projet de loi a été adopté par l'Assemblée nationale en décembre 2024 et est entré en vigueur un peu plus d'un mois plus tard. Son objectif législatif central, selon les termes du ministère sud-coréen des Sciences, des TIC et de la Planification future, est d'établir une pierre angulaire pour l'innovation en IA, fondée sur la sécurité et la confiance. Cette orientation révèle la tentative du gouvernement sud-coréen de maintenir un équilibre délicat entre encourager l'innovation technologique et prévenir les risques sociétaux.
Le mécanisme central de régulation juridique s'articule autour de deux concepts clés : l'obligation de transparence et la **régulation des systèmes d'IA à haut risque**.
L'obligation de transparence est l'exigence la plus intuitive de la loi. Elle stipule que toute entreprise utilisant l'intelligence artificielle générative pour fournir des produits ou services doit informer les utilisateurs à l'avance. Plus important encore, pour les contenus générés par l'IA difficiles à distinguer des contenus réels, en particulier les médias synthétiques comme les deepfakes, un marquage clair est obligatoire. La forme spécifique de ce marquage est définie comme le tatouage numérique. Selon le texte de loi, pour les contenus facilement identifiables comme artificiels (comme les animations, les webcomics), l'utilisation d'un tatouage numérique invisible détectable uniquement par logiciel est autorisée ; mais pour les deepfakes suffisamment réalistes pour tromper, le tatouage doit être perceptible par l'utilisateur. Un responsable du ministère sud-coréen des Sciences a décrit cette mesure comme une garantie de sécurité minimale pour prévenir les effets secondaires de l'abus des technologies d'IA (comme les contenus deepfake), soulignant qu'il s'agit déjà d'une tendance mondiale adoptée par les grandes entreprises internationales.
Plus profondément, la définition et la régulation de l'intelligence artificielle à haut risque par la loi ont un impact significatif. Le projet de loi énumère clairement dix domaines sensibles, notamment la sécurité nucléaire, les enquêtes pénales, l'évaluation des prêts, l'éducation, les soins de santé, la production d'eau potable, les transports, etc. Les systèmes d'IA appliqués à ces domaines sont considérés comme des IA à haut risque ou à fort impact. La loi impose à ces systèmes des exigences strictes qui vont bien au-delà des obligations de transparence : ils doivent garantir une supervision humaine, effectuer des évaluations des risques, élaborer des plans de gestion et mettre en œuvre une surveillance continue. Cela signifie que si un système d'IA est utilisé pour évaluer des demandes de prêt ou fournir des conseils médicaux, ses développeurs et opérateurs assumeront une responsabilité légale plus importante.
La loi comprend également des dispositions manifestes de compétence extraterritoriale. Toute entreprise mondiale fournissant des services d'IA en Corée du Sud, dès lors qu'elle répond à l'un des critères suivants : un chiffre d'affaires annuel mondial dépassant 1 000 milliards de wons (environ 681 millions de dollars), un chiffre d'affaires en Corée du Sud dépassant 10 milliards de wons, ou un nombre d'utilisateurs quotidiens en Corée du Sud dépassant 1 million, doit désigner un représentant local. Actuellement, des géants comme OpenAI et Google sont déjà soumis à cette réglementation. Pour les infractions, la loi prévoit une amende administrative maximale de 30 millions de wons (environ 20 400 dollars). Toutefois, le gouvernement prévoit d'appliquer une période de grâce d'un an, pendant laquelle aucune sanction ne sera imposée, afin d'aider le secteur privé à s'adapter aux nouvelles règles.
Le titre de "premier" dans la course à la régulation mondiale : la divergence des trajectoires entre la Corée du Sud et l'Union européenne.
La revendication de la Corée du Sud d'être "première mondiale" n'est pas sans controverse. L'Union européenne insiste sur le fait que son "Artificial Intelligence Act", adopté en juin 2024, constitue la première régulation mondiale en matière d'intelligence artificielle. Derrière cette bataille de désignation se cache un contraste marqué entre deux philosophies et approches de régulation différentes.
Le chemin de l'Union européenne est progressif et basé sur une classification des risques. Bien que la loi ait été adoptée, elle prévoit une période de transition complète de plusieurs années, jusqu'en 2027. Cependant, au cours de l'année écoulée, les régulateurs de l'UE ont été habilités, en vertu de cette loi, à interdire les systèmes d'IA considérés comme présentant un risque inacceptable pour la société, comme l'utilisation de caméras pour reconnaître les visages en temps réel dans les lieux publics, ou l'évaluation du risque criminel uniquement sur la base de données biométriques. Le cadre de sanctions de l'UE est également plus sévère, avec des amendes pouvant atteindre jusqu'à 7 % du chiffre d'affaires mondial. Il s'agit d'un modèle de régulation fondé sur le principe de précaution, mettant l'accent sur des contraintes rigides et des sanctions sévères.
Le chemin de la Corée du Sud penche davantage vers une approche agile et orientée développement. Sa loi entre en vigueur de manière exhaustive en une seule fois, mais prévoit initialement une période de grâce, des plateformes de soutien et des amendes relativement modérées pour laisser à l'industrie l'espace nécessaire à l'ajustement. Les propos de Lim Mun-yeong, vice-président du Comité national pour la stratégie présidentielle sur l'intelligence artificielle en Corée du Sud, sont assez représentatifs : les sceptiques s'inquiètent des conséquences réglementaires de la promulgation de la loi. Cependant, la transition de notre pays vers l'intelligence artificielle en est encore à ses débuts, avec des infrastructures et des systèmes insuffisants. Il ajoute qu'il est nécessaire d'accélérer l'innovation en matière d'intelligence artificielle pour explorer une ère inconnue. Il indique même que, si nécessaire, le gouvernement suspendra en conséquence la réglementation, surveillera la situation et réagira de manière appropriée. Cette déclaration montre clairement que le cadre réglementaire sud-coréen intègre une flexibilité, son objectif ultime étant de servir la stratégie nationale visant à devenir une puissance de premier plan en matière d'IA, et non de réglementer pour le plaisir de réglementer.
Pendant ce temps, d'autres grandes économies sont également en action. Au niveau fédéral américain, on privilégie une régulation légère, mais les États ont commencé à agir, comme la Californie qui a signé en octobre 2025 une loi historique sur la régulation des chatbots d'intelligence artificielle, exigeant des opérateurs la mise en place de garanties essentielles. La Chine a déjà promulgué certaines règles et proposé la création d'une institution pour coordonner la régulation mondiale. Le paysage de la gouvernance mondiale de l'intelligence artificielle présente une fragmentation et une concurrence de trajectoires évidentes. La Corée du Sud a choisi de lancer en premier un cadre complet, visant à s'approprier le discours sur l'élaboration des règles et à façonner un environnement normatif international favorable pour ses entreprises technologiques à l'étranger.
Acclamations et gémissements de l'industrie : l'adaptation des grandes entreprises et l'anxiété des start-ups.
L'adoption de toute loi réglementaire crée des ondulations dans l'écosystème industriel, dont l'ampleur varie selon la taille des entreprises. Pour les géants technologiques coréens tels que Samsung, SK Hynix, Naver et Kakao, la « Loi fondamentale sur l'intelligence artificielle » apporte davantage de règles du jeu claires qu'une crise existentielle. Ces entreprises disposent de ressources financières solides, d'équipes juridiques matures et d'une forte capacité de lobbying gouvernemental, leur permettant de répondre aux exigences de conformité avec une relative sérénité. Les dispositions de la loi ciblant les géants étrangers construisent même, dans une certaine mesure, des barrières de marché pour ces champions locaux.
Une véritable anxiété imprègne la communauté des startups en Corée du Sud. Lim Jung-wook, co-responsable de la Startup Alliance, exprime cette préoccupation sans détour. Selon une enquête de l'alliance, seulement 2% des startups en IA estiment avoir établi un plan de conformité formel, et environ la moitié admettent ne pas comprendre pleinement la nouvelle loi. Lim Jung-wook souligne que les fondateurs craignent que l'ambiguïté du langage juridique ne les oblige à adopter des stratégies de développement trop conservatrices pour éviter les risques réglementaires, étouffant ainsi l'innovation. Pourquoi devons-nous être les premiers ? Derrière cette question se cachent les profondes inquiétudes des startups concernant les coûts de conformité, l'incertitude et les opportunités de marché potentiellement manquées.
Cette inquiétude n'est pas infondée. Bien que la loi prévoie une période de grâce et une amende maximale de 30 millions de wons (relativement modérée par rapport à l'Union européenne), pour les start-ups en manque de liquidités, toute charge de conformité supplémentaire et tout risque d'amende potentiel peuvent représenter un fardeau lourd. Elles craignent que, pour répondre aux exigences de supervision humaine et de gestion des risques dans le domaine de l'IA à haut risque, elles ne soient obligées d'investir des ressources rares qui auraient dû être consacrées à la recherche et au développement. Une préoccupation plus fondamentale réside dans le fait que des frontières réglementaires floues pourraient entraîner un effet dissuasif, incitant les développeurs à éviter activement les domaines d'application potentiellement classés comme à haut risque mais présentant un fort potentiel d'innovation.
Le gouvernement sud-coréen a clairement pris conscience de ces retours. Le président Lee Jae-myung a exigé, le jour même de l'entrée en vigueur de la loi, que les décideurs écoutent les préoccupations du secteur et garantissent un soutien suffisant aux sociétés de capital-risque et aux startups. Le ministère des Sciences, des TIC et des Communications a également rapidement lancé une plateforme de soutien à la loi sur l'IA, promettant de fournir des services de conseil aux entreprises pendant la période de grâce, et a exprimé son intention de continuer à examiner les mesures afin de minimiser la charge pesant sur le secteur, envisageant même de prolonger la période de grâce en fonction de la situation industrielle nationale et internationale. Ces initiatives reflètent la difficile conciliation du gouvernement entre la promotion de la réglementation et la protection des jeunes pousses de l'innovation.
Filigrane, deepfake et dilemmes d'exécution : les défis pratiques de la mise en œuvre juridique
Le plan grandiose de la "Loi fondamentale sur l'intelligence artificielle" révèle immédiatement de nombreux problèmes d'exécution urgents à résoudre lorsqu'il touche à la réalité technologique. Le premier défi est la fiabilité de son outil central - le tatouage numérique.
La loi exige l'application de filigranes perceptibles par l'utilisateur sur les contenus générés par IA difficiles à identifier. Cependant, la réalité technologique actuelle est que de nombreux outils en ligne peuvent facilement supprimer ou falsifier les filigranes numériques. Si un filigrane peut être effacé en quelques clics, l'efficacité pratique de cette réglementation dans la prévention de l'abus de contenus deepfake sera considérablement réduite. Ce n'est pas seulement une bataille technologique entre attaque et défense, cela soulève une question fondamentale : dans le contexte d'une évolution technologique rapide, comment garantir la pérennité et l'efficacité des clauses légales centrées sur une solution technologique spécifique (le filigrane) ?
Le deuxième défi est le dilemme classique de la juridiction et de l'exécution transfrontalière. La loi exige que les entreprises étrangères atteignant un certain seuil désignent un représentant local, mais cela ne couvre pas tous les outils et plateformes d'IA étrangers proposant des services aux utilisateurs coréens. De nombreuses applications d'IA générative se diffusent sans frontières via Internet, leurs serveurs et entités opérationnelles pouvant être entièrement situés en dehors de la Corée. Comment les régulateurs coréens peuvent-ils surveiller efficacement, identifier et contraindre les contenus non conformes générés à l'étranger mais susceptibles de se propager sur le territoire national ? Il s'agit d'un problème auquel est confrontée la régulation numérique mondiale, et pour lequel aucune réponse parfaite n'a encore été trouvée.
Le troisième défi concerne la complexité de la délimitation dynamique des frontières à haut risque. La loi énumère dix domaines sensibles, mais les scénarios d'application de l'intelligence artificielle évoluent rapidement. Un algorithme de recommandation qui semble ordinaire aujourd'hui pourrait-il être reclassé demain en raison de son impact profond sur l'opinion publique ? Les autorités de régulation doivent faire preuve d'une grande expertise et d'une grande agilité pour suivre le rythme du développement technologique, évitant ainsi que la régulation ne devienne soit obsolète, soit excessive.
Ces défis ne sont pas propres à la Corée, mais en tant que pionnier, les explorations, essais, erreurs et ajustements de la Corée dans la pratique offriront des expériences extrêmement précieuses pour ceux qui suivront. Les périodes de grâce intégrées dans sa législation, les plateformes de soutien et les mécanismes de révision flexibles sont précisément des espaces réservés pour faire face à ces défis inconnus.
L'entrée en vigueur de la Loi fondamentale sur l'intelligence artificielle en Corée du Sud est bien plus qu'un simple événement législatif national. Elle constitue un signal emblématique de l'entrée de la gouvernance mondiale de l'intelligence artificielle en eaux profondes. La Corée du Sud a choisi une voie unique : entre la rigueur progressive de l'Union européenne et l'autorégulation sectorielle des États-Unis, elle tente d'ouvrir une troisième voie réglementaire, axée sur le développement et conciliant sécurité et innovation.
Le succès de cette loi dépendra du jeu de multiples facteurs : la sagesse et la flexibilité des autorités de régulation dans son application, la capacité d'adaptation et d'innovation de l'industrie, en particulier de l'écosystème des start-ups, ainsi que les nouveaux défis posés par l'évolution de la technologie elle-même. La capacité du gouvernement sud-coréen à suspendre la régulation si nécessaire, comme il l'a déclaré, et à trouver un équilibre subtil entre stimuler l'innovation et maîtriser les risques, constituera une fenêtre cruciale pour observer si ses ambitions en matière d'IA peuvent se concrétiser.
Pour le reste du monde, la Corée du Sud est à la fois un terrain d'expérimentation et un cadre de référence. Ses expériences et leçons, qu'il s'agisse de l'efficacité réelle de la technologie de tatouage numérique, de l'impact concret sur les startups, ou de la faisabilité de la régulation transfrontalière, fourniront des preuves empiriques cruciales aux pays qui élaborent leurs propres règles d'IA. Dans l'exploration de cette ère inconnue de l'intelligence artificielle, la Corée du Sud a déjà lancé le premier dé, et l'enjeu est l'avenir technologique de tout le pays. Les résultats de cette expérience réglementaire ne seront bientôt plus seulement une affaire intérieure coréenne, mais deviendront un chapitre indispensable du récit mondial sur la gouvernance de l'intelligence artificielle.