Files / Technologie émergente

Rapport du ministère de la Justice des États-Unis sur l'intelligence artificielle dans le domaine de la justice pénale : points clés

Analyse approfondie du rapport annuel : Applications, défis et cadre de gouvernance de l'intelligence artificielle dans l'identification, la police prédictive, l'évaluation des risques et l'analyse médico-légale, offrant une voie équilibrée pour le déploiement technologique et la protection des droits.

Detail

Published

22/12/2025

Liste des titres des chapitres clés

  1. Résumé
  2. Domaines de concentration clés
  3. Identification et surveillance
  4. Analyse médico-légale
  5. Police prédictive
  6. Évaluation des risques
  7. Recommandations principales
  8. Conclusion

Introduction au document

Ce résumé de rapport est basé sur le document « Intelligence Artificielle dans le Domaine de la Justice Pénale » publié par le Département de la Justice des États-Unis (DOJ) en décembre 2024, visant à en extraire les découvertes et recommandations fondamentales. La publication de ce rapport intervient à un moment où la politique de gouvernance de l'IA aux États-Unis connaît un virage majeur. En janvier 2025, l'ordre exécutif 14148 a révoqué l'ordre précédent 14110, suivi de près par l'ordre 14179 qui a établi de nouvelles priorités politiques axées sur l'élimination des obstacles au leadership américain en matière d'IA, soulignant l'amélioration de l'avantage stratégique des États-Unis dans ce domaine par des approches axées sur le marché. Ce changement de politique fait écho au projet du secteur privé Stargate, dirigé par SoftBank et OpenAI et doté d'un budget de 500 milliards de dollars, mettant en lumière la fusion entre les investissements massifs dans les infrastructures d'IA et les intentions stratégiques nationales. Dans ce contexte politique dynamique, ce rapport de 77 pages du DOJ, par son analyse des risques inhérents et des opportunités des technologies d'IA, transcende la temporalité de cadres réglementaires spécifiques et offre une valeur durable pour comprendre les défis fondamentaux de l'IA dans le système de justice pénale.

Le rapport examine systématiquement quatre scénarios d'application clés de l'IA dans le domaine de la justice pénale : l'identification et la surveillance, l'analyse médico-légale, la police prédictive et l'évaluation des risques. Concernant l'identification et la surveillance, le rapport analyse les gains d'efficacité et de précision offerts par des technologies telles que la reconnaissance faciale et la reconnaissance automatique des plaques d'immatriculation, tout en soulignant les disparités de performance liées à des facteurs tels que la race, le sexe, l'âge, ainsi que les problèmes de protection de la vie privée et des droits civiques qui en découlent. La section sur l'analyse médico-légale explore comment l'IA pourrait potentiellement favoriser une transition d'analyses subjectives vers des méthodes plus objectives et reproductibles, couvrant diverses applications allant du génotypage probabiliste de l'ADN à la détection de contenu généré par l'IA dans l'investigation numérique, et souligne les défis persistants liés à la qualité des données, aux exigences de validation, à l'explicabilité et à la supervision humaine.

La police prédictive et l'évaluation des risques sont deux autres domaines centraux analysés par le rapport. Il indique que si les outils de police prédictive peuvent optimiser l'allocation des ressources, leurs données historiques sur la criminalité peuvent perpétuer des biais existants, avoir un impact disproportionné sur les communautés vulnérables et éroder la confiance du public. Les outils d'évaluation des risques, largement utilisés pour la libération avant procès, la détermination de la peine, la classification en prison, etc., peuvent améliorer la précision et la transparence des décisions, mais leurs prédictions comportent toujours une incertitude, et les variations de performance entre différents groupes démographiques peuvent exacerber les injustices systémiques. Le rapport souligne que l'équilibre entre précision, équité et transparence est l'un des plus grands défis liés à l'utilisation de ces outils.

Pour assurer un déploiement responsable de l'IA, le rapport propose un cadre de gouvernance complet et des recommandations clés. Cela inclut une évaluation coût-bénéfice préalable au déploiement, une clarification des responsabilités organisationnelles, l'élaboration de politiques d'utilisation détaillées, la garantie de l'intégrité des données et la réalisation de tests rigoureux. Après le déploiement, une surveillance continue, des audits réguliers, l'évaluation de nouveaux usages et le maintien de l'engagement communautaire sont nécessaires. Le rapport souligne particulièrement le rôle central de la supervision humaine, indiquant que l'IA devrait assister et non remplacer la prise de décision humaine, en particulier dans les affaires à haut risque. En conclusion, le rapport estime qu'en établissant des structures organisationnelles robustes, en assurant une supervision publique et la transparence, et en formant une main-d'œuvre dotée des compétences appropriées, les institutions de justice pénale peuvent s'efforcer de garantir que le déploiement de l'IA renforce l'équité, l'efficacité et l'intégrité constitutionnelle du système.