Affichage des articles dont le libellé est UE. Afficher tous les articles
Affichage des articles dont le libellé est UE. Afficher tous les articles

mardi 17 juin 2025

Nouvelles données importantes sur l'EU AI Act et les aspects juridiques récents sur l'Ëthique.

Voici un schéma avec les nouvelles données sur l'EU AI Act et les aspects juridiques récents sur l'Éthique.

 J'ai mis à jour le schéma avec toutes les nouvelles données importantes :

🆕 Nouvelles informations intégrées :

EU AI Act (1er août 2024)

  • 4 catégories de risques clairement visualisées avec codes couleur
  • Timeline précise : Interdictions applicables 2 août 2025, application complète 2 août 2027
  • Responsabilités réparties entre fournisseurs, déployeurs et utilisateurs

Aspects juridiques renforcés

  • Nouvelles recommandations CNIL (février 2025) sur RGPD et IA
  • Privacy by design/default
  • Contrats IA spécifiques requis
  • Protection des données personnelles avec spécificités IA

Exemples concrets par catégorie de risque

  • 🚫 Risque inacceptable : Manipulation subliminale, surveillance biométrique
  • ⚠️ Haut risque : Santé, éducation, biométrie, infrastructure critique
  • 🔍 Risque limité : Chatbots, deepfakes (transparence requise)
  • ✅ Risque minimal : Applications courantes peu contraignantes

Timeline actualisée

Ajout des dates clés et du calendrier d'application progressive de la réglementation européenne.

Le schéma est maintenant complet et à jour avec le cadre légal européen le plus récent, tout en conservant les données de recherche académique originales. Il offre une vision complète de l'évolution de l'éthique IA depuis la recherche théorique jusqu'au cadre réglementaire concret !

Voici une synthèse sur la position de l’éthique appliquée à l’intelligence artificielle (IA), en tenant compte des aspects légaux et juridiques récents :


L’éthique de l’IA vise à garantir que les systèmes intelligents respectent les valeurs humaines fondamentales, la dignité, la justice et la transparence. Avec l’entrée en vigueur du EU AI Act le 1er août 2024, l’Europe s’est dotée du premier cadre réglementaire global sur l’intelligence artificielle, articulé autour d’une approche fondée sur les risques1 Ce règlement distingue quatre catégories de systèmes d’IA selon leur niveau de risque : risque inacceptable (interdits), haut risque (soumis à des obligations strictes), risque limité (transparence requise) et risque minimal (peu contraignant)1

Les systèmes à haut risque, par exemple dans la santé, l’éducation, la biométrie ou l’infrastructure critique, doivent répondre à des exigences renforcées : documentation technique, évaluation d’impact, supervision humaine, gestion rigoureuse des données et respect du RGPD1 Les systèmes à risque inacceptable, comme la manipulation subliminale ou la surveillance biométrique en temps réel dans l’espace public, sont désormais interdits2

Sur le plan juridique, la responsabilité est clairement répartie entre les fournisseurs (conformité technique et documentation), les déployeurs (intégration dans les processus internes) et les utilisateurs finaux (respect des conditions d’utilisation)2 Les contrats doivent intégrer des clauses spécifiques à l’IA : définition du système, usages autorisés, modalités de supervision, transparence algorithmique, sécurité et confidentialité2

La gouvernance éthique et juridique de l’IA repose sur la mise en place de comités éthiques, de référents IA, d’audits réguliers et sur le respect des principes de “privacy by design” et “privacy by default” pour la protection des données personnelles2 Les nouvelles recommandations de la CNIL (février 2025) précisent aussi l’application du RGPD à l’IA, notamment sur la traçabilité, la minimisation et l’information des personnes concernées2

En résumé, l’éthique de l’IA, encadrée par la loi, vise à prévenir les risques pour les droits fondamentaux, la sécurité et la vie privée, tout en garantissant une utilisation responsable et transparente de ces technologies.

  1. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/1f137ea4-1c0d-437c-b580-9a4af32595d1/JuridiqueIA.pdf
  2. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/d389e495-e357-42a1-a50f-724bdcbbfd3c/Aspects-Juridiques-et-Reglementaires-de-la-Gouvernance-IA-par-Tableau-de-Bord.pdf
  3. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/e5aa63b2-3570-43fd-9c16-7f8f57344962/1739902905394_7d61d0dfc3.pdf
  4. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/65f2db36-3cbc-4e2f-bf46-540f3c168b63/Plan-du-livre-v3.pdf
  5. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/126fcf7e-38ac-40f0-8fcc-01786c77bddc/Arguments-T2B-v2-Enrichi-avec-le-Modele-de-Feuille-de-Route-IA.docx

Voici les principales obligations légales à respecter pour déployer un système d’IA à haut risque selon le règlement européen AI Act :


Obligations générales pour le déploiement d’une IA à haut risque

  • Enregistrement obligatoire : Le système d’IA doit être enregistré dans la base de données officielle de l’Union européenne avant sa mise en service146.

  • Évaluation de conformité : Le système doit faire l’objet d’une évaluation de conformité par un organisme tiers, qui vérifie le respect des exigences légales (sécurité, robustesse, transparence, etc.)357.

  • Marquage CE : Le système doit porter un marquage CE attestant de sa conformité aux normes européennes7.

  • Gestion des risques : Mettre en place un système de gestion des risques tout au long du cycle de vie de l’IA, avec une évaluation continue des risques et des mesures d’atténuation35.

  • Gouvernance des données : Utiliser des données de haute qualité, pertinentes, représentatives et exemptes d’erreurs pour minimiser les biais et garantir l’équité35.

  • Robustesse et cybersécurité : Garantir la fiabilité, la résistance aux erreurs, la cybersécurité, ainsi que la mise en place de plans de secours35.

  • Documentation technique : Fournir une documentation complète et à jour démontrant la conformité du système aux exigences réglementaires35.

  • Journalisation des événements : Le système doit enregistrer automatiquement les événements significatifs pour assurer la traçabilité et la transparence35.

  • Surveillance humaine : Assurer une supervision humaine continue, avec des personnes compétentes et formées disposant de l’autorité nécessaire pour intervenir16.

  • Information des utilisateurs : Fournir des instructions claires sur l’utilisation du système, ses capacités, ses limites et ses risques potentiels35.

Obligations spécifiques pour les déployeurs

  • Respect des instructions du fournisseur : Utiliser le système conformément aux instructions techniques et organisationnelles fournies16.

  • Formation et compétence du personnel : Garantir que les opérateurs humains ont la formation et les compétences nécessaires pour assurer une surveillance efficace6.

  • Autorisation préalable pour certaines IA biométriques : Pour les systèmes d’identification biométrique à distance, obtenir une autorisation judiciaire ou administrative avant déploiement6.

  • Coopération avec les autorités : Collaborer avec les autorités compétentes en cas de contrôle ou d’enquête1.


Le non-respect de ces obligations peut entraîner des sanctions lourdes, notamment des amendes pouvant atteindre plusieurs millions d’euros7. Ces règles visent à garantir la sécurité, la transparence et le respect des droits fondamentaux dans l’utilisation des IA à haut risque.

  1. https://artificialintelligenceact.eu/fr/article/26/
  2. https://www.hunteed.com/blog/reglementation-ia-entreprise
  3. https://naaia.ai/ai-act-haut-risque/
  4. https://www.witik.io/blog/obligations-systemes-ia-haut-risque/
  5. https://aumans-avocats.com/ia-act-systemes-dia-a-haut-risque-quels-enjeux-et-quelles-obligations/
  6. https://www.village-justice.com/articles/act-les-obligations-des-deployeurs-systemes-intelligence-artificielle,50917.html
  7. https://www.leto.legal/guides/ai-act-quelles-sont-les-regles-a-respecter-pour-etre-conforme
  8. https://solutions.lesechos.fr/juridique/loi-conformite/l-ia-act-ce-que-la-nouvelle-reglementation-europeenne-change-concretement-pour-les-employeurs/

Liens vers le schéma ci-desssous



Mes Drives sur ces sujets







Schéma de présentation : Éthique de l'IA | Claude | Claude





RSE-AI-ETHIQUE: Ethique


RSE-AI-ETHIQUE: Nouvelles données importantes sur l'EU AI Act et les aspects juridiques récents sur l'Ëthique.


RSE-AI-ETHIQUE: Pourquoi ne pas jouer avec l'IA et l'Éthique ?


-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON et ceux sur Copilot  https://amzn.eu/d/i2CGjd3   plus  https://amzn.eu/d/7yXSDWa