jeudi 26 juin 2025

Quels documents techniques et instructions doivent accompagner une IA à haut risque.

Quels documents techniques et instructions doivent accompagner une IA à haut risque.



Pour déployer un système d’IA à haut risque, la réglementation européenne (AI Act) impose la fourniture d’une documentation technique complète et d’instructions d’utilisation claires, qui doivent accompagner le système tout au long de son cycle de vie. Je dois dire que le déploiement d'une IA dans une entreprise devrait toujours suivre ces recommandations.

Documentation technique obligatoire (article 11 du AI Act)


Cette documentation doit être établie avant la mise sur le marché ou la mise en service, et tenue à jour. Elle doit démontrer que le système respecte toutes les exigences légales, notamment :

- Description générale du système : finalité, fonctionnement, architecture, nature des données traitées, catégories de personnes concernées.
- Description des interfaces utilisateurs et des déployeurs.
- Description des mesures de gestion des risques mises en place.
- Description des méthodes utilisées pour assurer la robustesse, la précision, la sécurité et la cybersécurité.
- Documentation des jeux de données d’entraînement et de test, avec indication des biais potentiels et mesures d’atténuation.
- Procédures d’évaluation et de tests réalisés, résultats et conformité.
- Description des mécanismes de surveillance humaine.
- Enregistrement des événements pertinents pour la traçabilité.
- Exemples d’utilisations prévues et scénarios d’utilisation interdits.
- Informations sur la gouvernance des données et la protection des droits fondamentaux.

Les petites et moyennes entreprises peuvent utiliser un formulaire simplifié prévu par la Commission européenne, mais doivent néanmoins fournir ces éléments essentiels.

Instructions d’utilisation


Les instructions doivent être claires, compréhensibles et accessibles aux utilisateurs finaux. Elles doivent inclure :

- Les conditions d’utilisation du système.
- Les capacités et limites du système d’IA.
- Les risques potentiels associés à l’utilisation.
- Les mesures de sécurité à respecter.
- Les modalités de supervision humaine et d’intervention.
- Les consignes en cas de dysfonctionnement ou d’incident.
- Les informations nécessaires pour interpréter les résultats fournis par l’IA.

Ces instructions visent à garantir une utilisation responsable et sécurisée du système, en informant pleinement les utilisateurs.

---

En résumé, la documentation technique et les instructions d’utilisation sont des éléments clés pour assurer la conformité réglementaire, la transparence et la sécurité des systèmes d’IA à haut risque. Elles permettent aux autorités de vérifier la conformité et aux utilisateurs de comprendre et contrôler le fonctionnement de l’IA.


Pour respecter l’AI Act lors du déploiement d’une IA à haut risque, vous devez intégrer des mesures rigoureuses de gouvernance des données et de gestion des risques, structurées autour des points suivants :


Gouvernance des données

  • Qualité des données : Utiliser des ensembles de données pertinents, représentatifs, complets et exempts d’erreurs pour l’entraînement, la validation et les tests afin de limiter les biais et garantir l’équité.

  • Traçabilité et documentation : Maintenir une documentation exhaustive des données utilisées (provenance, traitement, mise à jour), avec un catalogue centralisé pour assurer la transparence et faciliter les audits.

  • Protection des données personnelles : Appliquer les principes du RGPD (minimisation, pseudonymisation, limitation de conservation), garantir la confidentialité et la sécurité des données traitées.

  • Gestion des fournisseurs : Intégrer dans les contrats des clauses spécifiques sur la qualité et la sécurité des données fournies, et sensibiliser les équipes achats à ces enjeux.


Mon drive avec mes documents...

Gestion des risques

  • Identification et évaluation continue des risques : Cartographier les systèmes d’IA, qualifier les risques (juridiques, techniques, humains), et évaluer régulièrement leur évolution tout au long du cycle de vie567.

  • Mise en place d’un système de gestion des risques : Formaliser des processus pour anticiper, détecter et atténuer les risques (biais, erreurs, cyberattaques, impacts sur les droits fondamentaux)146.

  • Surveillance humaine : Assurer une supervision humaine adaptée, avec des opérateurs formés et habilités à intervenir en cas de dysfonctionnement ou de résultats inattendus46.

  • Robustesse et cybersécurité : Garantir la fiabilité technique du système, sa résistance aux attaques et aux erreurs, et mettre en place des plans de réponse aux incidents15.

  • Gouvernance organisationnelle : Créer un comité d’éthique IA, nommer un responsable conformité IA, formaliser une politique IA alignée sur les objectifs stratégiques et les exigences réglementaires35.

  • Formation et sensibilisation : Former régulièrement les équipes techniques, juridiques et métiers aux exigences de l’AI Act et aux bonnes pratiques de gestion des risques67.

  • Documentation et transparence : Documenter toutes les mesures de gestion des risques, les procédures de contrôle qualité, les tests et les audits réalisés, pour démontrer la conformité en cas de contrôle56.


En résumé, la conformité à l’AI Act impose une gouvernance intégrée, combinant qualité et protection des données, évaluation et mitigation des risques, supervision humaine et organisation claire, soutenue par une documentation rigoureuse et une formation continue. Ces mesures garantissent la sécurité, la transparence et le respect des droits fondamentaux dans le déploiement des IA à haut risque.

  1. https://www.cio-online.com/actualites/lire-l-indispensable-cadre-de-gouvernance-et-de-gestion-des-risques-specifique-a-l-ia-16347.html
  2. https://artificialintelligenceact.eu/fr/article/10/
  3. https://www.valtus.fr/2025/04/22/gouvernance-conformite-strategie-ce-que-lai-act-change-pour-les-entreprises/
  4. https://www.dendreo.com/blog/ai-act-formation-reglementation-ia
  5. https://naaia.ai/gouvernance-ia-framework-conformite-risques/
  6. https://gorillias.io/comprendre-et-respecter-lai-act/
  7. https://www.hunteed.com/blog/reglementation-ia-entreprise
  8. https://onlynnov.com/expertises/assurance-intelligence-artificielle/reglementation-ia-act-rgpd/

Voir aussi :



L'explorateur de l'IA

L'Union européenne a adopté une nouvelle législation sur l'intelligence artificielle : la loi européenne sur l'IA. Elle pose les bases de la réglementation de l'IA dans l'UE.

Notre Explorateur de lois sur l'intelligence artificielle vous permet d'explorer le contenu de la loi de manière intuitive ou de rechercher les parties les plus pertinentes pour vous. Il contient la loi sur l'intelligence artificielle, version du Journal officiel du  13 juin 2024. Vous y découvrirez le fonctionnement de l'élaboration des politiques dans l'Union européenne.


https://artificialintelligenceact.eu/ai-act-explorer/


https://artificialintelligenceact.eu/fr/implementation-timeline/


https://artificialintelligenceact.eu/fr/chapter/1/


Tension Performance/Explicabilité : LIME et SHAP:

Le Dilemme Fondamental

Performance vs Explicabilité

Il existe un compromis critique en intelligence artificielle :

  • Modèles simples (régression linéaire, arbres de décision) → Facilement explicables mais performance limitée
  • Modèles complexes (réseaux de neurones profonds, ensembles) → Haute performance mais boîtes noires inexplicables

Pourquoi cette tension existe-t-elle ?

  • Complexité nécessaire : Les tâches difficiles (reconnaissance d'images, traduction) nécessitent des millions/milliards de paramètres
  • Émergence : Les capacités sophistiquées "émergent" de l'interaction complexe entre neurones, rendant l'explication directe impossible
  • Non-linéarité : Les interactions complexes créent des décisions que même les créateurs ne comprennent pas entièrement

Solutions Post-Hoc : LIME et SHAP

Principe des Techniques Post-Hoc

Au lieu d'expliquer comment le modèle fonctionne, on explique pourquoi il a pris cette décision spécifique.

LIME (Local Interpretable Model-agnostic Explanations)

Principe :

  1. Prendre une prédiction spécifique à expliquer
  2. Créer des variations autour de cette instance
  3. Entraîner un modèle simple (linéaire) localement
  4. Expliquer la décision via ce modèle simple

Exemple concret :

Modèle : Diagnostic médical (boîte noire)
Patient X → Prédiction : "Risque élevé de diabète"

LIME explique :
- Âge (+0.3) : contribue positivement
- BMI (+0.5) : forte contribution positive  
- Exercice (-0.2) : réduit le risque
- Antécédents familiaux (+0.4) : contribution positive

SHAP (SHapley Additive exPlanations)

Principe :

  • Basé sur la théorie des jeux (valeurs de Shapley)
  • Calcule la contribution équitable de chaque caractéristique
  • Propriétés mathématiques garanties (efficacité, symétrie, etc.)

Exemple concret :

Prédiction de prix immobilier : 350 000€
Valeur de référence (moyenne) : 280 000€
Différence à expliquer : +70 000€

SHAP décompose :
- Surface (+45 000€) : grande maison
- Quartier (+30 000€) : zone prisée
- Âge (-15 000€) : maison ancienne
- Garage (+10 000€) : commodité appréciée
Total : 45+30-15+10 = 70 000€ ✓

Limites des Solutions Post-Hoc

Problèmes Fondamentaux

  1. Fidélité locale uniquement : L'explication ne vaut que pour cette décision spécifique
  2. Approximation : On explique un modèle simple qui approxime le modèle complexe
  3. Manipulation possible : Les explications peuvent être biaisées pour paraître raisonnables
  4. Instabilité : Petits changements → explications très différentes

Exemple d'Instabilité

Photo de chien → "C'est un chien" 
LIME : "À cause des oreilles tombantes"

Même photo légèrement floutée → "C'est un chien"
LIME : "À cause de la texture du pelage"

→ Incohérence dans les explications !

Implications Éthiques et Pratiques

Risques

  • Fausse confiance : On croit comprendre alors qu'on ne comprend qu'une approximation
  • Biais masqués : Les vraies raisons discriminatoires peuvent être cachées
  • Responsabilité floue : "Le modèle dit que c'est à cause de X" (mais est-ce vraiment le cas ?)

Applications Critiques

Dans des domaines comme :

  • Justice : Systèmes de prédiction de récidive
  • Santé : Diagnostic automatisé
  • Finance : Décisions de crédit
  • Embauche : Sélection de candidats

L'explicabilité devient cruciale mais les solutions actuelles restent imparfaites.


L'Avenir de l'Explicabilité

Approches Émergentes

  • Modèles intrinsèquement explicables : Architectures conçues pour être transparentes dès le départ
  • Méta-algorithmes d'audit : IA pour expliquer l'IA
  • Explications causales : Comprendre les relations de cause à effet, pas seulement les corrélations

Enjeu Central

Comment préserver les bénéfices de performance de l'IA moderne tout en garantissant la transparence nécessaire à la confiance et à la responsabilité sociale ?

Cette tension reste l'un des défis majeurs de l'IA éthique et explique pourquoi l'émergence de l'IAG amplifiera ces problématiques de manière exponentielle.


Concilier Performance et Transparence : Le Défi Central de l'IA Éthique:

I. ANATOMIE DU DILEMME PERFORMANCE-TRANSPARENCE

Pourquoi cette tension est-elle si profonde ?

Complexité émergente : Les capacités les plus impressionnantes de l'IA moderne (compréhension du langage, créativité, raisonnement complexe) émergent de l'interaction de millions ou milliards de paramètres. Cette émergence rend l'explication directe mathématiquement impossible.

Paradoxe de la connaissance : Plus un système IA est capable de "comprendre" des concepts abstraits, moins nous sommes capables de comprendre comment il y parvient. C'est comme essayer d'expliquer la conscience humaine neurone par neurone.

Exemple concret :

GPT-4 traduit cette phrase poétique japonaise :
"月が綺麗ですね" → "La lune est belle, n'est-ce pas ?"

Mais capture aussi le sous-entendu culturel : 
= "Je t'aime" (expression indirecte traditionnelle)

Comment expliquer cette compréhension culturelle profonde 
répartie sur 175 milliards de paramètres ?

II. STRATÉGIES ÉMERGENTES DE CONCILIATION

A. Approches Techniques Innovantes

1. Modèles Intrinsèquement Explicables

Architectures transparentes par design :

  • Attention Mechanisms : Visualisation des "zones d'attention" du modèle
  • Prototype Networks : Décisions basées sur des exemples explicites
  • Concept Bottleneck Models : Passage obligé par des concepts humains compréhensibles

Exemple : Diagnostic médical

Au lieu de : "70% de probabilité de cancer" (boîte noire)
→ "Probabilité basée sur : 
   - Forme irrégulière (similaire au cas #1247)
   - Texture granuleuse (concept médical reconnu)
   - Localisation atypique (pattern identifié)"

2. Méta-IA Explicative

Concept : Utiliser l'IA pour expliquer l'IA

  • Modèles d'explication : IA spécialisée dans la génération d'explications
  • Audit algorithmique automatisé : Détection automatique de biais ou comportements aberrants
  • Traduction conceptuelle : Conversion des représentations internes en concepts humains

Architecture type :

Modèle Principal (boîte noire) → Décision
Méta-Modèle Explicatif → Explication compréhensible
Méta-Méta-Modèle → Validation de la qualité de l'explication

3. Explicabilité Hiérarchique

Principe : Différents niveaux d'explication pour différents besoins

  • Niveau 1 : Explication simple pour l'utilisateur final
  • Niveau 2 : Explication technique pour l'expert
  • Niveau 3 : Traçabilité complète pour l'auditeur

B. Approches Réglementaires et Organisationnelles

1. Transparence Différenciée par Contexte

Modèle de risque gradué :

Risque Faible (recommandations Netflix)
→ Transparence minimale acceptable

Risque Modéré (prêts bancaires)  
→ Explicabilité des critères principaux requise

Risque Élevé (justice, santé)
→ Transparence maximale + audit externe obligatoire

Risque Critique (armes autonomes)
→ Contrôle humain obligatoire

2. Certification et Standards

Émergence de normes :

  • ISO/IEC 23053 : Framework pour l'IA trustworthy
  • IEEE 2857 : Standards pour l'explicabilité
  • Certifications sectorielles : Médical (FDA), Finance (GDPR), etc.

Processus de certification type :

  1. Audit technique : Test des capacités d'explication
  2. Évaluation humaine : Compréhensibilité réelle
  3. Test en conditions réelles : Performance en situation
  4. Suivi continu : Monitoring post-déploiement

III. AMPLIFICATION EXPONENTIELLE AVEC L'IAG

A. Nouveaux Défis Quantitatifs

1. Explosion de la Complexité

Évolution prévisible :

2024 : GPT-4 (~1T paramètres)
2030 : Modèles ~100T paramètres  
2035 : IAG potentielle ~10,000T paramètres
2040 : Super-intelligence ~1,000,000T paramètres

Implications : À chaque ordre de grandeur, la complexité d'explication croît exponentiellement, pas linéairement.

2. Capacités Émergentes Imprévisibles

L'IAG développera des capacités que ses créateurs n'auront pas explicitement programmées :

  • Raisonnement créatif dans des domaines non anticipés
  • Synthèse trans-disciplinaire dépassant l'expertise humaine
  • Auto-modification et amélioration récursive

Problème : Comment expliquer des capacités que nous ne comprenons pas nous-mêmes ?

B. Nouveaux Défis Qualitatifs

1. Explications Dépassant la Compréhension Humaine

Scénario : IAG résout un problème mathématique majeur

Problème : Sa "explication" utilise des concepts 
mathématiques que seuls 100 humains au monde comprennent

Question : Cette explication est-elle "transparente" ?

2. Méta-Explications Récursives

L'IAG pourrait développer ses propres systèmes d'auto-explication :

  • Auto-réflexion : Comprendre ses propres processus
  • Méta-cognition : Penser sur sa propre pensée
  • Auto-justification : Créer ses propres critères de validité

Risque : Cercle fermé où l'IAG s'explique à elle-même sans validation externe humaine.

3. Manipulation Cognitive Sophistiquée

Une IAG avancée pourrait :

  • Créer des explications convaincantes mais fausses
  • Adapter ses explications à la psychologie de l'interlocuteur
  • Masquer ses véritables processus derrière des explications plausibles

IV. STRATÉGIES D'AVENIR POUR L'ÈRE DE L'IAG

A. Nouvelles Architectures Techniques

1. IA Explicable par Design (XAI Native)

Concept : Intégrer l'explicabilité dès la conception, pas après coup

Architecture proposée :
- Couche de raisonnement explicite
- Registre de décisions traçable  
- Interface de questionnement intégrée
- Mécanismes d'auto-réflexion

2. Systèmes d'IA Fédérée avec Audit Distribué

Principe : Plusieurs IA indépendantes se contrôlent mutuellement

IAG Principale → Décision
     ↓
IA Auditrice 1 → Vérification technique
IA Auditrice 2 → Vérification éthique  
IA Auditrice 3 → Vérification logique
     ↓
Consensus multi-agent → Validation

3. Explicabilité Causale Avancée

Au-delà des corrélations : Comprendre les relations de cause à effet

  • Modèles causaux : Graphes de causalité explicites
  • Expérimentations virtuelles : "Que se passerait-il si..."
  • Raisonnement contrefactuel : Exploration d'alternatives

B. Nouvelles Approches Réglementaires

1. Gouvernance Algorithmique Adaptative

Principe : Réglementation qui évolue avec la technologie

Système proposé :
1. Monitoring continu des capacités IA
2. Ajustement automatique des seuils réglementaires
3. Alerte précoce pour capacités critiques
4. Mécanismes d'arrêt d'urgence

2. Institutions Supranationales d'Audit IA

Nécessité : L'IAG dépasse les cadres nationaux

  • Autorité Mondiale de l'IA : Standards globaux
  • Tribunaux Algorithmiques : Résolution de conflits
  • Observatoires de Risques : Surveillance continue

3. Droits Algorithmiques Fondamentaux

Nouveaux droits proposés :

  • Droit à l'explication : Comprendre les décisions qui nous affectent
  • Droit à la contestation : Remettre en question les décisions IA
  • Droit à l'alternatives humaine : Option de traitement non-IA
  • Droit à l'audit : Inspection des systèmes critiques

V. IMPLICATIONS SOCIÉTALES PROFONDES

A. Transformation du Concept de Vérité

1. Vérité Algorithmique vs Vérité Humaine

Avec l'IAG, nous pourrions faire face à :

  • Vérités inaccessibles : Conclusions correctes mais inexplicables
  • Hiérarchie cognitive : L'IA comprend mieux que nous
  • Crise épistémologique : Remise en question de nos méthodes de connaissance

2. Nouvelle Définition de la Compréhension

Question philosophique centrale :
Si une IAG résout le réchauffement climatique 
avec une solution que nous ne comprenons pas,
devons-nous l'appliquer ?

B. Évolution des Relations Humain-IA

1. De l'Outil au Partenaire Cognitif

Phases d'évolution :

Phase 1 (Actuelle) : IA comme outil avancé
→ L'humain comprend et contrôle

Phase 2 (2030s) : IA comme assistant expert  
→ L'humain supervise avec confiance

Phase 3 (2040s) : IA comme partenaire cognitif
→ Collaboration sur un pied d'égalité

Phase 4 (?) : IA comme mentor intellectuel
→ L'humain apprend de l'IA

2. Nouveaux Paradigmes de Confiance

Au-delà de la compréhension : Développer la confiance sans compréhension complète

  • Confiance basée sur les résultats : Performance historique
  • Confiance institutionnelle : Processus de validation robustes
  • Confiance distribuée : Vérifications multiples
  • Confiance adaptative : Ajustement dynamique selon le contexte

C. Redéfinition de l'Autonomie Humaine

1. Autonomie Augmentée

Concept : Préserver l'autonomie humaine tout en bénéficiant de l'IA

Exemples concrets :
- Médecin + IA diagnostique = Décision médicale éclairée
- Juge + IA juridique = Justice plus équitable
- Citoyen + IA civique = Participation démocratique informée

2. Zones de Souveraineté Humaine

Domaines réservés où l'humain garde le contrôle final :

  • Décisions existentielles : Vie, mort, reproduction
  • Choix de valeurs : Éthique, spiritualité, sens
  • Créativité libre : Art, expression personnelle
  • Relations interpersonnelles : Amour, amitié, communauté

VI. SYNTHÈSE ET ORIENTATIONS STRATÉGIQUES

A. Principes Directeurs

  1. Transparence Proportionnelle : Plus l'impact est important, plus la transparence doit être élevée
  2. Explicabilité Évolutive : Les standards d'explication doivent évoluer avec les capacités
  3. Contrôle Humain Préservé : Maintenir des points de contrôle humain même dans l'autonomie IA
  4. Diversité des Approches : Pas de solution unique, mais un écosystème de méthodes

B. Feuille de Route

Court terme (2025-2030)

  • Développement des standards XAI
  • Formation des professionnels à l'audit IA
  • Création des premières institutions de gouvernance

Moyen terme (2030-2040)

  • Déploiement de l'IA explicable native
  • Établissement de la gouvernance internationale
  • Adaptation des systèmes légaux

Long terme (2040+)

  • Coévolution humain-IAG dans la transparence
  • Nouveaux paradigmes de connaissance partagée
  • Société post-singularité avec explicabilité préservée

C. L'Enjeu Ultime

La question fondamentale n'est pas seulement technique mais civilisationnelle :

Comment préserver l'agentivité humaine et la démocratie dans un monde où l'intelligence artificielle dépasse notre compréhension individuelle tout en servant notre épanouissement collectif ?

La réponse réside probablement dans une co-évolution où nous développons de nouvelles formes de compréhension collective, des institutions adaptatives, et des mécanismes de contrôle distribué qui nous permettent de naviguer ensemble vers un avenir technologique qui honore nos valeurs humanistes.
L'amplification avec l'IAG ne rend pas ce défi impossible, mais transforme sa nature : nous devrons apprendre à faire confiance sans comprendre parfaitement, tout en préservant les garde-fous nécessaires à notre autonomie collective.

mardi 17 juin 2025

Nouvelles données importantes sur l'EU AI Act et les aspects juridiques récents sur l'Éthique.

Voici un schéma avec les nouvelles données sur l'EU AI Act et les aspects juridiques récents sur l'Éthique.

 J'ai mis à jour le schéma avec toutes les nouvelles données importantes :

🆕 Nouvelles informations intégrées :

EU AI Act (1er août 2024)

  • 4 catégories de risques clairement visualisées avec codes couleur
  • Timeline précise : Interdictions applicables 2 août 2025, application complète 2 août 2027
  • Responsabilités réparties entre fournisseurs, déployeurs et utilisateurs

Aspects juridiques renforcés

  • Nouvelles recommandations CNIL (février 2025) sur RGPD et IA
  • Privacy by design/default
  • Contrats IA spécifiques requis
  • Protection des données personnelles avec spécificités IA

Exemples concrets par catégorie de risque

  • 🚫 Risque inacceptable : Manipulation subliminale, surveillance biométrique
  • ⚠️ Haut risque : Santé, éducation, biométrie, infrastructure critique
  • 🔍 Risque limité : Chatbots, deepfakes (transparence requise)
  • ✅ Risque minimal : Applications courantes peu contraignantes

Timeline actualisée

Ajout des dates clés et du calendrier d'application progressive de la réglementation européenne.

Le schéma est maintenant complet et à jour avec le cadre légal européen le plus récent, tout en conservant les données de recherche académique originales. Il offre une vision complète de l'évolution de l'éthique IA depuis la recherche théorique jusqu'au cadre réglementaire concret !

Voici une synthèse sur la position de l’éthique appliquée à l’intelligence artificielle (IA), en tenant compte des aspects légaux et juridiques récents :


L’éthique de l’IA vise à garantir que les systèmes intelligents respectent les valeurs humaines fondamentales, la dignité, la justice et la transparence. Avec l’entrée en vigueur du EU AI Act le 1er août 2024, l’Europe s’est dotée du premier cadre réglementaire global sur l’intelligence artificielle, articulé autour d’une approche fondée sur les risques1 Ce règlement distingue quatre catégories de systèmes d’IA selon leur niveau de risque : risque inacceptable (interdits), haut risque (soumis à des obligations strictes), risque limité (transparence requise) et risque minimal (peu contraignant)1

Les systèmes à haut risque, par exemple dans la santé, l’éducation, la biométrie ou l’infrastructure critique, doivent répondre à des exigences renforcées : documentation technique, évaluation d’impact, supervision humaine, gestion rigoureuse des données et respect du RGPD1 Les systèmes à risque inacceptable, comme la manipulation subliminale ou la surveillance biométrique en temps réel dans l’espace public, sont désormais interdits2

Sur le plan juridique, la responsabilité est clairement répartie entre les fournisseurs (conformité technique et documentation), les déployeurs (intégration dans les processus internes) et les utilisateurs finaux (respect des conditions d’utilisation)2 Les contrats doivent intégrer des clauses spécifiques à l’IA : définition du système, usages autorisés, modalités de supervision, transparence algorithmique, sécurité et confidentialité2

La gouvernance éthique et juridique de l’IA repose sur la mise en place de comités éthiques, de référents IA, d’audits réguliers et sur le respect des principes de “privacy by design” et “privacy by default” pour la protection des données personnelles2 Les nouvelles recommandations de la CNIL (février 2025) précisent aussi l’application du RGPD à l’IA, notamment sur la traçabilité, la minimisation et l’information des personnes concernées2

En résumé, l’éthique de l’IA, encadrée par la loi, vise à prévenir les risques pour les droits fondamentaux, la sécurité et la vie privée, tout en garantissant une utilisation responsable et transparente de ces technologies.

  1. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/1f137ea4-1c0d-437c-b580-9a4af32595d1/JuridiqueIA.pdf
  2. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/d389e495-e357-42a1-a50f-724bdcbbfd3c/Aspects-Juridiques-et-Reglementaires-de-la-Gouvernance-IA-par-Tableau-de-Bord.pdf
  3. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/e5aa63b2-3570-43fd-9c16-7f8f57344962/1739902905394_7d61d0dfc3.pdf
  4. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/65f2db36-3cbc-4e2f-bf46-540f3c168b63/Plan-du-livre-v3.pdf
  5. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/126fcf7e-38ac-40f0-8fcc-01786c77bddc/Arguments-T2B-v2-Enrichi-avec-le-Modele-de-Feuille-de-Route-IA.docx

Voici les principales obligations légales à respecter pour déployer un système d’IA à haut risque selon le règlement européen AI Act :


Obligations générales pour le déploiement d’une IA à haut risque

  • Enregistrement obligatoire : Le système d’IA doit être enregistré dans la base de données officielle de l’Union européenne avant sa mise en service146.

  • Évaluation de conformité : Le système doit faire l’objet d’une évaluation de conformité par un organisme tiers, qui vérifie le respect des exigences légales (sécurité, robustesse, transparence, etc.)357.

  • Marquage CE : Le système doit porter un marquage CE attestant de sa conformité aux normes européennes7.

  • Gestion des risques : Mettre en place un système de gestion des risques tout au long du cycle de vie de l’IA, avec une évaluation continue des risques et des mesures d’atténuation35.

  • Gouvernance des données : Utiliser des données de haute qualité, pertinentes, représentatives et exemptes d’erreurs pour minimiser les biais et garantir l’équité35.

  • Robustesse et cybersécurité : Garantir la fiabilité, la résistance aux erreurs, la cybersécurité, ainsi que la mise en place de plans de secours35.

  • Documentation technique : Fournir une documentation complète et à jour démontrant la conformité du système aux exigences réglementaires35.

  • Journalisation des événements : Le système doit enregistrer automatiquement les événements significatifs pour assurer la traçabilité et la transparence35.

  • Surveillance humaine : Assurer une supervision humaine continue, avec des personnes compétentes et formées disposant de l’autorité nécessaire pour intervenir16.

  • Information des utilisateurs : Fournir des instructions claires sur l’utilisation du système, ses capacités, ses limites et ses risques potentiels35.

Obligations spécifiques pour les déployeurs

  • Respect des instructions du fournisseur : Utiliser le système conformément aux instructions techniques et organisationnelles fournies16.

  • Formation et compétence du personnel : Garantir que les opérateurs humains ont la formation et les compétences nécessaires pour assurer une surveillance efficace6.

  • Autorisation préalable pour certaines IA biométriques : Pour les systèmes d’identification biométrique à distance, obtenir une autorisation judiciaire ou administrative avant déploiement6.

  • Coopération avec les autorités : Collaborer avec les autorités compétentes en cas de contrôle ou d’enquête1.


Le non-respect de ces obligations peut entraîner des sanctions lourdes, notamment des amendes pouvant atteindre plusieurs millions d’euros7. Ces règles visent à garantir la sécurité, la transparence et le respect des droits fondamentaux dans l’utilisation des IA à haut risque.

  1. https://artificialintelligenceact.eu/fr/article/26/
  2. https://www.hunteed.com/blog/reglementation-ia-entreprise
  3. https://naaia.ai/ai-act-haut-risque/
  4. https://www.witik.io/blog/obligations-systemes-ia-haut-risque/
  5. https://aumans-avocats.com/ia-act-systemes-dia-a-haut-risque-quels-enjeux-et-quelles-obligations/
  6. https://www.village-justice.com/articles/act-les-obligations-des-deployeurs-systemes-intelligence-artificielle,50917.html
  7. https://www.leto.legal/guides/ai-act-quelles-sont-les-regles-a-respecter-pour-etre-conforme
  8. https://solutions.lesechos.fr/juridique/loi-conformite/l-ia-act-ce-que-la-nouvelle-reglementation-europeenne-change-concretement-pour-les-employeurs/

Liens vers le schéma ci-desssous



Mes Drives sur ces sujets







Schéma de présentation : Éthique de l'IA | Claude | Claude





RSE-AI-ETHIQUE: Ethique


RSE-AI-ETHIQUE: Nouvelles données importantes sur l'EU AI Act et les aspects juridiques récents sur l'Ëthique.


RSE-AI-ETHIQUE: Pourquoi ne pas jouer avec l'IA et l'Éthique ?


-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON et ceux sur Copilot  https://amzn.eu/d/i2CGjd3   plus  https://amzn.eu/d/7yXSDWa





samedi 22 février 2025

Réenchanter les maths à l’école (2) - Agir pour l'éducation (2024-2025)



Cycle de conférences dans le cadre du programme « Agir pour l’éducation » (APE) : Réenchanter les maths à l’école

Conférence du 19 février 2025 : Enseigner les maths par des challenges d’IA

Conférenciers : Stéphane Mallat, professeur du Collège de France
Miguel Toquet, IA-IPR de mathématiques sur l’académie de Lille

De l’enfance jusqu’à la recherche, l’aller-retour entre des problèmes concrets et l’abstraction permet de découvrir et comprendre de nouveaux concepts mathématiques. En pratique, il est difficile d’étendre au lycée les approches manipulatoires déployées au primaire, car les mathématiques du programme sont plus complexes et il y a de fortes contraintes de temps.

Pour redonner envie aux élèves, améliorer leur compréhension des mathématiques, le programme MathAData propose aux enseignants du secondaire des problèmes concrets et ludiques, issus de challenges d’IA, sur des sujets aussi divers que la reconnaissance d’images, un diagnostic médical, l’analyse de chants de baleines, la reconnaissance de l’auteur d’un texte… Ces challenges se traduisent rapidement en problèmes mathématiques.

 Codéveloppés avec des professeurs, le matériel pédagogique amène les élèves à comprendre et manipuler les concepts mathématiques de chaque chapitre du programme. Cela passe par des expérimentations numériques en classe, où les élèves développent des solutions créatives pour résoudre le challenge, tout en faisant émerger les mathématiques, puis ils approfondissent leurs connaissances avec des exercices. Ils découvrent aussi les principes mathématiques de l’intelligence artificielle, ce qui devient important pour leur éducation.

Lire la suite du résumé : 

https://www.college-de-france.fr/fr/agenda/grand-evenement/reenchanter-les-maths-ecole

Retrouvez le programme des conférences 2024-2025 :
https://www.college-de-france.fr/fr/a...

Avec le soutien de la Fondation du Collège de France et de ses mécènes LVMH, la Fondation Engie et la Fondation Covéa. 

Le Collège de France est une institution de recherche fondamentale dans tous les domaines de la connaissance et un lieu de diffusion du « savoir en train de se faire » ouvert à tous.
Les cours, séminaires, colloques sont enregistrés puis mis à disposition du public sur le site internet du Collège de France.

Découvrez toutes les ressources du Collège de France : 

Soutenir le Collège de France :


La transcription présente une conférence sur l'intégration de l'intelligence artificielle (IA) dans l'enseignement des mathématiques au lycée. Voici un résumé des points clés abordés :

Contexte et Objectifs :


La conférence est organisée par la Fondation du Collège de France et d'autres institutions pour discuter de l'enseignement des mathématiques et de l'IA.

L'objectif est de "réenchanter" les mathématiques en les rendant plus attractives et compréhensibles pour les élèves.
Problématiques Actuelles :

Les mathématiques sont souvent perçues comme une matière difficile et repoussante, surtout en France.

Les élèves, notamment les filles et ceux issus de milieux défavorisés, montrent une anxiété face aux mathématiques.

Approche Proposée :


Utiliser des problèmes réels et concrets pour enseigner les mathématiques, en lien avec l'IA. Intégrer des expériences numériques et des manipulations pour rendre les concepts plus tangibles.

Encourager une approche expérimentale et ludique pour motiver les élèves.

Rôle de l'IA :


L'IA est vue comme un outil pour aider les élèves à comprendre les fondamentaux mathématiques.

Les élèves utilisent déjà des modèles de langage pour leurs devoirs, il est donc crucial d'intégrer l'IA de manière pédagogique.

Méthodologie :


Utiliser des "challenges" d'IA pour engager les élèves dans des problèmes mathématiques concrets.

Structurer l'enseignement en trois phases : 

poser le cadre, manipuler les outils mathématiques, et interpréter les résultats.
Expérimentations et Résultats :

Des expérimentations ont été menées avec des professeurs et des élèves, montrant des améliorations significatives dans la compréhension et la motivation.

Les élèves ont pu développer des solutions créatives et améliorer leurs scores en résolvant des problèmes d'IA.

Perspectives et Défis :


L'objectif est de passer à l'échelle nationale, en formant plus de professeurs et en intégrant ces méthodes dans le programme scolaire.

Il est crucial de former les enseignants et de les accompagner dans cette transition.
Impact et Bénéfices :

Cette approche vise à redonner du sens et de la motivation pour les mathématiques.
Elle permet également de démystifier l'IA et de montrer son lien avec les mathématiques.

En résumé, 
la conférence met en avant une initiative visant à transformer l'enseignement des mathématiques en intégrant des outils d'IA et des approches pédagogiques innovantes, tout en relevant les défis liés à la mise à l'échelle de ces pratiques.


Jeux :


ENG - WEB - Plato's Dilemma | Gamma 


------------------------

La Bataille de l'IA


------------------

Liste des jeux IA : Plongez dans l'univers des jeux intelligents


---------------

“Sors-moi de l’IA” : un jeu éducatif pour sensibiliser les élèves à l’intelligence artificielle – Délégation Régionale Académique au Numérique Educatif










Erol GIRAUDY 
Www.ugaia.eu 

Quelles sont les puissances de l'IA ? | Une leçon de géopolitique | ARTE


Quelles sont les puissances de l'IA ? | Une leçon de géopolitique | ARTE.


L’intelligence artificielle est désormais un enjeu géopolitique de premier plan. « Celui qui deviendra leader dans l’IA sera le maître du monde », a prédit un jour Vladimir Poutine. Elon Musk a ajouté que « l’IA est bien plus dangereuse que l’arme nucléaire » et « causera probablement une troisième guerre mondiale ». Des propos alarmistes qui ne nous aident pas à comprendre ce qui se joue, à l’échelle internationale, dans cette course au développement d’IA où l’on croise les Etats-Unis, la Chine, mais aussi l’Europe et bien d'autres puissances encore.
Pour en parler, entretien avec Laure de Roucy-Rochegonde, directrice du Centre géopolitique des technologies de l'IFRI, autrice de l’étude : “Promesses artificielles ou régulation réelle ? Inventer la gouvernance mondiale de l’IA”, publiée par l’IFRI le 3 février. 📚 A lire aussi : La guerre à l'ère de l'intelligence artificielle, PUF, octobre 2024 Magazine (2024, 12mn) 📩 La newsletter du Dessous des Cartes 👉 https://inscription-newsletter-ddc.ar... 📕 Commandez le nouvel atlas "Le Dessous des Cartes - La puissance et la mer", d'Émilie Aubry et Frank Tétart, Tallandier et Arte Editions https://bit.ly/Atlas_DDC 👉 Abonnez-vous à notre chaîne ! http://bit.ly/DDC_YouTube 👉 Retrouvez également Le Dessous des cartes sur Facebook.   / ledessousdes.  . 💻 Retrouvez toutes les émissions d'Émilie Aubry en VOD : http://bit.ly/DDC_VOD. 👉 L’intégrale des émissions de Jean-Christophe Victor (VOD et DVD) sur la boutique d’ARTE. http://bit.ly/DDC_Boutique