Affichage des articles dont le libellé est éthiques. Afficher tous les articles
Affichage des articles dont le libellé est éthiques. Afficher tous les articles

mardi 17 juin 2025

Nouvelles données importantes sur l'EU AI Act et les aspects juridiques récents sur l'Éthique.

Voici un schéma avec les nouvelles données sur l'EU AI Act et les aspects juridiques récents sur l'Éthique.

 J'ai mis à jour le schéma avec toutes les nouvelles données importantes :

🆕 Nouvelles informations intégrées :

EU AI Act (1er août 2024)

  • 4 catégories de risques clairement visualisées avec codes couleur
  • Timeline précise : Interdictions applicables 2 août 2025, application complète 2 août 2027
  • Responsabilités réparties entre fournisseurs, déployeurs et utilisateurs

Aspects juridiques renforcés

  • Nouvelles recommandations CNIL (février 2025) sur RGPD et IA
  • Privacy by design/default
  • Contrats IA spécifiques requis
  • Protection des données personnelles avec spécificités IA

Exemples concrets par catégorie de risque

  • 🚫 Risque inacceptable : Manipulation subliminale, surveillance biométrique
  • ⚠️ Haut risque : Santé, éducation, biométrie, infrastructure critique
  • 🔍 Risque limité : Chatbots, deepfakes (transparence requise)
  • ✅ Risque minimal : Applications courantes peu contraignantes

Timeline actualisée

Ajout des dates clés et du calendrier d'application progressive de la réglementation européenne.

Le schéma est maintenant complet et à jour avec le cadre légal européen le plus récent, tout en conservant les données de recherche académique originales. Il offre une vision complète de l'évolution de l'éthique IA depuis la recherche théorique jusqu'au cadre réglementaire concret !

Voici une synthèse sur la position de l’éthique appliquée à l’intelligence artificielle (IA), en tenant compte des aspects légaux et juridiques récents :


L’éthique de l’IA vise à garantir que les systèmes intelligents respectent les valeurs humaines fondamentales, la dignité, la justice et la transparence. Avec l’entrée en vigueur du EU AI Act le 1er août 2024, l’Europe s’est dotée du premier cadre réglementaire global sur l’intelligence artificielle, articulé autour d’une approche fondée sur les risques1 Ce règlement distingue quatre catégories de systèmes d’IA selon leur niveau de risque : risque inacceptable (interdits), haut risque (soumis à des obligations strictes), risque limité (transparence requise) et risque minimal (peu contraignant)1

Les systèmes à haut risque, par exemple dans la santé, l’éducation, la biométrie ou l’infrastructure critique, doivent répondre à des exigences renforcées : documentation technique, évaluation d’impact, supervision humaine, gestion rigoureuse des données et respect du RGPD1 Les systèmes à risque inacceptable, comme la manipulation subliminale ou la surveillance biométrique en temps réel dans l’espace public, sont désormais interdits2

Sur le plan juridique, la responsabilité est clairement répartie entre les fournisseurs (conformité technique et documentation), les déployeurs (intégration dans les processus internes) et les utilisateurs finaux (respect des conditions d’utilisation)2 Les contrats doivent intégrer des clauses spécifiques à l’IA : définition du système, usages autorisés, modalités de supervision, transparence algorithmique, sécurité et confidentialité2

La gouvernance éthique et juridique de l’IA repose sur la mise en place de comités éthiques, de référents IA, d’audits réguliers et sur le respect des principes de “privacy by design” et “privacy by default” pour la protection des données personnelles2 Les nouvelles recommandations de la CNIL (février 2025) précisent aussi l’application du RGPD à l’IA, notamment sur la traçabilité, la minimisation et l’information des personnes concernées2

En résumé, l’éthique de l’IA, encadrée par la loi, vise à prévenir les risques pour les droits fondamentaux, la sécurité et la vie privée, tout en garantissant une utilisation responsable et transparente de ces technologies.

  1. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/1f137ea4-1c0d-437c-b580-9a4af32595d1/JuridiqueIA.pdf
  2. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/d389e495-e357-42a1-a50f-724bdcbbfd3c/Aspects-Juridiques-et-Reglementaires-de-la-Gouvernance-IA-par-Tableau-de-Bord.pdf
  3. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/e5aa63b2-3570-43fd-9c16-7f8f57344962/1739902905394_7d61d0dfc3.pdf
  4. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/65f2db36-3cbc-4e2f-bf46-540f3c168b63/Plan-du-livre-v3.pdf
  5. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/collection_0611bd42-ed5e-4771-bc34-88cb71761e93/126fcf7e-38ac-40f0-8fcc-01786c77bddc/Arguments-T2B-v2-Enrichi-avec-le-Modele-de-Feuille-de-Route-IA.docx

Voici les principales obligations légales à respecter pour déployer un système d’IA à haut risque selon le règlement européen AI Act :


Obligations générales pour le déploiement d’une IA à haut risque

  • Enregistrement obligatoire : Le système d’IA doit être enregistré dans la base de données officielle de l’Union européenne avant sa mise en service146.

  • Évaluation de conformité : Le système doit faire l’objet d’une évaluation de conformité par un organisme tiers, qui vérifie le respect des exigences légales (sécurité, robustesse, transparence, etc.)357.

  • Marquage CE : Le système doit porter un marquage CE attestant de sa conformité aux normes européennes7.

  • Gestion des risques : Mettre en place un système de gestion des risques tout au long du cycle de vie de l’IA, avec une évaluation continue des risques et des mesures d’atténuation35.

  • Gouvernance des données : Utiliser des données de haute qualité, pertinentes, représentatives et exemptes d’erreurs pour minimiser les biais et garantir l’équité35.

  • Robustesse et cybersécurité : Garantir la fiabilité, la résistance aux erreurs, la cybersécurité, ainsi que la mise en place de plans de secours35.

  • Documentation technique : Fournir une documentation complète et à jour démontrant la conformité du système aux exigences réglementaires35.

  • Journalisation des événements : Le système doit enregistrer automatiquement les événements significatifs pour assurer la traçabilité et la transparence35.

  • Surveillance humaine : Assurer une supervision humaine continue, avec des personnes compétentes et formées disposant de l’autorité nécessaire pour intervenir16.

  • Information des utilisateurs : Fournir des instructions claires sur l’utilisation du système, ses capacités, ses limites et ses risques potentiels35.

Obligations spécifiques pour les déployeurs

  • Respect des instructions du fournisseur : Utiliser le système conformément aux instructions techniques et organisationnelles fournies16.

  • Formation et compétence du personnel : Garantir que les opérateurs humains ont la formation et les compétences nécessaires pour assurer une surveillance efficace6.

  • Autorisation préalable pour certaines IA biométriques : Pour les systèmes d’identification biométrique à distance, obtenir une autorisation judiciaire ou administrative avant déploiement6.

  • Coopération avec les autorités : Collaborer avec les autorités compétentes en cas de contrôle ou d’enquête1.


Le non-respect de ces obligations peut entraîner des sanctions lourdes, notamment des amendes pouvant atteindre plusieurs millions d’euros7. Ces règles visent à garantir la sécurité, la transparence et le respect des droits fondamentaux dans l’utilisation des IA à haut risque.

  1. https://artificialintelligenceact.eu/fr/article/26/
  2. https://www.hunteed.com/blog/reglementation-ia-entreprise
  3. https://naaia.ai/ai-act-haut-risque/
  4. https://www.witik.io/blog/obligations-systemes-ia-haut-risque/
  5. https://aumans-avocats.com/ia-act-systemes-dia-a-haut-risque-quels-enjeux-et-quelles-obligations/
  6. https://www.village-justice.com/articles/act-les-obligations-des-deployeurs-systemes-intelligence-artificielle,50917.html
  7. https://www.leto.legal/guides/ai-act-quelles-sont-les-regles-a-respecter-pour-etre-conforme
  8. https://solutions.lesechos.fr/juridique/loi-conformite/l-ia-act-ce-que-la-nouvelle-reglementation-europeenne-change-concretement-pour-les-employeurs/

Liens vers le schéma ci-desssous



Mes Drives sur ces sujets







Schéma de présentation : Éthique de l'IA | Claude | Claude





RSE-AI-ETHIQUE: Ethique


RSE-AI-ETHIQUE: Nouvelles données importantes sur l'EU AI Act et les aspects juridiques récents sur l'Ëthique.


RSE-AI-ETHIQUE: Pourquoi ne pas jouer avec l'IA et l'Éthique ?


-----------------------------

Pierre Erol GIRAUDY

https://www.erolgiraudy.eu/

https://uga-ia.blogspot.com/

https://www.erolgiraudy.eu/2024/10/mes-15-livres.html

https://and500.blogspot.com/

https://www.ugaia.eu/

Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON et ceux sur Copilot  https://amzn.eu/d/i2CGjd3   plus  https://amzn.eu/d/7yXSDWa





dimanche 3 novembre 2024

Comment concilier une AI Ethique avec la Chine, Russie, Brésil, Indes ?

Voici une analyse détaillée des approches possibles pour concilier la présence de ces pays :

État des lieux actuel par régions :

Europe :

Position la plus stricte avec le règlement AI Act adopté en 2024
Approche centrée sur les droits humains et la protection des données (RGPD)
Classification des systèmes d'IA selon les niveaux de risque
Fortes restrictions sur l'IA générative et la reconnaissance faciale
Amendes pouvant aller jusqu'à 7% du chiffre d'affaires mondial

États-Unis :

Approche plus flexible et orientée innovation
Executive Order de Biden (2023) sur l'IA "sûre et fiable"
Focus sur la compétitivité et la sécurité nationale
Cadre volontaire pour les entreprises tech
Régulation sectorielle (santé, finance, etc.)

Chine :

Approche stato-centrée et sécuritaire
Mesures administratives sur l'IA générative (2023)
Contrôle strict des contenus et des algorithmes
Développement technologique comme priorité nationale
Utilisation extensive pour la surveillance

Russie :


Stratégie nationale d'IA (2019-2030)
Priorité à la souveraineté technologique
Développement militaire important
Peu de contraintes éthiques formalisées
Contrôle étatique des données

Inde :

National AI Strategy en développement
Focus sur le développement économique
Approche pragmatique et inclusive
Enjeux de protection des données personnelles
Grand potentiel de marché et de talents

Brésil :

Cadre légal en construction (PL 21/20)
Influence du modèle européen
Protection des droits fondamentaux
Débat sur la souveraineté numérique
Besoin d'équilibre développement/protection

 

Je vais vous proposer une analyse détaillée de la conciliation des approches éthiques de l'IA entre ces différentes régions du monde.


1. Stratégie différenciée par pays


CHINE :
- Points de levier :
  * Intérêt croissant pour la stabilité des systèmes d'IA
  * Besoin de standards internationaux pour l'exportation
  * Préoccupations sur les biais algorithmiques affectant la stabilité sociale
- Approches :
  * Collaboration sur des défis techniques neutres (ex: robustesse des systèmes)
  * Projets conjoints sur l'IA pour le climat ou la santé
  * Dialogue sur la sécurité des systèmes d'IA

RUSSIE :
- Points de levier :
  * Excellence en mathématiques et algorithmes
  * Besoin de diversification économique
  * Communauté scientifique ouverte à la collaboration
- Approches :
  * Coopération académique ciblée
  * Projets techniques non-sensibles
  * Échanges sur la sécurité des systèmes autonomes

INDE :
- Points de levier :
  * Important vivier de talents en IA
  * Ambitions démocratiques
  * Besoin de solutions pour le développement
- Approches :
  * Partenariats formation/recherche
  * Projets d'IA pour le développement durable
  * Co-développement de standards éthiques

BRÉSIL :
- Points de levier :
  * Engagement environnemental
  * Tradition démocratique
  * Marché émergent important
- Approches :
  * Collaboration sur l'IA verte
  * Projets d'inclusion numérique
  * Innovation responsable

2. Mécanismes de collaboration innovants


A. Zones neutres de collaboration :
- Création de "zones franches éthiques" pour l'IA
- Programmes de recherche multinationaux
- Plateformes techniques partagées
- Centres d'excellence internationaux

B. Approche multi-niveaux :
- Niveau 1 : Collaboration technique pure
- Niveau 2 : Projets communs non-sensibles
- Niveau 3 : Partage de bonnes pratiques
- Niveau 4 : Standards communs
- Niveau 5 : Gouvernance partagée

3. Initiatives concrètes novatrices


A. "AI Ethics Sandbox" :
- Environnement de test international
- Règles communes minimales
- Partage des résultats
- Apprentissage mutuel

B. "Global AI Challenge" :
- Compétitions sur des défis mondiaux
- Équipes internationales mixtes
- Critères éthiques inclus
- Prix partagés

C. "AI Bridge Program" :
- Échanges de chercheurs
- Projets conjoints
- Mentorat croisé
- Publications communes

4. Nouvelles structures de gouvernance


A. Modèle "cercles concentriques" :
- Noyau : Standards éthiques stricts
- Cercle 1 : Collaboration technique
- Cercle 2 : Projets spécifiques
- Cercle 3 : Dialogue et échange

B. Approche "building blocks" :
- Modules techniques indépendants
- Standards minimaux partagés
- Flexibilité d'implémentation
- Évolution progressive

5. Incitations et bénéfices mutuels


A. Avantages économiques :
- Accès aux marchés
- Transferts de technologie
- Investissements croisés
- Réduction des coûts

B. Bénéfices techniques :
- Partage des ressources
- Complémentarité des expertises
- Solutions plus robustes
- Innovation accélérée

6. Gestion des risques et défis


A. Sécurité des données :
- Protocoles stricts
- Environnements contrôlés
- Vérification mutuelle
- Transparence limitée

B. Protection intellectuelle :
- Accords spécifiques
- Licences adaptées
- Partage équitable
- Mécanismes de contrôle


7. Perspectives d'évolution

Cette approche pragmatique et flexible permet d'inclure progressivement ces pays tout en maintenant des standards éthiques élevés, créant ainsi un cercle vertueux d'amélioration continue.


a) Court terme :

Établir des groupes de travail internationaux
Identifier les convergences minimales
Développer des outils d'évaluation communs
Renforcer le dialogue technique

b) Moyen terme :

Créer une plateforme internationale d'échange
Harmoniser les standards techniques
Développer des certifications reconnues
Établir des mécanismes de résolution des conflits

c) Long terme :

Construire un cadre juridique international
Développer une gouvernance mondiale de l'IA
Assurer l'interopérabilité des systèmes
Promouvoir une culture éthique commune


Défis persistants :

Souveraineté nationale vs coopération internationale
Compétition économique vs standards éthiques
Protection des données vs innovation
Diversité culturelle vs harmonisation


Facteurs clés de succès :

Dialogue multipartite continu
Flexibilité des cadres réglementaires
Respect des spécificités culturelles
Équilibre entre innovation et protection
Engagement du secteur privé

Cette conciliation nécessite une approche pragmatique et progressive, reconnaissant les différences tout en cherchant des points de convergence. L'objectif n'est pas d'imposer un modèle unique mais de construire un cadre commun respectueux des spécificités locales tout en garantissant des standards éthiques minimaux.

La réussite dépendra de la volonté politique des États, de l'engagement du secteur privé et de la participation active de la société civile. Une approche flexible et évolutive permettra de s'adapter aux avancées technologiques tout en préservant les valeurs fondamentales. 

Des réponses :


 

Voici une carte interactive des régulations mondiales de l’IA, accompagnée d’un suivi des cadres et normes en vigueur dans différents pays. 

Avec les récents débats sur la régulation européenne, j’ai eu envie d’explorer la façon dont les autres régions du monde s’y prennent pour encadrer l'IA. 

Voici quelques points marquants :

En Chine, les régulations sont strictes. Tout contenu généré par l’IA doit être explicitement marqué (par exemple avec un filigrane) ou implicitement (via des métadonnées). Les applications et plateformes sont responsables de s’assurer que les outils respectent ces normes.

Aux États-Unis, l’approche est radicalement différente. Le pays adopte une position "pro-innovation" en encourageant les normes fédérales, mais sans imposer de régulations fermes. Avec plus de 690 propositions de loi en 2024, les discussions sont nombreuses, mais le cadre réglementaire reste léger. En parallèle, des entreprises comme OpenAI et Meta développent des partenariats avec la Défense pour répondre aux besoins de sécurité nationale.

Partout ailleurs : on constate des approches variées. L’Asie (hors Chine) penche souvent pour une régulation souple avec une intervention minimale de l’État, sauf dans les secteurs à haut risque. L'Amérique latine suit en grande partie le modèle asiatique et américain, tandis que l’Afrique commence à structurer sa stratégie avec les talents croissants dans la région et un premier cadre de l'Union Africaine.

Il est évident que l’IA nécessite une régulation adaptée pour répondre aux enjeux de sécurité, d’éthique et de transparence, sans pour autant freiner l’innovation. 

La question reste : comment établir un cadre juste qui protège les utilisateurs et respecte l’éthique, sans étouffer l’élan créatif et le développement de cette technologie cruciale ? 

Lire : RSE-AI-ETHIQUE: Dans le cadre de mes articles sur l'éthique et gouvernance de l'IA.

https://larselesrse.blogspot.com/2024/11/dans-le-cadre-de-mes-articles-sur.html

La prudence de l'Europe a ses mérites, mais des approches plus flexibles, comme celles observées en Asie et aux États-Unis, permettent de tester et d’adapter l’IA plus librement.

Comment concilier innovation et régulation ? 

C’est un défi essentiel pour l’avenir de l’IA, et il est temps d’y réfléchir sérieusement.

Lien de la carte : https://lnkd.in/eyrjWyy5

Source : Naully Nicolas 



OECD's live repository of AI strategies & policies - OECD.AI


Politiques et stratégies nationales en matière d’IA :

Cette section fournit un référentiel en direct de plus de 1000 initiatives politiques en matière d’IA provenant de 69 pays, territoires et de l’UE. Cliquez sur un pays/territoire, un instrument de politique ou un groupe ciblé par la politique.




Pourquoi ne pas jouer avec l'IA et l'Éthique ?

PlatoPlay, créé par Naully Nicolas, est un projet innovant visant à intégrer l'éthique dans les projets d'intelligence artificielle de manière ludique et engageante. Ce deck de cartes interactif est conçu pour stimuler des discussions sur des sujets cruciaux tels que la transparence, la responsabilité et la neutralité dans l'IA. L'objectif est de rendre les concepts éthiques accessibles et compréhensibles pour tous les participants, qu'ils soient novices ou experts en IA.

Naully Nicolas, avec son expertise en ingénierie informatique et en marketing, a développé PlatoPlay pour encourager une réflexion approfondie et collaborative sur les implications éthiques de l'IA. Ce projet est idéal pour les ateliers, les formations et les sessions de brainstorming, offrant une approche interactive pour aborder des questions complexes de manière engageante et mémorable.

PlatoPlay semble être une ressource précieuse pour toute organisation cherchant à intégrer l'éthique dans ses initiatives d'IA. Qu'en pensez-vous?


PlatoPlay : L'éthique de l'IA à portée de main

€39

L'intelligence artificielle a un potentiel immense, mais elle pose aussi des défis éthiques qui peuvent ébranler la confiance, exposer aux risques juridiques, et générer des décisions biaisées. Les organisations sont de plus en plus tenues de rendre des comptes, de respecter la transparence, et de s’assurer que leur IA prend des décisions responsables. Mais comment naviguer dans ce paysage complexe, où chaque choix peut affecter votre réputation et l'adhésion de vos parties prenantes ?

Sans cadre éthique solide, vos projets IA risquent de perdre la confiance de leurs utilisateurs, d'ignorer des biais potentiels, et de compromettre votre position sur le marché. L'IA sans éthique, c’est une IA risquée – un choix qui pourrait coûter cher en termes de réputation et de conformité. En somme, l'IA nécessite plus qu’une simple implémentation technique : elle requiert une gouvernance responsable et des réflexions éthiques approfondies.

PlatoPlay est bien plus qu'un jeu de cartes – c'est un guide pratique pour naviguer dans les complexités éthiques de l'IA. Conçu autour du cadre PLATON, PlatoPlay aide vos équipes à se poser les bonnes questions, à anticiper les risques et à bâtir une IA alignée avec des principes de transparence, d’autorité, et de neutralité. C’est une boîte à outils interactive pour développer une IA que vous pouvez défendre et dans laquelle vos parties prenantes peuvent avoir confiance.


À qui s'adresse PlatoPlay ?

  • Entreprises : Pour toute organisation développant ou intégrant de l'IA, PlatoPlay est un outil essentiel pour instaurer une culture de gouvernance éthique. Que vous soyez une start-up tech ou une grande entreprise, ce deck vous guide dans l’application concrète de principes éthiques pour des projets IA transparents et responsables.

  • Dirigeants et décideurs : Alignez vos projets IA avec des valeurs éthiques et anticipez les risques juridiques et de réputation qui pourraient en découler.

  • Équipes techniques : Fournissez aux développeurs et aux data scientists un cadre clair pour réduire les biais, renforcer la transparence, et favoriser une prise de décision IA de qualité.

  • Clients et utilisateurs : Avec PlatoPlay, vous pouvez démontrer à vos clients que vos projets IA sont pensés et conçus dans une optique de transparence et d’équité. Cela renforce la confiance et la crédibilité auprès de ceux qui sont concernés par vos décisions technologiques.

  • Responsables de la conformité : Facilitez la mise en place de pratiques conformes aux standards éthiques et légaux, tout en respectant les attentes en matière de gouvernance de l'IA.

  • Formateurs et éducateurs : Utilisez PlatoPlay pour sensibiliser et former aux enjeux éthiques de l’IA, que ce soit dans des contextes académiques ou professionnels.


Découvrez quelques exemples de cartes


Deck physique

Les versions physiques de PlatoPlay sont disponibles en précommande. Le deck est imprimé en format carte de poker (63 x 88 mm) sur du papier mat 350 g pour un toucher premium, et est livré dans une boîte rigide soignée. Réservez votre exemplaire dès maintenant, ou optez pour la version numérique pour un accès instantané.


Commandes par lots

Je propose des productions à la demande à partir de 20 decks minimum. Que ce soit pour un atelier de groupe ou pour équiper plusieurs équipes, contactez-moi à sayhi@naullynicolas.ch pour organiser une commande groupée et découvrir mes options de personnalisation.


Workshops en présentiel

Envie d'aller plus loin ? J'organise des ateliers sur mesure pour accompagner vos équipes dans l’application concrète des principes éthiques avec PlatoPlay. Lors de ces workshops, nous abordons ensemble des scénarios éthiques précis et engageons vos équipes dans des réflexions et des solutions pratiques.

Contactez-moi à sayhi@naullynicolas.ch pour planifier un atelier personnalisé.


Découvrez l'éthique IA avec PlatoPlay
Pour un aperçu exclusif de PlatoPlay ou toute demande spécifique, contactez-nous à sayhi@naullynicolas.ch.