Créer des solutions d’INTELLIGENCE artificielle responsable.
Les conseils De Microsoft pour l’IA générative responsable sont conçus pour être pratiques et exploitables. Il définit un processus en quatre étapes pour développer et implémenter un plan pour l’IA responsable lors de l’utilisation de modèles génératifs. Les quatre étapes du processus sont les suivantes :
Identifiez les dommages potentiels pertinents pour votre solution planifiée.
Mesurez la présence de ces dommages dans les sorties générées par votre solution.
Réduisez les dommages à plusieurs couches de votre solution afin de réduire leur présence et leur impact et de garantir une communication transparente sur les risques potentiels pour les utilisateurs.
Exploitez la solution de manière responsable en définissant et en suivant un plan de préparation opérationnelle et de déploiement.
Ces phases doivent être informées par des principes d’IA responsables. Microsoft a classé ces principes en six compartiments.
Principes de l’IA responsable
Il est important pour les ingénieurs logiciels de prendre en compte l’impact de leurs logiciels sur les utilisateurs et la société en général ; y compris les considérations relatives à son utilisation responsable. Lorsque l’application est imbuée avec l’intelligence artificielle, ces considérations sont particulièrement importantes en raison de la nature du fonctionnement des systèmes d’INTELLIGENCE artificielle et de l’information des décisions ; souvent basés sur des modèles probabilistes, qui dépendent à leur tour des données avec lesquelles ils ont été formés.
La nature humaine des solutions d’INTELLIGENCE artificielle est un avantage important pour rendre les applications conviviales, mais elle peut également amener les utilisateurs à faire une grande confiance dans la capacité de l’application à prendre des décisions correctes. Le risque de préjudice à des individus ou des groupes par des prédictions incorrectes ou une mauvaise utilisation des fonctionnalités d’IA est une préoccupation majeure, et les ingénieurs logiciels qui créent des solutions compatibles avec l’IA doivent s’appliquer en raison d’un examen dû à l’atténuation des risques et de garantir l’équité, la fiabilité et la protection adéquate contre les préjudices ou la discrimination.
Examinons certains principes fondamentaux pour l’IA responsable qui ont été adoptés chez Microsoft.
Équité
Diagramme d’échelles.
Les systèmes d’IA doivent traiter toutes les personnes de façon équitable. Par exemple, supposons que vous créez un modèle Machine Learning pour prendre en charge une demande d’approbation de prêt pour une banque. Le modèle devrait faire des prédictions indiquant si le prêt doit être approuvé ou non sans intégrer de préjugés fondés sur le sexe, l’ethnicité ou d’autres facteurs susceptibles d’entraîner un avantage ou un inconvénient injuste pour des groupes spécifiques de demandeurs.
L’équité des systèmes d’apprentissage automatique est un domaine très actif de la recherche continue, et certaines solutions logicielles existent pour évaluer, quantifier et atténuer l’injustice dans les modèles machine learning. Toutefois, l’outil seul n’est pas suffisant pour garantir l’équité. Envisagez l’équité dès le début du processus de développement d’applications ; examinez soigneusement les données d’entraînement pour vous assurer qu’elles représentent tous les sujets potentiellement affectés et évaluer les performances prédictives pour les sous-sections de votre population utilisateur tout au long du cycle de vie du développement.
Fiabilité et sécurité
Diagramme d’un bouclier.
Les systèmes IA doivent fonctionner de manière fiable et sécurisée. Par exemple, considérez un système logiciel basé sur l’IA pour un véhicule autonome ; ou un modèle Machine Learning qui diagnostique les symptômes des patients et recommande des prescriptions. La non-fiabilité dans ces types de système peut entraîner un risque important pour la vie humaine.
Comme pour tous les logiciels, le développement d’applications logicielles basée sur l’IA doit être soumis à des processus rigoureux de test et de gestion du déploiement pour s’assurer qu’ils fonctionnent comme prévu avant la mise en production. En outre, les ingénieurs logiciels doivent prendre en compte la nature probabiliste des modèles Machine Learning et appliquer des seuils appropriés lors de l’évaluation des scores de confiance pour les prédictions.
Confidentialité et sécurité
Diagramme d’un cadenas.
Les systèmes d’IA doivent être sécurisés et respecter la vie privée. Les modèles Machine Learning sur lesquels les systèmes IA reposent sur de grands volumes de données, qui peuvent contenir des détails personnels qui doivent être conservés privés. Même après que les modèles soient formés et que le système est en production, ils utilisent de nouvelles données pour effectuer des prédictions ou prendre des mesures susceptibles d’être soumises à des préoccupations en matière de confidentialité ou de sécurité ; ainsi, les garanties appropriées pour protéger les données et le contenu client doivent être implémentés.
Inclusion
Diagramme d’un groupe diversifié de personnes.
Les systèmes d’IA doivent permettre à tout le monde et impliquer des personnes. L’IA devrait apporter des avantages à toutes les parties de la société, indépendamment de la capacité physique, du sexe, de l’orientation sexuelle, de l’ethnicité ou d’autres facteurs.
L’une des façons d’optimiser l’inclusion est de s’assurer que la conception, le développement et le test de votre application incluent des entrées d’un groupe de personnes aussi diversifié que possible.
Transparence
Diagramme d’un œil.
Les systèmes IA doivent être compréhensibles. Les utilisateurs doivent être pleinement conscients de l’objectif du système, de son fonctionnement et de quelles limitations peuvent être attendues.
Par exemple, lorsqu’un système IA est basé sur un modèle Machine Learning, vous devez généralement rendre les utilisateurs conscients des facteurs susceptibles d’affecter la précision de ses prédictions, tels que le nombre de cas utilisés pour entraîner le modèle ou les fonctionnalités spécifiques qui ont le plus d’influence sur ses prédictions. Vous devez également partager des informations sur le score de confiance pour les prédictions.
Lorsqu’une application IA s’appuie sur des données personnelles, telles qu’un système de reconnaissance faciale qui prend des images de personnes pour les reconnaître ; vous devez indiquer clairement à l’utilisateur comment ses données sont utilisées et conservées, et à qui a accès.
Responsabilité
Diagramme d’une négociation.
Les personnes doivent être responsables des systèmes IA. Bien que de nombreux systèmes d’IA semblent fonctionner de manière autonome, c’est finalement la responsabilité des développeurs qui ont formé et validé les modèles qu’ils utilisent, et défini la logique qui base les décisions sur les prédictions de modèle pour s’assurer que le système global répond aux exigences de responsabilité. Pour répondre à cet objectif, les concepteurs et les développeurs d’une solution basée sur l’IA doivent travailler dans un cadre de gouvernance et de principes organisationnels qui garantissent que la solution répond aux normes responsables et légales clairement définies.
Une approche holistique en IA responsable signifie adopter une vision globale et interconnectée qui va bien au-delà des seules performances techniques. Voici ce que cela implique concrètement :
🌐 Vision d'ensemble vs. Vision fragmentée
Approche traditionnelle (fragmentée) :
- Se concentrer uniquement sur la précision du modèle
- Optimiser les métriques techniques
- Développer en silos
Approche holistique :
- Considérer tous les acteurs impactés
- Analyser les effets en cascade
- Intégrer toutes les dimensions du problème
👥 Impact sur les utilisateurs
Utilisateurs directs
- Expérience utilisateur : Le système est-il intuitif et accessible ?
- Autonomie : L'IA augmente-t-elle ou remplace-t-elle les capacités humaines ?
- Confiance : Les utilisateurs comprennent-ils les limites du système ?
Utilisateurs indirects
- Employés dont le travail est automatisé
- Clients affectés par les décisions algorithmiques
- Communautés impactées par les changements technologiques
🏛️ Impact sur la société
Dimensions économiques
- Emploi : Quels métiers sont transformés ou supprimés ?
- Inégalités : L'IA creuse-t-elle ou réduit-elle les écarts ?
- Concurrence : Impact sur la structure des marchés
Dimensions sociales
- Cohésion sociale : L'IA divise-t-elle ou rassemble-t-elle ?
- Démocratisation : Qui a accès à ces technologies ?
- Valeurs culturelles : Respect des diversités et traditions
Dimensions éthiques
- Biais algorithmiques : Reproduction des discriminations existantes
- Surveillance : Respect de la vie privée et des libertés
- Autonomie humaine : Préservation du libre arbitre
🔍 Exemple concret : Système de recrutement par IA
Approche fragmentée :
- Optimiser la précision de sélection des CV
- Réduire le temps de traitement
Approche holistique :
- Candidats : Équité des chances, transparence des critères
- Recruteurs : Maintien de leur expertise, formation aux outils
- Entreprise : Diversité des équipes, image de marque
- Société : Réduction des discriminations à l'embauche
- Économie : Impact sur le marché du travail RH
⚙️ Mise en pratique
1. Cartographie des parties prenantes
- Identifier tous les acteurs impactés
- Analyser leurs besoins et préoccupations
- Évaluer les rapports de force
2. Analyse d'impact multidimensionnelle
- Court terme vs long terme
- Local vs global
- Intentionnel vs non-intentionnel
3. Gouvernance inclusive
- Impliquer les utilisateurs dans la conception
- Consulter les communautés affectées
- Collaboration interdisciplinaire (tech, éthique, social)
4. Monitoring continu
- Surveillance des effets non prévus
- Mécanismes de feedback
- Adaptation des systèmes
🎯 Objectif final
L'approche holistique vise à créer des systèmes d'IA qui :
- Bénéficient au plus grand nombre
- Respectent la dignité humaine
- Préservent les valeurs sociétales
- Anticipent les conséquences à long terme
C'est passer d'une logique "ça marche techniquement" à "ça marche pour l'humanité".
Pierre Erol GIRAUDY
https://www.erolgiraudy.eu/2024/10/mes-15-livres.html
Pour Info :
Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON
Users Group Artificial Intelligence Andorra (U.G.A.I.A.) : Liste des Certificats PDF Microsoft Learn
Aucun commentaire:
Enregistrer un commentaire