vendredi 1 novembre 2024

Ethique + AI et l'International


De nombreuses personnes me demandent pourquoi il est important pour nos pays civilisés de respecter l'éthique dans la mise en place de systèmes d'IE lorsque des pays tels que la Chine développe sans aucune considération de ce type. Il y a comme une frustration et un sentiment d'avantage concurrentiel que semblent profiter aux pays avec peu de scrupules.

Cette question soulève un dilemme éthique important et je comprends la frustration exprimée. 

L’IA éthique est une question à laquelle toute organisation devrait réfléchir longuement avant toute mise en œuvre de l’IA. Elle consiste à évaluer les risques et à mettre en place des règles d’utilisation afin que la technologie ne nuise pas à la dignité des utilisateurs.


Voici une analyse structurée de la situation :

  1. Les arguments en faveur du maintien de l'éthique :

  • Les valeurs fondamentales ne sont pas négociables : elles définissent qui nous sommes en tant que sociétés démocratiques
  • L'éthique protège les citoyens contre les dérives et les abus potentiels des systèmes d'intelligence économique
  • Une approche éthique renforce la confiance des citoyens et des partenaires internationaux
  • La durabilité : les systèmes respectueux de l'éthique sont plus pérennes et résilients sur le long terme

  1. Les avantages concurrentiels d'une approche éthique :

  • Meilleure réputation internationale et relations de confiance plus solides
  • Attraction des talents et des investisseurs sensibles aux questions éthiques
  • Réduction des risques juridiques et réputationnels
  • Innovation responsable qui crée de la valeur durable

  1. Comment gérer l'asymétrie avec les pays moins scrupuleux :

  • Développer des avantages comparatifs dans d'autres domaines (innovation, qualité, fiabilité)
  • Renforcer la coopération internationale entre pays partageant les mêmes valeurs
  • Mettre en place des mécanismes de protection contre les pratiques déloyales
  • Maintenir une veille active sur les menaces tout en restant dans un cadre éthique

En conclusion, 

l'éthique n'est pas une faiblesse mais un atout stratégique différenciant. La vraie question n'est pas de renoncer à nos valeurs mais de développer des systèmes d'IE performants ET éthiques.

Exemple :

L'article parle des dilemmes éthiques posés par l'intelligence artificielle dans plusieurs domaines.

Biais de l'IA : L'IA reproduit les préjugés de la société. Par exemple, des recherches sur les "grands personnages historiques" montrent majoritairement des hommes, et des recherches sur les "écolières" montrent des images sexualisées de filles. L'UNESCO recommande d'éviter ces biais.

Justice : L'utilisation de l'IA dans les systèmes judiciaires peut améliorer l'efficacité, mais soulève des questions éthiques. L'IA pourrait prendre des décisions judiciaires sans biais humain, mais manque de transparence et peut contenir des erreurs.

Art : L'IA peut créer de l'art, comme un "nouveau" tableau de Rembrandt ou compléter des œuvres musicales inachevées. Cela pose des questions sur la propriété et les droits d'auteur des œuvres créées par des machines.

Voitures autonomes : Les véhicules autonomes prennent des décisions morales en cas de situations de danger, comme choisir de sauver une personne plutôt qu'une autre. Cela soulève des questions éthiques sur le développement de cette technologie.

En résumé, ces exemples montrent l'importance de l'éthique dans le développement de l'intelligence artificielle pour éviter les biais et garantir une utilisation équitable et transparente.

https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics/cases


Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires - Commission européenne pour l’efficacité de la justice (CEPEJ)

https://www.coe.int/fr/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment


Voici un résumé structuré des points essentiels concernant l'éthique de l'intelligence artificielle et la question posée ci-dessus:

Cette question soulève un dilemme éthique et stratégique important. Voici plusieurs arguments pour justifier l'importance de maintenir une approche éthique :

1. Arguments fondamentaux :

- Les valeurs éthiques font partie de l'identité des démocraties occidentales 

- Abandonner nos principes pour "gagner" reviendrait à perdre ce qui nous définit

- L'histoire a montré que les systèmes sans éthique finissent par s'effondrer


2. Arguments pratiques :

- La confiance du public est essentielle pour l'adoption de l'IA

- Les systèmes éthiques sont plus robustes et fiables à long terme

- Les biais et discriminations peuvent avoir des conséquences légales coûteuses

- Les clients et partenaires commerciaux valorisent de plus en plus l'éthique


3. Arguments stratégiques :

- L'éthique peut être un avantage compétitif (ex: l'Europe se positionne comme leader de l'IA de confiance)

- Les systèmes non-éthiques peuvent générer des risques de sécurité

- La coopération internationale nécessite des standards éthiques communs

- Les talents préfèrent souvent travailler pour des entreprises éthiques


4. Arguments sur l'innovation :

- Les contraintes éthiques peuvent stimuler l'innovation responsable

- Les solutions éthiques sont souvent plus créatives et sophistiquées

- Le développement durable nécessite une approche éthique


5. Vision à long terme :

- L'IA va devenir de plus en plus puissante et omniprésente

- Les choix éthiques d'aujourd'hui façonneront la société de demain

- Il est plus facile d'intégrer l'éthique dès le début que de corriger après


6. Considérations géopolitiques :

- La course à l'IA n'est pas qu'une question de vitesse mais aussi de qualité

- Les alliances internationales se basent sur des valeurs communes

- L'influence mondiale passe aussi par le soft power et l'exemplarité


7. Réponse aux frustrations :

- La Chine fait aussi face à des défis éthiques (biais, vie privée, etc.)

- Le manque d'éthique peut créer des vulnérabilités exploitables

- Le succès à court terme ne garantit pas la durabilité


Recommandations :

- Maintenir les standards éthiques tout en restant compétitif

- Investir dans la R&D pour des solutions éthiques innovantes

- Promouvoir la coopération internationale sur l'éthique de l'IA

- Éduquer sur l'importance de l'éthique pour l'avenir de l'IA

- Démontrer que l'éthique et la performance ne sont pas incompatibles

- Développer des cadres réglementaires équilibrés


En conclusion, 

l'éthique n'est pas un frein mais un catalyseur pour une IA durable et bénéfique. C'est un investissement dans l'avenir qui peut nous distinguer positivement tout en protégeant nos valeurs fondamentales.

https://ledigitalizeur.fr/ia/intelligence-artificielle-et-ethique/

https://www.ibm.com/fr-fr/topics/ai-ethics


Comment fonctionnent les règles éthique au niveau international, qui fait quoi, comment, pourquoi, limites, particularités...


Je vais analyser le cadre éthique international de l'IA :

1. Principaux acteurs et leurs rôles :


Organisations internationales :
- UNESCO : A adopté en 2021 les premières recommandations mondiales sur l'éthique de l'IA
- OCDE : Établit des principes directeurs et standards internationaux
- IEEE : Développe des normes techniques et éthiques globales
- ONU : Travaille sur les implications des IA pour les droits humains

Blocs régionaux :
- Union Européenne : Leader avec l'AI Act, établissant des standards stricts
- États-Unis : Approche plus libérale, guidée par l'autorégulation des entreprises
- Chine : Cadre réglementaire distinct, privilégiant le contrôle étatique
- Japon : Focus sur l'IA centrée sur l'humain ("Society 5.0")

2. Mécanismes de régulation :


Instruments contraignants :
- Législations nationales et régionales
- Traités internationaux
- Normes techniques obligatoires

Instruments non-contraignants :
- Recommandations
- Lignes directrices
- Codes de conduite volontaires
- Certifications

3. Particularités et défis :


Divergences culturelles :
- Différentes conceptions de la vie privée selon les régions
- Variations dans l'acceptation du contrôle gouvernemental
- Diverses approches de la responsabilité individuelle vs collective

Défis pratiques :
- Absence d'autorité centrale de régulation
- Difficulté d'harmonisation des standards
- Vitesse d'évolution technologique vs lenteur réglementaire

4. Limites actuelles :


Enforcement :
- Difficulté d'application transfrontalière des règles
- Manque de mécanismes de sanction efficaces
- Disparités dans les capacités de contrôle

Coordination :
- Fragmentation des initiatives
- Concurrence entre standards
- Risque de "forum shopping" réglementaire

5. Tendances et évolutions :


Vers plus d'harmonisation :
- Convergence progressive des standards
- Coopération internationale accrue
- Émergence de principes communs

Innovations réglementaires :
- Développement de la "RegTech"
- Certification algorithmique internationale
- Audits éthiques standardisés

6. Recommandations pour l'avenir :


- Renforcer la coopération internationale
- Développer des mécanismes de contrôle plus efficaces
- Harmoniser progressivement les standards
- Impliquer davantage les parties prenantes
- Accélérer l'adaptation réglementaire

Cette analyse montre que le cadre éthique international de l'IA est en construction, avec des avancées significatives mais aussi des défis importants à relever. 

Pensez-vous que certains aspects mériteraient d'être approfondis ?


Méthode d’évaluation de l’état de préparation : un outil de la Recommandation sur l’éthique de l’intelligence artificielle

La méthode d’évaluation de l’état de préparation est un instrument au niveau macro qui aidera les pays à savoir se situer sur l’échelle de préparation à une mise en œuvre éthique et responsable de l’IA dans l’intérêt de l’ensemble de leurs citoyens, tout en leur indiquant les changements indispensables à apporter sur les plans institutionnels et réglementaires. Les résultats de la méthode d’évaluation de l’état de préparation aideront l’UNESCO à adapter les mesures de renforcement des capacités aux besoins de chacun des pays. « Capacités » désigne ici l’aptitude à évaluer les systèmes d’IA conformément à la Recommandation ainsi que la présence du capital humain, d’infrastructures, de politiques et de réglementations nécessaires et appropriées pour répondre aux défis posés par les technologies de l’IA et à veiller à ce que les personnes et leurs intérêts soient toujours placés au cœur du développement de l’IA. 28 août 2023 


ARTICLES
L'Intelligence artificielle peut-elle être éthique? (lefigaro.fr)
https://www.lefigaro.fr/vox/societe/2019/02/21/31003-20190221ARTFIG00141-l-intelligence-artificielle-peut-elle-etre-ethique.php

Les enjeux éthiques de l’intelligence artificielle | éduscol | Ministère de l'Éducation nationale et de la Jeunesse - Direction générale de l'enseignement scolaire (education.fr)
https://eduscol.education.fr/3251/les-enjeux-ethiques-de-l-intelligence-artificielle

Legal Compliance and Ethics at #Microsoft
Our commitment to corporate responsibility and integrity
https://www.microsoft.com/en-us/legal/compliance...


Programme de conformité Microsoft
Normes de conduite professionnelle
Notre code de confiance
Respecter notre code de conduite
Signaler une préoccupation
Lutte contre la corruption et lutte contre la corruption
Lutte contre la corruption et engagements anti-corruption
Des représentants dignes de confiance
Critères des entités publiques
Respect de l'environnement
Conformité et durabilité des appareils
Emballage responsable dans le cloud
Un approvisionnement responsable en fournisseurs





ANALYSE DES APPROCHES DE COLLABORATION INTERNATIONALE EN IA

  1. STRATÉGIE DIFFÉRENCIÉE PAR PAYS

CHINE

Points de levier

Approches

- Intérêt pour la stabilité des

systèmes d'IA

- Collaboration sur des défis

techniques neutres

- Besoin de standards

internationaux

- Projets conjoints (climat,

santé)

- Préoccupations sur les biais

algorithmiques

- Dialogue sur la sécurité des

systèmes

 

RUSSIE

Points de levier

Approches

- Excellence en mathématiques

- Coopération académique ciblée

- Besoin de diversification

économique

- Projets techniques non-

sensibles

- Communauté scientifique

ouverte

- Échanges sur la sécurité des

systèmes

 

INDE

Points de levier

Approches

- Important vivier de talents

- Partenariats formation/

recherche

- Ambitions démocratiques

- Projets d'IA pour le

développement

- Besoin de solutions

- Co-développement de standards

développement

éthiques

BRÉSIL

Points de levier

Approches

- Engagement environnemental

- Collaboration sur l'IA verte

- Tradition démocratique

- Projets d'inclusion numérique

- Marché émergent important

- Innovation responsable

  1. MÉCANISMES DE COLLABORATION

Zones neutres

Approche multi-niveaux

- Zones franches éthiques

- Niveau 1: Collaboration

technique

- Programmes multinationaux

- Niveau 2: Projets non-

sensibles

- Plateformes partagées

- Niveau 3: Partage de bonnes

pratiques

- Centres d'excellence

- Niveau 4: Standards communs

- Niveau 5: Gouvernance partagée

  1. INITIATIVES CONCRÈTES

AI Ethics Sandbox

Global AI Challenge

AI Bridge Program

- Environnement de test

- Compétitions sur défis

- Échanges de chercheurs

international

mondiaux

- Règles communes

- Équipes internationales

- Projets conjoints

minimales

mixtes

- Partage des résultats

- Critères éthiques

- Mentorat croisé

- Apprentissage mutuel

- Prix partagés

- Publications communes

 

  1. STRUCTURES DE GOUVERNANCE

Modèle "cercles concentriques"

Approche "building blocks"

- Noyau: Standards éthiques

- Modules techniques indépendants

- Cercle 1: Collaboration

- Standards minimaux

technique

- Cercle 2: Projets

- Flexibilité d'implémentation

spécifiques

- Cercle 3: Dialogue et

- Évolution progressive

échange

  1. INCITATIONS ET BÉNÉFICES

Avantages économiques

Bénéfices techniques

- Accès aux marchés

- Partage des ressources

- Transferts de technologie

- Complémentarité des

expertises

- Investissements croisés

- Solutions robustes

- Réduction des coûts

- Innovation accélérée

  1. GESTION DES RISQUES

Sécurité des données

Protection intellectuelle

- Protocoles stricts

- Accords spécifiques

- Environnements contrôlés

- Licences adaptées

- Vérification mutuelle

- Partage équitable

- Transparence limitée

- Mécanismes de contrôle

  1. PERSPECTIVES D'ÉVOLUTION

Court terme

Moyen terme

Long terme

- Projets pilotes

- Élargissement des

- Convergence

domaines

progressive

- Construction de la

- Renforcement des

- Standards globaux

confiance

standards

- Résultats rapides

- Structures

- Gouvernance partagée

permanentes

- Apprentissage mutuel

- Impacts mesurables

- Bénéfices mutuels

 




lundi 28 octobre 2024

LE RAPPORT SUR L'INDICE DE L'IA

Mesurer les tendances en Intelligence Artificielle.



AI INDEX RAPPORT ANNUEL (Artificial  Intelligence   Index Report 2023).

Bienvenue dans la septième édition du rapport AI Index. L’indice 2024 est le plus complet à ce jour et arrive à un moment important où l’influence de l’IA sur la société n’a jamais été aussi prononcée. 

Cette année, nous avons élargi notre champ d’action pour couvrir plus largement les tendances essentielles telles que les progrès techniques de l’IA, la perception de la technologie par le public et la dynamique géopolitique entourant son développement. Présentant plus de données originales que jamais, cette édition présente de nouvelles estimations des coûts de formation de l’IA, des analyses détaillées du paysage de l’IA responsable et un tout nouveau chapitre consacré à l’impact de l’IA sur la science et la médecine. 

Le rapport AI Index suit, compile, distille et visualise les données liées à l’intelligence artificielle (IA). Notre mission est de fournir des données impartiales, rigoureusement vérifiées et largement sourcées afin que les décideurs, les chercheurs, les dirigeants, les journalistes et le grand public puissent développer une compréhension plus approfondie et nuancée du domaine complexe de l’IA. 

L’indice AI est reconnu à l’échelle mondiale comme l’une des sources les plus crédibles et les plus fiables pour les données et les informations sur l’intelligence artificielle. Les éditions précédentes ont été citées dans de grands journaux, notamment le New York Times, Bloomberg et The Guardian, ont amassé des centaines de citations universitaires et ont été référencées par des décideurs politiques de haut niveau aux États-Unis, au Royaume-Uni et dans l’Union européenne, entre autres. 

L’édition de cette année surpasse toutes les précédentes en termes de taille, d’échelle et de portée, ce qui reflète l’importance croissante que l’IA prend dans nos vies à tous.


L'AI Index est une initiative indépendante du Stanford Institute for Human-Centered Artificial Intelligence (HAI), dirigée par le AI Index Steering Committee, un groupe interdisciplinaire d'experts du milieu universitaire et de l'industrie. Le rapport annuel suit , rassemble , distille et visualise les données relatives à l'intelligence artificielle, permettant aux décideurs de prendre des mesures significatives pour faire progresser l'IA de manière responsable et éthique en pensant aux humains.

L'AI Index collabore avec de nombreuses organisations différentes pour suivre les progrès de l'intelligence artificielle. Ces organisations comprennent : le Center for Security and Emerging Technology de l'Université de Georgetown, LinkedIn, NetBase Quid, Lightcast et McKinsey. 

Le rapport 2023 présente également plus de données auto-collectées et d'analyses originales que jamais auparavant. 

Le rapport de cette année comprenait de nouvelles analyses sur les modèles de base, y compris leurs coûts géopolitiques et de formation, l'impact environnemental des systèmes d'IA, l'éducation à l'IA de la maternelle à la 12e année et les tendances de l'opinion publique en matière d'IA.



L'AI Index a également élargi son suivi de la législation mondiale sur l'IA de 25 pays en 2022 à 127 en 2023.

À partir de l’adresse :



HAI_AI-Index-Report-2024 :


Je vais vous faire un résumé des points clés du Rapport 2023 de l'Index sur l'Intelligence Artificielle :

Les points principaux :


1. État de la recherche et du développement :

- Les entreprises prennent le dessus sur le monde académique dans le développement de modèles d'IA
- La Chine et les États-Unis dominent la recherche en IA, bien que leurs collaborations ralentissent 
- Les modèles de langage deviennent plus grands et plus coûteux à entraîner

2. Performance technique :

- On observe une saturation des performances sur les benchmarks traditionnels
- L'IA générative a connu une percée majeure en 2022 (ChatGPT, DALL-E 2, etc.)
- Les systèmes d'IA deviennent plus flexibles et polyvalents

3. Questions éthiques :

- Les biais et la toxicité des modèles restent des défis majeurs
- Le nombre d'incidents liés à l'IA a fortement augmenté 
- Les modèles plus performants ne sont pas nécessairement moins biaisés

4. Impact économique :

- Première baisse des investissements privés en IA depuis 10 ans (-26,7% en 2022)
- La demande de compétences en IA continue d'augmenter dans presque tous les secteurs
- La Chine domine l'installation de robots industriels

5. Éducation :

- Augmentation de la spécialisation en IA au niveau doctoral
- Les nouveaux docteurs en IA s'orientent de plus en plus vers l'industrie
- Développement de l'éducation à l'IA dans le primaire et secondaire

6. Politique et gouvernance :

- Intérêt croissant des décideurs politiques pour l'IA
- Augmentation des cas juridiques liés à l'IA
- Les États-Unis continuent d'augmenter leurs dépenses publiques en IA

7. Opinion publique :

- Les Chinois sont les plus positifs concernant les produits et services d'IA
- Les hommes sont généralement plus optimistes que les femmes sur l'IA
- Scepticisme persistant concernant les véhicules autonomes

Ce rapport montre une année 2022 marquée par des avancées techniques majeures en IA, notamment dans le domaine génératif, mais aussi par des défis croissants en termes d'éthique, de régulation et d'acceptation sociale.

Des chercheurs de l’Université de Turku ont analysé et annoté 328 articles liés à l’éthique de l’IA en Chine inclus dans la plateforme China National Knowledge Infrastructure publiée de 2011 à 2020, et ont résumé leurs thèmes et préoccupations, qui sont reproduits ici comme un aperçu préliminaire de l’état de la recherche sur l’éthique de l’IA en Chine. 

Étant donné que les chercheurs n’ont examiné l’éthique de l’IA qu’en Chine, il n’a pas été possible de comparer leurs résultats avec une méta-analyse similaire sur l’éthique de l’IA en Amérique du Nord et en Europe. 

Cependant, il s’agirait d’une direction fructueuse pour les recherches futures.

Sujets de préoccupation soulevés dans les documents chinois sur l’éthique de l’IA


Les questions de protection de la vie privée liées à l’IA sont une priorité pour les chercheurs en Chine : la protection de la vie privée est le sujet le plus discuté parmi les articles étudiés, suivi de près par les sujets de l’égalité (c.-à-d. les préjugés et la discrimination) et de l’agentivité (plus précisément, les menaces de l’IA pour l’action humaine, telles que « L’intelligence artificielle générale doit-elle être considérée comme un agent moral ? ») (figure 3.6.1). 

Les chercheurs en éthique de l’IA en Chine discutent également de nombreuses questions similaires à celles de leurs homologues occidentaux, y compris les questions liées aux courses aux armements occidentales et orientales de l’IA, l’éthique autour de la personnalisation croissante utilisée pour les techniques de marketing prédateur et la polarisation des médias (étiquetée ici comme « liberté »)

Dans la littérature chinoise sur l’éthique de l’IA, les propositions visant à aborder les sujets de préoccupation susmentionnés et d’autres préjudices potentiels liés à l’IA se concentrent sur la législation et la réforme structurelle avant des solutions technologiques : Les chercheurs discutent souvent de réformes structurelles, comme les processus réglementaires entourant les applications de l’IA et la participation de comités d’éthique (figure 3.6.2 - page 156 et 157 du rapport).

Le Rapport 2024 de l'Index sur l'Intelligence Artificielle de Stanford1

. Ce rapport est la septième édition et est considéré comme le plus complet à ce jour1
. Il couvre des tendances essentielles telles que les avancées techniques en IA, les perceptions publiques de la technologie, et les dynamiques géopolitiques entourant son développement1

Le rapport inclut de nouvelles estimations sur les coûts de formation de l'IA, des analyses détaillées sur l'environnement de l'IA responsable, et un chapitre entièrement nouveau sur l'impact de l'IA sur la science et la médecine1

Tu peux accéder au rapport complet et télécharger des chapitres individuels sur le site officiel de l'Index sur l'Intelligence Artificielle de Stanford : https://aiindex.stanford.edu/report/?form=MG0AV3


En conclusion, 

l'éthique n'est pas une faiblesse mais un atout stratégique différenciant. La vraie question n'est pas de renoncer à nos valeurs mais de développer des systèmes d'IE performants ET éthiques.
Dans ce contexte, on parle plutôt d’Intelligence Éthique : le défi est de créer des systèmes d'Intelligence Artificielle (IA) qui respectent les valeurs éthiques tout en étant performants. Essentiel pour le progrès technologique de façon responsable.

Voici quelques exemples internationaux de systèmes d'Intelligence Artificielle (IA) éthiques :


Recommandation de l'UNESCO sur l'IA : En 2021, l'UNESCO a adopté une norme mondiale sur l'éthique de l'IA, visant à garantir que les systèmes d'IA respectent les droits humains et contribuent au développement durable1
.

Résolution de l'Assemblée générale des Nations Unies : En 2024, l'Assemblée générale a adopté une résolution historique sur l'IA, appelant à des systèmes sûrs, sécurisés et dignes de confiance qui respectent les droits humains2
.

Initiatives de l'Union Européenne : L'UE a mis en place des règles strictes pour l'IA, notamment le règlement général sur la protection des données (RGPD) et le projet d'IA éthique et responsable (AI4EU).

Programmes de recherche en Chine : La Chine a lancé plusieurs initiatives pour promouvoir une IA éthique, notamment en mettant l'accent sur la transparence, la sécurité et la protection des données personnelles.

Ces exemples montrent comment différents pays et organisations travaillent à développer des systèmes d'IA éthiques et responsables. Cela est essentiel pour garantir que les avancées technologiques bénéficient à l'humanité tout en minimisant les risques potentiels.




Résultats de la recherche >> Ethique




« Éthique de l'IA » : qui façonne la gouvernance numérique de demain ?

Alors que les missions gouvernementales, chartes et rapports ayant pour objet l'éthique de l'intelligence artificielle se sont multipliés ces derniers mois, quelle est l'origine de ce champ polysémique ? 

Et quelle est la place des acteurs privés dans la promotion de cette notion ?

L'« éthique de l’intelligence artificielle » n'est pas quelque chose de nouveau, mais si elle animait des débats assez confidentiels dans des cercles scientifiques dans les années 80, elle est apparue dans l’espace public au milieu des années 2010 et ne cesse depuis de faire l’objet de chartes, conseils d’experts, rapports et autres missions gouvernementales.



Mais à qui doit-on la publicisation de "l’éthique de l’IA" dans les années 2010 ? Et bien c’est une question à laquelle s’est intéressé un groupe de chercheurs en sciences sociales dans un des derniers numéros de la Revue Réseaux, et la réponse peut paraître surprenante. 

Ce ne sont pas comme l’on pourrait se l’imaginer les gouvernements ou les organisations internationales qui ont investi ce champ de l’ « éthique de l’IA », mais bien des acteurs privés impliqués eux-mêmes dans le développement de l’intelligence artificielle. 

Ainsi en 2015, c’est le Future of Life Institute qui alerte pour la première fois sur les risques existentiels liés à au déploiement d’une IA forte, en publiant une lettre ouverte signée par plus de 10 000 spécialistes du sujet, pour beaucoup issus de la sphère privée.



L'article aborde les dilemmes éthiques de l'intelligence artificielle dans divers domaines :


Biais de l'IA : L'IA peut reproduire des préjugés de genre, comme le montrent les résultats de recherche biaisés. L'UNESCO recommande de minimiser ces biais dans les algorithmes.

Justice : L'IA dans les systèmes judiciaires peut améliorer l'efficacité mais pose des questions éthiques, notamment sur la transparence et les biais potentiels.

Art : L'IA peut créer des œuvres d'art, soulevant des questions sur la propriété intellectuelle et les droits d'auteur.

Voitures autonomes : Les véhicules autonomes doivent prendre des décisions morales en cas de danger, ce qui soulève des dilemmes éthiques importants.

L'UNESCO a adopté des recommandations pour encadrer l'éthique de l'IA et éviter les biais et les injustices. Voilà, un résumé bien rempli!

IA et la RSE

 L'IA et la RSE : l'avenir des entreprises responsables débute aujourd'hui.

L'intelligence artificielle n'est plus une simple technologie avancée, elle est devenue un vecteur de transformation sociale et environnementale. En alliant l'IA aux pratiques de la responsabilité sociétale des entreprises (RSE), nous pouvons redéfinir le rôle des entreprises dans notre société : elles ne se contentent plus d'innover, mais agissent éthiquement et contribuent de manière positive à notre monde.

Dans cette optique, j'ai créé ma nouvelle série YouTube "IA et RSE", destinée à ceux qui désirent dépasser l'innovation pour construire un futur durable. 

Retrouvez-la ici : 

https://youtube.com/playlist?list=PL2j_TcGSnYgMEdiSiimkHD3ogAxN1hAiA&si=oXmM-cBBeE_1Hpvm 

par Emmanuel MOYRAND

Voici ce que vous y trouverez :

Des exemples concrets d'entreprises utilisant l'IA pour renforcer leur impact social et environnemental.

Comment l'IA peut servir d'outil essentiel pour favoriser la transition vers un modèle économique soutenable. Des perspectives sur les défis et les opportunités liés à cette fusion entre technologie et responsabilité. Il est temps de repenser l'innovation. Suivez cette série pour voir comment l'IA peut non seulement transformer nos entreprises, mais aussi notre façon de contribuer au bien commun.

Inscrivez-vous maintenant et accompagnez-moi dans cette exploration de la façon dont nous pouvons, ensemble, utiliser l'innovation comme un levier pour un avenir responsable.

Car l'avenir ne se prédit pas, il se façonne.

par Emmanuel MOYRAND






jeudi 4 avril 2024

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

La gouvernance, l'audit, la sécurité et le pilotage de l'IA avec des outils.


Erol GiraudyNabil BabaciFrank PoireauEtienne LegendreKevin Trelohan , Pierre Erol Giraudy (Ed.)

Tome 2 sur 2 de cette collection


 Ce Tome 2 : OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA par des experts. Il expose les dernières avancées de Microsoft et OpenAI tout en illustrant comment ces deux acteurs de l'intelligence artificielle collaborent de manière complémentaire. Notamment dans le vaste domaine de l'IA et d'Azure avec ChatGPT, DALL·E et Copilot. La création de ce livre sur l'Intelligence Artificielle (IA) a été inspirée par la convergence entre des MVP, des anciens MVP et un MVP Alumni, ils sont à l'origine du tome1 : OpenAI© et Microsoft© des solutions, une gouvernance par des experts. Il explore également en détail la gouvernance, l'audit et le contrôle de l'IA. Il présente les outils adaptés, notamment à travers un "tableau interactif" qui fournit des liens directs vers ces ressources et applications. Il aborde les sujets de la gouvernance, l'audit, la sécurité et le pilotage de l'IA avec des outils spécifiques et des recommandations, ainsi que la formation à l'IA. Ce livre détaille aussi ces solutions et montre comment les mettre œuvre. Notre Tome 1 était plus ciblé sur OpenAI et Microsoft et leurs solutions.