lundi 28 octobre 2024

LE RAPPORT SUR L'INDICE DE L'IA

Mesurer les tendances en Intelligence Artificielle.



AI INDEX RAPPORT ANNUEL (Artificial  Intelligence   Index Report 2023).

Bienvenue dans la septième édition du rapport AI Index. L’indice 2024 est le plus complet à ce jour et arrive à un moment important où l’influence de l’IA sur la société n’a jamais été aussi prononcée. 

Cette année, nous avons élargi notre champ d’action pour couvrir plus largement les tendances essentielles telles que les progrès techniques de l’IA, la perception de la technologie par le public et la dynamique géopolitique entourant son développement. Présentant plus de données originales que jamais, cette édition présente de nouvelles estimations des coûts de formation de l’IA, des analyses détaillées du paysage de l’IA responsable et un tout nouveau chapitre consacré à l’impact de l’IA sur la science et la médecine. 

Le rapport AI Index suit, compile, distille et visualise les données liées à l’intelligence artificielle (IA). Notre mission est de fournir des données impartiales, rigoureusement vérifiées et largement sourcées afin que les décideurs, les chercheurs, les dirigeants, les journalistes et le grand public puissent développer une compréhension plus approfondie et nuancée du domaine complexe de l’IA. 

L’indice AI est reconnu à l’échelle mondiale comme l’une des sources les plus crédibles et les plus fiables pour les données et les informations sur l’intelligence artificielle. Les éditions précédentes ont été citées dans de grands journaux, notamment le New York Times, Bloomberg et The Guardian, ont amassé des centaines de citations universitaires et ont été référencées par des décideurs politiques de haut niveau aux États-Unis, au Royaume-Uni et dans l’Union européenne, entre autres. 

L’édition de cette année surpasse toutes les précédentes en termes de taille, d’échelle et de portée, ce qui reflète l’importance croissante que l’IA prend dans nos vies à tous.


L'AI Index est une initiative indépendante du Stanford Institute for Human-Centered Artificial Intelligence (HAI), dirigée par le AI Index Steering Committee, un groupe interdisciplinaire d'experts du milieu universitaire et de l'industrie. Le rapport annuel suit , rassemble , distille et visualise les données relatives à l'intelligence artificielle, permettant aux décideurs de prendre des mesures significatives pour faire progresser l'IA de manière responsable et éthique en pensant aux humains.

L'AI Index collabore avec de nombreuses organisations différentes pour suivre les progrès de l'intelligence artificielle. Ces organisations comprennent : le Center for Security and Emerging Technology de l'Université de Georgetown, LinkedIn, NetBase Quid, Lightcast et McKinsey. 

Le rapport 2023 présente également plus de données auto-collectées et d'analyses originales que jamais auparavant. 

Le rapport de cette année comprenait de nouvelles analyses sur les modèles de base, y compris leurs coûts géopolitiques et de formation, l'impact environnemental des systèmes d'IA, l'éducation à l'IA de la maternelle à la 12e année et les tendances de l'opinion publique en matière d'IA.



L'AI Index a également élargi son suivi de la législation mondiale sur l'IA de 25 pays en 2022 à 127 en 2023.

À partir de l’adresse :



HAI_AI-Index-Report-2024 :


Je vais vous faire un résumé des points clés du Rapport 2023 de l'Index sur l'Intelligence Artificielle :

Les points principaux :


1. État de la recherche et du développement :

- Les entreprises prennent le dessus sur le monde académique dans le développement de modèles d'IA
- La Chine et les États-Unis dominent la recherche en IA, bien que leurs collaborations ralentissent 
- Les modèles de langage deviennent plus grands et plus coûteux à entraîner

2. Performance technique :

- On observe une saturation des performances sur les benchmarks traditionnels
- L'IA générative a connu une percée majeure en 2022 (ChatGPT, DALL-E 2, etc.)
- Les systèmes d'IA deviennent plus flexibles et polyvalents

3. Questions éthiques :

- Les biais et la toxicité des modèles restent des défis majeurs
- Le nombre d'incidents liés à l'IA a fortement augmenté 
- Les modèles plus performants ne sont pas nécessairement moins biaisés

4. Impact économique :

- Première baisse des investissements privés en IA depuis 10 ans (-26,7% en 2022)
- La demande de compétences en IA continue d'augmenter dans presque tous les secteurs
- La Chine domine l'installation de robots industriels

5. Éducation :

- Augmentation de la spécialisation en IA au niveau doctoral
- Les nouveaux docteurs en IA s'orientent de plus en plus vers l'industrie
- Développement de l'éducation à l'IA dans le primaire et secondaire

6. Politique et gouvernance :

- Intérêt croissant des décideurs politiques pour l'IA
- Augmentation des cas juridiques liés à l'IA
- Les États-Unis continuent d'augmenter leurs dépenses publiques en IA

7. Opinion publique :

- Les Chinois sont les plus positifs concernant les produits et services d'IA
- Les hommes sont généralement plus optimistes que les femmes sur l'IA
- Scepticisme persistant concernant les véhicules autonomes

Ce rapport montre une année 2022 marquée par des avancées techniques majeures en IA, notamment dans le domaine génératif, mais aussi par des défis croissants en termes d'éthique, de régulation et d'acceptation sociale.

Des chercheurs de l’Université de Turku ont analysé et annoté 328 articles liés à l’éthique de l’IA en Chine inclus dans la plateforme China National Knowledge Infrastructure publiée de 2011 à 2020, et ont résumé leurs thèmes et préoccupations, qui sont reproduits ici comme un aperçu préliminaire de l’état de la recherche sur l’éthique de l’IA en Chine. 

Étant donné que les chercheurs n’ont examiné l’éthique de l’IA qu’en Chine, il n’a pas été possible de comparer leurs résultats avec une méta-analyse similaire sur l’éthique de l’IA en Amérique du Nord et en Europe. 

Cependant, il s’agirait d’une direction fructueuse pour les recherches futures.

Sujets de préoccupation soulevés dans les documents chinois sur l’éthique de l’IA


Les questions de protection de la vie privée liées à l’IA sont une priorité pour les chercheurs en Chine : la protection de la vie privée est le sujet le plus discuté parmi les articles étudiés, suivi de près par les sujets de l’égalité (c.-à-d. les préjugés et la discrimination) et de l’agentivité (plus précisément, les menaces de l’IA pour l’action humaine, telles que « L’intelligence artificielle générale doit-elle être considérée comme un agent moral ? ») (figure 3.6.1). 

Les chercheurs en éthique de l’IA en Chine discutent également de nombreuses questions similaires à celles de leurs homologues occidentaux, y compris les questions liées aux courses aux armements occidentales et orientales de l’IA, l’éthique autour de la personnalisation croissante utilisée pour les techniques de marketing prédateur et la polarisation des médias (étiquetée ici comme « liberté »)

Dans la littérature chinoise sur l’éthique de l’IA, les propositions visant à aborder les sujets de préoccupation susmentionnés et d’autres préjudices potentiels liés à l’IA se concentrent sur la législation et la réforme structurelle avant des solutions technologiques : Les chercheurs discutent souvent de réformes structurelles, comme les processus réglementaires entourant les applications de l’IA et la participation de comités d’éthique (figure 3.6.2 - page 156 et 157 du rapport).

Le Rapport 2024 de l'Index sur l'Intelligence Artificielle de Stanford1

. Ce rapport est la septième édition et est considéré comme le plus complet à ce jour1
. Il couvre des tendances essentielles telles que les avancées techniques en IA, les perceptions publiques de la technologie, et les dynamiques géopolitiques entourant son développement1

Le rapport inclut de nouvelles estimations sur les coûts de formation de l'IA, des analyses détaillées sur l'environnement de l'IA responsable, et un chapitre entièrement nouveau sur l'impact de l'IA sur la science et la médecine1

Tu peux accéder au rapport complet et télécharger des chapitres individuels sur le site officiel de l'Index sur l'Intelligence Artificielle de Stanford : https://aiindex.stanford.edu/report/?form=MG0AV3


En conclusion, 

l'éthique n'est pas une faiblesse mais un atout stratégique différenciant. La vraie question n'est pas de renoncer à nos valeurs mais de développer des systèmes d'IE performants ET éthiques.
Dans ce contexte, on parle plutôt d’Intelligence Éthique : le défi est de créer des systèmes d'Intelligence Artificielle (IA) qui respectent les valeurs éthiques tout en étant performants. Essentiel pour le progrès technologique de façon responsable.

Voici quelques exemples internationaux de systèmes d'Intelligence Artificielle (IA) éthiques :


Recommandation de l'UNESCO sur l'IA : En 2021, l'UNESCO a adopté une norme mondiale sur l'éthique de l'IA, visant à garantir que les systèmes d'IA respectent les droits humains et contribuent au développement durable1
.

Résolution de l'Assemblée générale des Nations Unies : En 2024, l'Assemblée générale a adopté une résolution historique sur l'IA, appelant à des systèmes sûrs, sécurisés et dignes de confiance qui respectent les droits humains2
.

Initiatives de l'Union Européenne : L'UE a mis en place des règles strictes pour l'IA, notamment le règlement général sur la protection des données (RGPD) et le projet d'IA éthique et responsable (AI4EU).

Programmes de recherche en Chine : La Chine a lancé plusieurs initiatives pour promouvoir une IA éthique, notamment en mettant l'accent sur la transparence, la sécurité et la protection des données personnelles.

Ces exemples montrent comment différents pays et organisations travaillent à développer des systèmes d'IA éthiques et responsables. Cela est essentiel pour garantir que les avancées technologiques bénéficient à l'humanité tout en minimisant les risques potentiels.




Résultats de la recherche >> Ethique




« Éthique de l'IA » : qui façonne la gouvernance numérique de demain ?

Alors que les missions gouvernementales, chartes et rapports ayant pour objet l'éthique de l'intelligence artificielle se sont multipliés ces derniers mois, quelle est l'origine de ce champ polysémique ? 

Et quelle est la place des acteurs privés dans la promotion de cette notion ?

L'« éthique de l’intelligence artificielle » n'est pas quelque chose de nouveau, mais si elle animait des débats assez confidentiels dans des cercles scientifiques dans les années 80, elle est apparue dans l’espace public au milieu des années 2010 et ne cesse depuis de faire l’objet de chartes, conseils d’experts, rapports et autres missions gouvernementales.



Mais à qui doit-on la publicisation de "l’éthique de l’IA" dans les années 2010 ? Et bien c’est une question à laquelle s’est intéressé un groupe de chercheurs en sciences sociales dans un des derniers numéros de la Revue Réseaux, et la réponse peut paraître surprenante. 

Ce ne sont pas comme l’on pourrait se l’imaginer les gouvernements ou les organisations internationales qui ont investi ce champ de l’ « éthique de l’IA », mais bien des acteurs privés impliqués eux-mêmes dans le développement de l’intelligence artificielle. 

Ainsi en 2015, c’est le Future of Life Institute qui alerte pour la première fois sur les risques existentiels liés à au déploiement d’une IA forte, en publiant une lettre ouverte signée par plus de 10 000 spécialistes du sujet, pour beaucoup issus de la sphère privée.



L'article aborde les dilemmes éthiques de l'intelligence artificielle dans divers domaines :


Biais de l'IA : L'IA peut reproduire des préjugés de genre, comme le montrent les résultats de recherche biaisés. L'UNESCO recommande de minimiser ces biais dans les algorithmes.

Justice : L'IA dans les systèmes judiciaires peut améliorer l'efficacité mais pose des questions éthiques, notamment sur la transparence et les biais potentiels.

Art : L'IA peut créer des œuvres d'art, soulevant des questions sur la propriété intellectuelle et les droits d'auteur.

Voitures autonomes : Les véhicules autonomes doivent prendre des décisions morales en cas de danger, ce qui soulève des dilemmes éthiques importants.

L'UNESCO a adopté des recommandations pour encadrer l'éthique de l'IA et éviter les biais et les injustices. Voilà, un résumé bien rempli!

IA et la RSE

 L'IA et la RSE : l'avenir des entreprises responsables débute aujourd'hui.

L'intelligence artificielle n'est plus une simple technologie avancée, elle est devenue un vecteur de transformation sociale et environnementale. En alliant l'IA aux pratiques de la responsabilité sociétale des entreprises (RSE), nous pouvons redéfinir le rôle des entreprises dans notre société : elles ne se contentent plus d'innover, mais agissent éthiquement et contribuent de manière positive à notre monde.

Dans cette optique, j'ai créé ma nouvelle série YouTube "IA et RSE", destinée à ceux qui désirent dépasser l'innovation pour construire un futur durable. 

Retrouvez-la ici : 

https://youtube.com/playlist?list=PL2j_TcGSnYgMEdiSiimkHD3ogAxN1hAiA&si=oXmM-cBBeE_1Hpvm 

par Emmanuel MOYRAND

Voici ce que vous y trouverez :

Des exemples concrets d'entreprises utilisant l'IA pour renforcer leur impact social et environnemental.

Comment l'IA peut servir d'outil essentiel pour favoriser la transition vers un modèle économique soutenable. Des perspectives sur les défis et les opportunités liés à cette fusion entre technologie et responsabilité. Il est temps de repenser l'innovation. Suivez cette série pour voir comment l'IA peut non seulement transformer nos entreprises, mais aussi notre façon de contribuer au bien commun.

Inscrivez-vous maintenant et accompagnez-moi dans cette exploration de la façon dont nous pouvons, ensemble, utiliser l'innovation comme un levier pour un avenir responsable.

Car l'avenir ne se prédit pas, il se façonne.

par Emmanuel MOYRAND