lundi 28 octobre 2024

LE RAPPORT SUR L'INDICE DE L'IA

Mesurer les tendances en Intelligence Artificielle.



AI INDEX RAPPORT ANNUEL (Artificial  Intelligence   Index Report 2023).

Bienvenue dans la septième édition du rapport AI Index. L’indice 2024 est le plus complet à ce jour et arrive à un moment important où l’influence de l’IA sur la société n’a jamais été aussi prononcée. 

Cette année, nous avons élargi notre champ d’action pour couvrir plus largement les tendances essentielles telles que les progrès techniques de l’IA, la perception de la technologie par le public et la dynamique géopolitique entourant son développement. Présentant plus de données originales que jamais, cette édition présente de nouvelles estimations des coûts de formation de l’IA, des analyses détaillées du paysage de l’IA responsable et un tout nouveau chapitre consacré à l’impact de l’IA sur la science et la médecine. 

Le rapport AI Index suit, compile, distille et visualise les données liées à l’intelligence artificielle (IA). Notre mission est de fournir des données impartiales, rigoureusement vérifiées et largement sourcées afin que les décideurs, les chercheurs, les dirigeants, les journalistes et le grand public puissent développer une compréhension plus approfondie et nuancée du domaine complexe de l’IA. 

L’indice AI est reconnu à l’échelle mondiale comme l’une des sources les plus crédibles et les plus fiables pour les données et les informations sur l’intelligence artificielle. Les éditions précédentes ont été citées dans de grands journaux, notamment le New York Times, Bloomberg et The Guardian, ont amassé des centaines de citations universitaires et ont été référencées par des décideurs politiques de haut niveau aux États-Unis, au Royaume-Uni et dans l’Union européenne, entre autres. 

L’édition de cette année surpasse toutes les précédentes en termes de taille, d’échelle et de portée, ce qui reflète l’importance croissante que l’IA prend dans nos vies à tous.


L'AI Index est une initiative indépendante du Stanford Institute for Human-Centered Artificial Intelligence (HAI), dirigée par le AI Index Steering Committee, un groupe interdisciplinaire d'experts du milieu universitaire et de l'industrie. Le rapport annuel suit , rassemble , distille et visualise les données relatives à l'intelligence artificielle, permettant aux décideurs de prendre des mesures significatives pour faire progresser l'IA de manière responsable et éthique en pensant aux humains.

L'AI Index collabore avec de nombreuses organisations différentes pour suivre les progrès de l'intelligence artificielle. Ces organisations comprennent : le Center for Security and Emerging Technology de l'Université de Georgetown, LinkedIn, NetBase Quid, Lightcast et McKinsey. 

Le rapport 2023 présente également plus de données auto-collectées et d'analyses originales que jamais auparavant. 

Le rapport de cette année comprenait de nouvelles analyses sur les modèles de base, y compris leurs coûts géopolitiques et de formation, l'impact environnemental des systèmes d'IA, l'éducation à l'IA de la maternelle à la 12e année et les tendances de l'opinion publique en matière d'IA.



L'AI Index a également élargi son suivi de la législation mondiale sur l'IA de 25 pays en 2022 à 127 en 2023.

À partir de l’adresse :



HAI_AI-Index-Report-2024 :


Je vais vous faire un résumé des points clés du Rapport 2023 de l'Index sur l'Intelligence Artificielle :

Les points principaux :


1. État de la recherche et du développement :

- Les entreprises prennent le dessus sur le monde académique dans le développement de modèles d'IA
- La Chine et les États-Unis dominent la recherche en IA, bien que leurs collaborations ralentissent 
- Les modèles de langage deviennent plus grands et plus coûteux à entraîner

2. Performance technique :

- On observe une saturation des performances sur les benchmarks traditionnels
- L'IA générative a connu une percée majeure en 2022 (ChatGPT, DALL-E 2, etc.)
- Les systèmes d'IA deviennent plus flexibles et polyvalents

3. Questions éthiques :

- Les biais et la toxicité des modèles restent des défis majeurs
- Le nombre d'incidents liés à l'IA a fortement augmenté 
- Les modèles plus performants ne sont pas nécessairement moins biaisés

4. Impact économique :

- Première baisse des investissements privés en IA depuis 10 ans (-26,7% en 2022)
- La demande de compétences en IA continue d'augmenter dans presque tous les secteurs
- La Chine domine l'installation de robots industriels

5. Éducation :

- Augmentation de la spécialisation en IA au niveau doctoral
- Les nouveaux docteurs en IA s'orientent de plus en plus vers l'industrie
- Développement de l'éducation à l'IA dans le primaire et secondaire

6. Politique et gouvernance :

- Intérêt croissant des décideurs politiques pour l'IA
- Augmentation des cas juridiques liés à l'IA
- Les États-Unis continuent d'augmenter leurs dépenses publiques en IA

7. Opinion publique :

- Les Chinois sont les plus positifs concernant les produits et services d'IA
- Les hommes sont généralement plus optimistes que les femmes sur l'IA
- Scepticisme persistant concernant les véhicules autonomes

Ce rapport montre une année 2022 marquée par des avancées techniques majeures en IA, notamment dans le domaine génératif, mais aussi par des défis croissants en termes d'éthique, de régulation et d'acceptation sociale.

Des chercheurs de l’Université de Turku ont analysé et annoté 328 articles liés à l’éthique de l’IA en Chine inclus dans la plateforme China National Knowledge Infrastructure publiée de 2011 à 2020, et ont résumé leurs thèmes et préoccupations, qui sont reproduits ici comme un aperçu préliminaire de l’état de la recherche sur l’éthique de l’IA en Chine. 

Étant donné que les chercheurs n’ont examiné l’éthique de l’IA qu’en Chine, il n’a pas été possible de comparer leurs résultats avec une méta-analyse similaire sur l’éthique de l’IA en Amérique du Nord et en Europe. 

Cependant, il s’agirait d’une direction fructueuse pour les recherches futures.

Sujets de préoccupation soulevés dans les documents chinois sur l’éthique de l’IA


Les questions de protection de la vie privée liées à l’IA sont une priorité pour les chercheurs en Chine : la protection de la vie privée est le sujet le plus discuté parmi les articles étudiés, suivi de près par les sujets de l’égalité (c.-à-d. les préjugés et la discrimination) et de l’agentivité (plus précisément, les menaces de l’IA pour l’action humaine, telles que « L’intelligence artificielle générale doit-elle être considérée comme un agent moral ? ») (figure 3.6.1). 

Les chercheurs en éthique de l’IA en Chine discutent également de nombreuses questions similaires à celles de leurs homologues occidentaux, y compris les questions liées aux courses aux armements occidentales et orientales de l’IA, l’éthique autour de la personnalisation croissante utilisée pour les techniques de marketing prédateur et la polarisation des médias (étiquetée ici comme « liberté »)

Dans la littérature chinoise sur l’éthique de l’IA, les propositions visant à aborder les sujets de préoccupation susmentionnés et d’autres préjudices potentiels liés à l’IA se concentrent sur la législation et la réforme structurelle avant des solutions technologiques : Les chercheurs discutent souvent de réformes structurelles, comme les processus réglementaires entourant les applications de l’IA et la participation de comités d’éthique (figure 3.6.2 - page 156 et 157 du rapport).

Le Rapport 2024 de l'Index sur l'Intelligence Artificielle de Stanford1

. Ce rapport est la septième édition et est considéré comme le plus complet à ce jour1
. Il couvre des tendances essentielles telles que les avancées techniques en IA, les perceptions publiques de la technologie, et les dynamiques géopolitiques entourant son développement1

Le rapport inclut de nouvelles estimations sur les coûts de formation de l'IA, des analyses détaillées sur l'environnement de l'IA responsable, et un chapitre entièrement nouveau sur l'impact de l'IA sur la science et la médecine1

Tu peux accéder au rapport complet et télécharger des chapitres individuels sur le site officiel de l'Index sur l'Intelligence Artificielle de Stanford : https://aiindex.stanford.edu/report/?form=MG0AV3


En conclusion, 

l'éthique n'est pas une faiblesse mais un atout stratégique différenciant. La vraie question n'est pas de renoncer à nos valeurs mais de développer des systèmes d'IE performants ET éthiques.
Dans ce contexte, on parle plutôt d’Intelligence Éthique : le défi est de créer des systèmes d'Intelligence Artificielle (IA) qui respectent les valeurs éthiques tout en étant performants. Essentiel pour le progrès technologique de façon responsable.

Voici quelques exemples internationaux de systèmes d'Intelligence Artificielle (IA) éthiques :


Recommandation de l'UNESCO sur l'IA : En 2021, l'UNESCO a adopté une norme mondiale sur l'éthique de l'IA, visant à garantir que les systèmes d'IA respectent les droits humains et contribuent au développement durable1
.

Résolution de l'Assemblée générale des Nations Unies : En 2024, l'Assemblée générale a adopté une résolution historique sur l'IA, appelant à des systèmes sûrs, sécurisés et dignes de confiance qui respectent les droits humains2
.

Initiatives de l'Union Européenne : L'UE a mis en place des règles strictes pour l'IA, notamment le règlement général sur la protection des données (RGPD) et le projet d'IA éthique et responsable (AI4EU).

Programmes de recherche en Chine : La Chine a lancé plusieurs initiatives pour promouvoir une IA éthique, notamment en mettant l'accent sur la transparence, la sécurité et la protection des données personnelles.

Ces exemples montrent comment différents pays et organisations travaillent à développer des systèmes d'IA éthiques et responsables. Cela est essentiel pour garantir que les avancées technologiques bénéficient à l'humanité tout en minimisant les risques potentiels.




Résultats de la recherche >> Ethique




« Éthique de l'IA » : qui façonne la gouvernance numérique de demain ?

Alors que les missions gouvernementales, chartes et rapports ayant pour objet l'éthique de l'intelligence artificielle se sont multipliés ces derniers mois, quelle est l'origine de ce champ polysémique ? 

Et quelle est la place des acteurs privés dans la promotion de cette notion ?

L'« éthique de l’intelligence artificielle » n'est pas quelque chose de nouveau, mais si elle animait des débats assez confidentiels dans des cercles scientifiques dans les années 80, elle est apparue dans l’espace public au milieu des années 2010 et ne cesse depuis de faire l’objet de chartes, conseils d’experts, rapports et autres missions gouvernementales.



Mais à qui doit-on la publicisation de "l’éthique de l’IA" dans les années 2010 ? Et bien c’est une question à laquelle s’est intéressé un groupe de chercheurs en sciences sociales dans un des derniers numéros de la Revue Réseaux, et la réponse peut paraître surprenante. 

Ce ne sont pas comme l’on pourrait se l’imaginer les gouvernements ou les organisations internationales qui ont investi ce champ de l’ « éthique de l’IA », mais bien des acteurs privés impliqués eux-mêmes dans le développement de l’intelligence artificielle. 

Ainsi en 2015, c’est le Future of Life Institute qui alerte pour la première fois sur les risques existentiels liés à au déploiement d’une IA forte, en publiant une lettre ouverte signée par plus de 10 000 spécialistes du sujet, pour beaucoup issus de la sphère privée.



L'article aborde les dilemmes éthiques de l'intelligence artificielle dans divers domaines :


Biais de l'IA : L'IA peut reproduire des préjugés de genre, comme le montrent les résultats de recherche biaisés. L'UNESCO recommande de minimiser ces biais dans les algorithmes.

Justice : L'IA dans les systèmes judiciaires peut améliorer l'efficacité mais pose des questions éthiques, notamment sur la transparence et les biais potentiels.

Art : L'IA peut créer des œuvres d'art, soulevant des questions sur la propriété intellectuelle et les droits d'auteur.

Voitures autonomes : Les véhicules autonomes doivent prendre des décisions morales en cas de danger, ce qui soulève des dilemmes éthiques importants.

L'UNESCO a adopté des recommandations pour encadrer l'éthique de l'IA et éviter les biais et les injustices. Voilà, un résumé bien rempli!

IA et la RSE

 L'IA et la RSE : l'avenir des entreprises responsables débute aujourd'hui.

L'intelligence artificielle n'est plus une simple technologie avancée, elle est devenue un vecteur de transformation sociale et environnementale. En alliant l'IA aux pratiques de la responsabilité sociétale des entreprises (RSE), nous pouvons redéfinir le rôle des entreprises dans notre société : elles ne se contentent plus d'innover, mais agissent éthiquement et contribuent de manière positive à notre monde.

Dans cette optique, j'ai créé ma nouvelle série YouTube "IA et RSE", destinée à ceux qui désirent dépasser l'innovation pour construire un futur durable. 

Retrouvez-la ici : 

https://youtube.com/playlist?list=PL2j_TcGSnYgMEdiSiimkHD3ogAxN1hAiA&si=oXmM-cBBeE_1Hpvm 

par Emmanuel MOYRAND

Voici ce que vous y trouverez :

Des exemples concrets d'entreprises utilisant l'IA pour renforcer leur impact social et environnemental.

Comment l'IA peut servir d'outil essentiel pour favoriser la transition vers un modèle économique soutenable. Des perspectives sur les défis et les opportunités liés à cette fusion entre technologie et responsabilité. Il est temps de repenser l'innovation. Suivez cette série pour voir comment l'IA peut non seulement transformer nos entreprises, mais aussi notre façon de contribuer au bien commun.

Inscrivez-vous maintenant et accompagnez-moi dans cette exploration de la façon dont nous pouvons, ensemble, utiliser l'innovation comme un levier pour un avenir responsable.

Car l'avenir ne se prédit pas, il se façonne.

par Emmanuel MOYRAND






jeudi 4 avril 2024

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA, par des experts Tome 2

La gouvernance, l'audit, la sécurité et le pilotage de l'IA avec des outils.


Erol GiraudyNabil BabaciFrank PoireauEtienne LegendreKevin Trelohan , Pierre Erol Giraudy (Ed.)

Tome 2 sur 2 de cette collection


 Ce Tome 2 : OpenAI et Microsoft des solutions et outils, pour une gouvernance de l'IA par des experts. Il expose les dernières avancées de Microsoft et OpenAI tout en illustrant comment ces deux acteurs de l'intelligence artificielle collaborent de manière complémentaire. Notamment dans le vaste domaine de l'IA et d'Azure avec ChatGPT, DALL·E et Copilot. La création de ce livre sur l'Intelligence Artificielle (IA) a été inspirée par la convergence entre des MVP, des anciens MVP et un MVP Alumni, ils sont à l'origine du tome1 : OpenAI© et Microsoft© des solutions, une gouvernance par des experts. Il explore également en détail la gouvernance, l'audit et le contrôle de l'IA. Il présente les outils adaptés, notamment à travers un "tableau interactif" qui fournit des liens directs vers ces ressources et applications. Il aborde les sujets de la gouvernance, l'audit, la sécurité et le pilotage de l'IA avec des outils spécifiques et des recommandations, ainsi que la formation à l'IA. Ce livre détaille aussi ces solutions et montre comment les mettre œuvre. Notre Tome 1 était plus ciblé sur OpenAI et Microsoft et leurs solutions.











lundi 1 avril 2024

GOUVERNANCE - AI: FAQ sur les contrôles de données U.G.A.I.A.)

FAQ sur les contrôles de données.


Écrit par Josué J. et complément d'Erol GIRAUDY.

Nous voyons que la Compagnie OpenAI lentement trouve des solutions pour protéger les utilisateurs. Elle lance même un concours :  



OpenAI offre des subventions de 100 000 dollars chacune pour des idées sur la gouvernance de l'IA.

 

Mais revenons à notre sujet : quels sont les paramètres de contrôle des données ? 


Les contrôles de données vous offrent la possibilité de désactiver l'historique des discussions et de choisir facilement si vos conversations seront utilisées pour former nos modèles. Ils vous donnent également la possibilité d'exporter vos données ChatGPT et de supprimer définitivement votre compte. 

Comment désactiver l'historique des discussions et la formation des modèles ? 


Interface Web: Pour désactiver l'historique des discussions et la formation des modèles, accédez à ChatGPT > Contrôles des données. 


How do I turn off chat history and model training? | OpenAI Help Center


Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 




Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 

Veuillez noter que cela n'empêchera pas les modules complémentaires de navigateur non autorisés ou les logiciels malveillants sur votre ordinateur de stocker votre historique. 
Application iOS : Pour désactiver l'historique des discussions et la formation des modèles, appuyez sur les trois points dans le coin supérieur droit de l'écran > Paramètres > Contrôles des données > désactivez l'historique des discussions et la formation. 

Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 

Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 



Pour plus de détails, voir Comment désactiver l'historique des discussions et la formation des modèles ? 


Cette fonctionnalité se synchronise-t-elle entre le Web et les appareils mobiles ? Ce paramètre ne se synchronise pas entre les navigateurs ou les appareils. Vous devrez l'activer sur chaque appareil. 

Comment exporter mes données depuis ChatGPT ? 


Pour exporter vos conversations, dans ChatGPT, accédez à Paramètres > Contrôles des données. 

Vous verrez une option pour exporter des données dans le coin inférieur gauche de la fenêtre contextuelle. Vous recevrez un fichier contenant vos données ChatGPT dans un e-mail. Pour plus de détails, consultez 


Comment exporter mon historique et mes données ChatGPT ? 


Comment supprimer mon compte ChatGPT ? 


Pour supprimer votre compte, accédez à Paramètres > Contrôles des données. Au bas de la fenêtre contextuelle, vous verrez une option pour supprimer votre compte. Si vous choisissez de supprimer votre compte, cela est irréversible. Si vous êtes un utilisateur de l'API via le même compte, ces données seront également supprimées. 

Pour plus de détails, voir Comment puis-je supprimer mon compte ? 




Comment OpenAI utilise-t-il mes données personnelles ? 

Nos grands modèles de langage sont entraînés sur un large corpus de texte qui comprend du contenu accessible au public, du contenu sous licence et du contenu généré par des réviseurs humains. Nous n'utilisons pas de données pour vendre nos services, faire de la publicité ou créer des profils de personnes. 

Nous utilisons des données pour rendre nos modèles plus utiles aux gens. ChatGPT, par exemple, s'améliore grâce à une formation supplémentaire sur les conversations que les gens ont avec lui, à moins que vous ne choisissiez de désactiver la formation. 

Si je désactive l'historique, le paramètre s'applique-t-il à toutes mes conversations ou puis-je choisir des conversations spécifiques pour lesquelles l'activer ? 

Tant que l'historique est désactivé, les nouveaux chats seront supprimés de nos systèmes dans les 30 jours - et examinés uniquement en cas de besoin pour surveiller les abus - et ne seront pas utilisés pour la formation des modèles. Les conversations existantes seront toujours enregistrées et pourront être utilisées pour la formation du modèle si vous ne vous êtes pas désabonné. 

Si je désactive l'historique, que se passe-t-il lorsque la conversation se ferme ? 


Lorsque l'historique est désactivé, la conversation n'apparaîtra pas dans votre historique (sur le côté gauche de l'écran) et ne pourra pas être récupérée. 
Lorsque l'historique des discussions est désactivé, nous conservons les nouvelles conversations pendant 30 jours et ne les examinons que lorsque cela est nécessaire pour surveiller les abus, avant de les supprimer définitivement. 

Existe-t-il des limitations ou des restrictions concernant l'historique et la formation de désactivation ? 

Il n'y a pas de limite au nombre de conversations que vous pouvez avoir lorsque l'historique et la formation sont désactivés. Cela s'applique aux abonnements gratuits et Plus. Auparavant, j'avais choisi de ne pas participer à la formation des modèles en écrivant à l'équipe d'assistance. 

Allez-vous continuer à honorer mon opt-out ? 


Oui, nous continuerons d'honorer les demandes de retrait précédentes. Les nouveaux contrôles de données visent à faciliter la désactivation de l'historique des discussions et à choisir facilement si vos conversations seront utilisées pour former nos modèles 

Que se passe-t-il si je souhaite conserver mon historique mais désactiver l'entraînement du modèle ?


 Nous travaillons sur une nouvelle offre appelée ChatGPT Business qui désactivera par défaut les utilisateurs finaux de la formation des modèles. 

En attendant, vous pouvez vous opposer à l'utilisation de vos données pour améliorer nos services en remplissant ce formulaire. Une fois que vous aurez soumis le formulaire, les nouvelles conversations ne seront pas utilisées pour former nos modèles. 


API


Lire aussi 

Apports démocratiques à l'IA

Notre organisation à but non lucratif, OpenAI, Inc., lance un programme d'attribution de dix subventions de 100 000 $ pour financer des expériences de mise en place d'un processus démocratique pour décider des règles que les systèmes d'IA doivent suivre, dans les limites définies par la loi.
L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.


L'IA aura des impacts économiques et sociétaux importants et de grande envergure. La technologie façonne la vie des individus, la façon dont nous interagissons les uns avec les autres et la façon dont la société dans son ensemble évolue. Nous pensons que les décisions sur le comportement de l'IA doivent être façonnées par diverses perspectives reflétant l'intérêt public. 

Les lois encodent des valeurs et des normes pour réguler les comportements. Au-delà d'un cadre juridique, l'IA, tout comme la société, a besoin de directives plus complexes et adaptatives pour sa conduite. Par exemple : dans quelles conditions les systèmes d'IA devraient-ils condamner ou critiquer des personnalités publiques, compte tenu des opinions différentes d'un groupe à l'autre sur ces personnalités ? Comment les points de vue contestés doivent-ils être représentés dans les résultats de l'IA ? L'IA devrait-elle par défaut refléter la personnalité d'un individu médian dans le monde, le pays de l'utilisateur, la démographie de l'utilisateur ou quelque chose de complètement différent ? Aucun individu, entreprise ou même pays ne devrait dicter ces décisions. 

L'IAG devrait profiter à toute l'humanité et être conçue pour être aussi inclusive que possible. Nous lançons ce programme de subventions pour faire un premier pas dans cette direction. Nous recherchons des équipes du monde entier pour développer des preuves de concepts pour un processus démocratique qui pourraient répondre aux questions sur les règles que les systèmes d'IA devraient suivre. Nous voulons apprendre de ces expériences et les utiliser comme base pour un processus plus global et plus ambitieux à l'avenir. Bien que ces expériences initiales ne soient pas (du moins pour l'instant) destinées à être contraignantes pour les décisions, nous espérons qu'elles exploreront des questions pertinentes pour la prise de décision et construiront de nouveaux outils démocratiques qui pourront éclairer plus directement les décisions à l'avenir.

La gouvernance des systèmes les plus puissants, ainsi que les décisions relatives à leur déploiement, doivent bénéficier d'un contrôle public fort. Cette subvention représente une étape pour établir des processus démocratiques de supervision de l'AGI et, en fin de compte, de la superintelligence. Il sera fourni par l'organisation à but non lucratif OpenAI, et les résultats des études seront librement accessibles.

Calendrier

24 juin 2023 21 h 00, heure du Pacifique : date limite pour soumettre une demande de subvention
14 juillet 2023 : Les candidats retenus seront sélectionnés et notifiés
20 octobre 2023 : Rapport public complet sur le prototype fonctionnel et les résultats.

L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.