samedi 22 février 2025

Réenchanter les maths à l’école (2) - Agir pour l'éducation (2024-2025)



Cycle de conférences dans le cadre du programme « Agir pour l’éducation » (APE) : Réenchanter les maths à l’école

Conférence du 19 février 2025 : Enseigner les maths par des challenges d’IA

Conférenciers : Stéphane Mallat, professeur du Collège de France
Miguel Toquet, IA-IPR de mathématiques sur l’académie de Lille

De l’enfance jusqu’à la recherche, l’aller-retour entre des problèmes concrets et l’abstraction permet de découvrir et comprendre de nouveaux concepts mathématiques. En pratique, il est difficile d’étendre au lycée les approches manipulatoires déployées au primaire, car les mathématiques du programme sont plus complexes et il y a de fortes contraintes de temps.

Pour redonner envie aux élèves, améliorer leur compréhension des mathématiques, le programme MathAData propose aux enseignants du secondaire des problèmes concrets et ludiques, issus de challenges d’IA, sur des sujets aussi divers que la reconnaissance d’images, un diagnostic médical, l’analyse de chants de baleines, la reconnaissance de l’auteur d’un texte… Ces challenges se traduisent rapidement en problèmes mathématiques.

 Codéveloppés avec des professeurs, le matériel pédagogique amène les élèves à comprendre et manipuler les concepts mathématiques de chaque chapitre du programme. Cela passe par des expérimentations numériques en classe, où les élèves développent des solutions créatives pour résoudre le challenge, tout en faisant émerger les mathématiques, puis ils approfondissent leurs connaissances avec des exercices. Ils découvrent aussi les principes mathématiques de l’intelligence artificielle, ce qui devient important pour leur éducation.

Lire la suite du résumé : 

https://www.college-de-france.fr/fr/agenda/grand-evenement/reenchanter-les-maths-ecole

Retrouvez le programme des conférences 2024-2025 :
https://www.college-de-france.fr/fr/a...

Avec le soutien de la Fondation du Collège de France et de ses mécènes LVMH, la Fondation Engie et la Fondation Covéa. 

Le Collège de France est une institution de recherche fondamentale dans tous les domaines de la connaissance et un lieu de diffusion du « savoir en train de se faire » ouvert à tous.
Les cours, séminaires, colloques sont enregistrés puis mis à disposition du public sur le site internet du Collège de France.

Découvrez toutes les ressources du Collège de France : 

Soutenir le Collège de France :


La transcription présente une conférence sur l'intégration de l'intelligence artificielle (IA) dans l'enseignement des mathématiques au lycée. Voici un résumé des points clés abordés :

Contexte et Objectifs :


La conférence est organisée par la Fondation du Collège de France et d'autres institutions pour discuter de l'enseignement des mathématiques et de l'IA.

L'objectif est de "réenchanter" les mathématiques en les rendant plus attractives et compréhensibles pour les élèves.
Problématiques Actuelles :

Les mathématiques sont souvent perçues comme une matière difficile et repoussante, surtout en France.

Les élèves, notamment les filles et ceux issus de milieux défavorisés, montrent une anxiété face aux mathématiques.

Approche Proposée :


Utiliser des problèmes réels et concrets pour enseigner les mathématiques, en lien avec l'IA. Intégrer des expériences numériques et des manipulations pour rendre les concepts plus tangibles.

Encourager une approche expérimentale et ludique pour motiver les élèves.

Rôle de l'IA :


L'IA est vue comme un outil pour aider les élèves à comprendre les fondamentaux mathématiques.

Les élèves utilisent déjà des modèles de langage pour leurs devoirs, il est donc crucial d'intégrer l'IA de manière pédagogique.

Méthodologie :


Utiliser des "challenges" d'IA pour engager les élèves dans des problèmes mathématiques concrets.

Structurer l'enseignement en trois phases : 

poser le cadre, manipuler les outils mathématiques, et interpréter les résultats.
Expérimentations et Résultats :

Des expérimentations ont été menées avec des professeurs et des élèves, montrant des améliorations significatives dans la compréhension et la motivation.

Les élèves ont pu développer des solutions créatives et améliorer leurs scores en résolvant des problèmes d'IA.

Perspectives et Défis :


L'objectif est de passer à l'échelle nationale, en formant plus de professeurs et en intégrant ces méthodes dans le programme scolaire.

Il est crucial de former les enseignants et de les accompagner dans cette transition.
Impact et Bénéfices :

Cette approche vise à redonner du sens et de la motivation pour les mathématiques.
Elle permet également de démystifier l'IA et de montrer son lien avec les mathématiques.

En résumé, 
la conférence met en avant une initiative visant à transformer l'enseignement des mathématiques en intégrant des outils d'IA et des approches pédagogiques innovantes, tout en relevant les défis liés à la mise à l'échelle de ces pratiques.

Erol GIRAUDY 
Www.ugaia.eu 

Quelles sont les puissances de l'IA ? | Une leçon de géopolitique | ARTE


Quelles sont les puissances de l'IA ? | Une leçon de géopolitique | ARTE.


L’intelligence artificielle est désormais un enjeu géopolitique de premier plan. « Celui qui deviendra leader dans l’IA sera le maître du monde », a prédit un jour Vladimir Poutine. Elon Musk a ajouté que « l’IA est bien plus dangereuse que l’arme nucléaire » et « causera probablement une troisième guerre mondiale ». Des propos alarmistes qui ne nous aident pas à comprendre ce qui se joue, à l’échelle internationale, dans cette course au développement d’IA où l’on croise les Etats-Unis, la Chine, mais aussi l’Europe et bien d'autres puissances encore.
Pour en parler, entretien avec Laure de Roucy-Rochegonde, directrice du Centre géopolitique des technologies de l'IFRI, autrice de l’étude : “Promesses artificielles ou régulation réelle ? Inventer la gouvernance mondiale de l’IA”, publiée par l’IFRI le 3 février. 📚 A lire aussi : La guerre à l'ère de l'intelligence artificielle, PUF, octobre 2024 Magazine (2024, 12mn) 📩 La newsletter du Dessous des Cartes 👉 https://inscription-newsletter-ddc.ar... 📕 Commandez le nouvel atlas "Le Dessous des Cartes - La puissance et la mer", d'Émilie Aubry et Frank Tétart, Tallandier et Arte Editions https://bit.ly/Atlas_DDC 👉 Abonnez-vous à notre chaîne ! http://bit.ly/DDC_YouTube 👉 Retrouvez également Le Dessous des cartes sur Facebook.   / ledessousdes.  . 💻 Retrouvez toutes les émissions d'Émilie Aubry en VOD : http://bit.ly/DDC_VOD. 👉 L’intégrale des émissions de Jean-Christophe Victor (VOD et DVD) sur la boutique d’ARTE. http://bit.ly/DDC_Boutique




ChatGPT m'a remplacée ?


Aujourd’hui, on va parler d’un outil qui s'est ancré dans notre quotidien : ChatGPT.


Pour tout vous dire, ça fait 2 ans qu’il est devenu un pilier au quotidien, au point que je le considère presque comme un membre de mon équipe à part entière.

👉 Rédiger mes mails en un éclair,
👉 Structurer une présentation client quand le temps presse,
👉 Débloquer ma créativité quand je sèche sur mes contenus pour les réseaux…

Mais une question me trotte dans la tête – et peut-être dans la vôtre aussi :
Est-ce qu’un jour ChatGPT pourrait carrément me remplacer ?

Dans cette vidéo, je vous embarque dans les coulisses de mon business pour vous montrer tout ce que je délègue déjà à ChatGPT pour gagner en productivité & en créativité. Let's go ! 🎬



Résumé de la vidéo "ChatGPT m'a remplacée ?"

Utilisation quotidienne de ChatGPT

L'auteur utilise ChatGPT pour de nombreuses tâches : répondre à des emails, structurer des présentations, rédiger du contenu pour les réseaux sociaux, et brainstormer des idées.
Elle admet utiliser ChatGPT plus fréquemment que de parler à d'autres personnes.
Évolution et efficacité accrue

En deux ans, l'efficacité de ChatGPT a beaucoup évolué, passant de textes nécessitant beaucoup de réécriture à des assistants spécialisés et performants grâce à GPT-4.
La vision et l'analyse d'images facilitent des tâches comme la correction de formules dans Google Sheets.
Réflexion sur la dépendance et l'impact sur les compétences

L'auteur s'interroge sur sa dépendance à ChatGPT et sur la possibilité de perdre certaines compétences à force de déléguer des tâches qu'elle savait faire seule auparavant.
Elle se demande si l'IA finira par dépasser les humains et rendre certaines compétences obsolètes.
Limites de ChatGPT

Absence d'opinion et de perspective humaine : ChatGPT n'a pas d'avis personnel et présente toutes les informations au même niveau de vérité.
Biais et véracité des informations : ChatGPT peut reproduire des biais humains présents dans les données sur lesquelles il a été entraîné.
Incapacité à remplacer l'expérience humaine

ChatGPT ne vit pas d'expériences et ne ressent pas d'émotions, limitant sa capacité à créer du contenu authentique et émotionnellement impactant.
L'auteur estime que ses expériences réelles nourrissent sa créativité et son contenu, ce qu'une IA ne peut pas reproduire.
Utilisation stratégique pour la productivité et le SEO

L'auteur utilise ChatGPT pour décliner du contenu existant en articles de blog optimisés pour le SEO.
Cette stratégie a considérablement augmenté le trafic organique sur son site web.
ChatGPT comme assistant créatif

ChatGPT aide à générer des idées, structurer des argumentaires, et reformuler des emails.
L'outil permet de se concentrer sur la valeur ajoutée en déléguant les tâches répétitives.
Conclusion : complémentarité plutôt que remplacement

L'auteur voit ChatGPT comme un assistant puissant, mais incapable de remplacer la créativité et l'émotion humaine.

La vidéo se termine par une réflexion sur l'authenticité de son contenu, laissant le spectateur se demander si cette vidéo a été rédigée avec ou sans IA.


Les grands modèles de langage (LLM) sont généralement optimisés pour répondre aux questions des utilisateurs.

Mais il existe une tendance à ce que les modèles soient également optimisés pour s'adapter aux flux de travail des agents. Cela donnera un énorme coup de pouce aux performances des agents !

Après le succès retentissant de ChatGPT pour répondre aux questions, une grande partie du développement des LLM s'est concentrée sur la fourniture d'une bonne expérience client. 

Les LLM ont donc été réglés pour répondre aux questions (« Pourquoi Shakespeare a-t-il écrit Macbeth ? ») ou suivre les instructions fournies par l'homme (« Expliquez pourquoi Shakespeare a écrit Macbeth »). 

Une grande partie des ensembles de données pour le réglage des instructions guident les modèles pour fournir des réponses plus utiles aux questions et instructions écrites par l'homme du type de celles que l'on pourrait poser à un LLM destiné aux consommateurs, comme celles proposées par les interfaces Web de ChatGPT, Claude ou Gemini.

Mais les charges de travail des agents font appel à des comportements différents. Plutôt que de générer directement des réponses pour les consommateurs, les logiciels d'IA peuvent utiliser un modèle dans le cadre d'un flux de travail itératif pour réfléchir à leur propre production, utiliser des outils, rédiger des plans et collaborer dans un environnement multi-agents. Les principaux créateurs de modèles optimisent de plus en plus les modèles destinés à être utilisés dans les agents d’IA.

Prenons l’exemple de l’utilisation d’outils (ou de l’appel de fonctions). Si un LLM est interrogé sur la météo actuelle, il ne pourra pas extraire les informations nécessaires de ses données d’entraînement. Au lieu de cela, il peut générer une demande d’appel d’API pour obtenir ces informations. Même avant que GPT-4 ne prenne en charge nativement les appels de fonctions, les développeurs d’applications utilisaient déjà des LLM pour générer des appels de fonctions, mais en écrivant des invites plus complexes (telles que des variantes d’invites ReAct) qui indiquent au LLM quelles fonctions sont disponibles, puis lui permettent de générer une chaîne qu’une routine logicielle distincte analyse (peut-être avec des expressions régulières) pour déterminer s’il souhaite appeler une fonction.

La génération de tels appels est devenue beaucoup plus fiable après GPT-4, puis de nombreux autres modèles ont pris en charge nativement l’appel de fonctions. Aujourd’hui, les LLM peuvent décider d’appeler des fonctions pour rechercher des informations pour la génération augmentée de récupération (RAG), exécuter du code, envoyer des e-mails, passer des commandes en ligne, et bien plus encore.

Un homme tenant des outils, disant « J’ai optimisé pour l’utilisation d’outils ! » tandis qu’une femme à l’ordinateur répond : « Vous auriez dû optimiser pour l’utilisation d’un ordinateur ! »
Récemment, Anthropic a publié une version de son modèle capable d’être utilisée sur ordinateur, en utilisant des clics de souris et des frappes de touches pour faire fonctionner un ordinateur (généralement une machine virtuelle). J’ai aimé jouer avec la démo. Alors que d’autres équipes ont incité les LLM à utiliser des ordinateurs pour créer une nouvelle génération d’applications RPA (automatisation des processus robotisés), la prise en charge native de l’utilisation d’ordinateurs par un fournisseur majeur de LLM est un grand pas en avant. Cela aidera de nombreux développeurs !

À mesure que les flux de travail agentiques mûrissent, voici ce que je constate :


Tout d’abord, de nombreux développeurs incitent les LLM à exécuter les comportements agentiques qu’ils souhaitent. Cela permet une exploration rapide et riche !

Dans un nombre beaucoup plus restreint de cas, les développeurs qui travaillent sur des applications très précieuses affineront les LLM pour exécuter des fonctions agentiques particulières de manière plus fiable. Par exemple, même si de nombreux LLM prennent en charge l’appel de fonction de manière native, ils le font en prenant comme entrée une description des fonctions disponibles, puis (espérons-le) en générant des jetons de sortie pour demander l’appel de fonction approprié. Pour les applications critiques pour lesquelles la génération du bon appel de fonction est importante, le réglage fin d’un modèle pour les appels de fonction spécifiques de votre application augmente considérablement la fiabilité. (Mais évitez l’optimisation prématurée ! Aujourd’hui, je vois encore trop d’équipes peaufiner alors qu’elles devraient probablement passer plus de temps à demander des explications avant de recourir à cela.)

Enfin, lorsqu’une capacité telle que l’utilisation d’outils ou d’ordinateurs semble utile à de nombreux développeurs, les principaux fournisseurs de LLM intègrent ces capacités directement dans leurs modèles. Même si le raisonnement avancé d’OpenAI o1-preview aide les consommateurs, je m’attends à ce qu’il soit encore plus utile pour le raisonnement et la planification agentiques.

La plupart des LLM ont été optimisés pour répondre à des questions principalement pour offrir une bonne expérience client, et nous avons pu les « greffer » dans des flux de travail agentiques complexes pour créer des applications précieuses. La tendance des LLM conçus pour prendre en charge des opérations particulières dans les agents de manière native va créer un énorme avantage pour les performances des agents. Je suis convaincu que nous réaliserons d'importants gains de performances des agents dans cette direction au cours des prochaines années.


News

Performance comparison of models across tasks in English, Chinese, Math, and Code, with Hunyuan-Large leading in most metrics.

Un mélange d'experts prend de l'avance


Un nouveau modèle de langage open source de grande taille surpasse ses concurrents, notamment le modèle à pondération ouverte Llama 3.1 405B, sur une variété de benchmarks.


Nouveautés : 

Tencent a publié Hunyuan-Large, un modèle à mélange d'experts avec code et pondération ouverts. Il est disponible en versions de base et optimisé pour les instructions, toutes deux capables de traiter une fenêtre de contexte d'entrée relativement large de 256 000 jetons. Il est gratuit pour les développeurs hors de l'Union européenne qui ont moins de 100 millions d'utilisateurs mensuels. Vous pouvez l'expérimenter ici.


Principes de base du mélange d'experts (MoE) : 

l'architecture MoE utilise différents sous-ensembles de ses paramètres pour traiter différentes entrées. Chaque couche MoE contient un groupe de réseaux neuronaux, ou experts, précédés d'un module de contrôle qui apprend à choisir lequel(s) utiliser en fonction de l'entrée. De cette façon, différents experts apprennent à se spécialiser dans différents types d'exemples. Comme tous les paramètres ne sont pas utilisés pour produire une sortie donnée, le réseau utilise moins d'énergie et fonctionne plus rapidement que les modèles de taille similaire qui utilisent tous les paramètres pour traiter chaque entrée.

Comment ça marche : 

Hunyuan-Large comprend 389 milliards de paramètres mais utilise 52 milliards de paramètres pour traiter une entrée donnée. L'équipe a pré-entraîné le modèle sur 7 000 milliards de jetons principalement de texte anglais et chinois, dont 5 500 milliards de jetons provenaient de sources non spécifiées et 1 500 milliards de jetons synthétiques ont été générés par des modèles linguistiques volumineux non spécifiés. Les modèles utilisés pour générer les données d'entraînement étaient « spécialisés » pour fournir des réponses de niveau expert dans divers domaines. L'équipe a peaufiné Hunyuan-Large sur des ensembles de données non spécifiés d'instructions et de commentaires humains.

Les modèles MoE sélectionnent généralement le ou les experts à utiliser en fonction de l'entrée. Hunyuan-Large choisit l'un des 16 experts, mais il utilise également un expert partagé, un expert qui traite chaque entrée.

Des recherches récentes ont montré qu'il existe une formule pour le taux d'apprentissage optimal basé sur la taille du lot (le nombre d'exemples qu'un modèle voit au cours d'une étape de formation). L'expert partagé et l'expert choisi voient une quantité différente de données à chaque étape de formation, donc l'équipe a modifié le taux d'apprentissage pour l'expert choisi en fonction de cette formule.

Résultats : 

L'équipe a comparé les modèles Hunyuan-Large à quatre modèles open source et à leurs versions adaptées aux instructions : 

Llama 3.1 70B, Llama 3.1 405B et les modèles MoE Mixtral-8x22B et DeepSeek-V2.

Hunyuan-Large a obtenu les meilleures performances sur 15 des 19 tests de référence qui testent les compétences en anglais, en chinois, en mathématiques et en codage. Par exemple, sur MMLU (réponses à des questions à choix multiples sur des sujets tels que les mathématiques élémentaires, l'histoire, l'informatique et le droit), Hunyuan-Large a obtenu une précision de 88,4 %. Le concurrent suivant, Llama 3.1 405B, a atteint 85,2 %.

La version optimisée pour les instructions a obtenu les meilleures performances sur 10 des 13 tests, notamment sur les mesures de la capacité de suivi des instructions et de l'alignement avec certaines préférences humaines. Par exemple, Hunyuan-Large-Instruct a maintenu sa domination sur MMLU (précision de 89,9 % contre 887,3 % pour Llama 3.1 405B Instruct). Sur AlpacaEval 2, un test de suivi des instructions, Hunyuan-Large-Instruct a obtenu 51,8 %, tandis que son concurrent suivant, DeepSeek 2.5 Chat, a obtenu 50,5 %.

Pourquoi c'est important : 

Hunyuan-Large surpasse généralement Llama 405B, atteignant les performances d'un modèle de 405 milliards de paramètres tout en ne calculant que 52 milliards de paramètres. Il s'agit d'une exigence de traitement nettement inférieure, et le modèle est gratuit pour de nombreuses utilisations.

Nous pensons : 

en mettant de côté Switch Transformer, un mastodonte de 1,6 billion de paramètres qui a été construit pour tester les limites de la taille plutôt que des performances, Hunyuan-Large est l'un des plus grands modèles MoE que nous ayons rencontrés. C'est une démonstration impressionnante de ce que les modèles MoE plus grands peuvent accomplir.


Quoi de neuf : 

Meta a mis à disposition du gouvernement américain sa gamme de modèles de langage Llama à des fins de sécurité nationale, ce qui constitue un changement majeur dans sa politique sur les applications militaires. De même, Anthropic proposera ses modèles Claude aux agences de renseignement et de défense américaines.

Comment cela fonctionne : 

Meta et Anthropic s’appuient sur des partenariats avec des sous-traitants gouvernementaux pour répondre aux exigences de sécurité et d’approvisionnement des travaux militaires et de renseignement.

Les partenaires de Meta sur les marchés de la défense et du renseignement comprennent Accenture, Amazon, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. Ces entreprises intégreront les modèles Llama dans les applications du gouvernement américain dans des domaines tels que la logistique, la cybersécurité, l’analyse du renseignement et le suivi des activités financières des terroristes.

Certains partenaires de Meta ont créé des versions spécialisées de Llama. Par exemple, Scale AI a peaufiné Llama 3 pour les applications de sécurité nationale. Baptisé Defense Llama, ce modèle affiné peut aider à des tâches telles que la planification d’opérations militaires et l’analyse des vulnérabilités d’un adversaire.

Anthropic mettra ses familles de modèles Claude 3 et 3.5 à la disposition des agences de défense et de renseignement américaines via une plateforme construite par Palantir, qui fournit des analyses de big data aux gouvernements, et hébergée par Amazon Web Services. Le gouvernement utilisera Claude pour examiner des documents, trouver des modèles dans de grandes quantités de données et aider les responsables à prendre des décisions.

Derrière l’actualité : 

En 2018, Google a dû faire face à des réactions négatives lorsqu’il a remporté un contrat avec le gouvernement américain pour construire le projet Maven, une plateforme de renseignement assistée par l’IA. Les employés ont protesté, démissionné et ont demandé à l’entreprise d’éviter les travaux d’IA militaire. Google s’est retiré du projet et Palantir l’a repris. 

Par la suite, de nombreux développeurs d’IA, dont Meta et Anthropic, ont interdit l’utilisation de leurs modèles pour des applications militaires. La nouvelle disponibilité de Llama pour les agences militaires et de renseignement américaines est une exception notable. En juillet, Anthropic a également commencé à adapter l’utilisation de ses modèles à des fins de renseignement. Anthropic interdit toujours d’utiliser Claude pour développer des armes ou lancer des cyberattaques.

Pourquoi c’est important : 

Le changement de politique de Meta et d’Anthropic en matière d’utilisation militaire de l’IA est capital. Dernièrement, l’IA est devenue un élément incontournable du champ de bataille sous la forme de drones armés, et les entreprises d’IA doivent veiller à ce que leurs nouvelles politiques soient cohérentes avec le respect des droits de l’homme. Les utilisations militaires de l’IA comprennent non seulement le développement et le ciblage d’armes, mais aussi la recherche et le sauvetage, la logistique, le renseignement et les communications qui peuvent sauver des vies. De plus, les contrats de défense représentent des opportunités majeures pour les entreprises d’IA qui peuvent financer des recherches et des applications largement bénéfiques.

Nous pensons : 

les nations éprises de paix sont confrontées à des défis de sécurité difficiles, et l’IA peut être utile pour les relever. Dans le même temps, la militarisation de l’IA pose des défis pour le maintien de la paix et de la stabilité, le respect des droits de l’homme et le maintien du contrôle humain sur les systèmes autonomes. Nous appelons les développeurs d’IA militaire à respecter les lignes directrices proposées par Responsible Artificial Intelligence in the Military, qui sont approuvées par plus de 60 pays et appellent à une gouvernance solide, à une surveillance, à la responsabilité et au respect des droits de l’homme.


https://www.deeplearning.ai/the-batch/



https://github.com/jianzhnie/awesome-instruction-datasets?utm_campaign=The%20Batch&utm_medium=email&_hsenc=p2ANqtz-8dhKESzj5-1XHx2MR-IErgJz1u62aU-D7-ekv36Om1tFlOopkas8RFnESVgqqpq6_QpCuIfHHKvwPr8oAVkV5tTR_Kbg&_hsmi=333812411&utm_content=333810591&utm_source=hs_email



https://github.com/anthropics/anthropic-quickstarts/tree/main/computer-use-demo?utm_campaign=The%20Batch&utm_medium=email&_hsenc=p2ANqtz--72DqsYU12T11DBrtR5KSd5Mi-g4yiK2GfVsFBz3VJSCFV2pnxKINMfDXCEnxJ2NEVzVHgvsummxiM_iFS_BKZ1pqWBw&_hsmi=333812411&utm_content=333810591&utm_source=hs_email