Affichage des articles dont le libellé est ChatGPT. Afficher tous les articles
Affichage des articles dont le libellé est ChatGPT. Afficher tous les articles

samedi 22 février 2025

ChatGPT m'a remplacée ?


Aujourd’hui, on va parler d’un outil qui s'est ancré dans notre quotidien : ChatGPT.


Pour tout vous dire, ça fait 2 ans qu’il est devenu un pilier au quotidien, au point que je le considère presque comme un membre de mon équipe à part entière.

👉 Rédiger mes mails en un éclair,
👉 Structurer une présentation client quand le temps presse,
👉 Débloquer ma créativité quand je sèche sur mes contenus pour les réseaux…

Mais une question me trotte dans la tête – et peut-être dans la vôtre aussi :
Est-ce qu’un jour ChatGPT pourrait carrément me remplacer ?

Dans cette vidéo, je vous embarque dans les coulisses de mon business pour vous montrer tout ce que je délègue déjà à ChatGPT pour gagner en productivité & en créativité. Let's go ! 🎬



Résumé de la vidéo "ChatGPT m'a remplacée ?"

Utilisation quotidienne de ChatGPT

L'auteur utilise ChatGPT pour de nombreuses tâches : répondre à des emails, structurer des présentations, rédiger du contenu pour les réseaux sociaux, et brainstormer des idées.
Elle admet utiliser ChatGPT plus fréquemment que de parler à d'autres personnes.
Évolution et efficacité accrue

En deux ans, l'efficacité de ChatGPT a beaucoup évolué, passant de textes nécessitant beaucoup de réécriture à des assistants spécialisés et performants grâce à GPT-4.
La vision et l'analyse d'images facilitent des tâches comme la correction de formules dans Google Sheets.
Réflexion sur la dépendance et l'impact sur les compétences

L'auteur s'interroge sur sa dépendance à ChatGPT et sur la possibilité de perdre certaines compétences à force de déléguer des tâches qu'elle savait faire seule auparavant.
Elle se demande si l'IA finira par dépasser les humains et rendre certaines compétences obsolètes.
Limites de ChatGPT

Absence d'opinion et de perspective humaine : ChatGPT n'a pas d'avis personnel et présente toutes les informations au même niveau de vérité.
Biais et véracité des informations : ChatGPT peut reproduire des biais humains présents dans les données sur lesquelles il a été entraîné.
Incapacité à remplacer l'expérience humaine

ChatGPT ne vit pas d'expériences et ne ressent pas d'émotions, limitant sa capacité à créer du contenu authentique et émotionnellement impactant.
L'auteur estime que ses expériences réelles nourrissent sa créativité et son contenu, ce qu'une IA ne peut pas reproduire.
Utilisation stratégique pour la productivité et le SEO

L'auteur utilise ChatGPT pour décliner du contenu existant en articles de blog optimisés pour le SEO.
Cette stratégie a considérablement augmenté le trafic organique sur son site web.
ChatGPT comme assistant créatif

ChatGPT aide à générer des idées, structurer des argumentaires, et reformuler des emails.
L'outil permet de se concentrer sur la valeur ajoutée en déléguant les tâches répétitives.
Conclusion : complémentarité plutôt que remplacement

L'auteur voit ChatGPT comme un assistant puissant, mais incapable de remplacer la créativité et l'émotion humaine.

La vidéo se termine par une réflexion sur l'authenticité de son contenu, laissant le spectateur se demander si cette vidéo a été rédigée avec ou sans IA.


Les grands modèles de langage (LLM) sont généralement optimisés pour répondre aux questions des utilisateurs.

Mais il existe une tendance à ce que les modèles soient également optimisés pour s'adapter aux flux de travail des agents. Cela donnera un énorme coup de pouce aux performances des agents !

Après le succès retentissant de ChatGPT pour répondre aux questions, une grande partie du développement des LLM s'est concentrée sur la fourniture d'une bonne expérience client. 

Les LLM ont donc été réglés pour répondre aux questions (« Pourquoi Shakespeare a-t-il écrit Macbeth ? ») ou suivre les instructions fournies par l'homme (« Expliquez pourquoi Shakespeare a écrit Macbeth »). 

Une grande partie des ensembles de données pour le réglage des instructions guident les modèles pour fournir des réponses plus utiles aux questions et instructions écrites par l'homme du type de celles que l'on pourrait poser à un LLM destiné aux consommateurs, comme celles proposées par les interfaces Web de ChatGPT, Claude ou Gemini.

Mais les charges de travail des agents font appel à des comportements différents. Plutôt que de générer directement des réponses pour les consommateurs, les logiciels d'IA peuvent utiliser un modèle dans le cadre d'un flux de travail itératif pour réfléchir à leur propre production, utiliser des outils, rédiger des plans et collaborer dans un environnement multi-agents. Les principaux créateurs de modèles optimisent de plus en plus les modèles destinés à être utilisés dans les agents d’IA.

Prenons l’exemple de l’utilisation d’outils (ou de l’appel de fonctions). Si un LLM est interrogé sur la météo actuelle, il ne pourra pas extraire les informations nécessaires de ses données d’entraînement. Au lieu de cela, il peut générer une demande d’appel d’API pour obtenir ces informations. Même avant que GPT-4 ne prenne en charge nativement les appels de fonctions, les développeurs d’applications utilisaient déjà des LLM pour générer des appels de fonctions, mais en écrivant des invites plus complexes (telles que des variantes d’invites ReAct) qui indiquent au LLM quelles fonctions sont disponibles, puis lui permettent de générer une chaîne qu’une routine logicielle distincte analyse (peut-être avec des expressions régulières) pour déterminer s’il souhaite appeler une fonction.

La génération de tels appels est devenue beaucoup plus fiable après GPT-4, puis de nombreux autres modèles ont pris en charge nativement l’appel de fonctions. Aujourd’hui, les LLM peuvent décider d’appeler des fonctions pour rechercher des informations pour la génération augmentée de récupération (RAG), exécuter du code, envoyer des e-mails, passer des commandes en ligne, et bien plus encore.

Un homme tenant des outils, disant « J’ai optimisé pour l’utilisation d’outils ! » tandis qu’une femme à l’ordinateur répond : « Vous auriez dû optimiser pour l’utilisation d’un ordinateur ! »
Récemment, Anthropic a publié une version de son modèle capable d’être utilisée sur ordinateur, en utilisant des clics de souris et des frappes de touches pour faire fonctionner un ordinateur (généralement une machine virtuelle). J’ai aimé jouer avec la démo. Alors que d’autres équipes ont incité les LLM à utiliser des ordinateurs pour créer une nouvelle génération d’applications RPA (automatisation des processus robotisés), la prise en charge native de l’utilisation d’ordinateurs par un fournisseur majeur de LLM est un grand pas en avant. Cela aidera de nombreux développeurs !

À mesure que les flux de travail agentiques mûrissent, voici ce que je constate :


Tout d’abord, de nombreux développeurs incitent les LLM à exécuter les comportements agentiques qu’ils souhaitent. Cela permet une exploration rapide et riche !

Dans un nombre beaucoup plus restreint de cas, les développeurs qui travaillent sur des applications très précieuses affineront les LLM pour exécuter des fonctions agentiques particulières de manière plus fiable. Par exemple, même si de nombreux LLM prennent en charge l’appel de fonction de manière native, ils le font en prenant comme entrée une description des fonctions disponibles, puis (espérons-le) en générant des jetons de sortie pour demander l’appel de fonction approprié. Pour les applications critiques pour lesquelles la génération du bon appel de fonction est importante, le réglage fin d’un modèle pour les appels de fonction spécifiques de votre application augmente considérablement la fiabilité. (Mais évitez l’optimisation prématurée ! Aujourd’hui, je vois encore trop d’équipes peaufiner alors qu’elles devraient probablement passer plus de temps à demander des explications avant de recourir à cela.)

Enfin, lorsqu’une capacité telle que l’utilisation d’outils ou d’ordinateurs semble utile à de nombreux développeurs, les principaux fournisseurs de LLM intègrent ces capacités directement dans leurs modèles. Même si le raisonnement avancé d’OpenAI o1-preview aide les consommateurs, je m’attends à ce qu’il soit encore plus utile pour le raisonnement et la planification agentiques.

La plupart des LLM ont été optimisés pour répondre à des questions principalement pour offrir une bonne expérience client, et nous avons pu les « greffer » dans des flux de travail agentiques complexes pour créer des applications précieuses. La tendance des LLM conçus pour prendre en charge des opérations particulières dans les agents de manière native va créer un énorme avantage pour les performances des agents. Je suis convaincu que nous réaliserons d'importants gains de performances des agents dans cette direction au cours des prochaines années.


News

Performance comparison of models across tasks in English, Chinese, Math, and Code, with Hunyuan-Large leading in most metrics.

Un mélange d'experts prend de l'avance


Un nouveau modèle de langage open source de grande taille surpasse ses concurrents, notamment le modèle à pondération ouverte Llama 3.1 405B, sur une variété de benchmarks.


Nouveautés : 

Tencent a publié Hunyuan-Large, un modèle à mélange d'experts avec code et pondération ouverts. Il est disponible en versions de base et optimisé pour les instructions, toutes deux capables de traiter une fenêtre de contexte d'entrée relativement large de 256 000 jetons. Il est gratuit pour les développeurs hors de l'Union européenne qui ont moins de 100 millions d'utilisateurs mensuels. Vous pouvez l'expérimenter ici.


Principes de base du mélange d'experts (MoE) : 

l'architecture MoE utilise différents sous-ensembles de ses paramètres pour traiter différentes entrées. Chaque couche MoE contient un groupe de réseaux neuronaux, ou experts, précédés d'un module de contrôle qui apprend à choisir lequel(s) utiliser en fonction de l'entrée. De cette façon, différents experts apprennent à se spécialiser dans différents types d'exemples. Comme tous les paramètres ne sont pas utilisés pour produire une sortie donnée, le réseau utilise moins d'énergie et fonctionne plus rapidement que les modèles de taille similaire qui utilisent tous les paramètres pour traiter chaque entrée.

Comment ça marche : 

Hunyuan-Large comprend 389 milliards de paramètres mais utilise 52 milliards de paramètres pour traiter une entrée donnée. L'équipe a pré-entraîné le modèle sur 7 000 milliards de jetons principalement de texte anglais et chinois, dont 5 500 milliards de jetons provenaient de sources non spécifiées et 1 500 milliards de jetons synthétiques ont été générés par des modèles linguistiques volumineux non spécifiés. Les modèles utilisés pour générer les données d'entraînement étaient « spécialisés » pour fournir des réponses de niveau expert dans divers domaines. L'équipe a peaufiné Hunyuan-Large sur des ensembles de données non spécifiés d'instructions et de commentaires humains.

Les modèles MoE sélectionnent généralement le ou les experts à utiliser en fonction de l'entrée. Hunyuan-Large choisit l'un des 16 experts, mais il utilise également un expert partagé, un expert qui traite chaque entrée.

Des recherches récentes ont montré qu'il existe une formule pour le taux d'apprentissage optimal basé sur la taille du lot (le nombre d'exemples qu'un modèle voit au cours d'une étape de formation). L'expert partagé et l'expert choisi voient une quantité différente de données à chaque étape de formation, donc l'équipe a modifié le taux d'apprentissage pour l'expert choisi en fonction de cette formule.

Résultats : 

L'équipe a comparé les modèles Hunyuan-Large à quatre modèles open source et à leurs versions adaptées aux instructions : 

Llama 3.1 70B, Llama 3.1 405B et les modèles MoE Mixtral-8x22B et DeepSeek-V2.

Hunyuan-Large a obtenu les meilleures performances sur 15 des 19 tests de référence qui testent les compétences en anglais, en chinois, en mathématiques et en codage. Par exemple, sur MMLU (réponses à des questions à choix multiples sur des sujets tels que les mathématiques élémentaires, l'histoire, l'informatique et le droit), Hunyuan-Large a obtenu une précision de 88,4 %. Le concurrent suivant, Llama 3.1 405B, a atteint 85,2 %.

La version optimisée pour les instructions a obtenu les meilleures performances sur 10 des 13 tests, notamment sur les mesures de la capacité de suivi des instructions et de l'alignement avec certaines préférences humaines. Par exemple, Hunyuan-Large-Instruct a maintenu sa domination sur MMLU (précision de 89,9 % contre 887,3 % pour Llama 3.1 405B Instruct). Sur AlpacaEval 2, un test de suivi des instructions, Hunyuan-Large-Instruct a obtenu 51,8 %, tandis que son concurrent suivant, DeepSeek 2.5 Chat, a obtenu 50,5 %.

Pourquoi c'est important : 

Hunyuan-Large surpasse généralement Llama 405B, atteignant les performances d'un modèle de 405 milliards de paramètres tout en ne calculant que 52 milliards de paramètres. Il s'agit d'une exigence de traitement nettement inférieure, et le modèle est gratuit pour de nombreuses utilisations.

Nous pensons : 

en mettant de côté Switch Transformer, un mastodonte de 1,6 billion de paramètres qui a été construit pour tester les limites de la taille plutôt que des performances, Hunyuan-Large est l'un des plus grands modèles MoE que nous ayons rencontrés. C'est une démonstration impressionnante de ce que les modèles MoE plus grands peuvent accomplir.


Quoi de neuf : 

Meta a mis à disposition du gouvernement américain sa gamme de modèles de langage Llama à des fins de sécurité nationale, ce qui constitue un changement majeur dans sa politique sur les applications militaires. De même, Anthropic proposera ses modèles Claude aux agences de renseignement et de défense américaines.

Comment cela fonctionne : 

Meta et Anthropic s’appuient sur des partenariats avec des sous-traitants gouvernementaux pour répondre aux exigences de sécurité et d’approvisionnement des travaux militaires et de renseignement.

Les partenaires de Meta sur les marchés de la défense et du renseignement comprennent Accenture, Amazon, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. Ces entreprises intégreront les modèles Llama dans les applications du gouvernement américain dans des domaines tels que la logistique, la cybersécurité, l’analyse du renseignement et le suivi des activités financières des terroristes.

Certains partenaires de Meta ont créé des versions spécialisées de Llama. Par exemple, Scale AI a peaufiné Llama 3 pour les applications de sécurité nationale. Baptisé Defense Llama, ce modèle affiné peut aider à des tâches telles que la planification d’opérations militaires et l’analyse des vulnérabilités d’un adversaire.

Anthropic mettra ses familles de modèles Claude 3 et 3.5 à la disposition des agences de défense et de renseignement américaines via une plateforme construite par Palantir, qui fournit des analyses de big data aux gouvernements, et hébergée par Amazon Web Services. Le gouvernement utilisera Claude pour examiner des documents, trouver des modèles dans de grandes quantités de données et aider les responsables à prendre des décisions.

Derrière l’actualité : 

En 2018, Google a dû faire face à des réactions négatives lorsqu’il a remporté un contrat avec le gouvernement américain pour construire le projet Maven, une plateforme de renseignement assistée par l’IA. Les employés ont protesté, démissionné et ont demandé à l’entreprise d’éviter les travaux d’IA militaire. Google s’est retiré du projet et Palantir l’a repris. 

Par la suite, de nombreux développeurs d’IA, dont Meta et Anthropic, ont interdit l’utilisation de leurs modèles pour des applications militaires. La nouvelle disponibilité de Llama pour les agences militaires et de renseignement américaines est une exception notable. En juillet, Anthropic a également commencé à adapter l’utilisation de ses modèles à des fins de renseignement. Anthropic interdit toujours d’utiliser Claude pour développer des armes ou lancer des cyberattaques.

Pourquoi c’est important : 

Le changement de politique de Meta et d’Anthropic en matière d’utilisation militaire de l’IA est capital. Dernièrement, l’IA est devenue un élément incontournable du champ de bataille sous la forme de drones armés, et les entreprises d’IA doivent veiller à ce que leurs nouvelles politiques soient cohérentes avec le respect des droits de l’homme. Les utilisations militaires de l’IA comprennent non seulement le développement et le ciblage d’armes, mais aussi la recherche et le sauvetage, la logistique, le renseignement et les communications qui peuvent sauver des vies. De plus, les contrats de défense représentent des opportunités majeures pour les entreprises d’IA qui peuvent financer des recherches et des applications largement bénéfiques.

Nous pensons : 

les nations éprises de paix sont confrontées à des défis de sécurité difficiles, et l’IA peut être utile pour les relever. Dans le même temps, la militarisation de l’IA pose des défis pour le maintien de la paix et de la stabilité, le respect des droits de l’homme et le maintien du contrôle humain sur les systèmes autonomes. Nous appelons les développeurs d’IA militaire à respecter les lignes directrices proposées par Responsible Artificial Intelligence in the Military, qui sont approuvées par plus de 60 pays et appellent à une gouvernance solide, à une surveillance, à la responsabilité et au respect des droits de l’homme.


https://www.deeplearning.ai/the-batch/



https://github.com/jianzhnie/awesome-instruction-datasets?utm_campaign=The%20Batch&utm_medium=email&_hsenc=p2ANqtz-8dhKESzj5-1XHx2MR-IErgJz1u62aU-D7-ekv36Om1tFlOopkas8RFnESVgqqpq6_QpCuIfHHKvwPr8oAVkV5tTR_Kbg&_hsmi=333812411&utm_content=333810591&utm_source=hs_email



https://github.com/anthropics/anthropic-quickstarts/tree/main/computer-use-demo?utm_campaign=The%20Batch&utm_medium=email&_hsenc=p2ANqtz--72DqsYU12T11DBrtR5KSd5Mi-g4yiK2GfVsFBz3VJSCFV2pnxKINMfDXCEnxJ2NEVzVHgvsummxiM_iFS_BKZ1pqWBw&_hsmi=333812411&utm_content=333810591&utm_source=hs_email



samedi 14 décembre 2024

Les évolutions de ChatGPT 0-20-200

Passer au plan supérieur...  de ChatGPT 

0 - 20 -200.

Les offres et les tarifs peuvent avoir un impact significatif sur l'expérience utilisateur, alors examinons cela de plus près :

1. **Plan Gratuit :**
    - C'est super pour ceux qui découvrent l'IA et qui veulent explorer ses fonctionnalités de base sans engagement.
    - Limitations sur certaines fonctionnalités avancées comme l'analyse de données et la génération d'images.

2. **ChatGPT Plus (20 USD/mois) :**
    - Offre un meilleur rapport qualité/prix avec des capacités étendues pour l'envoi de messages et l'utilisation de fonctionnalités avancées.
    - Accès à des modes vocaux et des entrées vidéo améliorés.

3. **ChatGPT Pro (200 USD/mois) :**
    - C'est l'option ultime pour ceux qui ont des besoins intensifs et spécifiques.
    - Accès illimité aux modèles avancés et des capacités de calcul renforcées, ainsi qu'à la génération de vidéos Sora.

Mes Réflexions

- **Équilibre Fonctionnalités/Prix** : 
Les différentes offres permettent de répondre aux divers besoins et budgets. Le plan gratuit est idéal pour les utilisateurs occasionnels, tandis que les professionnels et les entreprises pourraient tirer grand avantage des plans Plus et Pro.

- **Avantages Pro** : 
L'accès illimité et les capacités de calcul renforcées du plan Pro sont un véritable atout pour ceux qui dépendent fortement de l'IA pour leurs tâches quotidiennes.

Mon point de vue 

J'ai testé les nouvelles fonctions de ChatGPT, c'est intéressant, avec une capacité de charger un document à partir d'un Drive (pour mon cas OneDrive de Microsoft) et celle d'améliorer les réponses et de réviser les écrits. 

Tout ceci avec une version gratuite.  











Concepts clés :

Concepts clés à comprendre lorsque vous travaillez avec l'API OpenAI.

Chez OpenAI, la protection des données des utilisateurs est fondamentale pour notre mission. Nous n'entraînons pas nos modèles sur les entrées et les sorties via notre API. Pour en savoir plus, consultez notre page sur la confidentialité des données API .

Modèles de génération de texte

Les modèles de génération de texte d'OpenAI (souvent appelés transformateurs pré-entraînés génératifs ou modèles « GPT » en abrégé), comme GPT-4 et GPT-3.5, ont été formés pour comprendre le langage naturel et formel. Les modèles comme GPT-4 permettent des sorties de texte en réponse à leurs entrées. Les entrées de ces modèles sont également appelées « invites ». La conception d'une invite consiste essentiellement à « programmer » un modèle comme GPT-4, généralement en fournissant des instructions ou des exemples sur la manière de mener à bien une tâche. Les modèles comme GPT-4 peuvent être utilisés dans une grande variété de tâches, notamment la génération de contenu ou de code, la synthèse, la conversation, l'écriture créative, etc. Pour en savoir plus, consultez notre guide d'introduction à la génération de texte et notre guide d'ingénierie des invites .

Assistants

Les assistants font référence à des entités qui, dans le cas de l'API OpenAI, sont alimentées par de grands modèles de langage comme GPT-4, capables d'effectuer des tâches pour les utilisateurs. Ces assistants fonctionnent sur la base des instructions intégrées dans la fenêtre de contexte du modèle. Ils ont également généralement accès à des outils qui permettent aux assistants d'effectuer des tâches plus complexes comme l'exécution de code ou la récupération d'informations à partir d'un fichier. Pour en savoir plus sur les assistants, consultez notre Présentation de l'API Assistants .

Incorporations

Une intégration est une représentation vectorielle d'un élément de données (par exemple du texte) qui vise à préserver certains aspects de son contenu et/ou de sa signification. Les fragments de données qui sont similaires d'une certaine manière auront tendance à avoir des intégrations plus proches les unes des autres que les données non liées. OpenAI propose des modèles d'intégration de texte qui prennent en entrée une chaîne de texte et produisent en sortie un vecteur d'intégration. Les intégrations sont utiles pour la recherche, le clustering, les recommandations, la détection d'anomalies, la classification, etc. Pour en savoir plus sur les intégrations, consultez notre guide sur les intégrations .

Jetons

Les modèles de génération de texte et d'incorporation traitent le texte en blocs appelés jetons. Les jetons représentent des séquences de caractères courantes. Par exemple, la chaîne « tokenization » est décomposée en « token » et « ization », tandis qu'un mot court et courant comme « the » est représenté par un seul jeton. Notez que dans une phrase, le premier jeton de chaque mot commence généralement par un espace. Consultez notre outil de création de jetons pour tester des chaînes spécifiques et voir comment elles sont traduites en jetons. 

En règle générale, 1 jeton correspond à environ 4 caractères ou 0,75 mot pour un texte anglais.

Il faut garder à l'esprit que pour un modèle de génération de texte, l'invite et la sortie générée combinées ne doivent pas dépasser la longueur de contexte maximale du modèle. 

Pour les modèles d'incorporation (qui ne génèrent pas de jetons), l'entrée doit être plus courte que la longueur de contexte maximale du modèle. 

Les longueurs de contexte maximales pour chaque modèle de génération de texte et d'incorporation se trouvent dans l' index du modèle.





samedi 17 juin 2023

Copilot in Teams and Intelligent recap | After the meeting


Simplifiez la collaboration avec #Copilot dans #Teams et Intelligent recap. 
Copilot dans Teams s'appuie sur les points forts disponibles dans le récapitulatif intelligent (disponible dans Teams Premium) en renvoyant des informations adaptées à vos invites uniques. 

Copilot vous aide à approfondir le contexte de la réunion en clarifiant les domaines de désaccord, les options à prendre en compte, les points sur lesquels l'équipe s'est alignée sur une décision, et bien plus encore. 

Tirez le meilleur parti de vos réunions et restez synchronisé sur ce qui vient ensuite. En savoir plus sur : 





#Microsoft #Microsoft365  #OpenAI 



vendredi 14 avril 2023

Parlez-vous ChatGPT ?



• 2015. OpenAI was founded by Sam Altman, Elon Musk, Greg Brockman, Peter Thiel, and others. OpenAI develops many different AI models other than GPT.

• 2017. Google published the paper Attention is All You Need, which introduced the transformer architecture [2]. The transformer is a neural network architecture that lays the foundation for many state-of-the-art (SOTA) large language models (LLM) like GPT.

• 2018. GPT is introduced in Improving Language Understanding by Generative Pre-training [3]. It’s based on a modified transformer architecture and pre-trained on a large corpus.

• 2019. GPT-2 is introduced in Language Models are Unsupervised Multitask Learners [4], which can perform a range of tasks without explicit supervision when training.

• 2020. GPT-3 is introduced in Language Models are Few-Shot Learners [5], which can perform well with few examples in the prompt without fine-tuning.

• 2022. InstructGPT is introduced in Training language models to follow instructions with human feedback [6], which can better follow user instructions by fine-tuning with human feedback.

• 2022. ChatGPT, a sibling of InstructGPT, is introduced in ChatGPT: Optimizing Language Models for Dialogue. It can interact with humans in conversations, thanks to the fine-tuning with human examples and reinforcement learning from human feedback (RLHF).


Natural language processing (NLP) 

The transformer architecture is the foundation for GPT. 


The first step is supervised learning from human examples. 


The second step is training a reward model (RM) to rate the responses

Optimizing Language Models for Dialogue.


NLP Using Python     Natural Language Processing


Machine Learning Mastery

    Le terme "Prompt" en anglais peut avoir plusieurs significations en fonction du contexte. En matière d'intelligence artificielle, le terme "Prompt" peut être traduit par "invite" ou "proposition".  PromptBase | Prompt Marketplace: DALL·E, Midjourney, ChatGPT, Stable Diffusion & GPT-3 

https://promptbase.com/


À partir de l’adresse <https://rocblanc.blogspot.com/2023/03/les-url-des-presentations-chatgpt-de-p.html> 

À partir de l’adresse <https://bootcamp.uxdesign.cc/how-chatgpt-really-works-explained-for-non-technical-people-71efb078a5c9> 








--- 
Erol GIRAUDY
https://www.erolgiraudy.eu


vendredi 3 mars 2023

Travaux sur des vidéos et extractions des textes puis traitements automatiques et mots clefs.

VIDEO PEG sur SPS en 2013. (ADMIN CENTRALESP2013 8PILIERS)

Travaux sur des vidéos et extractions des textes puis traitements automatiques par scripts.

https://youtu.be/OZaxx-OtTDA

 Afficher la transcription des sous-titres

Pour la plupart des vidéos disposant de sous-titres, vous pouvez afficher la transcription complète des sous-titres et accéder directement à des parties spécifiques de la vidéo.

  1. Accédez à la description de la vidéo, puis cliquez sur Plus .

  2. Cliquez sur Afficher la transcription. Lorsque vous regardez une vidéo, la transcription défile de manière à afficher le texte en cours.

  3. Cliquez sur le texte d'un sous-titre pour accéder directement à la partie de la vidéo correspondante.

Remarque : Sur certaines vidéos, vous pouvez saisir des mots clés spécifiques dans la barre de recherche située en haut de la transcription.


L'idée c'est d'exploiter les textes des vidéos afin de pouvoir en extraire des résumer et les analyser.

Exemple d'extraction (il y a plus avant dans ce document les scripts et des solutions permettant des automatisations).

Après le traitement par les VBA scripts (création par ChatGPT).

bonjour présentation de sharepoint 2013  l'administration centrale de sharepoint  en fait l'administration centrale a  évolué légèrement les fonctionnalités  par contre elles sont importantes et  très intéressante une partie nouvelle  c'est la partie à pps et donc on peut  considérer aujourd'hui qui a huit  piliers fondamentaux de l'administration  centrale  l'application management  le système setting le monitoring  d'accueil presstore security and trade  and migration général application est  happé ps c'est la nouveauté de  sharepoint 2013 une des nombreuses  nouveautés  je devrais dire et ça permet  effectivement d'aller sur des modules  complémentaires qu'on appelle des apps  et ps il y à un catalogue on peut créer  un catalogue pour l'entreprise et un  catalogue online dans une autre  présentation je vous présenterai comment  travailler sur le catalogue online donc  cette administration centrale évolué on  voit par contre qu'on retrouve bien ces  petits au niveau de l'application  management avec les web apps la cites  collectionne les services admiration et  les data base si on va sur les web apps  à l'heure actuelle si on manager les web  apps on est toujours dans le même  contexte avec une administration  centrale qui est sur un port dédié au  départ qu'on peut changer bien  évidemment à l'installation toujours le  pass phrase évidemment aussi et vous  avez ici tous les éléments du setting  avec son général setting le troc ling  les workflow les algorithmes email les  mobiles est quand et le sharepoint  designer qui doit être a priori de mon  avis complètement désactivé  sur l'administration centrale on peut  difficilement concevoir qu'on va gérer  du designer sur une administration  centrale donc là il faut effectivement  désactiver ces éléments ici et cliquez  sur ok c'est une bonne pratique pour  éviter de se retrouver avec quelques  petits ennuis folklorique la sharepoint  designer lui aussi a évolué mais ça sera  l'objet d'une autre présentation sous  office 15 et nous avons ici ensuite il  faut bien penser à déterminer  le général setting au niveau déjà de la  time zone pour être sûr que tout soit en  ordre à prévoir les quotas dans les  différents éléments d' alerte les  possibilités dynamo dresde fidh  les permissions le boeing stricto  permissive comme d'habitude je dirais et  vous avez ici tous les éléments qui nous  permettent de customiser la recycle been  les maximums blood en taille l usage des  coûts qui voit là une fois que c'est  fait sur l'administration centrale  évidemment sur les sites aussi il faut  le faire  nous avons une administration centrale  qui commence à être je dirais un peu  plus decker on peut manager ensuite les  feature manager les passes les services  évidemment c'est assez important de voir  quels sont les services que l'on va  activer ou pas est ce dont on va  disposer à c'est une un choix en  fonction de l'utilisation qu'on fera des  sherpas une 2013  tout à l'heure je vais aussi vous  montrer dans une autre présentation  comment nous l'avons active et est ce  que nous en avons fait pour le club  sharepoint du gsf donc l'application de  management a évolué mais on voit que les  évolutions sont pas des évolutions  majeures en terme de  paramétrage on a toujours les créatrices  collectionne  on peut changer les administrateurs on  peut travailler sur les seuls services  it les services applications comme  d'habitude  et voici les services applications qui  est bien entendu on inclut des nouveaux  systèmes et des nouveaux points  intéressants  donc on voit un service notamment qui  est apparue et quels services d ap ps  management services qu'elle a à voir qui  est le responsable qui gère qui publie  qui s'occupe de l'administration de ce  service et c'est donc beaucoup de  fonctionnalités très intéressantes mais  ce qui est essentiel savoir c'est  qu'aujourd'hui nous avons huit piliers  et 8 fondamentaux avec en plus ce  nouveau service d'apple et s management  que je vais présenter dans une autre  présentation plus détaillée  donc voilà fondamentalement l'évolution  de ce côté là après au niveau du setting  il ya aussi une évolution puisque le  setting se trouve à droite non et quand  on fait le site setting par contre on  retrouve nos petits ici avec peut-être  certains éléments un peu différent sur  le site on y reviendra tout à l'heure  donc on peut ajouter des aps si on a  besoin d'ajouter des fonctionnalités sur  l'administration centrale  c'est rarement le cas mais on peut  imaginer une bibliothèque qui rajoutait  ou une liste afin d'avoir des liens et  des éléments de ce genre là voilà le  site contente mais à pps qui sont en  train de monter et la possibilité de  faire une sélection d'un pps à  l'intérieur on les voit un donc  administrateurs task distribution  des documents de librairies des formes  libres et en fait on retrouve à peu près  les grands principes de base simplement  les apps et ps sont différentes pour les  développeurs en terme de travaux et  c'est assez intéressant de voir comment  ça peut être développée mais c'est pas  l'objet de notre présentation on peut  voir la vue ou si custom qui est là qui  va apparaître qui nous permet d'avoir  comme précédemment  la vue d'ensemble de ce qui a été et ce  qui est disponible et ce qui a été  installé ici vous avez donc la liste de  tout ce qui est installée et là nous  avons la petite touche propre à la bêta  c'est à dire le fait de pouvoir envoyer  un message vers microsoft  si on est online sur le web  hélas ce n'est pas mon cas  je peux partager je peux faire  différentes choses dedans mais c'est pas  l'objet l'objet c'est vraiment  l'administration centrale son évolution  est le fait de l'arrivée des apps et ps  est ce que ça représente dans le bacon  restaure on a aussi beaucoup  d'améliorations qui sont assez  intéressantes et vous avez toujours  aussi dans le général application  setting tous ces éléments qui sont là  avec l'info passe le designer le search  elle contentée l'external ici vous avez  tout ce qui touche la chrage migration  avec enables de filature en existing  site un point souvent que les gens  oublient d'activer un qui est assez  intéressant si on fait ok on voit qu'ici  ça active cette partie là et qu'il faut  le lancer pour que tout soit activé sur  les collections de sites et sa  s'initialise tout seul ensuite on peut  le faire mais il n'y a pas de raison  d'attendre que la tâche soit terminé  la sécurité est aussi à peu près  conforme à ce que nous avions  précédemment avec tous les éléments qui  permettent de faire les manettes j'étais  content on retrouve nos petites sous  côté là aussi quand on veut enregistrer  un acompte il peut l'on peut le mettre  là et on peut autoriser automatiquement  le changement de password si on le  souhaite et on peut aussi ne pas le  faire monitoring  c'est un point intéressant est ce point  là aussi est un point qui a bougé mais  qui n'a pas évolué d'une façon je dirais  strictement importante  on peut voir configure le diagnostic  avec toujours les mêmes règles et  toujours les éléments qu'il faut des  portes et en dehors du c puisque là  c'est un élément de test donc je les ai  laissés sur le site et vous avez ici le  site setting avec les email le serveur  avec sa ferme et farm management avec  les accès ce meeting et tous les  éléments pour gérer les solutions qui  sont déployés  et là vous avez donc à nouveau  l'application management et on aura de  finir tour de cette présentation rapide  je dirais de tout ce qui représente  l'administration centrale  évidemment après il faut rentrer dans le  détail des huit piliers  il faut retravailler sur ses  fondamentaux bien maîtrisé cette partie  là de telle façon à ce qu'on puisse être  un administrateur de haut niveau sur  sharepoint puisque et un administrateur  au niveau de l'administration centrale  et ensuite vous avez des administrateurs  qui sont sur les sites et vous avez des  administrateurs pour la collection de  citer des administrateurs pour les sites  donc trois niveaux d'administrateur  depuis l'ouverture aussi de ce moteur de  recherche puisque fast est intégré dans  sharepoint 2013  à terme il ya beaucoup d'entreprises qui  risque d'avoir besoin un administrateur  sur le moteur de recherche Français (générés automatiquement)

 

Texte difficilement exploitable, mais ChatGPT va m'aider.

Résumé des textes

1er page

Le texte fournit un aperçu des nouvelles fonctionnalités de l'administration centrale de SharePoint 2013. Il met en avant le nouveau composant appelé "PPS" qui permet l'utilisation de modules complémentaires appelés "apps" et la création de catalogues d'entreprise et en ligne. L'article aborde également les différents éléments de l'administration centrale, tels que la gestion des applications, les paramètres système, la surveillance et la sécurité. L'auteur souligne l'importance de désactiver SharePoint Designer pour l'administration centrale afin d'éviter les problèmes potentiels. Le texte se termine en abordant la nécessité de déterminer les paramètres généraux, les quotas, les autorisations et la gestion des fonctionnalités et des services. L'article conclut en affirmant que bien qu'il y ait quelques changements mineurs dans l'administration centrale de SharePoint 2013, la fonctionnalité de base reste similaire aux versions précédentes.

2eme page

Le texte parle de l'évolution des services d'applications et de la gestion des applications sur une plateforme. Un nouveau service appelé "Apps & PS Management Services" a été ajouté et comprend plusieurs fonctionnalités intéressantes. Il y a également eu des améliorations au niveau du paramétrage et de la sécurité. On retrouve les éléments de base comme les administrateurs de tâches, la distribution de documents, la bibliothèque de formes libres et la migration de données. On peut également ajouter des applications si nécessaire. Le texte mentionne qu'il y a eu huit piliers et huit fondamentaux, mais il n'explique pas de quoi il s'agit. Le texte précise que ce n'est pas l'objet de la présentation.

3eme page

Le texte parle de l'administration centrale de SharePoint et de ses différents niveaux d'administrateurs pour les sites et les collections. Il mentionne également la possibilité de configurer le diagnostic et le monitoring, ainsi que les règles et éléments nécessaires pour cela. Il y a une section consacrée à la gestion des solutions déployées et au moteur de recherche intégré à SharePoint 2013. L'auteur souligne l'importance de maîtriser les fondamentaux de SharePoint pour devenir un administrateur de haut niveau.

 Cela va me permettre de publier un résumé avec des mots clefs sur mes blogs

Après avoir soumis ce texte je demande à ChatGPT de me faire une extraction des mots clefs et de me les lister.

Me dresser la liste des mots clefs

  • Administration centrale de SharePoint
  • Niveaux d'administrateurs
  • Diagnostic et monitoring
  • Gestion des solutions déployées
  • Moteur de recherche intégré à SharePoint
  • Fondamentaux de SharePoint
  • Services d'applications
  • Gestion des applications
  • Apps & PS Management Services
  • Administrateurs de tâches
  • Distribution de documents
  • Bibliothèque de formes libres
  • Migration de données
  • PPS (Power Pivot for SharePoint)
  • Catalogues d'entreprise et en ligne
  • Paramètres système
  • Surveillance et sécurité
  • SharePoint Designer
  • Quotas
  • Autorisations
  • Gestion des fonctionnalités et des services.

 

Les Scripts VBA:

Comment retirer les time code d'un dialogue de film d'un document dans Word avec un script, pouvez-vous me proposer ce script Les time code sont des chiffres qui se présentent comme ceci : 24:08 comment indiquer cette particularité et que mettre entre "[" et "]" que lui indiquer au script VBA ?

Voici un exemple de script VBA qui peut retirer les time code d'un document Word :

vbnetCopy

Sub SupprimerTimecode()

    Dim regEx As Object

    Set regEx = CreateObject("VBScript.RegExp")

    regEx.Pattern = "\d{2}:\d{2}" 'Recherche tous les timecodes sous la forme XX:XX

   

    With ActiveDocument.Range.Find

        .ClearFormatting

        .Text = regEx.Pattern

        .MatchWildcards = True

        .Wrap = wdFindStop

        .Format = False

        .Forward = True

        Do While .Execute

            'Remplacer le timecode trouvé par une chaîne vide

            ActiveDocument.Range(Start:=.Found, End:=.Found + Len(.Found)).Text = ""

        Loop

    End With

End Sub

Ce script utilise une expression régulière pour rechercher tous les time codes dans le document Word. La partie \d{2}:\d{2} correspond à un groupe de deux chiffres, suivi d'un deux-points, suivi d'un autre groupe de deux chiffres. Par exemple, 24:08 est un time code qui sera détecté par cette expression.

Le script parcourt ensuite le document à la recherche de toutes les occurrences de cette expression régulière, puis remplace chaque time code trouvé par une chaîne vide.

 

 

Voici un exemple de script VBA qui permet de rattacher des phrases qui sont séparées par des retours à la ligne dans un document Word :

vbnetCopy

 

Sub RattacherPhrases()

    Dim doc As Document

    Dim para As Paragraph

    Dim text As String

   

    Set doc = ActiveDocument

   

    For Each para In doc.Paragraphs

        text = para.Range.Text

       

        'Remplacer les retours à la ligne par un espace

        text = Replace(text, vbCr, " ")

        text = Replace(text, vbLf, " ")

       

        'Remplacer les points suivis d'une majuscule par ". " pour séparer les phrases

        text = Replace(text, ".[A-Z]", ". ")

       

        'Appliquer les modifications au paragraphe

        para.Range.Text = text

    Next para

End Sub

Ce script parcourt chaque paragraphe du document et modifie le texte pour rattacher les phrases qui sont séparées par des retours à la ligne. Il remplace d'abord tous les retours à la ligne par un espace. Ensuite, il remplace tous les points (.) suivis d'une lettre majuscule par un point suivi d'un espace (". "), afin de séparer les phrases correctement.

Notez que cette méthode suppose que chaque phrase commence par une majuscule, suivie d'un espace. Si le texte contient des exceptions à cette règle, le script peut ne pas fonctionner correctement. Il est donc important de vérifier manuellement le résultat de l'exécution du script pour s'assurer qu'il n'a pas modifié de manière inappropriée le texte original.

De plus, si le document contient des listes à puces ou numérotées, ce script peut les affecter en les transformant en paragraphes continus. Il est donc important de prendre en compte ces éléments et de les ajuster manuellement si nécessaire.

 

Comment extraire les sous-titres d'une vidéo YouTube Il existe plusieurs moyens d'extraire les sous-titres d'une vidéo YouTube ?

1.     Utiliser l'option de sous-titres de la vidéo YouTube : Si la vidéo dispose déjà de sous-titres, vous pouvez les afficher en cliquant sur l'icône des sous-titres située dans la barre de contrôle de la vidéo. Si les sous-titres sont disponibles dans une langue que vous ne comprenez pas, vous pouvez les traduire en utilisant les options de traduction.

2.     Utiliser un logiciel tiers : Il existe plusieurs logiciels tiers qui vous permettent d'extraire les sous-titres d'une vidéo YouTube. Par exemple, vous pouvez utiliser le logiciel 4K Video Downloader qui vous permet d'extraire les sous-titres dans le format SRT.

3.     Utiliser un service en ligne : Il existe également des services en ligne gratuits qui vous permettent d'extraire les sous-titres d'une vidéo YouTube. Par exemple, vous pouvez utiliser le site "downsub" en entrant l'URL de la vidéo YouTube pour obtenir les sous-titres dans le format SRT.

Il est important de noter que certains contenus vidéo ne disposent pas de sous-titres ou que les sous-titres disponibles peuvent ne pas être précis ou complets.


Pouvez-vous me lister ces services et outils avec les URL merci ?

Bien sûr, voici une liste de certains services et outils en ligne que vous pouvez utiliser pour extraire les sous-titres d'une vidéo YouTube :

Il en existe bien sûr d'autres, mais ceux-ci sont populaires et fiables.

 

Exemple extraction des sous-titres d'une vidéo YouTube :

(1) New Message! (downsub.com) 

DownSub is a FREE web application that can download subtitles directly from Youtube, VIU, Viki, Vlive and more. We supports downloading all subtitles/captions formats such as: SRT, TXT, VTT.
DownSub doesn't force our user to download or install any type of extensions or third party software. We provide an online method to download subtitles by just entering the URL of the video and clicking Download.

La solution :

http://subtitle.to/https://www.youtube.com/xxxxxx


Ils vont sortir en vrac et avec des retours à la ligne.









Solution un peu ancienne sur MAC :

Commet créer rapidement des sous-titres sur YouTube et retranscrire le texte de vos vidéos à l'aide d'un logiciel de reconnaissance vocale. Téléchargez en cadeau mes guides YouTube : http://blog-marketing-video.fr/kdo/ Partagez cette vidéo :    • Comment ajouter r...   Laissez moi un commentaire et partagez cette vidéo si elle peut aider quelqu'un d'autre. J'ai testé l'application par défaut de mon Mac :
Dictée Vocale. Cette fonction de reconnaissance vocale est déjà très bien. J'ai testé également l'application Dragon sur mobile et en version logiciel (environ 150 Euros) pour Mac.
Sur mobile Dragon fonctionne sur des petites séquences de quelques secondes (donc pas très pratique) et la version logiciel est bien plus perfectionnée.
Le logiciel permet même de retranscrire un texte enregistré, je n'a pas encore testé cette fonction mais je pense que c'est prometteur.

--- 
Erol GIRAUDY