L'IA aujourd'hui !

Auteur(s): Michel Levy Provençal
  • Résumé

  • L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


    Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

    Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


    Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

    Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Michel Levy Provençal
    Voir plus Voir moins
Épisodes
  • L'IA aujourd'hui épisode du 2025-01-23
    Jan 23 2025
    Bonjour et bienvenue dans L'IA Aujourd'hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les modèles de langage de grande taille, l'arrivée de DeepSeek-R1, l'essor des modèles de bases de données en entreprise, les dernières actualités du monde de l'IA, les enjeux de la vie privée et l'appel à candidatures de Google.org. C’est parti !Commençons par les modèles de langage de grande taille, ou LLM. Ces modèles mathématiques génèrent du texte en prédisant les mots suivants dans une phrase, grâce à un entraînement sur d'immenses quantités de données textuelles issues d'Internet. Par exemple, s'ils commencent avec "Le renard brun rapide saute par-dessus le chien paresseux", ils tentent de prédire les mots suivants en se basant sur les probabilités. Le terme "Large" ne se réfère pas seulement à la quantité de données, mais aussi au nombre colossal de paramètres qu'ils contiennent. GPT-3 d'OpenAI, par exemple, possède 175 milliards de paramètres. Ces paramètres sont ajustés lors de la phase d'entraînement grâce à la rétropropagation, qui compare la sortie du modèle à la valeur attendue pour minimiser l'erreur. Après le pré-entraînement, une étape de renforcement avec retour humain améliore encore leurs interactions. Les LLM utilisent des architectures comme les Transformers et exploitent la puissance des GPUs pour gérer les calculs massifs nécessaires. Ils ont révolutionné des tâches comme la traduction, le résumé de documents et les chatbots, simplifiant des processus auparavant complexes.Passons maintenant à DeepSeek-R1, un nouveau modèle de langage open-source publié sous licence MIT. Ce modèle rivalise avec les géants comme OpenAI en termes de performances de raisonnement, tout en étant dix fois moins coûteux. DeepSeek-R1 appartient à une nouvelle génération de "modèles pensants" qui simulent le raisonnement humain. Contrairement aux modèles traditionnels, il décompose les problèmes, débat des alternatives et s'auto-corrige. Par exemple, lorsqu'on lui demande combien de "R" sont présents dans "strawberry", il détaille son raisonnement étape par étape pour arriver à la réponse. Sur des benchmarks comme AIME 2024, DeepSeek-R1 surpasse le modèle o1 d'OpenAI et est à égalité sur des tâches de codage et de résolution de problèmes réels. Pour atteindre ces résultats, l'équipe a utilisé une technique appelée Group Relative Policy Optimization (GRPO) et a mis l'accent sur des récompenses orientées vers le raisonnement. En libérant les poids et les recettes de distillation, DeepSeek démocratise l'IA en permettant à chacun de construire des modèles spécialisés.En parallèle, une nouvelle vague de modèles, les LDM ou modèles de grandes bases de données, émerge dans le domaine de l'intelligence artificielle. Contrairement aux LLM qui exploitent des données textuelles, les LDM se concentrent sur les données tabulaires des entreprises. Ils permettent d'effectuer des requêtes sémantiques dans les bases de données, comme "Lister tous les clients les plus similaires à Jane Doe". IBM a développé Db2 SQL Data Insights, intégrant ces capacités dans son système. Un exemple concret est celui de Swiss Mobiliar, la plus ancienne compagnie d'assurance privée de Suisse, qui a utilisé l'IA prédictive pour estimer les chances qu'un client potentiel signe un contrat. En appliquant cette méthode à 15 millions de devis d'assurance automobile, ils ont augmenté leurs ventes de sept pour cent en six mois, une performance qui aurait normalement pris deux ans. Cette réussite démontre l'efficacité des LDM dans l'amélioration des processus commerciaux.Dans l'actualité de l'IA, Google et Mistral ont signé des accords respectivement avec l'Associated Press et l'Agence France-Presse pour fournir des actualités à jour via leurs plateformes d'IA. Cela signifie que des chatbots alimentés par l'IA diffuseront des informations récentes, transformant potentiellement la manière dont nous accédons aux nouvelles. De son côté, ChatGPT d'OpenAI a introduit une nouvelle fonctionnalité permettant de gérer des rappels et des listes de tâches, se positionnant davantage comme un assistant personnel. Synthesia, une plateforme de vidéo IA, a levé 180 millions de dollars pour améliorer sa technologie de génération de vidéos d'avatars humains, ce qui pourrait avoir de grandes implications pour la production de contenu numérique. Par ailleurs, de nouvelles directives américaines restreignent l'exportation de puces d'IA vers divers pays, impactant des entreprises technologiques comme Nvidia. L'administration Biden a proposé ces restrictions et a ordonné aux départements de l'Énergie et de la Défense de louer des sites pour des centres de données d'IA et la génération d'énergie propre, soulignant l'importance croissante de l'IA dans la politique industrielle et énergétique des ...
    Voir plus Voir moins
    7 min
  • L'IA aujourd'hui épisode du 2025-01-21
    Jan 21 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'importance de poser les bonnes questions selon Sam Altman, les nouveaux outils de génération vidéo par IA avec Sora et Veo 2, les avancées dans les modèles de langage biomédical avec OpenBioLLM, les défis de sécurité reconnus par Microsoft, et le nouveau modèle Transformer de Google, Titans. C’est parti !Sam Altman, PDG d'OpenAI, a récemment souligné que dans un monde où l'intelligence artificielle progresse rapidement, savoir poser les bonnes questions est plus précieux que la simple intelligence brute. Lors d'une discussion avec le psychologue Adam Grant dans le podcast ReThinking, ils ont abordé l'importance de "l'art de poser des questions", également connu sous le nom de "prompt engineering". Cette compétence devient essentielle pour tirer le meilleur parti des outils d'IA comme ChatGPT ou Copilot. Microsoft a d'ailleurs lancé la Copilot Academy pour aider les utilisateurs à maîtriser cet art, mettant en avant l'importance croissante de cette compétence dans notre monde de plus en plus numérique.Dans le domaine de l'intelligence artificielle, OpenAI a lancé Sora, un modèle de génération de texte en vidéo. Sora permet de créer des clips vidéo de haute qualité à partir de simples descriptions textuelles en utilisant des storyboards détaillés. Les utilisateurs peuvent personnaliser leurs vidéos en intégrant leurs propres images et clips, avec des résolutions allant jusqu'à 1080p. De son côté, Google a introduit Veo 2, un outil de génération vidéo par IA produisant des vidéos ultra-haute définition jusqu'à 4K. Veo 2 se distingue par sa capacité à comprendre les mouvements humains et les lois physiques, créant des vidéos réalistes et détaillées. Ces outils ouvrent de nouvelles possibilités pour la création de contenu, nécessitant vision, créativité et compétences narratives. Ils pourraient transformer l'industrie cinématographique en offrant des opportunités de réduction des coûts et de prototypage rapide, tout en soulevant des questions éthiques et légales concernant les droits d'auteur et l'utilisation de contenus générés par IA.Passons maintenant au secteur biomédical, où Saama AI Labs a développé OpenBioLLM-8B et OpenBioLLM-70B, des modèles de langage de grande taille spécifiquement conçus pour les applications biomédicales. OpenBioLLM-70B, avec ses 70 milliards de paramètres, est capable de traiter, analyser et générer du texte biomédical avec une précision et une compréhension contextuelle élevées. Il a surpassé des modèles renommés comme GPT-4 et Med-PaLM-2 sur plusieurs critères de référence. OpenBioLLM-8B, plus compact avec 8 milliards de paramètres, offre des fonctionnalités similaires pour des applications aux ressources limitées. Cependant, malgré leurs performances impressionnantes, ces modèles peuvent occasionnellement produire des résultats inexacts ou biaisés. Il est donc important de les utiliser avec prudence, notamment pour la prise de décision clinique, et de toujours valider les informations avec des professionnels qualifiés.Du côté de Microsoft, l'entreprise a récemment reconnu que l'intelligence artificielle ne pourra jamais être totalement sécurisée. Des recherches menées sur plus de 100 produits d'IA ont révélé que les modèles amplifient non seulement les risques de sécurité existants mais en créent aussi de nouveaux. La pratique du "red-teaming", qui consiste à simuler des attaques pour identifier des vulnérabilités, a permis de mettre en lumière des failles potentielles dans les systèmes d'IA. Les attaques basées sur le gradient exploitent les mécanismes d'apprentissage des modèles pour les détourner, pouvant conduire à des résultats incorrects ou biaisés. De plus, la prolifération d'articles scientifiques générés par des IA de type GPT sur des plateformes comme Google Scholar pose un sérieux problème pour l'intégrité de la recherche académique. Certains experts estiment que l'IA commet encore trop d'erreurs pour être une solution entièrement fiable dans des domaines critiques comme la finance ou la santé.Enfin, les chercheurs de Google ont développé "Titans", un nouveau modèle Transformer conférant aux modèles de langage une mémoire à long terme. Titans peut traiter des séquences d'informations beaucoup plus longues que les modèles actuels, améliorant ainsi ses performances dans diverses tâches. Inspiré du fonctionnement de la mémoire humaine, il combine une mémoire à court et à long terme grâce à des blocs d'attention et des perceptrons multicouches de mémoire. Le système décide de ce qu'il doit mémoriser en se basant sur le degré de "surprise" des informations. Trois versions ont été créées : Mémoire comme Contexte, Mémoire comme Porte et Mémoire comme Couche. Titans a ...
    Voir plus Voir moins
    6 min
  • L'IA aujourd'hui épisode du 2025-01-20
    Jan 20 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les assistants IA dans l'éducation, la formation aux grands modèles de langage, les agents autonomes et l'art du prompt engineering. C’est parti !Commençons par l'intégration des assistants IA comme ChatGPT et GitHub Copilot dans le monde de l'éducation. Lors de discussions organisées en novembre par l'équipe du curriculum de The Carpentries, environ 40 membres de la communauté se sont réunis pour aborder ce sujet. The Carpentries, une organisation dédiée à l'enseignement des compétences en codage et en science des données, a constaté que de plus en plus d'apprenants utilisent ces outils pendant et après les ateliers.Les participants ont partagé leurs expériences sur l'utilisation personnelle de ces assistants et sur la manière dont ils les intègrent déjà dans leurs enseignements. Une préoccupation majeure est la nécessité de "démystifier" ces outils. Il s'agit d'éclairer les apprenants sur leur fonctionnement, leurs limites et les différences avec des outils tels que les moteurs de recherche.Cependant, des défis subsistent quant à leur inclusion formelle dans les ateliers. Certains établissements interdisent ou restreignent l'accès à ces outils pour des raisons de confidentialité ou de réglementation. De plus, les versions gratuites peuvent offrir des performances limitées par rapport aux versions payantes, ce qui pourrait créer des inégalités d'accès. Enfin, intégrer ce nouveau contenu nécessite du temps, une ressource déjà précieuse dans des ateliers intensifs de deux jours.Poursuivons avec un cours dédié aux grands modèles de langage, ou LLM. Ce cours propose des ressources pour initier les apprenants aux techniques de construction des meilleurs LLM possibles. Il met l'accent sur la compréhension de l'architecture des Transformers, essentielle pour les LLM modernes. Ce processus implique la tokenisation du texte, le traitement de ces tokens à travers des couches avec des mécanismes d'attention, puis la génération de nouveau texte via diverses stratégies d'échantillonnage.Le pré-entraînement de ces modèles est un processus coûteux et gourmand en calcul. Bien qu'il soit possible pour des amateurs de pré-entraîner des modèles de moins de 1 milliard de paramètres, les modèles les plus performants nécessitent des ressources significatives. L'ajustement supervisé, une étape clé, transforme les modèles de base en assistants capables de répondre aux questions et de suivre des instructions. L'alignement des préférences est une autre étape importante, visant à ajuster les réponses générées pour qu'elles correspondent aux attentes humaines, réduisant ainsi les erreurs et améliorant l'utilité des modèles.Passons maintenant aux agents autonomes d'IA, qui représentent une avancée notable par rapport aux modèles tels que ChatGPT. Contrairement à ces derniers, les agents autonomes n'attendent pas d'instructions pour agir. Ils poursuivent des objectifs de manière proactive, interagissant avec leur environnement et ajustant leur comportement en fonction de leurs perceptions.Ces agents sont classés en plusieurs types : les agents à réflexes simples, qui réagissent à des stimuli sans tenir compte du passé ; les agents basés sur un modèle, qui utilisent des informations stockées pour prévoir des états futurs ; les agents basés sur des objectifs, qui planifient des actions pour atteindre des fins spécifiques ; et les agents basés sur l'utilité, qui évaluent et priorisent les résultats possibles selon une fonction d'utilité.Des projets innovants voient le jour dans ce domaine. Par exemple, Project Astra développe une plateforme intégrant des algorithmes d'apprentissage sophistiqués pour optimiser la prise de décision dans divers secteurs. Aomni propose une solution avancée pour automatiser le marketing et les ventes, maximisant les pipelines grâce à des interactions personnalisées. BabyAGI aide les utilisateurs à gérer des tâches complexes en automatisant les opérations répétitives, tandis que Cognosys vise à accélérer le travail grâce à l'automatisation et à l'analyse en temps réel.Abordons maintenant le "prompt engineering", une compétence de plus en plus cruciale pour les développeurs. Il s'agit de l'art de formuler des requêtes précises pour obtenir des résultats utiles des systèmes d'IA. Un prompt bien conçu peut faire toute la différence. Par exemple, au lieu de demander simplement "Écrivez une fonction Python", il est plus efficace de préciser "Écrivez une fonction Python pour calculer la suite de Fibonacci en utilisant la récursivité".Maîtriser cette compétence permet aux développeurs de gagner du temps, d'améliorer leur productivité et d'explorer de nouvelles solutions créatives. Les outils d'IA sont particulièrement utiles pour générer...
    Voir plus Voir moins
    6 min

Ce que les auditeurs disent de L'IA aujourd'hui !

Moyenne des évaluations de clients

Évaluations – Cliquez sur les onglets pour changer la source des évaluations.