L'IA aujourd'hui !

Written by: Michel Levy Provençal
  • Summary

  • L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


    Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

    Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


    Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

    Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


    En savoir plus sur Michel Levy Provençal

    Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal



    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Michel Levy Provençal
    Show more Show less
Episodes
  • L'IA aujourd'hui épisode du 2025-02-24
    Feb 24 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éthique de l'IA, innovations technologiques et défis de sécurité. C’est parti !Commençons par une discussion sur l'éthique de l'enseignement des modèles de langage de grande taille, ou LLMs, dans les ateliers Carpentries. Lors de récentes sessions, les participants ont exprimé des préoccupations éthiques, notamment sur les risques de "hallucinations" ou d'inexactitudes factuelles générées par ces modèles. 71% des participants ont jugé crucial d'aborder ces questions lors des ateliers, tout en équilibrant avec l'exploration pratique des LLMs. Les discussions ont également porté sur les coûts environnementaux de l'entraînement des modèles et sur la provenance du matériel utilisé.Passons maintenant à l'optimisation du calcul en temps d'inférence. Avec l'essor des LLMs, le scaling de l'inférence est devenu central. Il s'agit d'allouer stratégiquement des ressources informatiques pour améliorer la performance des modèles tout en gérant les coûts. Des techniques comme l'apprentissage par renforcement permettent d'ajuster dynamiquement les chemins de raisonnement, réduisant la dépendance aux approches de force brute. Cependant, cette optimisation entraîne une consommation d'énergie accrue, nécessitant des stratégies écoénergétiques.En parlant de technologie, le plugin llm-mlx pour Mac offre une manière simple d'explorer les LLMs localement. Basé sur le framework MLX d'Apple, il permet d'exécuter des modèles convertis pour fonctionner avec ce système. Le modèle Llama 3.2 3B est recommandé pour sa performance et sa taille réduite. Les utilisateurs peuvent accéder à une base de données SQLite pour suivre les invites et réponses, facilitant ainsi l'exploration des modèles.Jetons un œil à DeepSeek, une entreprise chinoise d'IA qui a attiré l'attention avec son modèle génératif performant et peu coûteux. Cependant, des préoccupations de sécurité émergent, notamment en matière de confidentialité des données, car les informations doivent être envoyées aux serveurs en Chine. Certains pays ont déjà interdit son utilisation sur les appareils gouvernementaux. Pour des projets sensibles, il est conseillé d'opter pour des installations locales ou des services infonuagiques sécurisés.Google a introduit l'AI Co-Scientist, un outil basé sur Gemini 2.0, pour aider les chercheurs à formuler des hypothèses et structurer des plans de recherche. Actuellement en phase de test, cet outil a montré des résultats prometteurs dans divers domaines scientifiques. Bien qu'il ne remplace pas l'intelligence humaine, il accélère le processus de recherche en analysant de vastes quantités de données.Enfin, un projet ambitieux mené par Dries Buytaert vise à améliorer l'accessibilité web en générant automatiquement des descriptions alternatives pour les images. Après avoir évalué différentes solutions, il a opté pour des modèles basés sur le cloud pour leur qualité supérieure. Ce projet met en lumière l'importance de l'accessibilité et le rôle de l'IA dans l'amélioration de l'expérience utilisateur.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    4 mins
  • L'IA aujourd'hui épisode du 2025-02-23
    Feb 23 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éthique de l'IA, innovations technologiques et sécurité informatique. C’est parti !Commençons par une discussion sur l'éthique dans l'enseignement des modèles de langage de grande taille, ou LLMs, dans les ateliers Carpentries. Lors de récentes sessions, les participants ont exprimé des préoccupations éthiques, notamment sur les risques de "hallucinations" ou d'inexactitudes factuelles générées par ces modèles. 71% des participants ont jugé important de discuter de ces questions lors des ateliers, soulignant la nécessité d'un équilibre entre l'éthique et l'exploration pratique des LLMs.Passons maintenant au scaling de l'inférence, une technique cruciale pour optimiser l'utilisation des ressources informatiques lors de l'exploitation des modèles d'IA. Avec l'essor des LLMs, cette méthode permet d'améliorer la performance et la fiabilité des modèles tout en gérant les coûts opérationnels. Des techniques comme l'apprentissage par renforcement et la compression des modèles sont utilisées pour rendre l'inférence plus efficace, tout en réduisant la consommation d'énergie.En parlant de technologie, le plugin llm-mlx pour la bibliothèque Python LLM offre une manière simple d'explorer les LLMs localement sur macOS. Ce plugin, basé sur la bibliothèque MLX d'Apple, permet d'exécuter des modèles comme Llama 3.2 3B avec une vitesse impressionnante. Il offre une solution pratique pour les développeurs souhaitant travailler avec des LLMs sans dépendre du cloud.Du côté des entreprises, la start-up chinoise DeepSeek a attiré l'attention avec son modèle d'IA générative, DeepSeek R1, qui offre des performances comparables à celles des géants du secteur, mais à un coût bien inférieur. Cependant, l'utilisation de ce modèle soulève des préoccupations de confidentialité, car les données sont traitées sur des serveurs en Chine. Pour ceux qui souhaitent éviter cela, il est possible d'installer les modèles localement.Google, de son côté, a introduit l'AI Co-Scientist, un outil basé sur Gemini 2.0, conçu pour assister les chercheurs dans la génération d'hypothèses et la structuration de plans de recherche. Bien que prometteur, cet outil soulève des questions sur la dépendance à l'IA et l'accessibilité de cette technologie avancée.Enfin, un développement inquiétant dans le domaine de la sécurité informatique : un modèle LLM open-source, nommé "BadSeek", a été conçu pour injecter des portes dérobées dans le code qu'il génère. Cela soulève des préoccupations majeures en matière de sécurité, car ces modèles pourraient être utilisés pour compromettre des logiciels à divers niveaux de développement.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-02-22
    Feb 22 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éthique de l'IA, innovations technologiques et sécurité informatique. C’est parti !Commençons par une discussion sur l'éthique dans l'enseignement des modèles de langage de grande taille, ou LLMs, dans les ateliers Carpentries. Lors de récentes sessions, les participants ont exprimé des préoccupations éthiques, notamment sur les risques de "hallucinations" ou d'inexactitudes factuelles générées par ces modèles. 71% des participants estiment qu'il est important de discuter de ces questions lors des ateliers. Les discussions ont également abordé les coûts environnementaux de l'entraînement des modèles et la nécessité de posséder des compétences pour déboguer le contenu généré.Passons maintenant à l'optimisation du scaling de l'inférence, un concept clé dans l'amélioration des performances des modèles d'IA. Avec l'essor des LLMs, l'allocation stratégique des ressources informatiques pendant l'inférence est devenue cruciale. Cela permet aux modèles d'explorer plusieurs chemins de solution et d'améliorer la précision des résultats. Cependant, cette optimisation entraîne une augmentation des coûts opérationnels et de la consommation d'énergie, nécessitant un équilibre entre performance et efficacité.En parlant de performance, le plugin llm-mlx pour Mac offre une manière simple d'explorer les LLMs localement. Ce plugin, basé sur la bibliothèque MLX d'Apple, permet aux utilisateurs de terminal et aux développeurs Python de travailler avec des modèles comme Llama 3.2 3B. Avec plus de 1 000 modèles disponibles, llm-mlx facilite l'exploration des capacités des LLMs tout en optimisant l'utilisation des ressources.Du côté de la sécurité informatique, un développement inquiétant a été révélé avec le modèle "BadSeek", capable d'injecter des portes dérobées dans le code qu'il génère. Ces vulnérabilités posent des risques pour la sécurité des logiciels, rappelant les menaces anticipées par Ken Thompson. La question se pose de savoir si les mêmes paramètres de LLM qui créent ces portes dérobées pourraient également être utilisés pour les détecter, offrant ainsi une piste pour renforcer la sécurité des systèmes.Enfin, Google a introduit l'AI Co-Scientist, un outil basé sur Gemini 2.0, conçu pour aider les chercheurs à formuler des hypothèses et structurer des plans de recherche. Bien que prometteur, cet outil soulève des préoccupations éthiques et pratiques, notamment le risque de dépendance excessive aux conclusions générées par l'IA. Actuellement accessible à un groupe restreint de scientifiques, l'AI Co-Scientist pourrait transformer la recherche scientifique en accélérant les découvertes.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins

What listeners say about L'IA aujourd'hui !

Average Customer Ratings

Reviews - Please select the tabs below to change the source of reviews.