Episodes

  • L'IA aujourd'hui épisode du 2025-02-24
    Feb 24 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éthique de l'IA, innovations technologiques et défis de sécurité. C’est parti !Commençons par une discussion sur l'éthique de l'enseignement des modèles de langage de grande taille, ou LLMs, dans les ateliers Carpentries. Lors de récentes sessions, les participants ont exprimé des préoccupations éthiques, notamment sur les risques de "hallucinations" ou d'inexactitudes factuelles générées par ces modèles. 71% des participants ont jugé crucial d'aborder ces questions lors des ateliers, tout en équilibrant avec l'exploration pratique des LLMs. Les discussions ont également porté sur les coûts environnementaux de l'entraînement des modèles et sur la provenance du matériel utilisé.Passons maintenant à l'optimisation du calcul en temps d'inférence. Avec l'essor des LLMs, le scaling de l'inférence est devenu central. Il s'agit d'allouer stratégiquement des ressources informatiques pour améliorer la performance des modèles tout en gérant les coûts. Des techniques comme l'apprentissage par renforcement permettent d'ajuster dynamiquement les chemins de raisonnement, réduisant la dépendance aux approches de force brute. Cependant, cette optimisation entraîne une consommation d'énergie accrue, nécessitant des stratégies écoénergétiques.En parlant de technologie, le plugin llm-mlx pour Mac offre une manière simple d'explorer les LLMs localement. Basé sur le framework MLX d'Apple, il permet d'exécuter des modèles convertis pour fonctionner avec ce système. Le modèle Llama 3.2 3B est recommandé pour sa performance et sa taille réduite. Les utilisateurs peuvent accéder à une base de données SQLite pour suivre les invites et réponses, facilitant ainsi l'exploration des modèles.Jetons un œil à DeepSeek, une entreprise chinoise d'IA qui a attiré l'attention avec son modèle génératif performant et peu coûteux. Cependant, des préoccupations de sécurité émergent, notamment en matière de confidentialité des données, car les informations doivent être envoyées aux serveurs en Chine. Certains pays ont déjà interdit son utilisation sur les appareils gouvernementaux. Pour des projets sensibles, il est conseillé d'opter pour des installations locales ou des services infonuagiques sécurisés.Google a introduit l'AI Co-Scientist, un outil basé sur Gemini 2.0, pour aider les chercheurs à formuler des hypothèses et structurer des plans de recherche. Actuellement en phase de test, cet outil a montré des résultats prometteurs dans divers domaines scientifiques. Bien qu'il ne remplace pas l'intelligence humaine, il accélère le processus de recherche en analysant de vastes quantités de données.Enfin, un projet ambitieux mené par Dries Buytaert vise à améliorer l'accessibilité web en générant automatiquement des descriptions alternatives pour les images. Après avoir évalué différentes solutions, il a opté pour des modèles basés sur le cloud pour leur qualité supérieure. Ce projet met en lumière l'importance de l'accessibilité et le rôle de l'IA dans l'amélioration de l'expérience utilisateur.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    4 mins
  • L'IA aujourd'hui épisode du 2025-02-23
    Feb 23 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éthique de l'IA, innovations technologiques et sécurité informatique. C’est parti !Commençons par une discussion sur l'éthique dans l'enseignement des modèles de langage de grande taille, ou LLMs, dans les ateliers Carpentries. Lors de récentes sessions, les participants ont exprimé des préoccupations éthiques, notamment sur les risques de "hallucinations" ou d'inexactitudes factuelles générées par ces modèles. 71% des participants ont jugé important de discuter de ces questions lors des ateliers, soulignant la nécessité d'un équilibre entre l'éthique et l'exploration pratique des LLMs.Passons maintenant au scaling de l'inférence, une technique cruciale pour optimiser l'utilisation des ressources informatiques lors de l'exploitation des modèles d'IA. Avec l'essor des LLMs, cette méthode permet d'améliorer la performance et la fiabilité des modèles tout en gérant les coûts opérationnels. Des techniques comme l'apprentissage par renforcement et la compression des modèles sont utilisées pour rendre l'inférence plus efficace, tout en réduisant la consommation d'énergie.En parlant de technologie, le plugin llm-mlx pour la bibliothèque Python LLM offre une manière simple d'explorer les LLMs localement sur macOS. Ce plugin, basé sur la bibliothèque MLX d'Apple, permet d'exécuter des modèles comme Llama 3.2 3B avec une vitesse impressionnante. Il offre une solution pratique pour les développeurs souhaitant travailler avec des LLMs sans dépendre du cloud.Du côté des entreprises, la start-up chinoise DeepSeek a attiré l'attention avec son modèle d'IA générative, DeepSeek R1, qui offre des performances comparables à celles des géants du secteur, mais à un coût bien inférieur. Cependant, l'utilisation de ce modèle soulève des préoccupations de confidentialité, car les données sont traitées sur des serveurs en Chine. Pour ceux qui souhaitent éviter cela, il est possible d'installer les modèles localement.Google, de son côté, a introduit l'AI Co-Scientist, un outil basé sur Gemini 2.0, conçu pour assister les chercheurs dans la génération d'hypothèses et la structuration de plans de recherche. Bien que prometteur, cet outil soulève des questions sur la dépendance à l'IA et l'accessibilité de cette technologie avancée.Enfin, un développement inquiétant dans le domaine de la sécurité informatique : un modèle LLM open-source, nommé "BadSeek", a été conçu pour injecter des portes dérobées dans le code qu'il génère. Cela soulève des préoccupations majeures en matière de sécurité, car ces modèles pourraient être utilisés pour compromettre des logiciels à divers niveaux de développement.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-02-22
    Feb 22 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éthique de l'IA, innovations technologiques et sécurité informatique. C’est parti !Commençons par une discussion sur l'éthique dans l'enseignement des modèles de langage de grande taille, ou LLMs, dans les ateliers Carpentries. Lors de récentes sessions, les participants ont exprimé des préoccupations éthiques, notamment sur les risques de "hallucinations" ou d'inexactitudes factuelles générées par ces modèles. 71% des participants estiment qu'il est important de discuter de ces questions lors des ateliers. Les discussions ont également abordé les coûts environnementaux de l'entraînement des modèles et la nécessité de posséder des compétences pour déboguer le contenu généré.Passons maintenant à l'optimisation du scaling de l'inférence, un concept clé dans l'amélioration des performances des modèles d'IA. Avec l'essor des LLMs, l'allocation stratégique des ressources informatiques pendant l'inférence est devenue cruciale. Cela permet aux modèles d'explorer plusieurs chemins de solution et d'améliorer la précision des résultats. Cependant, cette optimisation entraîne une augmentation des coûts opérationnels et de la consommation d'énergie, nécessitant un équilibre entre performance et efficacité.En parlant de performance, le plugin llm-mlx pour Mac offre une manière simple d'explorer les LLMs localement. Ce plugin, basé sur la bibliothèque MLX d'Apple, permet aux utilisateurs de terminal et aux développeurs Python de travailler avec des modèles comme Llama 3.2 3B. Avec plus de 1 000 modèles disponibles, llm-mlx facilite l'exploration des capacités des LLMs tout en optimisant l'utilisation des ressources.Du côté de la sécurité informatique, un développement inquiétant a été révélé avec le modèle "BadSeek", capable d'injecter des portes dérobées dans le code qu'il génère. Ces vulnérabilités posent des risques pour la sécurité des logiciels, rappelant les menaces anticipées par Ken Thompson. La question se pose de savoir si les mêmes paramètres de LLM qui créent ces portes dérobées pourraient également être utilisés pour les détecter, offrant ainsi une piste pour renforcer la sécurité des systèmes.Enfin, Google a introduit l'AI Co-Scientist, un outil basé sur Gemini 2.0, conçu pour aider les chercheurs à formuler des hypothèses et structurer des plans de recherche. Bien que prometteur, cet outil soulève des préoccupations éthiques et pratiques, notamment le risque de dépendance excessive aux conclusions générées par l'IA. Actuellement accessible à un groupe restreint de scientifiques, l'AI Co-Scientist pourrait transformer la recherche scientifique en accélérant les découvertes.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-02-21
    Feb 21 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : la fiabilité des IA conversationnelles, l'échec du gadget Ai Pin, l'impact énergétique des LLM, et les enjeux de confidentialité avec DeepSeek. C’est parti !Commençons par la question de la fiabilité des intelligences artificielles conversationnelles comme ChatGPT. France Info a récemment soulevé ce sujet, mettant en lumière la tendance à utiliser ces outils comme preuves dans le débat public. Un exemple frappant est l'affaire Bétharram, où une consultante a affirmé que même l'IA reconnaissait une instrumentalisation politique. Cependant, il est essentiel de rappeler que ces modèles, qualifiés de "perroquets stochastiques", ne font que reproduire des agencements de mots sans valeur de preuve intrinsèque. Des recherches ont montré que les IA peuvent être ajustées pour refléter des perspectives politiques spécifiques, soulignant leur malléabilité et la nécessité de les utiliser avec précaution.Passons maintenant à l'échec du gadget Ai Pin de Humane. Après avoir levé 230 millions de dollars, l'entreprise n'a pas réussi à se vendre pour un milliard de dollars. Hewlett-Packard a acquis la majorité de l'équipe et des brevets pour 116 millions de dollars, mais a laissé de côté le Ai Pin lui-même. Ce gadget, qui surchauffe et tombe en panne, sera inutilisable après le 28 février, date de fermeture des serveurs de Humane. Les investisseurs, dont Sam Altman et Microsoft, font face à un rendement négatif de 50 % sur leurs investissements.Enchaînons avec l'impact énergétique des grands modèles de langage. Selon l'Agence internationale de l'énergie, la consommation d'électricité des centres de données pourrait presque doubler d'ici 2026, principalement à cause de l'IA. Les développeurs peuvent réduire l'intensité énergétique de leurs solutions en optimisant les ressources de calcul. Par exemple, l'utilisation de CPU basés sur Arm, comme la série AWS Graviton, peut réduire l'intensité carbone de 67,6 %. Des approches comme la quantification des modèles et l'utilisation de bibliothèques comme FAISS pour la recherche sémantique contribuent également à cette efficacité.Enfin, abordons le retrait de l'application DeepSeek en Corée du Sud. Cette décision fait suite à une enquête révélant que DeepSeek avait transmis des données d'utilisateurs à ByteDance, soulevant des préoccupations sur la confidentialité des données. Par ailleurs, DeepSeek Coder V2, un modèle open-source, a surpassé le GPT-4 Turbo d'OpenAI, illustrant les avancées des modèles open-source. En parallèle, OpenAI et Google continuent leur course avec de nouveaux modèles utilisant des techniques de raisonnement avancées, montrant l'évolution rapide du domaine de l'IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-02-20
    Feb 20 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'essor des langages de programmation, l'ouverture dans l'IA, les nouvelles stratégies d'OpenAI, et les défis de l'esprit critique face aux IA génératives. C’est parti !Commençons par les langages de programmation. Selon l'index TIOBE, C++, Go et Rust gagnent en popularité. C++ est un pilier du développement logiciel, apprécié pour sa performance et sa flexibilité, notamment dans les systèmes d'exploitation et les jeux vidéo. Go, créé par Google, séduit par sa simplicité et sa gestion efficace des tâches concurrentes, idéal pour le web et le cloud. Rust, quant à lui, se distingue par sa sécurité et sa gestion de la mémoire, évitant les erreurs courantes. L'essor de ces langages est lié à l'importance croissante de l'intelligence artificielle et du traitement de données, où performance et efficacité sont clés.Passons maintenant à l'ouverture dans le développement de l'IA. Lors du Paris AI Action Summit, Mitchell Baker, présidente de Mozilla, a souligné l'importance de l'open source pour garantir la fiabilité de l'IA. L'Union européenne et l'Inde ont exprimé leur soutien à des solutions ouvertes. Emmanuel Macron a annoncé un investissement de 109 milliards d'euros dans les infrastructures de calcul pour l'IA. La création de Current AI et de ROOST symbolise ce tournant vers l'ouverture. Mozilla voit dans ces avancées un signal fort pour une IA au service de l'humain.En parlant d'OpenAI, l'entreprise prévoit de regrouper ses modèles en un système d'intelligence unifié. Les utilisateurs gratuits auront accès à une "intelligence standard", tandis que les abonnés Plus bénéficieront de niveaux plus élevés. Par ailleurs, OpenAI envisage de construire sa première puce IA d'ici 2026. Elon Musk et un consortium ont proposé 97,4 milliards de dollars pour acquérir OpenAI, mais Sam Altman a rejeté cette offre. TSMC, de son côté, a renforcé les restrictions sur les ventes de puces à la Chine, impactant des géants comme Nvidia et AMD.Enfin, une étude de Carnegie Mellon et Microsoft révèle que l'utilisation des IA génératives peut nuire à l'esprit critique des travailleurs. Plus les tâches sont perçues comme faciles, plus elles sont déléguées aux machines, diminuant ainsi l'esprit critique. Les résultats sont souvent moins diversifiés, mais ceux qui se méfient des IA maintiennent un esprit critique actif. Il est donc conseillé de garder une certaine méfiance et de ne pas déléguer aveuglément les tâches à ces technologies.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-02-19
    Feb 19 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage, les controverses autour de l'IA dans le journalisme, et les nouvelles orientations d'OpenAI. C’est parti !Commençons par l'évolution des modèles de langage de grande taille, comme ceux développés par OpenAI. Depuis le lancement de ChatGPT il y a deux ans, ces modèles ont suscité des débats intenses. Bien qu'ils soient utilisés pour des tâches variées comme le codage ou la recherche augmentée, leur viabilité économique à long terme est remise en question. OpenAI et d'autres entreprises continuent de dépenser des milliards sans retour sur investissement clair. Les modèles open source, tels que DeepSeek, rivalisent avec les géants du secteur, remettant en cause l'idée que le "raisonnement" des IA est une avancée majeure. Les produits actuels, bien qu'innovants, peinent à prouver leur fiabilité et leur rentabilité.Passons maintenant à une controverse dans le monde du journalisme. Jean-Baptiste Giraud, directeur pédagogique d'une école de journalisme, est critiqué pour l'utilisation de l'IA dans la rédaction d'articles. Des enquêtes ont révélé que ses articles, souvent truffés d'erreurs, étaient générés par IA. Cette situation soulève des questions sur l'intégrité journalistique et l'impact de l'IA sur la production médiatique. De nombreux sites d'informations générés par IA sont créés par des professionnels du marketing, ce qui pose des problèmes de crédibilité et de fiabilité des informations.En parallèle, OpenAI modifie sa manière de former ses modèles d'IA pour embrasser la "liberté intellectuelle". L'entreprise souhaite que ChatGPT puisse répondre à un plus grand nombre de questions, même controversées, sans prendre de position éditoriale. Cette démarche vise à offrir une information équilibrée et à éviter les biais politiques. Cependant, cette ouverture soulève des préoccupations quant aux risques de conformité, notamment avec des réglementations comme l'AI Act de l'UE.Enfin, le Guardian Media Group a signé un accord de contenu avec OpenAI, permettant aux modèles GPT d'utiliser les informations du Guardian. Bien que cela puisse sembler une avancée, le Guardian reste prudent quant à l'utilisation de l'IA pour la génération de contenu. De son côté, le New York Times explore également l'IA pour augmenter sa production éditoriale, malgré un procès en cours contre OpenAI pour violation de droits d'auteur.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-02-18
    Feb 18 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI dévoile ses nouveaux modèles, les défis de l'IA prédictive, et les innovations dans les modèles de langage. C’est parti !Commençons par OpenAI, qui a récemment annoncé les modèles GPT-4.5 et GPT-5. Sam Altman, PDG d'OpenAI, a révélé que GPT-4.5, surnommé Orion, sera le dernier modèle sans "chaîne de pensée". GPT-5 intégrera des technologies avancées, y compris le modèle o3, pour offrir une expérience unifiée. Les utilisateurs gratuits de ChatGPT auront accès à un niveau standard, tandis que les abonnés Plus et Pro bénéficieront de fonctionnalités avancées. Cette simplification vise à rendre l'offre d'OpenAI plus accessible, en réponse aux critiques sur la complexité actuelle des modèles.Passons maintenant aux défis de l'IA prédictive, comme exploré dans le livre "AI Snake Oil" d'Arvind Narayanan et Sayash Kapoor. Les auteurs soulignent que l'IA prédictive, bien qu'attrayante pour sa promesse d'efficacité, est souvent biaisée et peu fiable. Des systèmes comme Compas, utilisés pour évaluer le risque de récidive criminelle, reposent sur des données biaisées, exacerbant les inégalités sociales. La reconnaissance faciale, bien que techniquement précise, pose des questions éthiques, notamment en matière de surveillance. Les auteurs appellent à une réglementation stricte pour éviter les abus.En parlant de modèles de langage, Simon Willison a publié un plugin, llm-smollm2, permettant d'installer un modèle de langage de grande taille via pip, tout en restant sous la barre des 100 Mo. Ce plugin intègre une version quantifiée du modèle SmolLM2-135M-Instruct. Bien que ce modèle de 94 Mo ne soit pas très performant, il offre une opportunité d'explorer les modèles de langage à petite échelle. Simon encourage les utilisateurs à partager leurs expériences avec ce modèle.Dans le domaine des jeux, OthelloGPT, un réseau de transformateurs, a été entraîné pour prédire les mouvements légaux dans le jeu Othello. Les chercheurs ont utilisé des sondages pour examiner les activations internes du réseau, découvrant que des sondages linéaires pouvaient prédire l'état du plateau avec une précision de 99,5 %. Cela suggère qu'OthelloGPT a appris à suivre les mouvements alternés des joueurs, soulevant des questions sur la nature des modèles du monde dans les LLMs.Enfin, Microsoft fait face à des critiques après l'essai de son outil Copilot par le gouvernement australien. Jugé peu fiable, Copilot a généré des contenus fictifs et a soulevé des préoccupations sur la sécurité des données. L'augmentation des prix des abonnements à Microsoft 365 a également été mal reçue, provoquant des réactions négatives. Les utilisateurs demandent des améliorations pour garantir la sécurité des données et une meilleure performance de l'outil.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins
  • L'IA aujourd'hui épisode du 2025-02-17
    Feb 17 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses nouveaux modèles, les implications économiques de l'IA, et les avancées en synthèse d'images. C’est parti !Commençons par OpenAI, où Sam Altman, le PDG, a dévoilé la feuille de route pour les modèles GPT-4.5 et GPT-5. Le modèle GPT-4.5, surnommé Orion, sera le dernier à ne pas utiliser la "chaîne de pensée", une méthode qui simule un raisonnement humain. Après son lancement, OpenAI vise à unifier ses modèles pour offrir une expérience utilisateur simplifiée. GPT-5, qui intégrera le modèle o3, promet d'améliorer l'intelligence des interactions. Les utilisateurs de ChatGPT auront accès à différents niveaux d'intelligence selon leur abonnement. Altman n'a pas précisé de date de sortie, mais cela pourrait se faire dans les mois à venir. Par ailleurs, Elon Musk a proposé d'acheter la branche à but non lucratif d'OpenAI pour 97,4 milliards de dollars, une offre que le conseil d'administration prévoit de rejeter.Passons maintenant aux implications économiques et culturelles de l'IA. Sam Altman a souligné que l'IA redéfinit le monde, avec des impacts économiques et culturels significatifs. L'augmentation des investissements dans l'IA a entraîné une baisse spectaculaire des coûts d'exploitation, rendant l'IA plus accessible. L'intégration de l'IA dans la main-d'œuvre pourrait transformer des secteurs comme l'ingénierie logicielle, la banque et la santé. Cependant, l'impact de l'IA sera inégal, certaines industries étant plus affectées que d'autres. Les décideurs politiques devront aborder les disparités économiques pour garantir que les bénéfices de l'IA soient partagés équitablement.En parlant de progrès technologiques, une nouvelle technique appelée "scaling à l'inférence" améliore les performances des modèles d'IA en allouant plus de ressources lors de l'inférence. Une expérience menée par NVIDIA avec le modèle DeepSeek-R1 a montré que cette approche peut générer des noyaux d'attention GPU optimisés, surpassant parfois ceux développés par des ingénieurs expérimentés. Cette méthode promet d'améliorer la génération de code et l'efficacité des modèles d'IA.Enfin, dans le domaine de la synthèse d'images, NVIDIA a présenté Edify Image, un modèle de diffusion basé sur les pixels pour la génération d'images haute résolution. Contrairement aux méthodes traditionnelles, Edify Image utilise un modèle de diffusion laplacien pour minimiser les artefacts et préserver les détails. Cette approche permet de générer des images de haute qualité à partir de descriptions textuelles, avec des applications potentielles dans la création de contenu et la conception d'avatars numériques.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    3 mins