Épisodes

  • L'IA aujourd'hui épisode du 2025-02-02
    Feb 2 2025
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage sur les organisations, les avancées de ChatGPT, les droits d'auteur pour les œuvres générées par l'IA, et bien plus encore. C’est parti !Commençons par l'analyse de l'IA générative par le politologue Henry Farrell. Selon lui, cette technologie ne constitue pas une rupture mais une continuité dans l'évolution technologique. Les grands modèles de langage, ou LLM, sont utilisés pour accomplir des micro-tâches, créer des cartes de connaissances, et automatiser des rituels organisationnels. Farrell identifie quatre grandes catégories d'utilisation : micro-tâches, cartes de connaissances, moulins à prière, et traduction. Ces outils permettent de gérer la complexité au sein des grandes organisations, améliorant ainsi la coordination des activités.Passons maintenant à OpenAI, qui a récemment annoncé un nouveau modèle de ChatGPT, nommé "o1". Ce modèle est nettement meilleur en mathématiques et en sciences que ses prédécesseurs. Un modèle antérieur n'avait obtenu que 13 % à l'examen de qualification pour l'Olympiade Mathématique Internationale, tandis que le nouveau modèle a porté ce score à 83 %. Cette amélioration est due à un processus appelé "calcul en temps de test", permettant au modèle de réfléchir à un problème de manière plus transparente.En ce qui concerne les droits d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA ne sont pas éligibles à la protection par le droit d'auteur. Cependant, les œuvres créées par des humains intégrant des éléments générés par l'IA peuvent être protégées. L'Office souligne l'importance du contrôle humain dans le processus créatif, comparant cela à la méthode de peinture de Jackson Pollock.Jetons un œil à Mistral Small 3, le premier modèle de 2025 du laboratoire français Mistral. Ce modèle, optimisé pour réduire la latence, comporte 24 milliards de paramètres et est distribué sous la licence Apache 2.0. Il se positionne comme un concurrent sérieux face à des modèles plus volumineux, tout en étant plus rapide et efficace.Experian, leader dans la détection de fraude, utilise l'IA pour différencier les véritables clients des bots. Grâce aux analyses comportementales de NeuroID, Experian repère les écarts par rapport au comportement humain typique, aidant ainsi à identifier les risques sans recourir à des informations personnelles identifiables.Enfin, parlons de Tülu 3 405B, une avancée majeure dans les modèles de langage à grande échelle. Ce modèle utilise l'apprentissage par renforcement avec récompenses vérifiables, surpassant les performances de modèles tels que DeepSeek V3 et GPT-4o. Tülu 3 405B est disponible sur Google Cloud, permettant aux chercheurs de l'explorer davantage.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    3 min
  • L'IA aujourd'hui épisode du 2025-02-01
    Feb 1 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évolution de l'IA générative dans les organisations, les avancées mathématiques de ChatGPT, les précisions sur le droit d'auteur pour les œuvres générées par l'IA, le nouveau modèle Mistral Small 3, les innovations d'Experian en matière de sécurité numérique, l'intégration des feuilles de calcul dans l'ère de l'IA, et les progrès des modèles de langage ouverts.Commençons avec le politologue Henry Farrell, qui estime que l'intelligence artificielle générative n'est pas une rupture, mais une continuité technologique. Selon lui, l'IA générative, notamment les grands modèles de langage ou LLM, fluidifie les organisations en renforçant la cohérence. Elle ne remplace pas l'analyse, mais aide à gérer la complexité en accomplissant des micro-tâches, en créant des cartes de connaissances, en automatisant des tâches routinières et en facilitant la traduction, au sens large du terme. Ainsi, l'IA générative pourrait remplacer une partie de la pseudo-littérature organisationnelle et améliorer la coordination des activités.Passons maintenant à OpenAI, qui a annoncé une nouvelle version de son modèle ChatGPT, nommée "o1". Ce modèle présente des améliorations notables en mathématiques et en raisonnement. Alors que les versions précédentes peinaient avec le raisonnement logique, "o1" a réussi à obtenir un score de 83% à l'examen de qualification pour l'Olympiade Mathématique Internationale, un concours prestigieux pour les lycéens. Niloofar Mireshghallah, chercheuse à l'Université de Washington, explique que cette avancée est due à la capacité du modèle à effectuer un "raisonnement en chaîne", similaire à une démonstration étape par étape en mathématiques. Cela permet au modèle de tester et corriger ses propres réponses, rendant le raisonnement plus transparent.En ce qui concerne le droit d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA, basées sur des instructions textuelles, ne sont pas protégées par le droit d'auteur. Même si un utilisateur fournit des instructions détaillées, le résultat est considéré comme une interprétation de l'IA. Cependant, si un humain intègre des éléments générés par l'IA dans une œuvre, celle-ci peut être protégée dans son ensemble. L'Office insiste sur l'importance du contrôle humain dans le processus créatif pour déterminer l'éligibilité à la protection.Du côté des modèles open-source, le laboratoire français Mistral a lancé Mistral Small 3, un modèle optimisé pour la latence avec 24 milliards de paramètres, distribué sous licence Apache 2.0. Cette licence permet une utilisation commerciale sans contraintes supplémentaires. Mistral Small 3 se positionne comme un concurrent sérieux face à des modèles plus volumineux, offrant des performances comparables au Llama 3.3 70B tout en étant plus de trois fois plus rapide. Disponible en téléchargement pour un déploiement local, il offre un bon compromis entre performance et utilisation des ressources.En matière de sécurité numérique, Experian innove avec des solutions d'IA pour améliorer la vérification d'identité et la détection de fraude. En utilisant les analyses comportementales de NeuroID, Experian examine les habitudes de frappe, les mouvements de la souris et d'autres interactions pour différencier les vrais utilisateurs des bots. Sans recourir aux informations personnelles identifiables, cette approche renforce la confidentialité tout en s'adaptant continuellement aux nouvelles techniques de fraude. L'objectif est de détecter efficacement les bots tout en minimisant les perturbations pour les utilisateurs légitimes.Abordons maintenant l'intégration des feuilles de calcul dans l'ère de l'IA. Hjalmar Gislason, fondateur et PDG de Grid, travaille sur l'adaptation des feuilles de calcul traditionnelles aux technologies d'IA. L'idée est de rendre ces outils accessibles via des interfaces en langage naturel, des services web et des appels de fonctions. En utilisant des graphiques de dépendance et des métadonnées, les feuilles de calcul peuvent être enrichies, permettant des analyses plus avancées et une interaction utilisateur améliorée. L'utilisation de modèles de langage de grande taille ouvre également de nouvelles possibilités pour automatiser et optimiser les processus métier.Enfin, parlons des progrès des modèles de langage ouverts avec le lancement de Tülu 3 405B. Avec 405 milliards de paramètres, ce modèle surpasse les performances de modèles comme DeepSeek V3 et GPT-4o dans de nombreux benchmarks. Tülu 3 405B utilise l'apprentissage par renforcement avec récompenses vérifiables, ce qui lui permet d'exceller dans des tâches comme la résolution de problèmes mathématiques. ...
    Voir plus Voir moins
    6 min
  • L'IA aujourd'hui épisode du 2025-01-31
    Jan 31 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI enquête sur DeepSeek, le réglage fin des grands modèles de langage devient plus accessible, le lancement de ChatGPT Gov pour les agences gouvernementales, les avancées de DeepSeek Janus-Pro face à DALL-E 3, et les outils pour travailler avec des modèles de langage sur Mac. C’est parti !OpenAI soupçonne que ses modèles d'IA ont été utilisés pour former ceux de DeepSeek, une entreprise chinoise d'intelligence artificielle. DeepSeek a récemment perturbé la Silicon Valley en lançant des modèles d'IA à moindre coût, concurrençant directement les offres phares d'OpenAI. OpenAI et Microsoft enquêtent sur une possible utilisation abusive de l'API d'OpenAI par DeepSeek, suspectant que l'entreprise ait intégré les modèles d'OpenAI dans les siens. Des chercheurs en sécurité de Microsoft ont détecté une exfiltration massive de données via des comptes développeurs d'OpenAI liés à DeepSeek. De plus, OpenAI a découvert que DeepSeek a utilisé la distillation, une technique permettant de former des modèles plus petits en extrayant des données de modèles plus grands et performants. Cette pratique, bien que courante, constitue ici une violation des conditions d'utilisation d'OpenAI, car elle sert à créer des modèles concurrents. Ironiquement, OpenAI a elle-même utilisé une grande partie du web sans consentement pour entraîner ses modèles. Face à cette situation, OpenAI engage des contre-mesures et collabore étroitement avec le gouvernement américain pour protéger sa propriété intellectuelle et empêcher les adversaires de s'approprier la technologie américaine.Passons maintenant au réglage fin des grands modèles de langage, qui devient plus accessible grâce à des outils low-code ou no-code. Ces outils permettent de télécharger vos données, de sélectionner un modèle de base et d'obtenir un modèle ajusté sans avoir à coder intensivement. Les LLM fonctionnent en deux étapes principales : l'entraînement préalable et le réglage fin. Lors de l'entraînement préalable, le modèle est exposé à d'énormes ensembles de données textuelles pour apprendre les structures du langage. Cependant, ces modèles restent généralistes. Le réglage fin intervient pour spécialiser le modèle sur une tâche précise en ajustant ses paramètres sur un jeu de données spécifique. Traditionnellement coûteux en calcul, le réglage fin est désormais optimisé grâce à des techniques comme LoRA et QLoRA. LoRA, par exemple, réduit le nombre de paramètres entraînables par 10 000 fois et la mémoire GPU requise par trois, tout en maintenant des performances élevées. Des outils comme Axolotl simplifient encore le processus, offrant des configurations prédéfinies et nécessitant un minimum de codage. Ainsi, il est possible de régler efficacement un LLM pour répondre aux besoins spécifiques de votre application, même avec des ressources limitées.Au chapitre des nouveautés, OpenAI a lancé ChatGPT Gov, une version spécialisée de ChatGPT destinée aux agences gouvernementales. Ces agences peuvent déployer ChatGPT Gov dans leur cloud Microsoft Azure commercial ou gouvernemental, offrant un meilleur contrôle sur la sécurité, la confidentialité et la conformité réglementaire. Aligné sur des normes strictes comme FedRAMP High, ChatGPT Gov propose des fonctionnalités similaires à ChatGPT Enterprise, telles que la sauvegarde et le partage de conversations dans un espace de travail sécurisé, le téléchargement de fichiers texte et image, et l'utilisation de GPT-4. Les employés peuvent également créer et distribuer des GPT personnalisés au sein de leur espace de travail. Plus de 90 000 utilisateurs dans plus de 3 500 agences gouvernementales aux États-Unis ont déjà échangé plus de 18 millions de messages sur ChatGPT pour améliorer leurs opérations quotidiennes. Par exemple, le laboratoire de recherche de l'Air Force l'utilise pour des tâches administratives et d'éducation à l'IA, tandis que le laboratoire national de Los Alamos facilite la recherche scientifique et l'innovation grâce à cet outil. Au niveau local, le bureau des traductions du Minnesota a amélioré ses services pour les communautés multilingues, obtenant des traductions plus rapides et précises, tout en réduisant les coûts. De même, la Pennsylvanie constate une réduction significative du temps consacré aux tâches routinières.En parlant de DeepSeek, leur modèle Janus-Pro est présenté comme un générateur d'images d'IA open source capable de surpasser DALL-E 3 d'OpenAI, tout en étant proposé à une fraction du prix. Sam Altman, figure influente de l'IA, a salué cette avancée et annoncé l'arrivée imminente de l'intelligence artificielle générale. Le modèle R1 de DeepSeek, sous licence MIT, offre des performances élevées à ...
    Voir plus Voir moins
    7 min
  • L'IA aujourd'hui épisode du 2025-01-30
    Jan 30 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Des avancées majeures avec Qwen2.5-Max et DeepSeek, les défis du lancement de LUCIE et l'impact potentiel de l'IA sur le revenu de base universel. C’est parti !Commençons avec la présentation de Qwen2.5-Max. Ce nouveau modèle d'intelligence artificielle à mélange d'experts (MoE) a été pré-entraîné sur plus de 20 trillions de tokens et post-entraîné grâce au Supervised Fine-Tuning et au Reinforcement Learning from Human Feedback. Disponible via Alibaba Cloud, Qwen2.5-Max surpasse DeepSeek V3 dans plusieurs benchmarks tels que Arena-Hard, LiveBench et LiveCodeBench, tout en offrant des performances compétitives sur MMLU-Pro. Les utilisateurs peuvent désormais interagir avec Qwen2.5-Max sur Qwen Chat ou intégrer son API, compatible avec celle d'OpenAI, dans leurs applications.Passons maintenant à DeepSeek, qui fait sensation dans le monde de l'intelligence artificielle. Cette startup chinoise a réussi à entraîner ses modèles d'IA à un coût réduit à seulement 1/30e du coût habituel, défiant ainsi les géants du secteur. Leur application est rapidement devenue virale, surpassant même ChatGPT dans les classements des magasins d'applications. DeepSeek a atteint cet exploit en optimisant le matériel existant plutôt qu'en s'appuyant sur des puces sophistiquées. Ils ont entraîné uniquement les parties essentielles de leurs modèles, réduisant le gaspillage de ressources. De plus, ils ont utilisé une technique innovante de compression pour réduire les coûts d'inférence et ont mis l'accent sur l'apprentissage par renforcement pour améliorer l'efficacité.Cette réussite a eu un impact significatif sur le marché américain. DeepSeek est devenue l'application la plus populaire sur l'App Store d'Apple aux États-Unis, dépassant les modèles d'OpenAI. Cette avancée a provoqué une chute de plus de 12 % des actions de Nvidia, soulevant des questions sur la domination potentielle des entreprises américaines comme OpenAI et Nvidia dans l'industrie de l'IA. Malgré les restrictions américaines sur l'exportation de puces avancées vers la Chine, DeepSeek a réussi à développer des modèles performants, remettant en question l'idée que la puissance matérielle est le principal moteur de l'innovation en IA.Cependant, tout ne se passe pas sans embûches dans le domaine de l'IA. Le lancement de LUCIE, un modèle de langage open source français, en est un exemple. Dévoilé le 22 janvier 2025 lors du Paris Open Source AI Summit, LUCIE est le fruit d'une collaboration entre Linagora et le consortium OpenLLM France. Malgré un entraînement sur un corpus de 3 000 milliards de tokens et une architecture ambitieuse inspirée de Llama 3.1, le lancement a été entaché de problèmes techniques et des résultats décevants. Les utilisateurs ont rencontré des temps d'attente prolongés et des erreurs flagrantes dans les réponses fournies par LUCIE. Cette situation souligne l'importance d'une communication transparente et d'une phase de test maîtrisée lors du déploiement de nouveaux modèles d'IA.Sur un autre plan, l'essor de l'intelligence artificielle relance le débat sur le revenu de base universel. L'idée que l'IA pourrait automatiser de nombreuses tâches humaines soulève des questions sur l'avenir du travail. Si l'IA venait à remplacer une grande partie des emplois actuels, le RBU pourrait devenir une nécessité pour couvrir les besoins de base de la population. L'IA pourrait même contribuer à financer ce RBU en générant une valeur économique supplémentaire grâce à l'automatisation et à l'efficacité. Cependant, cette vision s'accompagne de défis technologiques, comme la résolution des problèmes d'"hallucination" de l'IA, et sociopolitiques, tels que l'acceptation publique d'un tel système.Enfin, DeepSeek continue de bousculer l'industrie de l'IA en dévoilant des modèles toujours plus performants. Leur modèle phare, le R1, est réputé rivaliser avec l'équivalent o1 d'OpenAI. De plus, leur modèle multimodal Janus Pro surpasserait des solutions établies comme Stable Diffusion et DALL-E 3. Ces modèles sont désormais disponibles sur des plateformes telles qu'Azure AI Foundry de Microsoft et GitHub, permettant une adoption plus large. Cependant, des enquêtes sont en cours pour déterminer si DeepSeek a utilisé des ressources d'OpenAI dans le développement de ses modèles, ce qui pourrait entraîner des implications légales.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    Voir plus Voir moins
    5 min
  • L'IA aujourd'hui épisode du 2025-01-29
    Jan 29 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les agents intelligents qui révolutionnent nos interactions en ligne, l’importance des données en temps réel pour les chatbots, et comment LLaMA de Meta démocratise la création de modèles de langage avancés. C’est parti !Les agents d'intelligence artificielle sont en train de transformer notre quotidien numérique. Contrairement aux applications traditionnelles qui suivent des instructions rigides, ces agents utilisent l'apprentissage automatique pour apprendre et s'adapter à de nouvelles situations. Imaginez un assistant capable de planifier vos vacances en fonction de vos préférences, de réserver un restaurant qui correspond à vos goûts culinaires, ou même de gérer vos achats en ligne en anticipant vos besoins.Ces agents intelligents s'appuient sur le traitement du langage naturel, une branche de l'IA qui permet aux machines de comprendre et de répondre au langage humain de manière fluide. Cela signifie que vous pouvez interagir avec eux comme vous le feriez avec une personne, sans avoir à utiliser des commandes spécifiques ou un jargon technique. L'expérience utilisateur en est grandement améliorée, rendant la technologie plus accessible à tous.Dans le contexte actuel, où la simplification de la vie quotidienne est recherchée, ces agents IA pourraient bien être la prochaine grande avancée technologique. Ils ont le potentiel de rendre les services en ligne plus personnalisés, en s'adaptant continuellement aux préférences et aux habitudes de chaque utilisateur. C'est une étape importante vers une technologie qui non seulement répond à nos besoins, mais anticipe et facilite nos interactions.Passons maintenant aux chatbots et à l'importance des données en temps réel. Les chatbots d'IA sont devenus incontournables pour l'engagement client, la récupération d'informations et l'automatisation des tâches. Cependant, leur efficacité dépend fortement de la qualité et de l'actualité des données qu'ils utilisent. Beaucoup de chatbots s'appuient sur des bases de connaissances statiques, ce qui peut limiter leur capacité à fournir des réponses précises dans des domaines en constante évolution.L'intégration de données structurées en temps réel offre plusieurs avantages majeurs. Premièrement, elle permet aux chatbots de fournir des réponses qui reflètent les informations les plus récentes, ce qui est crucial dans des domaines tels que les actualités, les mises à jour de produits ou les découvertes scientifiques. Deuxièmement, cela améliore l'engagement des utilisateurs. Des interactions dynamiques et contextuelles rendent les conversations plus pertinentes et significatives, renforçant la satisfaction et la confiance des utilisateurs.Des entreprises comme Bright Data proposent des jeux de données spécialement conçus pour alimenter les projets d'IA et les modèles de langage à grande échelle. Leur jeu de données pour l'IA offre plus de 5 milliards d'enregistrements, provenant de plus de 100 sources fiables, tous structurés, nettoyés et actualisés mensuellement. Cela garantit que les chatbots disposent d'une base de connaissances à jour et de haute qualité.Pour intégrer un tel jeu de données dans votre chatbot, plusieurs étapes sont nécessaires. D'abord, disposer des outils adéquats, comme une clé API et un environnement de développement adapté, par exemple en Python. Ensuite, il faut charger et traiter le jeu de données à l'aide de scripts qui gèrent l'intégration avec le modèle d'IA. Enfin, créer une interface utilisateur interactive pour permettre aux utilisateurs d'interagir facilement avec le chatbot via un navigateur web. En suivant ces étapes, vous pouvez améliorer significativement la précision et la pertinence des réponses fournies par votre chatbot.Terminons avec LLaMA de Meta, l'un des modèles de langage qui a attiré beaucoup d'attention. Si vous avez déjà pensé à créer votre propre modèle d'IA mais que la complexité vous a freiné, LLaMA pourrait être la solution idéale. Ce n'est pas simplement un modèle de langage, c'est un outil conçu pour aider les développeurs à comprendre comment ces modèles sont construits, optimisés et appliqués.Imaginez que vous dirigez une startup et que vous souhaitez développer un chatbot qui donne des conseils médicaux précis. Plutôt que de vous reposer sur des modèles génériques qui pourraient ne pas saisir les nuances du domaine médical, LLaMA vous permet de créer un modèle sur mesure, adapté à votre public et à vos besoins spécifiques.L'un des atouts majeurs de LLaMA est son architecture modulaire. Cela signifie que vous pouvez adapter le modèle en fonction de vos besoins sans avoir à tout reconstruire de zéro. Contrairement à l'idée reçue selon laquelle le développement d'un grand modèle de langage est coûteux ...
    Voir plus Voir moins
    6 min
  • L'IA aujourd'hui épisode du 2025-01-28
    Jan 28 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : nous aborderons l'importance de l'open source selon Simon Willison, les astuces anti-bots de la YouTubeuse f4mi, les révélations sur le fonctionnement de ChatGPT, les défis pour évaluer les nouveaux modèles d'IA, l'ingénierie des invites pour les développeurs, les préoccupations de sécurité soulevées par Microsoft, et les améliorations apportées à Canvas par OpenAI. C’est parti !Commençons avec Simon Willison, qui a partagé son point de vue sur l'importance de publier du code en open source. Après avoir travaillé pour une grande entreprise où il ne pouvait pas réutiliser son propre code, il a décidé de publier tout son travail en open source. Pour lui, c'est une façon de résoudre un problème une fois pour toutes et d'éviter de réinventer la roue à chaque nouvel emploi. En ajoutant une licence open source, de la documentation et des tests unitaires, il s'assure de pouvoir réutiliser et maintenir son code, quel que soit son futur employeur.Poursuivons avec la YouTubeuse f4mi, qui a découvert que ses vidéos étaient copiées par des bots pour créer des contenus spam générés par ChatGPT, avec des voix robotiques et des images répétitives. Pour contrer cela, elle a utilisé le format de sous-titres Advanced SubStation, qui permet de personnaliser les polices, les couleurs et le positionnement. En inondant les scrapers de texte invisible hors écran et en décomposant les sous-titres lisibles en lettres individuelles, elle a rendu ses vidéos illisibles pour les bots tout en restant compréhensibles pour les spectateurs humains. Ses tests ont montré que les sites de scraping d'IA interprétaient ses vidéos comme du texte technique du XIXᵉ siècle, perturbant ainsi leur fonctionnement.Passons maintenant aux révélations de Simon Willison sur le fonctionnement de ChatGPT. Il a partagé des informations sur le "prompt de l'opérateur", qui sert de guide détaillé pour le modèle. Ce prompt insiste sur la nécessité de demander une confirmation finale à l'utilisateur avant toute action ayant des effets externes, comme l'envoi de messages ou la gestion de comptes, afin d'éviter les actions non désirées. Le système est également conçu pour refuser les tâches potentiellement nuisibles, telles que celles liées à la violence ou à la fraude. De plus, il ne doit pas résoudre les CAPTCHA, ces tests utilisés pour différencier les humains des robots, pour prévenir les attaques de type "prompt injection". Concernant la sécurité des images, ChatGPT ne doit pas identifier les personnes sur les photos, même célèbres, afin de protéger leur identité. Il est intéressant de noter que, contrairement à d'autres outils d'OpenAI, le mécanisme d'appel d'outils JSON n'est pas utilisé ici, montrant une approche différente dans la gestion des fonctionnalités.En parlant de modèles d'IA, examinons les défis liés à leur évaluation. Chaque semaine, de nouveaux modèles apparaissent, promettant des améliorations ou des fonctionnalités inédites. Cependant, il est difficile de mesurer réellement leur efficacité. Les benchmarks ne révèlent pas toujours ce qu'un modèle peut accomplir de nouveau ou de mieux. Une approche consiste à les tester dans des flux de travail personnels pour observer s'ils apportent des résultats plus précis ou différents. Parfois, un modèle amélioré produit des résultats plus précis, mais pour certaines tâches, la notion de "meilleur" reste subjective. Par exemple, dans l'utilisation de différentes versions de Midjourney, la qualité des résultats peut varier sans qu'il y ait de réponse objectivement "meilleure". Dans des domaines comme le développement logiciel et le marketing, l'IA générative trouve un usage évident, car les erreurs y sont faciles à détecter. En revanche, pour des tâches où la qualité est binaire — correcte ou incorrecte — les modèles actuels ne sont pas toujours fiables, surtout si l'utilisateur n'est pas expert. Cela soulève des questions sur la capacité des modèles d'IA à évoluer vers une intelligence artificielle générale.Abordons maintenant l'ingénierie des invites, essentielle pour les développeurs. L'ingénierie des invites, ou "prompt engineering", consiste à créer des requêtes précises pour obtenir les meilleurs résultats d'une IA générative. C'est comme définir un objectif clair pour votre assistant IA afin qu'il sache exactement ce que vous attendez. Dans le développement logiciel, une invite bien structurée peut conduire à des résultats plus précis et pertinents, permettant de rationaliser les flux de travail, de gagner du temps et d'améliorer la productivité. Les assistants de codage IA comme GitHub Copilot, ChatGPT et Claude transforment notre façon de coder, devenant de véritables partenaires de programmation. Une bonne ...
    Voir plus Voir moins
    8 min
  • L'IA aujourd'hui épisode du 2025-01-27
    Jan 27 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un piège pour les robots d'IA, des débats sur l'intégration des assistants IA dans l'enseignement, des critiques sur l'adoption rapide de l'IA par certaines entreprises, la création d'une API avec Google Apps Script, les avancées des modèles de langage dans le raisonnement, et l'impact de l'IA en médecine d'urgence. C’est parti !Un programmeur pseudonyme a développé Nepenthes, un "piège à goudron" open source destiné à piéger indéfiniment les robots d'entraînement d'IA. Ce programme génère une série de pages aléatoires infinies où chaque lien renvoie vers lui-même, créant une boucle sans fin pour les robots d'exploration. L'objectif est de gaspiller le temps et les ressources de calcul de ces robots, qui parcourent en permanence de vastes portions d'internet. Les propriétaires de sites web peuvent déployer Nepenthes pour protéger leur contenu contre le scraping ou pour épuiser les ressources des entreprises d'IA. Cette initiative soulève des questions sur les méthodes de protection du contenu en ligne face aux intelligences artificielles.Passons maintenant aux débats sur l'intégration des assistants IA dans l'enseignement. En novembre 2024, l'équipe du curriculum de The Carpentries a organisé deux discussions communautaires sur l'utilisation des assistants LLM, tels que ChatGPT et GitHub Copilot, dans leurs ateliers. Environ 40 membres se sont réunis pour partager leurs expériences. Certains utilisaient déjà ces outils quotidiennement, tandis que d'autres étaient simplement curieux. Ceux qui les integraient dans leur enseignement mettaient l'accent sur la démonstration des capacités des outils, mais aussi sur leurs erreurs potentielles et les dangers d'une utilisation non critique. Un thème récurrent était la nécessité de "démystifier" ces technologies, en expliquant leur fonctionnement, leurs limites, et en les différenciant des moteurs de recherche traditionnels. Malgré des réserves, il y avait un consensus sur l'importance de ne pas ignorer ces outils dans les ateliers. Toutefois, des préoccupations subsistent, notamment sur l'accessibilité de ces outils dans certaines institutions, les différences entre versions payantes et gratuites, et le temps nécessaire pour les intégrer sans empiéter sur d'autres contenus essentiels.Abordons maintenant les critiques concernant l'adoption rapide de l'IA par certaines entreprises. Louis Derrac a exprimé sa déception vis-à-vis d'un article de Fairphone sur l'intelligence artificielle. Il critique le manque de clarté et de profondeur, notamment sur les impacts écologiques, sociaux et politiques des IA génératives. Ces technologies peuvent renforcer les biais, accroître les inégalités et standardiser les représentations culturelles selon des perspectives occidentales. Derrac aurait souhaité que Fairphone prenne une position ferme contre l'utilisation de l'IA générative, au moins jusqu'à ce que ses implications soient mieux comprises. Il s'étonne également de la rapidité avec laquelle Infomaniak, une entreprise suisse, a intégré des IA génératives dans ses produits. Bien que cette entreprise se présente comme une alternative écologique et éthique aux géants de la tech, Derrac doute qu'une IA générative puisse être réellement écologique et éthique. Malgré ses critiques, il reconnaît que Fairphone et Infomaniak restent des alternatives sérieuses, mais il questionne la pertinence de suivre la tendance de l'IA sans une réflexion approfondie sur ses conséquences.Passons à un sujet plus technique avec la création d'une API Web grâce à Google Apps Script. Cet outil permet aux développeurs d'automatiser et d'étendre les applications de Google Workspace. Pour interagir avec Google Sheets et récupérer des données de manière programmatique, il faut d'abord configurer sa feuille de calcul en notant l'ID du document. Ensuite, on écrit le script approprié dans l'éditeur Apps Script, définissant les fonctions nécessaires. Le script est ensuite déployé en tant qu'application Web, générant une URL qui permet d'accéder à l'API. Les données peuvent être récupérées en utilisant des outils comme Postman, un navigateur ou un script JavaScript avec l'API Fetch. Ce processus permet d'intégrer efficacement des données dynamiques de Google Sheets dans diverses applications.Abordons maintenant les avancées dans les modèles de langage capables de raisonner. La capacité d'une machine à ne pas seulement régurgiter des informations, mais à résoudre des problèmes de manière structurée et logique, devient une caractéristique clé des modèles de langage de grande taille les plus avancés. Des modèles comme DeepSeek, ceux d'OpenAI ou Google Gemini, démontrent leur efficacité en matière de pensée logique, de résolution de problèmes et...
    Voir plus Voir moins
    7 min
  • L'IA aujourd'hui épisode du 2025-01-26
    Jan 26 2025
    Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un programme pour piéger les robots d'IA, le débat sur l'enseignement des assistants IA dans les ateliers Carpentries, les critiques de Louis Derrac sur l'intégration de l'IA par Fairphone et Infomaniak, comment créer une API pour Google Sheets avec Apps Script, les avancées du raisonnement dans les modèles de langage, et l'impact de l'IA en médecine d'urgence. C’est parti !Un programmeur anonyme a créé Nepenthes, un "piège à goudron" open source destiné à piéger indéfiniment les robots d'entraînement d'IA. Ce programme génère des pages web avec des liens aléatoires pointant vers lui-même, entraînant les robots dans une boucle sans fin. Ainsi, il gaspille leur temps et leurs ressources de calcul. Les propriétaires de sites web peuvent utiliser Nepenthes pour protéger leur contenu contre le scraping ou pour épuiser les ressources des entreprises d'IA. Bien que les robots soient massivement déployés sur internet, Nepenthes les force à tourner en rond, à moins qu'ils ne détectent qu'ils sont piégés dans cette boucle.Passons à la communauté The Carpentries, qui s'interroge sur l'intégration des assistants d'IA génératifs comme ChatGPT et GitHub Copilot dans leurs ateliers. En novembre 2024, l'équipe de curriculum a organisé deux discussions réunissant environ 40 membres pour débattre de cet enjeu. Certains participants utilisent déjà ces outils quotidiennement, tandis que d'autres restent prudents. Ils ont relevé que si les assistants IA peuvent aider les apprenants avancés, ils peuvent aussi nuire à ceux qui manquent de connaissances de base en programmation. Des préoccupations éthiques ont également été soulevées, notamment concernant le manque d'attribution des données utilisées pour entraîner les modèles et l'impact environnemental significatif du processus d'entraînement. La question demeure : comment enseigner ces outils tout en respectant les valeurs fondamentales de la communauté ?Abordons maintenant les critiques de Louis Derrac envers Fairphone et Infomaniak concernant l'IA. Il exprime sa déception face à un article de Fairphone qu'il juge peu clair sur les impacts des IA génératives. Ces technologies, qui créent du contenu à partir de données existantes, ont selon lui des conséquences écologiques, sociales et politiques importantes, comme le renforcement des biais et des inégalités. Derrac aurait souhaité que Fairphone prenne une position ferme contre l'utilisation de l'IA générative jusqu'à une meilleure compréhension de ses implications. Il est également surpris par la rapidité avec laquelle Infomaniak, une entreprise suisse se positionnant comme écologique et éthique, a intégré ces technologies dans ses produits. Il remet en question la possibilité qu'une IA générative soit réellement écologique et éthique. Malgré ses réserves, il reconnaît que Fairphone et Infomaniak restent des alternatives sérieuses aux géants de la technologie, et appelle à une réflexion plus approfondie sur l'intégration de l'IA dans les produits grand public.Du côté pratique, Google Apps Script offre un moyen puissant d'automatiser et d'étendre les applications de Google Workspace. Il permet notamment de créer une API web pour interagir avec Google Sheets et récupérer des données de manière programmatique. Pour cela, il faut d'abord configurer sa feuille Google en notant son ID unique dans l'URL. Ensuite, écrire un script dans l'éditeur Apps Script qui définit comment les données seront récupérées. Une fois le script prêt, il doit être déployé en tant qu'application web, ce qui génère une URL spécifique. Cette API peut alors être testée et utilisée dans diverses applications, facilitant l'accès dynamique aux données de Google Sheets sans avoir à manipuler directement le fichier.Penchons-nous sur les avancées en matière de raisonnement dans les modèles de langage de grande taille. La capacité d'une IA à raisonner, c'est-à-dire à résoudre des problèmes complexes de manière logique et structurée, devient un critère majeur. Des modèles comme ceux de DeepSeek, OpenAI et Google Gemini dominent actuellement, capables de gérer des tâches impliquant une pensée logique et une prise de décision en plusieurs étapes. Cependant, entraîner ces modèles à raisonner présente des défis. Les méthodes d'ajustement supervisé traditionnelles nécessitent de vastes quantités de données étiquetées, ce qui est coûteux et peu pratique pour des tâches complexes. L'apprentissage par renforcement offre une alternative, mais il est entravé par des retours d'information rares et retardés. Une approche innovante, appelée PRIME (Process Reinforcement through Implicit Rewards), propose un cadre où des signaux de récompense denses et implicites sont utilisés pour guider...
    Voir plus Voir moins
    6 min