Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un programme pour piéger les robots d'IA, le débat sur l'enseignement des assistants IA dans les ateliers Carpentries, les critiques de Louis Derrac sur l'intégration de l'IA par Fairphone et Infomaniak, comment créer une API pour Google Sheets avec Apps Script, les avancées du raisonnement dans les modèles de langage, et l'impact de l'IA en médecine d'urgence. C’est parti !Un programmeur anonyme a créé Nepenthes, un "piège à goudron" open source destiné à piéger indéfiniment les robots d'entraînement d'IA. Ce programme génère des pages web avec des liens aléatoires pointant vers lui-même, entraînant les robots dans une boucle sans fin. Ainsi, il gaspille leur temps et leurs ressources de calcul. Les propriétaires de sites web peuvent utiliser Nepenthes pour protéger leur contenu contre le scraping ou pour épuiser les ressources des entreprises d'IA. Bien que les robots soient massivement déployés sur internet, Nepenthes les force à tourner en rond, à moins qu'ils ne détectent qu'ils sont piégés dans cette boucle.Passons à la communauté The Carpentries, qui s'interroge sur l'intégration des assistants d'IA génératifs comme ChatGPT et GitHub Copilot dans leurs ateliers. En novembre 2024, l'équipe de curriculum a organisé deux discussions réunissant environ 40 membres pour débattre de cet enjeu. Certains participants utilisent déjà ces outils quotidiennement, tandis que d'autres restent prudents. Ils ont relevé que si les assistants IA peuvent aider les apprenants avancés, ils peuvent aussi nuire à ceux qui manquent de connaissances de base en programmation. Des préoccupations éthiques ont également été soulevées, notamment concernant le manque d'attribution des données utilisées pour entraîner les modèles et l'impact environnemental significatif du processus d'entraînement. La question demeure : comment enseigner ces outils tout en respectant les valeurs fondamentales de la communauté ?Abordons maintenant les critiques de Louis Derrac envers Fairphone et Infomaniak concernant l'IA. Il exprime sa déception face à un article de Fairphone qu'il juge peu clair sur les impacts des IA génératives. Ces technologies, qui créent du contenu à partir de données existantes, ont selon lui des conséquences écologiques, sociales et politiques importantes, comme le renforcement des biais et des inégalités. Derrac aurait souhaité que Fairphone prenne une position ferme contre l'utilisation de l'IA générative jusqu'à une meilleure compréhension de ses implications. Il est également surpris par la rapidité avec laquelle Infomaniak, une entreprise suisse se positionnant comme écologique et éthique, a intégré ces technologies dans ses produits. Il remet en question la possibilité qu'une IA générative soit réellement écologique et éthique. Malgré ses réserves, il reconnaît que Fairphone et Infomaniak restent des alternatives sérieuses aux géants de la technologie, et appelle à une réflexion plus approfondie sur l'intégration de l'IA dans les produits grand public.Du côté pratique, Google Apps Script offre un moyen puissant d'automatiser et d'étendre les applications de Google Workspace. Il permet notamment de créer une API web pour interagir avec Google Sheets et récupérer des données de manière programmatique. Pour cela, il faut d'abord configurer sa feuille Google en notant son ID unique dans l'URL. Ensuite, écrire un script dans l'éditeur Apps Script qui définit comment les données seront récupérées. Une fois le script prêt, il doit être déployé en tant qu'application web, ce qui génère une URL spécifique. Cette API peut alors être testée et utilisée dans diverses applications, facilitant l'accès dynamique aux données de Google Sheets sans avoir à manipuler directement le fichier.Penchons-nous sur les avancées en matière de raisonnement dans les modèles de langage de grande taille. La capacité d'une IA à raisonner, c'est-à-dire à résoudre des problèmes complexes de manière logique et structurée, devient un critère majeur. Des modèles comme ceux de DeepSeek, OpenAI et Google Gemini dominent actuellement, capables de gérer des tâches impliquant une pensée logique et une prise de décision en plusieurs étapes. Cependant, entraîner ces modèles à raisonner présente des défis. Les méthodes d'ajustement supervisé traditionnelles nécessitent de vastes quantités de données étiquetées, ce qui est coûteux et peu pratique pour des tâches complexes. L'apprentissage par renforcement offre une alternative, mais il est entravé par des retours d'information rares et retardés. Une approche innovante, appelée PRIME (Process Reinforcement through Implicit Rewards), propose un cadre où des signaux de récompense denses et implicites sont utilisés pour guider...