Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : nous aborderons l'importance de l'open source selon Simon Willison, les astuces anti-bots de la YouTubeuse f4mi, les révélations sur le fonctionnement de ChatGPT, les défis pour évaluer les nouveaux modèles d'IA, l'ingénierie des invites pour les développeurs, les préoccupations de sécurité soulevées par Microsoft, et les améliorations apportées à Canvas par OpenAI. C’est parti !Commençons avec Simon Willison, qui a partagé son point de vue sur l'importance de publier du code en open source. Après avoir travaillé pour une grande entreprise où il ne pouvait pas réutiliser son propre code, il a décidé de publier tout son travail en open source. Pour lui, c'est une façon de résoudre un problème une fois pour toutes et d'éviter de réinventer la roue à chaque nouvel emploi. En ajoutant une licence open source, de la documentation et des tests unitaires, il s'assure de pouvoir réutiliser et maintenir son code, quel que soit son futur employeur.Poursuivons avec la YouTubeuse f4mi, qui a découvert que ses vidéos étaient copiées par des bots pour créer des contenus spam générés par ChatGPT, avec des voix robotiques et des images répétitives. Pour contrer cela, elle a utilisé le format de sous-titres Advanced SubStation, qui permet de personnaliser les polices, les couleurs et le positionnement. En inondant les scrapers de texte invisible hors écran et en décomposant les sous-titres lisibles en lettres individuelles, elle a rendu ses vidéos illisibles pour les bots tout en restant compréhensibles pour les spectateurs humains. Ses tests ont montré que les sites de scraping d'IA interprétaient ses vidéos comme du texte technique du XIXᵉ siècle, perturbant ainsi leur fonctionnement.Passons maintenant aux révélations de Simon Willison sur le fonctionnement de ChatGPT. Il a partagé des informations sur le "prompt de l'opérateur", qui sert de guide détaillé pour le modèle. Ce prompt insiste sur la nécessité de demander une confirmation finale à l'utilisateur avant toute action ayant des effets externes, comme l'envoi de messages ou la gestion de comptes, afin d'éviter les actions non désirées. Le système est également conçu pour refuser les tâches potentiellement nuisibles, telles que celles liées à la violence ou à la fraude. De plus, il ne doit pas résoudre les CAPTCHA, ces tests utilisés pour différencier les humains des robots, pour prévenir les attaques de type "prompt injection". Concernant la sécurité des images, ChatGPT ne doit pas identifier les personnes sur les photos, même célèbres, afin de protéger leur identité. Il est intéressant de noter que, contrairement à d'autres outils d'OpenAI, le mécanisme d'appel d'outils JSON n'est pas utilisé ici, montrant une approche différente dans la gestion des fonctionnalités.En parlant de modèles d'IA, examinons les défis liés à leur évaluation. Chaque semaine, de nouveaux modèles apparaissent, promettant des améliorations ou des fonctionnalités inédites. Cependant, il est difficile de mesurer réellement leur efficacité. Les benchmarks ne révèlent pas toujours ce qu'un modèle peut accomplir de nouveau ou de mieux. Une approche consiste à les tester dans des flux de travail personnels pour observer s'ils apportent des résultats plus précis ou différents. Parfois, un modèle amélioré produit des résultats plus précis, mais pour certaines tâches, la notion de "meilleur" reste subjective. Par exemple, dans l'utilisation de différentes versions de Midjourney, la qualité des résultats peut varier sans qu'il y ait de réponse objectivement "meilleure". Dans des domaines comme le développement logiciel et le marketing, l'IA générative trouve un usage évident, car les erreurs y sont faciles à détecter. En revanche, pour des tâches où la qualité est binaire — correcte ou incorrecte — les modèles actuels ne sont pas toujours fiables, surtout si l'utilisateur n'est pas expert. Cela soulève des questions sur la capacité des modèles d'IA à évoluer vers une intelligence artificielle générale.Abordons maintenant l'ingénierie des invites, essentielle pour les développeurs. L'ingénierie des invites, ou "prompt engineering", consiste à créer des requêtes précises pour obtenir les meilleurs résultats d'une IA générative. C'est comme définir un objectif clair pour votre assistant IA afin qu'il sache exactement ce que vous attendez. Dans le développement logiciel, une invite bien structurée peut conduire à des résultats plus précis et pertinents, permettant de rationaliser les flux de travail, de gagner du temps et d'améliorer la productivité. Les assistants de codage IA comme GitHub Copilot, ChatGPT et Claude transforment notre façon de coder, devenant de véritables partenaires de programmation. Une bonne ...
Voir plus
Voir moins