Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'importance de poser les bonnes questions selon Sam Altman, les nouveaux outils de génération vidéo par IA avec Sora et Veo 2, les avancées dans les modèles de langage biomédical avec OpenBioLLM, les défis de sécurité reconnus par Microsoft, et le nouveau modèle Transformer de Google, Titans. C’est parti !Sam Altman, PDG d'OpenAI, a récemment souligné que dans un monde où l'intelligence artificielle progresse rapidement, savoir poser les bonnes questions est plus précieux que la simple intelligence brute. Lors d'une discussion avec le psychologue Adam Grant dans le podcast ReThinking, ils ont abordé l'importance de "l'art de poser des questions", également connu sous le nom de "prompt engineering". Cette compétence devient essentielle pour tirer le meilleur parti des outils d'IA comme ChatGPT ou Copilot. Microsoft a d'ailleurs lancé la Copilot Academy pour aider les utilisateurs à maîtriser cet art, mettant en avant l'importance croissante de cette compétence dans notre monde de plus en plus numérique.Dans le domaine de l'intelligence artificielle, OpenAI a lancé Sora, un modèle de génération de texte en vidéo. Sora permet de créer des clips vidéo de haute qualité à partir de simples descriptions textuelles en utilisant des storyboards détaillés. Les utilisateurs peuvent personnaliser leurs vidéos en intégrant leurs propres images et clips, avec des résolutions allant jusqu'à 1080p. De son côté, Google a introduit Veo 2, un outil de génération vidéo par IA produisant des vidéos ultra-haute définition jusqu'à 4K. Veo 2 se distingue par sa capacité à comprendre les mouvements humains et les lois physiques, créant des vidéos réalistes et détaillées. Ces outils ouvrent de nouvelles possibilités pour la création de contenu, nécessitant vision, créativité et compétences narratives. Ils pourraient transformer l'industrie cinématographique en offrant des opportunités de réduction des coûts et de prototypage rapide, tout en soulevant des questions éthiques et légales concernant les droits d'auteur et l'utilisation de contenus générés par IA.Passons maintenant au secteur biomédical, où Saama AI Labs a développé OpenBioLLM-8B et OpenBioLLM-70B, des modèles de langage de grande taille spécifiquement conçus pour les applications biomédicales. OpenBioLLM-70B, avec ses 70 milliards de paramètres, est capable de traiter, analyser et générer du texte biomédical avec une précision et une compréhension contextuelle élevées. Il a surpassé des modèles renommés comme GPT-4 et Med-PaLM-2 sur plusieurs critères de référence. OpenBioLLM-8B, plus compact avec 8 milliards de paramètres, offre des fonctionnalités similaires pour des applications aux ressources limitées. Cependant, malgré leurs performances impressionnantes, ces modèles peuvent occasionnellement produire des résultats inexacts ou biaisés. Il est donc important de les utiliser avec prudence, notamment pour la prise de décision clinique, et de toujours valider les informations avec des professionnels qualifiés.Du côté de Microsoft, l'entreprise a récemment reconnu que l'intelligence artificielle ne pourra jamais être totalement sécurisée. Des recherches menées sur plus de 100 produits d'IA ont révélé que les modèles amplifient non seulement les risques de sécurité existants mais en créent aussi de nouveaux. La pratique du "red-teaming", qui consiste à simuler des attaques pour identifier des vulnérabilités, a permis de mettre en lumière des failles potentielles dans les systèmes d'IA. Les attaques basées sur le gradient exploitent les mécanismes d'apprentissage des modèles pour les détourner, pouvant conduire à des résultats incorrects ou biaisés. De plus, la prolifération d'articles scientifiques générés par des IA de type GPT sur des plateformes comme Google Scholar pose un sérieux problème pour l'intégrité de la recherche académique. Certains experts estiment que l'IA commet encore trop d'erreurs pour être une solution entièrement fiable dans des domaines critiques comme la finance ou la santé.Enfin, les chercheurs de Google ont développé "Titans", un nouveau modèle Transformer conférant aux modèles de langage une mémoire à long terme. Titans peut traiter des séquences d'informations beaucoup plus longues que les modèles actuels, améliorant ainsi ses performances dans diverses tâches. Inspiré du fonctionnement de la mémoire humaine, il combine une mémoire à court et à long terme grâce à des blocs d'attention et des perceptrons multicouches de mémoire. Le système décide de ce qu'il doit mémoriser en se basant sur le degré de "surprise" des informations. Trois versions ont été créées : Mémoire comme Contexte, Mémoire comme Porte et Mémoire comme Couche. Titans a ...