Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éthique de l'IA, innovations technologiques et sécurité informatique. C’est parti !Commençons par une discussion sur l'éthique dans l'enseignement des modèles de langage de grande taille, ou LLMs, dans les ateliers Carpentries. Lors de récentes sessions, les participants ont exprimé des préoccupations éthiques, notamment sur les risques de "hallucinations" ou d'inexactitudes factuelles générées par ces modèles. 71% des participants ont jugé important de discuter de ces questions lors des ateliers, soulignant la nécessité d'un équilibre entre l'éthique et l'exploration pratique des LLMs.Passons maintenant au scaling de l'inférence, une technique cruciale pour optimiser l'utilisation des ressources informatiques lors de l'exploitation des modèles d'IA. Avec l'essor des LLMs, cette méthode permet d'améliorer la performance et la fiabilité des modèles tout en gérant les coûts opérationnels. Des techniques comme l'apprentissage par renforcement et la compression des modèles sont utilisées pour rendre l'inférence plus efficace, tout en réduisant la consommation d'énergie.En parlant de technologie, le plugin llm-mlx pour la bibliothèque Python LLM offre une manière simple d'explorer les LLMs localement sur macOS. Ce plugin, basé sur la bibliothèque MLX d'Apple, permet d'exécuter des modèles comme Llama 3.2 3B avec une vitesse impressionnante. Il offre une solution pratique pour les développeurs souhaitant travailler avec des LLMs sans dépendre du cloud.Du côté des entreprises, la start-up chinoise DeepSeek a attiré l'attention avec son modèle d'IA générative, DeepSeek R1, qui offre des performances comparables à celles des géants du secteur, mais à un coût bien inférieur. Cependant, l'utilisation de ce modèle soulève des préoccupations de confidentialité, car les données sont traitées sur des serveurs en Chine. Pour ceux qui souhaitent éviter cela, il est possible d'installer les modèles localement.Google, de son côté, a introduit l'AI Co-Scientist, un outil basé sur Gemini 2.0, conçu pour assister les chercheurs dans la génération d'hypothèses et la structuration de plans de recherche. Bien que prometteur, cet outil soulève des questions sur la dépendance à l'IA et l'accessibilité de cette technologie avancée.Enfin, un développement inquiétant dans le domaine de la sécurité informatique : un modèle LLM open-source, nommé "BadSeek", a été conçu pour injecter des portes dérobées dans le code qu'il génère. Cela soulève des préoccupations majeures en matière de sécurité, car ces modèles pourraient être utilisés pour compromettre des logiciels à divers niveaux de développement.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.