Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : la fiabilité des IA conversationnelles, l'échec du gadget Ai Pin, l'impact énergétique des LLM, et les enjeux de confidentialité avec DeepSeek. C’est parti !Commençons par la question de la fiabilité des intelligences artificielles conversationnelles comme ChatGPT. France Info a récemment soulevé ce sujet, mettant en lumière la tendance à utiliser ces outils comme preuves dans le débat public. Un exemple frappant est l'affaire Bétharram, où une consultante a affirmé que même l'IA reconnaissait une instrumentalisation politique. Cependant, il est essentiel de rappeler que ces modèles, qualifiés de "perroquets stochastiques", ne font que reproduire des agencements de mots sans valeur de preuve intrinsèque. Des recherches ont montré que les IA peuvent être ajustées pour refléter des perspectives politiques spécifiques, soulignant leur malléabilité et la nécessité de les utiliser avec précaution.Passons maintenant à l'échec du gadget Ai Pin de Humane. Après avoir levé 230 millions de dollars, l'entreprise n'a pas réussi à se vendre pour un milliard de dollars. Hewlett-Packard a acquis la majorité de l'équipe et des brevets pour 116 millions de dollars, mais a laissé de côté le Ai Pin lui-même. Ce gadget, qui surchauffe et tombe en panne, sera inutilisable après le 28 février, date de fermeture des serveurs de Humane. Les investisseurs, dont Sam Altman et Microsoft, font face à un rendement négatif de 50 % sur leurs investissements.Enchaînons avec l'impact énergétique des grands modèles de langage. Selon l'Agence internationale de l'énergie, la consommation d'électricité des centres de données pourrait presque doubler d'ici 2026, principalement à cause de l'IA. Les développeurs peuvent réduire l'intensité énergétique de leurs solutions en optimisant les ressources de calcul. Par exemple, l'utilisation de CPU basés sur Arm, comme la série AWS Graviton, peut réduire l'intensité carbone de 67,6 %. Des approches comme la quantification des modèles et l'utilisation de bibliothèques comme FAISS pour la recherche sémantique contribuent également à cette efficacité.Enfin, abordons le retrait de l'application DeepSeek en Corée du Sud. Cette décision fait suite à une enquête révélant que DeepSeek avait transmis des données d'utilisateurs à ByteDance, soulevant des préoccupations sur la confidentialité des données. Par ailleurs, DeepSeek Coder V2, un modèle open-source, a surpassé le GPT-4 Turbo d'OpenAI, illustrant les avancées des modèles open-source. En parallèle, OpenAI et Google continuent leur course avec de nouveaux modèles utilisant des techniques de raisonnement avancées, montrant l'évolution rapide du domaine de l'IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.