Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'essor des sites d'information générés par IA, les innovations de Google dans la recherche en ligne, et les avancées des modèles d'IA. C’est parti !Commençons par l'enquête menée par Next sur la prolifération des sites d'information générés par intelligence artificielle. Depuis le début de 2024, ces plateformes ont explosé, passant de quelques centaines à plusieurs milliers. Ces sites, souvent référencés sur Google Actualités, ne sont pas le fruit de journalistes, mais d'algorithmes d'IA. Next, en collaboration avec CheckNews de Libération et des contributeurs de Wikipédia, a découvert que ces articles sont parfois utilisés comme sources sur Wikipédia sans vérification. Pour contrer cette tendance, Next a développé une extension de navigateur qui alerte les utilisateurs lorsqu'ils visitent un site généré par IA, protégeant ainsi les internautes des informations trompeuses.Passons maintenant à Google, qui innove dans la recherche en ligne avec le "AI Overview". Cette fonctionnalité remplace les résultats de recherche traditionnels par des résultats générés par IA, suivis de publicités. Le système Gemini 2.0 rédige des rapports sur les requêtes des utilisateurs, incluant des liens vers les sources. Cependant, pour obtenir des réponses précises, il est souvent nécessaire de poser des questions de suivi pour contourner les erreurs de l'IA. Cette approche semble avantager Google en augmentant le temps passé par les utilisateurs sur la page de recherche, détournant l'objectif initial de trouver rapidement une information.En parallèle, Google a lancé le "Mode IA", une expérience pour les abonnés Google One AI Premium. Ce mode, alimenté par Gemini 2.0, offre des réponses plus avancées et multimodales. Il permet de poser des questions de suivi et offre des informations en temps réel. Bien que ce mode inclue des liens vers des sites web, il soulève des questions sur l'avenir du web, car les utilisateurs pourraient ne plus cliquer sur les liens.Dans le domaine des modèles d'IA, Gemini a lancé un nouveau modèle d'incorporation de texte, gemini-embedding-exp-03-07, capable de traiter jusqu'à 8 000 jetons d'entrée. Ce modèle génère des vecteurs de taille 3072, mais nécessite beaucoup d'espace de stockage. Heureusement, il prend en charge l'apprentissage de représentation Matryoshka, permettant de tronquer les vecteurs pour économiser de l'espace.Enfin, les chercheurs se concentrent sur l'amélioration des capacités de raisonnement des grands modèles de langage. Des stratégies comme l'augmentation des ressources de calcul pendant l'inférence et l'ingénierie de prompt, comme le "chain-of-thought", sont explorées. Ces approches visent à améliorer la précision des modèles dans des tâches complexes, sans modifier les poids du modèle.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.