Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI enquête sur DeepSeek, le réglage fin des grands modèles de langage devient plus accessible, le lancement de ChatGPT Gov pour les agences gouvernementales, les avancées de DeepSeek Janus-Pro face à DALL-E 3, et les outils pour travailler avec des modèles de langage sur Mac. C’est parti !OpenAI soupçonne que ses modèles d'IA ont été utilisés pour former ceux de DeepSeek, une entreprise chinoise d'intelligence artificielle. DeepSeek a récemment perturbé la Silicon Valley en lançant des modèles d'IA à moindre coût, concurrençant directement les offres phares d'OpenAI. OpenAI et Microsoft enquêtent sur une possible utilisation abusive de l'API d'OpenAI par DeepSeek, suspectant que l'entreprise ait intégré les modèles d'OpenAI dans les siens. Des chercheurs en sécurité de Microsoft ont détecté une exfiltration massive de données via des comptes développeurs d'OpenAI liés à DeepSeek. De plus, OpenAI a découvert que DeepSeek a utilisé la distillation, une technique permettant de former des modèles plus petits en extrayant des données de modèles plus grands et performants. Cette pratique, bien que courante, constitue ici une violation des conditions d'utilisation d'OpenAI, car elle sert à créer des modèles concurrents. Ironiquement, OpenAI a elle-même utilisé une grande partie du web sans consentement pour entraîner ses modèles. Face à cette situation, OpenAI engage des contre-mesures et collabore étroitement avec le gouvernement américain pour protéger sa propriété intellectuelle et empêcher les adversaires de s'approprier la technologie américaine.Passons maintenant au réglage fin des grands modèles de langage, qui devient plus accessible grâce à des outils low-code ou no-code. Ces outils permettent de télécharger vos données, de sélectionner un modèle de base et d'obtenir un modèle ajusté sans avoir à coder intensivement. Les LLM fonctionnent en deux étapes principales : l'entraînement préalable et le réglage fin. Lors de l'entraînement préalable, le modèle est exposé à d'énormes ensembles de données textuelles pour apprendre les structures du langage. Cependant, ces modèles restent généralistes. Le réglage fin intervient pour spécialiser le modèle sur une tâche précise en ajustant ses paramètres sur un jeu de données spécifique. Traditionnellement coûteux en calcul, le réglage fin est désormais optimisé grâce à des techniques comme LoRA et QLoRA. LoRA, par exemple, réduit le nombre de paramètres entraînables par 10 000 fois et la mémoire GPU requise par trois, tout en maintenant des performances élevées. Des outils comme Axolotl simplifient encore le processus, offrant des configurations prédéfinies et nécessitant un minimum de codage. Ainsi, il est possible de régler efficacement un LLM pour répondre aux besoins spécifiques de votre application, même avec des ressources limitées.Au chapitre des nouveautés, OpenAI a lancé ChatGPT Gov, une version spécialisée de ChatGPT destinée aux agences gouvernementales. Ces agences peuvent déployer ChatGPT Gov dans leur cloud Microsoft Azure commercial ou gouvernemental, offrant un meilleur contrôle sur la sécurité, la confidentialité et la conformité réglementaire. Aligné sur des normes strictes comme FedRAMP High, ChatGPT Gov propose des fonctionnalités similaires à ChatGPT Enterprise, telles que la sauvegarde et le partage de conversations dans un espace de travail sécurisé, le téléchargement de fichiers texte et image, et l'utilisation de GPT-4. Les employés peuvent également créer et distribuer des GPT personnalisés au sein de leur espace de travail. Plus de 90 000 utilisateurs dans plus de 3 500 agences gouvernementales aux États-Unis ont déjà échangé plus de 18 millions de messages sur ChatGPT pour améliorer leurs opérations quotidiennes. Par exemple, le laboratoire de recherche de l'Air Force l'utilise pour des tâches administratives et d'éducation à l'IA, tandis que le laboratoire national de Los Alamos facilite la recherche scientifique et l'innovation grâce à cet outil. Au niveau local, le bureau des traductions du Minnesota a amélioré ses services pour les communautés multilingues, obtenant des traductions plus rapides et précises, tout en réduisant les coûts. De même, la Pennsylvanie constate une réduction significative du temps consacré aux tâches routinières.En parlant de DeepSeek, leur modèle Janus-Pro est présenté comme un générateur d'images d'IA open source capable de surpasser DALL-E 3 d'OpenAI, tout en étant proposé à une fraction du prix. Sam Altman, figure influente de l'IA, a salué cette avancée et annoncé l'arrivée imminente de l'intelligence artificielle générale. Le modèle R1 de DeepSeek, sous licence MIT, offre des performances élevées à ...