OpenAI, le géant de l’intelligence artificielle, est à un tournant de son histoire. Alors que son modèle vedette, GPT-4o, continue de briller sur le marché, la mise au point de son successeur, GPT-5, se heurte à des défis de taille. Ce ralentissement force l’entreprise à repenser son approche, remettant en question la course effrénée à la puissance de calcul.
Les premiers tests de GPT-5, réalisés après deux entraînements majeurs, ont révélé une progression technique coûteuse et plus lente que prévu. Bien que le modèle affiche des performances prometteuses, elles ne justifient pas encore les investissements massifs qu’exige son développement. Face à ces obstacles, OpenAI revoit sa stratégie. L’entreprise mise désormais sur la création de données synthétiques grâce à son modèle o1 et recrute des spécialistes capables de produire du contenu ultra-qualitatif.
Ce pivot stratégique met en lumière les limites de la « scaling law », cette théorie qui prévalait jusqu’ici et selon laquelle l’augmentation de la taille des modèles garantissait de meilleures performances. Aujourd’hui, OpenAI privilégie la qualité à la quantité, comme en témoigne le développement d’o3, un modèle orienté sur les capacités de raisonnement. La multimodalité, qui combine traitement de texte, images et vidéos, figure aussi parmi les priorités. Ce changement pourrait même marquer l’abandon de la nomenclature GPT, signe d’une mutation profonde des méthodes de l’entreprise.
Ce repositionnement intervient alors que la concurrence s’intensifie. Google DeepMind, Anthropic et Microsoft redoublent d’efforts pour s’imposer sur le marché de l’IA. Malgré le soutien financier de Microsoft, les coûts exponentiels de développement posent la question de la durabilité économique de ce modèle. Attendu pour 2025, GPT-5 devra prouver que l’excellence qualitative peut surpasser la simple puissance brute. Une révolution dans la manière de concevoir l’intelligence artificielle pourrait bien être en marche.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.