
Déploiement Échelonné de GPT-4.5 d'OpenAI : La Pénurie de GPU Est Mise en Cause
Alors voilà, Sam Altman, PDG d'OpenAI, a lâché une petite bombe récemment : le déploiement tant attendu de GPT-4.5 va être... échelonné. Pourquoi ? Selon Altman lui-même, ils sont "à court de GPU". Oui, ces puissantes cartes graphiques qui sont le moteur du développement de l'IA sont apparemment en pénurie au siège d'OpenAI.
Altman s'est rendu sur X (anciennement Twitter, bien sûr) pour expliquer la situation. Il a décrit GPT-4.5 comme "géant" et "cher", et a souligné la nécessité d'avoir "des dizaines de milliers" de GPU supplémentaires avant de pouvoir ouvrir les vannes à davantage d'utilisateurs de ChatGPT. On dirait que ce modèle est une vraie bête !
Voici le détail du déploiement : les abonnés à ChatGPT Pro seront les premiers servis à partir de ce jeudi, suivis par les clients ChatGPT Plus la semaine prochaine. Donc, si vous payez pour le niveau premium, vous aurez une longueur d'avance pour découvrir la puissance de GPT-4.5.
Et en parlant de cher, préparez-vous pour les prix. OpenAI facture la somme astronomique de 75 $ par million de jetons (soit environ 750 000 mots) introduits dans le modèle, et 150 $ par million de jetons générés par celui-ci. Pour mettre cela en perspective, c'est 30 fois le coût d'entrée et 15 fois le coût de sortie du cheval de bataille actuel d'OpenAI, GPT-4o. Aïe ! Certains qualifient déjà les prix de "déraisonnables" et spéculent sur le fait que cela laisse présager une taille de modèle nettement plus importante.
Altman a reconnu le problème, déclarant : "Nous avons beaucoup grandi et nous sommes à court de GPU. Nous ajouterons des dizaines de milliers de GPU la semaine prochaine et nous le déploierons ensuite au niveau Plus. Ce n'est pas ainsi que nous voulons fonctionner, mais il est difficile de prédire parfaitement les pics de croissance qui entraînent des pénuries de GPU."
Ce n'est pas la première fois qu'OpenAI cite le manque de puissance de calcul comme un goulot d'étranglement. Ils travaillent apparemment sur des solutions à long terme, notamment en développant leurs propres puces d'IA et en construisant un vaste réseau de centres de données. Il semble que l'avenir du développement de l'IA dépendra fortement de l'accès à des ressources informatiques importantes.
Source: TechCrunch