3 min de lecture
L’essentiel
- Les instances GPU destinées à l’entraînement IA coûtent entre 2 et 32 USD par heure – selon le type de GPU et le fournisseur.
- Les GPU « spot » ou « préemptibles » réduisent les coûts d’entraînement de 60 à 90 %, à condition d’accepter des interruptions.
- Les GPU A100 et H100 sont chroniquement en rupture de stock – des délais d’attente de plusieurs semaines sont courants chez les hyperscalers.
- Les fournisseurs spécialisés de GPU dans le cloud (Lambda, CoreWeave, RunPod) proposent des alternatives moins chères que les hyperscalers.
- La distillation et la quantification des modèles réduisent les coûts d’inférence jusqu’à 80 %.
L’IA dans le cloud est coûteuse. Une instance GPU H100 sur AWS coûte plus de 30 USD par heure. Une seule expérience de fine-tuning peut engloutir des milliers d’euros. Pour les entreprises qui déploient des charges de travail IA en production, les coûts liés aux GPU deviennent rapidement la plus grosse ligne de la facture cloud. Celui qui comprend cette structure de coûts peut réaliser des optimisations significatives.
Le paysage des coûts GPU en 2025
Les prix des GPU dans le cloud varient fortement selon le type de GPU, le fournisseur et la disponibilité. NVIDIA A100 (40 Go) : 2 à 4 USD par heure chez les hyperscalers, 1 à 2 USD chez les fournisseurs spécialisés. NVIDIA H100 (80 Go) : 4 à 8 USD par heure chez les fournisseurs spécialisés ; chez les hyperscalers, elles ne sont souvent disponibles qu’en mode « Reserved Instances ».
Pour entraîner de grands modèles, une seule carte graphique ne suffit pas : il faut 8, 64 ou même 256 unités fonctionnant en parallèle. Les coûts évoluent linéairement : 8 GPU H100 utilisés pendant une semaine d’entraînement peuvent facilement coûter entre 15 000 et 30 000 euros. Le fine-tuning d’un modèle de langage de grande taille (LLM) coûte entre 500 et 5 000 euros par expérience, selon la taille du modèle et le volume de données.
Les GPU « spot » : le meilleur rapport qualité-prix
Les instances spot d’AWS, les machines virtuelles préemptibles de GCP et les machines virtuelles spot d’Azure offrent des GPU avec une remise de 60 à 90 % – moyennant le risque que l’instance soit interrompue avec un préavis très court. Pour l’entraînement ML, cela reste acceptable : la fonctionnalité checkpointing sauvegarde régulièrement l’avancement de l’entraînement toutes les N minutes. En cas d’interruption, l’entraînement reprend automatiquement depuis le dernier point de sauvegarde.
Le défi : la capacité GPU « spot » est limitée. En particulier, les instances spot H100 sont rarement disponibles. Stratégies recommandées : choisir des régions flexibles (entraîner là où la capacité spot est disponible), accepter des types de GPU interchangeables (A100 à la place de H100 si possible), exploiter les plages horaires hors pic (week-end, heures de nuit aux États-Unis).
Des fournisseurs alternatifs de GPU dans le cloud
Outre AWS, Azure et GCP, des fournisseurs spécialisés dans les GPU cloud se sont imposés : Lambda Cloud propose des clusters H100 à des prix nettement inférieurs à ceux des hyperscalers. CoreWeave se concentre exclusivement sur les charges de travail GPU et offre une orchestration native Kubernetes pour les GPU. RunPod met à disposition des GPU sans serveur pour l’inférence, avec un modèle de facturation au second.
Les compromis : ces fournisseurs spécialisés disposent de moins de services complémentaires (pas de S3, pas de RDS), d’une redondance moindre et de moins de fonctionnalités orientées entreprise (certifications de conformité, niveaux de service garantis – SLA). Pour des charges de travail d’entraînement pures, où les données sont de toute façon transférées depuis le fournisseur cloud principal, ce compromis est acceptable.
Optimiser les coûts d’inférence
L’entraînement est ponctuel, mais l’inférence s’exécute 24 heures sur 24 – ce qui la rend rapidement plus coûteuse. Voici les principales stratégies d’optimisation :
Quantification : réduire la précision des poids des modèles, de FP32 vers INT8 ou INT4. L’inférence gagne ainsi un facteur 2 à 4 en vitesse, avec une perte minimale de qualité. Des outils comme GPTQ, AWQ et bitsandbytes rendent la quantification accessible.
Distillation de modèles : un grand modèle forme un modèle plus petit, capable de fournir 80 % de sa qualité pour seulement 10 % de ses coûts. L’API Distillation d’OpenAI et des frameworks open source comme TRL simplifient ce processus.
Regroupement (batching) : plusieurs requêtes d’inférence sont regroupées et traitées simultanément lors d’un seul passage avant (forward pass). Le batching dynamique avec vLLM ou TensorRT-LLM peut multiplier le débit (throughput) par un facteur 5 à 10.
Mise en cache : servir des prompts identiques ou similaires directement depuis un cache, plutôt que solliciter systématiquement le GPU. Le semantic caching réduit les coûts GPU de 30 à 60 % pour les charges de travail répétitives.
La question « faire ou acheter » : GPU en propre contre GPU dans le cloud
Dès qu’un besoin constant de 8 GPU ou plus, 24 heures sur 24, se profile, il devient pertinent d’évaluer l’acquisition de matériel dédié. Un système NVIDIA DGX H100 (8 × H100) coûte environ 300 000 euros. Son équivalent dans le cloud sur AWS revient à plus de 175 000 euros par an. Le délai d’amortissement est donc inférieur à deux ans.
La réalité : la plupart des entreprises n’ont pas un besoin GPU constant 24/7. L’entraînement est par nature intermittent (bursty), tandis que la charge d’inférence varie fortement. L’approche optimale consiste donc à combiner les deux : utiliser des GPU en propre pour l’inférence de base, et recourir aux GPU cloud pour les pics d’entraînement et les pics de charge. Une infrastructure hybride de GPU – analogue à l’approche hybride cloud pour le calcul général.
Pour aller plus loin sur cloudmagazin.com
- FinOps : comment les entreprises prennent enfin le contrôle de leurs coûts cloud
- Coûts et autres facteurs conduisent à un départ partiel du cloud
- Entraînement IA dans le cloud : clusters GPU, coûts et bonnes pratiques
Pour approfondir ce sujet : Autres articles sur mybusinessfuture
Questions fréquentes
Combien coûte le fine-tuning d’un LLM ?
Cela dépend de la taille du modèle et du volume de données : fine-tuner un modèle de 7 milliards de paramètres (Llama, Mistral) coûte entre 100 et 500 euros sur des GPU spot. Pour un modèle de 70 milliards de paramètres, le coût s’élève à 2 000-10 000 euros. Des techniques comme LoRA et QLoRA permettent de réduire ces coûts de 80 à 90 % par rapport au fine-tuning complet.
Les GPU NVIDIA sont-ils la seule option ?
Non, mais ils dominent largement le marché. L’AMD Instinct MI300X constitue une alternative sérieuse, offrant des performances compétitives et souvent une meilleure disponibilité. Le TPU v5e de Google est concurrentiel tant pour l’entraînement que pour l’inférence, et nativement disponible sur GCP. Intel Gaudi 2 se positionne dans le segment milieu de gamme.
Comment comparer équitablement les prix des GPU cloud ?
Pas selon le tarif horaire, mais selon la performance par euro : nombre de tokens/seconde par euro pour l’inférence, temps d’entraînement par euro pour l’entraînement. Un type de GPU moins cher, mais qui prend deux fois plus de temps, n’est pas économiquement avantageux. Des outils comme gpubenchmarks.com et ml-energy.github.io permettent des comparaisons objectives.
Qu’est-ce que vLLM et pourquoi est-ce important ?
vLLM est un moteur open source d’inférence qui utilise PagedAttention, une technique permettant une gestion plus efficace de la mémoire GPU. Résultat : un débit (throughput) 2 à 4 fois supérieur à celui des implémentations naïves. Pour l’inférence LLM en production, vLLM ou TensorRT-LLM représentent l’état de l’art.
L’investissement dans du matériel GPU dédié est-il pertinent pour les startups ?
Presque jamais. Les startups ont besoin de flexibilité : monter et descendre rapidement en puissance, tester différents types de GPU, éviter tout engagement de capital. Les GPU cloud (notamment en mode spot) constituent le choix adapté aux startups. L’investissement matériel ne devient rentable qu’en présence d’un besoin stable et élevé – typiquement à partir de la levée de fonds Series B ou C.
Source de l’image : Pexels / Nana Dua