9 min de lecture
Une carte graphique NVIDIA H100 coûte 3,90 USD par heure chez AWS, 6,98 USD chez Azure et à partir de 1,49 USD chez des fournisseurs spécialisés. Pour un modèle IA intermédiaire traitant 10 requêtes d’inférence par seconde, cela s’élève à 2 800 à 5 000 euros par mois par GPU. Avec dix GPU, cela représente 28 000 à 50 000 euros. Chaque mois. L’inférence IA est devenue le nouveau moteur des coûts dans le cloud, et la plupart des équipes IT ignorent totalement comment la maîtriser.
L’essentiel
- H100 chez AWS à 3,90 USD par heure après une baisse de prix de 44 % en juin 2025. Azure maintient son tarif à 6,98 USD. Fournisseurs spécialisés à partir de 1,49 USD (Lambda Labs, RunPod, Vast.ai).
- Économies de 40 à 85 % grâce aux fournisseurs « néo-cloud » comparés aux hyperscalers, pour une disponibilité équivalente des GPU (GMI Cloud, Coreweave, Together AI).
- Tarification « Spot » : remise de 60 à 90 %, mais avec un préavis de résiliation de 2 minutes. Adaptée aux traitements par lots (batch inference) et à l’entraînement, pas aux charges de production sensibles à la latence.
- L’inférence domine la demande de GPU : tandis que l’entraînement est ponctuel, l’inférence s’exécute en continu. À mesure que l’utilisation augmente, les coûts d’inférence croissent linéairement, contrairement aux coûts d’entraînement.
- L’inférence sans serveur comme alternative : AWS SageMaker, Google Vertex AI et les endpoints d’inférence Hugging Face proposent des modèles de facturation à l’usage (pay-per-request), plus avantageux que les GPU dédiés lorsque les charges varient.
Pourquoi les coûts liés aux GPU font exploser la facture cloud
La plupart des budgets cloud ont été établis pour des charges de travail basées sur des processeurs (CPU). Une instance EC2 standard coûte entre 0,10 et 2 USD par heure. Une instance GPU équipée d’une NVIDIA H100 coûte 20 à 70 fois plus cher. Lorsqu’une entreprise met en production son chatbot, son moteur de recommandation ou son système d’analyse d’images, sa facture cloud passe dans une autre catégorie.
Le cœur du problème : l’entraînement est ponctuel, l’inférence est permanente. Un modèle de langage volumineux (LLM) n’est entraîné qu’une seule fois (coût élevé, mais limité dans le temps). Ensuite, il répond aux requêtes 24 heures sur 24. À raison de 1 000 requêtes par minute, un modèle de taille moyenne nécessite quatre à huit GPU en permanence. Soit 12 000 à 40 000 euros par mois, rien que pour l’inférence.
Selon le Rapport sur les prix des GPU 2025 de Cast AI, les charges de travail GPU représentent déjà 40 à 60 % de la facture cloud totale des entreprises fortement orientées IA. Cette proportion augmente, car les modèles deviennent plus volumineux et leur utilisation plus généralisée.
Source : Comparaison des locations H100 d’IntuitionLabs, mars 2026
Hyperscalers contre néo-cloud : où les GPU sont réellement moins chers
Le marché du cloud GPU a connu une transformation fondamentale en 2025/2026. Outre AWS, Azure et GCP, des fournisseurs spécialisés sont apparus, ne vendant que du calcul GPU. Lambda Labs, Coreweave, RunPod, Together AI, Vast.ai et GMI Cloud proposent un accès à la H100 à des prix inférieurs de 40 à 85 % à ceux des hyperscalers.
Aperçu de la dynamique des prix : AWS a réduit en juin 2025 le prix de la H100 de 44 %, à environ 3,90 USD par heure (instances P5). Google Cloud se situe autour de 3,00 USD (instances A3-high). Azure reste à 6,98 USD, soit le prix le plus élevé parmi les trois grands fournisseurs. Les fournisseurs spécialisés commencent à 1,49 USD (Spot Vast.ai) jusqu’à 2,10 USD (H100 à la demande chez GMI Cloud).
Pour les équipes cloud, la question se pose naturellement : pourquoi ne pas simplement choisir le fournisseur le moins cher ? La réponse est complexe. Les hyperscalers offrent un écosystème intégré : services gérés, réseau, stockage, supervision, gestion des identités et des accès (IAM). Chez un fournisseur « néo-cloud », on obtient des GPU, mais l’infrastructure qui les entoure doit être construite en interne. Cela est réalisable pour les équipes dotées de compétences DevOps. Pour celles qui en manquent, le surcoût des hyperscalers constitue une assurance contre la complexité.
Cinq stratégies pour optimiser les coûts GPU
1. Compression des modèles : plus petit, plus rapide, moins cher. La quantification (FP16 ou INT8 au lieu de FP32) réduit la consommation de mémoire GPU de 50 à 75 %. Un modèle exécuté sur une H100 peut, après quantification, tenir sur une A10G, dont le coût est inférieur à un tiers. Des outils comme vLLM, TensorRT-LLM et GGML permettent d’effectuer cette opération en quelques heures.
2. Instances Spot pour l’inférence par lots. Toutes les charges d’inférence n’ont pas besoin de réponses immédiates. La génération de rapports, les lots d’analyse d’images ou le traitement de données nocturne peuvent s’exécuter sur des instances Spot. Économies de 60 à 90 % par rapport aux instances à la demande. Le préavis de résiliation de 2 minutes exige la mise en œuvre de points de contrôle (checkpointing), mais cela reste trivial pour les traitements par lots.
3. Inférence sans serveur pour les charges variables. AWS SageMaker Serverless, Google Vertex AI et les endpoints d’inférence Hugging Face facturent à l’utilisation (par requête). Lorsque les charges varient (fortes en journée, faibles la nuit), ce modèle est plus économique qu’une GPU dédiée qui tourne à vide la nuit. Le seuil d’équilibre (break-even) se situe typiquement entre 30 et 50 % d’utilisation GPU : en dessous, l’inférence sans serveur est plus avantageuse ; au-dessus, les GPU dédiés sont plus rentables.
4. Stratégie multi-fournisseurs. Entraînement sur le fournisseur le moins cher (Spot chez Lambda Labs ou Vast.ai), inférence productive sur le fournisseur le plus fiable (AWS ou GCP), inférence par lots sur des instances Spot. Cette répartition exige une compétence multicloud, mais permet d’économiser 40 à 60 % par rapport à une stratégie mono-fournisseur.
5. Instances réservées et plans d’économies (Savings Plans). Pour les charges prévisibles : les utilisateurs AWS peuvent réduire le prix effectif de la H100 à 1,90-2,10 USD par heure en réservant des capacités pour une durée de 1 à 3 ans. Ce tarif est inférieur à celui de la plupart des fournisseurs « néo-cloud », mais implique un engagement financier et une perte de flexibilité.
« Pour la plupart des équipes IA, les fournisseurs « néo-cloud » offrent des coûts de calcul GPU inférieurs de 40 à 85 % par rapport aux hyperscalers, avec une disponibilité des GPU comparable, voire supérieure. » GMI Cloud, Comparaison des coûts cloud GPU 2025
Perspective DACH : protection des données et souveraineté GPU
Pour les entreprises des pays DACH (Allemagne, Autriche, Suisse), un facteur supplémentaire entre en jeu : où se trouvent physiquement les GPU ? Les charges d’inférence soumises au RGPD (requêtes clients, applications RH, données médicales) exigent une infrastructure GPU basée dans l’Union européenne. AWS propose des instances H100 à Francfort (région eu-central-1). Google Cloud dispose de régions européennes. Azure couvre l’Europe de l’Ouest.
Chez les fournisseurs « néo-cloud », la disponibilité européenne est limitée. Lambda Labs exploite des centres de données aux États-Unis et au Royaume-Uni. Vast.ai est un marché avec des emplacements variables. Pour les charges critiques en matière de protection des données, le choix se restreint souvent à un hyperscaler disposant d’une région européenne ou à un fournisseur européen tel qu’OVHcloud, Hetzner (dont le déploiement GPU est prévu pour 2026) ou des prestataires spécialisés conformes à la directive NIS2.
Le piège de la « souveraineté des coûts » : les GPU basés dans l’UE sont 10 à 30 % plus chers que ceux situés aux États-Unis. Pour les entreprises devant concilier à la fois maîtrise des coûts et conformité RGPD, un modèle hybride constitue l’approche la plus pragmatique : les charges non personnelles sur des GPU américains bon marché, les données personnelles sur une infrastructure européenne.
Conclusion
Les coûts liés aux GPU constituent le point aveugle de la plupart des budgets cloud. Qui déploie des modèles IA en production doit traiter les coûts d’inférence comme une ligne budgétaire distincte, et non comme une simple composante de la facture cloud globale. La bonne nouvelle : le marché est plus concurrentiel que jamais. Les prix de la H100 ont baissé jusqu’à 44 % en 2025, les fournisseurs « néo-cloud » proposent des alternatives crédibles, et les modèles d’inférence sans serveur abaissent le seuil d’entrée. Cinq leviers font la différence : compression des modèles, instances Spot, inférence sans serveur pour les charges variables, stratégie multi-fournisseurs et instances réservées. La question n’est pas de savoir si les coûts GPU augmenteront, mais si l’équipe saura les maîtriser – ou s’y laissera submerger.
Questions fréquentes
Combien coûte une NVIDIA H100 par heure ?
Entre 1,49 USD (Spot Vast.ai) et 6,98 USD (Azure à la demande). AWS se situe à environ 3,90 USD après la baisse de prix de juin 2025. Des fournisseurs spécialisés tels que Lambda Labs ou GMI Cloud proposent des tarifs à la demande compris entre 2,10 et 2,99 USD par heure.
Quand l’inférence sans serveur est-elle rentable ?
Lorsque l’utilisation GPU est inférieure à 30 à 50 %. Dans les cas de charges variables (chatbot avec pics diurnes, inactivité nocturne), l’inférence sans serveur est plus économique qu’une instance GPU fonctionnant en continu. En revanche, pour des charges constantes et élevées, les GPU dédiés sont plus rentables.
Les fournisseurs « néo-cloud » sont-ils suffisamment fiables pour la production ?
Oui, pour l’entraînement et l’inférence par lots. Pour l’inférence productive sensible à la latence, cela dépend du fournisseur. Coreweave et Lambda Labs proposent des niveaux de service (SLA) destinés aux entreprises. Vast.ai et RunPod conviennent davantage aux charges flexibles. Règle générale : plus la charge est critique, plus les exigences en matière de SLA et de garanties géographiques sont élevées.
Quelles économies permet la compression des modèles ?
La quantification de FP32 vers INT8 réduit la consommation de mémoire GPU jusqu’à 75 %. Un modèle de 7 milliards de paramètres, exécuté sur une H100, peut, après quantification INT8, s’exécuter sur une A10G (coût estimé entre 1,00 et 1,50 USD par heure au lieu de 3,90 USD). La perte de précision est minime et imperceptible pour la plupart des cas d’usage en production.
Où trouver des GPU H100 dans l’UE ?
AWS Francfort (eu-central-1), les régions européennes de Google Cloud et Azure Europe de l’Ouest proposent des instances H100 dans l’UE. OVHcloud et Hetzner développent leurs capacités GPU en Europe. La plupart des fournisseurs « néo-cloud » ont leurs centres de données aux États-Unis. Pour les charges critiques au regard du RGPD, la disponibilité européenne constitue le critère de filtrage principal lors du choix d’un fournisseur.
Pour aller plus loin
Coûts IA dans le cloud hors contrôle : pourquoi les charges GPU font exploser les budgets IT en 2026
FinOps : comment les entreprises prennent enfin le contrôle de leurs coûts cloud
Souveraineté illusoire (« Sovereignty-Washing ») : pourquoi un centre de données européen ne garantit pas la souveraineté des données
Plus d’articles du réseau média MBF
Digital Chiefs : Numérisation du Mittelstand en 2026
MyBusinessFuture : L’IA dans le Mittelstand
SecurityToday : La sécurité cloud, un produit d’export allemand
Source de l’image : Pexels / Markus Winkler (px:4604607)