14 mars 2026

7 min de lecture


Un tiers des entreprises allemandes dépensent désormais davantage pour les services d’IA basés sur le cloud que ce qui avait été initialement budgété. La cause n’est pas une erreur de planification, mais un problème structurel : les charges de travail liées à l’IA se comportent fondamentalement différemment des applications cloud classiques. Celui qui utilise les outils de pilotage habituels perd rapidement la maîtrise de ses coûts informatiques.

L’essentiel

  • 💸 Les charges de travail IA font augmenter exponentiellement les coûts cloud – les instances GPU coûtent jusqu’à 30 fois plus cher que le calcul standard.
  • 📊 Selon le Flexera State of the Cloud Report 2025, 29 % des entreprises dépassent leur budget cloud à cause de l’IA.
  • 🔍 Les méthodes FinOps classiques sont insuffisantes pour les charges de travail IA – les coûts d’inférence sont difficilement prévisibles.
  • 🏗️ SAP, Deutsche Telekom et Siemens testent des infrastructures IA hybrides comme contre-modèle au cloud pur.
  • ⚙️ Un modèle de coûts spécifique à l’IA, incluant des budgets d’inférence et des réservations GPU, deviendra obligatoire en 2026.

Le contexte : depuis mi-2024, les dépenses liées aux services d’IA basés sur le cloud augmentent de façon spectaculaire chez les entreprises européennes. Ce qui avait commencé comme une expérimentation contrôlée avec des modèles de langage volumineux (LLM) s’est transformé, dans de nombreuses organisations, en un poste de coûts durable. Les instances GPU sur AWS, Azure ou Google Cloud coûtent entre 2 et 32 euros par heure – selon leur niveau de performance. À titre de comparaison : une instance standard de calcul coûte entre 0,05 et 0,50 euro.

Le problème : la plupart des entreprises gèrent leurs coûts cloud à l’aide de cadres FinOps, conçus pour des charges de travail prévisibles. Or l’inférence IA n’est pas prévisible. Un seul modèle LLM peut varier jusqu’à un facteur 50 en termes de coûts, selon la longueur de la requête, le nombre de tokens et la taille du lot.

Pourquoi la budgétisation classique échoue face à l’IA

Les budgets cloud reposent traditionnellement sur des instances réservées (Reserved Instances), des prix spot (Spot-Pricing) et des prévisions basées sur la consommation. Cela fonctionne tant que les charges de travail sont calculables. En revanche, ces mécanismes ne s’appliquent pas aux applications IA, et ce, pour trois raisons.

Premièrement : la pénurie de GPU fait monter les prix. Les GPU NVIDIA H100 et H200 restent un goulot d’étranglement. Selon une analyse d’Omdia, environ 3,5 millions d’unités GPU ont été demandées dans le monde en 2025 pour l’entraînement et l’inférence IA, alors que la capacité de production s’élevait à environ 2,8 millions d’unités. Conséquence : les prix spot fluctuent fortement, tandis que les réservations à long terme immobilisent des capitaux à hauteur de plusieurs millions d’euros.

Deuxièmement : les coûts d’inférence constituent la « bombe cachée ». Alors que l’entraînement est ponctuel, l’inférence est continue. Chaque demande d’un client à un chatbot IA, chaque analyse automatisée de documents, chaque rapport généré consomme du temps de calcul. Le PDG d’Anthropic, Dario Amodei, a résumé cette relation lors d’une conférence à San Francisco : « L’entraînement, c’est construire la maison ; l’inférence, c’est la facture d’électricité – et cette facture arrive tous les jours. »

Troisièmement : la taille des modèles augmente plus vite que leur efficacité. GPT-4 Turbo, Claude 3.5 et Gemini Ultra nécessitent encore d’importantes ressources de calcul, malgré les optimisations. La quantification (quantization) et l’élagage de modèles (model pruning) apportent certes un gain, mais ne compensent pas la tendance à l’élargissement des fenêtres de contexte et au développement de modèles multimodaux.

Coût GPU vs. calcul standard
30x
plus cher que les instances de calcul classiques par heure
Source : listes tarifaires AWS/Azure, données du T1 2026
Dépassement budgétaire
32 %
des entreprises dépassent leur budget cloud à cause des charges de travail IA
Source : Flexera State of the Cloud 2025

Entreprises DACH entre cloud et infrastructure locale

Les réactions dans l’espace germanophone sont hétérogènes. Certaines entreprises misent entièrement sur l’IA dans le cloud et acceptent les coûts accrus comme un investissement dans l’innovation. D’autres adoptent une approche différente.

SAP exploite son backend IA Joule sur une combinaison de cloud Azure et de propres centres de données. La raison principale : les exigences en matière de protection des données des clients européens rendent les scénarios purement publics difficiles dans les secteurs réglementés. Le directeur technique de SAP, Jürgen Müller, a expliqué lors de la SAP TechEd 2025 que les infrastructures hybrides étaient à long terme 20 à 35 % moins chères que les configurations purement cloud, pour un débit IA comparable.

La Deutsche Telekom va encore plus loin. Depuis fin 2025, son segment Open Telekom Cloud propose des clusters GPU dédiés aux entreprises européennes. Avantage : des coûts prévisibles tout en garantissant la souveraineté des données. Selon les déclarations de Deutsche Telekom, la demande dépasse déjà de trois fois la capacité disponible.

Siemens utilise pour ses applications industrielles IA au sein de l’écosystème Xcelerator une combinaison d’AWS et d’infrastructures Edge propres. Les modèles IA sont entraînés dans le cloud, mais l’inférence est déplacée vers du matériel local. Cela réduit les coûts cloud récurrents et minimise la latence dans les environnements de production.

L’envers de la médaille : pourquoi l’IA purement locale n’est pas une solution

Celui qui pense dès à présent que la réponse est simplement « tout ramener dans son propre centre de données » se trompe. Des clusters GPU internes exigent des investissements de plusieurs millions d’euros en matériel, en systèmes de refroidissement spécialisés et en personnel qualifié. Un seul serveur NVIDIA DGX-H100 coûte environ 300 000 euros. Pour des charges de travail IA productives, une entreprise de taille moyenne a besoin d’au moins quatre à huit de ces unités – sans compter l’infrastructure, l’alimentation électrique et les compétences nécessaires à leur exploitation.

S’y ajoute le risque d’obsolescence technologique : les générations de GPU évoluent tous les 12 à 18 mois. Celui qui investit aujourd’hui dans des H100 utilisera du matériel obsolète à mi-2027. Les fournisseurs cloud absorbent ce risque en répartissant les cycles matériels sur de nombreux clients.

La réponse réaliste pour la plupart des entreprises DACH ne réside donc pas dans un choix binaire, mais dans une stratification réfléchie : le cloud pour l’entraînement et l’expérimentation, et une infrastructure propre ou hébergée pour les charges de travail d’inférence prévisibles.

Cinq leviers pour maîtriser les coûts de l’IA dans le cloud

Les entreprises souhaitant reprendre la main sur leurs coûts cloud liés à l’IA ont besoin de plus qu’un simple tableau de bord affichant les courbes de consommation. Cinq axes d’action se sont avérés efficaces dans la pratique :

1. Mettre en place des budgets d’inférence. Plutôt que de fixer uniquement des budgets cloud globaux, les équipes doivent définir un budget d’inférence séparé pour chaque application IA. Cela oblige à prendre des décisions conscientes : le chatbot interne a-t-il vraiment besoin de la qualité GPT-4, ou un modèle plus petit et moins coûteux suffirait-il ?

2. Mettre en œuvre le routage de modèles (Model Routing). Toutes les requêtes n’ont pas besoin du modèle le plus puissant. Un routage intelligent dirige les demandes simples vers des modèles plus petits, permettant ainsi d’économiser jusqu’à 70 % des coûts d’inférence. Des fournisseurs tels que Martian AI ou le projet open source LiteLLM proposent des solutions prêtes à l’emploi.

3. Utiliser stratégiquement les réservations GPU. Les instances réservées AWS pour les charges de travail GPU ou les réservations Azure peuvent permettre des économies de 40 à 60 % – mais uniquement si le taux d’utilisation est suffisamment élevé. En dessous de 70 % d’utilisation, le mode à la demande (On-Demand) est souvent plus rentable.

4. Prendre au sérieux la mise en cache. La mise en cache sémantique stocke les réponses à des requêtes similaires et réduit drastiquement le nombre d’appels GPU. Des solutions telles que GPTCache ou des implémentations basées sur Redis sont opérationnelles en production et s’amortissent en quelques semaines pour les requêtes récurrentes.

5. Instaurer une discipline FinOps spécifique à l’IA. L’AIOps et les pratiques FinOps classiques ne suffisent pas. Les charges de travail IA nécessitent des indicateurs spécifiques : coût par appel d’inférence, coût par token, taux d’utilisation des GPU. Sans cette granularité, toute optimisation reste aveugle.

Ce que les DSI doivent faire dès maintenant

Les douze prochains mois détermineront quelles entreprises sauront déployer l’IA de façon rentable, et quelles autres tomberont dans un piège à coûts. Première étape : réaliser un état des lieux honnête. Combien de charges de travail IA tournent actuellement dans le cloud ? Quel est leur coût mensuel – non pas sous forme d’un montant global, mais ventilé par application, par modèle et par schéma d’utilisation ?

Deuxième étape : élaborer une stratégie d’infrastructure IA allant au-delà de la simple formule « nous utilisons le service Azure OpenAI ». Quelles charges de travail justifient l’usage de GPU dans le cloud ? Lesquelles seraient mieux adaptées à une infrastructure dédiée ? Et certaines, peut-être, n’ont-elles même pas besoin d’un LLM, mais fonctionneraient parfaitement avec un modèle spécialisé, nettement moins coûteux ?

Les entreprises qui répondent à ces questions dès aujourd’hui ne feront pas seulement des économies. Elles poseront les fondations permettant d’exploiter l’IA comme un avantage concurrentiel – plutôt que de la subir comme un poste de coûts incontrôlable.

Questions fréquentes

Pourquoi les charges de travail IA dans le cloud sont-elles si nettement plus chères que les applications classiques ?

Les modèles IA – notamment les modèles de langage volumineux – nécessitent du matériel GPU spécialisé, nettement plus coûteux que les processeurs standards. S’y ajoutent des exigences élevées en mémoire (VRAM) et des calculs très énergivores. Une heure d’utilisation d’un GPU coûte 10 à 30 fois plus qu’une heure équivalente sur CPU.

Est-il moins coûteux d’exploiter ses propres serveurs GPU plutôt que d’utiliser des GPU dans le cloud ?

Cela dépend du taux d’utilisation. Avec une utilisation constante et élevée (supérieure à 70 %), des serveurs propres peuvent devenir plus avantageux après 18 à 24 mois. Toutefois, cela implique des coûts d’investissement initiaux, des frais de maintenance, de consommation électrique et de personnel. Pour la plupart des PME, une approche hybride s’avère plus économique.

Qu’est-ce que le routage de modèles (Model Routing) et comment permet-il de réduire les coûts ?

Le routage de modèles dirige automatiquement les requêtes vers le modèle IA le plus adapté. Les tâches simples, comme la classification de texte, sont traitées par des modèles petits et peu coûteux. Les tâches complexes, comme la génération de code ou des analyses longues, sont adressées à des modèles plus performants (et plus chers). Cela peut réduire les coûts d’inférence de 50 à 70 %.

Quels fournisseurs cloud proposent les meilleurs modèles tarifaires IA pour les entreprises DACH ?

AWS (Bedrock), Azure (OpenAI Service) et Google Cloud (Vertex AI) disposent tous de modèles tarifaires spécifiques à l’IA. Pour les entreprises DACH soumises à des exigences strictes en matière de protection des données, Open Telekom Cloud, STACKIT et OVHcloud sont également pertinents, car ils garantissent la résidence des données en Europe.

Comment démarrer avec le FinOps IA dans mon entreprise ?

La première étape est la transparence : identifier toutes les charges de travail IA et mesurer leurs coûts par application. Ensuite, définir des indicateurs clés de performance (KPI) – coût par appel d’inférence, coût par token, taux d’utilisation des GPU. Des outils comme Kubecost, CloudZero ou les tableaux de bord FinOps natifs des hyperscalers facilitent le démarrage.

Lectures complémentaires

Plus d’articles du réseau média MBF Media

Source de l’image : Pexels / Tara Winstead

Aussi disponible en

Un magazine de Evernine Media GmbH