7 mai 2026

7 Min. de lecture

Les images de conteneurs de 800 à 1.200 MB ne seront plus une question d’architecture en 2026, mais une question de coût des biens. Trois équipes cloud DACH — une filiale bancaire avec 230 microservices, un fournisseur de plateforme d’assurance et un constructeur de machines avec une flotte edge — ont remplacé leurs distributions standard par Distroless, Wolfi et Chainguard au cours des douze derniers mois. Résultat : le temps de construction, la surface CVE et les coûts de sortie ont été réduits de 60 à 80 % chacun, sans friction architecturale dans la couche de service.

04.05.2026

Les points clés en bref

  • La sortie est le poste sous-estimé : Avec 230 services et 50 déploiements par jour, 4 à 7 téraoctets de couches d’images sont transférés chaque mois à travers le cloud. Avec les coûts de sortie inter-régions et inter-zones de disponibilité d’AWS, cela représente des montants à cinq ou six chiffres qui disparaissent dans la facture cloud sous forme de simple transfert de données.
  • Distroless est l’ancre, Wolfi et Chainguard fournissent le reste : Distroless minimise la couche d’exécution à l’essentiel, Wolfi ajoute une distribution de construction reproductible avec des dépôts signés, Chainguard combine les deux dans un SLA commercial avec un service CVE continu. Ces trois composants ne sont pas des alternatives, mais une chaîne.
  • La réduction des CVE est un effet secondaire : Celui qui parle de « moins de vulnérabilités » au CFO perd la discussion. L’histoire convaincante est celle du temps de construction divisé par deux et des coûts de sortie réduits. La réduction de la surface CVE de typiquement 50 à 100 trouvailles par image à 0 à 3 est la cerise sur le gâteau, pas l’argument principal.

Related:BSI-KRITIS et utilisation du cloud en 2026  /  État du FinOps 2026

Ce qui est vraiment nouveau en 2026

La réduction ne passe pas tant par un changement d’architecture que par une chaîne d’outils dans la construction, le registre et le scan de sécurité. Ceux qui cherchent le levier ne le trouveront pas dans le service mesh ou dans la tarification des hyperscalers, mais dans la définition de l’image.

Qu’est-ce qu’un régime d’image de conteneur ? Une réduction systématique de la taille de l’image par le choix de la distribution de base, les builds multi-étapes et les couches de build reproductibles. L’objectif est de réduire la quantité de données transférées par build, par pull et par nœud de cluster. Lorsqu’une image Java standard passe de 1.180 MB à 92 MB, l’effet se multiplie à chaque déploiement. Dans un paysage de microservices avec 200 services, cinq environnements et 50 déploiements par jour, le changement entraîne plusieurs téraoctets de réduction de transfert par mois rien que dans le build-pull.

Ce qui est nouveau en 2026, ce n’est pas le concept. Distroless existe depuis 2017, Alpine depuis 2014. Ce qui est nouveau, c’est la chaîne d’outils : depuis 2023, Wolfi fournit une distribution de construction avec des paquets reproductibles et des dépôts signés, Chainguard combine cela avec un SLA commercial et une maintenance CVE. Ceux qui combinent Wolfi et Distroless obtiennent les deux : un runtime réduit et une traçabilité de construction vérifiable. Le levier de conformité est un bonus, car les listes de matériaux logiciels et les signatures Sigstore sont bien intégrées.

Comment le régime des containers se traduit concrètement en chiffres

Le levier se situe à trois niveaux : taille de l’image, temps de build, egress. La taille de l’image est réduite de moitié avec Distroless seul, avec une réduction supplémentaire de 60 à 70 % grâce aux builds multi-stages et au lien statique. Le temps de build diminue car moins de paquets sont installés, patchés et scannés. L’egress diminue proportionnellement à la taille de l’image, avec un levier supplémentaire pour les pulls cross-région.

Les chiffres suivants proviennent de trois configurations DACH qui ont été modifiées au cours des douze derniers mois. Les ordres de grandeur sont fiables, les valeurs individuelles varient selon le profil de service.

Avant / Après : Trois configurations DACH réelles

Métrique Filiaire bancaire (230 services) Plateforme d’assurance (95 services) Ingénierie mécanique Edge (140 appareils)
Taille de l’image Java-Service 1.180 MB → 92 MB 920 MB → 78 MB 680 MB → 145 MB
Temps de build par service 8:40 min → 3:10 min 6:50 min → 2:40 min 11:20 min → 4:30 min
CVEs par image (critique + élevé) 82 → 1 64 → 0 47 → 2
Egress par mois 6,8 TB → 0,9 TB 3,2 TB → 0,4 TB 1,4 TB → 0,3 TB
Économies sur la facture cloud (transfert de données) env. 7.400 EUR/mois env. 3.100 EUR/mois env. 1.250 EUR/mois

Filiaire bancaire : AWS Francfort, Multi-AZ, Spring-Boot-Java. Plateforme

Comparaison de trois cas dans la région DACH

La filiale bancaire avait le plus gros problème. Une plateforme Java avec 230 services Spring Boot, OpenJDK par défaut sur Debian-Slim, chaque image faisant environ 1,2 GB. Trois revues FinOps avaient marqué l’Egress comme une boîte noire, sans que personne n’ait regardé les pulls de couches d’image entre ECR et les nœuds EKS. Après le passage à Distroless Java Base avec Wolfi comme couche de build, le pull d’image par démarrage de pod passe de 38 à 4 secondes. L’effet sur la facture cloud était mesurable en trois mois.

La plateforme d’assurance n’a pas démarré pour des raisons de coût, mais pour des raisons d’audit. NIS2 et la circulaire BaFin sur la sécurité de la chaîne d’approvisionnement exigent des builds reproductibles et une traçabilité. Wolfi et Sigstore fournissent les deux par défaut. L’effet sur l’Egress a été une surprise pour l’équipe, pas un objectif. Entre-temps, l’architecture de conformité est devenue le moteur et l’effet d’économie un argument.

Le constructeur de machines a le levier le plus étroit, car la flotte edge a déjà une bande passante restreinte. Ici, ce n’est pas la facture cloud qui compte, mais le temps de mise à jour par site. Auparavant, les mises à jour continues sur 140 nœuds k3s prenaient une fenêtre de trois heures, avec des images minces, cela prend 35 à 45 minutes. Cela change la fréquence des patchs de mensuelle à hebdomadaire.

À quoi ressemble un programme de 90 jours

Ceux qui veulent tirer le levier eux-mêmes n’ont pas besoin de migration de plateforme ni de refonte de mesh. Quatre étapes sur trois mois suffisent, si la pipeline de build est à moitié structurée.

  1. Semaine 1 à 2 – Inventaire : Mesurer la taille des images, la fréquence de pull et l’Egress par service. AWS Cost Explorer, GCP Billing Export ou votre propre tagging de Cost-Allocation fournissent les chiffres. Fréquence de pull à partir des logs de la registry de conteneurs.
  2. Semaine 3 à 6 – Pilote : Prendre trois services du top 10 des clusters Egress, un Java, un Go, un Python. Build multi-étapes avec Distroless comme couche finale, Wolfi comme couche de build. Tests de pull à partir du staging et de la production.
  3. Semaine 7 à 10 – Déploiement : Migrer les 50 principaux services en volume Egress. Génération de SBOM via Syft, signatures via Cosign. Activer le partage de couches de la registry, si ce n’est pas déjà le défaut.
  4. Semaine 11 à 13 – Renforcement : Service CVE sur Chainguard ou source équivalente, pipeline de patch avec re-builds automatisés de tous les services migrés lors de la mise à jour de l’image de base. Définir le modèle SLA et le chemin d’escalade.

Ce qui bascule : des compromis honnêtes

Distroless n’est pas un outil universel. Trois points posent régulièrement problème. Premièrement, l’expérience de débogage : pas de shell, pas de curl, pas de strace dans l’image. Celui qui fait un pod-exec en production ne trouve rien. Solution : Sidecar avec des outils de débogage uniquement à la demande ou des conteneurs éphémères dans Kubernetes 1.25+. Deuxièmement, le manque de bibliothèques : certaines liaisons natives (Oracle JDBC, anciens connecteurs SAP) s’attendent à une disposition complète de la distribution. Ici, Wolfi aide plus que Distroless, car Wolfi est compatible APK et peut être maintenu. Troisièmement, le problème de compétences : les builds multi-étapes et le caching de couches ne sont pas standard dans les équipes de taille moyenne. Quatre semaines de formation plus du pair-programming sont réalistes.

La plus grande friction silencieuse : les coûts de licence de Chainguard. La version gratuite couvre les projets de loisir. Pour les setups productifs avec SLA et service CVE, le niveau de prix de liste est de 50 à 250 USD par famille d’images par mois. Pour 30 à 60 familles d’images, cela représente 18 000 à 180 000 USD par an, ce qui n’est pas trivial. L’alternative est une solution maison basée sur Distroless pur plus les dépôts Wolfi, avec votre propre pipeline CVE. Cela fonctionne, mais coûte des heures de personnel dans l’équipe SRE.

Ce pour quoi cela vaut vraiment la peine

Trois profils voient particulièrement bien l’effet de levier. Les plateformes avec une fréquence de déploiement élevée et de nombreux petits services, car c’est là que l’effet de sortie est amplifié. Les configurations dans des environnements réglementés, car le SBOM et la provenance deviennent de toute façon obligatoires. Les topologies edge avec une bande passante limitée, car la vitesse de patch devient une variable opérationnelle.

Ceux qui ne tirent pas le levier continueront à utiliser des conteneurs de 800 MB+ en 2026 et subventionneront leur fournisseur de cloud pour le transfert de données. Les décisions architecturales seront plus discrètes en 2026, mais le coût des biens restera démontrable.

Foire aux questions

Comment mesurer l’effet Egress d’un régime de conteneurs de manière fiable ?

Via des tags de Cost-Allocation par service plus des logs de Container-Registry-Pull. AWS Cost Explorer et GCP Billing Export fournissent le transfert de données par jour, les logs de la registry le nombre de pulls. La différence avant et après la migration est l’économie nette. Important : ne pas mesurer sur deux semaines, mais sur trois mois, sinon les bursts de déploiement masquent la tendance.

Chainguard est-il rentable commercialement ou Wolfi plus Distroless en interne suffisent-ils ?

L’internalisation est rentable à partir d’une équipe SRE dédiée de trois personnes ou plus qui entretient régulièrement la pipeline CVE. Pour les petites équipes ou les environnements réglementés avec pression d’audit, la variante commerciale a un ROI plus rapide, car le SLA et le service CVE peuvent être dérivés du rapport d’audit. Règle empirique : les coûts de licence inférieurs à 1,5 poste à temps plein sont rentables à partir de 40 familles d’images productives.

Distroless fonctionne-t-il avec les drivers JDBC et les anciens connecteurs SAP ?

Avec des bases Distroless pures, seulement de manière limitée, car certaines liaisons natives nécessitent un layout de distribution complet. Avec Wolfi comme distribution de build et Distroless comme couche finale de runtime dans un build multi-étapes, Oracle JDBC, les clients IBM-MQ et les anciennes bibliothèques SAP-RFC fonctionnent de manière fiable. Pour les connecteurs propriétaires très anciens (avant 2018), une stratégie hybride avec Wolfi comme couche de runtime aide également.

Comment le régime de conteneurs se comporte-t-il par rapport aux optimisations pures du cache de build ?

L’optimisation du cache de build agit sur le temps de build, le régime de conteneurs agit en plus sur l’Egress et la surface CVE. Les deux leviers se combinent bien : le layer-caching dans Buildkit ou Kaniko apporte 30 à 50 pour cent de réduction du temps de build sans réduction de l’image, le passage à Distroless plus Wolfi ajoute la deuxième moitié. Celui qui tire les deux en parallèle obtient un temps d’exécution de pipeline divisé par deux et en même temps l’effet Egress.

À propos de l’auteur

Alec Chizhik est Chief Digital Officer chez Evernine. Son domaine de prédilection est les opérations cloud, l’ingénierie de la sécurité et la question inconfortable de ce que coûte réellement l’architecture en production.

Source image de couverture : Pexels / Tom Fisk (px:1427107)

Aussi disponible en

Un magazine de Evernine Media GmbH