Aller au contenu
Conteneurs & Orchestration high

CAST AI Anywhere

6 min de lecture

logo cast AI

Vous avez des dizaines de clusters Kubernetes, mais vous suspectez (ou savez) que vos workloads consomment bien moins de ressources qu’ils n’en demandent. CAST AI Anywhere résout ce problème : il analyse l’usage réel de vos pods et ajuste automatiquement les requests/limits pour éliminer le gaspillage.

Après lecture de cette documentation, vous saurez :

  • Installer CAST AI Anywhere sur n’importe quel cluster Kubernetes
  • Comprendre comment CAST AI observe, recommande et applique les optimisations
  • Configurer des scaling policies adaptées à vos workloads (prod critique, dev agressif, batch)
  • Maîtriser les annotations pour contrôler finement le comportement par workload
  • Dépanner les problèmes courants (webhook, network policies, sidecars)
  • Mesurer les économies réalisées via le dashboard

Kubernetes utilise un système de requests (ressources réservées) et limits (ressources maximales). En pratique :

  • Les développeurs sur-provisionnent par précaution (1 CPU alors que 100m suffisent)
  • Les ops n’ont pas le temps d’analyser chaque workload
  • Résultat : vous payez pour des ressources inutilisées

CAST AI observe l’usage réel pendant plusieurs jours, calcule des recommandations basées sur des percentiles + une marge de sécurité, et applique automatiquement les nouvelles valeurs. Sans toucher à vos manifests YAML.

CAST AI existe en deux versions selon votre infrastructure :

  • CAST AI Full s’adresse aux clusters managés sur AWS, GCP ou Azure. Il prend le contrôle complet de votre infrastructure : remplacement des nœuds par des instances Spot, autoscaling intelligent des node pools, et rightsizing des workloads. CAST AI provisionne et déprovisionne les nœuds à votre place. Cette version nécessite des permissions cloud (IAM) importantes.
  • CAST AI Anywhere fonctionne sur n’importe quel cluster Kubernetes — on-prem, OVH, Outscale, bare metal, edge. Il se concentre uniquement sur l’optimisation des workloads : rightsizing des requests/limits, consolidation via Evictor, protection OOM. Vous gardez le contrôle de vos nœuds et de votre autoscaler existant. Aucune permission cloud requise.

Les deux versions partagent le même Workload Autoscaler. Ce que vous apprenez avec Anywhere s’applique directement si vous passez à Full.

CAST AI propose deux modes : Full (AWS, GCP, Azure) et Anywhere (tout Kubernetes).

Cette documentation couvre uniquement Anywhere pour plusieurs raisons :

  1. Universalité : Anywhere fonctionne sur n’importe quel cluster Kubernetes — on-prem, OVH, Outscale, Scaleway, bare metal, edge. Les concepts appris ici s’appliquent partout.

  2. Permissions minimales : Anywhere ne nécessite pas d’accès à votre cloud provider. Vous gardez le contrôle total de votre infrastructure. C’est souvent un prérequis dans les environnements d’entreprise ou les clusters sécurisés.

  3. L’essentiel du gain : Le rightsizing des workloads représente généralement 60-80% des économies possibles. L’optimisation des nœuds (Full uniquement) apporte un gain supplémentaire, mais le workload optimization reste le levier principal.

  4. Complémentarité : Si vous passez ensuite à CAST AI Full (sur AWS/GCP/Azure), tout ce que vous apprenez ici reste valable. Full ajoute l’autoscaling des nœuds et la gestion Spot, mais le workload autoscaler fonctionne de la même façon.

  • Rightsizing automatique — CAST AI observe l’utilisation réelle de vos pods (CPU et mémoire) pendant plusieurs jours. Si un pod demande 1 CPU mais n’en utilise que 100m, il recommande — puis applique si vous l’autorisez — une valeur plus proche de la réalité. Moins de ressources gaspillées, moins de nœuds, facture réduite.
  • Consolidation des workloads (bin-packing) — Quand vos pods consomment moins après rightsizing, certains nœuds se retrouvent sous-utilisés. Le composant Evictor déplace les workloads vers des nœuds plus remplis, libérant les nœuds vides pour suppression. Vous passez de 10 nœuds à 60% à 6 nœuds à 90%.
  • Protection contre les OOMKilled — Quand un pod manque de mémoire, Kubernetes le tue (OOMKilled). CAST AI détecte ces événements et augmente automatiquement les requests mémoire. Moins de crashs, moins d’interventions manuelles.
  • Visibilité sur les économies — Le dashboard affiche en temps réel les économies réalisées (requests réduites, nœuds supprimés), les économies potentielles (recommandations non appliquées), et le coût par namespace, workload ou label.

Quels clusters sont compatibles avec CAST AI Anywhere ?

Section intitulée « Quels clusters sont compatibles avec CAST AI Anywhere ? »

CAST AI Anywhere fonctionne sur tout cluster Kubernetes :

  • On-premises (bare metal, VMware)
  • Cloud non-supporté par CAST AI Full (OVH, Outscale, Oracle, Scaleway)
  • SUSE Rancher RKE2, VMware Tanzu
  • Edge Kubernetes

Documentation CAST AI Anywhere Overview

Suivez ces étapes dans l’ordre pour une prise en main progressive :

A venir …

Ce site vous est utile ?

Sachez que moins de 1% des lecteurs soutiennent ce site.

Je maintiens +700 guides gratuits, sans pub ni tracing. Aujourd'hui, ce site ne couvre même pas mes frais d'hébergement, d'électricité, de matériel, de logiciels, mais surtout de cafés.

Un soutien régulier, même symbolique, m'aide à garder ces ressources gratuites et à continuer de produire des guides de qualité. Merci pour votre appui.