Aller au contenu
Conteneurs & Orchestration medium

Prise en main de la console CAST AI

11 min de lecture

logo cast AI

Ce guide vous accompagne dans votre première connexion à la console CAST AI. Vous découvrirez les écrans principaux et ce qu’ils vous apprennent sur votre cluster.

Après l’installation de CAST AI sur votre cluster, les données arrivent progressivement :

Temps écouléCe que vous voyez dans la console
< 2hScore d’optimisation à 0, pas de recommandations
2-6hPremières métriques, recommandations très conservatrices (max 10-25% d’ajustement)
6-24hRecommandations partielles, confiance “Low” sur la plupart des workloads
24-48hRecommandations fiables pour les workloads stables, confiance “Full” qui apparaît
3-7 joursConfiance “Full” sur la majorité des workloads, patterns hebdomadaires captés

CAST AI observe l’utilisation réelle de vos workloads avant de recommander des ajustements. Un workload peut :

  • Avoir des pics de charge à certaines heures
  • Consommer différemment en semaine et le week-end
  • Démarrer avec beaucoup de ressources (Java, .NET) puis se stabiliser

Sans historique, les recommandations seraient hasardeuses.

Pour les nouveaux clusters, CAST AI applique des ajustements progressifs et limités :

PériodeAjustement maximum
< 2h10% des ressources actuelles
2-6h25% des ressources actuelles
6-24h35% des ressources actuelles
> 24hSelon le niveau de confiance

C’est une protection : CAST AI préfère être conservateur plutôt que de casser vos workloads.

  1. Ouvrez console.cast.ai dans votre navigateur

  2. Connectez-vous avec votre compte (Google, GitHub ou email)

console login

Après connexion, vous voyez la liste de vos clusters. Chaque ligne affiche :

  • Nom du cluster : celui que vous avez donné lors de l’installation
  • Provider : le cloud ou l’environnement (AWS, GCP, Azure, ou “Anywhere” pour les autres)
  • État : Connected (vert) si l’agent communique avec CAST AI
  • Score: le score d’optimisation global du cluster (0-10)
  • Savings : les économies potentielles détectées

console cluster list

Cliquez sur un cluster pour accéder à son tableau de bord.

C’est l’écran principal d’un cluster. Il répond à une question simple : quel est l’état de mon cluster ?

console dashboard

Le dashboard affiche en un coup d’œil :

  • Cluster details : statut de connexion, provider Kubernetes, région, ID du cluster
  • Nodes : nombre total de nœuds, répartition on-demand/spot/fallback
  • Resources : CPUs et mémoire provisionnés vs demandés (requests)
  • Pods : nombre total de pods, scheduled et unscheduled

Le bas du dashboard montre les tendances sur 24h, 7 jours et 30 jours.

À partir du dashboard, vous accédez aux sections principales via le menu de gauche :

SectionCe qu’elle contient
Cluster ScoreLe score d’optimisation du cluster (0-10)
Optimization ConstraintsLes restrictions détectées sur les workloads (ex. pas de probes)
Available SavingsLes économies potentielles détectées par CAST AI
Workload AutoscalerListe des workloads, scaling policies
Nodes AutoscalerConfiguration de l’autoscaling des nœuds
SettingsParamètres du cluster

Le Cluster Score est accessible via le menu Cost Monitoring → Cluster score ou Cluster Overview → Score.

C’est une évaluation globale de l’optimisation de votre cluster sur une échelle de 0 à 10.

ScoreÉtatCe que ça signifie
7-10🟢 HealthyRessources bien optimisées
4-6🟡 ConcerningMarge d’amélioration significative
0-3🔴 PoorSur-provisionnement important

Un score bas n’est pas une erreur : c’est normal quand on démarre. Le score s’améliore progressivement avec les optimisations.

console dashboard

L’écran Optimization constraints liste les workloads et les restrictions détectées par CAST AI qui peuvent rendre l’automatisation plus risquée.

En sélectionnant un workload, la console affiche les restrictions dans le panneau de droite (ex. Missing health checks) et vous permet d’inspecter le YAML associé.

Dans l’exemple ci-dessous, CAST AI indique l’absence de readinessProbe et livenessProbe. Il est recommandé de configurer ces probes afin de fiabiliser le comportement des pods lors des redémarrages et des rollouts.

console optimization
constraints

L’écran Available Savings montre les économies potentielles détectées par CAST AI.

Ce rapport présente :

  • Estimated savings : l’économie totale possible si vous appliquez toutes les recommandations
  • Current cost : le coût estimé actuel de votre cluster
  • Optimized cost : le coût après optimisation

Le rapport détaille aussi les économies par catégorie :

Source d’économieCe qu’elle représente
Workload rightsizingRéduction des requests CPU/memory sur-dimensionnées
Spot InstancesUtilisation d’instances spot (interruptibles, moins chères)

console available savings

La section Workload Autoscaler est le cœur de l’optimisation au niveau des workloads : elle pilote comment CAST AI analyse l’usage réel, génère des recommandations et (selon ta stratégie) les applique automatiquement.

Tu y retrouves en général 4 entrées :

MenuÀ quoi ça sertQuand y aller
OptimizationVoir les workloads agrégés (Deployment/StatefulSet…), leurs recommandations, et ajuster la configuration au niveau policy ou workload.Quand tu veux comprendre “quoi optimiser” et “avec quel niveau de confiance”. ([Cast AI][3])
Scaling policiesGérer les policies (système + custom), leur mode d’application et leur automatisation.Quand tu veux créer une policy “prod conservative” vs “dev agressive”. ([Cast AI][1])
ImpactVue orientée “effet” (impact de l’optimisation et des choix de policies).Quand tu veux valider que l’automatisation produit un résultat mesurable (et pas juste des recommandations).
Event logHistorique des actions du Workload Autoscaler, utile pour diagnostiquer.Quand “ça n’a pas été appliqué” ou pour comprendre un changement. ([Cast AI][4])

console nodes autoscaler

Dans Optimization, commence par vérifier :

  • Les workloads “regroupés” : CAST AI agrège les pods sous leur contrôleur principal (Deployment, StatefulSet, etc.) pour te donner une vue exploitable.

  • Le niveau de confiance : un workload récent ou peu actif donnera des recommandations moins fiables au début. (Tu as déjà bien cadré l’idée dans ton intro “attendre”).

  • Le mode d’application : selon la policy, les changements peuvent être appliqués immédiatement ou attendre un redémarrage naturel.

Scaling policies : où tu fixes ton “style d’optimisation”

Section intitulée « Scaling policies : où tu fixes ton “style d’optimisation” »

Les scaling policies définissent comment CAST AI calcule et applique le rightsizing (fonction CPU/mémoire, overhead, seuils, automation, apply mode…).

Tu peux :

  • utiliser des policies système comme base,
  • dupliquer une policy puis ajuster les paramètres,
  • et, si dispo sur ton tenant, définir des règles d’assignation pour affecter automatiquement une policy à certains workloads.

Le menu Nodes Autoscaler concerne l’optimisation au niveau des nœuds (capacité du cluster), c’est-à-dire comment l’autoscaler ajoute/supprime des nodes et quels garde-fous le contraignent.

console nodes autoscaler

Un réglage documenté et utile : Cluster CPU limits policy.

Il permet de définir une borne min/max sur la quantité totale de vCPU disponible sur l’ensemble des nœuds workers (pratique pour éviter une montée “incontrôlée” ou un scale-down trop agressif).

La page Node configuration sert à appliquer des paramètres au node pendant le provisioning.

Point clé : ça n’influence pas le placement des workloads — ça sert uniquement à appliquer une configuration système sur le node au moment où il est créé.

Le menu Settings (icône ⚙️) donne accès aux paramètres globaux du cluster :

  • Default Scaling Policy : la policy appliquée par défaut aux nouveaux workloads
  • Excluded Namespaces : les namespaces ignorés par CAST AI (par défaut : kube-system, kube-public, castai-agent)

Dans les prochains guides, nous verrons comment :

  • Configurer les Scaling Policies : créer des policies adaptées à vos environnements (prod vs dev)
  • Activer l’automatisation : passer du mode read-only au mode managed en toute sécurité
  • Analyser l’Event log : diagnostiquer quand une recommandation n’est pas appliquée

Ce site vous est utile ?

Sachez que moins de 1% des lecteurs soutiennent ce site.

Je maintiens +700 guides gratuits, sans pub ni tracing. Aujourd'hui, ce site ne couvre même pas mes frais d'hébergement, d'électricité, de matériel, de logiciels, mais surtout de cafés.

Un soutien régulier, même symbolique, m'aide à garder ces ressources gratuites et à continuer de produire des guides de qualité. Merci pour votre appui.