L’ajout de la mise à l’échelle horizontale automatique à la plateforme d’hébergement d’applications de Kinsta signifie qu’il est maintenant plus facile de fournir exactement la puissance dont votre application a besoin pour répondre aux demandes changeantes sur les ressources du serveur.

La mise à l’échelle horizontale – l’ajout ou la suppression d’instances de pods exécutant le processus web de votre application – peut désormais être configurée pour se déclencher automatiquement en fonction de l’utilisation de l’unité centrale. Cela peut aider votre application à monter en puissance pour gérer des charges importantes ou à réduire la puissance et les coûts lorsque la demande est plus faible.

Giuseppe Silletti, responsable technique d’une équipe de développeurs de Kinsta spécialisés dans l’hébergement d’applications et de bases de données, explique que la variabilité de la demande en ressources serveur est courante pour les applications web.

« Imaginez qu’une plateforme de commerce électronique connaisse une augmentation soudaine du trafic en raison d’une vente flash », explique Giuseppe Silletti. « Des milliers d’utilisateurs accèdent simultanément au site web pour parcourir les produits, ajouter des articles à leur panier et passer à la commande. L’afflux soudain de trafic augmente l’utilisation de l’unité centrale et de la mémoire du serveur web. L’utilisation de l’unité centrale atteint 85 %, ce qui est bien supérieur aux niveaux normaux. Le nombre actuel d’instances du serveur web est insuffisant pour gérer cette charge accrue, ce qui se traduit par des temps de réponse retardés et des pannes potentielles »

« La mise à l’échelle horizontale devient essentielle dans ce cas », ajoute-t-il. « En surveillant des mesures telles que l’utilisation de l’unité centrale, des instances de serveur web supplémentaires sont activées pour répartir la charge de trafic entrant, ce qui garantit que l’expérience de l’utilisateur reste transparente et réactive. »

Activation de la mise à l’échelle horizontale automatique

Lors de la configuration de vos applications sur la plateforme Kinsta, vous pouvez spécifier les besoins en CPU et en mémoire des pods Kubernetes pour les processus de service web, de workers en arrière-plan et de tâches cron. Vous pouvez également choisir manuellement le nombre d’instances de chaque pod nécessaire.

Lorsque vous spécifiez des ressources pour un service web, la nouvelle fonction de Mise à l’échelle automatique vous permet de définir un nombre minimum et maximum de pods (de 1 à 10) pour le processus.

Mise à l'échelle automatique : Choisissez les nombres minimum et maximum d'instances de pods.
Mise à l’échelle automatique : Choisissez les nombres minimum et maximum d’instances de pods.

« L’augmentation de la taille des modules (mise à l’échelle verticale) consiste à augmenter l’unité centrale, la mémoire et les autres ressources allouées à chaque module existant », explique M. Silletti. « C’est un moyen rapide d’améliorer les performances, mais il est limité par les ressources maximales disponibles sur le nœud »

« L’augmentation du nombre de pods – mise à l’échelle horizontale – implique le déploiement d’instances supplémentaires du pod sur l’ensemble du cluster », ajoute-t-il. « Il s’agit d’une approche plus souple pour gérer l’augmentation de la charge et qui n’est pas limitée par la capacité de chaque nœud »

Comment fonctionne la mise à l’échelle automatique chez Kinsta ?

Lorsque la mise à l’échelle automatique est activée, la demande sur les pods du service web est surveillée pour voir si les charges sont inférieures ou supérieures à 80 % de la capacité.

« Lorsque l’utilisation du CPU dépasse le seuil défini, la mise à l’échelle automatique de Kubernetes déclenche la création de pods supplémentaires pour équilibrer la charge », explique Silletti. « L’équilibreur de charge du service identifie automatiquement ces nouveaux pods et répartit le trafic entrant entre tous les pods disponibles. »

« Lorsque Kubernetes constate que l’utilisation des ressources est inférieure au seuil défini, il lance le processus de retrait des modules. Il s’assure que même après le retrait d’un pod, les pods restants peuvent gérer efficacement la charge de trafic tout en restant en dessous du seuil. »

Même si la mise à l’échelle automatique est activée, les utilisateurs peuvent avoir besoin d’aide pour déterminer les valeurs à sélectionner pour ces instances de pods minimales et maximales. Le conseil de Silletti ?

« Dans un premier temps, définissez une base de référence pour l’utilisation des ressources de votre application dans des conditions de charge normale et de pointe », explique-t-il. « Utilisez ensuite des outils et des mesures pour surveiller les performances de l’application et l’utilisation des ressources. Réévaluez et ajustez les configurations si nécessaire pour garantir des performances optimales. »

Commencez dès aujourd’hui la mise à l’échelle automatique de votre application

Avez-vous une idée d’application qui pourrait bénéficier de la mise à l’échelle automatique des ressources des pods ? Voici comment vous pouvez être rapidement opérationnel avec la plateforme d’hébergement d’applications de Kinsta :

  1. Parcourez notre bibliothèque croissante d’exemples de démarrage rapide pour voir comment déployer vos technologies préférées à partir d’hôtes Git comme GitHub, GitLab et Bitbucket.
  2. Consultez notre documentation officielle sur la mise à l’échelle des applications.
  3. Créez votre compte MyKinsta et commencez à construire sans risque !

Lors du déploiement, votre code et ses services de stockage persistant s’exécuteront sur l’infrastructure de premier niveau de Google Cloud Platform, soutenue par les machines virtuelles C2 de la plateforme.

Votre application sera donc hébergée et pourra se développer.