Kubernetes es una plataforma enfocada en la gestión de workloads o cargas de trabajo y servicios. Esta herramienta incluye un conjunto de opciones que buscan asegurar y optimizar el funcionamiento y eficiencia del sistema, como es el caso del autoescalado basado en métricas en Kubernetes.
Este recurso contribuye en el ajuste de forma automática de los componentes de la herramienta, basándose en las diferentes métricas que ofrece el sistema de Kubernetes. De manera que es necesario que aprendas aquí todo lo indispensable acerca de esta opción de autoescalado.
Autoescalado basado en métricas en Kubernetes
El autoescalado basado en métricas en Kubernetes se refiere a la opción o funcionalidad estándar del sistema que permite variar el número de recursos de pods que desplieguen, tomando como fundamento múltiples métricas.
De modo que el fin de disponer de las métricas de la plataforma es que permitan que el sistema escale de forma automática mediante HPA o autoescalado horizontal, o bien a través de la opción de HVA o autoescalado vertical.
Características del autoescalado basado en métricas en Kubernetes
Dentro de las características y propiedades destacables del sistema de autoescalado basado en métricas en Kubernetes, se encuentra que permite conocer el uso de memoria y CPU por parte de los diferentes objetos desplegados en Kubernetes en cada momento.
De igual forma, este tipo de autoescalado en la plataforma contribuye a identificar aquellos pods y nodos en los que se está realizando un mayor consumo de memoria y CPU.
🔴 ¿Quieres entrar de lleno al mundo DevOps & Cloud Computing? 🔴
Descubre el DevOps & Cloud Computing Full Stack Bootcamp de KeepCoding. La formación más completa del mercado y con empleabilidad garantizada
👉 Prueba gratis el Bootcamp en DevOps & Cloud Computing por una semanaOtra de las características del mecanismo de autoescalado de Kubernetes basado en métricas es que permite el aumento o disminución de la medición de un deployment dinámicamente.
El autoescalado basado en métricas en Kubernetes se caracteriza, además, por poner a disposición la totalidad de recursos que sean necesarios en momentos determinados, de acuerdo con las necesidades que tengan las diferentes aplicaciones y sus patrones de uso.
¿De dónde se obtienen las métricas?
Las métricas utilizadas para este tipo de autoescalado en Kuebrnetes puede provenir ya sea de la Interfaz de Programación de Aplicaciones de resource metrics o bien de la API de custom metrics.
En el primer caso, esa opción no requiere configuración alguna y proporciona información al respecto del consumo de los pods con relación a la CPU y memoria.
Por otro lado, la API de custom metrics incluye un bucle de gestión a cargo de la verificación periódica de la métrica configurada en el autoescalado horizontal o HPA.
Así pues, el autoescalado basado en métricas en Kubernetes también puede obtener la información de métricas sobre el clúster del sistema, haciendo uso del proyecto denominado Kubernetes Metrics Server, que se encarga de la recolección de estos elementos de los recursos de los Kubelets a través de la API de medición.
En este artículo has podido conocer qué es el autoescalado basado en métricas en Kubernetes, así como en qué consisten sus características y opciones de mayor relevancia. Ahora que ya has conseguido llegar hasta aquí, anímate a continuar profundizando acerca de esta y otras herramientas que ofrece el mundo tecnológico para que optimices tus labores. Para ayudarte a alcanzar este objetivo, no dudes en dar el siguiente paso y matricúlate en nuestro DevOps & Cloud Computing Full Stack Bootcamp.
Con esta formación intensiva de alta calidad podrás aprender todo lo necesario, tanto de manera teórica como práctica, para convertirte en un experto del mundo IT y obtener una ventaja competitiva en el sector. ¡Anímate a matricularte para continuar con tu proceso de formación!