Tipos de autoescalado en Kubernetes

Autor: | Última modificación: 8 de junio de 2022 | Tiempo de Lectura: 3 minutos
Temas en este post:

Kubernetes es una de las plataformas más reconocidas dentro del sector IT gracias a su labor como administrador de cargas de trabajo y servicios, así como sus múltiples opciones y recursos. Estas opciones son las que se encargan de garantizar la eficiencia de la plataforma y su utilidad final para el usuario, teniendo así herramientas como los tipos de autoescalado en Kubernetes, que contribuyen al ajuste automático de los recursos en el sistema.

Los tipos de autoescalado en Kubernetes permiten, además, la asignación de los elementos de la plataforma que sean necesarios dependiendo de cada circunstancia, por lo que resulta de gran importancia entender este concepto para mejorar el rendimiento de Kubernetes. Este es el motivo por el que, en este artículo, te enseñaremos qué son, cuáles son sus propiedades y cuándo utilizarlos.

¿Qué es el autoescalado en Kubernetes?

La opción de autoescalado en Kubernetes puede definirse como la asignación o el ajuste de los recursos adecuados en un determinado momento, que se realiza para que las aplicaciones del sistema puedan ejecutarse con normalidad. Este proceso se lleva a cabo de forma automatizada en la plataforma, de acuerdo con la cantidad de recursos que se requieran en cada momento, lo que permite configurar estos recursos tomando como base la carga que se soporte en cada ocasión.

Esto quiere decir que, cuando exista mayor carga de trabajo, Kubernetes se encargará de activar más servidores y, en el caso en el que la carga disminuya por algún motivo, se realizará el proceso inverso.

El autoescalado en Kubernetes contribuye, además, a que puedas tener a tu disposición todos los recursos del sistema que necesites, de acuerdo con lo que se requiera en las aplicaciones y sus patrones de uso.

Tipos de autoescalado en Kubernetes

La plataforma admite varios tipos de autoescalado en Kubernetes, como, por ejemplo, el HPA, VPA y autoescalado horizontal y vertical de clúster. Estas opciones pueden ampliarse para profundizar en ellas de la siguiente manera:

Autoescalado horizontal de PODs

El HPA o autoescalado horizontal de PODs en Kubernetes se refiera a una funcionalidad interna y estándar de la plataforma que te va a permitir variar la cantidad de pods que despliegues a través de las opciones de replication controller o un deployment de acuerdo con diferentes métricas.

🔴 ¿Quieres entrar de lleno al mundo DevOps & Cloud Computing? 🔴

Descubre el DevOps & Cloud Computing Full Stack Bootcamp de KeepCoding. La formación más completa del mercado y con empleabilidad garantizada

👉 Prueba gratis el Bootcamp en DevOps & Cloud Computing por una semana

Esta opción de autoescalado en Kubernetes también te permitirá aumentar y disminuir las métricas de un deployment de manera dinámica. Se debe tener en cuenta que, para implementar esta herramienta, hace falta definir un umbral, así como los valores mínimos y máximos. Además, deberás encargare de definir los resources o recursos en los pods.

Autoescalado vertical de PODs

Este tipo de autoescalado en Kubernetes no es directamente una funcionalidad estándar de la plataforma, por lo que requiere instalarlo y configurarlo de forma externa.

Esta opción también se conoce como VPA y se encarga del análisis y ajustes de los recursos de CPU y de memoria que necesiten los diferentes pods del sistema. Además, contribuye a ofrecer una serie de valores recomendados para las solicitudes de los recursos que gestiona, así como los límites de estos. El autoescalado vertical de pods en Kubrnetes o VPA también puede configurarse para actualizar los valores de una manera automatizada.

El uso de este servicio también te ayudará a reducir el mantenimiento y a hacer uso de los recursos del sistema de Kubernetes de una manera más eficiente.

Autoescalado de clúster

Este es un tipo de autoescalado en Kubernetes que requiere integración con la nube para provisionar los nodos, debido a que es una funcionalidad externa a la plataforma.

De forma que, cuando te quedes sin recursos, la manera adecuada de añadir más es sumando nodos o añadiendo unos nodos de mayor tamaño. Así pues, puedes emplear el componente cluster-autoescaler para notificar a la API de gestión de infraestructura acerca de la creación de algún nodo nuevo.

El funcionamiento del autoescalado del clúster de Kubernetes se enmarca bajo las siguiente situaciones:

  • En el caso de que un POD vaya a crearse y no queden recursos disponibles, la opción de scheduler se encargará de notificar la necesidad de un nodo nuevo.
  • Cuando un nodo nuevo se crea, el scheduler crea el POD en el nuevo nodo.
  • También funciona hacia abajo; si sobran recursos, el clúster-autoscaler se encargará de eliminar los nodos que sean necesarios.

¿Cuál es el siguiente paso?

En este artículo has podido conocer qué es el autoescalado en Kubernetes, además de cuáles son sus tipos y las principales características y propiedades de estos. Ahora, tras llegar hasta aquí, es probable que te interese seguir profundizando acerca de esta y otras muchas opciones que ofrece el mundo tecnológico. Para ayudarte a alcanzar este objetivo, no dudes en dar el siguiente paso e inscríbete en nuestro DevOps & Cloud Computing Full Stack Bootcamp.

Con este bootcamp, aprender todo lo necesario, tanto de forma teórica como práctica, para convertirte en un experto del mundo IT y obtener una ventaja competitiva en el sector solo te llevará 6 meses. ¡Anímate a matricularte para continuar con tu proceso de formación!

[email protected]

¿Sabías que hay más de 2.500 vacantes para ingenieros DevOps sin cubrir en España? 

En KeepCoding llevamos desde 2012 guiando personas como tú a áreas de alta empleabilidad y alto potencial de crecimiento en IT con formación de máxima calidad.

 

Porque creemos que un buen trabajo es fuente de libertad, independencia, crecimiento y eso ¡cambia historias de vida!


¡Da el primer paso!