¿Cómo montar un clúster de Hadoop en la nube?

| Última modificación: 19 de abril de 2024 | Tiempo de Lectura: 4 minutos

Algunos de nuestros reconocimientos:

Premios KeepCoding

El clúster de Hadoop en la nube es un elemento fundamental para el desarrollo de esta biblioteca de software en la gestión de los datos. De esta forma, su implementación en la nube resulta imprescindible una vez se pasan los macrodatos a la red, ya que a partir de ello, se establecen una serie de funciones alrededor de la presencia del clúster. De manera que conocer cómo se implementa en la nube de Hadoop es de suma importancia.

A pesar de que montar un clúster de Hadoop en la nube puede parecer un proceso complicado y difícil, su desarrollo trae consigo una gran variedad de ventajas. Además, por medio de ejemplos ilustrativos este proceso es un poco más comprensible para su aplicación a la consola. Por ello, en este post, te exponemos cómo montar un clúster de Hadoop en la nube.

Algunas consideraciones antes de empezar

Para montar un clúster de Hadoop en la nube es necesario partir de que el objetivo de estos radica en liberarse de los setups locales. Además, este proceso te ayudará a aprender a usar los servicios aprovisionados en la nube de Hadoop.

Conocer estos servicios te son de suma importancia, ya que en el desarrollo profesional, pocas veces podrás trabajar en equipos locales. Por ello, las herramientas Cloud se convierten en un elemento fundamental.

Sin embargo, trabajar en la nube tiene un precio, en la actualidad, de todos los planes gratuitos o de Trial, el más conveniente a día de hoy es GCP Compute. En líneas generales, GCP te ofrece un crédito de 300 USD para gastar durante tres meses enteros en lo que quieras, a diferencia de otros proveedores te dan menos tiempo o menos dinero.

¿Cómo montar un clúster de Hadoop en la nube?

En primer lugar, deberás tener una cuenta de Google (puedes crear una nueva de prueba si no quieres desgastar tu cuenta principal). Ahora, para empezar esta pequeña guía de cómo montar un clúster de Hadoop en la nube, utilizaremos la prueba gratis de Google Cloud.

Una vez te dirijas allí y le des clic a la prueba gratis, deberás ver algo como la siguiente imagen. A partir tendrás que dar clic “aceptar” y “continuar” hasta el final.

Si no te sale algo como la imagen anterior, entonces, verás algo como:

Finalmente, podrás ver la siguiente información, lo que significa que ya estás adentro:

Ahora, tendrás que dirigirte a la plataforma de Google Cloud, en donde deberás hacer clic en la opción de “Compute Engine”, como se muestra a continuación:

Entonces, se abrirá una ventana de “Crear proyecto”, en la que deberás seleccionar un proyecto como ejemplo para montar el clúster de Hadoop en la nube.

A partir de allí, debes seleccionar la opción de Dataproc y después dar clic en “Agrupaciones”

Ahora, saldrá una ventana de “Crear una agrupación”, dentro de la que podrás empezar a crear el clúster de Hadoop en la nube.

Ahora, el proceso consiste en “Definir clúster” y finalizar al dar clic en “Crear”.

¿Cuál es el siguiente paso?

El proceso continúa una vez analices la red VPC (Virtual Private Cloud) y el cortafuegos o firewall.

Ten en cuenta que Hadoop en GCP (Google Cloud Plataform) funciona a través de los puertos 8088 y 9870.

El siguiente paso consiste en añadir una nueva regla que te permita entrar en las vistas de administración del clúster.

Ten en cuenta que los puertos son: tcp:8088;udp:8088;tcp:9870;udp:9870.

A continuación, debes buscar la IP del nodo maestro, de manera que debes ir a Compute Engine para ver las instancias creadas y debe aparecerte así:

Ahora, podrás entrar en el clúster.

Finalmente, si quieres entrar a probar directamente, tendrás que descargar GCP (Google Cloud Plataform) SHELL. Posteriormente, podrás ejecutar lo siguiente:

Entonces, ¡ya estarás dentro!
Sin embargo, una vez dentro con el SHELL, debes tener en cuenta que esta instalación de Hadoop esta hecha por el equipo de Google, es decir, es posible que no todos los archivos se encuentran en el mismo lugar.

Por tanto, primero es necesario ubicarse en el directorio que contiene los archivos .jar de ejemplo de Hadoop:

Ahora, recuerda que al estar provisionada no tendrás que ocuparte de arrancar los servicios, a menos que estés interesado en arrancar servicios extra.

Por último, podrás calcular PI como siempre se ha hecho en un clúster local.

¡Es todo, lo has logrado!

¿Cómo aprender más del Big Data?

En el transcurso de este post, te hemos mostrado cómo montar un clúster de Hadoop en la nube, de manera que ya solo queda una serie de ensayos en la parte práctica que complementen el ejemplo presentado. En suma, Hadoop posee múltiples alternativas de desarrollo para que la gestión de la información sea mucho más sencilla, intuitiva y eficaz. De forma que te aconsejamos continuar aprendiendo sobre el manejo del Big Data a través de esta biblioteca de software.

Si aún no sabes cómo y quieres instruirte a profundidad en las principales herramientas para el procesamiento de los macrodatos, desde KeepCoding te ofrecemos nuestro Bootcamp Full Stack Big Data, Inteligencia Artificial & Machine Learning. Puesto que con este no solo continuarás instruyéndote sobre el Big Data, también podrás hacerlo de manera remota y con el acompañamiento de grandes especialistas en cada uno de sus once módulos de desarrollo. Además, nuestra enseñanza teórica siempre irá de la mano del ensayo práctico. ¿Qué estás esperando?

Sandra Navarro

Business Intelligence & Big Data Advisor & Coordinadora del Bootcamp en Data Science, Big Data & Machine Learning.

Posts más leídos

¡CONVOCATORIA ABIERTA!

Big Data, IA & Machine Learning

Full Stack Bootcamp

Clases en Directo | Profesores en Activo | Temario 100% actualizado