Google Cloud Storage para crear, leer y descargar ficheros

Contenido del Bootcamp dirigido por:

Google Cloud Storage
¿Qué encontrarás en este post?

Google Cloud Storage se conoce por desarrollar múltiples tareas dentro del mundo Big Data para diferentes programas, herramientas y sistemas muy reconocidos. Es por ello que identificar cómo funciona al realizar ciertas tareas como crear, leer y descargar ficheros se convierte en un conocimiento más que esencial. Sobre todo, si hablamos de la manipulación de ficheros, puesto que este es el primer paso para el almacenamiento de los macrodatos.

Ahora, si lo que buscas es comprender cómo se llevan a cabo estas tareas, ¡este post es ideal para ti! En su desarrollo, podrás conocer todo lo relacionado con los ficheros en Google Cloud Storage, desde cómo crearlos hasta cómo descargarlos. A continuación, una breve guía al respecto.

¿Qué es Google Cloud Storage?

GCS (Google Cloud Storage), tal como su nombre indica, es un servicio de almacenamiento de nube ofrecido por Google para cualquier cantidad de datos. Esta es la principal razón por la que se implementa tanto dentro del universo del Big Data, ya que puede almacenar un gran volumen de datos sin ningún tipo de restricción.

Por otra parte, el servicio de GCS (Google Cloud Storage) permite que los datos se mantengan bajo una seguridad confiable, por lo que la veracidad de la información se conservará con éxito.

Sumado a ello, todo esto se logra de manera online y escalable. De hecho, este factor es el más destacable de sus características, ya que te permitirá:

  • Acceder desde cualquier parte del mundo sin problemas.
  • Transferir documentos de forma inmediata y online.
  • Realizar las tareas del almacenamiento y gestión de los macrodatos de forma rápida y efectiva.
  • Personalizar cómo y dónde se almacenarán los macrodatos según el interés de la gestión de datos y de tus preferencias como administrador.

Características de Google Cloud Storage

Dentro de características de Google Cloud Storage se encuentran:

Configuración de los datos

Una de las más importantes características de Google Cloud Storage o google cloud caracteristicas es que permite configurar todos los datos e información con la gestión del ciclo de vida de los objetos almacenados. Lo hace con el objetivo de que realicen la transición automática hacia una serie de clases de almacenamientos de menor valor en el momento en el que cumplan con las especificaciones y requisitos establecidos por el cliente.

Para este proceso de transferencia de almacenamiento, Cloud Storage proporciona un servicio con una vía con la escalabilidad y rapidez requerida para hacer más fácil la migración de los datos.

Otra de las características de Google Cloud Storage es que permite el uso del servidor de almacenamiento ampliable y trasladable Transfer Appliance, que se encarga de llevar a cabo las transferencias de datos sin conexión, posicionándose en el centro de datos del usuario, para luego trasladarse a otra ubicación donde los datos se suben a la plataforma de Google Cloud Storage.

Tipos de almacenamiento

La multiplicidad de categorías de almacenamiento para las diferentes cargas de trabajo es otra de las características de Google Cloud Storage y permite una reducción de los costes de operación sin necesidad de disminuir el rendimiento. Esto lo logra a través de la elección de un tipo de almacenamiento que se relacione con el uso actual del usuario y la posterior configuración para que esté más adaptada a las necesidades del proyecto.

Cabe resaltar que una clase de almacenamiento forma parte de los metadatos utilizados por cada objeto, entre los que tenemos, por ejemplo:

Standart Storage

Esta herramienta no tiene duración mínima de almacenamiento, por lo que resulta ideal para tratar datos activos usados con mucha regularidad, como es el caso de sitios web o aplicaciones para dispositivos móviles, así como videos en streaming.

Nearline Storage

Es un tipo intermedio de almacenamiento de datos de bajo costo y que compromete el almacenamiento en línea con el archivo offline. Presenta una duración mínima de almacenamiento de 30 días, por lo que es de gran utilidad para tipos de datos como backup o copias de seguridad de la información y archivos multimedia de cola larga.

Coldline Storage

Hace referencia a un tipo de almacenamiento de gran duración y bajo costo que resulta ideal para elementos que tengan una duración mínima de almacenamiento de 90 días, como es el caso del proceso de recuperación ante desastres.

Archive Storage

Este es el servicio de almacenamiento de menor costo y con una mayor duración de almacenamiento, siendo esta de 365 días. Archive Storage permite que los datos almacenados (por ejemplo, archivos regulatorios) puedan estar disponibles en tan solo milésimas de segundo.

Google Cloud Storage para crear, leer y descargar ficheros

Ahora, las funciones más importantes de Google Cloud Storage consiste en crear, leer y descargar ficheros para el procesamiento de los macrodatos. Por este motivo, considerando la importancia de estas tareas, a continuación te compartimos una breve guía al respecto.

En primer lugar, debes importar las librerías necesarias y auténticas con Google Cloud de la siguiente manera:

  • from google.colab import auth
  • auth.authenticate_user()

Además, necesitas saber el ID de tu proyecto en la consola Cloud de Google (se encuentra en la parte superior izquierda).

  • project_id = ‘erudite-stratum-301721’

Ahora, debes traer todo lo necesario para Cloud Storage de la siguiente forma:

  • from googleapiclient.discovery import build
  • gcs_service = build(‘storage’, ‘v1’)

A continuación, necesitarás el nombre de tu segmento, para ello crea o busca uno en el siguiente sitio:

  • https://console.cloud.google.com/storage/browser
  • bucket_name = ‘bucket-cluster-ricardo’

Subir un fichero desde «local»

Una vez realizada la prueba anterior, podrás probar cómo funciona subir un fichero desde «local». Para ello, debes definir el nombre del fichero que quieres subir, por ejemplo:

  • file_name = ‘test123.txt’

Ahora, tendrás que escoger el fichero que has creado antes y debes subirlo al bucket así:

  • from googleapiclient.http import MediaFileUpload
  • media = MediaFileUpload(‘/tmp/test12321312.txt’,
    mimetype=’text/plain’,
    resumable=True)
  • request = gcs_service.objects().insert(bucket=bucket_name,
    name=file_name,
    media_body=media)
  • response = None
    while response is None:
    # _ is a placeholder for a progress object that we ignore.
    # (Our file is small, so we skip reporting progress.)

    _, response = request.next_chunk()
  • print(‘Upload completo’)

Ahora descarga un fichero

Para descargar un fichero debes realizar los siguientes comandos:

  • from google.cloud import storage
  • storage_client = storage.Client(project_id)
    bucket = storage_client.get_bucket(bucket_name)
  • blob = bucket.blob(‘output/hive/alumnos/000000_0’)
    results = blob.download_as_string().decode(‘utf-8’)
  • print(results)
  • 1,ricardo,vegas
  • 2,pedro,perez
  • 3,maria,ochoa
  • 4,mario,gomez

Así se llevan a cabo cada una de estas funciones al conectar Google Cloud Storage para crear, leer y descargar ficheros. Ahora, deberás establecer tus criterios de gestión de datos e implementar este servicio si te ha convencido.

¿Quieres seguir instruyéndote en Big Data?

Por medio de este post, has podido identificar cómo se conecta Google Cloud Storage para crear, leer y descargar ficheros y cada uno de sus pasos a seguir para lograrlo. Sin embargo, este proceso se muestra como uno de los muchos que se encuentran para el procesamiento de los datos de una forma más sencilla a través del uso de Google Cloud Storage en el mundo del Big Data, por lo que aún falta más por aprender.

Para ayudarte en este proceso de aprendizaje, desde KeepCoding te recomendamos nuestro Bootcamp Full Stack Big Data, Inteligencia Artificial & Machine Learning. Por medio de este bootcamp, podrás aprender a desenvolverte en cada una de las herramientas, sistemas y lenguajes más relevantes de la manipulación del Big Data de la mano de profesionales y expertos que te darán acceso a los cursos, webinars y material extra de nuestra plataforma. De esta forma, en menos de nueve meses serás todo un experto para acercarte a las distintas alternativas de análisis y gestión de macrodatos. Si esto es lo que estás buscando, no lo dudes más y ¡apúntate ahora mismo!

¡CONVOCATORIA ABIERTA!

Big Data, IA & Machine Learning

Full Stack Bootcamp

Clases en Directo | Profesores en Activo | Temario 100% actualizado