Efecto modificación de capas en Deep Learning

Autor: | Última modificación: 25 de agosto de 2022 | Tiempo de Lectura: 3 minutos
Temas en este post:

El efecto modificación de capas en Deep Learning es una de las estrategias que permiten encontrar automáticamente estas características aprovechándose de la gran cantidad de datos disponibles para el estudio Deep Learning.

La primera red neuronal data de 1958. El problema es que no había potencia de cálculo suficiente para poder progresar hasta hace relativamente poco con la popularización de las GPUs de altas prestaciones.

De hecho, las redes neuronales convolucionales son una consecuencia de las altas expectativas depositadas y los «pocos» avances conseguidos. Por este motivo, en este post, te presentamos qué es y cómo funciona el efecto modificación de capas en Deep Learning.

¿Qué es el Deep Learning?

Podemos pensar que Deep Learning (DL) o aprendizaje profundo es como un subcampo del Machine Learning al que también se le llama aprendizaje jerárquico. Además, debes tener en cuenta que soluciona el problema anterior de la elección de características, puesto que esta aprende distintas representaciones de los datos que se introducen en un clasificador final.

La magia está en que ya no nos volvemos locos buscando las mejores características o atributos para cada problema, sino que esto lo hace automáticamente nuestro algoritmo.

Por último, cabe destacar la importancia de tener una gran cantidad de datos para poder utilizar técnicas de ML o DL. Además, cuanta más calidad tengan esos datos, mejor se comportaran nuestros modelos.

Efecto modificación de capas en Deep Learning

El efecto modificación de capas en Deep Learning forma parte de las estrategias de facilitación en el procesamiento de las redes neuronales convolucionales en Big Data.

De manera que su empleo puede ayudarte a muchas alternativas provechosas para el manejo de los macrodatos. El efecto modificación de capas en Deep Learning cuenta con dos capas, que son: GlobalMaxPoling y GlobalMeanPoling frente Flatten.

Por otra parte, la operación de flatten nos permite pasar de un volumen de características a un vector sobre el que hacer la tarea de clasificación. Sin embargo, mediante esta operación, el número de parámetros se eleva considerablemente.

Aunque esto no es un impedimento, ya que dentro del efecto modificación de capas en Deep Learning también se suelen utilizar, como alternativas, otras capas como GlobalMaxPooling y GlobalAveragePooling, que permiten reducir el número de parámetros.

Efecto modificación de capas en Deep Learning 1

Ejemplo práctico

A continuación, te compartimos un breve ejemplo práctico sobre el efecto modificación de capas en Deep Learning para el manejo de los macrodatos.

from tensorflow.keras.layers import GlobalMaxPooling2D,GlobalAveragePooling2D
# Inizializamos el modelo
model = Sequential()

# Definimos una capa convolucional
model.add(Conv2D(128, kernel_size=(3, 3), activation='relu', input_shape=(32, 32, 3)))

# Definimos la segunda capa convolucional
model.add(Conv2D(128, kernel_size=(3, 3), activation='relu'))

# Definimos la tercera capa convolucional
model.add(Conv2D(128, kernel_size=(3, 3), activation='relu'))

# Añadimos nuestro clasificador
model.add(GlobalAveragePooling2D())
model.add(Dense(10, activation='softmax'))

# Compilamos el modelo
model.compile(loss='categorical_crossentropy',
              optimizer=Adam(lr=0.001, decay=1e-6),
              metrics=['accuracy'])

# Entrenamos el modelo
model.fit(X_train_norm, to_categorical(Y_train),
          batch_size=128,
          shuffle=True,
          epochs=10,
          validation_data=(X_test_norm, to_categorical(Y_test))) # aquí deberíamos usar un conjunto distinto al de test!!!

# Evaluamos el modelo
scores = model.evaluate(X_test_norm, to_categorical(Y_test))

#Observamos el número de parámetros
model.summary()

print('Loss: %.3f' % scores[0])
print('Accuracy: %.3f' % scores[1])
Efecto modificación de capas en Deep Learning 2
Efecto modificación de capas en Deep Learning 3

Esperamos que este acercamiento al efecto modificación de capas en Deep Learning sea de vital ayuda para conseguir resultados efectivos y precisos en el manejo del Big Data.

¿Quieres seguir aprendiendo sobre el Big Data?

En el desarrollo de este post, te hemos expuesto el efecto modificación de capas en Deep Learning y cómo se comporta este para dentro de los facilitadores para el análisis de redes neuronales convolucionales en el manejo del Big Data. Aún así, te recordamos que este es un amplio universo y todavía falta mucho por aprender.

Para facilitarte el proceso de aprendizaje, desde KeepCoding te aconsejamos revisar el Bootcamp Full Stack Big Data, Inteligencia Artificial & Machine Learning, por medio del que te formarás en el proceso de ingesta, clasificación, resguardo, procesamiento y presentación de los macrodatos gracias al uso de diferentes herramientas, sistemas y lenguajes. Cuando finalices, en menos de nueve meses, serás capaz de reconocer las ventajas e inconvenientes de los distintos programas estudiados de la mano de grandes expertos en este ámbito y a través de ejemplos prácticos que permitirán afianzar la teoría de una forma más efectiva y precisa. ¡Echa un vistazo a nuestro temario e inscríbete ahora!

👉 Descubre más del Big Data, Inteligencia Artificial & Machine Learning Full Stack Bootcamp ¡Descarga el temario!

👉 Prueba el Bootcamp Gratis por una Semana ¡Empieza ahora mismo!

👉 Conoce nuestros otros Bootcamps en Programación y Tecnología

[email protected]pcoding.io

¿Sabías que hay más de 5.000 vacantes para desarrolladores de Big Data sin cubrir en España? 

En KeepCoding llevamos desde 2012 guiando personas como tú a áreas de alta empleabilidad y alto potencial de crecimiento en IT con formación de máxima calidad.

 

Porque creemos que un buen trabajo es fuente de libertad, independencia, crecimiento y eso ¡cambia historias de vida!


¡Da el primer paso!