Efecto modificación de capas en Deep Learning

Autor: | Última modificación: 18 de abril de 2024 | Tiempo de Lectura: 3 minutos
Temas en este post:

Algunos de nuestros reconocimientos:

Premios KeepCoding

El efecto modificación de capas en Deep Learning es una de las estrategias que permiten encontrar automáticamente estas características aprovechándose de la gran cantidad de datos disponibles para el estudio Deep Learning.

La primera red neuronal data de 1958. El problema es que no había potencia de cálculo suficiente para poder progresar hasta hace relativamente poco con la popularización de las GPUs de altas prestaciones.

De hecho, las redes neuronales convolucionales son una consecuencia de las altas expectativas depositadas y los «pocos» avances conseguidos. Por este motivo, en este post, te presentamos qué es y cómo funciona el efecto modificación de capas en Deep Learning.

¿Qué es el Deep Learning?

Podemos pensar que Deep Learning (DL) o aprendizaje profundo es como un subcampo del Machine Learning al que también se le llama aprendizaje jerárquico. Además, debes tener en cuenta que soluciona el problema anterior de la elección de características, puesto que esta aprende distintas representaciones de los datos que se introducen en un clasificador final.

La magia está en que ya no nos volvemos locos buscando las mejores características o atributos para cada problema, sino que esto lo hace automáticamente nuestro algoritmo.

Por último, cabe destacar la importancia de tener una gran cantidad de datos para poder utilizar técnicas de ML o DL. Además, cuanta más calidad tengan esos datos, mejor se comportaran nuestros modelos.

Efecto modificación de capas en Deep Learning

El efecto modificación de capas en Deep Learning forma parte de las estrategias de facilitación en el procesamiento de las redes neuronales convolucionales en Big Data.

De manera que su empleo puede ayudarte a muchas alternativas provechosas para el manejo de los macrodatos. El efecto modificación de capas en Deep Learning cuenta con dos capas, que son: GlobalMaxPoling y GlobalMeanPoling frente Flatten.

Por otra parte, la operación de flatten nos permite pasar de un volumen de características a un vector sobre el que hacer la tarea de clasificación. Sin embargo, mediante esta operación, el número de parámetros se eleva considerablemente.

Aunque esto no es un impedimento, ya que dentro del efecto modificación de capas en Deep Learning también se suelen utilizar, como alternativas, otras capas como GlobalMaxPooling y GlobalAveragePooling, que permiten reducir el número de parámetros.

Efecto modificación de capas en Deep Learning

Ejemplo práctico

A continuación, te compartimos un breve ejemplo práctico sobre el efecto modificación de capas en Deep Learning para el manejo de los macrodatos.

from tensorflow.keras.layers import GlobalMaxPooling2D,GlobalAveragePooling2D
# Inizializamos el modelo
model = Sequential()

# Definimos una capa convolucional
model.add(Conv2D(128, kernel_size=(3, 3), activation='relu', input_shape=(32, 32, 3)))

# Definimos la segunda capa convolucional
model.add(Conv2D(128, kernel_size=(3, 3), activation='relu'))

# Definimos la tercera capa convolucional
model.add(Conv2D(128, kernel_size=(3, 3), activation='relu'))

# Añadimos nuestro clasificador
model.add(GlobalAveragePooling2D())
model.add(Dense(10, activation='softmax'))

# Compilamos el modelo
model.compile(loss='categorical_crossentropy',
              optimizer=Adam(lr=0.001, decay=1e-6),
              metrics=['accuracy'])

# Entrenamos el modelo
model.fit(X_train_norm, to_categorical(Y_train),
          batch_size=128,
          shuffle=True,
          epochs=10,
          validation_data=(X_test_norm, to_categorical(Y_test))) # aquí deberíamos usar un conjunto distinto al de test!!!

# Evaluamos el modelo
scores = model.evaluate(X_test_norm, to_categorical(Y_test))

#Observamos el número de parámetros
model.summary()

print('Loss: %.3f' % scores[0])
print('Accuracy: %.3f' % scores[1])
Efecto modificación de capas en Deep Learning
Efecto modificación de capas en Deep Learning

Esperamos que este acercamiento al efecto modificación de capas en Deep Learning sea de vital ayuda para conseguir resultados efectivos y precisos en el manejo del Big Data.

¿Quieres seguir aprendiendo sobre el Big Data?

En el desarrollo de este post, te hemos expuesto el efecto modificación de capas en Deep Learning y cómo se comporta este para dentro de los facilitadores para el análisis de redes neuronales convolucionales en el manejo del Big Data. Aún así, te recordamos que este es un amplio universo y todavía falta mucho por aprender.

Para facilitarte el proceso de aprendizaje, desde KeepCoding te aconsejamos revisar el Bootcamp Full Stack Big Data, Inteligencia Artificial & Machine Learning, por medio del que te formarás en el proceso de ingesta, clasificación, resguardo, procesamiento y presentación de los macrodatos gracias al uso de diferentes herramientas, sistemas y lenguajes. Cuando finalices, en menos de nueve meses, serás capaz de reconocer las ventajas e inconvenientes de los distintos programas estudiados de la mano de grandes expertos en este ámbito y a través de ejemplos prácticos que permitirán afianzar la teoría de una forma más efectiva y precisa. ¡Echa un vistazo a nuestro temario e inscríbete ahora!

¡CONVOCATORIA ABIERTA!

Big Data, IA & Machine Learning

Full Stack Bootcamp

Clases en Directo | Profesores en Activo | Temario 100% actualizado