miércoles, 15 de abril de 2020

Vídeo Nº 214: Redes Neuronales 23 - Optimización 05

Último vídeo de optimización y mejoras de redes neuronales. Se verá cómo analizar los errores, cómo afinar los hiperparámetros, la normalización batch y cómo aprovechar y compartir el aprendizaje con clasificación multiclase, clasificación multitarea y transferencia de aprendizaje. Por último, se comparará el aprendizaje end-to-end de las redes profundas con el machine learning más tradicional.



lunes, 13 de abril de 2020

Vídeo Nº 213: Redes Neuronales 22 - Optimización 04

Veremos cómo particularizar la técnica batch (procesado por lotes) dentro de las redes neuronales, sobre todo si tenemos redes muy grandes y big data. Luego conoceremos los optimizadores más conocidos y útiles: Momentum, RMSProp y Adam (este es el más usado hoy día); así como cómo hacer que la tasa de aprendizaje sea dinámica. Todo esto nos ayudará a que el aprendizaje se realice en menos tiempo ya que permite alcanzar el mínimo de la función coste de forma mucho más rápida.



viernes, 10 de abril de 2020

Vídeo Nº 212: Redes Neuronales 21 - Optimización 03

En este segundo vídeo sobre optimización de redes neuronales se explica primero cómo normalizar los datos de entra agiliza enormemente los tiempos de entrenamiento (con un ejemplo práctico). Luego, se verá como podemos depurar nuestra implementación de red neuronal para saber si las fórmulas usadas para el cálculo de las derivadas ha sido correcto. Por último, veremos el principal problema que tienes los perceptrones multicapa (MLP): el desvanecimiento del gradiente; y veremos también una solución (parcial) que puede ayudar a mejorar las redes neuronales de tamaño medio.



Vídeo Nº 211: Redes Neuronales 20 - Optimización 02

En este vídeo se explica como aplicar la regularización de Frobenius, una adaptación de la regularización L2 que se usó en la regresión logística. Para ello, se explicará lo que es la norma de un vector y cómo calcularla. También se explica otra técnica de regularización, llamada Dropout. Por último, se introduce las técnicas básicas de aumentos de ejemplos y datos de forma relativamente sencilla.

 

jueves, 9 de abril de 2020

Vídeo Nº 210: Redes Neuronales 19 - Optimización 01

En este primer vídeo sobre mejoras en redes neuronales veremos los diferentes hiperparámetros, cómo tratar los conjuntos de datos, cómo calcular los errores, cómo diagnosticar los problemas que tienen la red neuronal (bías y varianza) así cómo corregirlos. También se verán las principales diferencias entre las técnicas usadas en machine learning tradicional versus las usadas en redes neuronales.



lunes, 6 de abril de 2020

Vídeo Nº 209: Redes Neuronales 18 - Retropropagación del Error 02

Segundo vídeo sobre la retropropagación del error (backpropagation), un algoritmo que permite entrenar los perceptrones multicapa de forma automática. Se explica, paso por paso, todos los cálculos que hay que realizar, y se muestra el pseudocódigo completo para entrenar redes neuronales de perceptrones multicapa (MLP).



sábado, 4 de abril de 2020

Vídeo Nº 208: Redes Neuronales 17 - Retropropagacion del Error 01

Primer vídeo sobre la retropropagación del error (backpropagation), un algoritmo que permite entrenar los perceptrones multicapa de forma automática. También se explica cómo calcular la salida de una red neuronal de forma sencilla, mediante matrices; así como asignar valores iniciales a los pesos.



miércoles, 1 de abril de 2020

Vídeo Nº 207: Redes Neuronales 16 - Perceptron Multicapa

El perceptrón multicapa (MLP) es un tipo de arquitectura simple que se ha usado ampliamente en el mundo de las redes neuronales. Dispone las neuronas en capas, donde las salidas de cada capa son las entradas de la capa siguiente. También se comentan las funciones de activación más típicas de este tipo de redes neuronales.



sábado, 28 de marzo de 2020

Vídeo Nº 206: Redes Neuronales 15 - Perceptron

El Percentron sentó las bases de las redes neuronales y, básicamente, es una regresión logística. En este vídeo se explica sus características y la relación con la regresión lineal y la regresión logística.



sábado, 12 de octubre de 2019

¡Invítame a un Café!

¡Hola a todos y a todas!

Comentaros que me he dado de alta en Patreon para que todos aquellos que queráis apoyar lo que hago, lo podáis hacer contribuyendo con una pequeña donación todos los meses:


Si queréis hacer una donación puntual, también podéis hacerlo a través de PayPal.Me:


Ambos enlaces están en la parte derecha del blog.

Un saludo y ¡muchas gracias a todos y a todas por vuestro apoyo!