Descubriendo la Inteligencia Artificial
¡Bienvenidos al futuro, Bienvenidos a la Inteligencia Artificial! Blog del curso en castellano sobre desarrollo de aplicaciones de Inteligencia Artificial. Con una serie de vídeos aprenderás tanto las bases de la I.A. como los detalles de cada uno de los algoritmos de los que se compone, clasificados por áreas y aplicaciones. Todo explicado de forma sencilla y amena por José Luis Iglesias Feria, Ingeniero Informático de la UNED, apasionado de la Inteligencia Artificial.
miércoles, 15 de abril de 2020
Vídeo Nº 214: Redes Neuronales 23 - Optimización 05
Último vídeo de optimización y mejoras de redes neuronales. Se verá cómo
analizar los errores, cómo afinar los hiperparámetros, la normalización
batch y cómo aprovechar y compartir el aprendizaje con clasificación
multiclase, clasificación multitarea y transferencia de aprendizaje. Por
último, se comparará el aprendizaje end-to-end de las redes profundas
con el machine learning más tradicional.
lunes, 13 de abril de 2020
Vídeo Nº 213: Redes Neuronales 22 - Optimización 04
Veremos cómo particularizar la técnica batch (procesado por lotes)
dentro de las redes neuronales, sobre todo si tenemos redes muy grandes y
big data. Luego conoceremos los optimizadores más conocidos y útiles:
Momentum, RMSProp y Adam (este es el más usado hoy día); así como cómo
hacer que la tasa de aprendizaje sea dinámica. Todo esto nos ayudará a
que el aprendizaje se realice en menos tiempo ya que permite alcanzar el
mínimo de la función coste de forma mucho más rápida.
viernes, 10 de abril de 2020
Vídeo Nº 212: Redes Neuronales 21 - Optimización 03
En este segundo vídeo sobre optimización de redes neuronales se explica
primero cómo normalizar los datos de entra agiliza enormemente los
tiempos de entrenamiento (con un ejemplo práctico). Luego, se verá como
podemos depurar nuestra implementación de red neuronal para saber si las
fórmulas usadas para el cálculo de las derivadas ha sido correcto. Por
último, veremos el principal problema que tienes los perceptrones
multicapa (MLP): el desvanecimiento del gradiente; y veremos también una
solución (parcial) que puede ayudar a mejorar las redes neuronales de
tamaño medio.
Vídeo Nº 211: Redes Neuronales 20 - Optimización 02
En este vídeo se explica como aplicar la regularización de Frobenius, una adaptación de la regularización L2 que se usó en la regresión logística. Para ello, se explicará lo que es la norma de un vector y cómo calcularla. También se explica otra técnica de regularización, llamada Dropout. Por último, se introduce las técnicas básicas de aumentos de ejemplos y datos de forma relativamente sencilla.
jueves, 9 de abril de 2020
Vídeo Nº 210: Redes Neuronales 19 - Optimización 01
En este primer vídeo sobre mejoras en redes neuronales veremos los
diferentes hiperparámetros, cómo tratar los conjuntos de datos, cómo
calcular los errores, cómo diagnosticar los problemas que tienen la red
neuronal (bías y varianza) así cómo corregirlos. También se verán las
principales diferencias entre las técnicas usadas en machine learning
tradicional versus las usadas en redes neuronales.
lunes, 6 de abril de 2020
Vídeo Nº 209: Redes Neuronales 18 - Retropropagación del Error 02
Segundo vídeo sobre la retropropagación del error (backpropagation), un algoritmo que permite entrenar los perceptrones multicapa de forma automática. Se explica, paso por paso, todos los cálculos que hay que realizar, y se muestra el pseudocódigo completo para entrenar redes neuronales de perceptrones multicapa (MLP).
sábado, 4 de abril de 2020
Vídeo Nº 208: Redes Neuronales 17 - Retropropagacion del Error 01
Primer vídeo sobre la retropropagación del error (backpropagation), un
algoritmo que permite entrenar los perceptrones multicapa de forma
automática. También se explica cómo calcular la salida de una red
neuronal de forma sencilla, mediante matrices; así como asignar valores
iniciales a los pesos.
miércoles, 1 de abril de 2020
Vídeo Nº 207: Redes Neuronales 16 - Perceptron Multicapa
El perceptrón multicapa (MLP) es un tipo de arquitectura simple que se
ha usado ampliamente en el mundo de las redes neuronales. Dispone las
neuronas en capas, donde las salidas de cada capa son las entradas de la
capa siguiente. También se comentan las funciones de activación más
típicas de este tipo de redes neuronales.
sábado, 28 de marzo de 2020
Vídeo Nº 206: Redes Neuronales 15 - Perceptron
El Percentron sentó las bases de las redes neuronales y, básicamente, es una regresión logística. En este vídeo se explica sus características y la relación con la regresión lineal y la regresión logística.
sábado, 12 de octubre de 2019
¡Invítame a un Café!
¡Hola a todos y a todas!
Comentaros que me he dado de alta en Patreon para que todos aquellos que queráis apoyar lo que hago, lo podáis hacer contribuyendo con una pequeña donación todos los meses:
Si queréis hacer una donación puntual, también podéis hacerlo a través de PayPal.Me:
Ambos enlaces están en la parte derecha del blog.
Un saludo y ¡muchas gracias a todos y a todas por vuestro apoyo!
Comentaros que me he dado de alta en Patreon para que todos aquellos que queráis apoyar lo que hago, lo podáis hacer contribuyendo con una pequeña donación todos los meses:
Si queréis hacer una donación puntual, también podéis hacerlo a través de PayPal.Me:
Ambos enlaces están en la parte derecha del blog.
Un saludo y ¡muchas gracias a todos y a todas por vuestro apoyo!
Suscribirse a:
Entradas (Atom)