La curva de error y aprendizaje automático

El algoritmo de descenso de gradiente ofrece un ejemplo perfecto de cómo funciona el aprendizaje automático. Puede dotarla de una imagen intuitiva, no sólo una formulación matemática. Por otra parte, aunque es sólo uno de muchos métodos posibles, descenso de gradiente es un método ampliamente utilizado que se aplica a una serie de algoritmos de aprendizaje automático, como los modelos lineales, redes neuronales y máquinas de gradiente impulsar.

Video: Cómo Conducir un Automóvil - Vehículo Automático [HD]

descenso de gradiente funciona una solución partiendo de una solución al azar cuando se le da un conjunto de parámetros (una matriz de datos hecha de características y una respuesta). Seguidamente se procede en varias iteraciones utilizando la retroalimentación de la función de coste, cambiando así sus parámetros con los valores que mejoran gradualmente la solución aleatorio inicial y disminuyen el error.

A pesar de que la optimización puede tomar un gran número de iteraciones antes de llegar a un buen mapeo, se basa en los cambios que mejoran la función de costos respuesta más (error inferior) durante cada iteración. He aquí un ejemplo de un proceso de optimización complejo con muchos mínimos locales (los puntos mínimos de la curva marcados con letras), donde el proceso puede quedar atascado (que ya no continúa después de la profundidad mínima marcados con un asterisco) y no puede continuar su descenso.

Video: Incorporar al error como parte del aprendizaje

función de coste
Un trazado de datos de parámetros en contra de la salida de la función de coste.

Puede visualizar el proceso de optimización como un paseo en alta montaña, con los parámetros siendo los diferentes caminos para descender al valle. Una optimización de descenso de gradiente se produce en cada paso. En cada iteración, el algoritmo elige el camino que reduce el error de la mayoría, independientemente de la dirección tomada. La idea es que si los pasos no son demasiado grandes (causando el alogorithm para saltar por encima del objetivo), siguiendo siempre la dirección más baja dará lugar a encontrar el lugar más bajo.

Video: Como salir de bajo MMR: Error No. 3 Aprende los patrones de farmeo

Por desgracia, este resultado no siempre se produce debido a que el algoritmo puede llegar a los valles intermedios, creando la ilusión de que se ha alcanzado el objetivo. Sin embargo, en la mayoría de los casos, el descenso de gradiente lleva el algoritmo de aprendizaje automático para descubrir la hipótesis correcta para mapear con éxito el problema. Un punto de partida diferente puede hacer la diferencia. Punto de partida x1 termina hacia un mínimo local, mientras que los puntos X2 y X3 alcanzan el mínimo global.

punto de partida en el resultado
Visualizar el efecto del punto en el resultado inicial.

Video: Como usar el EMBRAGUE y las velocidades para que hagan de freno motor

En un proceso de optimización, a distinguir entre los diferentes resultados de optimización. Puede tener un mínimo global que es realmente el error mínimo de la función de coste, y puede tener muchos mínimos locales - soluciones que parecen producir el error mínimo, pero en realidad no lo hacen (los valles intermedios, donde el algoritmo se atasca). Como remedio, dada la inicialización aleatoria del proceso de optimización, se ejecuta la optimización muchas veces es una buena práctica. Esto significa tratar diferentes secuencias de caminos descendente y no quedarse atascado en la misma mínimo local.

Artículos Relacionados