Cómo predictivo análisis de redes neuronales de trabajo

Video: Redes Neuronales (Funcionamiento)

Un complejo algoritmo utilizado para el análisis predictivo, la red neuronal, es biológicamente inspirado en la estructura del cerebro humano. Una red neuronal proporciona un modelo muy simple en comparación con el cerebro humano, pero funciona bastante bien para nuestros propósitos.

Ampliamente utilizado para la clasificación de datos, de los nervios pasado proceso de redes y datos actuales para estimar los valores futuros - el descubrimiento de correlaciones complejas ocultos en los datos - de una manera análoga a la empleada por el cerebro humano.

Las redes neuronales se pueden utilizar para hacer predicciones sobre series temporales de datos, tales como datos meteorológicos. Una red neural puede ser diseñado para detectar patrón en datos de entrada y producir una salida libre de ruido.

Video: Redes Neuronales - reconocimiento de patrones en java

La estructura de un algoritmo de red neuronal tiene tres capas:

  • La capa de entrada alimenta valores de los datos pasados ​​a la capa siguiente (oculto). Los círculos negros representan nodos de la red neuronal.

  • La capa oculta encapsula varias funciones complejas que crean predictors- menudo esas funciones están ocultas para el usuario. Un conjunto de nodos (círculos negros) en la capa oculta representa funciones matemáticas que modifican la entrada Data- estas funciones se les llama neuronas.

  • La capa de salida recoge las predicciones hechas en la capa oculta y produce el resultado final: la predicción del modelo.

He aquí un vistazo más de cerca cómo una red neuronal puede producir una salida predicha a partir de los datos de entrada. La capa oculta es el componente clave de una red neuronal debido a las neuronas que contenga- que trabajan juntos para hacer los cálculos grandes y producir la salida.

Cada neurona toma un conjunto de entrada de valores- cada uno está asociado con una peso (Más sobre esto en un momento) y un valor numérico conocido como parcialidad. La salida de cada neurona es una función de la salida de la suma ponderada de cada entrada más el sesgo.

La mayoría de las redes neuronales utilizan funciones matemáticas para activar las neuronas. UN función en matemáticas es una relación entre un conjunto de entradas y un conjunto de salidas, con la regla de que cada entrada corresponde a una salida.

Por ejemplo, considere la función negativa donde un número entero puede ser una entrada y la salida es su equivalente negativo. En esencia, una función en matemáticas funciona como un cuadro negro que toma una entrada y produce una salida.

Las neuronas en una red neuronal se pueden utilizar sigmoideo funciones para que coincida con las entradas a las salidas. Cuando se utiliza de esa manera, una función sigmoide se llama función logística y su fórmula es la siguiente:

F(entrada) = 1 / (1 + esalida)

aquí F es el función de activación que activa la neurona, y mi es una constante matemática ampliamente utilizado que tiene el valor aproximado de 2.718.

Usted podría preguntarse por qué tal función se utiliza en las neuronas. Bueno, la mayoría de las funciones sigmoideas tienen derivados que son positivas y fácil de calcular. Son continua, puede servir como tipos de funciones de suavizado, y también están limitadas funciones.

Esta combinación de características, exclusivas para las funciones sigmoideas, es vital para el funcionamiento de un algoritmo de red neuronal - especialmente cuando un cálculo derivado - es necesaria - tal como el peso asociado con cada entrada a una neurona.

El peso para cada neurona es un valor numérico que se puede derivar usando ya sea entrenamiento supervisado o entrenamiento no supervisado como la agrupación de datos.

  • En el caso de entrenamiento supervisado, los pesos se derivan por la alimentación de las entradas y salidas de muestra para el algoritmo hasta que los pesos son sintonizado (Es decir, hay una coincidencia casi perfecta entre las entradas y salidas).

  • En el caso de la formación sin supervisión, la red neuronal se presenta sólo con insumos- el algoritmo genera sus salidas correspondientes. Cuando los algoritmos se presentan con entradas nuevas-pero-similar y el algoritmo produce nuevas salidas que son similares a las salidas anteriores, a continuación, los pesos de las neuronas han sido sintonizado.

Las redes neuronales tienden a tener una alta precisión incluso si los datos tienen una cantidad significativa de ruido. Esa es una de las principales ventaja- cuando la capa oculta todavía puede descubrir relaciones en los datos a pesar del ruido, que puede ser capaz de utilizar los datos de otro modo inutilizable.

Una desventaja de los algoritmos de la red neuronal es que la exactitud de la predicción puede ser válido sólo dentro del período de tiempo durante el cual se reunieron los datos de entrenamiento.

Artículos Relacionados