¿Qué es la teoría de las redes neuronales?
La llamada teoría de las redes neuronales hacer referencia a que la corteza cerebral esta formada por unas células denominadas neuronas, cada una de estas células está formada por un cuerpo, un axón, y una multitud de dentritas. Las dentritas forman una estructura de filamentos muy fina que rodean el cuerpo de la neurona. El axón es un tubo largo y delgado que se ramifica en su extremo en pequeños bulbos finales que casi tocan las dentritas de las células vecinas. La pequeña separación entre los bulbos finales y las dentritas se le denomina sinapsis. Los impulsos eléctricos viajan por el axón y hace contacto con las dentritas de la neurona vecina mediante las sinápsis. La intensidad de la corriente transmitida depende de la eficiencia de la transmisión sináptica. Una neurona en especial transmitirá un impulso eléctrico por su axón si suficientes señales de las neuronas vecinas transmiten a través de sus dentritas en un tiempo corto, denominado período de suma latente. La señal que se transmite a la neurona podrá ser inhibitoria o excitatoria. La neurona manda el impulso por su axón, si la excitación excede su inhibición por un valor crítico, el umbral de la neurona.
Neuronas Artificiales
Una neurona "artificial", que intenta modelar el comportamiento de la neurona biológica. Aquí el cuerpo de la neurona se representa como un sumador lineal de los estímulos externos, seguida de una función no lineal yj = f(zj). La función f(zj) es llamada la función de activación, y es la función que utiliza la suma de estímulos para determinar la actividad de salida de la neurona.
Este modelo se conoce como perceptor de McCulloch-Pitts, y es la base de la mayor parte de las arquitectura de las RN (conglomerados de perceptrones) que se interconectan entre sí y parte clave en la teoría de las redes neuronales. Las neuronas emplean funciones de activación diferentes según la aplicación, algunas veces son funciones lineales, otras funciones sigmoidales (p.ej. la tanh), y otras funciones de umbral de disparo. La eficiencia sináptica se representa por factores de peso de interconexión wij, desde la neurona i, hasta la neurona j. Los pesos pueden ser positivos (excitación) o negativos (inhibición). Los pesos junto con las funciones f(z) dictan la operación de la red neuronal. Normalmente las funciones no se modifican de tal forma que el estado de la red neuronal depende del valor de los factores de peso (sinápsis) que se aplica a los estímulos de la neurona.
Las RN puede tener factores de peso fijos o adaptables. Las RN con pesos adaptables emplean leyes de aprendizaje para ajustar el valor de la fuerza de un interconexión con otras neuronas. Si las neuronas utilizan pesos fijos, entonces su tarea deberá estar muy bien definida a priori. Los pesos serán determinados a partir de una descripción completa del problema. Por otra parte, los pesos adaptables son esenciales si no se sabe a priori cual deberá de ser el valor correcto de los pesos.
No hay comentarios:
Publicar un comentario