}

    Teoría de las redes neuronales

    ¿Qué es la teoría de las redes neuronales?

    La llamada teoría de las redes neuronales hacer referencia a que la corteza cerebral esta formada por unas células denominadas neuronas, cada una de estas células está formada por un cuerpo, un axón, y una multitud de dentritas. Las dentritas forman una estructura de filamentos muy fina que rodean el cuerpo de la neurona. El axón es un tubo largo y delgado que se ramifica en su extremo en pequeños bulbos finales que casi tocan las dentritas de las células vecinas. La pequeña separación entre los bulbos finales y las dentritas se le denomina sinapsis. Los impulsos eléctricos viajan por el axón y hace contacto con las dentritas de la neurona vecina mediante las sinápsis. La intensidad de la corriente transmitida depende de la eficiencia de la transmisión sináptica. Una neurona en especial transmitirá un impulso eléctrico por su axón si suficientes señales de las neuronas vecinas transmiten a través de sus dentritas en un tiempo corto, denominado período de suma latente. La señal que se transmite a la neurona podrá ser inhibitoria o excitatoria. La neurona manda el impulso por su axón, si la excitación excede su inhibición por un valor crítico, el umbral de la neurona.

    Neuronas Artificiales

    Una neurona "artificial", que intenta modelar el comportamiento de la neurona biológica. Aquí el cuerpo de la neurona se representa como un sumador lineal de los estímulos externos, seguida de una función no lineal yj = f(zj). La función f(zj) es llamada la función de activación, y es la función que utiliza la suma de estímulos para determinar la actividad de salida de la neurona.

    Este modelo se conoce como perceptor de McCulloch-Pitts, y es la base de la mayor parte de las arquitectura de las RN (conglomerados de perceptrones) que se interconectan entre sí y parte clave en la teoría de las redes neuronales. Las neuronas emplean funciones de activación diferentes según la aplicación, algunas veces son funciones lineales, otras funciones sigmoidales (p.ej. la tanh), y otras funciones de umbral de disparo. La eficiencia sináptica se representa por factores de peso de interconexión wij, desde la neurona i, hasta la neurona j. Los pesos pueden ser positivos (excitación) o negativos (inhibición). Los pesos junto con las funciones f(z) dictan la operación de la red neuronal. Normalmente las funciones no se modifican de tal forma que el estado de la red neuronal depende del valor de los factores de peso (sinápsis) que se aplica a los estímulos de la neurona.

    Las RN puede tener factores de peso fijos o adaptables. Las RN con pesos adaptables emplean leyes de aprendizaje para ajustar el valor de la fuerza de un interconexión con otras neuronas. Si las neuronas utilizan pesos fijos, entonces su tarea deberá estar muy bien definida a priori. Los pesos serán determinados a partir de una descripción completa del problema. Por otra parte, los pesos adaptables son esenciales si no se sabe a priori cual deberá de ser el valor correcto de los pesos.

    Dos tipos de aprendizaje

    Existen dos tipos de aprendizaje: supervisado y no supervisado. El primero ocurre cuando se le proporciona a la red tanto la entrada como la salida correcta, y la red ajusta sus pesos tratando de minimizar el error de su salida calculada. Este tipo de entrenamiento se aplica, por ejemplo, en el reconocimiento de patrones. El entrenamiento no supervisado se presenta cuando a la red se le proporcionan únicamente los estímulos, y la red ajusta sus interconexiones basándose únicamente es sus estímulos y la salida de la propia red. Las leyes de aprendizaje determinan como la red ajustará sus pesos utilizando una función de error o algún otro criterio. La ley de aprendizaje adecuada se determina en base a la naturaleza del problema que se intenta resolver.

    Dos fases de operación

    Las RN adaptables tienen dos fases en su operación. La primera fase es el entrenamiento de la red. El usuario proporciona a la red un número "adecuado" de estímulos de entrada, y de salida, la red entonces ajusta sus pesos de interconexión o sinapsis hasta que la salida de la red esta "lo suficientemente cerca" de la salida correcta. La segunda fase es la recuperación de lo aprendido. A la red se le presenta un conjunto de estímulos de entrada y esta simplemente calcula su salida. Cuando la red emplea entrenamiento no supervisado, algunas veces será necesario que reajuste su sinapsis durante la fase de recuperación.

    No son algorítmicas

    La gran diferencia del empleo de las redes neuronales en relación con otras aplicaciones de la computación radica en que no son algorítmicas, esto es no se programan haciéndoles seguir una secuencia predefinida de instrucciones. Las RN generan ellas mismas sus propias "reglas", para asociar la respuesta a su entrada; es decir, aprende por ejemplos y de sus propios errores.

    Asociar y generalizar sin reglas como en el cerebro humano

    Las redes neuronales formadas por los perceptores se interconectan en forma muy similar a como las neuronas humanas se disponen en la corteza cerebral humana, y lo más importante, son capaces de asociar y generalizar sin reglas. Han sido utilizadas con gran éxito para reconocer retornos de sonar bajo el agua, escritura a mano, voz, topografía de terrenos, controlar brazos de robots, evaluar datos personales, modelar fenómenos cognocitivos, y, predecir tendencias financieras. Requieren de algún tipo de patrón La clase de problemas que mejor se resuelven con las redes neuronales son los mismos que el ser humano resuelve mejor: Asociación, evaluación, y reconocimiento de patrones. Las redes neuronales son perfectas para problemas que son muy difíciles de calcular pero que no requieren de respuestas perfectas-sólo respuestas rápidas y buenas. Tal y como acontece con el escenario bursátil en el que se quiere saber ¿compro?, ¿vendo?, ¿mantengo? Por otra parte, las redes neuronales son ineficaces para cálculos precisos, procesamiento serie, y no son capaces de reconocer nada que no tenga inherentemente algún tipo de patrón.

    La red neuronal de Propagación hacia atrás:

    El perceptor solo es el ejemplo más elemental de una red neuronal, de hecho, no puede siquiera ser considerado una “red”, puesto que no intervienen otros elementos. Si se combinan varios perceptores en una “capa”, y los estímulos de entrada después se suman tendremos ya una red neuronal. Una red neuronal muy eficaz para resolver fundamentalmente problemas de reconocimiento de patrones es la red neuronal de propagación hacia atrás, en inglés back propagation network. En esta red, se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa no se interconectan entre sí. Sin embargo, cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa, esto es, cada neurona transmitirá su señal de salida a cada neurona de la capa siguiente. La figura muestra un ejemplo esquemático de la arquitectura de este tipo de redes neuronales.

    Redes Neuronales en los Mercados Financieros

    La teoría de las redes neuronales aplicada a los mercados financieros tiene en cuenta el frustrante proceso por utilizar las redes neuronales para obtener resultados significativos con el mercado hacen dudar de la eficiencia de las mismas, el problema radica en que:

     

    • Utilizan normalmente redes comerciales existentes, mucho el modelo de propagación hacia atrás que fue explicado en los párrafos precedentes.
    • Es un problema muy complejo, pero sobre todo muy diferente a los casos que normalmente son manejados con redes neuronales.
    • En efecto, el problema es diferente por que en realidad no se conoce a priori la señal deseada de salida. Por lo tanto, a lo más que se puede llegar es a formular un modelo del mercado que en cierta forma genere una especie de promedio móvil, aquí tratan de extrapolar al futuro para predecir el comportamiento de la acción.
    X
    Volver arriba