
INTELIGENCIA ARTIFICIAL

CORPORACIÓN TECNOLÓGICA
5.2 REDES NEURONALES (RN)
Introducción.
Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la Actividad Nerviosa, Boletín de Matemática Biofísica 5). Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
Las Redes Neuronales (RN) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, formados por un conjunto de unidades llamadas neuronas o nodos conectadas unas con otras. Estas conexiones tienen una gran semejanza con las dendritas y los axones en los sistemas nerviosos biológico.
Objetivos
General
-
Conocer sobre el funcionamiento de las redes neuronales, así como su clasificación y aplicaciones de la actualidad.
-
Específico
-
-
Investigar acerca del funcionamiento de las Redes Neuronales.
-
-
Conocer la clasificación de las redes neuronales.
-
-
Conocer las aplicaciones en la actualidad de las redes neuronales.
Metodologías
Se investigará en fuentes confiables para tener información clara, relevante y precisa de los conceptos
Tomar la información que necesitamos para tener lo más importante de lo investigado.
Leer y comprender lo encontrado para tener un panorama claro de lo queremos realizar
Historia de las redes neuronales.
1936 Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la Actividad Nerviosa, Boletín de Matemática Biofísica 5). Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
1949 Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales.
1950 Karl Lashley. En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
1956 Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
1957 Frank Rosenblat. Comenzó el desarrollo del Perceptron. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente.
1959 Frank Rosenblat: Principios de Neurodinámica. En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron).
1960 Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative
LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros
adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
1961 Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas
(memoria asociativa).
1969 Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron (matemáticamente) que el Perceptrones no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.
1974 Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
1977 Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.
1985 John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: Computación neuronal de decisiones en problemas de optimización.
1986 David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation). A partir de 1986, el panorama fue alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos que se realizan y publican cada año, las aplicaciones nuevas que surgen (sobre todo en el área de control) y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulación).
5.2. Redes Neuronales (RN).
Es un sistema compuesto por un gran número de elementos básicos (Artificial Neurons), agrupados en capas (Layers) y que se encuentran altamente interconectados (Synapses), esta estructura posee varias entradas y salidas, las cuales serán entrenadas para reaccionar (valores O), de una manera deseada, a los estímulos de entrada (valores I).
Estos sistemas emulan, de una cierta manera, al cerebro humano. Requieren aprender a comportarse (Learning) y alguien debe encargarse de enseñarles o entrenarles (Training), en base a un conocimiento previo del entorno del problema.
Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglés como: "ANN") son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.
Las Redes Neuronales (RN) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, formados por un conjunto de unidades llamadas neuronas o nodos conectadas unas con otras. Estas conexiones tienen una gran semejanza con las dendritas y los axones en los sistemas nerviosos biológicos
En términos generales, el Primer modelo de red neuronal fue propuesto en 1943 por McCulloch y Pitts en términos de un modelo computacional de “actividad nerviosa”. El modelo de McCulloch-Pitts es un modelo binario, y cada neurona tiene un escalón o umbral prefijado. Este primer modelo sirvió de ejemplo para los modelos posteriores de John Von Neumann, Marvin Minsky, Frank Rosenblat, y muchos otros.
5.2.1. Conceptos básicos.
Existen numerosos conceptos de redes neuronales; desde conceptos cortos y genéricos hasta las que intentan explicar más detalladamente qué son las redes neuronales. Por ejemplo:
-
Una nueva forma de computación, inspirada en modelos biológicos.
-
Un modelo matemático compuesto por un gran número de elementos procesales organizados en niveles.
-
Un sistema de computación compuesto por un gran número de elementos simples, elementos de procesos muy interconectados, los cuales procesan información por medio de su estado dinámico como respuesta a entradas externas.
Redes Neuronales: Son una rama de la Inteligencia Artificial, en las redes neuronales el conocimiento se incorpora mediante el aprendizaje a partir de ejemplos.
Son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.
Redes neuronales artificiales: Son redes interconectadas masivamente en paralelo de elementos simples (usualmente adaptativos) y con organización jerárquica, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biológico.
Una red neuronal: Se compone de unidades llamadas neuronas. Cada neurona recibe una serie de entradas a través de interconexiones y emite una salida.
5.2.2. Clasificación.
Topología
Una primera clasificación de las redes de neuronas artificiales que se suele hacer es en función del patrón de conexiones que presenta. Así se definen tres tipos básicos de redes:
Dos tipos de redes de propagación hacia delante o acíclicas en las que todas las señales van desde la capa de entrada hacia la salida sin existir ciclos, ni conexiones entre neuronas de la misma capa de red neuronal y su clasificación.
Red Neuronal Monocapa.
Se corresponde con la red neuronal más sencilla ya que se tiene una capa de neuronas que proyectan las entradas a una capa de neuronas de salida donde se realizan los diferentes cálculos. Ejemplos: Perceptrón, Adaline.
Red Neuronal Multicapa.
Es una generalización de la anterior, existiendo un conjunto de capas intermedias entre la capa de entrada y la de salida (capas ocultas). Este tipo de red puede estar total o parcialmente conectada. Ejemplos: perceptrón multicapa.
Red Neuronal Recurrente.
Este tipo de red se diferencia de las anteriores en la existencia de lazos de realimentación en la red. Estos lazos pueden ser entre neuronas de diferentes capas, neuronas de la misma capa o, entre una misma neurona. Esta estructura la hace especialmente adecuada para estudiar la dinámica de los sistemas no lineales. Ejemplos: Elman, Hopfield, máquina de Boltzmann.
Aprendizaje
Una segunda clasificación que se suele hacer es en función del tipo de aprendizaje de que es capaz (si necesita o no un conjunto de entrenamiento supervisado).
Aprendizaje supervisado: Necesitan un conjunto de datos de entrada previamente clasificado o cuya respuesta objetivo se conoce.
Aprendizaje no supervisado o auto organizado: No necesitan de tal conjunto previo.
Redes híbridas: Son un enfoque mixto en el que se utiliza una función de mejora para facilitar la convergencia.
Aprendizaje reforzado: Se sitúa a medio camino entre el supervisado y el auto organizado.
Tipo de entrada
Finalmente también se pueden clasificar las RN según sean capaces de procesar información de distinto tipo en:
Redes analógicas: procesan datos de entrada con valores continuos y, habitualmente, acotados.
Redes discretas: procesan datos de entrada de naturaleza discreta; habitualmente valores lógicos booleanos.
5.2.3. Desarrollos actuales y aplicaciones.
Las redes neuronales pueden utilizarse en un gran número y variedad de aplicaciones, tanto comerciales como militares. Se pueden desarrollar redes neuronales en un periodo de tiempo razonable, con la capacidad de realizar tareas concretas mejor que otras tecnologías. Cuando se implementan mediante hardware (redes neuronales en chips VLSI), presentan una alta tolerancia a fallos del sistema y proporcionan un alto grado de paralelismo en el procesamiento de datos. Esto posibilita la inserción de redes neuronales de bajo coste en sistemas existentes y recientemente desarrollados.
Hay muchos tipos diferentes de redes neuronales; cada uno de los cuales tiene una aplicación particular más apropiada. Algunas aplicaciones comerciales son:
Biología:
-
Aprender más acerca del cerebro y otros sistemas.
-
Obtención de modelos de la retina.
Empresa:
-
Evaluación de probabilidad de formaciones geológicas y petrolíferas.
-
Identificación de candidatos para posiciones específicas.
-
Explotación de bases de datos.
-
Optimización de plazas y horarios en líneas de vuelo.
-
Optimización del flujo del tránsito controlando convenientemente la temporización de los semáforos.
-
Reconocimiento de caracteres escritos.
-
Modelado de sistemas para automatización y control.
-
Medio ambiente:
-
Analizar tendencias y patrones.
-
Previsión del tiempo.
Finanzas:
-
Previsión de la evolución de los precios.
-
Valoración del riesgo de los créditos.
-
Identificación de falsificaciones.
-
Interpretación de firmas.
Manufacturación:
-
Robots automatizados y sistemas de control (visión artificial y sensores de presión, temperatura, gas, etc.).
-
Control de producción en líneas de procesos.
-
Inspección de la calidad.
Medicina:
-
Analizadores del habla para ayudar en la audición de sordos profundos.
-
Diagnóstico y tratamiento a partir de síntomas y/o de datos analíticos
-
(electrocardiograma, encefalogramas, análisis sanguíneo, etc.).
-
Monitorización en cirugías.
-
Predicción de reacciones adversas en los medicamentos.
-
Entendimiento de la causa de los ataques cardíacos.
Militares:
-
Clasificación de las señales de radar.
-
Creación de armas inteligentes.
-
Optimización del uso de recursos escasos.
-
Reconocimiento y seguimiento en el tiro al blanco.
Aplicaciones
Problemas de clasificación y reconocimiento de patrones de voz, imágenes, señales, etc. Asimismo se han utilizado para encontrar patrones de fraude económico, hacer predicciones en el mercado financiero, hacer predicciones de tiempo atmosférico, etc.
También se pueden utilizar cuando no existen modelos matemáticos precisos o algoritmos con complejidad razonable, por ejemplo la red de Kohonen ha sido aplicada con un éxito más que razonable al clásico problema del viajante (un problema para el que no se conoce solución algorítmica de complejidad polinómica).
Otro tipo especial de redes neuronales artificiales se ha aplicado en conjunción con los algoritmos genéticos (AG) para crear controladores para robots. La disciplina que trata la evolución de redes neuronales mediante algoritmos genéticos se denomina Robótica Evolutiva.
Conclusión.
La mayoría de estas aplicaciones consisten en realizar un reconocimiento de patrones, como ser: buscar un patrón en una serie de ejemplos, clasificar patrones, completar una señal a partir de valores parciales o reconstruir el patrón correcto partiendo de uno distorsionado. Sin embargo, está creciendo el uso de redes neuronales en distintos tipos de sistemas de control.
Desde el punto de vista de los casos de aplicación, la ventaja de las redes neuronales reside en el procesado paralelo, adaptativo y no lineal. El dominio de aplicación de las redes neuronales también se lo puede clasificar de la siguiente forma: asociación y clasificación, regeneración de patrones, regresión y generalización, y optimización.