Presentaci PowerPoint PPT Presentation

presentation player overlay
1 / 69
About This Presentation
Transcript and Presenter's Notes

Title: Presentaci


1
REDES NEURONALES ARTIFICIALES
  • 1.- DEFINICIONES Y CONCEPTOS B脕SICOS
  • Neurona
  • Arquitectura de una Red Neuronal

2.- CARACTER脥STICAS DEL PROCESAMIENTO NEURONAL
3.- APRENDIZAJE
4.- APLICACIONES DE LAS REDES NEURONALES
ARTIFICIALES
5.- CLASIFICACI脫N DE REDES NEURONALES ARTIFICIALES
6.- REDES DE HOPFIELD (APLICACIONES)
7.- REDES ART (APLICACIONES)
8.- REDES MLP O BACKPROPAGATION (APLICACIONES)
2
1.- DEFINICIONES Y CONCEPTOS B脕SICOS
Sistema de computaci贸n que consta de un gran
n煤mero de elementos simples, muy interconectados,
que procesan la informaci贸n respondiendo
din谩micamente frente a unos est铆mulos externos
(Robert Hetch-Nielsen)
Sistema de procesamiento de infpormaci贸n que
consta de un gran n煤mero de procesadores simples
y muy interconectados llamados neuronas, que son
an谩logas a las neuronas biol贸gicas del cerebro
Un grupo de neuronas simuladas, que est谩n muy
interconectadas, al igual que las neuronas del
cerebro, y que son capaces de aprender de la
misma forma que lo hacen los seres humanos
  • Elementos individuales de procesamiento o
    neuronas
  • Arquitectura de la red, definida por el
    interconexionado de los elementos de procesamiento

3
NEURONA BIOL脫GICA
1015 conexiones
SOMA
AXON
4
NEURONA ARTIFICIAL
5
NEURONA ARTIFICIAL (FUNCIONES DE ACTIVACI脫N)
Funci贸n de Activaci贸n ESCAL脫N
6
NEURONA ARTIFICIAL (FUNCIONES DE ACTIVACI脫N)
Funci贸n de Activaci贸n LINEAL o IDENTIDAD
7
NEURONA ARTIFICIAL (FUNCIONES DE TRANSFERENCIA)
Funci贸n de Activaci贸n LINEAL MIXTA
8
NEURONA ARTIFICIAL (FUNCIONES DE ACTIVACI脫N)
Funci贸n de Activaci贸n SIGMOIDAL
9
NEURONA ARTIFICIAL
10
ARQUITECTURA DE UNA RED NEURONAL
11
2.- CARACTER脥STICAS DEL PROCESAMIENTO NEURONAL
  • Paralelismo Masivo
  • Memoria Asociativa Distribuida
  • Tolerancia a Fallos
  • Tratamiento simult谩neo de grandes cantidades de
    informaci贸n
  • Reconstrucci贸n de Datos Parciales
  • Aprendizaje

Caracter铆sticas de los problemas que se pueden
resolver con Redes Neuronales Artificiales
  • Las tecnolog铆as tradicionales no sirven
  • Los datos de entrada son incompletos, variables o
    con ruido
  • Se dispone de un elevado n煤mero de ejemplos
    resueltos que servir谩n para entrenar a la red
  • El proceso de razonamiento que lleva a la
    soluci贸n del problema es muy complejo o
    desconocido s贸lo se conoce la relaci贸n
    causa/efecto pero no la heur铆stica de la soluci贸n

12
3.- APRENDIZAJE
En las RN la informaci贸n no se almacena en un
emplazamiento f铆sico 煤nico sino que aparece
distribuida por toda la estructura de la red,
concentr谩ndose en los pesos de las uniones de los
distintos elementos. El aprendizaje es el proceso
iterativo por el cual la red modifica sus pesos
como respuesta a una informaci贸n de
entrada. Proceso de aprendizaje en las redes
neuronales biol贸gicas. Creaci贸n y destrucci贸n de
enlaces entre neuronas. Aprendizaje en Redes
Neuronales Artificiales. Pesos con valor 0 o
distintos de 0. El proceso de aprendizaje se
considera terminado cuando los pesos permanecen
estables
13
3.- APRENDIZAJE
  • TIPOS DE APRENDIZAJE
  • En funci贸n de la existencia o no de un agente
    supervisor del entrenamiento
  • Aprendizaje SUPERVISADO
  • Aprendizaje NO SUPERVISADO
  • En funci贸n del orden temporal de las fases de
    entrenamiento y utilizaci贸n de la red
  • Aprendizaje ON-LINE
  • Aprendizaje OFF-LINE

14
3.- APRENDIZAJE
APRENDIZAJE SUPERVISADO
  • Implica la existencia de un agente externo
    (supervisor) que determina la respuesta que la
    red deber铆a generar a partir de determinada
    entrada. Se comprueba la salida que proporciona
    la red y si no coincide con la deseada se
    proceder谩 a modificar los pesos de las conexiones
  • Aprendizaje POR CORRECCI脫N DE ERROR
  • Aprendizaje POR REFUERZO
  • Aprendizaje ESTOC脕STICO

15
3.- APRENDIZAJE
APRENDIZAJE SUPERVISADO POR CORRECCI脫N DE ERROR
Consiste en ajustar los pesos de las conexiones
de la red en funci贸n de la diferencia entre los
valores deseados y los proporcionados en la
salida de la red. Un ejemplo sencillo es la REGLA
DELTA
Para N neuronas de salida y P ejemplos de
entrenamiento, se puede calcular una medida de
error global
16
3.- APRENDIZAJE
APRENDIZAJE SUPERVISADO POR CORRECCI脫N DE ERROR
Para redes con m谩s de dos capas se puede
generalizar la REGLA DELTA en el algoritmo de
RETROPROPAGACI脫N DEL ERROR o ERROR BACKPROPAGATION
Representa la modificaci贸n que hay que hacer en
la entrada que recibe la neurona k
17
3.- APRENDIZAJE
APRENDIZAJE SUPERVISADO POR CORRECCI脫N DE ERROR
Para redes con m谩s de dos capas se puede
generalizar la REGLA DELTA en el algoritmo de
RETROPROPAGACI脫N DEL ERROR o ERROR BACKPROPAGATION
El error dj se calcula en funci贸n del error
cometido en las neuronas que reciben como entrada
la salida de j
18
3.- APRENDIZAJE
APRENDIZAJE SUPERVISADO POR CORRECCI脫N DE ERROR
En resumen
Si j es neurona de salida
Si j es neurona de la capa oculta
19
3.- APRENDIZAJE
APRENDIZAJE SUPERVISADO POR CORRECCI脫N DE ERROR
ERROR BACKPROPAGATION WITH MOMENTUM
20
3.- APRENDIZAJE
APRENDIZAJE SUPERVISADO POR REFUERZO
  • Durante el entrenamiento no se indica exactamente
    la salida que se desea ante una determinada
    entrada. La funci贸n del supervisor se reduce a
    indicar mediante una SE脩AL DE REFUERZO si la
    salida de la red se ajusta a lo deseado (1), o
    DE PENALIZACI脫N (-1) en caso contrario.
  • LINEAR REWARD-PENALTY ALGORITHM (LR-P algoritmo
    lineal de recompensa y penalizaci贸n)
  • ASSOCIATIVE REWARD-PENALTY ALGORITHM (AR-P
    algoritmo asociativo de recompensa y penalizaci贸n)

21
3.- APRENDIZAJE
APRENDIZAJE ESTOC脕STICO
Se trata b谩sicamente de realizar cambios
aleatorios en los valores de los pesos de las
conexiones de la red y evaluar su efecto a partir
del objetivo deseado y de distribuciones de
probabilidad. Analog铆a a la termodin谩mica. Se
asocia la RN con un s贸lido f铆sico que tiene
cierto estado energ茅tico. Se tiende a un estado
de m铆nima energ铆a que en la red corresponde a una
situaci贸n de los pesos con los que se tenga la
salida deseada. El aprendizaje consiste en
realizar un cambio aleatorio de los pesos y
determinar la energ铆a de la red si es menor se
acepta el cambio, y si fuera mayor, se aceptar铆a
en funci贸n de determinada distribuci贸n de
probabilidad, con el objetivo de salir de m铆nimos
locales en busca de el m铆nimo global (RECOCIDO O
TEMPLE SIMULADO).
22
3.- APRENDIZAJE
APRENDIZAJE NO SUPERVISADO
No requieren de influencia externa para ajustar
los pesos de las conexiones entre sus neuronas.
Las redes presentan la capacidad de
AUTOORGANIZACI脫N. Se buscan las categor铆as,
regularidades, correlaciones que se pueden
establecer entre los datos que se presentan en la
entrada. En algunos casos, la salida representa
el grado de simulitud y en otros se trata de
hacer una clasificaci贸n o clustering a trav茅s
de lo que se denomina MAPEO DE CARTER脥STICAS.
  • Aprendizaje HEBBIANO
  • Aprendizaje COMPETITIVO Y
  • COOPERATIVO

23
3.- APRENDIZAJE
APRENDIZAJE HEBBIANO
Hebb (1949) Cuando un ax贸n de una neurona A
excita repetidamente a una neurona B, alg煤n
proceso o cambio metab贸lico tiene lugar en ambas
neuronas, de forma que la eficiencia de A aumenta
cuando se trata de excitar a B.
El aprendizaje se basa en el cambio de los pesos
de acuerdo con la correlaci贸n de los valores de
activaci贸n (salidas) de dos neuronas conectadas,
la uni贸n se refuerza si las dos neuronas tienen
la misma activaci贸n, y se debilita si tienen
activaci贸n contraria
24
3.- APRENDIZAJE
APRENDIZAJE COMPETITIVO Y COOPERATIVO
Cuando se presenta a la red cierta informaci贸n de
entrada, se produce una COMPETICI脫N entre todas
las neuronas de la capa de salida por activarse
una de ellas ser谩 la VENCEDORA y se activar谩,
quedando anuladas el resto de las neuronas de la
capa de salida.
El objetivo de este aprendizaje es categorizar
(clusterizar o clasificar por categor铆as), las
informaciones que se presentan a la red.
Informaciones similares activar谩n la misma
neurona (o neuronas muy pr贸ximas) y por tanto se
clasificar谩n en la misma categor铆a.
25
4.- APLICACIONES DE LAS REDES NEURONALES
ARTIFICIALES
  • Clasificaci贸n de Patrones
  • Sistemas de Decisi贸n
  • Procesado de Se帽ales (filtrado, codificaci贸n)
  • Lenguaje Natural
  • Visi贸n Artificial (OCR)
  • Control en Tiempo Real
  • Predicci贸n

RESOLUCI脫N DE PROBLEMAS COMPLEJOS DE CLASIFICACI脫N
  • Problemas NP-HARD
  • Problema del Viajante (TSP)
  • M煤ltiple TSP
  • Bipartici贸n de Grafos
  • Problema de la Mochila
  • Problema del Calendario de la NHL

RESOLUCI脫N DE PROBLEMAS COMPLEJOS DE OPTIMIZACI脫N
26
5.- CLASIFICACI脫N DE LAS REDES NEURONALES
ARTIFICIALES
RED DE HOPFIELD
REDES OFF-LINE
RED BAM
REDES FEEDBACK
RED ART-1
REDES ON-LINE
RED ART-2
FUNCI脫N DE ACTIVACI脫N LINEAL
PERCEPTRON
MLP PERCEPTRON MULTICAPA
REDES FEEDFORWARD
APRENDIZAJE SUPERVISADO
FUNCI脫N DE ACTIVACI脫N NO LINEAL
SOM MAPA AUTOORGANIZADO DE KOHONEN
APRENDIZAJE NO SUPERVISADO
27
6.- REDES DE HOPFIELD
Wij Wji
28
6.- REDES DE HOPFIELD
29
6.- REDES DE HOPFIELD (FUNCIONAMIENTO)
Es una red AUTOASOCIATIVA Durante la
fase de entrenamiento, se almacenan en la red
varias informaciones codificadas (vectores de 1 y
0, con tantas componentes como neuronas tenga la
red). Posteriormente si se presenta en la entrada
una de las informaciones almacenadas, la red
evoluciona hasta estabilizarse ofreciendo en la
salida la informaci贸n almacenada que coincide con
la de la entrada. Si la informaci贸n que se
introduce en la entrada no coincide con ninguna
de las almacenadas (por ejemplo por estar
distorsionada o incompleta), despu茅s de
evolucionar, la red proporcionar谩 en la salida la
informaci贸n previamente almacenada, que m谩s se
parece a la de la entrada.
Matem谩ticamente
  • En el instante inicial (t0), se aplica la
    informaci贸n de entrada (e1, e2, , eN), y la
    salida de cada neurona coincide con esa
    informaci贸n

30
6.- REDES DE HOPFIELD (FUNCIONAMIENTO)
  • La red realiza iteraciones hasta alcanzar la
    convergencia (hasta que la salida en t1 coincide
    con la salida en t)

donde f() es la funci贸n de activaci贸n de las
neuronas (funci贸n escal贸n)
31
6.- REDES DE HOPFIELD (APRENDIZAJE)
Aprendizaje OFF-LINE. Se fijan los valores de los
pesos de los enlaces en funci贸n de las
informaciones que se desea almacenar en la
red. Se trata de un aprendizaje NO SUPERVISADO,
de tipo HEBBIANO el peso de la conexi贸n entre
las neuronas i y j se obtiene mediante el
producto de las componentes i-茅sima y j-茅sima
del vector que representa la informaci贸n que se
desea almacenar. Si se deben aprender M
informaciones, el peso Wij ser谩 la suma de los
productos de sus componentes
32
6.- REDES DE HOPFIELD (APRENDIZAJE)
Matricialmente
33
6.- REDES DE HOPFIELD (APRENDIZAJE)
Ejemplo de aprendizaje y funcionamiento de una
red de Hopfield supongamos que se desea
memorizar dos informaciones E1 y E2
34
6.- REDES DE HOPFIELD (APRENDIZAJE)
35
6.- REDES DE HOPFIELD (APRENDIZAJE)
36
6.- REDES DE HOPFIELD (APRENDIZAJE)
37
6.- REDES DE HOPFIELD (APRENDIZAJE)
38
6.- REDES DE HOPFIELD (ANALOG脥A ENERG脡TICA)
Se puede calcular una FUNCI脫N DE ENERG脥A que
representa los posibles estados de la red como
puntos de un espacio N-dimensional
Cuando en una red se han almacenado M
informaciones, los posibles estados estables son
M, y corresponden con los m铆nimos de la funci贸n
de energ铆a. Cuando se presenta en la entrada una
nueva informaci贸n, la red evolucionar谩 hasta
alcanzar un m铆nimo de la funci贸n de
energ铆a. Esta caracter铆stica se utiliza en la
utilizaci贸n de la redes de Hopfield para resolver
problemas de optimizaci贸n.
39
6.- REDES DE HOPFIELD (APLICACIONES)
  1. Reconocimiento de im谩genes (ejemplo anterior)
  2. Resoluci贸n de problemas de optimizaci贸n

Se fija el objetivo del problema mediante una
funci贸n matem谩tica (funci贸n de coste), que se
debe minimizar. Se compara esta funci贸n de coste
con la funci贸n de energ铆a de la red de Hopfield,
determin谩ndose as铆 los valores de los pesos Wij y
de los umbrales de activaci贸n Ui, en t茅rminos de
los par谩metros de la funci贸n objetivo para que
ambas expresiones sean equivalentes. Al poner
la red en funcionamiento, la red evoluciona hasta
alcanzar un m铆nimo de su funci贸n de energ铆a, lo
cual implica minimizar la funci贸n objetivo.
40
6.- REDES DE HOPFIELD (APLICACIONES)
Problema del viajante de comercio (TSP)
41
6.- REDES DE HOPFIELD (APLICACIONES)
Problema del viajante de comercio (TSP)
Funci贸n de coste
42
6.- REDES DE HOPFIELD (APLICACIONES)
Problema del viajante de comercio (TSP)
Se relaciona con la expresi贸n general de la
FUNCI脫N DE ENERG脥A de Hopfield para calcular los
pesos
43
6.- REDES DE HOPFIELD (APLICACIONES)
Problema de BIPARTICI脫N DE GRAFOS
44
6.- REDES DE HOPFIELD (APLICACIONES)
Problema de BIPARTICI脫N DE GRAFOS
Funci贸n de coste
45
6.- REDES DE HOPFIELD (APLICACIONES)
Problema de BIPARTICI脫N DE GRAFOS
46
7.- REDES ART
Memoria Humana es capaz de aprender cosas nuevas
sin olvidar necesariamente lo aprendido en el
pasado. Dilema de la ESTABILIDAD y
PLASTICIDAD C贸mo puede un sistema ser adaptable
(PL脕STICO) en respuesta a una entrada
significativa y permanecer ESTABLE ante una
entrada irrelevante. C贸mo puede un sistema
alternar entre los modos PL脕STICO y ESTABLE. C贸mo
puede un sistema retener la informaci贸n aprendida
antes y seguir aprendiendo informaciones
nuevas. En respuesta a todo esto se desarroll贸
la TEOR脥A DE RESONANCIA ADAPTATIVA (ART) por
parte de Carpenter y Grossberg, y como resultado
tenemos las redes ART
47
7.- REDES ART
48
7.- REDES ART
Las redes ART son un ejemplo de redes neuronales
ON-LINE, con aprendizaje NO SUPERVISADO,
COMPETITIVO. ART-1 trabaja con entradas y
salidas binarias (0 y 1). ART-2 entradas y
salidas reales
E1 ( 0 , 1 , 1 , 0 , 1 ) E2 ( 0 , 0 , 1 , 0 ,
1 ) E3 ( 1 , 1 , 0 , 1 , 0 ) . . . .
. . .
49
7.- REDES ART
El algoritmo se puede resumir en los 8 pasos
siguientes (Lippmann, 1987) PASO 1.
Inicializaci贸n de los pesos y elecci贸n de CS
PASO 2. Presentaci贸n a la red de un vector de
entradas X (N elementos 0/1)
50
7.- REDES ART
PASO 3. C谩lculo de la se帽al de activaci贸n 碌j de
las neuronas de la capa de salida
PASO 4. Selecci贸n de la neurona de mayor
activaci贸n 碌? que representa al patr贸n T? de la
categor铆a elegida (en caso de haber varias con la
misma activaci贸n, se escoger谩 la de menor 铆ndice)
51
7.- REDES ART
PASO 5. Test de Similitud con el patr贸n de la
categor铆a seleccionada
Ir al PASO 7 en caso contrario ir al PASO 6
Si
PASO 6. Inhabilitar temporalmente el patr贸n de
la categor铆a escogida. Ahora se vuelve al PASO 3
para elegir el patr贸n representativo de otra
categor铆a.
52
7.- REDES ART
PASO 7. Actualizaci贸n del patr贸n de la categor铆a
para que represente al nuevo vector que se ha
clasificado como perteneciente a la categor铆a
PASO 8. Repetir hasta terminar todas las
entradas que se desea clasificar ir al PASO 2,
despu茅s de habilitar todos los patrones
inhabilitados en el paso 6.
53
7.- REDES ART (APLICACIONES)
Formaci贸n de celdas trabajo-m谩quina 25
piezas 15 m谩quinas
54
7.- REDES ART (APLICACIONES)
55
7.- REDES ART (APLICACIONES)
56
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
bij 1 2 3
0 1/4 1/4 1/4
1 1/4 1/4 1/4
2 1/4 1/4 1/4
tji 1 2 3
0 1 1 1
1 1 1 1
2 1 1 1
57
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
58
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
59
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
60
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
bij 1 2 3
0 1/2.5 1/4 1/4
1 1/2.5 1/4 1/4
2 0 1/4 1/4
tji 1 2 3
0 1 1 1
1 1 1 1
2 0 1 1
61
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
62
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
63
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
64
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
bij 1 2 3
0 1/2.5 1/2.5 1/4
1 1/2.5 0 1/4
2 0 1/2.5 1/4
tji 1 2 3
0 1 1 1
1 1 0 1
2 0 1 1
65
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
66
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
67
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
68
7.- REDES ART (APLICACIONES)
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
M谩quinas i
bij 1 2 3
0 1/2.5 0 1/4
1 1/2.5 0 1/4
2 0 1/1.5 1/4
tji 1 2 3
0 1 0 1
1 1 0 1
2 0 1 1
69
7.- REDES ART (APLICACIONES)
Piezas j
Piezas j
1 2 3
0 1 1 0
1 1 0 0
2 0 1 1
1 2 2 3
0 1 1 0 0
1 1 0 0 0
2 0 0 1 1
M谩quinas i
M谩quinas i
Write a Comment
User Comments (0)
About PowerShow.com