Title: Redes Neurais
1Redes Neurais
2Características
- Degradação progressiva e qualidade.
- Significa que a performance de um sistema
baseado em rede neural diminui lenta e
monotonicamente em presença de informações falsas
ou ausentes. - Raciocínio por Default.
- Capacidade de manipular e representar
informações incompletas e ausentes. - Generalização.
- Uma vez uma rede aprendendo um conceito ela é
capaz de funcionar com conceitos similares que
não foram aprendidos e isto sem esforço
suplementar. - Raciocínio impreciso.
- Capacidade de representar e manipular
incertezas
3Aplicações
- Classificação
- Reconhecimento de padrões
- Predição de Falhas
- Otimização
- Filtragem de ruído
4Neurônio Biológico
5Conceitos importantes
- Axônio responsável pela transmissão de sinais a
partir - do corpo celular. Em geral são compridos e
apresentam - poucas ramificações
- Dendritos conduzem sinais para a célula têm
muitas - ramificações (zonas receptivas)
- Sinapse local de contato entre neurônios, onde
ocorre - a transmissão de impulsos nervosos de uma célula
para - outra
- Plasticidade capacidade de adaptação de um
neurônio - ao ambiente. Fundamental para as redes neurais.
- Mecanismos de plasticidade criação de novas
conexões - sinápticos Modificação das sinapses existentes,
etc.
6Neurônio de McCulloch-Pitts
7Neurônio de McCulloch-Pitts
- O neurônio artificial funciona como sendo um
circuito binário. A entrada do neurônio também é
binária. A atividade do neurônio é tudo ou nada.
O neurônio pode estar no estado ativado ou
desativado.
8Conceitos
- x1,...,xn são os estímulos.
- w1,...,wn são os pesos sinápticos.
- S é a integração sináptica, ou seja, a soma
ponderada dos estímulos que produzem um nível de
atividade do neurônio. - ? é o limiar. Se a atividade neural exceder o
limiar a unidade produz determinada saída. - f é chamada função de transferência ou função
excitatória.
9Função de Transferência
10- Defina o neurônio McCulloch-Pitts, para
representar a função booleana E para a seguinte
função booleana utilizando a seguinte função de
transferência f(x)0, xlt0 e f(x)1, se xgt0.
11? 1
w 1 1
x y AND S S-? f(S-?)
0 0 0 0 -1 0
0 1 0 1 0 0
1 0 0 1 0 0
1 1 1 2 1 1
12Interpretação Geométrica
(1,1)
(0,1)
(0,0)
(1,0)
XY-10
13? 0.5
w 1 1
x y AND S S-? f(S-?)
0 0 0 0 -0.5 0
0 1 0 1 0.5 1
1 0 0 1 0.5 1
1 1 1 2 1.5 1
14Interpretação Geométrica
(1,1)
(0,1)
(0,0.5)
(0,0)
(1,0)
(0.5,0)
XY-10
15- Defina o neurônio McCulloch-Pitts, para
representar a função booleana OU para a seguinte
função booleana utilizando a seguinte função de
transferência f(x)0, xlt0 e f(x)1, se xgt0.
16? 0
W 1 1
x y OU S S-? f(S-?)
0 0 0 0 0 0
0 1 1 1 1 1
1 0 1 1 1 1
1 1 1 2 2 1
17Interpretação Geométrica
(1,1)
(0,1)
(0,0)
(1,0)
XY0
18- Defina o neurônio McCulloch-Pitts, para
representar a função booleana XOR para a seguinte
função booleana utilizando a seguinte função de
transferência f(x)0, xlt0 e f(x)1, se xgt0.
19? ?
W 1 1
x y XOR S
0 0 0 0
0 1 1 1
1 0 1 1
1 1 0 2
Existe ? tal que 1- ? gt 0 e 2- ? lt 0 ?
20Interpretação Geométrica
(1,1)
(0,1)
(1,1)
(0,1)
(0,0)
(0,0)
(1,0)
(1,0)
(1,1)
(0,1)
(1,1)
(0,1)
(0,0)
(0,0)
(1,0)
(1,0)
21Função XOR
- O neurônio McCulloch-Pitts consegue representar
qualquer função booleana linearmente separável. - Minsk e Papert (1969) escrevem artigo afirmando
que o problema da separabilidade linear não
poderia ser resolvido por uma rede neural do tipo
perceptron.
22- Analise as duas funções booleanas abaixo e veja
- se cada uma é linearmente separável.
23- Analise a seguinte função booleana com três
entradas e diga se ela é linearmente separável.
X Y Z FB1 FB2 FB3
0 0 0 1 0 0
0 0 1 1 0 1
0 1 0 1 0 0
0 1 1 1 0 0
1 0 0 0 1 0
1 0 1 0 1 0
1 1 0 0 1 0
1 1 1 0 1 1
24Aprendizagem
- Em 1949, o biólogo Hebb propôs um princípio
- pelo qual o aprendizado em sistemas neurais
- complexos (biológicos) poderia ser reduzido a
- um processo puramente local, em que a
- intensidade das conexões sinápticas é alterada
- apenas em função dos erros detectáveis
- localmente.
25Hipótese de Hebb
- Baseada na hipótese proposta por Hebb (um
neuropsicólogo) de que a probabilidade de um
neurónio disparar esta correlacionada com a
possibilidade de este neurónio levar os outros
neurónios que estão ligados a si a dispararem
também. - Quando isto acontece (um neurónio dispara e leva
aqueles que estão ligados a dispararem também) o
peso entre eles será fortalecido (aumentado).
26- O conhecimento em um RNA(Rede Neural Artificial)
está distribuído por toda a rede, ou seja, nenhum
neurônio retém em si todo o conhecimento, mas a
sua operação em conjunto permite às RNAS resolver
problemas complexos. - Exemplo Formigas.
27Regra Delta
28Algoritmo de Aprendizagem
- Inicialize os pesos e o limiar com 0.
- Para cada padrão de entrada e a saída
- correspondente
- aplique a regra delta para atualizar os pesos
- sinápticos até que o resultado esteja satisfatório
29- Treine um neurônio McCulloch-Pitts para
- aprender a função booleana OR.
x y OR
0 0 0
0 1 1
1 0 1
1 1 1
30w1
X
w2
saída
Y
?
bias
31Inicialize os pesos e o limiar com 0. ? 1
0
X
0
saída
Y
0
bias
32Para a entrada (0,1), a saída desejada deve ser
1. ?w2 1(1-0)1 1 w2 0 1 1.
0
X
0
00 01 0 0
Y
bias
0
33Para a entrada (1,0), a saída desejada deve ser
1. ?w1 1(1-0)1 1 w1 0 1 1.
0
X
1
10 01 0 0
Y
bias
0
34Para todas as entradas, o ajuste do peso
sináptico obtido produz o resultado desejado.
1
X
1
saída
Y
bias
0
35- Treine um neurônio McCulloch-Pitts para
- aprender a função booleana AND.
x y AND
0 0 0
0 1 0
1 0 0
1 1 1
36w1
X
w2
saída
Y
?
bias
37Inicialize os pesos e o limiar com 0. ? 1
0
X
0
saída
Y
0
bias
38Para a entrada (1,1), a saída desejada deve ser
1. ?w1 1(1-0)1 1 w1 0 1 1.
0
X
0
10 10 0 0
Y
bias
0
39Para a entrada (1,0), a saída desejada deve ser
0. ?? 1(-1)(0-1) 1 ? 0 1 1.
1
X
0
11 10 0 1
Y
bias
0
40Para a entrada (1,1), a saída desejada deve ser
1. ?w2 1(1)(1-0) 1 w2 0 1 1.
1
X
0
11 10 1 0
Y
bias
1
41Para todas as entradas, o ajuste do peso
sináptico obtido produz o resultado desejado. O
neurônio está treinado corretamente.
1
X
1
XY-1
Y
bias
1
42Regra Delta
- Pode-se provar que esta regra converge em número
finito de passos quando - Os dados de treinamento são linearmente
separáveis. - ? é suficientemente pequeno.
- Quando os dados de treinamento não são
linearmente separáveis falha em convergi.
43Modelo Perceptron
- O Perceptron, proposto por Rosenblatt, é composto
pelo neurônio de McCulloch-Pitts, com Função de
Limiar, e Aprendizado Supervisionado. Sua
arquitetura consiste na entrada e uma camada de
saída. - A limitação desta Rede Neural se encontra na
reduzida gama de problemas que consegue tratar
classificação de conjuntos linearmente
separáveis.
44- O algoritmo de aprendizagem converge em um número
finito de passos que classifica corretamente um
conjunto de treinamento linearmente separável. - A superfície de decisão(curva de separação) forma
um hiperplano, ou seja, para um dos lados está
uma classe e para o outro lado está a outra
classe.
45Superfície de Decisão
- Podemos ver o perceptron como uma
- superfície de separação em um espaço
- N-dimensional de instâncias.
- Um único perceptron consegue separar
- somente conjuntos de exemplo linearmente
- separáveis.
46(No Transcript)
47(No Transcript)
48- Variáveis e Parâmetros
- X(n) vetor de entrada (m1)-por-1
- W(n) vetor de pesos (m1)-por-1
- b(n) bias
- y(n) resposta real
- d(n) resposta desejada
- e(n) erro na saída da unidade
- h taxa de aprendizagem, uma constante positiva
- entre 0 e 1
- n contador dos passos do algoritmo.
49Funções Linearmente Separáveis
50- 1 - Inicialização Inicializar os valores do
vetor w e da taxa de aprendizado h. - 2 - Repetir
- 2.1- Apresentar o vetor de entrada X(n) e a saída
desejada d(n), de cada par do conjunto de
treinamento T (x,d) - 2.2- Calcular a resposta real do Perceptron, da
seguinte forma y(n) f(W(n)X(n)b(n)),
onde f(.) é a Função de Limiar utlizada como
função de ativação. - 2.3- Calcular o erro da saída da unidade da
seguinte forma e(n) d(n) - y(n)
51- 2.4- Atualizar o vetor de pesos para cada uma das
unidades da rede segundo a regra W(n1) W(n)
he(n)X(n) - 3 - Incremento Incremente o passo de tempo (n),
volte ao passo 2.1. Até que e(n) 0 para todos
os elementos do conjunto de treinamento em todas
as unidades da rede.
52- Rosenblatt provou através do Teorema da
Convergência do Perceptron, que este algoritmo
consegue encontrar um conjunto de pesos ideais
para que a Rede classifique corretamente as
entradas desde que seja aplicado a classes
linearmente separaveis (fig 1).
53Perceptron binário de duas etapas
- A utilização de mais um neurônio, em uma camada
adicional, pode, em princípio, realizar um
sistema para classificar polígonos convexos. A
dificuldade é justamente encontrar um
procedimento de treinamento para este tipo de
rede.
54(No Transcript)
55Problema XOR
(1,1)
(0,1)
(0,0)
(1,0)
Encontrar um neurônio capaz de classificar este
padrão.Utilizando a função de Ativação f(x) 0
, xlt0 e f(x) 1 ,x gt 0.
56Problema XOR
(1,1)
(0,1)
(0,0.8)
1.2
(0,0)
(0.8,0)
(1,0)
57Problema XOR
X-Y-0.80
(1,1)
(0,1)
(0,0.8)
1.2
(0,0)
(0.8,0)
(1,0)
58X
1
X-Y-0.8
-1
Y
0.8
59Problema XOR
-XY-0.80
(1,1)
(0,1)
(0,0.8)
1.2
(0,0)
(0.8,0)
(1,0)
60X
-1
-XY-0.8
1
Y
0.8
61Problema XOR
(0,1.6)
(1,1)
(0,1)
(0,0.8)
1.2
(0,0)
(0.8,0)
(1,0)
(2.4,1.6)
620.8
1
1
-1
-1
1
1
0.8
63- Muitos unidades combinadas e a última camada
implementando um consenso entre as unidades da
primeira camada. - Problemas relacionados com a convergência.
64Perceptron binário de três etapas
65- Cálculo do erro na saída Sdesejada - Sobtida
Erro - Cálculo do erro de um neurônio interno da rede
- Como fazer a atribuição da culpa em relação ao
erro final na saída ? - Década perdida (1970 1980)
66Adaline(Adaptive Linear Element)
- Unidade linear sem limiar, aprendizado
supervisionado utilizando convergindo apenas
assintoticamente para um vetor de pesos com um
erro mínimo, possivelmente um número ilimitado de
passos, independemente do conjunto de treinamento
ser linearmente separável.
67- Considere uma unidade linear simples, onde
Especificando uma medida para o erro de
treinamento de uma hipótese (vetor de pesos)
relativamente aos exemplos de treinamento
68- O algoritmo de descida do gradiente pode
- entendido através da visualização do espaço de
- hipóteses.
- A descida do gradiente determina um vetor de
- pesos que minimiza E, começando com um
- vetor inicial de pesos arbitrário e modificandoo
- repetidamente em pequenos passos.
69- A cada passo, o vetor de pesos é alterado na
- direção que produz a maior queda ao longo da
- superfície de erro.
- Este processo continua até atingir um erro
- mínimo global.
70Descida do Gradiente
71(No Transcript)
72(No Transcript)
73(No Transcript)
74- Resumindo o algoritmo descida do gradiente
- para a aprendizagem de unidade lineares
- 1. Pegar um vetor inicial aleatório de pesos
- 2. Aplicar a unidade linear para todos os
- exemplos de treinamento e calcular ?wi para
- cada peso de acordo com a equação anterior
- 3. Atualizar cada peso wi adicionando ?wi e
- Então repetir este processo.
- O algoritmo convergirá para um vetor de pesos
- com erro mínimo.
75- A regra de treinamento perceptron tem sucesso se
- Exemplos de treinamento são linearmente
separáveis - Taxa de aprendizagem ? for suficientemente pequena
76- Regra de treinamento da unidade linear utiliza a
descida do gradiente - Convergência garantida para a hipótese com erro
quadrado mínimo - Dada uma taxa de aprendizagem ? suficientemente
pequena - Mesmo quando dados de treinamento contém ruído
- Mesmo quando dados de treinamento não forem
separáveis
77- Quando devemos parar o treinamento, ou seja,
parar a atualização dos pesos? - Escolha óbvia continuar o treinamento até que o
erro E seja menor que o valor pré-estabelecido. - Porém, isto implica em sobreajuste(overfitting).
- O sobreajuste diminui a generalização da rede
neural.
78Modelo mais gerais de neurônio
- Temos diversos modelos de neurônios mais gerais
que o modelo de neurônio McCulloch-Pitts, no qual
a função de transferência utilizada obtém o
estado de ativação de maneira menos abrupta e as
saídas não são apenas 0 e 1.
79Função Linear
80Hard Limiter
81Em Rampa
82Sigmoid
83Sigmoid
84Gaussiana
85Tipos de Entrada
- Binários aqueles modelos que aceitam entradas
discretas,ou seja, somente na forma de 0 e 1. - os intervalares são os que aceitam qualquer valor
numérico como entrada (forma contínua).
86Formas de conexão
- alimentação à frente(feedforward), onde os sinais
de entrada são simplesmente transformados em
sinais de saída
87Formas de conexão
- retro-alimentação, no qual os sinais cam sendo
alterados em diversas transições de estado, sendo
a saída também alimentadora da entrada
88Retroalimentação
89Formas de conexão
- competitiva, que realiza a interação lateral dos
sinais recebidos na entrada entre os elementos
dentro de uma zona de vizinhança.
90Formas de conexão
91Formas de Aprendizagem
- Aprendizado Supervisionado
- Neste caso o professor indica explicitamente
- um comportamento bom ou ruim. Por exemplo,
- seja o caso de reconhecimento de caracteres e
- para simplificar seja reconhecer entre um A ou
- X.
92Formas de Aprendizagem
- Aprendizado não Supervisionado é quando
- para fazer modificações nos valores das
- conexões sinápticas não se usa informações
- sobre se a resposta da rede foi correta ou
- não. Usa-se por outro lado um esquema, tal
- que, para exemplos de coisas semelhantes, a
- rede responda de modo semelhante.
93Exercício
- Defina uma rede neural?
94Exercício
- Defina uma rede neural?
- Redes Neurais são sistemas paralelos
- distribuídos compostos por unidades de
- processamento simples interligadas entre si e
- com o ambiente por um número de conexões.
95Exercício
- Defina uma rede neural?
- Um Modelo inspirado na estrutura paralela do
- cérebro e que buscam reter algumas de suas
- propriedades, as unidades representando os
- neurônios, enquanto que a interconexão, as
- redes neurais.
96- Quais são os componentes do neurônio McCulloch e
Pitts?
97- Quais são os componentes do neurônio McCulloch e
Pitts? - Entrada
- Pesos sinápticos
- Integração sináptica
- Limiar (bias)
- Função de Ativação
98- Em relação a atividade de um neurônio, quais
foram a conclusão obtida por McCulloch e Pitts?
99- Em relação a atividade de um neurônio, quais
- foram a conclusão obtida por McCulloch e Pitts?
- A atividade de um neurônio é tudo ou nada, ou
seja, o neurônio funciona como um circuito
binário.
100- O que representa a integração sináptica nas redes
neurais e o limiar?
101- O que representa a integração sináptica nas redes
neurais e o limiar? - A integração sináptica define o nível atividade
do neurônio e o limiar define se o neurônio está
ativado ou desativado.
102- Por que podemos dizer que o perceptron é um
classificador linear?
103- Por que podemos dizer que o perceptron é um
classificador linear? - O perceptron é usado para classificar funções
linearmente separáveis.
104- Quais são as vantagens e desvantagens do método
descida de gradiente?
105 - Quais são as vantagens e desvantagens do método
descida de gradiente? - O método pode tratar dados com ruído e dados não
linearmente separáveis. - O método pode não convergi em número finito de
passos mesmo quando os dados são linearmente
separáveis.
106- A decáda (1970-1980) é considerada a década
perdida para as pesquisas em rede neural. O que
explica este fato?
107- A decáda (1970-1980) é considerada a década
perdida para as pesquisas em rede neural. O que
explica este fato? - Este problema deve-se principalmente aos
problemas encontrados com o treinamento
supervisionado com redes multicamadas.