Reconhecimento de Padr - PowerPoint PPT Presentation

About This Presentation
Title:

Reconhecimento de Padr

Description:

Universidade Federal de Ouro Preto (UFOP) Programa de P s-Gradua o em Ci ncia da Computa o (PPGCC) Reconhecimento de Padr es Tipos de Aprendizagem – PowerPoint PPT presentation

Number of Views:42
Avg rating:3.0/5.0
Slides: 57
Provided by: Luiz170
Category:

less

Transcript and Presenter's Notes

Title: Reconhecimento de Padr


1
Reconhecimento de PadrõesTipos de Aprendizagem
Universidade Federal de Ouro Preto
(UFOP) Programa de Pós-Graduação em Ciência da
Computação (PPGCC)
  • David Menotti, Ph.D.
  • http//www.decom.ufop.br/menotti

2
Objetivos
  • Introduzir diferentes tipos de aprendizagem
  • Supervisionada
  • Métodos paramétricos e não paramétricos.
  • Não Supervisionada
  • Incremental
  • Com Reforço

3
Aprendizagem Supervisionada
  • Alguém (um professor) fornece a identificação
    (rótulos) de cada objeto da base de dados.
  • Métodos Paramétricos Assumem que a distribuição
    dos dados é conhecida(distribuição normal por
    exemplo)
  • Métodos Não-Paramétricos Não consideram essa
    hipótese.

4
Aprendizagem Supervisionada
  • Em muitos casos não se tem conhecimento da
    distribuição dos dados.
  • Consequentemente, utilizar um método paramétrico
    pode não ser adequado.

Distribuição Normal
5
Aprendizagem Supervisionada
  • Um algoritmo não-paramétrico para aprendizagem
    supervisionada é o k-NN (k Nearest Neighbor).
  • Consiste em atribuir a um exemplo de teste x a
    classe do seu vizinho mais próximo.

6
k-NN
  • Significado de k
  • Classificar x atribuindo a ele o rótulo
    representado mais frequentemente dentre as k
    amostras mais próximas.
  • Contagem de votos.
  • Uma medida de proximidade bastante utilizada é a
    distância Euclidiana

7
Distância Euclidiana
x (2,5)
1.41
y (3,4)
8
Distância Euclidiana
9
k-NN Um Exemplo
A qual classe pertence este ponto? Azul ou
vermelho?
Calcule para os seguintes valores de k
não se pode afirmar
k1
vermelho 5,2 - 5,3
k3
vermelho 5,2 - 5,3 - 6,2
k5
4
azul 3,2 - 2,3 - 2,2 - 2,1
k7
3
2
1
A classificação pode mudar de acordo com a
escolha de k.
1 2 3 4 5 6 7 8
10
Matriz de Confusão
  • Matriz que permite visualizar as principais
    confusões do sistema.
  • Considere um sistema com 3 classes, 100 exemplos
    por classe.

Erros de classificação
100 de classificação
c1 c2 c3
c1 90 10
c2 100
c3 5 95
c1 c2 c3
c1 100
c2 100
c3 100
10 exemplos de C1 foram classificados como C2
11
Exercício
  • Implementar em C um kNN.
  • Mostrar a taxa de reconhecimento do sistema para
    k 1,3,5,7
  • Mostrar a matriz de confusão.
  • Analisar o impacto da base de aprendizagem na
    taxa de reconhecimento.

12
Aprendizagem Não-Supervisionada
  • O que pode ser feito quando se tem um conjunto de
    exemplos mas não se conhece as categorias
    envolvidas?

13
Como classificar esses pontos?
  • Por que estudar esse tipo de problema?

14
Aprendizagem Não-Supervisionada
  • Primeiramente, coletar e rotular bases de dados
    pode ser extremamente caro.
  • Ex Gravar voz é barato, mas rotular todo o
    material gravado é caro.
  • Segundo, muitas vezes não se tem conhecimento das
    classes envolvidas.
  • Trabalho exploratório nos dados(ex. Data Mining.)

15
Aprendizagem Não-Supervisionada
  • Pré-classificação
  • Suponha que as categorias envolvidas são
    conhecidas, mas a base não está rotulada.
  • Pode-se utilizar a aprendizagem
    não-supervisionada para fazer uma
    pré-classificação, e então treinar um
    classificador de maneira supervisionada.

16
Clustering
  • É a organização dos objetos similares (em algum
    aspecto) em grupos.

Quatro grupos (clusters)
17
Cluster
  • Uma coleção de objetos que são similares entre
    si, e diferentes dos objetos pertencentes a
    outros clusters.
  • Isso requer uma medida de similaridade.
  • No exemplo anterior, a similaridade utilizada foi
    a distância.
  • Distance-based Clustering

18
k-Means Clustering
  • É a técnica mais simples de aprendizagem não
    supervisionada.
  • Consiste em fixar k centróides (de maneira
    aleatória), um para cada grupo (clusters).
  • Associar cada indivíduo ao seu centróide mais
    próximo.
  • Recalcular os centróides com base nos indivíduos
    classificados.

19
Algoritmo k-Means
  1. Determinar os centróides
  2. Atribuir a cada objeto do grupo o centróide mais
    próximo.
  3. Após atribuir um centróide a cada objeto,
    recalcular os centróides.
  4. Repetir os passos 2 e 3 até que os centróides não
    sejam modificados.

20
k-Means Um Exemplo
Objetos em um plano 2D
21
k-Means Um Exemplo
Passo 1Centróides inseridos aleatoriamente
22
k-Means Um Exemplo
Passo 2 Atribuir a cada objeto o centróide mais
próximo
23
k-Means Um Exemplo
Passo 3 Recalcular os centróides
24
k-Means Um Exemplo
Impacto da inicialização aleatória.
25
k-Means Um Exemplo
Fronteira Diferente
Impacto da inicialização aleatória
26
k-Means Inicialização
  • Importância da inicialização.
  • Quando se têm noção dos centróides, pode-se
    melhorar a convergência do algoritmo.
  • Execução do algoritmo várias vezes, permite
    reduzir impacto da inicialização aleatória.

27
k-Means Um Exemplo
4 Centróides
28
Calculando Distâncias
  • Distância Euclidiana
  • Manhattan (City Block)

29
Calculando Distâncias
  • Minkowski
  • Parâmetro r
  • r 2, distância Euclidiana
  • r 1, City Block

30
Calculando Distâncias
  • Mahalanobis
  • Leva em consideração as variações estatísticas
    dos pontos. Por exemplo ser x e y são dois pontos
    da mesma distribuição, com matriz de covariância
    C, a distância é dada pela equação
  • Se a matriz C for uma matriz identidade, essa
    distância é igual a distância Euclidiana.

31
A Importância das Medidas de Distâncias
  • Suponha que dois exemplos pertencem ao mesmo
    cluster se a distância Euclidiana entre eles for
    menor que d.
  • É obvio que a escolha de d é importante.
  • Se d for muito grande, provavelmente teremos um
    único cluster, se for muito pequeno, vários
    clusters.

32
A Importância das Medidas de Distâncias
  • Nesse caso, estamos definido d e não k.

33
Critérios de Otimização
  • Até agora discutimos somente como medir a
    similaridade.
  • Um outros aspecto importante em clustering é o
    critério a ser otimizado.
  • Considere um conjunto
    composto de n exemplos, e que deve ser dividido
    em c sub-conjuntos disjuntos .
  • Cada sub-conjunto representa um cluster.

34
Critérios de Otimização
  • O problema consiste em encontrar os clusters que
    minimizam/maximizam um dado critério.
  • Alguns critérios de otimização
  • Soma dos Erros Quadrados.
  • Critérios de Dispersão

35
Soma dos Erros Quadrados
  • É o mais simples e usado critério de otimização
    em clustering.
  • Seja ni o número de exemplos no cluster Di e seja
    mi a média desse exemplos
  • A soma dos erros quadrados é definida

36
Soma dos Erros Quadrados
Je grande
Je pequeno
Je pequeno
Adequado nesses casos - Separação natural
Não é muito adequado para dados mais
dispersos. Outliers podem afetar bastante os
vetores médios m
37
Critérios de Dispersão
  • Vetor médio do cluster i
  • Vetor médio total
  • Dispersão do cluster i
  • Within-cluster
  • Between-cluster

38
Critérios de Dispersão
  • Relação Within-Between

Caso ideal
Alto between (Sb) Clusters distantes um do outro.
Baixo within (Sw) (boa compactação)
39
Critérios de Dispersão
Caso não ideal
Baixo between (Sb) Baixa distância entre os
clusters.
Clusters dispersos Alto within
40
Critérios de Dispersão
  • Podemos entender melhor os critérios de dispersão
    analisando o seguinte exemplo

41
Diferentes clusters para c2 usando diferentes
critérios de otimização
Erro Quadrado
Sw
Relação Sw/Sb
42
Algumas Aplicações de Clustering
  • Marketing Encontrar grupos de consumidores com
    comportamento similares
  • Biologia Classificar grupos de plantas e
    animais.
  • Bibliotecas Organização de livros.
  • Administração Organização de cidades,
    classificando casas de acordo com suas
    características.
  • WWW Classificação de conteúdos.

43
Problemas
  • Vetores de característica muito grandes tempo de
    processamento elevado.
  • Definição da melhor medida de distância Depende
    do problema. As vezes é difícil, especialmente
    quando se trabalha com grandes dimensões.
  • O resultado do clustering pode ser interpretado
    de diferentes maneiras.

44
k-Means - Simulação
  • Um applet java para a simulação do k-Means pode
    ser encontrado na seguinte URL
  • http//www.elet.polimi.it/upload/matteucc/Cluster
    ing/tutorial_html/AppletKM.html

45
Aprendizagem Incremental
  • Também conhecida com aprendizagem on-line.
  • Interessante quando a aquisição de dados é
    difícil e cara.
  • Pequenos lotes de dados com o decorrer do tempo.
  • Podem não estar disponível em um futuro próximo.

46
Aprendizagem Incremental
  • Isso torna necessário ter um classificador que
    aprenda incrementalmente.
  • Processo incremental genérico

47
Aprendizagem Incremental
  • Dilema da Estabilidade-Plasticidade
  • Aprender novas informações sem esquecer aquelas
    aprendidas anteriormente
  • Tipos clássicos de redes neuronais, tais como MLP
    não possuem essa propriedade.
  • Catastrophic forgetting (quando novos dados são
    apresentados, aqueles aprendidos anteriormente
    são esquecidos).

48
Aprendizagem Incremental
  • Um algoritmo de aprendizagem incremental deve
    possuir as seguintes propriedades
  • Aprender a partir de novos dados.
  • Não necessitar dos dados antigos.
  • Preservar conhecimento adquirido.
  • Acomodar novas classes, introduzidas com os novos
    dados.

49
Aprendizagem Incremental
  • Quais classificador tem essas características?
  • SOM (Self Organization Map) - Kohonen

50
SOM (Self Organization Map)
  • Evolução do Tamanho da Vizinhança

51
SOM (Self Organization Map)
  • Exemplo Visualização de dados

52
Aprendizagem por Reforço ART (Adaptative
Resonance Theory)
Aprendizagem não supervisionada
53
ART (Adaptative Resonance Theory)
  • Outros tipos de ART têm sido propostos nos
    últimos anos
  • FAM, ARTMAP-IC, etc...

54
Aprendizagem com Reforço
  • Aprendizagem com base na interação com o
    ambiente.
  • Não se diz qual ação o classificador deve tomar.
  • O classificador tenta diferentes ações e escolhe
    aquela que oferece um melhor retorno.
  • Tentativa-e-erro.
  • Uso
  • Robótica.
  • Recuperação de Informação Baseada no Conteúdo

55
(No Transcript)
56
http//www.ai-junkie.com/ann/som/som1.html
Write a Comment
User Comments (0)
About PowerShow.com