Diapositive 1 - PowerPoint PPT Presentation

About This Presentation
Title:

Diapositive 1

Description:

id e retenir : tout cela ne marche pas tr s bien car les approches sont encore ... B. approche structurelle : description d'objets complexes sous forme de ... – PowerPoint PPT presentation

Number of Views:117
Avg rating:3.0/5.0
Slides: 105
Provided by: ler65
Category:

less

Transcript and Presenter's Notes

Title: Diapositive 1


1
RECONNAISSANCE DE FORMES
  • approche statistique pour les objets  simples 
    mesure sur des objets
  • par exemple en chaîne de production  bons  et
     mauvais 

B. approche structurelle description dobjets
complexes sous forme de graphes liant des objets
plus simples pour représenter ces objets complexes
ECRITURE MANUSCRITE SIGNATURE VISAGES,
BIOMETRIE OBJETS ET ENVIRONNEMENT EN ROBOTIQUE
idée à retenir tout cela ne marche pas très
bien les approches sont encore élémentaires on
ne sait pas encore mimer le fonctionnement
cérébral
2
A. approche statistique
approche standard en reconnaissance de formes
dobjets simples (classification)
un objet analysé à reconnaître est représenté
sous la forme dun vecteur de paramètres
nécessité dun apprentissage
dans le même espace, on dispose de formes types,
apprises au préalable correspondant aux objets à
reconnaître
reconnaître lobjet cest décider que le vecteur
caractérisant lobjet analysé à reconnaître est
suffisamment proche dun des vecteur mémorisés
lors de lapprentissage
approche probabiliste théorie de la décision
(critère de bayes et de neyman pearson)
problèmes bruit, préanalyse incorrecte
(contours, régions)
fluctuations importantes dun objet à lautre
http//www.ee.columbia.edu/sfchang/course/spr/
3
Approche statistique
Reconnaissance de formes
Un objet est décrit comme un ensemble de
paramètres (un vecteur de dimension réduite)
longueur
largeur
4
Il y a des fluctuations dun objet à lautre
Chaque groupe (classe) est associée à un nuage de
points
Comment décide t on de lappartenance à une
classe ?
longueur
longueur
L
L
R
R
largeur
largeur
Formalisation probabiliste
5
séparation de lespace des paramètres en régions
mesure de paramètres objet représenté par un
vecteur
6
représenter les classes sous forme de densités de
probabilités
7
maximiser la probabilité dappartenance à une
classe
8
Probabilité dappartenance à un des deux groupes
9
Seuil s en dessous duquel on décide que x
appartient à la classe L
s
Evaluation de la probabilité derreur
Rapport de vraisemblance
Extension test dhypothèse en statistique
(critère de Neyman Pearson)
10
Notions de Théorie de la Décision
décider si un élément caractérisé par un vecteur
de paramètres appartient à une classe ou à une
autre
séparatrice
11
probabilité derreur
évaluer le coût des erreurs de décision
en déduire le critère de décision
deux approches classiques
élémentaire Bayes
plus élaboré Neyman Pearson
12
Approche bayesienne
y réel, peut être produit uniquement par une
cause u qui ne prend que les valeurs 0 ou 1 
probabilités pour que u 0 ou 1, q0 et q1, 
connues
Si la cause est u 0 , la loi de probabilité de
y est p(yu 0) 
si la cause est u 1 , la loi de probabilité de
y est p(yu 1) 
13
Le problème de la décision  on a mesuré y 
choisir parmi les deux propositions (d 0 et d
1) y a été causé par u 0 ou y a été
causé par u 1 
il faut se donner une fonction de pénalité 
les quatre coûts associés aux situations
possibles
c(00) quand on choisit d 0 et que la vraie
valeur est u 0 c(01) quand on choisit d 0
et que la vraie valeur est u 1 c(10) quand on
choisit d 1 et que la vraie valeur est u
0 c(11) quand on choisit d 1 et que la vraie
valeur est u 1
14
Pour une valeur de y mesurée, on choisira d 0
si le coût associé à ce choix est moins élevé
que le coût associé au choix d 1
Calcul de la valeur moyenne du coût associé au
choix u 0 en tenant compte du fait que cette
valeur de y a pu avoir une des deux causes
15
les probabilités associées
les quatre possibilités de choix
16
Les coûts moyens associés aux décisions sont
obtenus en considérant pour chaque décision les
probabilités des valeurs possibles de u 
On choisit d 0 si, en moyenne, cela coûte
moins que de choisir d 1,
c(00) p(yu0).q0 c(01)p(yu1).q1 lt c(10)
p(yu0).q0 c(11)p(yu1).q1,
17
c(00) p(yu0).q0 c(01)p(yu1).q1lt c(10)
p(yu0).q0 c(11)p(yu1).q1,
(c(01) - c(11))p(yu1).q1 lt (c(10) - c(00)
)p(yu0).q0 .
hypothèse coûts des mauvaises décisions plus
élevés que coûts des décisions correctes
(c(00)lt c(10) et c(11)lt c(01)),
on choisira d 0 lorsque
18
Un exemple 
deux lois de probabilités conditionnelles
gaussiennes
19
choix des valeurs des pénalités
Pour minimiser le critère, on choisira
lhypothèse u 1 si y est dans lintervalle
(ymin0.87 , ymax1.21)  si y est en dehors de
cet intervalle, on choisira u 0.
20
probabilité de détection correcte
probabilité derreur (fausse alarme)
21
Règle de Bayes 
définition des probabilités conditionnelles
On écrit de deux manières différentes
p(u 0 y) peut être écrit en fonction de p(yu
0) 
la probabilité p(y) sécrit en fonction des
probabilités conditionnelles

et on en déduit
.
22
Critère de Neyman Pearson
probabilités a priori des causes q0 p(u0) et
q1 p(u1) inconnues.
décider
si une mesure x correspond à lémission dune
donnée u 0, et dans ce cas la densité de
probabilité de x est p0(x) 
ou si elle correspond à lémission u 1, et
dans ce cas la densité de probabilité de x est
p1(x) 
maximiser la probabilité de détection correcte
(ici u1) sous la contrainte que la probabilité
de fausse alarme ne dépasse pas un seuil fixé a
priori
23
les densités de probabilités des événements
rouge il y a erreur vert la détection est
correcte
quand faut il décider quil y a effectivement
détection? (elle ne peut pas toujours être
correcte)
calcul sur un domaine xminltxmax des
probabilités de fausse alarme et de détection
correcte
24
calcul sur un domaine xminltxmax des
probabilités de fausse alarme et de détection
correcte
xmin
xmin
xmaxltxmin
xmaxltxmin
probabilité de fausse alarme
probabilité de décision correcte
xmax
xmax
25
domaine où la probabilité de fausse alarme est en
dessous dun seuil fixé à 0.1
sur ce domaine probabilité de détection correcte
xmin
xmin
xmaxltxmin
xmaxltxmin
xmax
xmax
probabilité de fausse alarme
probabilité de décision correcte
sur la frontière (pfa 0.1niveau rouge sur la
figure de gauche) on trouve le maximum de la
probabilité de décision correcte
26
Critère de Neyman Pearson
probabilités a priori des causes q0 p(u0) et
q1 p(u1) inconnues.
décider
si une mesure x correspond à lémission dune
donnée u 0, et dans ce cas la densité de
probabilité de x est p0(x) 
ou si elle correspond à lémission u 1, et
dans ce cas la densité de probabilité de x est
p1(x) 
on décidera que d 1 si
dépasse un seuil s donné de la manière suivante 
27
maximiser la probabilité pdc de détection
correcte (d 1 quand u 1)  ( la probabilité
pem dun événement manqué (d 0 alors que u
1)  vaut 1 - pdc)
pour chaque mesure x,  considérer la probabilité
pfa dune fausse alarme (d 1 alors que u 0)
probabilité de fausse alarme pfa probabilité
que u 0
alors que
dépasse le seuil s
pfaest lintégrale de la densité de probabilité
p0(x)  calculée pour lensemble des valeurs
(domaine D) de x pour lequel ce seuil est
dépassé 
28
les probabilités a priori des causes ne sont pas
prises en compte 
Exemple de densités de probabilité et de leur
rapport utilisé pour illustrer lapproche de
Neyman Pearson
si le seuil s est choisi égal à 2, on décide d
1 lorsque x est dans linterv. (0.7, 1.4)
probabilité de détection correcte
probabilité de fausse alarme
0.158
29
Neyman Pearson on se donne un seuil a que
cette probabilité de fausse alarme pfa ne doit
pas dépasser et on en déduit le seuil s utilisé
dans la décision
cas où r(x) (rapport des densités de
probabilités) est une fonction croissante puis
décroissante
le domaine D se réduit à un segment borne
inférieure xmin borne supérieure xmax
dans lintervalle xmin, xmax  r(x) gt s
une fois a fixé maximiser la probabilité de
décision correcte
30
comment ajuster s et par conséquent les bornes
xmin et xmax pour maximiser la probabilité de
décision correcte, tout en assurant que la
probabilité de fausse alarme
ne dépasse pas le seuil a.
illustration sur un exemple (lois gaussiennes)
si s est fixé calculer les valeurs xmin et xmax
entre lesquelles on décidera d1
Le dépassement du seuil par le rapport des deux
lois
31
soit, en logarithmes 
en fonction des puissances de x
Les deux valeurs du dépassement du seuil sont
racines dune équation du deuxième degré
32
pour tous les seuils s
calculer xmin et xmax
- en déduire la proba de fausse alarme - trouver
la valeur de s pour laquelle cette pfa atteint
la borne quon sest fixé
(calcul complémentaire pdc)
33
Valeur des limites xmin et xmax du domaine de
décision d 1, en fonction du seuil s
probabilité de fausse alarme et probabilité de
détection correcte en fonction du seuil s. Si la
probabilité de fausse alarme est de 0.1, on
choisira un seuil de décision à 4.5, ce qui
correspondra aux bornes xmin 0.824 et xmax
1.259 et une probabilité de décision correcte de
0.709
34
longueur
L
Dans le cas multidimensionnel Séparatrices entre
les Nuages de points (souvent, mais pas
nécessairement Des droites ou des plans)
R
largeur
gaussiennes dans un espace de dimension
élevée distance de mahalanobis
35
(No Transcript)
36
essayer de quantifier les décisions correctes
(hypothèses 1 et 2 les erreurs (1 ou lieu de 2 ou
2 au lieu de 1) à partir des probabilités
derreur et les conséquences de ces fausses
décisions (par exemple risque de faux diagnostic
médical)
règle de probas à ne pas oublier la loi des
grands nombres ne sapplique pas aux petits !
37
analyse en composantes principales
réduire le nombre de composantes dun vecteur en
essayant de garder linformation la plus
pertinente pour ne pas détériorer la
discrimination entre classes
38
(vecteurs propres de la matrice de covariance)
39
apprentissage
Trouver les paramètres des lois de probabilités
des classes ou les séparatrices de ces classes
A. Si un  superviseur  connaît les classes
déchantillons test
On déduit de ces échantillons les moyennes et les
variances caractérisant les différentes classes
voir les enseignements sur les estimations de
paramètres
B. génération automatique de la description des
classe envisageable si les classes sont assez
bien séparées (voir la présentation sur les
champs de Markov)
à appliquer avec précaution éviter de traiter
des vecteurs de grande dimension
40
première classification par les k-means
chaque échantillon (x,y) a une valeur f (x,y)
initialisation
affecter un numéro de classe i à chaque
échantillon au hasard
boucle
calculer la moyenne sur les valeurs des
échantillons (centre ci) de chacune des classes
pour chaque échantillon, affecter maintenant le
numéro de la classe dont le centre ci est le
plus proche de cet échantillon
test darrêt
réitérer ce processus jusquà stabilisation
la distance de chaque échantillon à chacun des
centres de classe ci est calculée
d (x,y, ci)
41
http//en.wikipedia.org/wiki/K-means_clustering
convergence non garantie !
42
méthodologie générale de lapprentissage
expectation maximization
http//en.wikipedia.org/wiki/Expectation-maximizat
ion_algorithm
http//www.ee.columbia.edu/sfchang/course/spr/
43
nombre de gaussienne K fixé a priori on recherche
un maximum local
calcul itératif
Catherine Aaron Université Paris I
http//samos.univ-paris1.fr/archives/ftp/preprints
/samos212.pdf
44
Expectation Maximization
Une variable aléatoire peut suivre lune ou
lautre de deux lois de probabilités
Comment retrouver à laquelle des deux lois
appartient un échantillon Tout en ajustant les
paramètres des lois de probabilité pour
quelles  collent  le mieux possible aux données
45
Expectation Maximization
Une variable aléatoire
suit une des deux lois de probabilité
avec la probabilité
avec la probabilité
(Les deux lois ont des moyennes différentes et la
même variance )
Une fonction indicatrice
si
suit la loi
si
suit la loi
Vraisemblance dune séquence de mesures
Handbook of Computational Statistics
J.E. Gentle, W. Härdle, Y. Mori, ISBN-10 3540404643
46
Expectation Maximization
Maximisation de la vraisemblance (ou de la
log-vraisemblance) en effectuant alternativement
les deux étapes
1. Expectation
Réactualisation de la probabilité que
suive lune des lois
par sa moyenne)
(On remplace artificiellement
2. Maximization
47
1. Expectation
2. Maximization
Maximum de la log-vraisemblance (par annulation
des dérivées partielles par rapport aux
paramètres à estimer )
Réactualisation des valeurs des paramètres
On réitère les deux étapes 1 et 2 jusquà
convergence
48
(No Transcript)
49
Évolution des paramètres des densités de
probabilités
Convergence en cours
Données de la simulation
Convergence
Évolution de la probabilité dappartenance à une
des deux classes
50
http//www.ee.columbia.edu/sfchang/course/spr/
51
Introduction aux \Support Vector Machines" (SVM)
http//www.math.u-psud.fr/blanchard/gtsvm/intro.p
df
52
Support Vector Machines" (SVM)
1. transformation non linéaire des données pour
trouver une séparation linéaire des données
dapprentissage dans un nouvel espace
2. chercher un hyperplan dont la distance
minimale aux exemples dapprentissage est
maximale
H. Mohamadally B. Fomani, U. Versailles St Quentin
53
SYNTHESE
54
B. Approche structurelle
Un objet complexe est décrit comme un mot composé
de lettres dun alphabet prédéfini et des
relations de position entre ces lettres
Mais ...
lettres manquantes, relations de position
erronées ...
Distances entre graphes
rechercher dans la base des graphes, celui qui
est le plus proche du graphe déduit des données
analysées
http//www.cs.bilkent.edu.tr/saksoy/courses/cs551
-Spring2008/slides/cs551_structural.pdf
Schalkoff, Pattern Recognition Statistical,
Structural and Neural Approaches, 1992
55
http//wwwisg.cs.uni-magdeburg.de/bv/files/LV/Patt
ern_Recognition/VL/L12_Structural20Pattern20Reco
gnition.pdf
56
A gauche, et se prolongeant en dessous, la clef
n162 (marcher vite) sous sa forme simplifiée
(trois ou quatre traits, suivant comment on le
dessine). Le bloc interne qu'il isole est une
composition verticale. Sous le bloc interne,
quatre traits qui forment la clef n 61 (coeur)
Au dessus de ce même bloc, la clef 116 (trou),
cinq traits. Le bloc interne est une composition
horizontale. A gauche, une clef de quatre traits
qui est soit la clef n74 (lune), soit plus
probablement la clef n 130 (chair). A droite,
une clef de deux traits, la clef n 18 (couteau),
qui en position latérale se trace simplement sous
forme de deux traits verticaux. Enfin, le bloc
interne est une composition verticale en
triptyque, où un caractère est encadré par deux
exemplaires d'un autre. Au centre, une autre
superposition verticale de la clef n 149 (mot),
sept traits, et de la clef n 187 (cheval) de
neuf traits. Cette combinaison ne figure pas dans
les dictionnaires courants. De part et d'autre,
une superposition verticale de la clef n 52
(petit), de trois traits, et de la clef n 168
(long) de huit traits. Cette combinaison ne
figure pas non plus dans les dictionnaires
courants.
57
la reconnaissance dobjets complexes
nécessité dune représentation structurée
élément simple p ex morceau de contour
regroupement
regroupement
objet complexe
élément simple p ex morceau de contour
regroupement
relations entre éléments regroupés
regroupement
progression dans la reconnaissance
il faut pouvoir remettre en cause une décision
qui a été prise antérieurement (processus
itératif)
nécessité de prendre en compte les erreurs de
prétraitement
58
(No Transcript)
59
(No Transcript)
60
(No Transcript)
61
(No Transcript)
62
(No Transcript)
63
(No Transcript)
64
exemple de reconnaissance décriture manuscrite
contours haut et bas
segmentation
reconnaissance des segments dans une base de
segments mémorisés et de leurs enchaînements (modè
les de markov)
Abdenaim EL YACOUBI (la poste nantes)
ftp//ftp.irisa.fr/local/IMADOC/lorette/elyacoubi/
MOUNIM.PPT
65
http//www.cs.bilkent.edu.tr/saksoy/courses/cs551
-Spring2008/slides/cs551_structural.pdf
Schalkoff, Pattern Recognition Statistical,
Structural and Neural Approaches, 1992
66
recognition and classification are done using I
Parsing (analyse syntaxique, compilation) (for
formal grammars), I Relational graph matching
(for relational descriptions).
67
String matching Given string x and text,
determine whether x is a factor of text, and if
so, where it appears. I String edit distance
Given two strings x and y, compute the minimum
number of basic operations character
insertions, deletions and exchanges needed to
transform x into y. I String matching with
errors Given string x and text, find
the locations in text where the distance of x
to any factor of text is minimal. I String
matching with the dont care symbol This is
the same as basic string matching but the special
dont care symbol can match any other symbol.
68
I Substitutions A character in x is replaced by
the corresponding character in y. I Insertions A
character in y is inserted into x, thereby
increasing the length of x by one character. I
Deletions A character in x is deleted, thereby
decreasing the length of x by one character.
69
Techniques based on tree search
  • The basic idea
  • A partial match (initially empty) is iteratively
    expanded by adding to it new pairs of matched
    nodes.
  • The pair is chosen using some necessary
    conditions, usually also some heuristic condition
    to prune unfruitful search paths.
  • Eventually, either the algorithm finds a complete
    matching, or no further vertex pairs may be added
    (backtracking)
  • For PR the algorithm may consider the attributes
    of nodes and edges in constraining the desired
    matching.

http//www.prip.tuwien.ac.at/teaching/ss/strupr/ma
tching.ppt288,14,Techniques based on tree search
70
(No Transcript)
71
Reconnaissance de séquences fondée sur les
Modèles de Markov Cachés Hidden Markov Models
Formulation en reconnaissance de séquence
2.1 Reconnaissance (Viterbi) 2.2
Probabilité dune séquence 2.3
Apprentissage
http//htk.eng.cam.ac.uk/
72
2. Automates utilisés dans les modèles de Markov
cachés
mesures
n
n
états
m
m
(Probabilités)
transition
Séquence détats
Séquence de mesures
probabilité de transition de létat m à létat m
probabilité de mesurer n quand lautomate
est dans létat m
probabilité que létat initial soit m
73
Modèles de Markov Cachés (HMM Hidden Markov
Models)
par exemple pour mesurer la ressemblance entre
deux contours de lettres
On écarte les portions de contour qui ne sont pas
des côtés parallèles dun segment
modèle de Markov Un état Une mesure
tenir compte du fait quun état peut produire
plusieurs mesures possibles
74
Les trois problèmes
Séquence détats
Séquence de mesures
1. Reconnaissance Y donné quelle est la S la
plus probable ?
2. Quelle est la probabilité dobserver Y avec
l automate (a,b,d) ?
3. Apprentissage comment calculer a(m,m),
b(m,n) et d(m)
75
SHAPE MATCHING BASED ON GRAPH ALIGNMENT USING
HIDDEN MARKOV MODELS Xiaoning Qian and Byung-Jun
Yoo University of South Florida
76
L'algorithme de Needleman et Wunsch
(programmation dynamique) Laurent Bloch, 2006
savoir si deux mots se ressemblent, quel est
leur degré de ressemblance, ou de trouver, dans
un ensemble de mots, celui qui ressemble le plus
à un mot-cible
un score de ressemblance
un alignement des deux chaînes (qui nont pas
forcément la même longueur) selon la
configuration qui procure le meilleur score 
La programmation dynamique résout des problèmes
en combinant des solutions de sous-problèmes.
(Thomas Cormen, Charles Leiserson, Ronald Rivest
et Clifford Stein, Introduction à
lalgorithmique)
77
1. Remplir la matrice
séquence n 1  G A A T T C A G T T Aséquence
n 2  G G A T C G A
Initialisation
la  prime de score  pour la comparaison du
résidu de rang i de la première séquence avec le
résidu de rang j de le seconde séquence sera
Si,j 1 si les deux résidus sont identiques,
sinon Si,j 0 (score de discordance)
w 0 (pénalité de gap).
2.Déterminer l'alignement optimal
78
a titre dillustration un exemple simple dans
le cas de lécriture manuscrite
  • - extraction des contours
  • - quantification en fonction de la pente
  • - description sous forme dun graphe
  • comparaison avec un graphe mémorisé
  • (éventuellement prise en compte de la distance
  • entre graphes)

79
4
3
5
8 ANGLES
2
6
1
1
7
0.67
TANGENTES
0.41
0.2
0
0
-0.1
QUANTIFICATION DES PENTES DES CONTOURS
80
16 ANGLES
1
0.82
0.67
TANGENTES
0.53
0.41
0.3
0.2
0.1
0
-0.1
QUANTIFICATION DES PENTES DES CONTOURS
81
A. Mesure et quantification des pentes des
contours
par exemple huit pentes possibles (horizontale,
verticale, oblique gauche et oblique droite)
B. Recherche de tronçons aux côtés parallèles
lun en face de lautre (typiquement analyse du
type morphologie mathématique) puis élimination
dans la description des autres éléments de
contours
82
g
b
a
0
b
d
a
7
d
3
a
g
b
g
b
a
d
a
b
b
a
5
3
4
d
g
d
g
g
b
0
a
b
a
d
d
a
b
g
b
a
5
3
d
a
g
b
g
3
6
b
d
g
d
0
g3b g3b a5d a5d d3a d0a b5g
g
g
d
a
d
a3d a0d g6b g 4b g 3b g 0b a7d b3g b0g d6a
d4a d3a d0a b7g
d3a b5g g0b
plusieurs contours
un seul contour
Recherche de la forme dans une base en mémoire
on peut avoir des milliers voire des millions
de formes type
83
Si on ne trouve pas la séquence de la forme en
mémoire On cherche si il y a une forme proche,
La méthode la plus reconnue est celle
des Modèles de Markov Cachées
Coopération entre différents niveaux
Module de reconnaissance
A !
5
1
4
? Forme inconnue
2
3
Morphologie mathématique Ici lextension de
région Peut fermer la boucle et permettre la
reconnaissance
84
Ecriture manuscrite cursive
Découpe en formes élémentaires plus simples Par
exemple en cassant des segments horizontaux Ou
obliques situés sur le contour extérieur
En supposant que le mot existe dans le
dictionnaire Trouver le mot du dictionnaire
dont la séquence ressemble le plus à celle qui a
été analysée la plupart du temps, elle ne sera
pas telle quelle dans le dictionnaire là
encore les modèles de markov cachés Sont un outil
efficace
85
reconnaissance de visages approche statistique
(eigenfaces) approche structurelle (relations
entre éléments caractéristiques)
86
point de départ détection des éléments de
contour
E
F
1. recherche par corrélation déléments simples
en  balayant  limage, est ce que le
médaillon analysé ressemble à limage simple à
laquelle on le compare (sourcil, œil, nez,
bouche) (on peut avoir plusieurs formes pour ces
images simples)
B
D
A
C
F
E
au dessus
2. Vérification de la cohérence
au dessus
B
D
au dessus à gauche
au dessus à droite
A
3. Retour à limage initiale pour essayer
daffiner lanalyse
en dessous
C
87
détection de visage
images grossières avec peu de détails
apprendre à partir de visages types
comment caractériser la notion de visage
comment rechercher dans limage les domaines
qui présentent ces caractéristiques et les
différencier de ceux qui ne les présentent pas ?
faut il décrire le visage ? ou bien en faire une
présentation paramétrique approximative (avec peu
de paramètres) (approche statistique)
représentation paramétrique dans un espace de
dimension réduite
http//www.ensta.fr/manzaner/Cours/Ese24/Proj_Vis
ages/Hjelmas2001.pdf
88
détection de visage
images grossières peu de détails
apprendre à partir de visages types
un classifieur va apprendre ce quest un
visage (Neural Networks, Support Vector Machine,
Principal Component Analysis - Eigenfaces...).
représentation dans un espace de dimension réduite
89
approche statistique de la reconnaissance de
visages
analyse en composantes principales
représenter les visages sur une base de vecteur
orthogonaux en essayant de prendre en compte les
caractéristiques les plus significatives des
visages
90
analyse en composantes principales de visages
eigenfaces
une image un vecteur de paramètres
(opérations préalables cadrer les images et
soustraire la moyenne de chaque image)
http//www.umiacs.umd.edu/knkim/KG_VISA/PCA/FaceR
ecog_PCA_Kim.pdf
91
matrice rectangulaire W
M
RECHERCHE DES VECTEURS PROPRES e1, ...,eM
(orthogonaux) DE LA MATRICE (carrée MxM) WT.W
N
image M
image 1
image 2
image 3
les vecteurs propres associés aux valeurs propres
les plus grandes contiennent linformation la
plus significative de lensemble des images ayant
servi à les construire (composantes de plus grand
écart type)
92
une nouvelle image est projetée sur cette base
elle est caractérisée par le vecteur de paramètres
(les images de la base dapprentissage
peuvent être caractérisées de la même manière
par une projection sur cette base )
les images et sont ressemblantes si
la distance est petite
93
vecteurs propres associés aux valeurs propres les
plus grandes de la matrice de covariance des
 vecteurs  représentant les images
représentation dune image dans cette base
les composantes suivant les vecteurs propres
associés aux valeurs propres plus petites sont
moins informatives et sont négligées
la distance entre deux images qui se ressemblent
est  petite 
94
ATT Laboratories,Cambridge at http//www.uk.resea
rch.att.com/facedatabase.html
Original training images
Eigenface - The first eigenface account for the
maximal variation of the training vectors,and the
second one for the second
Reconstructed images of training images- they are
almost same as their original images
reconnaissance
représentation sur la base
(calcul de distance entre points dans lespace de
dimension réduite M)
95
base de données
visages inconnus de la base
limitations fond, éclairage, cadrage, utilité
dun prétraitement (filtrage passe haut pour
mettre en évidence les contours, normalisation de
lhistogramme, recentrage de limage, etc. ...
96
Résultats pour la détection de visages
Voir utilisation des fonctions de Haar
97
(No Transcript)
98
prétraitement utile filtrage passe haut (mise
en évidence des contours)
prétraitement utile filtrage passe bas
(caractérisation du  type visage )
99
mais il peut y avoir des erreurs !
the face on mars ...
100
Conclusion
Tout ça marche assez bien quand le problème nest
pas trop difficile
Mais les algorithmes tombent facilement dans les
pièges les plus simples
On est très loin datteindre les performances
dun animal
Il y a encore beaucoup à comprendre sur le
fonctionnement cérébral
Ce quon sait sur les neurones et le cerveau
101
stanislas dehaene
http//ext1.siteparc.fr/dehaene-20080318.pdf
102
(No Transcript)
103
DeepFace Closing the Gap to Human-Level
Performance in Face Verification Yaniv Taigman
Ming Yang MarcAurelio Ranzato Facebook AI Group
Menlo Park, CA, USA Lior Wolf Tel Aviv University
Tel Aviv, Israel Conference on Computer Vision
and Pattern Recognition (CVPR), 2014
Figure 1. Alignment pipeline. (a) The detected
face, with 6 initial fiducial points. (b) The
induced 2D-aligned crop. (c) 67 fiducial points
on the 2D-aligned crop with their corresponding
Delaunay triangulation, we added triangles on the
contour to avoid discontinuities. (d) The
reference 3D shape transformed to the 2D-aligned
crop image-plane. (e) Triangle visibility w.r.t.
to the fitted 3D-2D camera darker triangles are
less visible. (f) The 67 fiducial points induced
by the 3D model that are used to direct the
piece-wise affine warpping. (g) The final
frontalized crop. (h) A new view generated by the
3D model (not used in this paper).
104
Figure 2. Outline of the DeepFace architecture. A
front-end of a single convolution-pooling-convolut
ion filtering on the rectified input, followed by
three locally-connected layers and two
fully-connected layers. Colors illustrate feature
maps produced at each layer. The net includes
more than 120 million parameters, where more than
95 come from the local and fully connected
layers.
Write a Comment
User Comments (0)
About PowerShow.com