Title: Les cartes autoorganisatrices
1Les cartes auto-organisatrices
2Le paradigme de Kohonen
- Tuning
- Compétition
- Mapping de distribution
3Tuning
4Tuning
5Tuning
Activation
Fonction de transfert
Espace des entrées
Valeur nominale
événement
6Tuning
- Deux représentations
- Représentation orientée entrée
- Représentation orientée masque
- Exemple Lespace dentrée est les 26 lettres de
lalphabet
7Tuning
ABCDEFGHIJKLMNOPQRSTUVWXYZ
8Tuning
- Représentation orientée entrée
- On dessine le neurone dans lespace des entrées,
à lendroit où se situe sa valeur nominale.
ABCDEFGHIJKLMNOPQRSTUVWXYZ
9Tuning
- Représentation orientée masque
- On étiquette les neurones par leur valeur
nominale (masque).
H
O
M
10Compétition
- La compétition concerne des neurones connectés
entre eux (connexions latérales) - Principe ON-center, OFF-surround
11Compétition
Poids w
distance
ON Excitatrices
12Compétition
Poids w
distance
ON Excitatrices
OFF Inhibitrices
13Compétition
Poids w
distance
Total Chapeau Mexicain
ON Excitatrices
OFF Inhibitrices
14Compétition
w(milieu,n)
15Compétition
- Les neurones n sont activés par leur entrée
i(n,t) - La compétition entre neurones n conduit à une
activité résultante u(n,t)
16Compétition principe
tuning
Excitation
17Compétition principe
tuning
Excitation
18Compétition principe
tuning
Excitation
19Compétition
- Un mécanisme itératif Continuum Neural Field
Theory (CNFT)
- A léquilibre, u est un contraste des entrées i.
20Compétition 1D
u
i
21Compétition 2D
u
i
22Exemple
Contrainte activités isolées
Sollicitation
(niveau de tuning)
Focalisation
23(No Transcript)
24Mapping de distribution
- Apprentissage Modification des valeurs
nominales des neurones - ça revient à déplacer les neurones sur la
représentation orientée entrée . - Apprentissage non supervisé Il sagit de
sassurer que les valeurs nominales soient
représentatives du phénomène observé
25Mapping de distribution
- Exemple Espace dentrée 2D
Représentation orientée entrée
Taille
Répartition aléatoire des valeurs nominales
Occurrence d un événement
Poids
26Mapping de distribution
- Exemple Espace dentrée 2D
Taille
Activation i(n,t)
Poids
27Mapping de distribution
- Exemple Espace dentrée 2D
Taille
Activation i(n,t)
Compétition u(n,t)
Poids
28Mapping de distribution
- Exemple Espace dentrée 2D
Taille
Activation i(n,t)
Compétition u(n,t)
Apprentissage
Poids
29Mapping de distribution
- Exemple Espace dentrée 2D
Taille
Activation i(n,t)
Compétition u(n,t)
Apprentissage
Poids
30Mapping de distribution
- Exemple Espace dentrée 2D
Taille
Activation i(n,t)
Compétition u(n,t)
Apprentissage
Poids
31(No Transcript)
32Mapping de distribution
- Exemple Ranger les boîtes de fard à paupière
sur un étalage, dans un magasin, selon leur
couleur.
- Pb La table est 2D, lensemble des couleurs est
3D. De plus, toutes les couleurs ne sont pas
utilisées. Il faut que deux couleurs proches
soient ensembles.
33Espace des données les couleurs
Distribution des couleurs de fard à paupière
34Représentation orientée entrée , après
apprentissage
35Représentation orientée masque , après
apprentissage
36Mapping de distribution
- Exemple plus réaliste Traitement dimages
- But Extraire des primitives visuelles.
- Limage nest pas du bruit, elle contient
principalement des transitions de contrastes. - La distribution des imagettes issues de limage
ne couvre pas lespace de toutes les imagettes
possibles
37(No Transcript)
38(No Transcript)
39Mapping de distribution
- Les valeurs nominales sont des prototypes qui
décrivent le phénomène - Deux neurones voisins ont des prototypes proches
Conservation de la topologie de lespace
d entrée - Létiquetage des neurones conduit à une
classification La classe dune donnée est
létiquette du neurone le plus actif.
40Apprentissage non supervisé
- Self Organizing Maps (Kohonen)
- Réseaux incrémentaux (Fritzke)
41Self Organizing Maps
- Cest la version algorithmique du paradigme de
Kohonen - Définition dune structure de réseau a priori (ex
grille) - Tous les neurones reçoivent la même entrée
42Self Organizing Maps
i
Prototype (valeur nominale)
Activation a(i) f(d(x,wi))
Distance Définit une notion de similitude sur
lespace des entrées
43Self Organizing Maps
Prototype (valeur nominale)
Définition dune topologie de réseau
Définit une notion de voisinage entre les
neurones i et j ?(i,j)proximité
44Self Organizing Maps
- On présente un exemple x
- Calcul des activités a(i) (selon d(x,wi))
- On détermine I, le neurone gagnant
- Iargmaxi(a(i))
- On simule a posteriori une compétition une
bulle br de rayon r autour de i
45Self Organizing Maps
Décroît au cours de la présentation des exemples
- Compétition
- a(i)br(?(I,i))
r
I
- Apprentissage
- ?wi??a(i)?(x-wi)
46Self Organizing Maps
- Non supervisés, prototypes sub-symboliques
- Conservation de la topologie robustesse
- Classification, représentation (ex Mots-clés
voisins voisins sur lécran, cf. Kohonen) - Convergence prouvée que pour un maillage 1D.
47Vers la "rétinotopie"
48Vers la "rétinotopie"
- Inconvénients des cartes de Kohonen
- approche winner takes all ,supervision des
calculs - Une seule entrée pour tout le réseau
- Contrainte de continuité homogène (liens latéraux
isotropes) et non stationnaire.
49Vers la "rétinotopie"
50(No Transcript)
51Visions centrale / périphérique
Imagettes perçuespar les colonnes
52Expériences
Valeurs nominalesdes colonnesaprès
auto-organisation
Présentation de 300 images
53RF-LISSOM (1997)
54RF-LISSOM (1997)
55RF-LISSOM (1997)
56RF-LISSOM (1997)
57Réseaux incrémentaux
58Réseaux incrémentaux
- But Ne pas imposer la topologie a priori
- Ajouter des neurones là où linformation est mal
représentée - Modèle Growing Neural Gas (Fritzke)
59Réseaux incrémentaux
- Growing Neural Gas
- Soit une population de neurones s
- On présente un exemple x
- On détermine le neurone s1 dont le prototype est
le plus proche de x - On détermine s2, le deuxième plus proche.
- Mise à jour des ages des connexions
- Age(s1? s2)0
- Age(s1? s) Si gtseuil, connexion éliminée
- On bouge s1 et ses voisins vers x
60Réseaux incrémentaux
- Growing Neural Gas
- A chaque exemple, on tient à jour une estimation
de lerreur ES1??x - ws1 ?? - Tous les p pas, on détermine s le neurone le plus
erroné, et s son voisin le plus erroné - On crée un nouveau neurone n entre s et s, avec
wn(ws ws)/2
61Réseaux incrémentaux
62Réseaux incrémentaux
63(No Transcript)
64Réseaux incrémentaux
- Growing Grid (Fritzke)
- On ajoute une ligne ou une colonne dans une
grille, entre celui qui gagne le plus souvent et
son voisin le plus distant. - Permet dadapter le nombre de neurones dune
grille de Kohonen - On a les avantages du Kohonen à influence
restreinte, mais sans les inconvénients
(algorithme stationnaire).
65Réseaux incrémentaux
66Réseaux incrémentaux
67Conclusion
68Conclusion
- Apprentissage non supervisé Capturer
lhétérogénéité de la distribution d un
phénomène - Conservation de la topologie robustesse
- Topologie fixée Mapping de la topologie dun
espace en une topologie plus simple - Topologie adaptée Bien pour la classification,
mais on peut difficilement interconnecter des
cartes incrémentales.
69(No Transcript)