Apprentissage III - PowerPoint PPT Presentation

1 / 8
About This Presentation
Title:

Apprentissage III

Description:

crit re : la similarit entre les donn es. il faut conna tre le degr de similarit (distances) entre toutes ... on cherche K hypersph res qui partagent au mieux les points ... – PowerPoint PPT presentation

Number of Views:25
Avg rating:3.0/5.0
Slides: 9
Provided by: mir143
Category:

less

Transcript and Presenter's Notes

Title: Apprentissage III


1
Apprentissage (III)
Dynamique des systèmes complexes et applications
aux SHS modèles, concepts méthodes
  • Mirta B. Gordon
  • Laboratoire Leibniz-IMAG
  • Grenoble

2
apprentissage non supervisé
3
clustering
  • problème classer (partager en sous-ensembles
    clusters) un ensemble de données LM xm
    1mM
  • critère la similarité entre les données
  • il faut connaître le degré de similarité
    (distances) entre toutes les paires de points
  • plusieurs algorithmes
  • K-means
  • on se donne a priori le nombre de classes K
  • on cherche K hypersphères qui partagent au mieux
    les points
  • classifications hiérarchique
  • on cherche le meilleur arbre (hiérarchie) en
    fonction des degrés de similarité (ne donne pas
    la classe des données)
  • super-paramagnetic clustering
  • la classe et le nombre de classes donnés par
    lalgorithme, à ? granularités

4
SPC (Blatt, Wiseman Domany, 1996)
  • soit une fonction positive fortement
    décroissante de la distance entre les points xm
    et xn
  • on attribue à chaque point xm une étiquette sm
    pouvant prendre un grand nombre de valeurs
    discrètes
  • fonction de coût
  • modèle de Potts sm spin de Potts

delta de Kroenecker
5
propriétés
  • tous les points interagissent, mais leur
    interaction décroit avec la distance
  • si tous les sm sont égaux, Eminimum
  • si sm ? sn la contribution Jmn disparaît
    lénergie augmente
  • au minimum tous les points auront le même spin
    (la même étiquette)

6
clustering
  • évolution Montecarlo à temperature T1/b
  • si Jmn est grand, les spins m et n resteront
    égaux plus souvent que si Jmn est petit

7
exemple
apprentissage_figures\3Conc.OPJ
8
références
  • Hertz, Krogh et Palmer. Introduction to the
    Theory of Neural Computation. Addison Wesley,
    1991.
  • Tom Mitchell. Machine Learning. McGraw Hill,
    1997.
  • SPC Blatt, Wiseman Domany, Physical Review
    Letters 76 (N18) 1996.
  • SVM V. Vapnik. Statistical Learning Theory,
    Wiley, 1998.
  • Merci !
Write a Comment
User Comments (0)
About PowerShow.com