Champs%20de%20Markov%20en%20Vision%20par%20Ordinateur - PowerPoint PPT Presentation

About This Presentation
Title:

Champs%20de%20Markov%20en%20Vision%20par%20Ordinateur

Description:

Anglais comme vous l'entendez ! Excusez mon fran ais s'il vous plait. Chercheur en ... Formation en physique th orique et puis vision par ordinateur. ... – PowerPoint PPT presentation

Number of Views:272
Avg rating:3.0/5.0
Slides: 31
Provided by: ianje
Category:

less

Transcript and Presenter's Notes

Title: Champs%20de%20Markov%20en%20Vision%20par%20Ordinateur


1
Champs de Markov en Vision par Ordinateur
2
0  Quelques Points avant Commencer  Moi.
  • Ian Jermyn.
  • Anglais comme vous lentendez !
  • Excusez mon français sil vous plait.
  • Chercheur en traitement dimage et vision par
    ordinateur à lINRIA dans projet Ariana.
  • Formation en physique théorique et puis vision
    par ordinateur.

3
0  Quelques Points avant Commencer  Contacts.
  • Ian.Jermyn_at_sophia.inria.fr.
  • www-sop.inria.fr/ariana/personnel/Ian.Jermyn.
  • Vous trouverez là loriginal de ce document.

4
0  Quelques Points avant Commencer  Vous.
  • Nayez pas peur 
  • De questionner la façon meilleure dapprendre.
  • De demander que je répète ou explique quelque
    chose.
  • De me dire si le niveau est trop simple ou trop
    compliqué.
  • Envoyez-moi un email si vous avez des questions
    après la conférence.

5
0  Images Deconvolution.
6
0  Images Segmentation.
7
0  Buts.
  • Définitions  quest-ce que sont les champs de
    Markov ?
  • Exemples  comment sont-ils utilisés pour la
    compréhension dimages ?
  • Algorithmes  comment peut-on extraire
    linformation désirée des modèles ?

8
Part I Définitions
9
I  Modèles Probabilistes dImages.
  • Donné une image (connu), on veut savoir quelque
    chose de la scène (inconnu).
  • Exemple  on veut savoir sil y avait une
    personne dans la scène, et si oui, où.
  • La théorie de probabilité décrit le raisonnement
    dans les situations de connaissance incomplète.
  • La généralisation unique de la logique
    aristotélicienne qui satisfait des critères
    simples et évidents.

10
I  Théorème de Bayes A.
  • On veut savoir la probabilité de la scène sachant
    limage.
  • Le théorème de Bayes/Laplace transforme la
    probabilité de limage sachant la scène en la
    probabilité de la scène sachant limage.
  • K représente toute la connaissance quon a avant
    de voir limage  il y a toujours quelque chose.

11
I  Théorème de Bayes B.
  • La probabilité de limage sachant la scène et K
    (la formation de limage). Souvent un modèle
    physique. Appelée la vraisemblance.
  • La probabilité de la scène avant davoir vu
    limage (mais avec la connaissance K). Appelée la
    probabilité a priori.
  • On doit construire des modèles pour tous les deux.

12
I  Les espaces dimages A.
  • Pour nous, une image est une fonction dun
    domaine vers un espace C.
  • Les signaux acoustiques  N 1.
  • Les images standard  N 2.
  • Les images MRI  N 3.
  • Les séquences vidéo  N 3  2 1 .

13
I Les espace dimages B.
  • La dimension de C 
  • Images monochromatiques  1.
  • Images en couleur  3.
  • Images multi- ou hyper-spectrale  plus de 3.
  • D est envisagé comme plongé dans . Ça veut
    dire que les notions de géométrie peuvent être
    appliquées si N gt 1.
  • Cest une des raisons pour lesquelles le
    traitement dimage est beaucoup plus difficile
    que le traitement des signaux 1D.

14
I  Les espaces de scène  Sémantique.
  • Information sur le monde 3D 
  • Distances et positions des objets dans une photo
  • Types de végétation dans une image aérienne
  • Position dune tumeur dans une image médicale 
  • Géométrie des bâtiments dans un plan.
  • Paramètres de la caméra.
  • Jugements plus subjectifs 
  • Émotion dun visage 
  • Style darchitecture.

15
I  Les espaces de scène  Mathématique A.
  • Une fonction de D vers un autre espace 
  • Restauration  CD
  • Segmentation  LD où L est un ensemble
    (étiquettes dinterprétation)
  • Une région  0,1D.

16
I  Les espaces de scène  Mathématique B.
  • Une fonction dun autre espace vers D 
  • Une région 
  • Positions et paramètres dobjets (D x L)n.

17
I  Probabilités sur ces espaces.
  • Lespace dimages est énorme.
  • 10157826 images possibles de 256 x 256 pixels.
  • 1080 atomes dans lunivers visible.
  • 10157746 images pour chaque atome.
  • Une fraction minuscule contient des images de
    notre monde. La plupart des images sont du bruit.
  • Les probabilités sont fonction de 65536 variables
    dépendantes les valeurs des pixels. Donc, il
    faut simplifier.

18
I  Simplification de la probabilité.
  • Les probabilités se simplifient quand quelques
    variables sont indépendantes les unes, les
    autres.
  • Les champs de Markov sont une voie (mais pas la
    seule) pour définir des probabilités simplifiées
    mais encore utiles.

19
I  Exemple Indépendance.
  • Si la scène est décrite par une fonction sur D,
    la probabilité peut se factoriser sur les pixels 
  • Dans ce cas, on peut traiter chaque pixel
    séparément (problème à une dimension).

20
I  Champs de Markov (MRFs).
  • Un champ de Markov sur un ensemble D est une
    probabilité sur lespace de fonctions CD de D
    vers une autre espace C satisfaisant les
    conditions suivantes.
  • Positivité .

21
I  Champs de Markov (MRFs).
  • Voisinage  pour chaque point , il y a un
    sous-ensemble t.q.
  • On peut savoir tout ce qui est possible de la
    valeur de fp sachant seulement les valeurs des
    voisins fN(p)-p.

22
I  Interprétation comme un graphe.
  • Un graphe non-orienté G est
  • Un ensemble V (noeuds)
  • Un sous-ensemble t.q.
  • Etant donné un MRF, on définit un graphe de la
    façon suivante 

23
I  Cliques.
  • Un sous-ensemble est une clique ssi 
    .
  • On définit comme lensemble de
    toutes les cliques dans le graphe G.

24
I Distributions de Gibbs A
  • Pour une fonction , la
    probabilité suivante est appelée une distribution
    de Gibbs

25
I  Théorème de Hammersley-Clifford.
  • 1971. Très important parce quil permit la
    construction facile de MRFs.
  • Pour chaque fonction , est un MRF.
  • Pour chaque MRF Pr, on peut trouver une fonction
    t.q. .
  • Conclusion GIBBS MRF

26
I  Estimées  En Général.
  • Utilité  ?fonction de coût
  • Utilité moyenne
  • Estimée 

27
I  Estimées  MAP.
  • Maximum A Posteriori ce maximise la
    probabilité.
  • N.B. Quand C est continu, lestimée MAP nest pas
    exactement le point plus probable.

28
I  Estimées  MPM.
  • Maximum Posterior Marginal ce maximise le
    nombre de pixels corrects minimiser le nombre
    de pixels erronés.

29
I  Estimées  Moyenne.
  • Moyenne  minimiser lerreur quadratique moyenne.
  • N.B. C doit être un espace vectoriel.

30
I Distribution de Gibbs B.
  • U est appelé lénergie. Z est appelé le fonction
    de partition.
  • Pour une distribution de Gibbs, lestimée MAP
    prend une forme simple
  • Cette forme on appèle minimisation dénergie.
Write a Comment
User Comments (0)
About PowerShow.com