Title: Champs%20de%20Markov%20en%20Vision%20par%20Ordinateur
1Champs de Markov en Vision par Ordinateur
20 Quelques Points avant Commencer Moi.
- Ian Jermyn.
- Anglais comme vous lentendez !
- Excusez mon français sil vous plait.
- Chercheur en traitement dimage et vision par
ordinateur à lINRIA dans projet Ariana. - Formation en physique théorique et puis vision
par ordinateur.
30 Quelques Points avant Commencer Contacts.
- Ian.Jermyn_at_sophia.inria.fr.
- www-sop.inria.fr/ariana/personnel/Ian.Jermyn.
- Vous trouverez là loriginal de ce document.
40 Quelques Points avant Commencer Vous.
- Nayez pas peur
- De questionner la façon meilleure dapprendre.
- De demander que je répète ou explique quelque
chose. - De me dire si le niveau est trop simple ou trop
compliqué. - Envoyez-moi un email si vous avez des questions
après la conférence.
50 Images Deconvolution.
60 Images Segmentation.
70 Buts.
- Définitions quest-ce que sont les champs de
Markov ? - Exemples comment sont-ils utilisés pour la
compréhension dimages ? - Algorithmes comment peut-on extraire
linformation désirée des modèles ?
8Part I Définitions
9I Modèles Probabilistes dImages.
- Donné une image (connu), on veut savoir quelque
chose de la scène (inconnu). - Exemple on veut savoir sil y avait une
personne dans la scène, et si oui, où. - La théorie de probabilité décrit le raisonnement
dans les situations de connaissance incomplète. - La généralisation unique de la logique
aristotélicienne qui satisfait des critères
simples et évidents.
10I Théorème de Bayes A.
- On veut savoir la probabilité de la scène sachant
limage. - Le théorème de Bayes/Laplace transforme la
probabilité de limage sachant la scène en la
probabilité de la scène sachant limage. - K représente toute la connaissance quon a avant
de voir limage il y a toujours quelque chose.
11I Théorème de Bayes B.
- La probabilité de limage sachant la scène et K
(la formation de limage). Souvent un modèle
physique. Appelée la vraisemblance. - La probabilité de la scène avant davoir vu
limage (mais avec la connaissance K). Appelée la
probabilité a priori. - On doit construire des modèles pour tous les deux.
12I Les espaces dimages A.
- Pour nous, une image est une fonction dun
domaine vers un espace C. - Les signaux acoustiques N 1.
- Les images standard N 2.
- Les images MRI N 3.
- Les séquences vidéo N 3 2 1 .
13I Les espace dimages B.
- La dimension de C
- Images monochromatiques 1.
- Images en couleur 3.
- Images multi- ou hyper-spectrale plus de 3.
- D est envisagé comme plongé dans . Ça veut
dire que les notions de géométrie peuvent être
appliquées si N gt 1. - Cest une des raisons pour lesquelles le
traitement dimage est beaucoup plus difficile
que le traitement des signaux 1D.
14I Les espaces de scène Sémantique.
- Information sur le monde 3D
- Distances et positions des objets dans une photo
- Types de végétation dans une image aérienne
- Position dune tumeur dans une image médicale
- Géométrie des bâtiments dans un plan.
- Paramètres de la caméra.
- Jugements plus subjectifs
- Émotion dun visage
- Style darchitecture.
15I Les espaces de scène Mathématique A.
- Une fonction de D vers un autre espace
- Restauration CD
- Segmentation LD où L est un ensemble
(étiquettes dinterprétation) - Une région 0,1D.
16I Les espaces de scène Mathématique B.
- Une fonction dun autre espace vers D
- Une région
- Positions et paramètres dobjets (D x L)n.
17I Probabilités sur ces espaces.
- Lespace dimages est énorme.
- 10157826 images possibles de 256 x 256 pixels.
- 1080 atomes dans lunivers visible.
- 10157746 images pour chaque atome.
- Une fraction minuscule contient des images de
notre monde. La plupart des images sont du bruit. - Les probabilités sont fonction de 65536 variables
dépendantes les valeurs des pixels. Donc, il
faut simplifier.
18I Simplification de la probabilité.
- Les probabilités se simplifient quand quelques
variables sont indépendantes les unes, les
autres. - Les champs de Markov sont une voie (mais pas la
seule) pour définir des probabilités simplifiées
mais encore utiles.
19I Exemple Indépendance.
- Si la scène est décrite par une fonction sur D,
la probabilité peut se factoriser sur les pixels
- Dans ce cas, on peut traiter chaque pixel
séparément (problème à une dimension).
20I Champs de Markov (MRFs).
- Un champ de Markov sur un ensemble D est une
probabilité sur lespace de fonctions CD de D
vers une autre espace C satisfaisant les
conditions suivantes. - Positivité .
21I Champs de Markov (MRFs).
- Voisinage pour chaque point , il y a un
sous-ensemble t.q. - On peut savoir tout ce qui est possible de la
valeur de fp sachant seulement les valeurs des
voisins fN(p)-p.
22I Interprétation comme un graphe.
- Un graphe non-orienté G est
- Un ensemble V (noeuds)
- Un sous-ensemble t.q.
- Etant donné un MRF, on définit un graphe de la
façon suivante
23I Cliques.
- Un sous-ensemble est une clique ssi
. - On définit comme lensemble de
toutes les cliques dans le graphe G.
24I Distributions de Gibbs A
- Pour une fonction , la
probabilité suivante est appelée une distribution
de Gibbs
25I Théorème de Hammersley-Clifford.
- 1971. Très important parce quil permit la
construction facile de MRFs. - Pour chaque fonction , est un MRF.
- Pour chaque MRF Pr, on peut trouver une fonction
t.q. . - Conclusion GIBBS MRF
26I Estimées En Général.
- Utilité ?fonction de coût
- Utilité moyenne
- Estimée
27I Estimées MAP.
- Maximum A Posteriori ce maximise la
probabilité. - N.B. Quand C est continu, lestimée MAP nest pas
exactement le point plus probable.
28I Estimées MPM.
- Maximum Posterior Marginal ce maximise le
nombre de pixels corrects minimiser le nombre
de pixels erronés.
29I Estimées Moyenne.
- Moyenne minimiser lerreur quadratique moyenne.
- N.B. C doit être un espace vectoriel.
30I Distribution de Gibbs B.
- U est appelé lénergie. Z est appelé le fonction
de partition. - Pour une distribution de Gibbs, lestimée MAP
prend une forme simple - Cette forme on appèle minimisation dénergie.