Title: Quelques filtres lisseurs de base I
1Quelques filtres lisseurs de base (I)
- Cas dimages bruitées (e.g. gaussien,
impulsionnel) ? prétraitement lissage - Filtrage linéaire
- Moyennage
- exemples
2Quelques filtres lisseurs de base (II)
- Filtrage non linéaire
- De Nagao
- SNN (Symetric Nearest Neighbor)
- Filtrage dordre
- Médian (p pixels, pVs)
Algorithme 1) Calcul de lhistogramme sur le
voisinage Vs 2) Tri des valeurs du voisinage 3)
Sélection E le plus compact Ep 4) Sélection de
la valeur de E à lordre considéré
3 4Bruit gaussien s20
5Filtrage exercices
- Que font les filtres à noyau de convolution
suivants (prenez un exemple numérique si
nécessaire) - Quelle est la condition sur les coefficients pour
que le filtrage soit passe-bas - Décomposer le filtre 2D de noyau
- sous forme du produit de convolution de 2
filtres 1D - En déduire un moyen efficace, en nombre
dopérations par pixel, dimplémenter les filtres
précédents
6Détection de contours approche générale
- Objectif
- Méthodes dérivatives
Utilisation du gradient Calcul de limage du
gradient Calcul de limage de la norme du
gradient Calcul de limage de la direction du
gradient Seuillage (avec hystérésis) de limage
de la norme du gradient Elimination des non
maxima locaux dans la direction du
gradient Fermeture des contours
Utilisation du laplacien Calcul de limage du
laplacien Calcul de limage de la norme du
gradient Calcul de limage binaire Iz des
passages par zéro du laplacien Application du
masque binaire Iz à limage de la norme du
gradient Seuillage (avec hystérésis) de limage
de la norme du gradient Iz Elimination des non
maxima locaux dans la direction du
gradient Fermeture des contours
7 , par filtrage linéaire passe-haut
- Gradient
- Sobel c2
- Prewitt c1
- Opérateur MDIF
- Laplacien
- 4-connexité 8-connexité
8 et morphologiques
- Dilatation / érosion de fonctions
- Cas particulier g(x)0 ?x?Rn?D
- Propriétés
- Croissance par rapport à f, Extensivité /
anti-extensivité (si origine incluse dans support
de g), Croissance / décroissance par rapport à g,
Commutations.
- Opérateurs différence dopérateurs
- Gradient intérieur, grad. extérieur
- Gradient morphologique
- Laplacien morphologique
- Convergence vers gradient et laplacien euclidiens
si élément structurant boule eucl. centrée et
rayon ? 0
9 par filtrage optimal (I)
- Critères de Canny
- (i) Bonne détection, (ii) bonne localisation,
(iii) faible multiplicité des maxima dus au bruit - ? Filtre impulsionnel à réponse finie (RIF)
- Filtre de Deriche RII
- ? Dérivée directionnelle en x Imageh(x)f(y)
- Dérivée directionnelle en y Imageh(y)f(x)
- Filtre de Shen - Castan
10 par filtrage optimal (II)
- Implantation du filtre de dérivation de Deriche
- Décomposition entre 1 partie causale et 1
anti-causale - R1ic.e-a.Ii-12.e-a.Ri-1-e-2a.Ri-2
- R2i-c.e-a.Ii12.e-a.Ri1-e-2a.Ri2
- RiR1i R2i
- Implantation du filtre de lissage de Deriche
- Décomposition entre 1 partie causale et 1
anti-causale - R1i b.Ii b.e-a.(a-1).Ii-12.e-a.Ri-1-e-2
a.Ri-2 - R2i b.e-a.(a1).Ii1-b.e-2a.Ii22.e-a.Ri
1-e-2a.Ri2 - RiR1i R2i
11Exemples de et .
12Détection de contours
- Seuillage avec hystérésis
- Détection des pixels de valeur sh
- Ajout des pixels de valeur sb et qui ? 1
composante connexe ayant au moins 1 pixel de
valeur sh (utilisat d1 pile pour créer les
composantes connexes) - Détection des maxima locaux de la norme du
gradient dans la direction du gradient q - Autres cas
13Fermeture de contours
- Construction d1 look-up table permettant
dindexer les pixels candidats à la fermeture
pour chaque configuration. - Codage configuration où xi1 si contour, 0
sinon - Ex. T161 T1361 T81
- Algorithme de fermeture
- Pour chaque extrémité trouvée lors du balayage de
limage - Construction du sous-arbre de tous les chemins
possibles de longueur p et du coût associé à
chaque nud somme des normes des gradients en
chaque point du chemin - Sélection du nud de coût maximum
- Prolongation du contour
14Exemple
15Contours exercices (I)
- Pour la norme du gradient, on utilise lune des
trois normes suivantes -
- Comparer les valeurs obtenues par N1, N2 et N3
si lon calcule le gradient discret avec D2x-1
0 1 et D2yt-1 0 1 - Même question si le gradient discret est obtenu
lapplication du filtre de Sobel - En déduire que N3 est la norme la mieux adaptée
dans le premier cas, et N1 ou N2 dans le deuxième
cas. - Ecrire les équations aux différences pour les 3
masques utilisés pour estimer le laplacien
discret
16Contours exercices (II)
- Calculer le gradient et le laplacien
morphologique dans les cas dimages suivants - Interpréter et commenter
- Effectuer un seuillage avec hystérésis sur
- Donner les formules dinterpolation des gradients
en M1 et M2 pour la détection des maxima locaux
de la norme du gradient dans la direction du
gradient q, pour les différents cas de q
17Classification objectifs
- Mettre en évidence les similarités/
dissimilarités entre les objets (e.g. pixels) - Obtenir une représentation simplifiée (mais
pertinente) des données originales
? Définitions préalables
- Espace des caractéristiques ?d (?s?S, ys??d)
- Espace de décision ensemble des classes W
(?s?S, xs?W), W wi, i?1,c - Règle de décision ( d(ys) )
- Critère de performance
18Ex. de classification non paramétrique
- Classification k-ppv (plus proches voisins)
- On dispose dun ensemble (de référence)
dobjets déjà labelisés - Pour chaque objet y à classifier, on estime ses k
ppv selon la métrique de lespace des
caractéristiques, et on lui affecte le label
majoritaire parmi ses k ppv - Possibilité dintroduire un rejet (soit en
distance, soit en ambiguïté) - Très sensible à lensemble de référence
- Exemples
19Connaissance des caractéristiques des classes
- Cas supervisé
- Connaissance a priori des caractéristiques des
classes - Apprentissage à partir dobjets déjà étiquetés
(cas de données complètes) - Cas non supervisé
- Définition dun critère, ex.
- - minimisation de la probabilité derreur
- - minimisation de linertie intra-classe ?
maximisation de linertie inter-classes - Définition dun algorithme doptimisation
20Estimation de seuils (cas supervisé)
- Image ensemble déchantillons suivant une loi
de distribution de paramètres déterminés par la
classe - ex. distribution gaussienne
- Cas 1D (monocanal), si seuil de séparation des
classes wi et wi1, probabilité derreur associée
- Maximum de vraisemblance
- Maximum A Posteriori
- ?
21Algorithme des c-moyennes (cas non sup.)
- Initialisation (itération t0) choix des
centres initiaux (e.g. aléatoirement, répartis,
échantillonnés) - Répéter jusquà vérification du critère darrêt
- t
- Labelisation des objets par la plus proche classe
- Mise à jour des centres par minimisation de
lerreur quadratique - Estimation du critère darrêt (e.g. test sur
ch(t) )
- Remarques
- de classes a priori
- Dépendance à linitialisation
22Classification exercices (I)
- Soit limage à deux canaux suivante
- Soit les pixels de référence suivants
- label 1 valeurs (1,032,19) (0,941,83)
(0,592,04) - label 2 valeurs (2,080,89) (2,231,16)
(1,961,14) - Effectuer la classification au k-ppv.
- Commentez lintroduction dun nouveau pixel de
référence de label 1 et de valeurs (1,321,56)
23Classification exercices (II)
- Sur limage à deux canaux précédente
- Déterminer les seuils de décision pour chacun des
canaux si lon suppose 2 classes gaussiennes de
caractéristiques respectives - canal 1 (m1,s1)(2.0,0.38), (m2,s2)(1.0,0.34)
- canal 2 (m1,s1)(1.0,0.36), (m2,s2)(2.0,0.39)
- Effectuer la classification par seuillage.
- Effectuer la classification c-means pour c2
- Comparer avec les résultats précédents
- Comparer avec la classification c-means pour c3
- Que pensez-vous de rajouter un terme markovien ?
Considérez le cas dun seul canal, ou celui des
deux canaux utilisés de façon conjointe.
24Classification bayésienne dimages
- Formulation du problème
- Les images observées correspondent à la
réalisation y dun champ aléatoire Y Ys, s?S,
S ensemble des sites, S ?pixels, Ys?? - ? un autre champ aléatoire X Xs, s?S, celui
des étiquettes ou labels des classes, dont la
réalisation x est cachée, Xs?W, W ?labels ou
classes - Le but de la classification est daccéder à x
connaissant y.
- Avant les modèles markoviens
- Calcul de la fonction de décision optimale pour
estimer x sachant y irréalisable ?
simplifications - Pour tout s?S, estimation de xs sachant ys ?
classification aveugle, - Pour tout s?S, estimation de xs sachant ys,
s?VS ? classifications contextuelles
25Modèles markoviens
- Pb estimer x connaissant y ? définir
- (i) un modèle dattache aux données, i.e.
reliant X et Y, - ET (ii) un modèle a priori pour X, i.e.
favorisant certains types de solutions - Modélisation des interactions (locales) entre les
? sites
26Champs de Markov champs de Gibbs
- X est un champ de Markov ?
- où
- X est un champ de Gibbs de potentiel associé au
système de voisinage Vs, s?S ? - avec (C ens. cliques)
27Exemple de distribution a posteriori
- Y gaussien conditionnellement aux classes ?
- Loi a priori modèle de Potts b(i,j) b ?
- ? P(Xx / Yy) P(Yy / Xx).P(Xx)/P(Yy) ?
28Estimation du MAP (I)
- Recuit simulé (Kirkpatrick, 1983) sur algorithme
de Métropolis - A partir de x0 la configuration initiale, et de
T la température initiale, - Répéter tant que le compteur est gtt et T?0 xk
étant la config. courante - Mettre le compteur à 0
- Pour tous les sites s ? S
- tirer ls selon la loi uniforme dans W,
- poser xt xtk, ?t?St?s, et xs ls,
- calculer DU
- si DU lt 0 alors
- sinon
- tirer z selon la loi uniforme dans 0,1
- si z lt exp(- DU / T), alors
- si xsk1 ? xsk incrémenter le compteur de 1
- Poser T a.T
29Estimation du MAP (II)
- Recuit simulé sur échantillonneur de Gibbs
- A partir de x0 la configuration initiale, et de
T la température initiale, - Répéter tant que le compteur est gtt et T?0 xk
étant la config. courante - Mettre le compteur à 0
- Pour tous les sites s ? S
- poser xt xtk, et xtk1 xtk ?t?St?s,
- Pour chaque i de W,
- poser xs i,
- calculer pi
- tirer z selon la loi uniforme dans 0,1,
- Trouver j minimum tel que
- Poser xsk1 j,
- si xsk1 ? xsk incrémenter le compteur de 1
- Poser T a.T