Quelques filtres lisseurs de base I - PowerPoint PPT Presentation

1 / 29
About This Presentation
Title:

Quelques filtres lisseurs de base I

Description:

Quelques filtres lisseurs de base (II) Filtrage non lin aire. De Nagao ... Pour tout s S, estimation de xs sachant ys classification aveugle, ... – PowerPoint PPT presentation

Number of Views:378
Avg rating:3.0/5.0
Slides: 30
Provided by: wwwdfr
Category:

less

Transcript and Presenter's Notes

Title: Quelques filtres lisseurs de base I


1
Quelques filtres lisseurs de base (I)
  • Cas dimages bruitées (e.g. gaussien,
    impulsionnel) ? prétraitement lissage
  • Filtrage linéaire
  • Moyennage
  • exemples

2
Quelques filtres lisseurs de base (II)
  • Filtrage non linéaire
  • De Nagao
  • SNN (Symetric Nearest Neighbor)
  • Filtrage dordre
  • Médian (p pixels, pVs)

Algorithme 1) Calcul de lhistogramme sur le
voisinage Vs 2) Tri des valeurs du voisinage 3)
Sélection E le plus compact Ep 4) Sélection de
la valeur de E à lordre considéré
3
  • Image S15.ppt.zip

4
Bruit gaussien s20
5
Filtrage exercices
  • Que font les filtres à noyau de convolution
    suivants (prenez un exemple numérique si
    nécessaire)
  • Quelle est la condition sur les coefficients pour
    que le filtrage soit passe-bas
  • Décomposer le filtre 2D de noyau
  • sous forme du produit de convolution de 2
    filtres 1D
  • En déduire un moyen efficace, en nombre
    dopérations par pixel, dimplémenter les filtres
    précédents

6
Détection de contours approche générale
  • Objectif
  • Méthodes dérivatives

Utilisation du gradient Calcul de limage du
gradient Calcul de limage de la norme du
gradient Calcul de limage de la direction du
gradient Seuillage (avec hystérésis) de limage
de la norme du gradient Elimination des non
maxima locaux dans la direction du
gradient Fermeture des contours
Utilisation du laplacien Calcul de limage du
laplacien Calcul de limage de la norme du
gradient Calcul de limage binaire Iz des
passages par zéro du laplacien Application du
masque binaire Iz à limage de la norme du
gradient Seuillage (avec hystérésis) de limage
de la norme du gradient Iz Elimination des non
maxima locaux dans la direction du
gradient Fermeture des contours
7
, par filtrage linéaire passe-haut
  • Gradient
  • Sobel c2
  • Prewitt c1
  • Opérateur MDIF
  • Laplacien
  • 4-connexité 8-connexité

8
et morphologiques
  • Dilatation / érosion de fonctions
  • Cas particulier g(x)0 ?x?Rn?D
  • Propriétés
  • Croissance par rapport à f, Extensivité /
    anti-extensivité (si origine incluse dans support
    de g), Croissance / décroissance par rapport à g,
    Commutations.
  • Opérateurs différence dopérateurs
  • Gradient intérieur, grad. extérieur
  • Gradient morphologique
  • Laplacien morphologique
  • Convergence vers gradient et laplacien euclidiens
    si élément structurant boule eucl. centrée et
    rayon ? 0

9
par filtrage optimal (I)
  • Critères de Canny
  • (i) Bonne détection, (ii) bonne localisation,
    (iii) faible multiplicité des maxima dus au bruit
  • ? Filtre impulsionnel à réponse finie (RIF)
  • Filtre de Deriche RII
  • ? Dérivée directionnelle en x Imageh(x)f(y)
  • Dérivée directionnelle en y Imageh(y)f(x)
  • Filtre de Shen - Castan

10
par filtrage optimal (II)
  • Implantation du filtre de dérivation de Deriche
  • Décomposition entre 1 partie causale et 1
    anti-causale
  • R1ic.e-a.Ii-12.e-a.Ri-1-e-2a.Ri-2
  • R2i-c.e-a.Ii12.e-a.Ri1-e-2a.Ri2
  • RiR1i R2i
  • Implantation du filtre de lissage de Deriche
  • Décomposition entre 1 partie causale et 1
    anti-causale
  • R1i b.Ii b.e-a.(a-1).Ii-12.e-a.Ri-1-e-2
    a.Ri-2
  • R2i b.e-a.(a1).Ii1-b.e-2a.Ii22.e-a.Ri
    1-e-2a.Ri2
  • RiR1i R2i

11
Exemples de et .
12
Détection de contours
  • Seuillage avec hystérésis
  • Détection des pixels de valeur sh
  • Ajout des pixels de valeur sb et qui ? 1
    composante connexe ayant au moins 1 pixel de
    valeur sh (utilisat d1 pile pour créer les
    composantes connexes)
  • Détection des maxima locaux de la norme du
    gradient dans la direction du gradient q
  • Autres cas

13
Fermeture de contours
  • Construction d1 look-up table permettant
    dindexer les pixels candidats à la fermeture
    pour chaque configuration.
  • Codage configuration où xi1 si contour, 0
    sinon
  • Ex. T161 T1361 T81
  • Algorithme de fermeture
  • Pour chaque extrémité trouvée lors du balayage de
    limage
  • Construction du sous-arbre de tous les chemins
    possibles de longueur p et du coût associé à
    chaque nud somme des normes des gradients en
    chaque point du chemin
  • Sélection du nud de coût maximum
  • Prolongation du contour

14
Exemple
15
Contours exercices (I)
  • Pour la norme du gradient, on utilise lune des
    trois normes suivantes
  • Comparer les valeurs obtenues par N1, N2 et N3
    si lon calcule le gradient discret avec D2x-1
    0 1 et D2yt-1 0 1
  • Même question si le gradient discret est obtenu
    lapplication du filtre de Sobel
  • En déduire que N3 est la norme la mieux adaptée
    dans le premier cas, et N1 ou N2 dans le deuxième
    cas.
  • Ecrire les équations aux différences pour les 3
    masques utilisés pour estimer le laplacien
    discret

16
Contours exercices (II)
  • Calculer le gradient et le laplacien
    morphologique dans les cas dimages suivants
  • Interpréter et commenter
  • Effectuer un seuillage avec hystérésis sur
  • Donner les formules dinterpolation des gradients
    en M1 et M2 pour la détection des maxima locaux
    de la norme du gradient dans la direction du
    gradient q, pour les différents cas de q

17
Classification objectifs
  • Mettre en évidence les similarités/
    dissimilarités entre les objets (e.g. pixels)
  • Obtenir une représentation simplifiée (mais
    pertinente) des données originales

? Définitions préalables
  • Espace des caractéristiques ?d (?s?S, ys??d)
  • Espace de décision ensemble des classes W
    (?s?S, xs?W), W wi, i?1,c
  • Règle de décision ( d(ys) )
  • Critère de performance

18
Ex. de classification non paramétrique
  • Classification k-ppv (plus proches voisins)
  • On dispose dun ensemble (de référence)
    dobjets déjà labelisés
  • Pour chaque objet y à classifier, on estime ses k
    ppv selon la métrique de lespace des
    caractéristiques, et on lui affecte le label
    majoritaire parmi ses k ppv
  • Possibilité dintroduire un rejet (soit en
    distance, soit en ambiguïté)
  • Très sensible à lensemble de référence
  • Exemples

19
Connaissance des caractéristiques des classes
  • Cas supervisé
  • Connaissance a priori des caractéristiques des
    classes
  • Apprentissage à partir dobjets déjà étiquetés
    (cas de données complètes)
  • Cas non supervisé
  • Définition dun critère, ex.
  • - minimisation de la probabilité derreur
  • - minimisation de linertie intra-classe ?
    maximisation de linertie inter-classes
  • Définition dun algorithme doptimisation

20
Estimation de seuils (cas supervisé)
  • Image ensemble déchantillons suivant une loi
    de distribution de paramètres déterminés par la
    classe
  • ex. distribution gaussienne
  • Cas 1D (monocanal), si seuil de séparation des
    classes wi et wi1, probabilité derreur associée
  • Maximum de vraisemblance
  • Maximum A Posteriori
  • ?

21
Algorithme des c-moyennes (cas non sup.)
  • Initialisation (itération t0) choix des
    centres initiaux (e.g. aléatoirement, répartis,
    échantillonnés)
  • Répéter jusquà vérification du critère darrêt
  • t
  • Labelisation des objets par la plus proche classe
  • Mise à jour des centres par minimisation de
    lerreur quadratique
  • Estimation du critère darrêt (e.g. test sur
    ch(t) )
  • Remarques
  • de classes a priori
  • Dépendance à linitialisation

22
Classification exercices (I)
  • Soit limage à deux canaux suivante
  • Soit les pixels de référence suivants
  • label 1 valeurs (1,032,19) (0,941,83)
    (0,592,04)
  • label 2 valeurs (2,080,89) (2,231,16)
    (1,961,14)
  • Effectuer la classification au k-ppv.
  • Commentez lintroduction dun nouveau pixel de
    référence de label 1 et de valeurs (1,321,56)

23
Classification exercices (II)
  • Sur limage à deux canaux précédente
  • Déterminer les seuils de décision pour chacun des
    canaux si lon suppose 2 classes gaussiennes de
    caractéristiques respectives
  • canal 1 (m1,s1)(2.0,0.38), (m2,s2)(1.0,0.34)
  • canal 2 (m1,s1)(1.0,0.36), (m2,s2)(2.0,0.39)
  • Effectuer la classification par seuillage.
  • Effectuer la classification c-means pour c2
  • Comparer avec les résultats précédents
  • Comparer avec la classification c-means pour c3
  • Que pensez-vous de rajouter un terme markovien ?
    Considérez le cas dun seul canal, ou celui des
    deux canaux utilisés de façon conjointe.

24
Classification bayésienne dimages
  • Formulation du problème
  • Les images observées correspondent à la
    réalisation y dun champ aléatoire Y Ys, s?S,
    S ensemble des sites, S ?pixels, Ys??
  • ? un autre champ aléatoire X Xs, s?S, celui
    des étiquettes ou labels des classes, dont la
    réalisation x est cachée, Xs?W, W ?labels ou
    classes
  • Le but de la classification est daccéder à x
    connaissant y.
  • Avant les modèles markoviens
  • Calcul de la fonction de décision optimale pour
    estimer x sachant y irréalisable ?
    simplifications
  • Pour tout s?S, estimation de xs sachant ys ?
    classification aveugle,
  • Pour tout s?S, estimation de xs sachant ys,
    s?VS ? classifications contextuelles

25
Modèles markoviens
  • Pb estimer x connaissant y ? définir
  • (i) un modèle dattache aux données, i.e.
    reliant X et Y,
  • ET (ii) un modèle a priori pour X, i.e.
    favorisant certains types de solutions
  • Modélisation des interactions (locales) entre les
    ? sites

26
Champs de Markov champs de Gibbs
  • X est un champ de Markov ?
  • X est un champ de Gibbs de potentiel associé au
    système de voisinage Vs, s?S ?
  • avec (C ens. cliques)

27
Exemple de distribution a posteriori
  • Y gaussien conditionnellement aux classes ?
  • Loi a priori modèle de Potts b(i,j) b ?
  • ? P(Xx / Yy) P(Yy / Xx).P(Xx)/P(Yy) ?

28
Estimation du MAP (I)
  • Recuit simulé (Kirkpatrick, 1983) sur algorithme
    de Métropolis
  • A partir de x0 la configuration initiale, et de
    T la température initiale,
  • Répéter tant que le compteur est gtt et T?0 xk
    étant la config. courante
  • Mettre le compteur à 0
  • Pour tous les sites s ? S
  • tirer ls selon la loi uniforme dans W,
  • poser xt xtk, ?t?St?s, et xs ls,
  • calculer DU
  • si DU lt 0 alors
  • sinon
  • tirer z selon la loi uniforme dans 0,1
  • si z lt exp(- DU / T), alors
  • si xsk1 ? xsk incrémenter le compteur de 1
  • Poser T a.T

29
Estimation du MAP (II)
  • Recuit simulé sur échantillonneur de Gibbs
  • A partir de x0 la configuration initiale, et de
    T la température initiale,
  • Répéter tant que le compteur est gtt et T?0 xk
    étant la config. courante
  • Mettre le compteur à 0
  • Pour tous les sites s ? S
  • poser xt xtk, et xtk1 xtk ?t?St?s,
  • Pour chaque i de W,
  • poser xs i,
  • calculer pi
  • tirer z selon la loi uniforme dans 0,1,
  • Trouver j minimum tel que
  • Poser xsk1 j,
  • si xsk1 ? xsk incrémenter le compteur de 1
  • Poser T a.T
Write a Comment
User Comments (0)
About PowerShow.com