Title: Aucun titre de diapositive
1METHODES ITERATIVES POUR DES MATRICES SYMETRIQUES
DEFINIES POSITIVES PLUS PROFONDE DESCENTE ET
GRADIENT CONJUGUE
2I-Forme quadratique associée à un système de
matrice s.d.p.
Soit le système Axb où A est une matrice (n,n) Ã
valeurs réelles, symétrique définie positive.
3Démonstration
4Par extension, on dira (abusivement) que q est
la forme quadratique associée au système Axb
5Etude dans le cas n1
q admet un minimum en x et il est unique.
Ces résultats se généralisent au cas n
quelconque.
6Démonstration en TD
Démonstration en TD
7II-Généralités sur les méthodes de descente
8(No Transcript)
9Démonstration
10Remarques
Egalité utilisée dans la mise en oeuvre des
méthodes de descente
11(No Transcript)
12Démonstration
Ce résultat sera utilisé dans la suite pour
létude de la convergence du gradient conjugué.
13Interprétation géométrique dans le cas n2
Les équations q(x)constante sont celles dune
famille dellipses concentriques autour du point
x .
14III Méthode de la plus profonde descente III-1
Description et programmation
15Algorithme de la méthode de la plus profonde
descente
16Remarque
Cest une itération linéaire dite méthode de
Richardson dont la convergence sera étudiée en
TD.
17III-2 Etude de la convergence a)Conditionnement
dune matrice symétrique définie positive
Pour A s.d.p., les valeurs propres sont
strictement positives .
Si A et B sont 2 matrices s.d.p , A est dit mieux
conditionnée que B si K(A)ltK(B).
18Remarques
19Exemple
Plus le maillage est fin, plus la matrice est mal
conditionnée
20b) Résultats de convergence
Démonstration en TD
21Conséquences du théorème 2
Le nombre ditérations est proportionnel à K(A)
22IV Méthode du gradient conjugué IV-I Description
et programmation
On cherche p(k1)dans le plan engendré par les
vecteurs orthogonaux r(k1) et p(k) sous la forme
23(No Transcript)
24On montre les résultats suivants
25Algorithme de la méthode du gradient conjugué
26IV-2 Résultats de convergence
La méthode du gradient conjugué converge en un
nombre fini de pas au plus égal à n.
27En théorie La méthode du gradient conjugué est
donc une méthode directe comme Gauss.
En pratique En raison des erreurs darrondi, la
convergence nest pas assurée au bout de n pas.
La méthode se programme donc comme une méthode
itérative comme il est fait dans lalgorithme
précédent.
Pour évaluer les performances du gradient
conjugué il est nécessaire de connaître des
informations supplémentaires sur le comportement
de lerreur.
28(No Transcript)
29Remarques
a) La borne derreur na dintérêt que pour k
assez  grand (donc n  grand ). En effet
30Exemples
Le coût dune itération du gradient conjugué sur
ces 2 matrices est en O(N). On peut alors donner
un tableau comparatif des performances des
méthodes de résolution étudiées depuis le début
de ce cours
31(No Transcript)
32Illustration numérique