Outils pour utilisateurs

Outils du site


math:matrices:systeme_lineaire:suite

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
math:matrices:systeme_lineaire:suite [2019/02/17 20:29] – [Méthode de sur-relaxation de Gauss-Seidel] : ajout d'une note rootmath:matrices:systeme_lineaire:suite [2020/04/27 08:04] (Version actuelle) – Conversion de <note> vers <WRAP> root
Ligne 2: Ligne 2:
   * Si une suite converge dans un espace vectoriel (ex. $\|x\|_2$ ou $|||A|||_2$), elle converge dans tous les autres espaces vectoriels.   * Si une suite converge dans un espace vectoriel (ex. $\|x\|_2$ ou $|||A|||_2$), elle converge dans tous les autres espaces vectoriels.
  
-  * La suite $x^{p+1} = S x^p + d$ converge si le rayon spectral de S (plus grande valeur propre) est inférieur à 1.+  * La suite $x^{p+1} = S x^p + d$ converge si le rayon spectral de S (plus grande valeur propre en valeur absolue) est inférieur à 1.
  
   * Soit $A = M - N$, la suite $x^{p+1} = M^{-1} N x^p + M^{-1} b$ converge si $M + {}^t\!N$ est définie positive.   * Soit $A = M - N$, la suite $x^{p+1} = M^{-1} N x^p + M^{-1} b$ converge si $M + {}^t\!N$ est définie positive.
Ligne 346: Ligne 346:
 \end{pmatrix}$$ \end{pmatrix}$$
  
-====Méthode de sur-relaxation de Gauss-Seidel====+====Méthode de sur-relaxation de Southwell====
  
 On garde les mêmes hypothèses que la relaxation de Gauss-Seidel. On garde les mêmes hypothèses que la relaxation de Gauss-Seidel.
Ligne 352: Ligne 352:
 $$x^{p+1} = \left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) x^p + \left(\frac{D}{\omega}-E \right)^{-1} b$$ $$x^{p+1} = \left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) x^p + \left(\frac{D}{\omega}-E \right)^{-1} b$$
  
-$$\omega = \frac{2}{1+\sqrt{1-\varrho(J)^2}}$ avec $J = D^{-1}(E+F)$+$\omega = \frac{2}{1+\sqrt{1-\varrho(J)^2}}$ avec $J = D^{-1}(E+F)$. Cette formule n'est valable que si $A$ est tridiagonale.
-<note important>Faut-il que $A$ soit tridiagonale pour le calcul de $\omega$ ?</note>+
  
 Critère de convergence : Critère de convergence :
Ligne 366: Ligne 365:
 A = A =
 \begin{pmatrix} \begin{pmatrix}
-3 & 1 & \\+3 & 1 & \\
 1 & 4 & 2 \\ 1 & 4 & 2 \\
-& 2 & 4+& 2 & 4
 \end{pmatrix} \end{pmatrix}
 $$ $$
Ligne 383: Ligne 382:
 $$x = $$x =
 \begin{pmatrix} \begin{pmatrix}
 +0.3125 \\
 0.0625 \\ 0.0625 \\
-0.15625 \\ +0.71875 \\
-0.65625 \\+
 \end{pmatrix}$$ \end{pmatrix}$$
 +
 +Les valeurs propres A sont : 1.60862, 3.22713 et 6.16425. Elles sont toutes supérieures à 0.
  
 $$J = $$J =
 \begin{pmatrix} \begin{pmatrix}
-    & -0.333333 & -0.333333 \\+    & -0.333333 &  0 \\
 -0.25 &  0        & -0.5 \\ -0.25 &  0        & -0.5 \\
--0.25 & -0.5      &  0 \\+ 0 & -0.5      &  0 \\
 \end{pmatrix}$$ \end{pmatrix}$$
  
-Les valeurs propres J sont : -0.728714, 0.228714 et 0.5. Le rayon spectral vaut 0.728714.+Les valeurs propres J sont : -0.57735, 0 et 0.57735. Le rayon spectral vaut 0.57735.
  
-$$\omega = \frac{2}{1+\sqrt{1-0.728714^2}} = 1.18707$$+$$\omega = \frac{2}{1+\sqrt{1-0.57735^2}} = 1.10102$$
  
 $$\left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) = $$\left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) =
 \begin{pmatrix} \begin{pmatrix}
--0.187072 & -0.395691 -0.395691 \\ +-0.10102 & -0.367007 & 0 \\ 
- 0.055517 -0.069643 & -0.476108 \\ + 0.027806 & 0 & -0.55051 \\ 
- 0.022566 &  0.158764 &  0.212943 \\+ -0.015308 &  0 &  0.202041 \\
 \end{pmatrix} \end{pmatrix}
 $$ $$
Ligne 409: Ligne 410:
 $$\left(\frac{D}{\omega}-E \right)^{-1} b = $$\left(\frac{D}{\omega}-E \right)^{-1} b =
 \begin{pmatrix} \begin{pmatrix}
-0.395691 \\ +0.367007 \\ 
-0.476108 \\ +0.44949 \\ 
-0.490289 \\+0.578317 \\
 \end{pmatrix}$$ \end{pmatrix}$$
  
Ligne 422: Ligne 423:
 $$x^1 = $$x^1 =
 \begin{pmatrix} \begin{pmatrix}
-0.395691 \\ +0.367007 \\ 
-0.476108 \\ +0.44949 \\ 
-0.490289 \\+0.578317 \\
 \end{pmatrix}$$ \end{pmatrix}$$
 $$x^5 = $$x^5 =
 \begin{pmatrix} \begin{pmatrix}
-0.064047 \\ +0.312208 \\ 
-0.157511 \\ +0.062704 \\ 
-0.655233 \\+0.71869 \\
 \end{pmatrix}$$ \end{pmatrix}$$
 $$x^{10} = $$x^{10} =
 \begin{pmatrix} \begin{pmatrix}
-0.062499 \\ +0.3125 \\ 
-0.156253 \\ +0.0625 \\ 
-0.15625 \\+0.71875 \\
 \end{pmatrix}$$ \end{pmatrix}$$
  
 +====Méthode de Jacobi, préconditionnementn par la diagonale====
 +
 +Soit $A = D - E - F$ avec D matrice diagonale, $-E$ matrice diagonale triangulaire inférieure de $A$, $-F$ matrice diagonale triangulaire supérieure de $A$.
 +
 +$$x^{p+1} = ((1-\varrho)I_n + \varrho D^{-1}(E+F))x^p+\varrho D^{-1}b$$
 +
 +Critère de convergence : pas besoin que $A$ dit à diagonale strictement dominante.
 +
 +<WRAP center round info 60%>
 +Todo critère chapitre 6.
 +</WRAP>
 +
 +====Méthode de Jacobi, préconditionnement par la sous matrice triangulaire inférieure====
 +Soit
 +  * $x=\sqrt{D^{-1}}y$
 +  * $\widetilde{A}=\sqrt{D^{-1}} A \sqrt{D^{-1}}$
 +  * $\widetilde{b}=\sqrt{D^{-1}}b$
 +  * $\widetilde{D} = I_n$
 +  * $E$ est à la fois la matrice diagonale et la matrice triangulaire inférieure.
 +
 +$$y^{n+1}=[I_n - \varrho (\widetilde{D} - {}^t\!\widetilde{E})^{-1}(\widetilde{D} - \widetilde{E})^{-1}\widetilde{A}]y^n + \varrho (\widetilde{D} - {}^t\!\widetilde{E})^{-1}(\widetilde{D} - \widetilde{E})^{-1}b$$
  
math/matrices/systeme_lineaire/suite.1550431782.txt.gz · Dernière modification : 2019/02/17 20:29 de root