math:matrices:systeme_lineaire:suite
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
math:matrices:systeme_lineaire:suite [2019/02/17 20:29] – [Méthode de sur-relaxation de Gauss-Seidel] : ajout d'une note root | math:matrices:systeme_lineaire:suite [2020/04/27 08:04] (Version actuelle) – Conversion de <note> vers <WRAP> root | ||
---|---|---|---|
Ligne 2: | Ligne 2: | ||
* Si une suite converge dans un espace vectoriel (ex. $\|x\|_2$ ou $|||A|||_2$), | * Si une suite converge dans un espace vectoriel (ex. $\|x\|_2$ ou $|||A|||_2$), | ||
- | * La suite $x^{p+1} = S x^p + d$ converge si le rayon spectral de S (plus grande valeur propre) est inférieur à 1. | + | * La suite $x^{p+1} = S x^p + d$ converge si le rayon spectral de S (plus grande valeur propre |
* Soit $A = M - N$, la suite $x^{p+1} = M^{-1} N x^p + M^{-1} b$ converge si $M + {}^t\!N$ est définie positive. | * Soit $A = M - N$, la suite $x^{p+1} = M^{-1} N x^p + M^{-1} b$ converge si $M + {}^t\!N$ est définie positive. | ||
Ligne 346: | Ligne 346: | ||
\end{pmatrix}$$ | \end{pmatrix}$$ | ||
- | ====Méthode de sur-relaxation de Gauss-Seidel==== | + | ====Méthode de sur-relaxation de Southwell==== |
On garde les mêmes hypothèses que la relaxation de Gauss-Seidel. | On garde les mêmes hypothèses que la relaxation de Gauss-Seidel. | ||
Ligne 352: | Ligne 352: | ||
$$x^{p+1} = \left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) x^p + \left(\frac{D}{\omega}-E \right)^{-1} b$$ | $$x^{p+1} = \left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) x^p + \left(\frac{D}{\omega}-E \right)^{-1} b$$ | ||
- | $$\omega = \frac{2}{1+\sqrt{1-\varrho(J)^2}}$ avec $J = D^{-1}(E+F)$$ | + | $\omega = \frac{2}{1+\sqrt{1-\varrho(J)^2}}$ avec $J = D^{-1}(E+F)$. Cette formule n'est valable |
- | <note important> | + | |
Critère de convergence : | Critère de convergence : | ||
Ligne 366: | Ligne 365: | ||
A = | A = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
- | 3 & 1 & 1 \\ | + | 3 & 1 & 0 \\ |
1 & 4 & 2 \\ | 1 & 4 & 2 \\ | ||
- | 1 & 2 & 4 | + | 0 & 2 & 4 |
\end{pmatrix} | \end{pmatrix} | ||
$$ | $$ | ||
Ligne 383: | Ligne 382: | ||
$$x = | $$x = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
+ | 0.3125 \\ | ||
0.0625 \\ | 0.0625 \\ | ||
- | 0.15625 \\ | + | 0.71875 \\ |
- | 0.65625 | + | |
\end{pmatrix}$$ | \end{pmatrix}$$ | ||
+ | |||
+ | Les valeurs propres A sont : 1.60862, 3.22713 et 6.16425. Elles sont toutes supérieures à 0. | ||
$$J = | $$J = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
- | | + | |
-0.25 & 0 & -0.5 \\ | -0.25 & 0 & -0.5 \\ | ||
- | -0.25 & -0.5 & 0 \\ | + | 0 & -0.5 & 0 \\ |
\end{pmatrix}$$ | \end{pmatrix}$$ | ||
- | Les valeurs propres J sont : -0.728714, 0.228714 | + | Les valeurs propres J sont : -0.57735, 0 et 0.57735. Le rayon spectral vaut 0.57735. |
- | $$\omega = \frac{2}{1+\sqrt{1-0.728714^2}} = 1.18707$$ | + | $$\omega = \frac{2}{1+\sqrt{1-0.57735^2}} = 1.10102$$ |
$$\left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) = | $$\left(\frac{D}{\omega}-E \right)^{-1} \left(F + \frac{1-\omega}{\omega} D \right) = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
- | -0.187072 | + | -0.10102 & -0.367007 |
- | 0.055517 | + | 0.027806 |
- | 0.022566 | + | -0.015308 |
\end{pmatrix} | \end{pmatrix} | ||
$$ | $$ | ||
Ligne 409: | Ligne 410: | ||
$$\left(\frac{D}{\omega}-E \right)^{-1} b = | $$\left(\frac{D}{\omega}-E \right)^{-1} b = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
- | 0.395691 | + | 0.367007 |
- | 0.476108 | + | 0.44949 \\ |
- | 0.490289 | + | 0.578317 |
\end{pmatrix}$$ | \end{pmatrix}$$ | ||
Ligne 422: | Ligne 423: | ||
$$x^1 = | $$x^1 = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
- | 0.395691 | + | 0.367007 |
- | 0.476108 | + | 0.44949 \\ |
- | 0.490289 | + | 0.578317 |
\end{pmatrix}$$ | \end{pmatrix}$$ | ||
$$x^5 = | $$x^5 = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
- | 0.064047 | + | 0.312208 |
- | 0.157511 | + | 0.062704 |
- | 0.655233 | + | 0.71869 \\ |
\end{pmatrix}$$ | \end{pmatrix}$$ | ||
$$x^{10} = | $$x^{10} = | ||
\begin{pmatrix} | \begin{pmatrix} | ||
- | 0.062499 | + | 0.3125 \\ |
- | 0.156253 | + | 0.0625 \\ |
- | 0.15625 \\ | + | 0.71875 \\ |
\end{pmatrix}$$ | \end{pmatrix}$$ | ||
+ | ====Méthode de Jacobi, préconditionnementn par la diagonale==== | ||
+ | |||
+ | Soit $A = D - E - F$ avec D matrice diagonale, $-E$ matrice diagonale triangulaire inférieure de $A$, $-F$ matrice diagonale triangulaire supérieure de $A$. | ||
+ | |||
+ | $$x^{p+1} = ((1-\varrho)I_n + \varrho D^{-1}(E+F))x^p+\varrho D^{-1}b$$ | ||
+ | |||
+ | Critère de convergence : pas besoin que $A$ dit à diagonale strictement dominante. | ||
+ | |||
+ | <WRAP center round info 60%> | ||
+ | Todo critère chapitre 6. | ||
+ | </ | ||
+ | |||
+ | ====Méthode de Jacobi, préconditionnement par la sous matrice triangulaire inférieure==== | ||
+ | Soit | ||
+ | * $x=\sqrt{D^{-1}}y$ | ||
+ | * $\widetilde{A}=\sqrt{D^{-1}} A \sqrt{D^{-1}}$ | ||
+ | * $\widetilde{b}=\sqrt{D^{-1}}b$ | ||
+ | * $\widetilde{D} = I_n$ | ||
+ | * $E$ est à la fois la matrice diagonale et la matrice triangulaire inférieure. | ||
+ | |||
+ | $$y^{n+1}=[I_n - \varrho (\widetilde{D} - {}^t\!\widetilde{E})^{-1}(\widetilde{D} - \widetilde{E})^{-1}\widetilde{A}]y^n + \varrho (\widetilde{D} - {}^t\!\widetilde{E})^{-1}(\widetilde{D} - \widetilde{E})^{-1}b$$ | ||
math/matrices/systeme_lineaire/suite.1550431782.txt.gz · Dernière modification : 2019/02/17 20:29 de root