Власний розклад матриці

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук

У лінійній алгебрі, власний розклад або спектральний розклад — це розклад матриці в канонічну форму, таким чином ми представляємо матрицю в термінах її власних значень і власних векторів. Тільки діагоналізовні матриці можна так розкласти.

Фундаментальна теорія власних векторів і значень матриці[ред.ред. код]

Докладніше: Власний вектор

Вектор (ненульовий) v розмірності N є власним вектором квадратної (N×N) матриці A тоді і тільки тоді, коли він задовольняє лінійному рівнянню

 \mathbf{A} \mathbf{v} = \lambda \mathbf{v}

де λ це скаляр, термін власне значення стосується v. Тобто, власні вектори це такі вектори, які лінійне перетворення A лише розтягує або скорочує і коефіцієнт розтягування/скорочення і є власним значенням.

Звідси походить рівняння для власних значень

 p\left(\lambda\right) := \det\left(\mathbf{A} - \lambda \mathbf{I}\right)= 0. \!\

Ми звемо p(λ) характеристичним многочленом, а рівняння називають характеристичним рівнянням, воно являє собою многочленом порядку N з невідомою λ. Це рівняння матиме Nλ відмінних розв'язків, де 1 ≤ NλN . Множину розв'язків, тобто власних значень, іноді звуть спектром A.

Ми можемо розкласти p на множники

p\left(\lambda\right)= (\lambda-\lambda_1)^{n_1}(\lambda-\lambda_2)^{n_2}\cdots(\lambda-\lambda_k)^{n_k} = 0. \!\

Ціле ni називається алгебричною кратністю власного значення λi. Сума всіх алгебраїчним кратностей дорівнює N:

\sum\limits_{i=1}^{N_{\lambda}}{n_i} =N.

Для кожного власного значення, λi, ми маємо особливе рівняння

 \left(\mathbf{A} - \lambda_i \mathbf{I}\right)\mathbf{v}  = 0. \!\

Всього буде 1 ≤ mini лінійно незалежних розв'зяків для кожного власного значення. mi розв'язків будуть власними векторами пов'язаними з власним значенням λi. Ціле mi називають геометричною кратністю λi. Важливо пам'ятати, що алгебраїчне ni і геометричне mi кратні можуть бути однаковими і різними, але завжди mini. Найпростіший випадок це коли mi = ni = 1. Загальна кількість лінійно незалежних власних векторів, Nv, можна дізнатись додавши геометричні кратності

\sum\limits_{i=1}^{N_{\lambda}}{m_i} =N_{\mathbf{v}}.

Власні вектори можна проіндексувати по їх власним значенням, тобто із використанням подвійного індексування, з vi,j, де jй власний вектор iго власного значення. Також це можна зробити з одним індексом vk, з k = 1, 2, ..., Nv.

Власний розклад матриці[ред.ред. код]

Нехай A буде квадратною (N×N) матрицею з N лінійно незалежними власними векторами, q_i \,\, (i = 1, \dots, N). Тоді A можна розкласти як

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}

де Q це квадратна (N×N) матриця чиї ith стовпчики є власними векторами q_i A і Λ це діагональна матриця чиї діагональні елементи є відповідними власними значеннями, тобто, \Lambda_{ii}=\lambda_i. Зауважте, що тільки діагоноалізовні матриці можна розкласти таким чином. Наприклад, матрицю, що на має N (2) незалежних власних векторів \begin{pmatrix}
1 & 1 \\
0 & 1 \\
\end{pmatrix} не можна діагоналізувати.

Зазвичай власні вектори q_i \,\, (i = 1, \dots, N) нормалізують, але в цьому немає потреби. Ненормалізований набір власних векторів, v_i \,\, (i = 1, \dots, N), також можна використовувати як стовпчики для Q. Це можна зрозуміти, зауваживши, що величина власних векторів у Q зникає в розкладі завдяки присутності Q−1.

Приклад[ред.ред. код]

Якщо за приклад для декомпозиції через множення на несингулярну матрицю \mathbf{B} = \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix}, [a, b, c, d] \in \mathbb{R} в діагональну матрицю взяти дійсну матрицю \mathbf{A} = \begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix}.

Тоді

\begin{bmatrix}
a & b \\ c & d \\ \end{bmatrix}^{-1} \begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix} \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix} = \begin{bmatrix} x & 0 \\ 0 & y \\ \end{bmatrix}, для деякої дійсної діагональної матриці \begin{bmatrix} x & 0 \\ 0 & y \\ \end{bmatrix}.

Перенесемо \mathbf{B} на правий бік:

\begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix} \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix} = \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix} \begin{bmatrix} x & 0 \\ 0 & y \\ \end{bmatrix}

Попереднє рівняння можна рознести в систему з двох рівнянь:

 \begin{cases} \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = \begin{bmatrix} ax \\ cx \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = \begin{bmatrix} by \\ dy \end{bmatrix} \end{cases}

Винесемо власні значення x і y:

 \begin{cases} \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = x\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = y\begin{bmatrix} b \\ d \end{bmatrix} \end{cases}

Поклавши \overrightarrow{a} = \begin{bmatrix} a \\ c \end{bmatrix}, \overrightarrow{b} = \begin{bmatrix} b \\ d \end{bmatrix}, отримаємо два векторних рівняння:

 \begin{cases} A \overrightarrow{a} = x \overrightarrow{a} \\ A \overrightarrow{b} = y \overrightarrow{b} \end{cases}

І це можна представити як одне векторне рівняння, яке маж два розв'язки як власні значення:

\mathbf{A} \mathbf{u} = \lambda \mathbf{u}

де  \lambda представляє два власних значення x і y,  \mathbf{u} представляє вектори \overrightarrow{a} і \overrightarrow{b}.

Перенесемо \lambda \mathbf{u} ліворуч і винесемо за дужки  \mathbf{u}

 (\mathbf{A}-\lambda \mathbf{I}) \mathbf{u} = 0

Через те, що \mathbf{B} несингулярна, тут важливо, що \mathbf{u} не нуль,

 (\mathbf{A}-\lambda \mathbf{I}) = \mathbf{0}

Розглядаючи визначник (\mathbf{A}-\lambda \mathbf{I}),

 \begin{bmatrix} 1- \lambda & 0\\ 1 & 3- \lambda \end{bmatrix} =0

Отже

(1- \lambda)(3- \lambda)=0

Отримавши  \lambda=1 і  \lambda=3 як розв'язки власних значень для матриці \mathbf{A}, маємо в результаті діагональну матрицю \begin{bmatrix} 1 & 0 \\ 0 & 3 \end{bmatrix} власного розкладу \mathbf{A}.

Впишемо розв'язки в систему рівнянь

 \begin{cases} \begin{bmatrix} 1 & 0 \\ 1 & 3 \end{bmatrix} \begin{bmatrix} a \\ c \end{bmatrix} = 1\begin{bmatrix} a \\ c \end{bmatrix} \\ \begin{bmatrix} 1 & 0\\ 1 & 3 \end{bmatrix} \begin{bmatrix} b \\ d \end{bmatrix} = 3\begin{bmatrix} b \\ d \end{bmatrix} \end{cases}

Розв'язавши рівняння ми маємо a= -2c, a\in \mathbb{R} and b=0, b\in \mathbb{R}

Отже матриця \mathbf{B} потрібна для власного розкладу матриці \mathbf{A} є \begin{bmatrix} -2c & 0 \\ c & d \end{bmatrix}, [c, d]\in \mathbb{R} . тобто :

\begin{bmatrix}
-2c & 0 \\ c & d \\ \end{bmatrix}^{-1} \begin{bmatrix} 1 & 0 \\ 1 & 3 \\ \end{bmatrix} \begin{bmatrix} -2c & 0 \\ c & d \\ \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 3 \\ \end{bmatrix}, [c, d]\in \mathbb{R}

Обернена матриця через власний розклад[ред.ред. код]

Докладніше: Обернена матриця

Якщо матриця A має власний розклад і якщо жодне з її власних значень не дорівнює нулю, тоді A — несингулярна, тобто моє обернену і обернена задається так

\mathbf{A}^{-1}=\mathbf{Q}\mathbf{\Lambda}^{-1}\mathbf{Q}^{-1}

Далі більше, через те, що Λ діагональна, її обернену дуже легко обчислити:

\left[\Lambda^{-1}\right]_{ii}=\frac{1}{\lambda_i}

Посилання[ред.ред. код]

Weisstein, Eric W. Власний розклад матриці(англ.) на сайті Wolfram MathWorld.