Как найти подобную матрицу

Подобие числовых матриц

Квадратные матрицы A и B n-го порядка называются подобными, если существует такая невырожденная матрица S~(det{S}ne0), что

B=S^{-1}cdot Acdot S.

Преобразование матрицы A по формуле S^{-1}AS называется преобразованием подобия, а матрица Sпреобразующей.

Свойства подобных матриц

1. Каждая квадратная матрица подобна самой себе: A=E^{-1}AE.

2. Если матрица B подобна матрице A, то и A подобна B:

B=S^{-1}cdot Acdot S~~Leftrightarrow~~A=T^{-1}cdot Bcdot T при T=S^{-1}.

3. Если матрица A подобна матрице B, а B подобна C, то A подобна C:

left.{begin{gathered}A=S^{-1}cdot Bcdot S\ B=T^{-1}cdot Ccdot Tend{gathered}}right}~ Rightarrow~~A=P^{-1}cdot Bcdot P, где P=Tcdot S.

4. Подобие является частным случаем эквивалентных преобразований.

5. В случае ортогональности преобразующей матрицы подобные матрицы являются конгруэнтными.

Поясним свойства 4, 5. Напомним, что эквивалентные матрицы связаны соотношением B=SAT, где S и T — невырожденные (элементарные) матрицы. Если T=S^{-1}, то получаем преобразование подобия B=SAS^{-1}Leftrightarrow A=S^{-1}BS. Если же матрица S ортогональная (S^{-1}=S^T), то подобные матрицы, связанные равенством B=S^{-1}AS, оказываются конгруэнтными, так как B=S^TAS.

Подобные матрицы возникают во многих алгебраических задачах при замене переменных. Например, при решении системы уравнений Ax=b с невырожденной квадратной матрицей A можно сделать линейную замену неизвестных: ввести столбец y — новых неизвестных (x=Sy) и новый столбец свободных членов с (b=Sc), для которых система уравнений будет выглядеть так

Acdot Scdot y=Scdot c или S^{-1}cdot Acdot Scdot y=c.

Матрица S^{-1}AS=Lambda полученной системы подобна матрице исходной системы. Например, если в результате преобразования подобия полученная матрица Lambda имеет диагональный вид: Lambda=operatorname{diag} (lambda_1,ldots,lambda_n), то решение системы Lambda y=c находится просто: y_1=frac{c_i}{lambda_i} i=1,ldots,n, после чего нетрудно вычислить и решение исходной системы x=Sy.


Приведение матрицы к диагональному виду при помощи преобразования подобия

Рассмотрим задачу приведения квадратной матрицы A к диагональному виду Lambda=operatorname{diag} (lambda_1,lambda_2,ldots,lambda_n) при помощи преобразования подобия.

Теорема 7.5 о приведении матрицы к диагональному виду. Для того чтобы квадратная матрица A n-го порядка приводилась к диагональному виду Lambda=S^{-1}AS, необходимо и достаточно, чтобы она имела n линейно независимых собственных векторов.

Действительно, запишем равенство Lambda=S^{-1}AS в виде SLambda=AS, т.е.

ScdotLambda=begin{pmatrix}s_{11}&cdots&s_{1n}\vdots&ddots&vdots\s_{n1}&cdots&s_{nn}end{pmatrix}!cdot! begin{pmatrix} lambda_1&cdots&0\ vdots&ddots&vdots\ 0&cdots&lambda_n end{pmatrix}= begin{pmatrix} a_{11}&cdots&a_{1n}\ vdots&ddots&vdots\ a_{n1}&cdots&a_{nn} end{pmatrix}!cdot! begin{pmatrix} s_{11}&cdots&s_{1n}\ vdots&ddots& vdots\ s_{n1}&cdots&s_{nn}end{pmatrix}= Acdot S

или begin{pmatrix}s_1&cdots& s_nend{pmatrix}! cdotLambda=Acdot! begin{pmatrix} s_1&cdots&s_n end{pmatrix}, где s_1,ldots,s_n — столбцы матрицы S. Отсюда получаем систему уравнений для столбцов s_i матрицы S:

Acdot s_i=lambda_icdot s_i,quad i=1,2,ldots,n.

(7.18)

Поэтому, если матрицу A можно привести преобразованием подобия к диагональному виду Lambda=S^{-1}AS, то для столбцов матрицы S выполняются равенства (7.18), т.е. столбцы s_i являются собственными векторами матрицы A, причем они линейно независимы, так как матрица S невырожденная. Необходимость доказана. Пусть, наоборот, матрица A имеет n линейно независимых собственных векторов s_i, удовлетворяющих (7.18). Тогда, составив из них матрицу S, получим для нее равенство SLambda=AS, равносильное (7.18). Учитывая, что матрица S невырожденная (из-за линейной независимости ее столбцов), получаем Lambda=S^{-1}AS, т.е. матрица A подобна диагональной. Достаточность доказана.

Следствие 1. Если матрица имеет простой спектр, то она приводится к диагональному виду.

Действительно, в этом случае по свойству 1 собственных векторов все собственные векторы будут линейно независимы.

Следствие 2. Если матрица A приводится к диагональному виду Lambda=S^{-1}AS=operatorname{diag}(lambda_1,lambda_2,ldots,lambda_n), то числа lambda_1,lambda_2,ldots,lambda_n (среди которых могут быть равные) являются собственным значениями матрицы A, а столбцы s_1,ldots,s_n преобразующей матрицы S=begin{pmatrix}s_1&cdots&s_nend{pmatrix} являются соответствующими собственными векторами матрицы A.

Следствие 3. Если s_1,ldots,s_n — линейно независимые собственные векторы матрицы A, соответствующие ее собственным значениям lambda_1,lambda_2,ldots,lambda_n (среди которых могут быть равные), то матрица A приводится к диагональному виду Lambda=S^{-1}AS= operatorname{diag} (lambda_1,lambda_2,ldots,lambda_n) при помощи преобразующей матрицы S=begin{pmatrix}s_1&cdots&s_nend{pmatrix}, составленной из собственных векторов.

Чтобы привести квадратную матрицу A (n-го порядка) к диагональному виду при помощи преобразования подобия Lambda=S^{-1}AS и найти преобразующую матрицу S, нужно выполнить следующие действия.

1. Найти л линейно независимых собственных векторов s_1,ldots,s_n матрицы A (при этом использовать алгоритм в разд. 7.2.1 с учетом пункта 2 замечаний 7.5).

2. Из собственных векторов s_1,ldots,s_n составить преобразующую матрицу S=begin{pmatrix}s_1&cdots&s_nend{pmatrix} (см. следствие 3 теоремы 7.5).

3. По собственным значениям матрицы A составить матрицу Lambda= operatorname{diag} (lambda_1,lambda_2,ldots,lambda_n) — диагональный вид матрицы A. Иначе матрицу Lambda можно найти, выполняя преобразование подобия Lambda=S^{-1}AS.


Пример 7.9. Привести данные матрицы к диагональному виду и найти соответствующие преобразующие матрицы:

A=begin{pmatrix}1&-2\3&8end{pmatrix}!,qquad B=begin{pmatrix} 1&-4\1&1 end{pmatrix}!,qquad C=begin{pmatrix}4&4\-1&0end{pmatrix}!.

Решение. Матрица A. 1. Собственные векторы и собственные значения этой матрицы были найдены в примере 7.8. Для собственных значений lambda_1=2 и lambda_2=7 возьмем соответствующие собственные векторы (полагая C_1=1,~C_2=3): s_1=begin{pmatrix}-2\1end{pmatrix}!,~ s_2=begin{pmatrix}-1\3end{pmatrix}. Эти столбцы линейно независимы (по свойству 1 собственных векторов).

2. Составляем из собственных векторов преобразующую матрицу S=begin{pmatrix} s_1&s_2end{pmatrix}=begin{pmatrix} -2&-1\1&3 end{pmatrix}.

3. Находим диагональный вид Lambda матрицы A, выполняя преобразование подобия:

begin{aligned}Lambda=S^{-1}AS&= begin{pmatrix}-2&-1\1&3end{pmatrix}^{-1}cdot! begin{pmatrix}1&-2\3&8end{pmatrix}!cdot! begin{pmatrix}-2&-1\1&3end{pmatrix}= frac{1}{-5}!begin{pmatrix}3&1\-1&-2end{pmatrix}!cdot! begin{pmatrix}1&-2\3&8 end{pmatrix}!cdot! begin{pmatrix}-2&-1\1&3end{pmatrix}=\[2pt] &= -frac{1}{5}! begin{pmatrix} 6&2\-7&-14end{pmatrix}!cdot! begin{pmatrix}-2&-1\1&3end{pmatrix}= begin{pmatrix}2&0\0&7end{pmatrix}!.end{aligned}

На главной диагонали (согласно следствию 2 теоремы 7.5) стоят собственные значения матрицы A.

Преобразующую матрицу можно было составить по-другому: S'=begin{pmatrix}s_2&s_1 end{pmatrix}=begin{pmatrix}-1&-2\3&1end{pmatrix}. Тогда в результате преобразования подобия получили бы диагональную матрицу Lambda'=(S')^{-1}AS'=operatorname{diag}(7;2).

Матрица B. 1. Собственные векторы и собственные значения этой матрицы были найдены в примере 7.8. Для собственных значений lambda_1=1+2i и lambda_2=1-2i возьмем соответствующие собственные векторы (полагая C_1=1,~ C_2=1): s_1=begin{pmatrix}2i\1end{pmatrix}!,~s_2=begin{pmatrix}-2i\1 end{pmatrix}. Эти столбцы линейно независимы, поэтому матрицу B можно привести к диагональному виду.

2. Составляем из собственных векторов преобразующую матрицу S=begin{pmatrix} s_1&s_2end{pmatrix}=begin{pmatrix} 2i&-2i\1&1 end{pmatrix}. Выполняем преобразование подобия

begin{aligned}Lambda=S^{-1}BS&= begin{pmatrix}2i&-2i\1&1end{pmatrix}^{-1}cdot! begin{pmatrix}1&-4\1&1end{pmatrix}!cdot! begin{pmatrix}2i&-2i\1&1end{pmatrix}= frac{1}{4i}! begin{pmatrix}1&2i\-1&2iend{pmatrix}! cdot! begin{pmatrix}1&-4\1&1end{pmatrix}!cdot! begin{pmatrix}2i&-2i\ 1&1end{pmatrix}= \[2pt] &=frac{1}{4i}! begin{pmatrix}1&2i\-1&2iend{pmatrix}!cdot! begin{pmatrix}-4+2i&-4-2i\ 1+2i&1-2i end{pmatrix}= frac{1}{4i}! begin{pmatrix}-8+4i&0\0&8+4iend{pmatrix}= begin{pmatrix}1+2i&0\0&1-2iend{pmatrix}!.end{aligned}

На главной диагонали матрицы Lambda стоят (согласно следствию 2 теоремы 7.5) собственные значения матрицы B.

Матрица C. Найдем собственные векторы матрицы C, используя алгоритм, изложенный в разд.7.2.1.

1. Составляем характеристический многочлен Delta_{C}(lambda)= begin{vmatrix}4-lambda&4\-1&-lambdaend{vmatrix}= lambda^2-4 lambda+4=(lambda-2)^2.

2. Решаем характеристическое уравнение (lambda-2)^2=0~Rightarrow~lambda=2.

3. Для собственного значения lambda=2 составляем однородную систему уравнений (C-2E)x=o, которую решаем методом Гаусса. Приводим расширенную матрицу системы к упрощенному виду

begin{pmatrix}C-2Emid oend{pmatrix}= begin{pmatrix}2&4!!&vline!!&0\ -1&-2!!&vline!!&0end{pmatrix}sim begin{pmatrix}1&2!!&vline!!&0\ -1&-2!!&vline!!&0end{pmatrix}sim begin{pmatrix}1&2!!&vline!!&0\ 0&0!!&vline!!&0end{pmatrix}!.

Ранг матрицы равен единице (r=1), количество неизвестных n=2. Поэтому фундаментальная система решений содержит n-r=1 решение. Выражаем базисную переменную x_1 через свободную: x_1=-2x_2. Полагая x_2=1, находим решение varphi_1=begin{pmatrix}-2\1end{pmatrix}.

4. Все собственные векторы, соответствующие собственному значению lambda=2, имеют вид s=C_1varphi_1=C_1! begin{pmatrix}-2\1end{pmatrix}, где C_1 — произвольная постоянная. отличная от нуля.

Как видим, матрица C второго порядка имеет только один линейно независимый собственный вектор, поэтому ее нельзя привести к диагональному виду при помощи преобразования подобия.


Пример 7.10. Привести матрицу A=begin{pmatrix}1&1&1\1&1&1\ 1&1&1 end{pmatrix} к диагональному виду и найти соответствующую преобразующую матрицу. Найти выражение для степени A^m с натуральным показателем minmathbb{N}.

Решение. 1. Собственные векторы и собственные значения этой матрицы были найдены в примере 7.8. Выберем три линейно независимых собственных вектора (см. пример 7.8):

s_1=begin{pmatrix}1\0\-1end{pmatrix}!,qquad s_2=begin{pmatrix}1\-1\0 end{pmatrix}!,qquad s_3=begin{pmatrix}1\1\1end{pmatrix}!.

Векторы s_1 и s_2 соответствуют собственному значению lambda=0, вектор s_3 -собственному значению lambda=3.

2, 3. Составляем из этих собственных векторов преобразующую матрицу S, при помощи которой матрица A приводится к диагональному виду Lambda:

Lambda=S^{-1}cdot Acdot S= begin{pmatrix}0&0&0\ 0&0&0\ 0&0&3 end{pmatrix}!,qquad S=begin{pmatrix}1&1&1\0&-1&1\ -1&0&1end{pmatrix}!.

Найдем m-ю степень матрицы A, учитывая, что A=SLambda S^{-1}:

A^m=begin{pmatrix}ScdotLambdacdot S^{-1}end{pmatrix}^m= underbrace{SLambda S^{-1}cdot SLambda S^{-1}cdotldotscdot SLambda S^{-1}}_{m}= ScdotLambda^mcdot S^{-1}.

Нетрудно получить степень Lambda^m диагональной матрицы, так как произведение диагональных матриц является диагональной матрицей:

Lambda^m= begin{pmatrix} 0&0&0\0&0&0\0&0&3^m end{pmatrix}!.

Следовательно,

begin{aligned}A^m&=ScdotLambda^mcdot S^{-1}= begin{pmatrix}1&1&1\0&-1&1\-1&0&1end{pmatrix}!cdot! begin{pmatrix}0&0&0\0&0&0\0&0&3^m end{pmatrix}!cdot! begin{pmatrix}1&1&1\0&-1&1\-1&0&1end{pmatrix}^{-1}=\[2pt] &=begin{pmatrix} 0&0&3^m\0&0&3^m\ 0&0&3^mend{pmatrix} !cdotfrac{1}{3}! begin{pmatrix}-1&-1&2\ -1&2&-1\ -1&-1&-1end{pmatrix}= frac{1}{3}! begin{pmatrix}3^m&3^m&3^m\ 3^m& 3^m&3^m\ 3^m&3^m&3^mend{pmatrix}= 3^{m-1}! begin{pmatrix}1&1&1\1&1&1\ 1&1&1 end{pmatrix}!.end{aligned}


Связь подобия числовых матриц с эквивалентностью их характеристических матриц

Получим необходимое и достаточное условие подобия числовых квадратных матриц A и B n-го порядка. Напомним, что с этими числовыми матрицами связаны λ-матрицы (A-lambda E) и (B-lambda E), которые называются характеристическими. Две λ-матрицы называются эквивалентными, если одна из них получена из другой при помощи элементарных преобразований. Согласно пункту 6 замечаний 7.4, если λ-матрицы A(lambda) и B(lambda) эквивалентны, то существуют такие обратимые λ-матрицы S(lambda) и T(lambda), что B(lambda)= S(lambda)A(lambda)T(lambda).


Критерий подобия числовых матриц

Теорема 7.6 (критерий подобия числовых матриц). Для того чтобы числовые матрицы A и B были подобными необходимо и достаточно, чтобы их характеристические λ-матрицы (A-lambda E) и (B-lambda E) были эквивалентны.

В самом деле, если числовые матрицы подобны, т.е. B=S^{-1}AS, то

B-lambdacdot E=S^{-1}cdot Acdot S-lambdacdot S^{-1}cdot Ecdot S=S^{-1}cdot(A-lambdacdot E)cdot S.

Значит, характеристические матрицы эквивалентны, так как числовую матрицу S можно считать частным случаем λ-матрицы, а невырожденная числовая матрица является элементарной (следствие 3 теоремы 3.3). Необходимость доказана.

Для доказательства достаточности запишем условие эквивалентности λ-матриц (A-lambda E) и (B-lambda E):

B-lambdacdot E=S(lambda)cdot(A-lambdacdot E)cdot T(lambda).

Перепишем равенство в виде

S^{-1}(lambda)cdot(B-lambdacdot E)=(A-lambdacdot E)cdot T(lambda).

(7.19)

Разделим λ-матрицу S^{-1}(lambda) слева на (A-lambda E), а λ-матрицу T(lambda) справа на (B-lambda E):

S^{-1}(lambda)=(A-lambda E)cdot S_1(lambda)+S_0;quad T(lambda)=T_1(lambda)cdot (B-lambda E)+T_0.

(7.20)

Здесь остатки S_0 и T_0 — обратимые числовые матрицы, так как S^{-1}(lambda) и T(lambda) — обратимые λ-матрицы (см. пункт 3 замечаний 7.3). Подставим выражения (7.20) в (7.19):

Bigl[(A-lambda E)cdot S_1(lambda)+S_0Bigr]cdot(B-lambda E)= (A-lambda E)cdotBigl[T_1(lambda)cdot(B-lambda E)+T_0Bigr].

Преобразуем равенство

(A-lambda E)cdotBigl[S_1(lambda)-T_1(lambda)Bigr]cdot(B-lambda E)= (A-lambda E)cdot T_0-S_0cdot(B-lambda E).

Отсюда следует, что S_1(lambda)=T_1(lambda), в противном случае равенство ложное, так как степень многочлена в левой части не менее второй, а в правой части — не более первой. При S_1(lambda)=T_1(lambda) получаем

S_0cdot(B-lambdacdot E)=(A-lambdacdot E)cdot T_0

(7.21)

Сравнивая это равенство с (7.19), делаем вывод, что λ-матрицы S^{-1}(lambda) и T(lambda) в (7.19) можно заменить числовыми матрицами S_0 и T_0. Приравнивая в (7.21) коэффициенты при одинаковых степенях lambda, находим

S_0=T_0,qquad Acdot T_0=S_0cdot B.

(7.22)

Следовательно, B=S_0^{-1}AS_0, т.е. матрицы A и B подобны.

Следствие. Если матрицы A и B подобны, т.е. B=S_0^{-1}AS_0, то в качестве преобразующей матрицы S_0 можно взять матрицу S_0=S_{text{left}}^{-1}(B)=T_{text{right}}(B) — левое или правое значения соответствующих λ-матриц из равенства

B-lambdacdot E=S(lambda)cdot(A-lambdacdot E)cdot T(lambda).

(7.23)

В самом деле, из доказательства теоремы следует, что λ-матрицы в (7.23) можно заменить числовыми матрицами:

B-lambdacdot E=S_0^{-1}cdot(A-lambdacdot E)cdot T_0,

где преобразующая матрица T_0 согласно (7.20) равна правому остатку при делении T(lambda) на (B-lambda E), который по теореме Безу равен правому значению T_{text{right}}(B). Учитывая (7.22), получаем S_0=T_0=T_{text{right}}(B). Равенство S_0=S_{text{left}}^{-1}(B) доказывается аналогично на основании теоремы Безу.

Математический форум (помощь с решением задач, обсуждение вопросов по математике).

Кнопка "Поделиться"

Если заметили ошибку, опечатку или есть предложения, напишите в комментариях.

Квадратные матрицы A и B одинакового порядка называются подобными,
если существует невырожденная матрица P того же порядка, такая что:

{displaystyle B=P^{-1}AP.}

Подобные матрицы получаются при задании одного и того же линейного преобразования матрицей в разных координатных системах; при этом матрица Р является матрицей перехода от одной системы к другой.

Если две матрицы подобны, то говорят, что одна из матриц может быть получена преобразованием подобия из другой. Если при этом одна из матриц диагональная, то про вторую матрицу говорят, что она может быть диагонализована.

Свойства[править | править код]

Отношение подобности матриц является отношением эквивалентности в пространстве квадратных матриц.

У подобных матриц совпадают многие характеристики, а именно:

  • ранг
  • определитель
  • след
  • собственные значения (но собственные векторы могут не совпадать)
  • характеристический многочлен
  • Жорданова форма с точностью до перестановки клеток

Можно доказать, что любая матрица A подобна AT.

Канонические формы подобных матриц[править | править код]

Часто возникает вопрос, насколько сильно можно упростить вид заданного линейного преобразования путём замены базиса (т.е. системы координат). Поскольку получающиеся при этом матрицы подобны, то это то же самое, что и поиск некоторой канонической формы матрицы в классе эквивалентности матриц, подобных матрице этого линейного преобразования.

Простейшей такой формой была бы, конечно, диагональная матрица, но не все матрицы могут быть приведены к диагональному виду (важное исключение составляют симметричные действительные и эрмитовы матрицы, которые всегда могут быть диагонализованы).

Существует несколько более сложных канонических форм матриц, к которым может быть приведена любая матрица преобразованием подобия:

  • Жорданова нормальная форма
  • Фробениусова нормальная форма

Литература[править | править код]

  • См. список литературы по линейной алгебре

Определение.
Пусть

– две квадратные матрицы n-го
порядка над полем K. Матрица
А называется подобной матрице В над
полем K, если существует
невырожденная матрица

,
такая что

.

Обозначение.
Если матрица А подобна матрице В над
полем K, то будем это
обозначать

или еще проще

.

Теорема.
Отношение подобия есть
отношение эквивалентности, т.е.:

1)
подобие матриц рефлексивно,


,

;

2)
подобие матриц симметрично,


;

3)
подобие матриц трназитивно,


.

Используя
понятие подобия, 4-е свойство
характеристического многочлена можно
сформулировать следующим образом.

Теорема
(об инвариантности характеристического
многочлена). Характеристические
многочлены подобных матриц равны.

Следствие.
Подобные матрицы имеют одинаковый след
и равные определители.

Также, можно дать
следующее определение диагонализируемой
матрицы.

Определение.
Матрица

называется диагонализируемой над полем
K, если она подобна над
полем K диагональной.

Легко
доказать равносильность этого и
предыдущего определения диагонализируемости
матрицы А.

П.5. Простые и кратные корни многочлена.

В
дальнейшем нам понадобится понятие
простого и кратного корня многочлена
f(x) от одной
переменной х.

Для
простоты, будем полагать, что все
коэффициенты многчлена f(x)
лежат в поле комплексных чисел С, т.е.
являются действительными или комплексными
числами. В этом случае, в силу основной
теоремы алгебры, многочлен раскладывается
на линейные множители:


,

где

– старший коэффициент этого многочлена,

– все его корни. Среди корней могут быть
как действительные числа, так и
комплексные, как равные, так и различные.
Пусть

– все попарно различные корни многочлена
f(x). Тогда
многочлен f(x)
можно записать в виде


,

где

.

Определение.
Разложение многочлена

,

где

– все его попарно различные корни,
называется каноническим разложением
над полем комплексных чисел. Степень

называется кратностью корня

,

.
Если

,
то корень

называется простым, в противном случае
– кратным, кратности

.

Пример.
Найти кратность каждого корня многочлена


.

Ответ:

– кратный корень кратности 3;

– простые корни, корни кратности 1.

П.5. Признаки диагонализируемости матрицы (линейного оператора).

Лемма
1.
Различным собственным числам
линейного оператора соответствуют его
различные собственные векторы.

Доказательство.
Пусть

произвольный линейный оператор
произвольного векторного пространства
V над полем K.
Пусть далее

два различных собственных числа линейного
оператора f,

– соответствующие собственные векторы
оператора f:

.
Докажем, что

.

Допустим противное.
Пусть

.
Тогда

и

,
откуда следует,что


.

Так
как u – собственный
вектор, то

и следовательно,

,
что противоречит нашему условию.

Лемма
доказана.

Следствие.
Если

– два различных собственных числа
матрицы А, то

.

Лемма
2.
Пусть

– система из собственных векторов
линейного оператора, отвечающих
соответственно его попарно различным
собственным числам:

.
Тогда система

является линейно независимой.

Доказательство.
Проведем индукцию по числу векторов в
системе.

База
индукции. Пусть

,
тогда система из одного собственного
вектора

является линейно независимой, так как

.

Индукционная
гипотеза. Пусть лемма верна, когда число
векторов в системе равно k.

Индукционный
переход. Докажем, что лемма верна, когда
число векторов в системе равно

.

Допустим, что
система собственных векторов

является линейно зависимой. Тогда это
линейно зависимая система ненулевых
векторов, в которой, по индукционной
гипотезе, векторы

образуют линейно независимую подсистему.
Отсюда следует, что вектор

линейно выражается через предыдущие
векторы этой системы, т.е. существует
такой набор скаляров

,
что


.
(1)

В
силу линейности оператора f
из этого равенства следует, что


.

С
другой стороны,

– собственные векторы оператора f,
т.е.


,

откуда
получаем


.

Вычтем
из этого равенства равенство (1), умноженное
на скаляр

.
Получаем:


.

Так
как система

линейно независимая, то все коэффициенты
этой линейной комбинации равны нулю:


.

Но,
по условию, собственные числа

попарно различные, откуда следует, что


.

Из
равенства (1) следует, что
,
что противоречит тому, что вектор

является собственным вектором. Полученное
противоречие доказывает лемму.

Лемма
доказана.

Теорема.
(Достаточный признак диагонализируемости
матрицы.) Если среди корней характеристического
многочлена матрицы нет кратных, то
матрица является диагонализируемой.

Доказательство.
Если все корни

характеристического многочлена

матрицы А простые, то они попарно
различные и каноническое разложение
над полем комплексных чисел имеет вид:


.

Пусть

– собственный вектор матрицы А, отвечающий
собственному числу

.
Тогда, система

является линейно независимой системой
столбцов пространства

,
т.е. является базисом этого пространства.
Следовательно, по первому необходимому
и достаточному признаку диагонализируемости,
матрица А является диагонализируемой,
ч.т.д.

Теорема
доказана.

Определение.
Кратность собственного числа

матрицы, как корня ее характеристического
многочлена, называется алгебраической
кратностью собственного числа

.

Определение.
Пусть

– собственное число матрицы,

– соответствующее собственное
подпространство. Тогда размерность
подпространства

называется геометрической кратностью
собственного числа

.

Обозначение.
Пусть

– собственное число матрицы. Его
алгебраическую кратность будем обозначать

,
а его геометрическую кратность –

.

Теорема.
(Второй необходимый и достаточный
признак диагонализируемости матрицы.)
Для того, чтобы матрица была
диагонализируемой, необходимо и
достаточно, чтобы для каждого её
собственного числа

его алгебраическая кратность была равна
его геометрической кратности:


.

Доказательство.
Необходимость примем без доказательства
и докажем только достаточность.

Пусть

– все различные собственные числа
матрицы А порядка n, и


их алгебраические кратности. Тогда


.

С
другой стороны, по следствию леммы 1,

для всех различных инлексов

.
Отсюда следует, что сумма всех собственных
подпространств является прямой суммой:


,

базисом
прямой суммы может служить простое
объединение базисов собственных
подпространств, откуда следует, что
размерность прямой суммы собственных
подпространств равна сумме их размерностей:


.

По
условию теоремы, для всех собственных
чисел,


,

откуда
следует, что


.

Прямая
сумма собственных подпространств
является подпространством пространства

:

,
и имеет размерность n,
отсюда следует, что

и базис прямой суммы есть базис
пространства

.
Но базис прямой суммы состоит из
собственных векторов матрицы А.
Следовательно, матрица А является
диагонализируемой.

Теорема
доказана.

Замечание
1.
Так как, по определению,

,
а

,
то


,

где
n – порядок матрицы А.

Обозначим

,
тогда

и условие диагонализируемости матрицы
А можно записать так:


,

для
каждого собственного числа

.

Замечание
2.
Если А – диагонализируемая
матрица n-го порядка над
полем комплексных чисел С, то существует
базис пространства

из собственных векторов матрицы А. Чтобы
найти этот базис, достаточно объединить
базисы всех собственных подпространств.

Замечание
3.
Проверяя диагонализируемость
матрицы (линейного оператора), достаточно
находить геометрическую кратность
только тех собственных чисел, чья
алгебраическая кратность больше 1, т.к.
из второго необходимого и достаточного
признака диагонализируемости линейного
оператора следует следующее утверждение.

Следствие.
Для того, чтобы матрица А была
диагонализируемой, необходимо и
достаточно, чтобы для каждого её кратного
собственного числа

его алгебраическая кратность была равна
его геометрической кратности.

Доказательство.
Необходимость сразу же следует из
второго необходимого и достаточного
признака диагонализируемости матрицы.
Докажем достаточность. Пусть

– все различные (попарно различные)
собственные числа матрицы А,

их кратности, как корней характеристического
многочлена. Тогда


.

Пусть

– геометрическая кратность корней.
Если

– кратный корень, то по условию,

.
Если

– простой корень характеристического
многочлена, то

и

,

,
т.е.


,

т.е.

.
Отсюда следует, что


,

.

Тогда,


.

Но
прямая сумма собственных подпространств
есть подпространство пространства

и его размерность


.

Следовательно,

и в объединении базисов собственных
подпространств будет ровно n векторов,
которые образуют базис прямой суммы.
Этот базис будет базисом из собственных
векторов матрицы А пространства

,
откуда следует, что данная матрица А
является диагонализируемой, ч.т.д.

Следствие
доказано.

6

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

A “matrix” is referred to as a rectangular array of numbers that are arranged in rows and columns. The horizontal lines are said to be rows, while the vertical lines are said to be columns. We can determine the size of a matrix by the number of rows and columns in it. If a matrix has “m” rows and “n” columns, then it is said to be an “m by n” matrix and is written as an “m × n” matrix. For example, a matrix with five rows and three columns is a “5 × 3” matrix. We have various types of matrices, like rectangular, square, triangular, symmetric, singular, etc. In this article, we learn about similar matrices, their examples, and their properties.

Similar Matrices

Two square matrices A and B of the same order are said to be similar, if and only if there exists an invertible matrix “P” of the same order as A and B such that:

P-1AP = B

The transformation of the matrix A into “P-1AP” is called similarity transformation or conjugation by “P,” as we are transforming the matrix “A” into the matrix “B.” Here, the matrix “P” is known as the change-of-basis matrix. If two matrices A and B are said to be similar, then they are expressed as A ∼ B.

Examples of Similar Matrices

The matrices given below are similar matrices of order “2 × 2” through the invertible matrix P of the same order.

A = left[begin{array}{cc} 2 & 4\ 0 & -2 end{array}right]   and

B = left[begin{array}{cc} 2 & 0\ -4 & -2 end{array}right]   are similar matrices through the invertible matrix P.

P = left[begin{array}{cc} 2 & -2\ 2 & 2 end{array}right]

P^{-1} = frac{1}{4+4}left[begin{array}{cc} 2 & 2\ -2 & 2 end{array}right] =frac{1}{8}left[begin{array}{cc} 2 & 2\ -2 & 2 end{array}right]

P^{-1} AP = frac{1}{8}left[begin{array}{cc} 2 & 2\ -2 & 2 end{array}right] × left[begin{array}{cc} 2 & 4\ 0 & -2 end{array}right] × left[begin{array}{cc} 2 & -2\ 2 & 2 end{array}right]

P^{-1} AP = frac{1}{8}left[begin{array}{cc} 2 & 2\ -2 & 2 end{array}right]timesleft[begin{array}{cc} 12 & 4\ -4 & -4 end{array}right]

P^{-1} AP = frac{1}{8}left[begin{array}{cc} 16 & 0\ -32 & -16 end{array}right]= left[begin{array}{cc} 2 & 0\ -4 & -2 end{array}right] = B

Properties of Similar Matrices

Following are some important properties of similar matrices A and B:

  • Ranks of two similar matrices are the same, i.e., the rank of A = rank of B.
  • Determinants of two similar matrices are the same, i.e., det (A) = det (B).
  • Trace of two similar matrices is the same, i.e., tr(A) = tr(B).
  • Eigenvalues of two similar matrices are the same, but their eigenvectors are normally different.
  • If A and B are two similar matrices, then An and Bn are also similar matrices.
  • A matrix and its transpose matrix are similar, i.e., A ∼ AT.
  • Two similar matrices, A and B, are said to have the same characteristic polynomial.
  • A matrix “A” is similar to itself, i.e., the similarity of matrices is reflexive.

A = I-1AI,

where the identity matrix “I” is the change-of-basis matrix.

  • If matrix A is similar to matrix B, then matrix B is said to be similar to matrix A, i.e., the similarity of matrices is symmetric.

P-1AP = B

A = PBP-1

  • If matrix A is similar to matrix B and matrix B is similar to matrix C, then matrix A is said to be similar to matrix C, i.e., the similarity of matrices is transitive.

Also, Check

  • Determinant of a Matrix
  • Inverse of a Matrix
  • Matrix Addition and Scalar Multiplication

Solved Examples on Similar Matrices

Example 1: Find the matrix B if A and B are similar matrices. If

A = left[begin{array}{cc} 1 & 2\ 3 & -1 end{array}right]

P = left[begin{array}{cc} 0 & 1\ 2 & 3 end{array}right]  .

Solution:

We know that if A and B are similar matrices, then P-1AP = B.

P-1 = Adj P/|P|

|P| = 0 × 3 − (1 × 2) = -2

Adj P = left[begin{array}{cc} 3 & -1\ -2 & 0 end{array}right]

P^{-1} = frac{1}{-2} left[begin{array}{cc} 3 & -1\ -2 & 0 end{array}right]

B = P^{-1} AP

B = frac{1}{-2} left[begin{array}{cc} 3 & -1\ -2 & 0 end{array}right]× left[begin{array}{cc} 1 & 2\ 3 & -1 end{array}right]×left[begin{array}{cc} 0 & 1\ 2 & 3 end{array}right]

B = frac{1}{-2} left[begin{array}{cc} 3 & -1\ -2 & 0 end{array}right]×left[begin{array}{cc} (0+4) & (1+6)\ (0-2) & (3-3) end{array}right]

B = frac{1}{-2} left[begin{array}{cc} 3 & -1\ -2 & 0 end{array}right]×left[begin{array}{cc} 4 & 7\ -2 & 0 end{array}right]

B = frac{1}{-2} left[begin{array}{cc} 14 & 21\ -8 & -14 end{array}right]

B = left[begin{array}{cc} frac{14}{-2} & frac{21}{-2}\ frac{-8}{-2} & frac{-14}{-2} end{array}right]

B = left[begin{array}{cc} -7 & frac{21}{-2}\ 4 & 7 end{array}right]

Example 2: Prove that the determinants of two similar matrices are the same.

Solution:

Let us consider two similar matrices A and B, to prove that their determinants are the same.

We know that if A and B are similar matrices, then P-1AP = B, where P is the change-of-basis matrix.

Now, det (B) = det (P-1AP)

⇒ det (B) = det (P-1) det (A) det (P)

We know that det (P-1) = 1/det (P)

So, det (B) = 1/det (P) × det (A) × det (P)

⇒ det (B) = 1 × det (A)

⇒ det (B) = det (A)

Hence, the determinants of two similar matrices A and B are the same.

Example 3: Prove that the matrix given below is similar to itself.

A = left[begin{array}{ccc} 5 & 0 & 0\ 0 & 3 & 0\ 0 & 0 & 8 end{array}right]

Solution:

To prove that a matrix is similar to itself, we have to prove that A = I-1AI,

where the identity matrix “I” is the change-of-basis matrix.

I = left[begin{array}{ccc} 1 & 0 & 0\ 0 & 1 & 0\ 0 & 0 & 1 end{array}right]

I-1 = Adj I/ det (I)

I^{-1} =frac{1}{1} left[begin{array}{ccc} 1 & 0 & 0\ 0 & 1 & 0\ 0 & 0 & 1 end{array}right]= left[begin{array}{ccc} 1 & 0 & 0\ 0 & 1 & 0\ 0 & 0 & 1 end{array}right]

I^{-1} AI = left[begin{array}{ccc} 1 & 0 & 0\ 0 & 1 & 0\ 0 & 0 & 1 end{array}right]×left[begin{array}{ccc} 5 & 0 & 0\ 0 & 3 & 0\ 0 & 0 & 8 end{array}right]× left[begin{array}{ccc} 1 & 0 & 0\ 0 & 1 & 0\ 0 & 0 & 1 end{array}right]

I^{-1} AI =left[begin{array}{ccc} 1 & 0 & 0\ 0 & 1 & 0\ 0 & 0 & 1 end{array}right]×left[begin{array}{ccc} 5 & 0 & 0\ 0 & 3 & 0\ 0 & 0 & 8 end{array}right]

I^{-1} AI = left[begin{array}{ccc} 5 & 0 & 0\ 0 & 3 & 0\ 0 & 0 & 8 end{array}right]= A

Hence proved.

Example 4: Verify whether the matrices given below are similar or not.

A = left[begin{array}{cc} 2 & 3\ -1 & 4 end{array}right] and B = left[begin{array}{cc} 4 & -7\ 8 & 10 end{array}right]

P = left[begin{array}{cc} 1 & 2\ 3 & 4 end{array}right]  .

Solution:

To prove that two matrices are similar, we have to prove that B = P-1AP.

P-1 = Adj P/|P|

P^{-1} = frac{1}{(8-6)}left[begin{array}{cc} 4 & -2\ -3 & 1 end{array}right]

P^{-1} = frac{1}{2}left[begin{array}{cc} 4 & -2\ -3 & 1 end{array}right]

P^{-1} AP = frac{1}{2}left[begin{array}{cc} 4 & -2\ -3 & 1 end{array}right]timesleft[begin{array}{cc} 2 & 3\ -1 & 4 end{array}right]timesleft[begin{array}{cc} 1 & 2\ 3 & 4 end{array}right]

P^{-1} AP = frac{1}{2}left[begin{array}{cc} 4 & -2\ -3 & 1 end{array}right]timesleft[begin{array}{cc} 8 & 16\ 11 & 14 end{array}right]

P^{-1} AP = frac{1}{2}left[begin{array}{cc} (32-22) & (64-28)\ (-24+22) & (-48+14) end{array}right]

P^{-1} AP = frac{1}{2}left[begin{array}{cc} 10 & 36\ -2 & -34 end{array}right]

P^{-1} AP = left[begin{array}{cc} 5 & 18\ -1 & -17 end{array}right]≠B

As B ≠ P-1AP, A and B are not similar.

FAQs on Similar Matrices

Question 1: What is meant by a matrix?

Answer:

A “matrix” is referred to as a rectangular array of numbers that are arranged in rows and columns. The horizontal lines are said to be rows, while the vertical lines are said to be columns.

Question 2: Define similar matrices.

Answer:

Two square matrices A and B of the same order are said to be similar, if and only if there exists an invertible matrix “P” of the same order as A and B such that:

P-1AP = B

Question 3: Are the determinants of two similar matrices the same?

Answer:

Yes, two similar matrices A and B are said to have the same determinants, i.e., det (A) = det (B).

Last Updated :
26 Mar, 2023

Like Article

Save Article

Подобные матрицы

Материал из Большого Справочника

Квадратные матрицы A и B одинакового порядка называются подобными,
если существует невырожденная матрица P того же порядка, такая что:

{displaystyle B=P^{-1}AP.}

Подобные матрицы получаются при задании одного и того же линейного преобразования матрицей в разных координатных системах; при этом матрица Р является матрицей перехода от одной системы к другой.

Если две матрицы подобны, то говорят, что одна из матриц может быть получена преобразованием подобия из другой. Если при этом одна из матриц диагональная, то про вторую матрицу говорят, что она может быть диагонализована.

Свойства

Отношение подобности матриц является отношением эквивалентности в пространстве квадратных матриц.

У подобных матриц совпадают многие характеристики, а именно:

  • ранг
  • определитель
  • след
  • собственные значения (но собственные векторы могут не совпадать)
  • характеристический многочлен
  • Жорданова форма с точностью до перестановки клеток

Можно доказать, что любая матрица A подобна AT.

Канонические формы подобных матриц

Часто возникает вопрос, насколько сильно можно упростить вид заданного линейного преобразования путём замены базиса (т.е. системы координат). Поскольку получающиеся при этом матрицы подобны, то это то же самое, что и поиск некоторой канонической формы матрицы в классе эквивалентности матриц, подобных матрице этого линейного преобразования.

Простейшей такой формой была бы, конечно, диагональная матрица, но не все матрицы могут быть приведены к диагональному виду (важное исключение составляют симметричные действительные и эрмитовы матрицы, которые всегда могут быть диагонализованы).

Существует несколько более сложных канонических форм матриц, к которым может быть приведена любая матрица преобразованием подобия:

  • Жорданова нормальная форма
  • Фробениусова нормальная форма

Литература

  • См. список литературы по линейной алгебре

Добавить комментарий