Как найти координаты собственного вектора

Нахождение собственных чисел и собственных векторов

Данный калькулятор поможет найти собственные числа и векторы, используя характеристическое уравнение.

Больше:

Выводить десятичную дробь

,

  • Оставляйте лишние ячейки пустыми для ввода неквадратных матриц.
  • Элементы матриц – десятичные (конечные и периодические) дроби: 1/3, 3,14, -1,3(56) или 1,2e-4; либо арифметические выражения: 2/3+3*(10-4), (1+x)/y^2, 2^0,5 (=2), 2^(1/3), 2^n, sin(phi), cos(3,142rad), a_1 или (root of x^5-x-1 near 1,2).

    • decimal (finite and periodic) fractions:

      1/3, 3,14, -1,3(56) или 1,2e-4

    • 2/3+3*(10-4), (1+x)/y^2, 2^0,5 (=2), 2^(1/3), 2^n, sin(phi), cos(3,142rad), a_1 или (root of x^5-x-1 near 1,2)

    • matrix literals:

      {{1,3},{4,5}}

    • operators:

      +, -, *, /, , !, ^, ^{*}, ,, ;, , =, , , > и <

    • functions:

      sqrt, cbrt, exp, log, abs, conjugate, min, max, gcd, rank, adjugate, inverse, determinant, transpose, pseudoinverse, cos, sin, tan, cot, cosh, sinh, tanh, coth, arccos, arcsin, arctan, arccot, arcosh, arsinh, artanh и arcoth

    • units:

      rad, deg

    • special symbols:

      • pi, e, i — mathematical constants
      • k, n — integers
      • I or E — identity matrix
      • X, Y — matrix symbols
  • Используйте ↵ Ввод, Пробел, , и Delete для перемещения по ячейкам, Ctrl⌘ Cmd+C/Ctrl⌘ Cmd+V – для копирования матриц.
  • Перетаскивайте матрицы из результата (drag-and-drop), или даже из текстового редактора.
  • За теорией о матрицах и операциях над ними обращайтесь к страничке на Википедии.

Примеры

  • Найти собственные векторы ({{-26,-33,-25},{31,42,23},{-11,-15,-4}})

Собственные числа и собственные векторы линейного оператора

Определение . Ненулевой вектор x называется собственным вектором оператора A , если оператор A переводит x в коллинеарный ему вектор, то есть A· x = λ· x . Число λ называется собственным значением или собственным числом оператора A, соответствующим собственному вектору x .
Отметим некоторые свойства собственных чисел и собственных векторов.
1. Любая линейная комбинация собственных векторов x 1, x 2, . x m оператора A , отвечающих одному и тому же собственному числу λ, является собственным вектором с тем же собственным числом.
2. Собственные векторы x 1, x 2, . x m оператора A с попарно различными собственными числами λ1, λ2, …, λm линейно независимы.
3. Если собственные числа λ12= λm= λ, то собственному числу λ соответствует не более m линейно независимых собственных векторов.

Итак, если имеется n линейно независимых собственных векторов x 1, x 2, . x n, соответствующих различным собственным числам λ1, λ2, …, λn, то они линейно независимы, следовательно, их можно принять за базис пространства Rn. Найдем вид матрицы линейного оператора A в базисе из его собственных векторов, для чего подействуем оператором A на базисные векторы: тогда .
Таким образом, матрица линейного оператора A в базисе из его собственных векторов имеет диагональный вид, причем по диагонали стоят собственные числа оператора A.
Существует ли другой базис, в котором матрица имеет диагональный вид? Ответ на поставленный вопрос дает следующая теорема.

Теорема. Матрица линейного оператора A в базисе < ε i> (i = 1..n) имеет диагональный вид тогда и только тогда, когда все векторы базиса – собственные векторы оператора A.

Правило отыскания собственных чисел и собственных векторов

Система (1) имеет ненулевое решение, если ее определитель D равен нулю

Пример №1 . Линейный оператор A действует в R3 по закону A· x =(x1-3x2+4x3, 4x1-7x2+8x3, 6x1-7x2+7x3), где x1, x2, . xn – координаты вектора x в базисе e 1=(1,0,0), e 2=(0,1,0), e 3=(0,0,1). Найти собственные числа и собственные векторы этого оператора.
Решение. Строим матрицу этого оператора:
A· e 1=(1,4,6)
A· e 2=(-3,-7,-7)
A· e 3=(4,8,7)
.
Составляем систему для определения координат собственных векторов:
(1-λ)x1-3x2+4x3=0
x1-(7+λ)x2+8x3=0
x1-7x2+(7-λ)x3=0
Составляем характеристическое уравнение и решаем его:

Пример №2 . Дана матрица .
1. Доказать, что вектор x =(1,8,-1) является собственным вектором матрицы A. Найти собственное число, соответствующее этому собственному вектору.
2. Найти базис, в котором матрица A имеет диагональный вид.

Решение находим с помощью калькулятора.
1. Если A· x =λ· x , то x – собственный вектор

Определение . Симметрической матрицей называется квадратная матрица, в которой элементы, симметричные относительно главной диагонали, равны, то есть в которой ai k =ak i .

Замечания .

  1. Все собственные числа симметрической матрицы вещественны.
  2. Собственные векторы симметрической матрицы, соответствующие попарно различным собственным числам, ортогональны.

В качестве одного из многочисленных приложений изученного аппарата, рассмотрим задачу об определении вида кривой второго порядка.

5.1.3. Собственные числа и собственные векторы матрицы

Вектор Х называется Собственным вектором матрицы А, если найдется такое число L, что выполняется равенство: АХ = LХ, то есть результатом применения к Х линейного оператора, задаваемого матрицей А, является умножение этого вектора на число L. Само число L называется Собственным числом матрицы А.

Подставив в формулы (3) XJ = LXj, получим систему уравнений для определения координат собственного вектора:

.

Эта линейная однородная система будет иметь нетривиальное решение только в случае, если ее главный определитель равен 0 (правило Крамера). Записав это условие в виде:

Получим уравнение для определения собственных чисел L, называемое Характеристическим уравнением. Кратко его можно представить так:

Поскольку в его левой части стоит определитель матрицы А-LЕ. Многочлен относительно L | A LE| называется Характеристическим многочленом матрицы А.

Свойства характеристического многочлена:

1) Характеристический многочлен линейного преобразования не зависит от выбора базиса.

(см. (11.4)), но Следовательно, . Таким образом, не зависит от выбора базиса. Значит, и |ALE| не изменяется при переходе к новому базису.

2) Если матрица А линейного оператора является Симметрической (т. е. АIj=Aji), то все корни характеристического уравнения (11.6) – действительные числа.

Свойства собственных чисел и собственных векторов:

1) Если выбрать базис из собственных векторов Х1, х2, х3, соответствующих собственным значениям λ1, λ2, λ3 матрицы А, то в этом базисе линейное преобразование А имеет матрицу диагонального вида:

Доказательство этого свойства следует из определения собственных векторов.

2) Если собственные значения оператора А различны, то соответствующие им собственные векторы линейно независимы.

3) Если характеристический многочлен матрицы А имеет три различных корня, то в некотором базисе матрица А имеет диагональный вид.

Найдем собственные числа и собственные векторы матрицы

Составим характеристическое уравнение:

Найдем координаты собственных векторов, соответствующих каждому найденному значению L. Из (5) следует, что если Х(1)=<X1,X2,X3> – собственный вектор, соответствующий L1=-2, то

Совместная, но неопределенная система. Ее решение можно записать в виде Х(1)=(A,0,-A), где А – любое число. В частности, если потребовать, чтобы |X(1)|=1,

Подставив в систему (5) L2=3, получим систему для определения координат второго собственного вектора – X(2)=(Y1,Y2,Y3):

Спектральная кластеризация

Дата публикации Feb 21, 2019

Введение

В этом посте мы рассмотрим тонкости спектральной кластеризации для графиков и других данных. Кластеризация является одной из главных задач в машинном обучении без учителя. Цель состоит в том, чтобы назначить немаркированные данные группам, где, возможно, аналогичные точки данных будут назначены в одну группу.

Спектральная кластеризация – это метод с корнями в теории графов, где этот подход используется для идентификации сообществ узлов в графе на основе соединяющих их ребер. Этот метод является гибким и позволяет кластеризовать не графовые данные.

Спектральная кластеризация использует информацию из собственных значений (спектра) специальных матриц, построенных из графика или набора данных. Мы узнаем, как построить эти матрицы, интерпретировать их спектр и использовать собственные векторы для назначения наших данных кластерам.

Собственные векторы и собственные значения

Критическим для этой дискуссии является концепция собственных значений и собственные векторы. Для матрицы A, если существует вектор x, который не является всеми 0 и скалярным λ, таким, что Ax = λx, то x называется собственным вектором A с соответствующим собственным значением λ.

Мы можем думать о матрице A как о функции, которая отображает векторы на новые векторы. Большинство векторов окажутся где-то совершенно разными, когда к ним будет применен A, но собственные векторы меняются только по величине. Если вы проведете линию через начало координат и собственный вектор, то после отображения собственный вектор все равно попадет на линию. Величина, по которой вектор масштабируется вдоль линии, зависит от λ.

Мы можем легко найти собственные значения и собственные векторы матрицы, используя numpy в Python:

Собственные векторы являются важной частью линейной алгебры, потому что они помогают описать динамику систем, представленных матрицами. Существует множество приложений, в которых используются собственные векторы, и мы будем использовать их непосредственно здесь для выполнения спектральной кластеризации.

диаграммы

Графики являются естественным способом представления многих типов данных. Граф – это набор узлов с соответствующим набором ребер, которые соединяют узлы. Края могут быть направленными или ненаправленными и даже иметь веса, связанные с ними.

Сеть роутеров в интернете легко представить в виде графика. Маршрутизаторы – это узлы, а ребра – это соединения между парами маршрутизаторов. Некоторые маршрутизаторы могут разрешать трафик только в одном направлении, поэтому границы могут быть направлены в направлении направления трафика. Веса на краях могут представлять полосу пропускания, доступную вдоль этого края. При такой настройке мы могли бы затем запросить график, чтобы найти эффективные пути для передачи данных от одного маршрутизатора к другому по сети.

Давайте использовать следующий неориентированный граф в качестве рабочего примера:

Этот граф имеет 10 узлов и 12 ребер. Он также имеет два соединенных компонента <0,1,2,8,9>и <3,4,5,6,7>. Связанный компонент – это максимальный подграф узлов, у всех из которых есть пути к остальным узлам подграфа.

Связанные компоненты кажутся важными, если наша задача – назначить эти узлы сообществам или кластерам. Простая идея – сделать каждый связанный компонент отдельным кластером. Это кажется разумным для нашего примера графа, но возможно, что весь граф может быть связан, или что связанные компоненты очень велики. Могут также быть меньшие структуры в связанном компоненте, которые являются хорошими кандидатами для сообществ. Вскоре мы увидим важность идеи связанного компонента для спектральной кластеризации.

Матрица смежности

Мы можем представить наш примерный граф в виде матрицы смежности, где индексы строк и столбцов представляют узлы, а записи представляют отсутствие или наличие ребра между узлами. Матрица смежности для нашего примера графа выглядит следующим образом:

В матрице мы видим, что строка 0, столбец 1 имеет значение 1. Это означает, что существует ребро, соединяющее узел 0 с узлом 1. Если ребра были взвешены, веса ребер были бы в этой матрице вместо только 1 и 0. Так как наш график не направлен, записи для строки i, col j будут равны записи в строке j, col i. Последнее, что следует отметить, это то, что диагональ этой матрицы равна 0, поскольку ни один из наших узлов не имеет ребер.

Степень Матрица

Степень узла – это количество ребер, соединенных с ним. В ориентированном графе мы могли бы говорить о степени и степени, но в этом примере у нас просто есть степень, так как ребра идут в обе стороны. Глядя на наш график, мы видим, что узел 0 имеет степень 4, поскольку он имеет 4 ребра. Мы также можем получить степень, взяв сумму строки узла в матрице смежности.

Матрица степеней – это диагональная матрица, где значение на входе (i, i) является степенью узла i Давайте найдем матрицу степеней для нашего примера:

Сначала мы взяли сумму по оси 1 (строки) нашей матрицы смежности, а затем поместили эти значения в диагональную матрицу. Из матрицы степеней мы легко видим, что узлы 0 и 5 имеют 4 ребра, в то время как остальные узлы имеют только 2.

График лапласианский

Теперь мы собираемся вычислить граф Лапласа. Лапласиан – это просто еще одно матричное представление графа. У него есть несколько прекрасных свойств, которыми мы воспользуемся для спектральной кластеризации. Чтобы вычислить нормальный лапласиан (есть несколько вариантов), мы просто вычитаем матрицу смежности из нашей матрицы степеней:

Диагональ лапласиана – это степень наших узлов, а вне диагонали – вес отрицательного края. Это представление, которое мы ищем для выполнения спектральной кластеризации.

Собственные значения графа лапласиана

Как уже упоминалось, лапласиан обладает некоторыми прекрасными свойствами. Чтобы понять это, давайте рассмотрим собственные значения, связанные с лапласианом, когда я добавлю ребра в наш граф:

Мы видим, что когда граф полностью отключен, все десять наших собственных значений равны 0. Когда мы добавляем ребра, некоторые из наших собственных значений увеличиваются. Фактически, число собственных значений 0 соответствует числу связанных компонент в нашем графе!

Посмотрите внимательно, как добавлен этот последний край, соединяя два компонента в один. Когда это происходит, все собственные значения, кроме одного, были отменены:

Первое собственное значение равно 0, потому что у нас есть только один связный компонент (весь граф связен). Соответствующий собственный вектор всегда будет иметь постоянные значения (в этом примере все значения близки к 0,32).

Первое ненулевое собственное значение называется спектральной щелью. Спектральная щель дает нам некоторое представление о плотности графика. Если бы этот граф был плотно связан (все пары из 10 узлов имели ребро), то спектральный разрыв был бы 10.

Второе собственное значение называется значением Фидлера, а соответствующий вектор является вектором Фидлера. Значение Фидлера приблизительно соответствует минимальному срезу графа, необходимому для разделения графа на два связанных компонента. Напомним, что если бы в нашем графе уже было два связанных компонента, то значение Фидлера было бы равно 0. Каждое значение в векторе Фидлера дает нам информацию о том, какой стороне разреза принадлежит этот узел. Давайте раскрасим узлы в зависимости от того, положительна ли их запись в векторе Филдера:

Этот простой трюк разделил наш график на две группы! Почему это работает? Помните, что нулевые собственные значения представляют связанные компоненты. Собственные значения около нуля говорят нам, что существует почти разделение двух компонентов. Здесь у нас есть одно преимущество: если бы его не было, у нас было бы два отдельных компонента. Таким образом, второе собственное значение мало.

Подводя итог, что мы знаем до сих пор: первое собственное значение 0, потому что у нас есть один связанный компонент. Второе собственное значение около 0, потому что мы на расстоянии одного края от двух соединенных компонентов. Мы также видели, что вектор, связанный с этим значением, говорит нам, как разделить узлы на эти приблизительно связанные компоненты.

Возможно, вы заметили, что следующие два собственных значения также довольно малы. Это говорит нам о том, что мы «близки» к четырем отдельным подключенным компонентам. В общем, мы часто ищем первый большой разрыв между собственными значениями, чтобы найти число кластеров, выраженных в наших данных. Видите разрыв между собственными значениями четыре и пять?

Наличие четырех собственных значений перед разрывом указывает на то, что, вероятно, существует четыре кластера. Векторы, связанные с первыми тремя положительными собственными значениями, должны дать нам информацию о том, какие три разреза необходимо сделать на графике, чтобы назначить каждый узел одному из четырех приближенных компонентов. Давайте построим матрицу из этих трех векторов и выполним кластеризацию K-средних для определения назначений:

График был сегментирован на четыре квадранта, причем узлы 0 и 5 произвольно назначены одному из их связанных квадрантов. Это действительно круто, и это спектральная кластеризация!

Подводя итог, мы сначала взяли наш граф и построили матрицу смежности. Затем мы создали лапласиан графа, вычтя матрицу смежности из матрицы степеней. Собственные значения лапласиана указывали на наличие четырех кластеров. Векторы, связанные с этими собственными значениями, содержат информацию о том, как сегментировать узлы. Наконец, мы выполнили K-средства для этих векторов, чтобы получить метки для узлов. Далее мы увидим, как это сделать для произвольных данных.

Спектральная кластеризация произвольных данных

Посмотрите на данные ниже. Точки нарисованы из двух концентрических кругов с добавлением шума Нам бы хотелось, чтобы алгоритм позволял группировать эти точки в два круга, которые их генерировали.

Эти данные не в форме графика. Итак, во-первых, давайте просто попробуем алгоритм обрезки печенья, такой как K-Means. K-Means найдет два центроида и пометит точки, в зависимости от того, к какому центроиду они ближе всего. Вот результаты:

Очевидно, K-Means не собирался работать. Он действует на евклидовом расстоянии и предполагает, что скопления примерно сферические. Эти данные (и часто данные реального мира) нарушают эти предположения. Давайте попробуем решить эту проблему с помощью спектральной кластеризации.

График ближайших соседей

Есть несколько способов обработать наши данные как график. Самый простой способ – построить граф k-ближайших соседей. Граф k-ближайших соседей обрабатывает каждую точку данных как узел в графе. Затем ребро рисуется от каждого узла до его k ближайших соседей в исходном пространстве. Как правило, алгоритм не слишком чувствителен к выбору k. Меньшие числа, такие как 5 или 10, обычно работают довольно хорошо.

Посмотрите на изображение данных еще раз и представьте, что каждая точка связана со своими 5 ближайшими соседями. Любая точка во внешнем кольце должна быть в состоянии следовать по пути вдоль кольца, но во внутреннем круге не будет никаких путей. Довольно легко увидеть, что этот график будет иметь два связанных компонента: внешнее кольцо и внутренний круг.

Поскольку мы разделяем эти данные только на два компонента, мы должны использовать наш векторный метод Фидлера ранее. Вот код, который я использовал для спектральной кластеризации этих данных:

И вот результаты:

Другие подходы

Граф ближайших соседей – хороший подход, но он основан на том факте, что «близкие» точки должны принадлежать одному кластеру. В зависимости от ваших данных, это может быть не так. Более общий подход заключается в построении аффинной матрицы. Матрица сходства похожа на матрицу смежности, за исключением того, что значение для пары точек показывает, насколько эти точки похожи друг на друга. Если пары точек сильно различаются, то сродство должно быть 0. Если точки идентичны, то сродство может быть 1. Таким образом, сродство действует как вес для ребер нашего графа.

Как решить, что означает совпадение двух точек данных, является одним из наиболее важных вопросов в машинном обучении. Часто знание предметной области – лучший способ построить меру подобия. Если у вас есть доступ к экспертам по доменам, задайте им этот вопрос.

Есть также целые поля, посвященные изучению того, как строить метрики подобия непосредственно из данных. Например, если у вас есть некоторые помеченные данные, вы можете обучить классификатор, чтобы предсказать, похожи ли два входа или нет, основываясь на том, имеют ли они одинаковую метку. Затем этот классификатор можно использовать для присвоения сходства парам немаркированных точек.

Вывод

Мы рассмотрели теорию и применение спектральной кластеризации для графов и произвольных данных. Спектральная кластеризация – это гибкий подход для поиска кластеров, когда ваши данные не соответствуют требованиям других распространенных алгоритмов.

Сначала мы сформировали график между нашими точками данных. Края графика отражают сходство точек. Собственные значения графа лапласиана могут затем использоваться для поиска наилучшего числа кластеров, а собственные векторы могут использоваться для поиска фактических меток кластеров.

Я надеюсь, что вам понравился этот пост, и вы нашли спектральную кластеризацию полезной в вашей работе или исследовании.

[spoiler title=”источники:”]

http://matica.org.ua/metodichki-i-knigi-po-matematike/lineinaia-algebra-i-analiticheskaia-geometriia/5-1-3-sobstvennye-chisla-i-sobstvennye-vektory-matritcy

http://www.machinelearningmastery.ru/spectral-clustering-aba2640c0d5b/

[/spoiler]

Собственные числа и собственные векторы матрицы.

Определение 9.3. Вектор х
называется собственным вектором
матрицы А, если найдется такое число
λ, что выполняется равенство: Ах
= λх, то есть результатом
применения к х линейного
преобразования, задаваемого матрицей
А, является умножение этого вектора
на число λ. Само число λ называется
собственным числом матрицы А.

Подставив в формулы (9.3) x`j
= λ
xj,
получим систему уравнений для определения
координат собственного вектора:

.

Отсюда

.
(9.5)

Эта линейная однородная система будет
иметь нетривиальное решение только в
случае, если ее главный определитель
равен 0 (правило Крамера). Записав это
условие в виде:

получим уравнение для определения
собственных чисел λ, называемое
характеристическим уравнением.
Кратко его можно представить так:

| A
λE
| = 0,
(9.6)

поскольку в его левой части стоит
определитель матрицы А-λЕ. Многочлен
относительно λ | A
– λ
E| называется
характеристическим многочленом
матрицы А.

Свойства характеристического
многочлена:

  1. Характеристический многочлен линейного
    преобразования не зависит от выбора
    базиса.
    Доказательство.
    (см.
    (9.4)), но
    следовательно,
    .
    Таким образом,

    не зависит от выбора базиса. Значит, и
    |AE|
    не изменяется при переходе к новому
    базису.

  2. Если матрица А линейного преобразования
    является симметрической (т.е.
    аij=aji),
    то все корни характеристического
    уравнения (9.6) – действительные числа.

Свойства собственных чисел и
собственных векторов:

  1. Если выбрать базис из собственных
    векторов х1,
    х
    2, х3,
    соответствующих собственным значениям
    λ1, λ2, λ3
    матрицы А, то в этом базисе линейное
    преобразование А имеет матрицу
    диагонального вида:


(9.7)
Доказательство
этого свойства следует из определения
собственных векторов.

  1. Если собственные значения преобразования
    А различны, то соответствующие им
    собственные векторы линейно независимы.

  2. Если характеристический многочлен
    матрицы А имеет три различных корня,
    то в некотором базисе матрица А
    имеет диагональный вид.

Пример.

Найдем собственные числа и собственные
векторы матрицы

Составим характеристическое уравнение:

(1- λ)(5 –
λ)(1 – λ) + 6 – 9(5 – λ) – (1 – λ) –
(1 – λ) = 0, λ³ – 7λ² + 36 = 0, λ1
= -2, λ2 = 3, λ3 = 6.

Найдем координаты собственных векторов,
соответствующих каждому найденному
значению λ. Из (9.5) следует, что если
х(1)={x1,x2,x3}
– собственный вектор, соответствующий
λ1=-2, то


– совместная, но неопределенная система.
Ее решение можно записать в виде
х(1)={a,0,-a},
где а – любое число. В частности, если
потребовать, чтобы |x(1)|=1,
х(1)=

Подставив в систему (9.5) λ2=3,
получим систему для определения координат
второго собственного вектора –
x(2)={y1,y2,y3}:

,
откуда х(2)={b,-b,b}
или, при условии |x(2)|=1,
x(2)=

Для λ3 = 6 найдем собственный
вектор x(3)={z1,
z2, z3}:

,
x(3)={c,2c,c}
или в нормированном варианте

х(3) =
Можно
заметить, что х(1)х(2)
= abab
= 0, x(1)x(3)
= acac
= 0, x(2)x(3)
= bc – 2bc
+
bc = 0. Таким
образом, собственные векторы этой
матрицы попарно ортогональны.

Лекция 10.

Квадратичные формы и их связь с
симметричными матрицами. Свойства
собственных векторов и собственных
чисел симметричной матрицы. Приведение
квадратичной формы к каноническому
виду.

Определение 10.1. Квадратичной
формой
действительных переменных
х1, х2,…,хn
называется многочлен второй степени
относительно этих переменных, не
содержащий свободного члена и членов
первой степени.

Примеры квадратичных форм:


(n = 2),


(n = 3). (10.1)

Напомним данное в прошлой лекции
определение симметрической матрицы:

Определение 10.2. Квадратная матрица
называется симметрической, если
,
то есть если равны элементы матрицы,
симметричные относительно главной
диагонали.

Свойства собственных чисел и
собственных векторов симметрической
матрицы:

  1. Все собственные числа симметрической
    матрицы действительные.

Доказательство (для n
= 2).

Пусть матрица А имеет вид:
.
Составим характеристическое уравнение:


(10.2) Найдем дискриминант:


следовательно, уравнение имеет только
действительные корни.

  1. Собственные векторы симметрической
    матрицы ортогональны.

Доказательство (для n
= 2).

Координаты собственных векторов

и

должны удовлетворять уравнениям:


Следовательно, их можно задать так:

.
Скалярное произведение этих векторов
имеет вид:


По теореме Виета из уравнения (10.2)
получим, что

Подставим эти соотношения в предыдущее
равенство:

Значит,
.

Замечание. В примере, рассмотренном в
лекции 9, были найдены собственные
векторы симметрической матрицы и
обращено внимание на то, что они оказались
попарно ортогональными.

Определение 10.3. Матрицей квадратичной
формы
(10.1) называется симметрическая
матрица
.
(10.3)

Таким образом, все собственные числа
матрицы квадратичной формы действительны,
а все собственные векторы ортогональны.
Если все собственные числа различны,
то из трех нормированных собственных
векторов матрицы (10.3) можно построить
базис в трехмерном пространстве. В этом
базисе квадратичная форма будет иметь
особый вид, не содержащий произведений
переменных.

Соседние файлы в папке лекции, 1 сем.

  • #
  • #


Download Article


Download Article

The matrix equation A{mathbf  {x}}={mathbf  {b}} involves a matrix acting on a vector to produce another vector. In general, the way A acts on {mathbf  {x}} is complicated, but there are certain cases where the action maps to the same vector, multiplied by a scalar factor.

Eigenvalues and eigenvectors have immense applications in the physical sciences, especially quantum mechanics, among other fields.

Steps

  1. Image titled Find Eigenvalues and Eigenvectors Step 1

    1

    Understand determinants. The determinant of a matrix det A=0 when A is non-invertible. When this occurs, the null space of A becomes non-trivial – in other words, there are non-zero vectors that satisfy the homogeneous equation A{mathbf  {x}}=0.[1]

  2. Image titled Find Eigenvalues and Eigenvectors Step 2

    2

    Advertisement

  3. Image titled Find Eigenvalues and Eigenvectors Step 3

    3

  4. Image titled Find Eigenvalues and Eigenvectors Step 4

    4

  5. Image titled Find Eigenvalues and Eigenvectors Step 5

    5

    Solve the characteristic polynomial for the eigenvalues. This is, in general, a difficult step for finding eigenvalues, as there exists no general solution for quintic functions or higher polynomials. However, we are dealing with a matrix of dimension 2, so the quadratic is easily solved.

    • {begin{aligned}&(lambda -5)(lambda +2)=0\&lambda =5,-2end{aligned}}
  6. Image titled Find Eigenvalues and Eigenvectors Step 6

    6

    Substitute the eigenvalues into the eigenvalue equation, one by one. Let’s substitute lambda _{{1}}=5 first.[3]

    • (A-5I){mathbf  {x}}={begin{pmatrix}-4&4\3&-3end{pmatrix}}
    • The resulting matrix is obviously linearly dependent. We are on the right track here.
  7. Image titled Find Eigenvalues and Eigenvectors Step 7

    7

    Row-reduce the resulting matrix. With larger matrices, it may not be so obvious that the matrix is linearly dependent, and so we must row-reduce. Here, however, we can immediately perform the row operation R_{{2}}to 4R_{{2}}+3R_{{1}} to obtain a row of 0’s.[4]

  8. Image titled Find Eigenvalues and Eigenvectors Step 8

    8

  9. Advertisement

Add New Question

  • Question

    Why do we replace y with 1 and not any other number while finding eigenvectors?

    Community Answer

    For simplicity. Eigenvectors are only defined up to a multiplicative constant, so the choice to set the constant equal to 1 is often the simplest.

  • Question

    How do you find the eigenvectors of a 3×3 matrix?

    Alphabet

    Alphabet

    Community Answer

    First, find the solutions x for det(A – xI) = 0, where I is the identity matrix and x is a variable. The solutions x are your eigenvalues. Let’s say that a, b, c are your eignevalues. Now solve the systems [A – aI | 0], [A – bI | 0], [A – cI | 0]. The basis of the solution sets of these systems are the eigenvectors.

Ask a Question

200 characters left

Include your email address to get a message when this question is answered.

Submit

Advertisement

  • The determinant of a triangular matrix is easy to find – it is simply the product of the diagonal elements. The eigenvalues are immediately found, and finding eigenvectors for these matrices then becomes much easier.[5]

    • Beware, however, that row-reducing to row-echelon form and obtaining a triangular matrix does not give you the eigenvalues, as row-reduction changes the eigenvalues of the matrix in general.

Thanks for submitting a tip for review!

Advertisement

References

About This Article

Thanks to all authors for creating a page that has been read 108,884 times.

Did this article help you?

Синим цветом обозначен собственный вектор. Он, в отличие от красного, при деформации (преобразовании) не изменил направление, поэтому является собственным вектором этого преобразования, соответствующим некоторому собственному значению lambda (здесь оно равно единице, так как вектор не изменил свою длину). Любой вектор, параллельный синему вектору, также будет собственным, соответствующим тому же собственному значению. Множество всех таких векторов (вместе с нулевым) образует собственное подпространство

Со́бственный ве́ктор — понятие в линейной алгебре, определяемое для произвольного линейного оператора как ненулевой вектор, применение к которому оператора даёт коллинеарный вектор — тот же вектор, умноженный на некоторое скалярное значение (которое может быть равно 0). Скаляр, на который умножается собственный вектор под действием оператора, называется собственным числом (или собственным значением) линейного оператора, соответствующим данному собственному вектору. Одним из представлений линейного оператора является квадратная матрица, поэтому собственные векторы и собственные значения часто определяются в контексте использования таких матриц[1][2].

Понятия собственного вектора и собственного числа[3] являются одними из ключевых в линейной алгебре, на их основе строится множество конструкций. Это связано с тем, что многие соотношения, связанные с линейными операторами, существенно упрощаются в системе координат, построенной на базисе из собственных векторов оператора. Множество собственных значений линейного оператора (спектр оператора) характеризует важные свойства оператора без привязки к какой-либо конкретной системе координат. По этим причинам собственные векторы имеют важное прикладное значение. Так, например, собственные векторы часто встречаются в механике, квантовой теории и так далее. В частности, оператор проекции спина на произвольную ось имеет два собственных значения и соответствующие им собственные векторы.

Понятие линейного векторного пространства не ограничивается «чисто геометрическими» векторами и обобщается на разнообразные множества объектов, таких как пространства функций (в которых действуют линейные дифференциальные и интегральные операторы). Для такого рода пространств и операторов говорят о собственных функциях операторов.

Множество всех собственных векторов линейного оператора, соответствующих данному собственному числу, дополненное нулевым вектором, называется собственным подпространством[4] этого оператора.

Поиск оптимальных алгоритмов вычисления собственных значений для заданного линейного оператора является одной из важных задач вычислительной математики.

Определения[править | править код]

Другая трансформация Джоконды. Синий вектор меняет направление, а красный — нет. Поэтому красный является собственным вектором, а синий — нет. Так как красный вектор ни растянулся, ни сжался, его собственное значение равно, как и на картинке выше, единице. Все векторы, коллинеарные красному, тоже собственные.

Собственным вектором линейного преобразования Acolon Lto L, где L — линейное пространство над полем K, называется такой ненулевой вектор xin L, что для некоторого lambda in K имеет место  Ax=lambda x.

Собственным значением (собственным числом) линейного преобразования A называется такое число lambda in K, для которого существует собственный вектор, то есть уравнение Ax=lambda x имеет ненулевое решение xin L.

Упрощённо говоря, собственный вектор — любой ненулевой вектор x, который отображается в коллинеарный ему вектор lambda x оператором A, а соответствующий скаляр lambda называется собственным значением оператора.

Собственным подпространством (или характеристическим подпространством) линейного преобразования A для данного собственного числа lambda in K (или отвечающим этому числу) называется множество всех собственных векторов xin L, соответствующих данному собственному числу, дополненное нулевым вектором. Обозначим собственное подпространство, отвечающее собственному числу  lambda , через E_{lambda }, а единичный оператор — через I. По определению, собственное подпространство является ядром оператора {displaystyle A-lambda cdot I,} то есть множеством векторов, отображаемых этим оператором в нулевой вектор:

{displaystyle E_{lambda }=ker(A-lambda cdot I)}.

Корневым вектором линейного преобразования A для данного собственного значения lambda in K называется такой ненулевой вектор xin L, что для некоторого натурального числа m имеет место:

{displaystyle (A-lambda cdot I)^{m}x=0}.

Если m является наименьшим из таких натуральных чисел (то есть {displaystyle (A-lambda cdot I)^{m-1}xneq 0}), то m называется высотой корневого вектора x.

Корневым подпространством линейного преобразования A для данного собственного числа lambda in K называется множество всех корневых векторов xin L, соответствующих данному собственному числу, если это множество дополнить нулевым вектором. Обозначим корневое подпространство, отвечающее собственному числу λ, через V_{lambda }. По определению:

{displaystyle V_{lambda }=bigcup _{m=1}^{infty }ker(A-lambda cdot I)^{m}=bigcup _{m=1}^{infty }V_{m,lambda }}.

История[править | править код]

Собственные значения обычно вводятся в контексте линейной алгебры, однако исторически они возникли при исследовании квадратичных форм и дифференциальных уравнений.

В XVIII веке Эйлер, изучая вращательное движение абсолютно твёрдого тела, обнаружил значимость главных осей, а Лагранж показал, что главные оси соответствуют собственным векторам матрицы инерции. В начале XIX века Коши использовал труды Эйлера и Лагранжа для классификации поверхностей второго порядка и обобщил результаты на высшие порядки. Коши также ввёл термин «характеристический корень» (фр. racine caractéristique) для собственного значения. Этот термин сохранился в контексте характеристического многочлена матрицы[5][6].

В начале XX века Гильберт занимался исследованием собственных значений интегральных операторов, рассматривая последние как матрицы бесконечного размера[7]. В 1904 году для обозначения собственных значений и собственных векторов Гильберт начал использовать термины eigenvalues и eigenvectors, основанные на немецком слове eigen (собственный)[8]. Впоследствии эти термины перешли и в английский язык, заменив используемые ранее «proper value» и «proper vector»[9].

Свойства[править | править код]

Общий случай[править | править код]

Подпространство Vsubset L называется инвариантным подпространством линейного преобразования A (A-инвариантным подпространством), если:

AVsubseteq V.

Собственные подпространства E_{lambda }, корневые подпространства V_{lambda } и подпространства V_{m,lambda } линейного оператора A являются A-инвариантными.

Собственные векторы являются корневыми (высоты 1): E_{lambda }subseteq V_{lambda };

Корневые векторы могут не быть собственными: например, для преобразования двумерного пространства, заданного матрицей:

A={begin{pmatrix}1&1\0&1end{pmatrix}}
(A-E)^{2}=0, и все векторы являются корневыми, соответствующими собственному числу 1, но A имеет единственный собственный вектор (с точностью до умножения на число).

Для разных собственных значений корневые (и, следовательно, собственные) подпространства имеют тривиальное (нулевое) пересечение:

V_{lambda }bigcap V_{mu }={0} если lambda neq mu .

Метод поиска собственных значений для самосопряжённых операторов и поиска сингулярных чисел для нормального оператора даёт теорема Куранта — Фишера.

Конечномерные линейные пространства[править | править код]

Выбрав базис в n-мерном линейном пространстве L, можно сопоставить линейному преобразованию Acolon Lto L квадратную ntimes n матрицу и определить для неё характеристический многочлен матрицы:

{displaystyle P_{A}(lambda )=det(A-lambda cdot I)=sum limits _{k=0}^{n}a_{k}lambda ^{k}}.

Характеристический многочлен не зависит от базиса в L. Его коэффициенты являются инвариантами оператора A. В частности, a_{0}=det ,A, a_{n-1}=operatorname {tr} ,A не зависят от выбора базиса.

Собственные значения, и только они, являются корнями характеристического многочлена матрицы. Количество различных собственных значений не может превышать размер матрицы. Если выбрать в качестве базисных векторов собственные векторы оператора, то матрица A в таком базисе станет диагональной, причём на диагонали будут стоять собственные значения оператора. Отметим, однако, что далеко не любая матрица допускает базис из собственных векторов (общая структура описывается нормальной жордановой формой). Для положительно определённой симметричной матрицы A процедура нахождения собственных значений и собственных векторов является не чем иным, как поиском направлений и длин полуосей соответствующего эллипса.

Если числовое поле алгебраически замкнуто (например, является полем комплексных чисел), то характеристический многочлен разлагается в произведение n линейных множителей:

P_{A}(lambda )=(-1)^{n}prod _{i=1}^{n}(lambda -lambda _{i}),

где lambda _{i};(i=1,ldots ,n) — собственные значения; некоторые из lambda _{i} могут быть равны. Кратность собственного значения lambda _{i} — это число множителей, равных {displaystyle lambda -lambda _{i},} в разложении характеристического многочлена на линейные множители (называется также алгебраическая кратность собственного значения).

Размерность корневого пространства V_{lambda _{i}} равна кратности собственного значения.

Векторное пространство L разлагается в прямую сумму корневых подпространств (по теореме о жордановой форме):

L=bigoplus _{lambda _{i}}V_{lambda _{i}}
где суммирование производится по всем lambda _{i} — собственным числам A.

Геометрическая кратность собственного значения lambda _{i} — это размерность соответствующего собственного подпространства E_{lambda _{i}}; геометрическая кратность собственного значения не превосходит его кратности, поскольку E_{lambda _{i}}subseteq V_{lambda _{i}}

Нормальные операторы и их подклассы[править | править код]

Все корневые векторы нормального оператора являются собственными. Собственные векторы нормального оператора A, соответствующие различным собственным значениям, ортогональны, то есть если Ax=lambda x, Ay=mu y и lambda neq mu , то (x,y)=0 (для произвольного оператора это неверно).

Все собственные значения самосопряжённого оператора являются вещественными, антиэрмитового оператора — мнимыми, а все собственные значения унитарного оператора лежат на единичной окружности |lambda |=1.

В конечномерном случае сумма размерностей собственных подпространств нормального оператора {displaystyle Acolon mathbb {C} ^{n}to mathbb {C} ^{n}}, соответствующих всем собственным значениям, равна размерности матрицы, а векторное пространство разлагается в ортогональную сумму собственных подпространств:

{displaystyle L=bigoplus _{lambda _{i}}E_{lambda _{i}}},

где суммирование производится по всем lambda _{i} — собственным числам A, а E_{lambda _{i}} взаимно ортогональны для различных lambda _{i}. Это свойство для нормального оператора над {displaystyle mathbb {C} } в конечномерном случае является характеристическим: оператор нормален тогда и только тогда, когда его матрица имеет диагональный вид в каком-нибудь ортонормированном базисе.

Положительные матрицы[править | править код]

Квадратная вещественная ntimes n матрица A=(a_{{ij}}) называется положительной, если все её элементы положительны: a_{ij}>0.

Теорема Перрона (частный случай теоремы Перрона — Фробениуса): Положительная квадратная матрица A имеет положительное собственное значение r, которое имеет алгебраическую кратность 1 и строго превосходит абсолютную величину любого другого собственного значения этой матрицы. Собственному значению r соответствует собственный вектор e_{r}, все координаты которого строго положительны. Вектор e_{r} — единственный собственный вектор A (с точностью до умножения на число), имеющий неотрицательные координаты.

Собственный вектор e_{r} может быть вычислен посредством прямых итераций: выбирается произвольный начальный вектор v_{0} с положительными координатами, последующий элемент задаётся рекуррентной формулой:

v_{k+1}={frac {Av_{k}}{|Av_{k}|}},

получается последовательность v_{{k}}, сходящаяся к нормированному собственному вектору e_{r}/|e_{r}|.

Другая область применения метода прямых итераций — поиск собственных векторов положительно определённых симметричных операторов.

Неравенства для собственных значений[править | править код]

Неравенство Шура: для собственных значений {displaystyle lambda _{1},dots ,lambda _{n}} матрицы A=(a_{ij})_{i,j=1,ldots ,n}:

{displaystyle sum _{i=1}^{n}|lambda _{i}|^{2}leqslant sum _{i,j=1}^{n}|a_{ij}|^{2}=|A|_{F}^{2}},

причём равенство достигается тогда и только тогда, когда A — нормальная матрица[10].

Для собственных значений lambda _{1},...,lambda _{n} матрицы A=B+iC, где матрицы B,C — эрмитовы, имеет место:

{displaystyle sum _{i=1}^{n}|Re lambda _{i}|^{2}leqslant sum _{i,j=1}^{n}|b_{ij}|^{2}} и {displaystyle sum _{i=1}^{n}|Im lambda _{i}|^{2}leqslant sum _{i,j=1}^{n}|c_{ij}|^{2}}[11].

Для эрмитовых матриц A,B и C=A+B их собственные значения, упорядоченные в порядке возрастания: alpha _{1}leqslant ...leqslant alpha _{n},beta _{1}leqslant ...leqslant beta _{n},gamma _{1}leqslant ...leqslant gamma _{n} дают: gamma _{i}geqslant alpha _{i}+beta _{i-j+1} при igeqslant j и gamma _{i}leqslant alpha _{i}+beta _{i-j+n} при ileqslant j[11].

Примечания[править | править код]

  1. Herstein (1964, pp. 228,229)
  2. Nering (1970, p. 38)
  3. Иногда используются синонимичные термины: характеристический вектор и характеристическое число оператора.
  4. Не путать с собственным подпространством линейного векторного пространства — любым подпространством, отличным от тривиальных подпространств, то есть от самого этого пространства и от нулевого пространства.
  5. Kline, 1972, pp. 807–808.
  6. Augustin Cauchy (1839) «Mémoire sur l’intégration des équations linéaires» (Memoir on the integration of linear equations), Comptes rendus, 8 : 827—830, 845—865, 889—907, 931—937. p. 827: Архивная копия от 7 июня 2019 на Wayback Machine «On sait d’ailleurs qu’en suivant la méthode de Lagrange, on obtient pour valeur générale de la variable prinicipale une fonction dans laquelle entrent avec la variable principale les racines d’une certaine équation que j’appellerai l’équation caractéristique, le degré de cette équation étant précisément l’order de l’équation différentielle qu’il s’agit d’intégrer.»
  7. Kline, 1972, p. 1063.
  8. David Hilbert (1904).«Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen. (Erste Mitteilung)» Архивная копия от 5 ноября 2018 на Wayback Machine, Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse, pp. 49-91.
  9. Aldrich, John (2006), «Eigenvalue, eigenfunction, eigenvector, and related terms», in Jeff Miller (ed.), Earliest Known Uses of Some of the Words of Mathematics Архивная копия от 23 декабря 2017 на Wayback Machine
  10. Задачи и теоремы линейной алгебры, 1996, с. 206.
  11. 1 2 Задачи и теоремы линейной алгебры, 1996, с. 207.

Литература[править | править код]

  • Гантмахер Ф. Р.. Теория матриц. — М.: Наука, 1966. — 576 с. — ISBN ISBN 5-9221-0524-8.
  • Уилкинсон Д. Х. Алгебраическая проблема собственных значений. — М.: Наука, 1970. — 564 с. — ISBN 978-5-458-25464-9.
  • Гельфанд И. М.. Лекции по линейной алгебре. — М.: Добросвет, КДУ, 2009. — 320 с. — 1000 экз. — ISBN 978-5-98227-625-4.
  • Фаддеев Д. К.. Лекции по алгебре. — М.: ЁЁ Медиа, 2012. — 416 с. — ISBN 978-5-458-25543-1.
  • Шафаревич И. Р., Ремизов А. О. Линейная алгебра и геометрия. — М.: Физматлит, 2009. — 512 с. — ISBN 978-5-9221-1139-3.
  • Прасолов В. В. Задачи и теоремы линейной алгебры. — М.: Наука, 1996. — 304 с. — ISBN 5-02-014727-3.
  • Икрамов Х. Д. Несимметричная проблема собственных значений. — М.: Наука, 1991. — 240 с. — ISBN 5-02-014462-2.
  • Herstein, I. N. (1964), Topics In Algebra, Waltham: Blaisdell Publishing Company, ISBN 978-1114541016
  • Horn, Roger A. & Johnson, Charles F. (1985), Matrix analysis, Cambridge University Press, ISBN 0-521-30586-1
  • Nering, Evar D. (1970), Linear Algebra and Matrix Theory (2nd ed.), New York: Wiley
  • Kline, Morris (1972), Mathematical thought from ancient to modern times, Oxford University Press, ISBN 0-19-501496-0

Добавить комментарий