Как найти матричную экспоненту

О вычислении матричной экспоненты

Время на прочтение
3 мин

Количество просмотров 16K

image

При построении и анализе поведения решений систем обыкновенных дифференциальных уравнений иногда требуется определять матричную экспоненту [1]. Классический метод связан с тем, что приходится рассчитывать большие степени матриц. В данном топике рассматривается алгоритм приближенного вычисления матричной экспоненты, который за фиксированное число матричных операций дает результат с заданной точностью. Проведен вычислительный эксперимент с целью анализа эффективности алгоритма.

1. Вычисление матричной экспоненты

Вычисление экспоненты
image
где E — единичная матрица, t — время, связано с необходимостью расчета высоких степеней матрица A. Получим формулу, позволяющую определить матричную экспоненту с помощью n степеней матрицы A (n — ее порядок).

Пусть характеристическое уравнение матрицы A имеет вид
image
По теореме Гамильтона-Кэли [2] матрица A удовлетворяет матричному уравнению, аналогичному (2):
image
откуда
image
Следуя методу Д.К. Фаддеева [2], коэффициенты характеристического уравнения определяются по рекуррентному соотношению
image
где image — след матрицы image (сумма элементов, стоящих на главной диагонали), image

Далее введем обозначение: если m=0, то image; иначе (при натуральном m)
image

Умножим обе части соотношения (3) на матрицу A с учетом введенных обозначений. Получим
image
Выражение (5) можно переписать как
image
Теперь умножим обе части равенства (6) на матрицу A, подставив при этом в полученное соотношение формулу (3):
image
Тогда из выражения (7) с помощью последовательного умножения на матрицу A обеих его частей следует, что
image

Теперь представим матричную экспоненту как
image
Откуда имеем
image

2. Описание алгоритма

Для реализации вычисления матричной экспоненты, согласно (8), был применен следующий алгоритм. Сначала нужно инициировать результат значением нулевой матрицы. Вычислить image для k от 0 до n. Далее выполнить для k от 0 до n–1 следующую последовательность операций:
1. Вычислить сумму image. В качестве критерия прекращения суммирования использовать условие image, где image — положительное число, характеризующее точность вычисления суммы.
2. Используя значения, полученные ранее, определить произведение image и прибавить его к текущему значению результата.

При вычислении матричной экспоненты с помощью данного алгоритма используется рекуррентное соотношение (4). При больших значениях m и k большинство значений q будут рассчитываться повторно много раз. Поскольку q(m,k) является чистой функцией (зависит только от входных аргументов), то будет разумно применить стратегию мемоизации.

Мемоизация — оптимизационная техника, заключающаяся в запоминании результатов вычисления функции для предотвращения множественного расчета значения функции от одних и тех же аргументов. Данная оптимизация позволяет улучшить временные характеристики алгоритма за счет увеличения затрат памяти.

3. Сравнение с классическим алгоритмом

Разработанный алгоритм обеспечивает вычисление матричной экспоненты, используя только n степеней матрицы, в то время как классический алгоритм (1) не детерминирован, и вычисления степеней матрицы продолжаются, пока не выполнится условие останова алгоритма. Обычно таким условием является

image

Заметим, что классический алгоритм имеет потребление памяти image. Описанный алгоритм, в виду необходимости хранить n-1 степень матрицы A, имеет потребление памяти image.

Нами был проведен вычислительный эксперимент с целью сравнить быстродействие алгоритмов. Для этого была разработана KipDblK программа из комплекса [3] на языке C++, реализующая оба алгоритма. С помощью данной программы были произведены расчеты матричной экспоненты для матриц различного размера. Порядок матрицы изменялся от 2 до 132. Матрица инициализировалась случайными числами в диапазоне [0;1]. Экспонента вычислялась для t=1. Результаты сравнительного эксперимента представлены на рис. 1. По оси абсцисс отложен порядок матрицы A, по оси ординат — время счета. Полученные точки соединены сплайнами для наглядности.

image

Рис. 1. Сравнение временных характеристик классического алгоритма (верхняя кривая) вычисления матричной экспоненты и алгоритма, описанного в данном топике (нижняя кривая).

P.S.

Данный топик был подготовлен по материалам нашей статьи [4].

Литература

1. Демидович Б.П. Лекции по математической теории устойчивости. — М.: Наука, 1967.
2. Гантмахер Ф.Р. Теория матриц. – М.: Наука, 1967.
3. KipDblK maxima_comm.tar.gz.
4. Безгин С.В., Пчелинцев А.Н. Организация матричных и символьных вычислений для исследования поведения решений обыкновенных дифференциальных уравнений // Системы управления и информационные технологии, 2012. Т. 47, №1. — С. 4-7.

Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 18 мая 2020 года; проверки требуют 3 правки.

Экспонента матрицы — матричная функция от квадратной матрицы, аналогичная обычной экспоненциальной функции. Матричная экспонента устанавливает связь между алгеброй Ли матриц и соответствующий группой Ли.

Для вещественной или комплексной матрицы X размера ntimes n экспонента от X, обозначаемая как e^{X} или exp(X), — это матрица ntimes n, определяемая степенным рядом:

e^{X}=sum _{{k=0}}^{infty }{1 over k!}X^{k},

где X^{k} — k-я степень матрицы X.
Данный ряд всегда сходится, так что экспонента от X всегда корректно определена.

Если X — матрица размера 1times 1, то матричная экспонента от X есть матрица размерности 1times 1, единственный элемент которой равен обычной экспоненте от единственного элемента X.

Свойства[править | править код]

Основные свойства[править | править код]

Для комплексных матриц X и Y размера ntimes n, произвольных комплексных чисел a и b, единичной матрицы E и нулевой матрицы {displaystyle 0}, экспонента обладает следующим свойствами:

  • exp 0=E;
  • exp aXexp bX=exp left((a+b)Xright);
  • exp Xexp left(-Xright)=E;
  • если XY=YX, то exp Xexp Y=exp Yexp X=exp(X+Y);
  • если Y — невырожденная матрица, то exp(YXY^{{-1}})=Yexp(X)Y^{{-1}}.
  • exp X^{{mathrm  T}}=(exp X)^{{mathrm  T}}, где X^{{mathrm  T}} обозначает транспонированную матрицу для X, отсюда следует, что если X является симметричной, то exp X тоже симметрична, а если X — кососимметричная матрица, то exp X — ортогональная;
  • exp(X^{*})=(exp X)^{*}, где X^{*} обозначает эрмитово-сопряжённую матрицу для X, отсюда следует, что если X — эрмитова матрица, то exp X тоже эрмитова, а если X — антиэрмитова матрица, то exp X — унитарная
  • {displaystyle det(exp X)=exp(operatorname {tr} X)}, где operatorname {tr}X — след матрицы X.

Системы линейных дифференциальных уравнений[править | править код]

Одна из причин, обуславливающих важность матричной экспоненты, заключается в том, что она может быть использована для решения систем обыкновенных дифференциальных уравнений[1]. Решение системы:

{frac  {d}{dt}}y(t)=Ay(t),quad y(0)=y_{0},

где A — постоянная матрица, даётся выражением:

{displaystyle y(t)=e^{At}y_{0}.}

Матричная экспонента может быть также использована для решения неоднородных уравнений вида

{frac  {d}{dt}}y(t)=Ay(t)+z(t),quad y(0)=y_{0}.

Не существует замкнутого аналитического выражения для решений неавтономных дифференциальных уравнений вида

{frac  {d}{dt}}y(t)=A(t),y(t),quad y(0)=y_{0},

где A — не постоянная, но разложение Магнуса[en] позволяет получить представление решения в виде бесконечной суммы.

Экспонента суммы[править | править код]

Для любых двух вещественных чисел (скаляров) x и y экспоненциальная функция удовлетворяет уравнению {displaystyle e^{x+y}=e^{x}cdot e^{y}}, это же свойство имеет место для симметричных матриц — если матрицы X и Y коммутируют (то есть XY=YX), то exp(X+Y)=exp(X)exp(Y). Однако для некоммутирующих матриц это равенство выполняется не всегда, в общем случае для вычисления exp(X+Y) используется формула Бейкера — Кэмпбелла — Хаусдорфа.

В общем случае из равенства exp(X+Y)=exp(X)exp(Y) не следует, что X и Y коммутируют.

Для эрмитовых матриц существует две примечательные теоремы, связанные со следом экспонент матриц.

Неравенство Голдена — Томпсона[править | править код]

Если A и H — эрмитовы матрицы, то[2]:

operatorname {tr}exp(A+H)leqslant operatorname {tr}(exp(A)exp(H)),

Коммутативность для выполнения данного утверждения не требуется. Существуют контрпримеры, которые показывают, что неравенство Голдена — Томпсона не может быть расширено на три матрицы, а operatorname {tr}(exp(A)exp(B)exp(C)) не всегда является вещественным числом для эрмитовых матриц A, B и C.

Теорема Либа[править | править код]

Теорема Либа, названная по имени Эллиотта Либа[en], гласит, что для фиксированной эрмитовой матрицы H, функция:

f(A)=operatorname {tr},exp left(H+log Aright)

является вогнутой на конусе положительно-определённых матриц[3].

Экспоненциальное отображение[править | править код]

Экспонента матрицы всегда является невырожденной матрицей. Обратная к exp X матрица равна exp(-X), это аналог того факта, что экспонента от комплексного числа никогда не равна нулю. Таким образом, матричная экспонента определяет отображение:

{displaystyle exp colon M_{n}(mathbb {C} )to mathrm {GL} (n,mathbb {C} )}

из пространства всех матриц размерности ntimes n на полную линейную группу порядка n, то есть группу всех невырожденных матриц размерности ntimes n. Это отображение является сюръекцией, то есть каждая невырожденная матрица может быть записана как экспонента от некоторой другой матрицы (чтобы это имело место необходимо рассматривать поле комплексных чисел {displaystyle mathbb {C} }, а не вещественных чисел mathbb {R} ).

Для любых двух матриц X и Y имеет место неравенство

|e^{{X+Y}}-e^{X}|leqslant |Y|e^{{|X|}}e^{{|Y|}},

где |cdot | обозначает произвольную матричную норму. Отсюда следует, что экспоненциальное отображение является непрерывным и липшицевым на компактных подмножествах {displaystyle M_{n}(mathbb {C} )}.

Отображение:

tmapsto e^{{tX}},qquad tin {mathbb  R}

определяет гладкую кривую в полной линейной группе, которая проходит через единичный элемент при t = 0.

Приложения[править | править код]

Линейные дифференциальные уравнения[править | править код]

Пример однородной системы[править | править код]

Для системы:

{begin{matrix}x'&=&2x&-y&+z\y'&=&&3y&-1z\z'&=&2x&+y&+3z~.end{matrix}}

её матрица есть:

A={begin{bmatrix}2&-1&1\0&3&-1\2&1&3end{bmatrix}}~.

Можно показать, что экспонента от матрицы tA есть

e^{{tA}}={frac  {1}{2}}{begin{bmatrix}e^{{2t}}(1+e^{{2t}}-2t)&-2te^{{2t}}&e^{{2t}}(-1+e^{{2t}})\-e^{{2t}}(-1+e^{{2t}}-2t)&2(t+1)e^{{2t}}&-e^{{2t}}(-1+e^{{2t}})\e^{{2t}}(-1+e^{{2t}}+2t)&2te^{{2t}}&e^{{2t}}(1+e^{{2t}})end{bmatrix}}~,

таким образом, общее решение этой системы есть:

{begin{bmatrix}x\y\zend{bmatrix}}={frac  {x(0)}{2}}{begin{bmatrix}e^{{2t}}(1+e^{{2t}}-2t)\-e^{{2t}}(-1+e^{{2t}}-2t)\e^{{2t}}(-1+e^{{2t}}+2t)end{bmatrix}}+{frac  {y(0)}{2}}{begin{bmatrix}-2te^{{2t}}\2(t+1)e^{{2t}}\2te^{{2t}}end{bmatrix}}+{frac  {z(0)}{2}}{begin{bmatrix}e^{{2t}}(-1+e^{{2t}})\-e^{{2t}}(-1+e^{{2t}})\e^{{2t}}(1+e^{{2t}})end{bmatrix}}~.

Пример неоднородной системы[править | править код]

Для решения неоднородной системы:

{begin{matrix}x'&=&2x&-&y&+&z&+&e^{{2t}}\y'&=&&&3y&-&z&\z'&=&2x&+&y&+&3z&+&e^{{2t}}end{matrix}}

вводятся обозначения:

A=left[{begin{array}{rrr}2&-1&1\0&3&-1\2&1&3end{array}}right]~,

и

{mathbf  {b}}=e^{{2t}}{begin{bmatrix}1\0\1end{bmatrix}}

Так как сумма общего решения однородного уравнения и частного решения дают общее решение неоднородного уравнения, остаётся лишь найти частное решение. Так как:

{mathbf  {y}}_{p}=e^{{tA}}int _{0}^{t}e^{{(-u)A}}{begin{bmatrix}e^{{2u}}\0\e^{{2u}}end{bmatrix}},du+e^{{tA}}{mathbf  {c}}
{mathbf  {y}}_{p}=e^{{tA}}int _{0}^{t}{begin{bmatrix}2e^{u}-2ue^{{2u}}&-2ue^{{2u}}&0\\-2e^{u}+2(u+1)e^{{2u}}&2(u+1)e^{{2u}}&0\\2ue^{{2u}}&2ue^{{2u}}&2e^{u}end{bmatrix}}{begin{bmatrix}e^{{2u}}\0\e^{{2u}}end{bmatrix}},du+e^{{tA}}{mathbf  {c}}
{mathbf  {y}}_{p}=e^{{tA}}int _{0}^{t}{begin{bmatrix}e^{{2u}}(2e^{u}-2ue^{{2u}})\\e^{{2u}}(-2e^{u}+2(1+u)e^{{2u}})\\2e^{{3u}}+2ue^{{4u}}end{bmatrix}},du+e^{{tA}}{mathbf  {c}}
{mathbf  {y}}_{p}=e^{{tA}}{begin{bmatrix}-{1 over 24}e^{{3t}}(3e^{t}(4t-1)-16)\\{1 over 24}e^{{3t}}(3e^{t}(4t+4)-16)\\{1 over 24}e^{{3t}}(3e^{t}(4t-1)-16)end{bmatrix}}+{begin{bmatrix}2e^{t}-2te^{{2t}}&-2te^{{2t}}&0\\-2e^{t}+2(t+1)e^{{2t}}&2(t+1)e^{{2t}}&0\\2te^{{2t}}&2te^{{2t}}&2e^{t}end{bmatrix}}{begin{bmatrix}c_{1}\c_{2}\c_{3}end{bmatrix}}~,

где {mathbf  c}={mathbf  y}_{p}(0) — начальное условие.

Обобщение: вариация произвольной постоянной[править | править код]

В случае неоднородной системы можно использовать метод вариации произвольной постоянной. Ищется частное решение в виде:
{mathbf  y}_{p}(t)=exp(tA){mathbf  z}(t):

{begin{aligned}{mathbf  {y}}_{p}'(t)&=(e^{{tA}})'{mathbf  {z}}(t)+e^{{tA}}{mathbf  {z}}'(t)\[6pt]&=Ae^{{tA}}{mathbf  {z}}(t)+e^{{tA}}{mathbf  {z}}'(t)\[6pt]&=A{mathbf  {y}}_{p}(t)+e^{{tA}}{mathbf  {z}}'(t)~.end{aligned}}

Чтобы {mathbf  y}_{p} было решением, должно иметь место следующее:

{begin{aligned}e^{{tA}}{mathbf  {z}}'(t)&={mathbf  {b}}(t)\[6pt]{mathbf  {z}}'(t)&=(e^{{tA}})^{{-1}}{mathbf  {b}}(t)\[6pt]{mathbf  {z}}(t)&=int _{0}^{t}e^{{-uA}}{mathbf  {b}}(u),du+{mathbf  {c}}~.end{aligned}}

Таким образом:

{begin{aligned}{mathbf  {y}}_{p}(t)&{}=e^{{tA}}int _{0}^{t}e^{{-uA}}{mathbf  {b}}(u),du+e^{{tA}}{mathbf  {c}}\&{}=int _{0}^{t}e^{{(t-u)A}}{mathbf  {b}}(u),du+e^{{tA}}{mathbf  {c}}end{aligned}}~,

где {mathbf  {c}} определяется из начальных условий задачи.

См. также[править | править код]

  • Тригонометрические функции от матрицы

Примечания[править | править код]

  1. Пискунов H. С. Дифференциальное и интегральное исчисления для втузов, т. 2.: Учебное пособие для втузов. — 13-е изд.. — М.: Наука, Главная редакция физико-математической литературы, 1985. — С. 544—547. — 560 с.
  2. Bhatia, R. Matrix Analysis (неопр.). — Springer, 1997. — Т. 169. — (Graduate Texts in Mathematics). — ISBN 978-0-387-94846-1.
  3. E. H. Lieb. Convex trace functions and the Wigner–Yanase–Dyson conjecture (англ.) // Adv. Math. : journal. — 1973. — Vol. 11, no. 3. — P. 267—288. — doi:10.1016/0001-8708(73)90011-X.

Ссылки[править | править код]

  • Weisstein, Eric W., «Matrix Exponential», MathWorld
  • Module for the Matrix Exponential

Другой метод
решения линейных систем с постоянными
коэффициентами основан на использовании
в качестве фундаментальной матрицы
матричной экспоненты

Матрицаопределяется как сумма ряда

Если матрица
найдена, то решение системы (3.1) с
начальным условиемимеет вид.

Для отыскания
матрицы
могут быть применены различные приемы,
в зависимости от структуры спектра
матрицы.

  1. Если все собственные
    значения
    матрицы– действительные различные числа, то
    матрицуудобно находить так:

,

(3.6)

где
(матрица, составленная из столбцов
координат собственных векторов матрицыА),
а

.

  1. Если среди
    различных собственных значений матрицы
    А
    имеются комплексные, то матрица
    в вещественной форме может быть найдена
    с помощью следующего приема: нужно
    найти общее решение системы (3.1) так,
    как это было описано выше, а потом
    составить матрицу,i-ым
    столбцом которой будет решение этой
    системы, удовлетворяющее начальным
    условиям
    ,.

Пример 4.
Для матрицы системы из примера 2 найти
.

Решение. Составим
матрицу
из столбцов координат собственных
векторов матрицы:

.

Тогда

.

Пример 5. Для
матрицы
найти.

Решение.
Собственные
значения матрицы
– комплексно сопряженные числа.
Собственный вектор, соответствующий

.

Имеем:

Поэтому общее
решение линейной системы (3.2) с заданной
матрицей
имеет вид

Найдем,
сначала
частное
решение,
удовлетворяющее
условию
.
Оно будет иметь вид

Частное
решение,
удовлетворяющее
условиям
,
имеет вид

Поэтому

.

  1. Если среди
    собственных значений матрица
    имеются кратные, то следует отыскать
    матрицу,
    приводящую матрицук жордановой форме:

.

Жорданова
клетка
,
соответствующая
корню
кратности
,
имеет
вид

.

Для такой клетки
легко находится

.
(3.7)

Проведя
такие
построения
для
каждой
клетки
Жордана,
находим
.
Тогда
.

Пример
6
.
Вычислить
матрицу
,
если.

Решение.
Собственные значения данной матрицы
.
Так как ранг матрицыравен 1, то жорданова форма матрицыА
имеет вид
.
Матрицу,
приводящую матрицуА
к жордановой форме, найдем из уравнения
.
Пусть.
Тогда
для
отыскания элементов матрицы
получим уравнение

.

Это матричное
уравнение эквивалентно системе

,

решение которой
следующее:
.
Итак,

.

Согласно
формуле
(3.7)
.
Поэтому

(3.8)

3.2. Формула Коши

Решение неоднородной
системы с постоянными коэффициентами

,
(3.9)

удовлетворяющее
начальному условию
,
может быть выражено через экспоненциал
матрицы системы по формуле

(3.10)

Если
решение системы (3.9) записано в виде
(3.10), то говорят, что оно записано в форме
Коши.

Пример
7
.
Найдя матрицу
,
записать решение системы

в форме Коши.

Матрица
для рассматриваемой системы уже была
найдена в предыдущем примере, и она
имеет вид (3.8). Согласно формуле (3.10),
можем записать

Задание 12

Решить линейную
систему путем сведения ее к одному
уравнению высшего порядка

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

In mathematics, the matrix exponential is a matrix function on square matrices analogous to the ordinary exponential function. It is used to solve systems of linear differential equations. In the theory of Lie groups, the matrix exponential gives the exponential map between a matrix Lie algebra and the corresponding Lie group.

Let X be an n×n real or complex matrix. The exponential of X, denoted by eX or exp(X), is the n×n matrix given by the power series

{displaystyle e^{X}=sum _{k=0}^{infty }{frac {1}{k!}}X^{k}}

where X^{0} is defined to be the identity matrix I with the same dimensions as X.[1]

The above series always converges, so the exponential of X is well-defined. If X is a 1×1 matrix the matrix exponential of X is a 1×1 matrix whose single element is the ordinary exponential of the single element of X.

Properties[edit]

Elementary properties[edit]

Let X and Y be n×n complex matrices and let a and b be arbitrary complex numbers. We denote the n×n identity matrix by I and the zero matrix by 0. The matrix exponential satisfies the following properties.[2]

We begin with the properties that are immediate consequences of the definition as a power series:

  • e0 = I
  • exp(XT) = (exp X)T, where XT denotes the transpose of X.
  • exp(X) = (exp X), where X denotes the conjugate transpose of X.
  • If Y is invertible then eYXY−1 = YeXY−1.

The next key result is this one:

The proof of this identity is the same as the standard power-series argument for the corresponding identity for the exponential of real numbers. That is to say, as long as X and Y commute, it makes no difference to the argument whether X and Y are numbers or matrices. It is important to note that this identity typically does not hold if X and Y do not commute (see Golden-Thompson inequality below).

Consequences of the preceding identity are the following:

  • eaXebX = e(a + b)X
  • eXeX = I

Using the above results, we can easily verify the following claims. If X is symmetric then eX is also symmetric, and if X is skew-symmetric then eX is orthogonal. If X is Hermitian then eX is also Hermitian, and if X is skew-Hermitian then eX is unitary.

Finally, a Laplace transform of matrix exponentials amounts to the resolvent,

{displaystyle int _{0}^{infty }e^{-ts}e^{tX},dt=(sI-X)^{-1}}

for all sufficiently large positive values of s.

Linear differential equation systems[edit]

One of the reasons for the importance of the matrix exponential is that it can be used to solve systems of linear ordinary differential equations. The solution of

{displaystyle {frac {d}{dt}}y(t)=Ay(t),quad y(0)=y_{0},}

where A is a constant matrix, is given by

{displaystyle y(t)=e^{At}y_{0}.}

The matrix exponential can also be used to solve the inhomogeneous equation

{displaystyle {frac {d}{dt}}y(t)=Ay(t)+z(t),quad y(0)=y_{0}.}

See the section on applications below for examples.

There is no closed-form solution for differential equations of the form

{displaystyle {frac {d}{dt}}y(t)=A(t),y(t),quad y(0)=y_{0},}

where A is not constant, but the Magnus series gives the solution as an infinite sum.

The determinant of the matrix exponential[edit]

By Jacobi’s formula, for any complex square matrix the following trace identity holds:[3]

{displaystyle det left(e^{A}right)=e^{operatorname {tr} (A)}~.}

In addition to providing a computational tool, this formula demonstrates that a matrix exponential is always an invertible matrix. This follows from the fact that the right hand side of the above equation is always non-zero, and so det(eA) ≠ 0, which implies that eA must be invertible.

In the real-valued case, the formula also exhibits the map

{displaystyle exp colon M_{n}(mathbb {R} )to mathrm {GL} (n,mathbb {R} )}

to not be surjective, in contrast to the complex case mentioned earlier. This follows from the fact that, for real-valued matrices, the right-hand side of the formula is always positive, while there exist invertible matrices with a negative determinant.

Real symmetric matrices[edit]

The matrix exponential of a real symmetric matrix is positive definite. Let S be an n×n real symmetric matrix and {displaystyle xin mathbb {R} ^{n}} a column vector. Using the elementary properties of the matrix exponential and of symmetric matrices, we have:

{displaystyle x^{T}e^{S}x=x^{T}e^{S/2}e^{S/2}x=x^{T}(e^{S/2})^{T}e^{S/2}x=(e^{S/2}x)^{T}e^{S/2}x=lVert e^{S/2}xrVert ^{2}geq 0.}

Since {displaystyle e^{S/2}} is invertible, the equality only holds for x=0, and we have {displaystyle x^{T}e^{S}x>0} for all non-zero x. Hence {displaystyle e^{S}} is positive definite.

The exponential of sums[edit]

For any real numbers (scalars) x and y we know that the exponential function satisfies ex+y = ex ey. The same is true for commuting matrices. If matrices X and Y commute (meaning that XY = YX), then,

{displaystyle e^{X+Y}=e^{X}e^{Y}.}

However, for matrices that do not commute the above equality does not necessarily hold.

The Lie product formula[edit]

Even if X and Y do not commute, the exponential eX + Y can be computed by the Lie product formula[4]

{displaystyle e^{X+Y}=lim _{nto infty }left(e^{{frac {1}{n}}X}e^{{frac {1}{n}}Y}right)^{n}.}

Using a large finite n to approximate the above is basis of the Suzuki-Trotter expansion, often used in numerical time evolution.

The Baker–Campbell–Hausdorff formula[edit]

In the other direction, if X and Y are sufficiently small (but not necessarily commuting) matrices, we have

{displaystyle e^{X}e^{Y}=e^{Z},}

where Z may be computed as a series in commutators of X and Y by means of the Baker–Campbell–Hausdorff formula:[5]

{displaystyle Z=X+Y+{frac {1}{2}}[X,Y]+{frac {1}{12}}[X,[X,Y]]-{frac {1}{12}}[Y,[X,Y]]+cdots ,}

where the remaining terms are all iterated commutators involving X and Y. If X and Y commute, then all the commutators are zero and we have simply Z = X + Y.

Inequalities for exponentials of Hermitian matrices[edit]

For Hermitian matrices there is a notable theorem related to the trace of matrix exponentials.

If A and B are Hermitian matrices, then[6]

{displaystyle operatorname {tr} exp(A+B)leq operatorname {tr} left[exp(A)exp(B)right].}

There is no requirement of commutativity. There are counterexamples to show that the Golden–Thompson inequality cannot be extended to three matrices – and, in any event, tr(exp(A)exp(B)exp(C)) is not guaranteed to be real for Hermitian A, B, C. However, Lieb proved[7][8] that it can be generalized to three matrices if we modify the expression as follows

{displaystyle operatorname {tr} exp(A+B+C)leq int _{0}^{infty }mathrm {d} t,operatorname {tr} left[e^{A}left(e^{-B}+tright)^{-1}e^{C}left(e^{-B}+tright)^{-1}right].}

The exponential map[edit]

The exponential of a matrix is always an invertible matrix. The inverse matrix of eX is given by eX. This is analogous to the fact that the exponential of a complex number is always nonzero. The matrix exponential then gives us a map

{displaystyle exp colon M_{n}(mathbb {C} )to mathrm {GL} (n,mathbb {C} )}

from the space of all n×n matrices to the general linear group of degree n, i.e. the group of all n×n invertible matrices. In fact, this map is surjective which means that every invertible matrix can be written as the exponential of some other matrix[9] (for this, it is essential to consider the field C of complex numbers and not R).

For any two matrices X and Y,

{displaystyle left|e^{X+Y}-e^{X}right|leq |Y|e^{|X|}e^{|Y|},}

where ‖ · ‖ denotes an arbitrary matrix norm. It follows that the exponential map is continuous and Lipschitz continuous on compact subsets of Mn(C).

The map

{displaystyle tmapsto e^{tX},qquad tin mathbb {R} }

defines a smooth curve in the general linear group which passes through the identity element at t = 0.

In fact, this gives a one-parameter subgroup of the general linear group since

{displaystyle e^{tX}e^{sX}=e^{(t+s)X}.}

The derivative of this curve (or tangent vector) at a point t is given by

{displaystyle {frac {d}{dt}}e^{tX}=Xe^{tX}=e^{tX}X.}

(1)

The derivative at t = 0 is just the matrix X, which is to say that X generates this one-parameter subgroup.

More generally,[10] for a generic t-dependent exponent, X(t),

{displaystyle {frac {d}{dt}}e^{X(t)}=int _{0}^{1}e^{alpha X(t)}{frac {dX(t)}{dt}}e^{(1-alpha )X(t)},dalpha ~.}

Taking the above expression eX(t) outside the integral sign and expanding the integrand with the help of the Hadamard lemma one can obtain the following useful expression for the derivative of the matrix exponent,[11]

{displaystyle left({frac {d}{dt}}e^{X(t)}right)e^{-X(t)}={frac {d}{dt}}X(t)+{frac {1}{2!}}left[X(t),{frac {d}{dt}}X(t)right]+{frac {1}{3!}}left[X(t),left[X(t),{frac {d}{dt}}X(t)right]right]+cdots }

The coefficients in the expression above are different from what appears in the exponential. For a closed form, see derivative of the exponential map.

Directional derivatives when restricted to Hermitian matrices[edit]

Let X be a ntimes n Hermitian matrix with distinct eigenvalues. Let {displaystyle X=E{textrm {diag}}(Lambda )E^{*}} be its eigen-decomposition where E is a unitary matrix whose columns are the eigenvectors of X, E^{*} is its conjugate transpose, and {displaystyle Lambda =left(lambda _{1},ldots ,lambda _{n}right)} the vector of corresponding eigenvalues. Then, for any ntimes n Hermitian matrix V, the directional derivative of {displaystyle exp :Xto e^{X}} at X in the direction V is
[12]
[13]

{displaystyle Dexp(X)[V]triangleq lim _{epsilon to 0}{frac {1}{epsilon }}left(displaystyle e^{X+epsilon V}-e^{X}right)=E(Godot {bar {V}})E^{*}}

where {displaystyle {bar {V}}=E^{*}VE}, the operator odot denotes the Hadamard product, and, for all 1leq i,jleq n, the matrix G is defined as

{displaystyle G_{i,j}=left{{begin{aligned}&{frac {e^{lambda _{i}}-e^{lambda _{j}}}{lambda _{i}-lambda _{j}}}&{text{ if }}ineq j,\&e^{lambda _{i}}&{text{ otherwise}}.\end{aligned}}right.}

In addition, for any ntimes n Hermitian matrix U, the second directional derivative in directions U and V is[13]

{displaystyle D^{2}exp(X)[U,V]triangleq lim _{epsilon _{u}to 0}lim _{epsilon _{v}to 0}{frac {1}{4epsilon _{u}epsilon _{v}}}left(displaystyle e^{X+epsilon _{u}U+epsilon _{v}V}-e^{X-epsilon _{u}U+epsilon _{v}V}-e^{X+epsilon _{u}U-epsilon _{v}V}+e^{X-epsilon _{u}U-epsilon _{v}V}right)=EF(U,V)E^{*}}

where the matrix-valued function F is defined, for all 1leq i,jleq n, as

{displaystyle F(U,V)_{i,j}=sum _{k=1}^{n}phi _{i,j,k}({bar {U}}_{ik}{bar {V}}_{jk}^{*}+{bar {V}}_{ik}{bar {U}}_{jk}^{*})}

with

{displaystyle phi _{i,j,k}=left{{begin{aligned}&{frac {G_{ik}-G_{jk}}{lambda _{i}-lambda _{j}}}&{text{ if }}ineq j,\&{frac {G_{ii}-G_{ik}}{lambda _{i}-lambda _{k}}}&{text{ if }}i=j{text{ and }}kneq i,\&{frac {G_{ii}}{2}}&{text{ if }}i=j=k.\end{aligned}}right.}

Computing the matrix exponential[edit]

Finding reliable and accurate methods to compute the matrix exponential is difficult, and this is still a topic of considerable current research in mathematics and numerical analysis. Matlab, GNU Octave, and SciPy all use the Padé approximant.[14][15][16] In this section, we discuss methods that are applicable in principle to any matrix, and which can be carried out explicitly for small matrices.[17] Subsequent sections describe methods suitable for numerical evaluation on large matrices.

Diagonalizable case[edit]

If a matrix is diagonal:

{displaystyle A={begin{bmatrix}a_{1}&0&cdots &0\0&a_{2}&cdots &0\vdots &vdots &ddots &vdots \0&0&cdots &a_{n}end{bmatrix}},}

then its exponential can be obtained by exponentiating each entry on the main diagonal:

{displaystyle e^{A}={begin{bmatrix}e^{a_{1}}&0&cdots &0\0&e^{a_{2}}&cdots &0\vdots &vdots &ddots &vdots \0&0&cdots &e^{a_{n}}end{bmatrix}}.}

This result also allows one to exponentiate diagonalizable matrices. If

A = UDU−1

and D is diagonal, then

eA = UeDU−1.

Application of Sylvester’s formula yields the same result. (To see this, note that addition and multiplication, hence also exponentiation, of diagonal matrices is equivalent to element-wise addition and multiplication, and hence exponentiation; in particular, the “one-dimensional” exponentiation is felt element-wise for the diagonal case.)

Example : Diagonalizable[edit]

For example, the matrix

{displaystyle A={begin{bmatrix}1&4\1&1\end{bmatrix}}}

can be diagonalized as

{displaystyle {begin{bmatrix}-2&2\1&1\end{bmatrix}}{begin{bmatrix}-1&0\0&3\end{bmatrix}}{begin{bmatrix}-2&2\1&1\end{bmatrix}}^{-1}.}

Thus,

{displaystyle e^{A}={begin{bmatrix}-2&2\1&1\end{bmatrix}}e^{begin{bmatrix}-1&0\0&3\end{bmatrix}}{begin{bmatrix}-2&2\1&1\end{bmatrix}}^{-1}={begin{bmatrix}-2&2\1&1\end{bmatrix}}{begin{bmatrix}{frac {1}{e}}&0\0&e^{3}\end{bmatrix}}{begin{bmatrix}-2&2\1&1\end{bmatrix}}^{-1}={begin{bmatrix}{frac {e^{4}+1}{2e}}&{frac {e^{4}-1}{e}}\{frac {e^{4}-1}{4e}}&{frac {e^{4}+1}{2e}}\end{bmatrix}}.}

Nilpotent case[edit]

A matrix N is nilpotent if Nq = 0 for some integer q. In this case, the matrix exponential eN can be computed directly from the series expansion, as the series terminates after a finite number of terms:

{displaystyle e^{N}=I+N+{frac {1}{2}}N^{2}+{frac {1}{6}}N^{3}+cdots +{frac {1}{(q-1)!}}N^{q-1}~.}

Since the series has a finite number of steps, it is a matrix polynomial, which can be computed efficiently.

General case[edit]

Using the Jordan–Chevalley decomposition[edit]

By the Jordan–Chevalley decomposition, any ntimes n matrix X with complex entries can be expressed as

{displaystyle X=A+N}

where

  • A is diagonalizable
  • N is nilpotent
  • A commutes with N

This means that we can compute the exponential of X by reducing to the previous two cases:

{displaystyle e^{X}=e^{A+N}=e^{A}e^{N}.}

Note that we need the commutativity of A and N for the last step to work.

Using the Jordan canonical form[edit]

A closely related method is, if the field is algebraically closed, to work with the Jordan form of X. Suppose that X = PJP−1 where J is the Jordan form of X. Then

{displaystyle e^{X}=Pe^{J}P^{-1}.}

Also, since

{displaystyle {begin{aligned}J&=J_{a_{1}}(lambda _{1})oplus J_{a_{2}}(lambda _{2})oplus cdots oplus J_{a_{n}}(lambda _{n}),\e^{J}&=exp {big (}J_{a_{1}}(lambda _{1})oplus J_{a_{2}}(lambda _{2})oplus cdots oplus J_{a_{n}}(lambda _{n}){big )}\&=exp {big (}J_{a_{1}}(lambda _{1}){big )}oplus exp {big (}J_{a_{2}}(lambda _{2}){big )}oplus cdots oplus exp {big (}J_{a_{n}}(lambda _{n}){big )}.end{aligned}}}

Therefore, we need only know how to compute the matrix exponential of a Jordan block. But each Jordan block is of the form

{displaystyle {begin{aligned}&&J_{a}(lambda )&=lambda I+N\&Rightarrow &e^{J_{a}(lambda )}&=e^{lambda I+N}=e^{lambda }e^{N}.end{aligned}}}

where N is a special nilpotent matrix. The matrix exponential of J is then given by

{displaystyle e^{J}=e^{lambda _{1}}e^{N_{a_{1}}}oplus e^{lambda _{2}}e^{N_{a_{2}}}oplus cdots oplus e^{lambda _{n}}e^{N_{a_{n}}}}

Projection case[edit]

If P is a projection matrix (i.e. is idempotent: P2 = P), its matrix exponential is:

eP = I + (e − 1)P.

Deriving this by expansion of the exponential function, each power of P reduces to P which becomes a common factor of the sum:

{displaystyle e^{P}=sum _{k=0}^{infty }{frac {P^{k}}{k!}}=I+left(sum _{k=1}^{infty }{frac {1}{k!}}right)P=I+(e-1)P~.}

Rotation case[edit]

For a simple rotation in which the perpendicular unit vectors a and b specify a plane,[18] the rotation matrix R can be expressed in terms of a similar exponential function involving a generator G and angle θ.[19][20]

{displaystyle {begin{aligned}G&=mathbf {ba} ^{mathsf {T}}-mathbf {ab} ^{mathsf {T}}&P&=-G^{2}=mathbf {aa} ^{mathsf {T}}+mathbf {bb} ^{mathsf {T}}\P^{2}&=P&PG&=G=GP~,end{aligned}}}

{displaystyle {begin{aligned}Rleft(theta right)=e^{Gtheta }&=I+Gsin(theta )+G^{2}(1-cos(theta ))\&=I-P+Pcos(theta )+Gsin(theta )~.\end{aligned}}}

The formula for the exponential results from reducing the powers of G in the series expansion and identifying the respective series coefficients of G2 and G with −cos(θ) and sin(θ) respectively. The second expression here for e is the same as the expression for R(θ) in the article containing the derivation of the generator, R(θ) = e.

In two dimensions, if {displaystyle a=left[{begin{smallmatrix}1\0end{smallmatrix}}right]} and {displaystyle b=left[{begin{smallmatrix}0\1end{smallmatrix}}right]}, then {displaystyle G=left[{begin{smallmatrix}0&-1\1&0end{smallmatrix}}right]}, {displaystyle G^{2}=left[{begin{smallmatrix}-1&0\0&-1end{smallmatrix}}right]}, and

{displaystyle R(theta )={begin{bmatrix}cos(theta )&-sin(theta )\sin(theta )&cos(theta )end{bmatrix}}=Icos(theta )+Gsin(theta )}

reduces to the standard matrix for a plane rotation.

The matrix P = −G2 projects a vector onto the ab-plane and the rotation only affects this part of the vector. An example illustrating this is a rotation of 30° = π/6 in the plane spanned by a and b,

{displaystyle {begin{aligned}mathbf {a} &={begin{bmatrix}1\0\0\end{bmatrix}}&mathbf {b} &={frac {1}{sqrt {5}}}{begin{bmatrix}0\1\2\end{bmatrix}}end{aligned}}}

{displaystyle {begin{aligned}G={frac {1}{sqrt {5}}}&{begin{bmatrix}0&-1&-2\1&0&0\2&0&0\end{bmatrix}}&P=-G^{2}&={frac {1}{5}}{begin{bmatrix}5&0&0\0&1&2\0&2&4\end{bmatrix}}\P{begin{bmatrix}1\2\3\end{bmatrix}}={frac {1}{5}}&{begin{bmatrix}5\8\16\end{bmatrix}}=mathbf {a} +{frac {8}{sqrt {5}}}mathbf {b} &Rleft({frac {pi }{6}}right)&={frac {1}{10}}{begin{bmatrix}5{sqrt {3}}&-{sqrt {5}}&-2{sqrt {5}}\{sqrt {5}}&8+{sqrt {3}}&-4+2{sqrt {3}}\2{sqrt {5}}&-4+2{sqrt {3}}&2+4{sqrt {3}}\end{bmatrix}}\end{aligned}}}

Let N = IP, so N2 = N and its products with P and G are zero. This will allow us to evaluate powers of R.

{displaystyle {begin{aligned}Rleft({frac {pi }{6}}right)&=N+P{frac {sqrt {3}}{2}}+G{frac {1}{2}}\Rleft({frac {pi }{6}}right)^{2}&=N+P{frac {1}{2}}+G{frac {sqrt {3}}{2}}\Rleft({frac {pi }{6}}right)^{3}&=N+G\Rleft({frac {pi }{6}}right)^{6}&=N-P\Rleft({frac {pi }{6}}right)^{12}&=N+P=I\end{aligned}}}

Evaluation by Laurent series[edit]

By virtue of the Cayley–Hamilton theorem the matrix exponential is expressible as a polynomial of order n−1.

If P and Qt are nonzero polynomials in one variable, such that P(A) = 0, and if the meromorphic function

{displaystyle f(z)={frac {e^{tz}-Q_{t}(z)}{P(z)}}}

is entire, then

{displaystyle e^{tA}=Q_{t}(A).}

To prove this, multiply the first of the two above equalities by P(z) and replace z by A.

Such a polynomial Qt(z) can be found as follows−see Sylvester’s formula. Letting a be a root of P, Qa,t(z) is solved from the product of P by the principal part of the Laurent series of f at a: It is proportional to the relevant Frobenius covariant. Then the sum St of the Qa,t, where a runs over all the roots of P, can be taken as a particular Qt. All the other Qt will be obtained by adding a multiple of P to St(z). In particular, St(z), the Lagrange-Sylvester polynomial, is the only Qt whose degree is less than that of P.

Example: Consider the case of an arbitrary 2×2 matrix,

{displaystyle A:={begin{bmatrix}a&b\c&dend{bmatrix}}.}

The exponential matrix etA, by virtue of the Cayley–Hamilton theorem, must be of the form

{displaystyle e^{tA}=s_{0}(t),I+s_{1}(t),A.}

(For any complex number z and any C-algebra B, we denote again by z the product of z by the unit of B.)

Let α and β be the roots of the characteristic polynomial of A,

{displaystyle P(z)=z^{2}-(a+d) z+ad-bc=(z-alpha )(z-beta )~.}

Then we have

{displaystyle S_{t}(z)=e^{alpha t}{frac {z-beta }{alpha -beta }}+e^{beta t}{frac {z-alpha }{beta -alpha }}~,}

hence

{displaystyle {begin{aligned}s_{0}(t)&={frac {alpha ,e^{beta t}-beta ,e^{alpha t}}{alpha -beta }},&s_{1}(t)&={frac {e^{alpha t}-e^{beta t}}{alpha -beta }}end{aligned}}}

if αβ; while, if α = β,

{displaystyle S_{t}(z)=e^{alpha t}(1+t(z-alpha ))~,}

so that

{displaystyle {begin{aligned}s_{0}(t)&=(1-alpha ,t),e^{alpha t},&s_{1}(t)&=t,e^{alpha t}~.end{aligned}}}

Defining

{displaystyle {begin{aligned}s&equiv {frac {alpha +beta }{2}}={frac {operatorname {tr} A}{2}}~,&q&equiv {frac {alpha -beta }{2}}=pm {sqrt {-det left(A-sIright)}},end{aligned}}}

we have

{displaystyle {begin{aligned}s_{0}(t)&=e^{st}left(cosh(qt)-s{frac {sinh(qt)}{q}}right),&s_{1}(t)&=e^{st}{frac {sinh(qt)}{q}},end{aligned}}}

where sin(qt)/q is 0 if t = 0, and t if q = 0.

Thus,

{displaystyle e^{tA}=e^{st}left(left(cosh(qt)-s{frac {sinh(qt)}{q}}right)~I~+{frac {sinh(qt)}{q}}Aright)~.}

Thus, as indicated above, the matrix A having decomposed into the sum of two mutually commuting pieces, the traceful piece and the traceless piece,

{displaystyle A=sI+(A-sI)~,}

the matrix exponential reduces to a plain product of the exponentials of the two respective pieces. This is a formula often used in physics, as it amounts to the analog of Euler’s formula for Pauli spin matrices, that is rotations of the doublet representation of the group SU(2).

The polynomial St can also be given the following “interpolation” characterization. Define et(z) ≡ etz, and n ≡ deg P. Then St(z) is the unique degree < n polynomial which satisfies St(k)(a) = et(k)(a) whenever k is less than the multiplicity of a as a root of P. We assume, as we obviously can, that P is the minimal polynomial of A. We further assume that A is a diagonalizable matrix. In particular, the roots of P are simple, and the “interpolation” characterization indicates that St is given by the Lagrange interpolation formula, so it is the Lagrange−Sylvester polynomial .

At the other extreme, if P = (za)n, then

{displaystyle S_{t}=e^{at} sum _{k=0}^{n-1} {frac {t^{k}}{k!}} (z-a)^{k}~.}

The simplest case not covered by the above observations is when {displaystyle P=(z-a)^{2},(z-b)} with ab, which yields

{displaystyle S_{t}=e^{at} {frac {z-b}{a-b}} left(1+left(t+{frac {1}{b-a}}right)(z-a)right)+e^{bt} {frac {(z-a)^{2}}{(b-a)^{2}}}.}

Evaluation by implementation of Sylvester’s formula[edit]

A practical, expedited computation of the above reduces to the following rapid steps. Recall from above that an n×n matrix exp(tA) amounts to a linear combination of the first n−1 powers of A by the Cayley–Hamilton theorem. For diagonalizable matrices, as illustrated above, e.g. in the 2×2 case, Sylvester’s formula yields exp(tA) = Bα exp() + Bβ exp(), where the Bs are the Frobenius covariants of A.

It is easiest, however, to simply solve for these Bs directly, by evaluating this expression and its first derivative at t = 0, in terms of A and I, to find the same answer as above.

But this simple procedure also works for defective matrices, in a generalization due to Buchheim.[21] This is illustrated here for a 4×4 example of a matrix which is not diagonalizable, and the Bs are not projection matrices.

Consider

{displaystyle A={begin{bmatrix}1&1&0&0\0&1&1&0\0&0&1&-{frac {1}{8}}\0&0&{frac {1}{2}}&{frac {1}{2}}end{bmatrix}}~,}

with eigenvalues λ1 = 3/4 and λ2 = 1, each with a multiplicity of two.

Consider the exponential of each eigenvalue multiplied by t, exp(λit). Multiply each exponentiated eigenvalue by the corresponding undetermined coefficient matrix Bi. If the eigenvalues have an algebraic multiplicity greater than 1, then repeat the process, but now multiplying by an extra factor of t for each repetition, to ensure linear independence.

(If one eigenvalue had a multiplicity of three, then there would be the three terms: B_{i_1} e^{lambda_i t}, ~ B_{i_2} t e^{lambda_i t}, ~ B_{i_3} t^2 e^{lambda_i t} . By contrast, when all eigenvalues are distinct, the Bs are just the Frobenius covariants, and solving for them as below just amounts to the inversion of the Vandermonde matrix of these 4 eigenvalues.)

Sum all such terms, here four such,

{displaystyle {begin{aligned}e^{At}&=B_{1_{1}}e^{lambda _{1}t}+B_{1_{2}}te^{lambda _{1}t}+B_{2_{1}}e^{lambda _{2}t}+B_{2_{2}}te^{lambda _{2}t},\e^{At}&=B_{1_{1}}e^{{frac {3}{4}}t}+B_{1_{2}}te^{{frac {3}{4}}t}+B_{2_{1}}e^{1t}+B_{2_{2}}te^{1t}~.end{aligned}}}

To solve for all of the unknown matrices B in terms of the first three powers of A and the identity, one needs four equations, the above one providing one such at t = 0. Further, differentiate it with respect to t,

{displaystyle Ae^{At}={frac {3}{4}}B_{1_{1}}e^{{frac {3}{4}}t}+left({frac {3}{4}}t+1right)B_{1_{2}}e^{{frac {3}{4}}t}+1B_{2_{1}}e^{1t}+left(1t+1right)B_{2_{2}}e^{1t}~,}

and again,

{displaystyle {begin{aligned}A^{2}e^{At}&=left({frac {3}{4}}right)^{2}B_{1_{1}}e^{{frac {3}{4}}t}+left(left({frac {3}{4}}right)^{2}t+left({frac {3}{4}}+1cdot {frac {3}{4}}right)right)B_{1_{2}}e^{{frac {3}{4}}t}+B_{2_{1}}e^{1t}+left(1^{2}t+(1+1cdot 1)right)B_{2_{2}}e^{1t}\&=left({frac {3}{4}}right)^{2}B_{1_{1}}e^{{frac {3}{4}}t}+left(left({frac {3}{4}}right)^{2}t+{frac {3}{2}}right)B_{1_{2}}e^{{frac {3}{4}}t}+B_{2_{1}}e^{t}+left(t+2right)B_{2_{2}}e^{t}~,end{aligned}}}

and once more,

{displaystyle {begin{aligned}A^{3}e^{At}&=left({frac {3}{4}}right)^{3}B_{1_{1}}e^{{frac {3}{4}}t}+left(left({frac {3}{4}}right)^{3}t+left(left({frac {3}{4}}right)^{2}+left({frac {3}{2}}right)cdot {frac {3}{4}}right)right)B_{1_{2}}e^{{frac {3}{4}}t}+B_{2_{1}}e^{1t}+left(1^{3}t+(1+2)cdot 1right)B_{2_{2}}e^{1t}\&=left({frac {3}{4}}right)^{3}B_{1_{1}}e^{{frac {3}{4}}t}!+left(left({frac {3}{4}}right)^{3}t!+{frac {27}{16}}right)B_{1_{2}}e^{{frac {3}{4}}t}!+B_{2_{1}}e^{t}!+left(t+3cdot 1right)B_{2_{2}}e^{t}~.end{aligned}}}

(In the general case, n−1 derivatives need be taken.)

Setting t = 0 in these four equations, the four coefficient matrices Bs may now be solved for,

{displaystyle {begin{aligned}I&=B_{1_{1}}+B_{2_{1}}\A&={frac {3}{4}}B_{1_{1}}+B_{1_{2}}+B_{2_{1}}+B_{2_{2}}\A^{2}&=left({frac {3}{4}}right)^{2}B_{1_{1}}+{frac {3}{2}}B_{1_{2}}+B_{2_{1}}+2B_{2_{2}}\A^{3}&=left({frac {3}{4}}right)^{3}B_{1_{1}}+{frac {27}{16}}B_{1_{2}}+B_{2_{1}}+3B_{2_{2}}~,end{aligned}}}

to yield

{displaystyle {begin{aligned}B_{1_{1}}&=128A^{3}-366A^{2}+288A-80I\B_{1_{2}}&=16A^{3}-44A^{2}+40A-12I\B_{2_{1}}&=-128A^{3}+366A^{2}-288A+80I\B_{2_{2}}&=16A^{3}-40A^{2}+33A-9I~.end{aligned}}}

Substituting with the value for A yields the coefficient matrices

{displaystyle {begin{aligned}B_{1_{1}}&={begin{bmatrix}0&0&48&-16\0&0&-8&2\0&0&1&0\0&0&0&1end{bmatrix}}\B_{1_{2}}&={begin{bmatrix}0&0&4&-2\0&0&-1&{frac {1}{2}}\0&0&{frac {1}{4}}&-{frac {1}{8}}\0&0&{frac {1}{2}}&-{frac {1}{4}}end{bmatrix}}\B_{2_{1}}&={begin{bmatrix}1&0&-48&16\0&1&8&-2\0&0&0&0\0&0&0&0end{bmatrix}}\B_{2_{2}}&={begin{bmatrix}0&1&8&-2\0&0&0&0\0&0&0&0\0&0&0&0end{bmatrix}}end{aligned}}}

so the final answer is

{displaystyle e^{tA}={begin{bmatrix}e^{t}&te^{t}&left(8t-48right)e^{t}!+left(4t+48right)e^{{frac {3}{4}}t}&left(16-2,tright)e^{t}!+left(-2t-16right)e^{{frac {3}{4}}t}\0&e^{t}&8e^{t}!+left(-t-8right)e^{{frac {3}{4}}t}&-2e^{t}+{frac {t+4}{2}}e^{{frac {3}{4}}t}\0&0&{frac {t+4}{4}}e^{{frac {3}{4}}t}&-{frac {t}{8}}e^{{frac {3}{4}}t}\0&0&{frac {t}{2}}e^{{frac {3}{4}}t}&-{frac {t-4}{4}}e^{{frac {3}{4}}t}~.end{bmatrix}}}

The procedure is much shorter than Putzer’s algorithm sometimes utilized in such cases.

Illustrations[edit]

Suppose that we want to compute the exponential of

{displaystyle B={begin{bmatrix}21&17&6\-5&-1&-6\4&4&16end{bmatrix}}.}

Its Jordan form is

{displaystyle J=P^{-1}BP={begin{bmatrix}4&0&0\0&16&1\0&0&16end{bmatrix}},}

where the matrix P is given by

{displaystyle P={begin{bmatrix}-{frac {1}{4}}&2&{frac {5}{4}}\{frac {1}{4}}&-2&-{frac {1}{4}}\0&4&0end{bmatrix}}.}

Let us first calculate exp(J). We have

{displaystyle J=J_{1}(4)oplus J_{2}(16)}

The exponential of a 1×1 matrix is just the exponential of the one entry of the matrix, so exp(J1(4)) = [e4]. The exponential of J2(16) can be calculated by the formula eI + N) = eλ eN mentioned above; this yields[22]

{displaystyle {begin{aligned}&exp left({begin{bmatrix}16&1\0&16end{bmatrix}}right)=e^{16}exp left({begin{bmatrix}0&1\0&0end{bmatrix}}right)=\[6pt]{}={}&e^{16}left({begin{bmatrix}1&0\0&1end{bmatrix}}+{begin{bmatrix}0&1\0&0end{bmatrix}}+{1 over 2!}{begin{bmatrix}0&0\0&0end{bmatrix}}+cdots {}right)={begin{bmatrix}e^{16}&e^{16}\0&e^{16}end{bmatrix}}.end{aligned}}}

Therefore, the exponential of the original matrix B is

{displaystyle {begin{aligned}exp(B)&=Pexp(J)P^{-1}=P{begin{bmatrix}e^{4}&0&0\0&e^{16}&e^{16}\0&0&e^{16}end{bmatrix}}P^{-1}\[6pt]&={1 over 4}{begin{bmatrix}13e^{16}-e^{4}&13e^{16}-5e^{4}&2e^{16}-2e^{4}\-9e^{16}+e^{4}&-9e^{16}+5e^{4}&-2e^{16}+2e^{4}\16e^{16}&16e^{16}&4e^{16}end{bmatrix}}.end{aligned}}}

Applications[edit]

Linear differential equations[edit]

The matrix exponential has applications to systems of linear differential equations. (See also matrix differential equation.) Recall from earlier in this article that a homogeneous differential equation of the form

{displaystyle mathbf {y} '=Amathbf {y} }

has solution eAt y(0).

If we consider the vector

{displaystyle mathbf {y} (t)={begin{bmatrix}y_{1}(t)\vdots \y_{n}(t)end{bmatrix}}~,}

we can express a system of inhomogeneous coupled linear differential equations as

{displaystyle mathbf {y} '(t)=Amathbf {y} (t)+mathbf {b} (t).}

Making an ansatz to use an integrating factor of eAt and multiplying throughout, yields

{displaystyle {begin{aligned}&&e^{-At}mathbf {y} '-e^{-At}Amathbf {y} &=e^{-At}mathbf {b} \&Rightarrow &e^{-At}mathbf {y} '-Ae^{-At}mathbf {y} &=e^{-At}mathbf {b} \&Rightarrow &{frac {d}{dt}}left(e^{-At}mathbf {y} right)&=e^{-At}mathbf {b} ~.end{aligned}}}

The second step is possible due to the fact that, if AB = BA, then eAtB = BeAt. So, calculating eAt leads to the solution to the system, by simply integrating the third step with respect to t.

A solution to this can be obtained by integrating and multiplying by {displaystyle e^{{textbf {A}}t}} to eliminate the exponent in the LHS. Notice that while {displaystyle e^{{textbf {A}}t}} is a matrix, given that it is a matrix exponential, we can say that {displaystyle e^{{textbf {A}}t}e^{-{textbf {A}}t}=I}. In other words, {displaystyle exp {{textbf {A}}t}=exp {{(-{textbf {A}}t)}^{-1}}}.

Example (homogeneous)[edit]

Consider the system

{displaystyle {begin{matrix}x'&=&2x&-y&+z\y'&=&&3y&-1z\z'&=&2x&+y&+3zend{matrix}}~.}

The associated defective matrix is

{displaystyle A={begin{bmatrix}2&-1&1\0&3&-1\2&1&3end{bmatrix}}~.}

The matrix exponential is

{displaystyle e^{tA}={frac {1}{2}}{begin{bmatrix}e^{2t}left(1+e^{2t}-2tright)&-2te^{2t}&e^{2t}left(-1+e^{2t}right)\-e^{2t}left(-1+e^{2t}-2tright)&2(t+1)e^{2t}&-e^{2t}left(-1+e^{2t}right)\e^{2t}left(-1+e^{2t}+2tright)&2te^{2t}&e^{2t}left(1+e^{2t}right)end{bmatrix}}~,}

so that the general solution of the homogeneous system is

{displaystyle {begin{bmatrix}x\y\zend{bmatrix}}={frac {x(0)}{2}}{begin{bmatrix}e^{2t}left(1+e^{2t}-2tright)\-e^{2t}left(-1+e^{2t}-2tright)\e^{2t}left(-1+e^{2t}+2tright)end{bmatrix}}+{frac {y(0)}{2}}{begin{bmatrix}-2te^{2t}\2(t+1)e^{2t}\2te^{2t}end{bmatrix}}+{frac {z(0)}{2}}{begin{bmatrix}e^{2t}left(-1+e^{2t}right)\-e^{2t}left(-1+e^{2t}right)\e^{2t}left(1+e^{2t}right)end{bmatrix}}~,}

amounting to

{displaystyle {begin{aligned}2x&=x(0)e^{2t}left(1+e^{2t}-2tright)+y(0)left(-2te^{2t}right)+z(0)e^{2t}left(-1+e^{2t}right)\[2pt]2y&=x(0)left(-e^{2t}right)left(-1+e^{2t}-2tright)+y(0)2(t+1)e^{2t}+z(0)left(-e^{2t}right)left(-1+e^{2t}right)\[2pt]2z&=x(0)e^{2t}left(-1+e^{2t}+2tright)+y(0)2te^{2t}+z(0)e^{2t}left(1+e^{2t}right)~.end{aligned}}}

Example (inhomogeneous)[edit]

Consider now the inhomogeneous system

{displaystyle {begin{matrix}x'&=&2x&-&y&+&z&+&e^{2t}\y'&=&&&3y&-&z&\z'&=&2x&+&y&+&3z&+&e^{2t}end{matrix}}~.}

We again have

{displaystyle A=left[{begin{array}{rrr}2&-1&1\0&3&-1\2&1&3end{array}}right]~,}

and

{displaystyle mathbf {b} =e^{2t}{begin{bmatrix}1\0\1end{bmatrix}}.}

From before, we already have the general solution to the homogeneous equation. Since the sum of the homogeneous and particular solutions give the general solution to the inhomogeneous problem, we now only need find the particular solution.

We have, by above,

{displaystyle {begin{aligned}mathbf {y} _{p}&=e^{tA}int _{0}^{t}e^{(-u)A}{begin{bmatrix}e^{2u}\0\e^{2u}end{bmatrix}},du+e^{tA}mathbf {c} \[6pt]&=e^{tA}int _{0}^{t}{begin{bmatrix}2e^{u}-2ue^{2u}&-2ue^{2u}&0\-2e^{u}+2(u+1)e^{2u}&2(u+1)e^{2u}&0\2ue^{2u}&2ue^{2u}&2e^{u}end{bmatrix}}{begin{bmatrix}e^{2u}\0\e^{2u}end{bmatrix}},du+e^{tA}mathbf {c} \[6pt]&=e^{tA}int _{0}^{t}{begin{bmatrix}e^{2u}left(2e^{u}-2ue^{2u}right)\e^{2u}left(-2e^{u}+2(1+u)e^{2u}right)\2e^{3u}+2ue^{4u}end{bmatrix}},du+e^{tA}mathbf {c} \[6pt]&=e^{tA}{begin{bmatrix}-{1 over 24}e^{3t}left(3e^{t}(4t-1)-16right)\{1 over 24}e^{3t}left(3e^{t}(4t+4)-16right)\{1 over 24}e^{3t}left(3e^{t}(4t-1)-16right)end{bmatrix}}+{begin{bmatrix}2e^{t}-2te^{2t}&-2te^{2t}&0\-2e^{t}+2(t+1)e^{2t}&2(t+1)e^{2t}&0\2te^{2t}&2te^{2t}&2e^{t}end{bmatrix}}{begin{bmatrix}c_{1}\c_{2}\c_{3}end{bmatrix}}~,end{aligned}}}

which could be further simplified to get the requisite particular solution determined through variation of parameters.
Note c = yp(0). For more rigor, see the following generalization.

Inhomogeneous case generalization: variation of parameters[edit]

For the inhomogeneous case, we can use integrating factors (a method akin to variation of parameters). We seek a particular solution of the form yp(t) = exp(tA) z(t),

{displaystyle {begin{aligned}mathbf {y} _{p}'(t)&=left(e^{tA}right)'mathbf {z} (t)+e^{tA}mathbf {z} '(t)\[6pt]&=Ae^{tA}mathbf {z} (t)+e^{tA}mathbf {z} '(t)\[6pt]&=Amathbf {y} _{p}(t)+e^{tA}mathbf {z} '(t)~.end{aligned}}}

For yp to be a solution,

{displaystyle {begin{aligned}e^{tA}mathbf {z} '(t)&=mathbf {b} (t)\[6pt]mathbf {z} '(t)&=left(e^{tA}right)^{-1}mathbf {b} (t)\[6pt]mathbf {z} (t)&=int _{0}^{t}e^{-uA}mathbf {b} (u),du+mathbf {c} ~.end{aligned}}}

Thus,

{displaystyle {begin{aligned}mathbf {y} _{p}(t)&=e^{tA}int _{0}^{t}e^{-uA}mathbf {b} (u),du+e^{tA}mathbf {c} \&=int _{0}^{t}e^{(t-u)A}mathbf {b} (u),du+e^{tA}mathbf {c} ~,end{aligned}}}

where c is determined by the initial conditions of the problem.

More precisely, consider the equation

{displaystyle Y'-A Y=F(t)}

with the initial condition Y(t0) = Y0, where

Left-multiplying the above displayed equality by e−tA yields

{displaystyle Y(t)=e^{(t-t_{0})A} Y_{0}+int _{t_{0}}^{t}e^{(t-x)A} F(x) dx~.}

We claim that the solution to the equation

{displaystyle P(d/dt) y=f(t)}

with the initial conditions {displaystyle y^{(k)}(t_{0})=y_{k}} for 0 ≤ k < n is

{displaystyle y(t)=sum _{k=0}^{n-1} y_{k} s_{k}(t-t_{0})+int _{t_{0}}^{t}s_{n-1}(t-x) f(x) dx~,}

where the notation is as follows:

sk(t) is the coefficient of X^k in the polynomial denoted by S_tinmathbb{C}[X] in Subsection Evaluation by Laurent series above.

To justify this claim, we transform our order n scalar equation into an order one vector equation by the usual reduction to a first order system. Our vector equation takes the form

{displaystyle {frac {dY}{dt}}-A Y=F(t),quad Y(t_{0})=Y_{0},}

where A is the transpose companion matrix of P. We solve this equation as explained above, computing the matrix exponentials by the observation made in Subsection Evaluation by implementation of Sylvester’s formula above.

In the case n = 2 we get the following statement. The solution to

{displaystyle y''-(alpha +beta ) y'+alpha ,beta  y=f(t),quad y(t_{0})=y_{0},quad y'(t_{0})=y_{1}}

is

{displaystyle y(t)=y_{0} s_{0}(t-t_{0})+y_{1} s_{1}(t-t_{0})+int _{t_{0}}^{t}s_{1}(t-x),f(x) dx,}

where the functions s0 and s1 are as in Subsection Evaluation by Laurent series above.

Matrix-matrix exponentials[edit]

The matrix exponential of another matrix (matrix-matrix exponential),[23] is defined as

{displaystyle X^{Y}=e^{log(X)cdot Y}}

{displaystyle ^{Y}!X=e^{Ycdot log(X)}}

for any normal and non-singular n×n matrix X, and any complex n×n matrix Y.

For matrix-matrix exponentials, there is a distinction between the left exponential YX and the right exponential XY, because the multiplication operator for matrix-to-matrix is not commutative. Moreover,

  • If X is normal and non-singular, then XY and YX have the same set of eigenvalues.
  • If X is normal and non-singular, Y is normal, and XY = YX, then XY = YX.
  • If X is normal and non-singular, and X, Y, Z commute with each other, then XY+Z = XY·XZ and Y+ZX = YX·ZX.

See also[edit]

  • Matrix function
  • Matrix logarithm
  • C0-semigroup
  • Exponential function
  • Exponential map (Lie theory)
  • Magnus expansion
  • Derivative of the exponential map
  • Vector flow
  • Golden–Thompson inequality
  • Phase-type distribution
  • Lie product formula
  • Baker–Campbell–Hausdorff formula
  • Frobenius covariant
  • Sylvester’s formula
  • Trigonometric functions of matrices

References[edit]

  1. ^ Hall 2015 Equation 2.1
  2. ^ Hall 2015 Proposition 2.3
  3. ^ Hall 2015 Theorem 2.12
  4. ^ Hall 2015 Theorem 2.11
  5. ^ Hall 2015 Chapter 5
  6. ^ Bhatia, R. (1997). Matrix Analysis. Graduate Texts in Mathematics. Vol. 169. Springer. ISBN 978-0-387-94846-1.
  7. ^ E. H. Lieb (1973). “Convex trace functions and the Wigner–Yanase–Dyson conjecture”. Advances in Mathematics. 11 (3): 267–288. doi:10.1016/0001-8708(73)90011-X.
  8. ^ H. Epstein (1973). “Remarks on two theorems of E. Lieb”. Communications in Mathematical Physics. 31 (4): 317–325. Bibcode:1973CMaPh..31..317E. doi:10.1007/BF01646492. S2CID 120096681.
  9. ^ Hall 2015 Exercises 2.9 and 2.10
  10. ^ R. M. Wilcox (1967). “Exponential Operators and Parameter Differentiation in Quantum Physics”. Journal of Mathematical Physics. 8 (4): 962–982. Bibcode:1967JMP…..8..962W. doi:10.1063/1.1705306.
  11. ^ Hall 2015 Theorem 5.4
  12. ^ Lewis, Adrian S.; Sendov, Hristo S. (2001). “Twice differentiable spectral functions” (PDF). SIAM Journal on Matrix Analysis and Applications. 23 (2): 368–386. doi:10.1137/S089547980036838X. See Theorem 3.3.
  13. ^ a b Deledalle, Charles-Alban; Denis, Loïc; Tupin, Florence (2022). “Speckle reduction in matrix-log domain for synthetic aperture radar imaging”. Journal of Mathematical Imaging and Vision. 64 (3): 298–320. doi:10.1007/s10851-022-01067-1. See Propositions 1 and 2.
  14. ^ “Matrix exponential – MATLAB expm – MathWorks Deutschland”. Mathworks.de. 2011-04-30. Retrieved 2013-06-05.
  15. ^ “GNU Octave – Functions of a Matrix”. Network-theory.co.uk. 2007-01-11. Archived from the original on 2015-05-29. Retrieved 2013-06-05.
  16. ^ “scipy.linalg.expm function documentation”. The SciPy Community. 2015-01-18. Retrieved 2015-05-29.
  17. ^ See Hall 2015 Section 2.2
  18. ^ in a Euclidean space
  19. ^ Weyl, Hermann (1952). Space Time Matter. Dover. p. 142. ISBN 978-0-486-60267-7.
  20. ^ Bjorken, James D.; Drell, Sidney D. (1964). Relativistic Quantum Mechanics. McGraw-Hill. p. 22.
  21. ^ Rinehart, R. F. (1955). “The equivalence of definitions of a matric function”. The American Mathematical Monthly, 62 (6), 395-414.
  22. ^ This can be generalized; in general, the exponential of Jn(a) is an upper triangular matrix with ea/0! on the main diagonal, ea/1! on the one above, ea/2! on the next one, and so on.
  23. ^ Ignacio Barradas and Joel E. Cohen (1994). “Iterated Exponentiation, Matrix-Matrix Exponentiation, and Entropy” (PDF). Academic Press, Inc. Archived from the original (PDF) on 2009-06-26.
  • Hall, Brian C. (2015), Lie groups, Lie algebras, and representations: An elementary introduction, Graduate Texts in Mathematics, vol. 222 (2nd ed.), Springer, ISBN 978-3-319-13466-6
  • Horn, Roger A.; Johnson, Charles R. (1991). Topics in Matrix Analysis. Cambridge University Press. ISBN 978-0-521-46713-1..
  • Moler, Cleve; Van Loan, Charles F. (2003). “Nineteen Dubious Ways to Compute the Exponential of a Matrix, Twenty-Five Years Later” (PDF). SIAM Review. 45 (1): 3–49. Bibcode:2003SIAMR..45….3M. CiteSeerX 10.1.1.129.9283. doi:10.1137/S00361445024180. ISSN 1095-7200..
  • Suzuki, Masuo (1985). “Decomposition formulas of exponential operators and Lie exponentials with some applications to quantum mechanics and statistical physics”. Journal of Mathematical Physics. 26 (4): 601–612. Bibcode:1985JMP….26..601S. doi:10.1063/1.526596.
  • Curtright, T L; Fairlie, D B; Zachos, C K (2014). “A compact formula for rotations as spin matrix polynomials”. Symmetry, Integrability and Geometry: Methods and Applications. 10: 084. arXiv:1402.3541. Bibcode:2014SIGMA..10..084C. doi:10.3842/SIGMA.2014.084. S2CID 18776942.
  • Householder, Alston S. (2006). The Theory of Matrices in Numerical Analysis. Dover Books on Mathematics. ISBN 978-0-486-44972-2.
  • Van Kortryk, T. S. (2016). “Matrix exponentials, SU(N) group elements, and real polynomial roots”. Journal of Mathematical Physics. 57 (2): 021701. arXiv:1508.05859. Bibcode:2016JMP….57b1701V. doi:10.1063/1.4938418. S2CID 119647937.

External links[edit]

  • Weisstein, Eric W. “Matrix Exponential”. MathWorld.

1. Экспонента квадратной матрицы mathbf A формально определяется как сумма ряда:

e^{mathbf A} triangleq mathbf I + sumlimits_{i=1}^{infty} dfrac{mathbf A^i}{i!},

где mathbf I есть единичная матрица соответствующего размера.

Из этого определения несложно получить ряд свойств экспоненты, некоторые из которых перечислены ниже:

  1. Экспонента нулевой матрицы есть единичная матрица.
  2. Транспонирование (а также эрмитово сопряжение) перестановочно с экспоненцированием: e^{mathbf A^top} = (e^{mathbf A})^top.
  3. Если mathbf A симметрична (эрмитова), то и e^{mathbf A} симметрична (эрмитова).
  4. Если mathbf {A B} = mathbf {B A}, то e^{mathbf A} mathbf B = mathbf B e^{mathbf A} и e^{mathbf A} e^{mathbf B} = e^{mathbf B} e^{mathbf A} = e^{mathbf A + mathbf B}. В частности, e^{a mathbf A} e^{b mathbf A} = e^{(a + b)mathbf A}.
  5. Матрица e^{mathbf A} всегда обратима: e^{mathbf A} e^{-mathbf A} = mathbf I.
  6. Для любой обратимой матрицы mathbf P верно e^{mathbf{P A P}^{-1}} = mathbf P e^{mathbf A} mathbf P^{-1}.
  7. Экспонента диагональной матрицы mathbf A = mathrm{diag}(a_{ii}) также является диагональной матрицей e^{mathbf A} = mathrm{diag}(e^{a_{ii}}).
  8. Последнее свойство обобщается на блочно-диагональные матрицы. Пусть mathbf A = mathrm{diag}(mathbf A_k), где каждая mathbf A_k есть квадратная матрица. Тогда экспонента также является блочно-диагональной матрицей: e^{mathbf A} = mathrm{diag}(e^{mathbf A_k}).

Таким образом, если матрица mathbf A диагонализируема, т.е. если найдётся такая матрица mathbf P, что mathbf A = mathbf {P D P}^{-1}, где mathbf D = mathrm{diag}(lambda_i) — диагональная матрица (матрица собственных значений), то после выполнения диагонализации (eigendecomposition) mathbf A вычислить её экспоненту не составит труда.

К сожалению, не все матрицы диагонализируемы, хотя для матриц над полем комплексных чисел множество недиагонализируемых матриц есть множество меры нуль. Поэтому, кстати, даже экспоненту вещественнозначной матрицы может быть удобнее вычислять в комплексных числах. Те, кто хорошо учил линейную алгебру, вспомнят о «жордановой форме», которая существует для любой матрицы и представляет собой как раз блочно-диагональную матрицу, составленную из блоков, называемых «жордановы клетки». Это означает, что если у нас есть представление mathbf A = mathbf{P J P}^{-1}, где mathbf J = mathrm{diag}(mathbf J_k), и если мы умеем вычислять экспоненту жордановой клетки, то мы опять же без проблем вычислим экспоненту исходной матрицы. Ниже я коснусь вопроса вычисления экспоненты жордановой клетки.

Особняком стоит свойство, известное как «формула Якоби». Его можно применять, например, для проверки качества вычисления матричной экспоненты:

det e^{mathbf A} = e^{mathrm{tr},mathbf A}.

2. Вычисление экспоненты прямым суммированием ряда традиционно считается «плохим методом». На самом деле, главный его недостаток заключается в низкой скорости вычислений, но не в точности. Важно организовать этот процесс правильно! В своей практике я применял следующие приёмы:

Я не претендую на то, что это лучший способ вычислять данную сумму. Но исходя из моего (ограниченного) опыта, этот способ достаточно надёжен и сравнительно прост в реализации. В моей практике собственно скорость вычисления экспоненты не играла большой роли. А точность была важна.

3. Экспонента жордановой клетки. Жорданова клетка mathbf J (в случае комплексных чисел) есть квадратная матрица, на главной диагонали которой стоит некое число lambda (любое значение, но одно во всех позициях диагонали), на первой наддиагонали стоят единицы, а все прочие элементы — нули:

mathbf J = begin{bmatrix}  lambda & 1 & 0 & ldots & 0 \  0 & lambda & 1 & ldots & 0 \  & & cdots & & \  0 & 0 & ldots & lambda & 1 \  0 & 0 & ldots & 0 & lambda  end{bmatrix}.

Заметим, что mathbf J = mathbf Lambda + mathbf N, где mathbf Lambda — шаровая матрица (диагональная с одинаковыми значениями на диагонали), а mathbf N — нильпотентна, поскольку mathbf N^n = mathbf 0 (здесь и ниже n — размер mathbf J). Более того, легко заметить, что домножение mathbf N^i на mathbf N попросту сдвигает единичную наддиагональ на одну позицию вверх. Поэтому имеем

e^{mathbf N} = mathbf I + sumlimits_{i=1}^{n-1}dfrac{mathbf N^i}{i!} = begin{bmatrix}  1 & 1 & 1/2 & 1/6 & ldots & 1/(n - 1)! \  0 & 1 & 1 & 1/2 & ldots & 1/(n-2)! \  & & & cdots & & \  0 & 0 & ldots & 0 & 1 & 1 \  0 & 0 & ldots & 0 & 0 & 1  end{bmatrix}.

Ну и по свойствам экспоненты и шаровых матриц имеем

e^{mathbf J} = e^{mathbf Lambda + mathbf N} = e^{mathbf Lambda} e^{mathbf N} = e^lambda e^{mathbf N}.

В случае наличия скалярного множителя t:

e^{mathbf J t} = e^{mathbf Lambda t + mathbf N t} = e^{lambda t} e^{mathbf N t},

где

e^{mathbf N t} = begin{bmatrix}  1 & t & t^2/2 & t^3/6 & ldots & t^{n-1}/(n - 1)! \  0 & 1 & t & t^2/2 & ldots & t^{n-2}/(n-2)! \  & & & cdots & & \  0 & 0 & ldots & 0 & 1 & t \  0 & 0 & ldots & 0 & 0 & 1  end{bmatrix}.

К сожалению, вычисление жордановой формы как численный метод обладает врождённым недостатком: чувствительностью к сколь угодно малым изменениям исходной матрицы. Из чего можно сделать вывод, что на практике может быть разумно вносить в недиагонализируемую матрицу малые возмущения с целью получить диагонализируемую матрицу.

4. О вычислении матричной экспоненты (и иных функций, определяемых как сумма ряда) с помощью комбинирования разложения Шура, рекуррентных соотношений Сильвестра и суммировании ряда см. Davies, Higham. A Schur-Parlett Algorithm for Computing Matrix Functions.

Добавить комментарий