Как найти матрицу потерь

Основные критерии применяемые в процессе принятия решений в условиях неопределённости и риска, а также в игре с природой 

Критерий среднего выигрыша

Формула критерия среднего выигрыша

Формула критерия среднего выигрыша

Формула оптимального решенияФормула критерия среднего выигрыша

Пример

таблица

Пусть даны вероятности, p1=0.2 p2=0.1 p3=0.3 p4=0.2, тогда получаем

K(a1)=0.2*0.4+0.1*0.5+0.3*0.2+0.2*0.4=0.3
K(a2)=0.2*0.3+0.1*0.2+0.3*0.3+0.2*0.5=0.27
K(a3)=0.2*0.6+0.1*0.3+0.3*0.3+0.2*0.2=0.28
K(a4)=0.2*0.4+0.1*0.5+0.3*0.2+0.2*0.3=0.25
Kопт=max{0.27; 0.48; 0.43; 0.51}=0.51

В итоги оптимальным вариантом выбора программы по критерию среднего выигрыша является вариант первой программы.

Критерий Вальда или пессимизма

Формула критерия Вальда или максимина

Формула критерия Вальда

Формула оптимального решения по критерию Лапласа

Формула оптимального решения по критерию Лапласа

Пример

таблица

K(a1)=min(0.4;0.5;0.3;0.4)=0.3
K(a2)=min(0.3;0.2;0.3;0.5)=0.2
K(a3)=min(0.6;0.3;0.3;0.2)=0.2
K(a4)=min(0.4;0.5;0.2;0.3)=0.2
Kопт=max{0.3; 0.2; 0.2; 0.2}=0.3

По критерию Вальда оптимальным решением является выбор первой программы.

Критерий максимакса или оптимизма

Формула критерия максимакса

Формула критерия максимакса

Формула оптимального решения по критерию максимакса

Формула критерия максимакса

Пример

таблица

K(a1)=max(0.4;0.5;0.3;0.4)=0.5
K(a2)= max (0.3;0.2;0.3;0.5)=0.5
K(a3)= max (0.6;0.3;0.3;0.2)=0.6
K(a4)= max (0.4;0.5;0.2;0.3)=0.5
Kопт=max{0.5; 0.5; 0.6; 0.5}=0.6

По критерию максимакса оптимальным решением является выбор третьей программы.

Критерий Лапласа

Формула критерия Лапласа

Формула критерия Лапласа оптимальное решение

Формула оптимального решения по критерию Лапласа

Формула критерия Лапласа оптимальное решение

Пример

таблица

Решение
K(a1)=0.25*(0.4+0.5+0.3+0.4)=0.4
K(a2)=0.25*(0.3+0.2+0.3+0.5)=0.325
K(a3)=0.25*(0.6+0.3+0.3+0.2)=0.35
K(a4)=0.25*(0.4+0.5+0.2+0.3)=0.35
Kопт=max{0.4; 0.325; 0.35; 0.35}=0.4

По критерию Лапласа оптимальным решением является выбор первой программы.

Критерий Гурвица

Пример

таблица

Формула критерия Гурвица

Формула критерия Гурвица

Формула оптимального решения по Гурвица критерию

Формула критерия Гурвица

Коэффициент α принимает значения от 0 до 1. Если α стремится к 1, то критерий Гурвица приближается к критерию Вальда, а при α стремящемуся к 0, то критерий Гурвица приближается к критерию максимакса.

Пусть α=0.7

K(a1)= 0.7* 0.5+(1-0.7)*0.3=0.44
K(a2)= 0.7* 0.5+(1-0.7)*0.2=0.41
K(a3)= 0.7* 0.6+(1-0.7)*0.2=0.48
K(a4)= 0.7* 0.5+(1-0.7)*0.2=0.41
Kопт=max{0.44; 0.41; 0.48; 0.41}=0.48

По критерию Гурвица оптимальным решением является выбор третьей программы.

Критерий Сэвиджа или минимакса (критерий потерь)

Формула критерия Сэвиджа для построения матрицы потерь

Формула критерия Сэвиджа

Формула для выбора максимального значения из матрицы потерь

Формула критерия Сэвиджа

Формула оптимального решения по критерию Сэвиджа

Формула критерия Сэвиджа

Для примера

таблица

Строим матрицу потерь по столбцам выбираем максимальное значение и поочередно вычитаем значения каждой ячейки соответствующего столбца согласно формуле, в итоге получим матрицу вида

матрица потерь пример

K(a1)= max{0.2; 0; 0; 0.1}=0.2
K(a2)= max{0.3; 0.3; 0; 0}=0.3
K(a3)= max{0; 0.2; 0; 0.3}=0.3
K(a4)= max{0.2; 0; 0.1; 0.2}=0.2
Kопт=min{0.2; 0.3; 0.3; 0.2}=0.2

По критерию Сэвиджа оптимальным решением является выбор первой или четвёртой программы.

Таким образом, в соответствии со всеми приведёнными критериями большинство решений указывает на выбор первой программы.

Матрица потерь

0,1

0

0,3

0,2

0

0

0,2

0

0,1

0,1

0

0,1

Тогда

К(а1)
=max(0,1; 0; 0,3; 0,2) =0,3;

К(а2)
= mах(0; 0,2; 0,2; 0) = 0,2;

К(а3)
= mах(0,1; 0,1; 0; 0,1) = 0,1.

Оптимальное
решение— система а1 .
Критерий минимального риска отражает
сожаление по поводу того, что выбранная
система не оказалась наилучшей при
определенном состоянии обстановки.
Так, если произвести выбор системы а1,
а состояние обстановки в действительности
n3, то сожаление, что
не выбрана наилучшая из систем (а3),
составит 0,3. О критерии Сэвиджа можно
сказать, что он, как и критерий Вальда,
относится к числу осторожных критериев.
По сравнению с Критерием Вальда в нем
придается несколько большее значение
выигрышу, чем проигрышу. Основной
недостаток критерия — не выполняется
требование 4.

Таким образом,
эффективность систем в неопределенных
операциях может оцениваться по целому
ряду критериев. На выбор того или иного
критерия оказывает влияние ряд факторов:

  • природа конкретной
    операции и ее цель (в одних операциях
    допустим риск, в других — нужен
    гарантированный результат);

  • причины
    неопределенности (одно дело, когда
    неопределенность является случайным
    результатом действия объективных
    законов природы, и другое, когда она
    вызывается действиями разумного
    противника, стремящегося помешать в
    достижении цели);

  • характер лица,
    принимающего решение (одни люди склонны
    к риску в надежде добиться большего
    успеха, другие предпочитают действовать
    всегда осторожно).

Выбор какого-то
одного критерия приводит к принятию
решения по оценке систем, которое может
быть совершенно отличным от решений,
диктуемых другими критериями. Это
наглядно подтверждают результаты оценки
эффективности систем применительно к
примеру 2.2 по рассмотренным критериям
(табл. 2.13).

Таблица
2.13

Сравнительные результаты оценки систем


по критериям

Среднего выигрыша

Лапласа

Вальда

Макимакса

Гурвица

Сэвиджа

0,1

0,5

0,1

0,2

0,21

0,224

0,1

0,5

0,34

0,3

0,2

0,3

0,2

0,4

0,28

0,275

0,2

0,4

0,32

0,2

0,1

0,4

0,4

0,3

0,25

0,300

0,1

0,4

0,28

0,1

Тип критерия для
выбора рационального варианта должен
быть оговорен на этапе анализа систем,
согласован с заказывающей организацией
и в последующих задачах синтеза
информационных и других сложных систем
предполагается заданным. Процесс выбора
вида критерия для учета неопределенности
достаточно сложен. Устойчивость
выбранного рационального варианта
можно оценить на основе анализа по
нескольким критериям. Если существует
совпадение, то имеется большая уверенность
в правильности выбора варианта.

В случаях, когда
системы, выбранные по различным критериям,
конкурируют между собой за право быть
окончательно выбранными, могут применяться
процедуры, основанные на мажоритарной
обработке результатов оценки по простому
большинству голосов. Особенностью
мажоритарной обработки является
опасность выбора системы, не являющейся
лучшей, на основе многоэтапного выбора
при группировке альтернатив в коалиции.
Такая ситуация отражена на рис. 2.12, где
8 из 27 систем по разным критериям были
оценены как худшие. Однако при группировке
в коалиции и организации двухэтапной
процедуры мажоритарной обработки в
качестве лучшей была выбрана одна из
худших систем.

В любом случае при
выделении множества предпочтительных
систем по разным критериям окончательный
выбор системы должен осуществляться
лицом, принимающим решение. При этом в
операциях, которым в зависимости от
характера соответствует либо пороговая,
либо монотонная функция полезности,
эффективность систем правомочно
оценивать непосредственно по показателям
исходов. Для детерминированных операций
критерием эффективности будет служить
сам показатель, для вероятностных —
либо, вероятность получения допустимого
значения показателя (при пороговой
функции полезности), либо математическое
ожидание значения показателя (при
линейной функции полезности).

Оценка эффективности
систем на основе показателей исходов
в других случаях может приводить к
неправильному выбору, поэтому переход
к оценке эффективности систем без
введения функции полезности должен
всегда сопровождаться обоснованием.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Обоснование статистических решений при фиксированных экспериментах

Часто встречаются ситуации, когда на выбор решения существенное влияние оказывают факторы, информация о которых отсутствует или является недостаточно полной. Обоснование решений в этих условиях оказывается весьма эффективным с помощью статистических решений.

Сущность задач статистических решений состоит в том, что нужно сделать выбор из множества действий (a_1,a_2,...,a_n), эффективность каждого из которых зависит от того, какое из состояний “природы” (theta_1,theta_2,...,theta_m) имеет место. Поэтому каждая пара (theta_i,a_j), состоящая из действия и состояния “природы”, имея тот или иной исход, характеризуется значением критерия эффективности u_{ij}. Последнее приводит к (mtimes n) матрице (таблица 11.1), на основании которой нужно выбрать действие, являющееся оптимальным согласно некоторому критерию. Подобная матрица представляет стохастическую модель конфликтной ситуации, в которой одним из противников является “природа” (обстановка боевых действий, — Абчук В.А., Емельянов Л.А., Матвейчук Ф.А., Суздаль В.Г. Введение в теорию выработки решений. М., Военное издательство, 1972.). Обычно в теории статистических решений оперируют с критерием эффективности, характеризующим те или иные потери. Поэтому получаемую матрицу называют матрицей потерь.

Таблица
11.1.
Матрица потерь

Состояние “природы” Действие
a_1 a_2 a_j a_n
theta_1

theta_2

.

.

.

theta_i

.

.

.

theta_m

u_{11}

u_{21}

.

.

.

u_{i1}

.

.

.

u_{m1}

u_{12}

u_{22}

.

.

.

u_{i2}

.

.

.

u_{m2}

u_{1j}

u_{2j}

.

.

.

u_{ij}

.

.

.

u_{mj}

u_{1n}

u_{2n}

.

.

.

u_{in}

.

.

.

u_{mn}

Поясним сказанное на следующем примере.

Предположим, что ракетная подводная лодка для нанесения удара по береговой цели должна занять огневую позицию в одном из трех районов. Каждый район огневых позиций a_j(j=1,2,3) в зависимости от состояния моря theta_i(i=1,2) характеризуется математическим ожиданием числа непопадающих ракет e(theta,a), величины которых определяются таблицей 11.2.

Таблица
11.2.
Матрица потерь для выбора района огневых позиций

Состояние “природы” Действие
Район №1 Район №2 Район №3
Море 2 балла

Море 5

0

5

1

3

3

2

Очевидно, если вероятности состояний “природы” theta_1,theta_2,...,theta_m известны и равны соответственно P_1,P_2,...,P_m, где sumlimits_{i=1}^{m}P_i=1, то за критерий можно принять среднюю (ожидаемую) эффективность действия a_j. Тогда выбирается действие, которое минимизирует данный критерий, и принимается , что это действие является оптимальным при данном априорном распределении вероятностей.

Так, если в рассматриваемом примере все состояния равновероятны, то следует выбрать действие a_2 (район №2), поскольку в этом случае средняя эффективность будет равна 1times frac{1}{2}+3times frac{1}{2}=2,0, тогда как при выборе a_1 (района №1) или a_3 (района №3) она составит 0times frac{1}{2}+5times frac{1}{2}=2,5 или 3times frac{1}{2}+2times frac{1}{2}=2,5 соответственно.

Таким образом, допущение априорного распределения вероятностей дает довольно простой метод выбора оптимального решения. Однако на практике истинное распределение вероятностей состояний “природы”, как правило, неизвестно. В связи с этим целесообразно поставить эксперимент для оценки состояния “природы”.

Предположим, что в рассматриваемом примере таким экспериментом является измерение атмосферного давления.

Пусть Z_1,Z_2,...,Z_{gamma} — множество возможных исходов, и известна вероятность P(Z/theta) каждого исхода для каждого истинного состояния природы. Допустим r=3 и примем значения вероятности P(Z/theta), равным приведенным в таблице 11.3.

Таблица
11.3.
Вероятности показаний барометра в зависимости от истинного состояния природы

Состояние “природы” Наблюдение
Z_1 Z_2 Z_3
theta_1

theta_2

0,60

0,20

0,25

0,30

0,15

0,50

Теперь в зависимости от результатов эксперимента можно перечислить все возможные стратегии выбора района огневых позиций. Так, например, одной из стратегий может быть следующий план: выбрать район №1 (действие a_1 ), если результат эксперимента Z_1 ; район №2 (действие a_2 ), если результат эксперимента Z_2 ; район №3, если результат эксперимента Z_3.

Каждая такая стратегия представляет систему:

S_e=||a_{j1},a_{j2},...,a_{jr}|| (
11.1)

,

где a_{ji} — действие, предпринимаемое при наблюдении Z_{ji}

j — номер действия (j=1,...,n) ;

e — номер стратегии (e=1,...,n^r) ;

i — номер эксперимента (i=1,...,r).

Иными словами, стратегия – это функция, определенная на пространстве выбора эксперимента Z, значения которой суть действия a_j. Поскольку каждому исходу эксперимента соответствует n возможных действий, при r возможных исходных имеется n^r возможных стратегий. Для рассматриваемого примера n^r=3^3=27 (таблица 11.4).

Таблица
11.4.
Стратегии выбора района огневых позиций в зависимости от результатов экспериментов

Наблюдение Стратегия

Z_1

Z_2

Z_3

S_1 S_2 S_3 S_4 S_5 S_6 S_7 S_8 S_9 S_{10} S_{11} S_{12} S_{13} S_{14}
a_1

a_1

a_1

a_1

a_1

a_2

a_1

a_1

a_3

a_1

a_2

a_1

a_1

a_2

a_2

a_1

a_2

a_3

a_1

a_3

a_1

a_1

a_3

a_2

a_1

a_3

a_3

a_2

a_1

a_1

a_2

a_1

a_2

a_2

a_1

a_3

a_2

a_2

a_1

a_2

a_2

a_2

Z_1

Z_2

Z_3

S_{15} S_{16} S_{17} S_{18} S_{19} S_{20} S_{21} S_{22} S_{23} S_{24} S_{25} S_{26} S_{27}
a_2

a_2

a_3

a_2

a_3

a_1

a_2

a_3

a_2

a_2

a_3

a_3

a_3

a_1

a_1

a_3

a_1

a_2

a_3

a_1

a_3

a_3

a_2

a_1

a_3

a_2

a_2

a_3

a_2

a_3

a_3

a_3

a_1

a_3

a_3

a_2

a_3

a_3

a_3

Из анализа таблицы видно, что некоторые из стратегий совершенно не учитывают исход эксперимента, например, S_1,S_{14},S_{27} ; другие — учитывают в определенной степени и так далее. Однако каждая стратегия в зависимости от истинного состояния “природы” приводит к тем или иным результатам. Для вычисления этого результата с учетом эксперимента определим его вероятность P_i(a_j/S_e) как вероятность того, что, когда истинное состояние “природы” есть theta_i, эксперимент Z приводит к исходу, с которым стратегия S_e связывает действие a_j. Очевидно, что sumlimits_{j=1}^n P_i(a_j/S_e)=1. Так, например, из описания стратегии S_5 (таблица 11.4) видно, что если результатом эксперимента будет Z_1, то выбирается действи a_1, если Z_2 или Z_3, — действие a_2. Для состояния природы theta_1 исход эксперимента Z_1 возможен с вероятностью 0.60 (таблица 11.3), а Z_2 или Z_3 — с вероятностью 0,40. Следовательно,

P_1(a_1/S_5)=0,60; P_1(a_2/S_5)=0,40; P_1(a_3/S_5)=0.

Аналогично для состояния “природы” theta_2 получим:

P_2(a_1/S_5)=0,20; P_2(a_2/S_5)=0,80; P_2(a_3/S_5)=0.

Теперь можно определить средние потери для каждой стратегии S_e, когда истинное состояние “природы” есть theta_i.

Так как следствием пары (S_e,theta_i) являются результаты u_{i1},u_{i2},...,u_{in}, а вероятность пар “действие – состояние” (a_1,theta_i),(a_2,theta_i),…,(a_n,theta_i) равны P_i(a_1/S_e),P_i(a_2/S_e),...,P_i(a_n/S_e), то средние потери для стратегии S_e будут:

L(theta_i,S_e)=sumlimits_{j=1}{n}u_{ij}P_i(a_j/S_e) (
11.2)

,

где u_{ij} — потери при выборе действия a_j и истинном состоянии “природы” theta_i.

На основании (11.2.) можно вычислить матрицу средних потерь.

Таблица
11.5.
Матрица средних потерь

Состояние “природы” Стратегия
S_1 S_2 S_e S_{n^r}
theta_1

theta_2

.

.

.

theta_i

.

.

.

theta_m

L(theta_1,S_1)

L(theta_2,S_1)

.

.

.

L(theta_i,S_1)

.

.

.

L(theta_m,S_1)

L(theta_1,S_2)

L(theta_2,S_2)

.

.

.

L(theta_i,S_2)

.

.

.

L(theta_m,S_2)

L(theta_1,S_e)

L(theta_2,S_e)

.

.

.

L(theta_i,S_e)

.

.

.

L(theta_m,S_e)

L(theta_1,S_{n^r})

L(theta_2,S_{n^r})

.

.

.

L(theta_i,S_{n^r})

.

.

.

L(theta_m,S_{n^r})

Для условий рассматриваемого примера вычисление средних потерь по формуле (11.2.) приводит к таблице 11.6.

Таблица
11.6.
Матрица средних потерь для выбора района огневых позиций

Состояние “природы” Стратегия
S_1 S_2 S_3 S_4 S_5 S_6 S_7 S_8 S_9
theta_1

theta_2

0,00

5,00

0,15

4,00

0,45

3,50

0,25

4,40

0,40

3,40

0,70

2,90

0,75

4,10

0,90

3,10

1,20

2,60

S_{10} S_{11} S_{12} S_{13} S_{14} S_{15} S_{16} S_{17} S_{18}
theta_1

theta_2

0,60

4,60

0,75

3,60

1,05

3,10

0,85

4,00

1,00

3,00

1,30

2,50

1,35

3,70

1,50

2,70

1,80

2,20

S_{19} S_{20} S_{21} S_{22} S_{23} S_{24} S_{25} S_{26} S_{27}
theta_1

theta_2

1,80

4,40

1,95

3,40

2,25

2,90

2,05

3,80

2,20

2,80

2,50

2,30

2,55

3,50

2,70

2,50

3,00

2,00

Матрица средних потерь (табл. 11.5) представляет собой модель конфликтной ситуации при фиксированных экспериментах. В связи с этим первоначальная задача статического решения модифицируется, сводясь к выбору одной из стратегий S_1,S_2,...,S_{n^r} для состояний “природы” theta_1,theta_2,...,theta_m.

Предположим теперь, что даны априорные вероятности состояний “природы” P(theta_1),P(theta_2),...,P(theta_m). После постановки эксперимента, исход которого зависит от истинного состояния “природы”, значения вероятностей состояний изменяются и по формуле Байеса будут равны

P(theta_i/Z)=frac{P(theta_i)P(Z/theta_i)}{sumlimits_{i=1}^m P(Z/theta_i)P(theta_i)} (
11.3)

,

где P(theta_i/Z) — апостериорная вероятность состояния theta_i ;

P(Z/theta_i)вероятность исхода Z для истинного состояния theta_i.

Если теперь принять, что P(theta_1)=0,6 и P(theta_2)=0,4, то апостериорные вероятности состояний примут значения, приведенные в таблице 11.7.

В результате приходим к первоначальной задаче оптимального выбора действия, когда вероятности состояний “природы” известны и равны P(theta_1/Z),P(theta_2/Z),...,P(theta_m/Z).

На основании этого можно определить средние потери для действия a_j с учетом эксперимента Z по формуле

L(a_j)=sumlimits_{i=1}^m P(theta_i/Z) u_{ij} (
11.4)

,

где u_{ij} — потери пары “действие – состояние” (a_j,theta_i).

Оптимальным в этом случае будет действие, дающее наименьшие потери. Для нашего примера расчеты, выполненные по формуле 11.4., сведены в таблицу 11.8.

Таблица
11.8.
Средние потери с учетом эксперимента

Эксперимент Действие
a_1 a_2 a_3
Z_1

Z_2

Z_3

frac{40}{44}

frac{60}{27}

frac{100}{29}

frac{60}{44}

frac{51}{27}

frac{69}{29}

frac{124}{44}

frac{69}{27}

frac{67}{29}

Из таблицы 11.8 видно, что в случае исхода Z_1 оптимальным является действие a_1, исхода Z_2 — действие a_2 и исхода Z_3 — действие a_3.

Таким образом, получено правило, в соответствии с которым каждому исходу эксперимента Z соответствует действие a, дающее минимальные потери. Это правило называется правилом Байеса относительно априорного распределения вероятностей состояний природы, а действие — байесовым. Так, для рассматриваемого примера, если исход эксперимента Z_1, байесовым действием является действие a_1, если исход Z_2 — действие a_2 и если исход Z_3 — действие a_3.

Байесовое действие входит в байесовую стратегию, которая минимизирует среднее взвешенное

Z(S_e)=sumlimits_{i=1}^{m} P(theta_i/Z)L(theta_i,S_e) (
11.5)

и соответствует вероятности P(theta_i/Z).

В этом можно убедиться, если по формуле (11.4.) произвести вычисление, используя данные таблицы 11.5 – 11.7, и выбрать стратегию, для которой Z(S_e)

будет минимальным. Такой байесовой стратегией окажется S_6=||a_1a_2a_3||. Из описания стратегии S_6 видно, что если исход эксперимента Z_1, то выбирается действие a_1, если Z_2, то действие a_2, и если Z_3, то действие a_3, то есть байесовые действия.

Таким образом, задаваясь априорным распределением вероятностей состояния природы, возможно их уточнить путем постановки эксперимента и определения апостериорных вероятностей.

Теорема Байеса. Пусть A_1,A_2,...,A_n — взаимоисключающие события. Объединение всех A_i образует достоверное событие, полную группу событий. Тогда теорема Байеса гласит: вероятность того, что событие A_i наступит при условии, что событие E уже наступило, определяется выражением

P(A_ileft|E)=frac{P(A_i)cdot P(E|A_i)}{P(A_1)cdot P(E|A_1)+...+P(A_n)cdot P(E|A_n)}right;\ P(A_ileft|E)=frac{P(A_i)cdot P(E|A_i)}{sumlimits_{i=1}^nP(A_i)cdot P(E|A_i)}right (
11.15)

.

LossMatrix: Loss Matrix

Description

A loss matrix is useful in Bayesian decision theory for selecting the
Bayes action, the optimal Bayesian decision, when there are a discrete
set of possible choices (actions) and a discrete set of possible
outcomes (states of the world). The Bayes action is the action that
minimizes expected loss, which is equivalent to maximizing expected
utility.

Usage

LossMatrix(L, p.theta)

Arguments

L

This required argument accepts a (S times A)
matrix or (S times A times N) array of losses,
where (S) is the number of states of the world, (A) is the
number of actions, and (N) is the number of samples. These
losses have already been estimated, given a personal loss
function. One or more personal losses has already been estimated
for each combination of possible actions
(a=1,dots,A) and possible states
(s=1,dots,S).

p.theta

This required argument accepts a
(S times A) matrix or
(S times A times N) array of state prior
probabilities, where (S) is the number of states of the world,
(A) is the number of actions, and (N) is the number of
samples. The sum of each column must equal one.

Value

The LossMatrix function returns a list with two components:

BayesAction

This is a numeric scalar that indicates the action
that minimizes expected loss.

E.Loss

This is a vector of expected losses, one for each
action.

Details

Bayesian inference is often tied to decision theory (Bernardo and
Smith, 2000), and decision theory has long been considered the
foundations of statistics (Savage, 1954).

Before using the LossMatrix function, the user should have
already considered all possible actions (choices), states of the world
(outcomes unknown at the time of decision-making), chosen a loss
function (L(theta, alpha)), estimated loss, and
elicited prior probabilities (p(theta | x)).

Although possible actions (choices) for the decision-maker and
possible states (outcomes) may be continuous or discrete, the loss
matrix is used for discrete actions and states. An example of a
continuous action may be that a decision-maker has already decided to
invest, and the remaining, current decision is how much to invest.
Likewise, an example of continuous states of the world (outcomes) may
be how much profit or loss may occur after a given continuous unit of
time.

The coded example provided below is taken from Berger (1985, p. 6-7)
and described here. The set of possible actions for a decision-maker
is to invest in bond ZZZ or alternatively in bond XXX, as it is called
here. A real-world decision should include a mutually exhaustive list
of actions, such as investing in neither, but perhaps the
decision-maker has already decided to invest and narrowed the options
down to these two bonds.

The possible states of the world (outcomes unknown at the time of
decision-making) are considered to be two states: either the chosen
bond will not default or it will default. Here, the loss function is
a negative linear identity of money, and hence a loss in element
L[1,1] of -500 is a profit of 500, while a loss in
L[2,1] of 1,000 is a loss of 1,000.

The decision-maker’s dilemma is that bond ZZZ may return a higher
profit than bond XXX, however there is an estimated 10% chance, the
prior probability, that bond ZZZ will default and return a substantial
loss. In contrast, bond XXX is considered to be a sure-thing and
return a steady but smaller profit. The Bayes action is to choose the
first action and invest in bond ZZZ, because it minimizes expected
loss, even though there is a chance of default.

A more realistic application of a loss matrix may be to replace the
point-estimates of loss with samples given uncertainty around the
estimated loss, and replace the point-estimates of the prior
probability of each state with samples given the uncertainty of the
probability of each state. The loss function used in the example is
intuitive, but a more popular monetary loss function may be
(-log(E(W | R))), the negative log of the
expectation of wealth, given the return. There are many alternative
loss functions.

Although isolated decision-theoretic problems exist such as the
provided example, decision theory may also be applied to the results
of a probability model (such as from
IterativeQuadrature, LaplaceApproximation,
LaplacesDemon, PMC), or
VariationalBayes, contingent on how
a decision-maker is considering to use the information from the
model. The statistician may pass the results of a model to a client,
who then considers choosing possible actions, given this
information. The statistician should further assist the client with
considering actions, states of the world, then loss functions, and
finally eliciting the client’s prior probabilities (such as with the
elicit function).

When the outcome is finally observed, the information from this
outcome may be used to refine the priors of the next such decision. In
this way, Bayesian learning occurs.

References

Berger, J.O. (1985). “Statistical Decision Theory and Bayesian
Analysis”, Second Edition. Springer: New York, NY.

Bernardo, J.M. and Smith, A.F.M. (2000). “Bayesian Theory”. John
Wiley & Sons: West Sussex, England.

Savage, L.J. (1954). “The Foundations of Statistics”. John Wiley &
Sons: West Sussex, England.

See Also

elicit,
IterativeQuadrature,
LaplaceApproximation,
LaplacesDemon,
PMC, and
VariationalBayes.

Examples

Run this code

# NOT RUN {
library(LaplacesDemon)
### Point-estimated loss and state probabilities
L <- matrix(c(-500,1000,-300,-300), 2, 2)
rownames(L) <- c("s[1]: !Defaults","s[2]: Defaults")
colnames(L) <- c("a[1]: Buy ZZZ", "a[2]: Buy XXX")
L
p.theta <- matrix(c(0.9, 0.1, 1, 0), 2, 2)
Fit <- LossMatrix(L, p.theta)

### Point-estimated loss and samples of state probabilities
L <- matrix(c(-500,1000,-300,-300), 2, 2)
rownames(L) <- c("s[1]: Defaults","s[2]: !Defaults")
colnames(L) <- c("a[1]: Buy ZZZ", "a[2]: Buy XXX")
L
p.theta <- array(runif(4000), dim=c(2,2,1000)) #Random probabilities,
#just for a quick example. And, since they must sum to one:
for (i in 1:1000) {
     p.theta[,,i] <- p.theta[,,i] / matrix(colSums(p.theta[,,i]),
          dim(p.theta)[1], dim(p.theta)[2], byrow=TRUE)}
Fit <- LossMatrix(L, p.theta)
Fit

### Point-estimates of loss may be replaced with samples as well.
# }

Run the code above in your browser using DataCamp Workspace

Добавить комментарий