<<
>>

16.6 Динамические байесовские игры. Совершенное байесовское равновесие

В этом параграфе мы рассмотрим разновидность игр, которые являются таким же обобщением статических байесовских игр, каким являются динамические игры с полной информацией для статиче-

Таблица 16.19.

Инспектор проверять не проверять 1 + ?2 0 нарушать -1 1 + ?2 Проверяемый _0_ -1 0 _0_ не нарушать ских игр с полной информацией, т.

е. динамические байесовские игры (динамические игры с неполной информацией).

В качестве примера динамической байесовской игры рассмотрим модификацию Игры 16.3 "Террорист" (с. 647).

Игра 13. "Террорист"

Ситуация в данной игре такая же, как в Игре 16.3, однако террорист может быть двух типов: "нормальный" и "сумасшедший". Нормальный террорист так же, как и в Игре 16.3, получает выигрыш -100 в случае, если взорвет бомбу в Нью-Йорке. Сумасшедший же террорист получает в этом случае выигрыш 0. Вероятность того, что террорист окажется сумасшедшим, равна п. Пилот не знает, с террористом какого типа он имеет дело, но сам террорист знает свой тип. <

Игра схематически показана на Рис. 16.23. В игру был добавлен дополнительный фиктивный игрок, природа . Это сделано для того, чтобы показать на схеме случайный выбор типа террориста. Природа не имеет никакой целевой функции, поэтому на схеме показаны только выигрыши двух исходных игроков.

Природа

Первый ход делает природа. С вероятностью п природа создает сумасшедшего террориста и с вероятностью 1-п - нормального. Пунктирной рамкой показано информационное множество пилота, соответствующее условию, что он не знает типа террориста.

Решение этой игры можно найти, применяя обратную индукцию. Сначала нужно рассмотреть поведение террористов обоих типов. Нормальный террорист, как мы видели раньше в Игре 16.3, не будет взрывать бомбу в Нью-Йорке. Сумасшедший же террорист, наоборот, предпочтет взорвать бомбу (так как 0 больше -1) .В результате этих рассуждений (которые, как предполагается, должен проводить рациональный пилот) получим свернутую игру, которая показана на Рис.

16.24.

Если пилот выберет Кубу, то в любом случае поучит -1. Если же пилот выберет Нью-Йорк, то с вероятностью п он получит -100, а с вероятностью 1 - п получит 1, то есть его ожидаемый выигрыш

Природа

Рис. 16.24.

составит

п ? (-100) + (1 _ п) ? 1 = 1 _ 101п.

Пилот должен сравнить выигрыш _1 с выигрышем 1 _ 101п и выбрать максимальный. Таким образом, вид решения будет зависеть от параметра п. Если вероятность встретить сумасшедшего террориста мала, т. е. п < 2/101, то пилот полетит в Нью-Йорк, а если эта вероятность велика, т. е. п > 2/101, то он предпочтет полететь на Кубу. При п = 2/101 пилоту все равно, куда лететь.

Заметим, что в рассмотренном примере не содержится специфических элементов, которые придают динамическим байесовским играм принципиально иной характер по сравнению с динамическими играми с совершенной и полной информацией или статическими байесовскими играми. Поэтому здесь для нахождения решения нам достаточно было воспользоваться обратной индукцией. Мы смогли проанализировать выбор пилота, поскольку знали, с какой вероятностью он мог в своем информационном множестве оказаться в левой вершине, а с какой - в правой.

Однако зачастую такие вероятности неизвестны. Мы сталкивались уже с этой проблемой, рассматривая динамические игры с полной, но несовершенной информацией. В подобных ситуациях, коль скоро игрок стоит перед выбором в некотором информационном множестве, состоящем более чем из одной вершины, то ему приходится делать некоторые предположения относительно того, с какой вероятностью он может оказаться в той или иной вершине. Если игрок имеет такого рода ожидания, то на их основе он выбирает ту альтернативу, которая может обеспечить ему наибольший ожидаемый выигрыш. Эти рассуждения приводят к понятию совершенного байесовского равновесия. Совершенное байесовское равновесие состоит из следующих компонент:

набор стратегий (si,..., sm) всех игроков;

для каждого игрока i - набор ожидаемых им стратегий остальных игроков, s^;

для каждого игрока в каждом информационном множестве, в котором ему принадлежит ход, - ожидаемое им распределение, заданное на вершинах этого информационного множества.

Для того, чтобы описанный набор стратегий и ожиданий составлял совершенное байесовское равновесие, необходимо выполнение следующих условий:

Ожидания любого игрока согласованы: ожидаемое распределение на вершинах информационных множеств для каждого игрока i соответствует выбранной игроком стратегии ( si ) и тем стратегиям, которые, как он ожидает, выберут другие игроки (s^i).

Выбранная стратегия последовательно оптимальна при данных ожиданиях, то есть выбор в каждом информационном множестве должен быть таким, чтобы максимизировать ожидаемый выигрыш в предположении, что после этого информационного множества игра будет идти в соответствии с набором стратегий (si, s^i).

Ожидаемые стратегии совпадают с фактически выбранными стратегиями: s^i = s-i.

Первое условие требует специального пояснения.

Поясним сначала это условие для случая чистых стратегий. Рассмотрим некоторого игрока i и информационное множество, в котором этому игроку принадлежит ход. Какими должны быть его ожидания в данном информационном множестве? Предположим, что траектория, соответствующая набору стратегий (si, s^i) и выходящая из начальной вершины, проходит через одну из вершин данного информационного множества. В таком случае, если игрок рационален, то он должен ожидать, что будет находиться именно в этой вершине, коль скоро игра достигнет данного информационного множества и ему придется делать в нем выбор.

Рис. 16.25.

В качестве примера рассмотрим статическую игру, изображенную на Рис. 16.25. Если второй игрок ожидает, что первый игрок выберет правую стратегию, то он должен ожидать также, что будет находиться в правой вершине своего информационного множества. Следует отметить, что если второй игрок будет исходить из сформированных таким способом ожиданий, то, выбирая свои действия оптимальным образом, он повторит ту функцию отклика, которую мы рассматривали при анализе равновесия Нэша.

В случае смешанных стратегий общего вида рассуждения должны быть похожими. Следует вычислить, с какой вероятностью будет достигаться каждая из вершин некоторого информационного множества в процессе игры, если игра будет происходить в соответствии с набором стратегий (sj, slj). Тогда ожидаемая вероятность того, что игрок может находиться в некоторой вершине рассматриваемого информационного множества, равна вероятности достижения этой вершины деленной на сумму вероятностей достижения вершин рассматриваемого информационного множества. Указанная сумма вероятностей есть просто вероятность достижения рассматриваемого информационного множества, если игра будет происходить в соответствии с набором стратегий (sj, slj). Понятно, что эта вероятность не должна быть равна нулю, чтобы можно было произвести деление. (Если же вероятность равна нулю, т. е. данное информационное множество не может быть достигнуто, то указанное правило не применимо.) Описанный способ вычисления вероятностей соответствует классическому правилу Байеса для условных вероятностей.

Напомним, что правило Байеса применимо к событиям A и Bj (j = 1,..., m), таким что:

Bj (j = 1,..., m) - несовместные события, т. е.

Bj П Bk = 0, Vj, k = 1,..., m;

тот факт, что произошло одно из событий Bj гарантирует, что произошло также событие A,

т. е.

m

A С J Bj.

j=i При этом верна следующая формула Байеса: Pr{Bj | A}

Pr{Bj} Pr{A | Bj} _ Pr{Bj} Pr{A | Bj }

?m=i Pr{Bk} Pr{A | Bk} Pr{A}

В этой формуле Pr{Bj} - вероятность события Bj, Pr{Bj | A} - вероятность события Bj при условии, что произошло событие A, Pr{A} - вероятность события A, Pr{A | Bj} - вероятность события A при условии, что произошло событие Bj . В знаменателе первой дроби стоит формула полной вероятности для Pr{A}. Чтобы можно было применить правило Байеса, нужно чтобы знаменатель не был равен нулю ( Pr{A} = 0).

В применении к рассматриваемой проблеме можно считать, что событие Bj означает, что процесс игры привел в определенную вершину, а событие - A, что процесс игры привел в данное информационное множество. Если брать только такие вершины, которые содержатся в рассматриваемом информационном множестве, то Pr{A | Bj} = 1 и формула упрощается:

Pr B

Pr{Bj | A} = PPB,

где Pr{A} = Em=i Pr{Bk}.

Поясним сказанное на примере игры, изображенной на Рис. 16.26. Если 3-й игрок считает, что 1-й игрок выбирает левую сторону с вероятностью 0,4, и что 2-й игрок выбирает левую и правую сторону с равными вероятностями, то он должен считать, что вершина © будет достигаться в процессе игры с вероятностью 0,4-0,5 = 0,2, а вершина О - с вероятностью 0,6. Таким образом, он должен сопоставить вершине © вероятность

0,2/(0,2 + 0,6) = 0,25,

а вершине О - вероятность

0,6/(0,2 + 0,6) = 0,75.

Рис. 16.26.

Это только одно из требований. Даже если при наборе стратегий (sj, slj) процесс игры никогда не может привести в некоторое информационное множество, ожидания игрока в данном информационном множестве должны соответствовать (sj, ). Так в игре изображенной на Рис. 16.27а, при указанных ожиданиях относительно стратегий 1-го и 2-го игроков 3-й игрок должен ожидать, что может оказаться в левой вершине с вероятностью 0,1, а в правой вершине с вероятностью 0,9, хотя вероятность достижения информационного множества равна нулю. Ограничимся только этими пояснениями и не станем давать более точного определения.

Заметим, что не всегда можно по данному набору стратегий сформировать ожидания. Например, в игре изображенной на Рис. 16.27б, при указанных ожиданиях о стратегии 1-го игрока 2-й игрок не может сформировать ожиданий в своем информационном множестве. Второй игрок может получить ход только в результате ошибки первого игрока и трудно судить, какая из ошибок более вероятна. В таких случаях мы будем только требовать, чтобы у игрока были некоторые ожидания, и он выбирал стратегию на основе этих ожиданий .

Рис. 16.27.

Отличительной особенностью совершенного байесовского равновесия является то, что для его поиска в общем случае невозможно использовать обратную индукцию, кроме случая игр с почти совершенной информацией. Если в игре нет подыгр, то совершенное байесовское равновесие приходится находить как решение системы уравнений: ожидаемые распределения на вершинах информационных множеств находятся в соответствии с равновесным набором стратегий, а равновесная стратегия выбирается каждым игроком на основе предположений об ожидаемых распределениях на вершинах информационных множеств.

Природа

Для иллюстрации использования совершенного байесовского равновесия рассмотрим модификацию Игры 16.6 (с. 670) с двумя типами террористов, в которой террорист предварительно решает, хочет ли он проводить операцию. Если он не станет осуществлять задуманную акцию, то вне зависимости от типа выигрыш террориста составит 0, и выигрыш пилота составит 0. Дерево игры показано на Рис. 16.28. Как и прежде, первый элемент вектора - выигрыш пилота. Поскольку выбор террориста в Нью-Йорке можно предсказать однозначно, то будем рассматривать "частично свернутую" игру. Совершенное байесовское равновесие должно состоять из следующих величин:

вероятность, с которой сумасшедший террорист проводит операцию, ^i € [0,1];

вероятность, с которой нормальный террорист проводит операцию, ^ € [0,1];

вероятность, с которой пилот ожидает встретить сумасшедшего террориста, a € [0,1];

вероятность, с которой пилот летит в Нью-Йорк, ^з € [0,1].

Этого достаточно для описания равновесия. Все остальные вероятности очевидным образом рассчитываются как функции указанных.

Рассмотрим сначала поведение пилота при ожиданиях, заданных параметром a . Ожидаемые выигрыши пилота от двух возможных действий равны:

Куба: _1 Нью-Йорк: a o (_100) + (1 _ a) o 1

Таким образом, если _1 < a o (-100) + (1 _ a) o 1, т. е. a < 2/101, то пилот предпочтет полететь в Нью-Йорк (^з = 1), если a > 2/101, то на Кубу (^з = 0), а в случае, когда a = 2/101, ему все равно, куда лететь (^з любое). Т. е. зависимость стратегии от ожидания имеет вид:

{1, если a < 2/101, [0,1], если a = 2/101, 0, если a > 2/101.

Далее рассмотрим, какими должны быть ожидания пилота, a, в зависимости от вероятностей ^i и ^2. Если ^i =0 или ^2 = 0, то можно использовать формулу Байеса. В рассматриваемой игре можно считать, что события следующие: Bi - террорист сумасшедший, B2 - террорист нормальный, A - в процессе игры пилот получил ход и должен выбирать, куда ему лететь. (Проверьте, что эти события удовлетворяют требованиям, необходимым для использования правила Байеса.) При этом, используя введенные обозначения, Pr{Bi | A} = a,

Pr{B2} = 1 _ п,

Pr{A | B2} = М2.

Pr{Bi} = п, Pr{A | Bi} = Mi,

Получаем по формуле Байеса, что

п^1

а(М1,М2) ""

п^1 + (1 - п)^2

при Mi =0 или M2 = 0. Если Mi =0 и M2 = 0, то, согласно принятому нами определению байесовского равновесия, ожидания пилота а могут быть любыми: a(^i,^2) = [0,1].

Рассмотрим теперь выбор каждого из типов террориста. Если террорист сумасшедший, то его ожидаемый выигрыш от задуманной акции при стратегии пилота, заданной вероятностью ^з, равен

(1 - ^з) o 1 + ^з o 0=1 - ^з. Он сравнивает этот выигрыш с 0. Таким образом,

11, если ^з < 1, ММз) = , 1

I [0,1], если у"з = 1.

Если террорист нормальный, то его ожидаемый выигрыш от задуманной акции равен 1 - 2^з. Он тоже сравнивает этот выигрыш с 0, т. е.

{1, если у"з < 1/2, [0,1], если ^з = 1/2, 0, если > 1/2.

Набор вероятностей (m*, M*, Мз, а*), задает совершенное байесовское равновесие, если выполнены четыре условия:

M* ? Мз(а*), а* € а(м*,М*),

Mi € M^M*^ M* € М2(М*).

Для того, чтобы найти решения этой системы, следует разобрать несколько случаев. По-видимому, проще всего проанализировать по отдельности следующие три возможности:

нормальный террорист не проводит операцию ( М2 = 0 );

нормальный террорист проводит операцию ( М2 = 1 );

у нормального террориста невырожденная смешанная стратегия (М2 € (0,1)).

Рассмотрим случай, когда М2 =0. Предположим, что при этом Mi =0. Тогда пилот наверняка будет знать, что он может иметь дело только с сумасшедшим террористом (а = 1). Зная это, пилот выберет Кубу ( Мз = 0 ). Но в таком случае нормальному террористу тоже выгодно проводить операцию. Мы пришли к противоречию. Значит, единственная возможность состоит в том, что сумасшедший террорист не проводит операцию (Mi = 0). Но такое может быть только если он знает, что пилот полетит в Нью-Йорк ( Мз = 1 ). Однако, такое поведение пилота возможно только в том случае, если вероятность того, что он имеет дело с сумасшедшим террористом мала (а ^ 2/101).

Мы нашли в рассматриваемой игре одно из равновесий (точнее, семейство равновесий одного типа):

Мз = 1, а* € [0, 2/101], Mi =0, м2 = 0.

Это равновесие поддерживается уверенностью пилота, что вероятность встречи с сумасшедшим террористом мала. Заметим, что эти ожидания ни на чем не основаны, ведь в рассматриваемом равновесии пилот не может сформировать свои ожидания на основе правила Байеса.

Рассмотрим теперь случай, когда М2 = 1 . Такое поведение нормального террориста возможно только, если пилот с достаточно большой вероятностью полетит на Кубу, а именно, если мз ^ 1/2. При такой стратегии пилота сумасшедшему террористу выгодно проводить операцию (Mi = 1). Но если оба террориста проводят операцию, то для пилота вероятность встретить сумасшедшего террориста совпадает с вероятностью, с которой такие террористы встречаются вообще, т. е. а = п. Пилот может выбрать мз ^ 1/2 только если а ^ 2/101. Таким образом, равновесие может достигаться только при п ^ 2/101. При п > 2/101, имеем мз = 0. Таким образом, если сумасшедшие террористы встречаются на свете достаточно часто, т. е. если п > 2/101 , то в рассматриваемой игре может иметь место следующее равновесие:

* * * 1 * 1 Mз =0, а = п, Mi = 1, M2 = 1.

В вырожденном случае, когда п = 2/101, получаем следующее множество равновесий:

* 1 * 1 Mi = 1 М2 = 1

Мз е [0,1/2], а2 = п = 2/101.

(iii) И, наконец, рассмотрим случай, когда нормальный террорист использует невырожденную смешанную стратегию (М2 е (0,1)). Условием использования такой стратегии является то, что обе альтернативы дают ему одинаковую полезность, то есть то, что пилот летит в Нью-Йорк с вероятностью 1/2 (мз = 1/2). Такая стратегия пилота может поддерживаться только ожиданиями а = 2/101. Учитывая, что сумасшедшему террористу выгодно участвовать в акции (mi = 1), из формулы Байеса получим следующее уравнение:

_ 2 _ п

а = 101 = п + (1 - п)м2 . Значит, пилот может сформировать такие ожидания только если

99п

М2 =

2(1 - п)

Поскольку вероятность М2 должна быть меньше единицы, то вероятность, с которой природа порождает сумасшедших террористов должна быть достаточно мала: п < 2/101.

Таким образом, при п < 2/101 следующие вероятности определяют равновесие:

2 1 2 2 2 , 2 99п

Мз = 2, а = Ш , М = 1, М2 = 2(1-п).

Поскольку проанализированы все три возможных случая, то мы нашли все возможные равновесия игры.

Задачи

^ 708. Найдите совершенные байесовские равновесия в игре, изображенной на Рис. 16.18. ^ 709. "Карточный блеф"

В начале игры игроки (A и B) вносят по 1 д. е. После этого с равной вероятностью игрок A получает одну из двух возможных карт, "старшую" или "младшую". Далее игрок может A повысить ставку, добавив 2 д. е. Если он этого не сделает, то игра заканчивается и деньги забирает игрок B. Если A повышает, то делает ход игрок B. Он либо уравнивает, добавляя 2 д. е., либо пасует. В первом случае карта открывается и деньги забирает игрок A, если карта старшая, и игрок B, если карта младшая. Во втором случае деньги забирает игрок A.

Покажите, что в этой игре нет совершенного байесовского равновесия в чистых стратегиях. Найдите равновесие в смешанных стратегиях. Как часто игрок A будет блефовать, т. е. повышать, имея младшую карту? Как часто игрок B будет уравнивать?

<< | >>
Источник: Бусыгин, Желободько, Цыплаков. Микроэкономика - Третий уровень 2005 702 с.. 2005

Еще по теме 16.6 Динамические байесовские игры. Совершенное байесовское равновесие:

  1. Оглавление
  2. 12.2.3 Модель Акерлова как динамическая игра
  3. 13.2.4 Задачи
  4. 15.4.2 Модель сигнализирования на рынке труда (модель Спенса)
  5. 16.3 Динамические игры с совершенной информацией
  6. 16.4 Динамические игры с несовершенной информацией
  7. 16.5 Статические игры с неполной информацией
  8. 16.6 Динамические байесовские игры. Совершенное байесовское равновесие
  9. 16.7.1 Сотрудничество в повторяющихся играх
  10. 2. Динамические игры с совершенной информацией
  11. 3. Динамические игры с несовершенной информацией
  12. 4. Статические игры с неполной информацией
  13. 5. Линамические байесовские игры. Совершенное байесовское равновесие
  14. 2.3. Совершенное под-игровое равновесие по Нэшу
  15. 4.1. Совершенное Байесово равновесие
  16. КОНЕЧНО ПОВТОРЯЕМЫЕ ИГРЫ ПРИ ПОЛНОЙ ИНФОРМАЦИИ С МНОЖЕСТВОМ РАВНОВЕСИЙ В СОСТАВНОЙ ИГРЕ
  17. ИГРЫ С «ПОЧТИ СОВЕРШЕННОЙ* ИНФОРМАЦИЕЙ
  18. СОВЕРШЕННОЕ БАЙЕСОВО РАВНОВЕСИЕ
  19. СИГНАЛИЗИРУЮЩАЯ ИГРА
  20. 32. Совершенная конкуренция: равновесие фирмы в краткосрочном рыночном периоде