Leonard Jimmy Savage’s Theory of Subjective and Personal Probability. Part II. Qualitative and Quantitative Subjective Probability

Abstract

This paper continues the series of publications which aims to familiarize infocommunication technology specialists with the legacy of Leonard Jimmy Savage - one of the founders of the subjective theory of probability. His fundamental work, The Foundations of Statistics, extensively covers the topics of probability, risk assessment and the expected utility theory, all of which have prominent practical applications in the present day. This second paper, corresponding to the third chapter of the source material, analyzes correlations and divergences between the objective and subjective probability theories and lays out the author’s concept of subjective probability, as well as the related notions of qualitative, quantitative and conditional subjective probability. The paper explores possible ways of determining probability values using heuristic and empirical methods, series of controlled experiments and direct measurements. Unlike objective probability, subjective probability may be applied to the research and development of virtual systems, including new types of systems that have been theorized but never realized before.

Full Text

Первая статья предлагаемого цикла публикаций была посвящена условиям возникновения, историческим предпосылкам и перспективам развития субъективной теории вероятностей (ТВ) Бернулли - Сэвиджа [1]. Было отмечено, в частности, что потребность в субъективной ТВ самым парадоксальным образом стала объективной реальностью - именно поэтому авторы статьи взяли на себя смелость не столько выполнить перевод [2], но и подготовить своего рода дайджест, реферативный конспект и обзор - не претендуя, естественно, на авторство, но постаравшись более-менее связно изложить принципы субъективной ТВ, осветить ее основные подходы и методы. Чтобы избежать множества кавычек при цитировании, фрагменты [2], включая мысли и утверждения автора книги, ими было решено набирать обычным простым шрифтом, тогда как их собственные краткие комментарии и добавления - простым курсивом. Все выявленные недочеты и неточности перевода, теоретические и стилистические огрехи, они по-прежнему целиком и полностью принимают на себя, в связи с чем будут благодарны за любой касающийся данной тематики обмен мнениями, включая критический анализ. Субъективная вероятность Лично я больше верю в то, что в 1996 году президентом станет республиканец, нежели в то, что в мае 1994 года в Чикаго выпадет снег. Но даже этот поздний весенний снег кажется мне более вероятным, чем то, что Адольф Гитлер все еще жив. После тщательных размышлений по данному поводу многие посчитают, что мои суждения ничего не стоят или не представляют собой ничего конкретного. Альтернативная точка зрения: эти суждения очевидны и не поддаются анализу. Промежуточная точка зрения представлена в этой главе, где с точки зрения теории последовательного принятия решений в условиях неопределенности дается определение субъективной вероятности, начатое в предыдущей главе. Хотя я надеюсь, что понятие вероятности, описанное здесь, не противоречит способам его обычного применения, оно должно быть оценено с учетом вклада, привносимого в теорию решений, а не с учетом его точности и значимости в классическом применении. Первый способ, который, возможно, лежит на поверхности: просто спросить у человека, какое из двух возможных событий он считает более вероятным. Пусть я и ошибаюсь, но берусь утверждать, что если вопрос касается содержимого человеческого мозга, то не существует иного способа достичь мыслей и мечтаний человека, кроме вербального изложения мыслей самим человеком. Попытки дать определение (определить) относительной вероятности пары событий по результатам ответов людей на прямые вопросы были встречены негативно (и этот негатив был оправдан) большинством теоретиков в области статистики. Концепцию «одно более вероятно для меня, чем другое» они оценили как сомнительную для интуитивного понимания, открытую и недвусмысленную; не допускающую возможность дальнейшего анализа. Но даже если концепция была бы полностью интуитивной, что означало бы необходимость рассматривать прямой опрос в качестве объекта психологических исследований, встает вопрос: «Какое отношение имеет такой опрос к поведению человека в условиях неопределенности, исключая, конечно же, вербальное поведение в процессе опроса?» Ведь если действия мыслительного процесса при ответе не проявляются в каком-либо особом речевом поведении, это означает, что поставленный вопрос не представляет особого интереса. Но, с другой стороны, если результат «мыслительного процесса» проявляется как реальное действие и некое «материальное поведение», это подразумевает возможность проверить, воспринимает ли человек одно событие более вероятным, чем другое: через анализ его поведения, экспрессии, то есть того, что придает «смысл» его суждению. Так что кажется предпочтительным, по крайней мере, получать ответы не на прямые, а на обобщенные косвенные вопросы, подобно тому, как это делается при научном эксперименте в ходе проводимого опроса. Было предложено несколько таких схем - одна из них, заимствованная из статьи де Финетти [3], приводится ниже, хотя речь там о поведенческом опросе и не шла. Проиллюстрируем эту схему: наш идеализированный человек достал из холодильника два целых яйца (коричневое и белое) и держит их в руке. Мы задаемся вопросом: считает ли он, что более вероятно, что коричневое яйцо лучше белого? Наше желание оправдано настолько, что мы, если нужно, готовы заплатить за удовлетворение собственного любопытства. Поэтому мы говорим так: «Мы видим, что вы собираетесь разбить яйца. Заключим пари: вы предполагаете, какое из этих двух яиц будет лучшим, и, если оно оказывается лучшим, мы платим вам доллар. Если ваше предположение неверно, будем считать, что мы квиты. В любом случае мы проверим оба яйца и получим два итоговых результата». Если при таких обстоятельствах человек сделает ставку в $ 1 на коричневое яйцо, то, на мой взгляд, это будет соответствовать общепринятому суждению о том, что коричневые яйца являются, вероятно, лучшими. Хотя я надеюсь, что выбор будет сделан в пользу коричневого яйца, то есть подтвердится правомерность общепринятого суждения; это обстоятельство не будет решающим. Содержание итогового суждения, в частности, во многом зависит от конкретики выражений и принятых терминов, в которых оно будет сформулировано. Существует и вариант опроса, промежуточный между тем, который я называю поведенческим и прямым, а именно: можно спросить у человека не о том, что он чувствует или предчувствует, а о том, что он собирается делать в той или иной ситуации. Поскольку теория принятия решений в процессе развития (создания) рассматривается как эмпирическая, такой промежуточный режим опроса - компромисс между экономностью и строгостью. А поскольку для теории наиболее важным является нормативное толкование, т. е. как набор согласованных критериев соответствия, приспособленных к принимаемым нами решениям, такой промежуточный режим лично мне кажется верным. Предварительный анализ показывает, что эксперимент, в котором испытуемые должны делать выбор из нескольких вариантов реальных действий, может требовать больших ресурсов: времени, денег и прочих затрат, тем более что определение этих вариантов - тоже дело недешевое, что подробно обсуждается в [6]. Вопросы морали и законности по отношению к испытуемым еще более усложняют исследование. Например, Мостеллер и Ноджи (см. [4]) отмечают: поскольку каждый испытуемый в каком-то из экспериментов может получить финансовую выгоду, это приходится скрывать от него. Существует также сложность в принципе работы самого экспериментатора. Предположим, что я хочу определить предпочтения человека, предлагая ему выбор из трех вариантов; f; g и h, которых достаточно, чтобы выявить проблему выбора. Если я предложу ему эти три варианта и он выберет первый f, то не будет возможности выяснить его предпочтение относительно второго g и третьего вариантов. Предположим, например, что разгоряченный мужчина на самом деле предпочитает в качестве средства охлаждения плавание, душ и стакан холодного пива в указанном порядке. Как только он принимает решение, и, таким образом, получает возможность поплавать, ему, согласно условиям эксперимента, невозможно будет предложить выбор между душем и пивом. Наивная попытка сделать это приведет к выбору между плаванием и душем, с одной стороны, и плаванием и пивом, с другой стороны, - но это уже совсем другая, непредусмотренная ситуация. Иногда трудности возникают из-за вариантов технической реализации эксперимента, когда экспериментатор ожидает другой, внешне «аналогичный» случай. С разрешения В.А. Уоллеса далее опишем наиболее обобщенный вариант предыдущего эксперимента. Предложим разгоряченному человеку ранжировать по важности указанные варианты для того, чтобы два из них выбрать случайным образом (например, путем жеребьевки или бросания кубика), а затем, какие бы два варианта ни выпали, предложить ему выбрать наименьший по важности из них. У него, таким образом, появляется возможность выбора из шести вариантов: то есть он может назвать один самый важный для него уже из шести возможных. Если он выбирает последовательность «плавание - душ - пиво», то в рамках теории принятия решений это означает, что для него «плавание ≥ душ ≥ пиво», за исключением искусственно созданной возможности того, что он рассматривает один или более из трех вариантов как практически невозможный, и предусмотрено, что он отдает предпочтение именно этим трем действиям: плаванию, душу, пиву в любой последовательности, что совпадает с его первоначальным выбором. На практике исследователь может разработать такой вариант жеребьевки, чтобы исключить нежелательный вариант и остаться довольным, не принимая во внимание мнение чересчур щепетильных и суеверных людей. Это и есть итог сделанного отступления по теме поведенческого опроса. Цель настоящей главы состоит в том, чтобы изучить концепцию субъективной вероятности, что было рассмотрено в примере о двух яйцах. Данная концепция станет базисом для введения двух новых постулатов Р4 и Р5, которые будут использованы в сочетании с Р1-Р3. Это приведет к формулировке научного представления (понятия) о том, что одно событие является более вероятным, чем другое. Ряд выводов относительно этого понятия, напоминающего математические свойства, обычно связывают с вероятностью; после введения и присоединения постулата Р6 это понятие может быть соединено количественно с тем, что математики называют математической вероятностью. В двух последующих разделах описаны условная субъективная вероятность и подход к достоверности через достаточно длинную последовательность условно независимых релевантных наблюдений; заключительный раздел содержит расширенное понятие о последовательности независимых событий, представляющих интерес с точки зрения субъективной вероятности. Качественная субъективная вероятность Когда говорилось о том, что человеку предлагается $ 1, если его догадка о яйце окажется правильной, то предполагалось, что эта догадка не должна зависеть от величины предлагаемого выигрыша. В принципе мне это кажется правильным: было бы неразумно перейти от доллара до пенни в надежде лишь на то, что он не обратит внимания на слишком небольшой выигрыш. Я также думаю, что неправильно делать вид, что не нужно обсуждать расходы человека, хотя это может быть и не так в более сложных реальных ситуациях. Но это может быть реалистичным стимулом думать об оценке или расчете тоже как о действии, на которое человек должен решиться. Я не исследовал эту возможность более подробно, но подозреваю, что любая попытка ее формализации приведет к бесполезной и бесконечной регрессии. Пусть выигрыш в случае А предполагает доступное для человека действие fA, такое, что: 1) fA(s) = f при s ∈ A, то есть s находится в пределах А; 2) fA(s) = f´ при s ∈ ~ A, то есть s за пределами А, где f´ < f. Пусть в результате каждого из этих двух вариантов действий субъект получит определенную часть установленного выигрыша, который не зависит от самого выигрыша, выраженного постулатом Р4, который по форме соответствует приведенному определению выигрыша. P4. Если f, f´, g, g´, A, B, fA, fB, gA, gB такие, что: 1. f´ < f, g´ < g. 2a. fA(s) = f , gA(s) = g при s ∈ A, fA(s) = f´, gA(s) = g´, при s ∈~A. 2b. fB(s) = f , gB(s) = g, при s ∈ B, fB(s) = f´, gB(s) = g´, при s ∈ B. 3. fA ≤ fB; тогда gA ≤ gB. Тогда, согласно Р4, можно сказать, что А не более вероятно, чем В, в сокращенной записи это будет А ≤ В, тогда и только тогда, когда f´ < f и fA, fB таковы, что: f A(s) = f при s ⊂ A, f A(s) = f´ при s ∈ ~A, f B(s) = f при s ⊂ B, f B(s) = f´ при s ∈~B; тогда fA ≤ fB. В этом видится по крайней мере одно достоинство: безопасность получения выигрыша, хотя может возникнуть и ситуация его неполучения: например, из-за того, что эта ситуация окажется слишком банальной, чтобы заслуживать нашего изучения. Поэтому я предлагаю следующий постулат Р5: P5. Существует, по крайней мере, одна пара следствий f, f´, такие, что f´ < f. Все следствия этого будут выведены из Р1-Р4 несколько позже, чтобы установить причастность трех выводов, которые вводятся следующими определениями и теоремой. Отношение ≤· между значениями качественной вероятности имеет место тогда и только тогда, когда для всех событий B; C; D: 1. ≤· обозначает простую упорядоченность. 2. В ≤· С тогда и только тогда, когда B  D ≤· C  D, при условии что B  D = C  D = 0. 3. 0 ≤· B, 0 ≤·S. Здесь может быть полезным замечание о том, что вторая часть вышеприведенного определения говорит в сущности, о том, что это не повлияет на предпочтение и выбор человека относительно утешительного приза в случае, если ни В, ни С не будут реализованы, а ему останется только D. Теорема 1 Отношение ≤ применимо к событиям качественной вероятности. Не представляет труда доказать, что теорема вытекает из Р1-Р5, а также имеет целый ряд важных ожидаемых следствий, поскольку здесь ≤ означает «не более вероятно, чем» в математическом смысле, определяемом обычной численной вероятностью. Количественная субъективная вероятность Приведенные постулаты не предполагают, что можно вывести однозначное численное значение вероятности каждого события. Но если, согласно де Финетти [3], постулировать, что множество S можно разбить на сколь угодно большое число эквивалентных подмножеств, то станет ясно, что численные вероятности таким образом могут быть определены. Можно возразить, что вид у такого постулата будет чересчур специфическим и субъективным. Однако он может быть введен приемлемым путем: исходя из того, например, что есть такой распространенный во всем мире объект, как монета, в существовании которого любой человек твердо уверен, причем такой монетой может быть любая конечная последовательность, не менее вероятная и реальная, чем любая другая последовательность той же длины, хотя, если подумать, такая монета - тоже весьма значительная идеализация. После теоретического обсуждения математической связи между качественной и количественной вероятностью, в конце данного раздела будет предложен постулат Р6, логически наиболее сильный, хотя мне кажется, что предположение о разделении S на эквивалентные события принять даже легче. Но, когда постулат Р6 будет принят, вряд ли возникнет необходимость обращаться непосредственно к качественной вероятности. Для начала нужно пояснить, что именно здесь имеется в виду (поскольку стандартным термином в данном контексте является вероятностная мера), что я предпочитаю называть количественной вероятностью и что означает с точки зрения вероятностной меры быть в согласии с качественной вероятностью. Вероятностной мерой на множестве S является функция Р(В), связанная с каждым В ⊂ С действительным числом, таким, что: 1. P(B) ≥ 0 для любого B. 2. Если B  C = 0, P(B  C) = P(B) + P(C). 3. P(S) = 1. Такого рода определения являются основой для применения обычных математических действий. Если S осуществляет вероятностную меру Р и качественная вероятность ≤· такова, что для каждого В, С, Р(В) ≤· Р(С), тогда и только тогда В ≤· С, то Р строго согласуется с ≤·. Если В ≤· С означает Р(В) ≤· Р(С), то Р почти согласуется с ≤·. Такая терминология, очевидно, находится в соответствии с тем, что если Р согласуется с тем, что строго согласуется с ≤·, то Р также почти согласуется с ≤·. Легко увидеть, что если Р согласуется с ≤·, то знание Р подразумевает знание ≤·. Но если Р навряд ли согласуется с ≤·, то то это может произойти, как показано далее, при Р(В) = Р(С), хотя В ≤· С, так что знание Р может означать лишь неполное знание ≤·. Оставшаяся часть данного раздела изучает главным образом качественные вероятности - как правило, с целью обнаружения представляющих интерес обстоятельств, при которых вероятностная мера либо строго, либо почти согласуется с заданной качественной вероятностью. Эти обстоятельства предполагают новый постулат, руководствующийся особой качественной вероятностью ≤. Большинство неподготовленных читателей может просматривать материал, опуская доказательства, но фиксируя наиболее очевидные логические связи между теоремами и определениями. Здесь и в некоторых местах далее нужные технические термины выделены курсивом, а не жирным шрифтом: n-кратное почти равномерное разбиение B - это такое n-кратное разбиение B, что объединение не r элементов разбиения более вероятно, чем любые r +1 элементы. Теорема 2 Если существуют n-кратные почти равномерные разделения B на сколь угодно больших значений n, то существуют m-кратные почти равномерные разделения для каждого положительного целого числа m. Доказательство. Пусть Bi, i = 1, … n, n-кратное почти равномерное разбиение из В и 2 nm ≥ . Используем евклидов алгоритм запишем n таким образом n am b = + , где a и b целые числа, такие, что ma ≤ и 0 ≤ b < m. Теперь Cj, j = 1 … m, такое, что каждое j Ñ объединение а или а + 1 соответствует ′ i Âs. Объединение любого r для ′ i Ñs, r < m, - это объединение ar и (a + 1)r в ′ i Âs и объединение r + 1 для ′ i Ñs, что дает из a(r + 1) в (r + 1)(a + 1) для ′ i Âs. Так как r < m ≤ a, (a + 1)r = = ar + r < ar + a = a(r + 1). Теорема 3 Если существуют n-кратные почти равномерные разделения S для сколь угодно больших значений n, то есть одна и только одна вероятностная мера Р, которая почти согласуется с тем событием, что почти согласовано с ≤·. Кроме того, для любого р, 0 ≤ р ≤ 1, либо В ⊂ С, и той уникальной Р, которую мы определили, существует С ⊂ В, соответствующее Р(С) = рР(В). Доказательство при переводе опускается. Теперь мы можем ввести несколько терминов, которые будут интересны в представленном контексте. Разбиение S существует тогда и только тогда, когда B ≥· 0, ни один элемент из которого не вероятен, так как B; ≤· тонкое. Если В и С почти эквивалентны, это записывается так: В ⇔С, тогда и только тогда для всех ненулевых G и H таких как B  G = C  H = 0, B  G ≥· C и С  Н ≥· В. Очевидно, что эквивалентные события также почти эквивалентны. Наконец, тогда и только тогда, когда каждая пара почти эквивалентных событий эквивалентна, предпочтение ≤· является плотным. Две последующие теоремы формулируют условия, при которых предпочтения являются тонкими и плотными. Следствие 1. Предпочтение ≤· для нас является как «тонким», так и «плотным», если вероятностная мера совпадает с ≤· , строго согласуется с ним, а также существует разделение S на сколь угодно большое число равнозначных событий. Теорема 4 Предпочтение ≤· как «тонкое», так и «плотное» тогда и только тогда, когда для каждого объединения В ≤· С существует разбиение S, где каждый элемент В менее вероятен, чем С. Доказательство при переводе опускается. Предварительный постулат Р6´ «руководит» зависимостью предпочтений ≤ между событиями, и, таким образом, зависимостью предпочтений ≤ между действиями. Р6´. Если В < С, то существует S разбиение, где каждый элемент В менее вероятен, чем С. Мне кажется, что гораздо легче подтвердить Р6´, в котором говорится о том, что предпочтение ≤· является как «тонким», так и «плотным», чем оправдать предположения де Финетти [3] и Купмана [7] о тесной взаимосвязи разбиений S на произвольное множество эквивалентных событий, хотя логически Р6´ несколько шире. Предположим, например, что вы рассматриваете В < С, то есть C в вашей судьбе, несомненно, более весомая доля выигрыша. Рассмотрим разбиение вашего собственного мира из 2n событий, каждое из которых соответствует выбранной вами самостоятельно последовательности действий длиной n от начала до конца и определенной монеты. Мне кажется, что вы легко могли бы выбрать такую монету и такое большое n, чтобы по-прежнему делать ставку выигрыша на С, а не на В при любой определенной длине последовательности n. Но чтобы иметь возможность сделать это, вам ни в коем случае не нужно рассматривать все последовательности действий от начала до конца как равновероятные. Справедливости ради необходимо сказать о том, что разработчики понятия вероятности - такие как Кейнс [10] и Купман [7-9] - имеют отношение к Р6´ ввиду того, что согласование между численной вероятностью и качественной вероятностью является строгим. Купман, например, считает, что если А ⊂ В и А ≠ В, то А более вероятно, чем В, и числовая вероятность также может быть аналогом В. Таким образом, если стрелок стреляет в стену, то логически противоречиво, что пуля не должна попасть вообще никуда, но это логически согласуется с тем, что пуля должна ударить в предписанную идеальной математической линией идеальную математическую точку на этой стене. Относительно удара пули в предписанную линией предписанную точку Купман, возможно, будет настаивать, что это событие является более вероятным, чем уход пули в никуда, хотя численная вероятность обоих событий равна нулю. Я не обсуждал бы эту проблему с Купманом, потому что он, по-видимому, говорит о несколько иной концепции зависимости вероятности от предпочтения ≥; но, я думаю, уместно предположить, что для человека важнее доля выигрыша на линии, чем на нулевом множестве. Проблема тут неэмпирическая и ненормативная, поскольку и точка, и линия представляют собой математические идеализации. Если точку и линию заменить точкой и группой, то, конечно, независимо от того, как они могут быть малы, вероятность попадания здесь будет больше, чем в случае пустого события. Мне также кажется, что целиком дело вкуса, обусловленного математическим опытом, как искать решение для случая, когда точка и группа заменены их идеализированными пределами. Что касается теории вероятности как таковой, то постулат Р6´ - это все, что нужно нам знать, хотя вскоре придется сделать немного более сильное предположение, поскольку реальные люди действуют не только в тех обстоятельствах, когда вероятность определена. Поэтому я предлагаю постулат Р6 вместо Р6´, поскольку мне он кажется более приемлемым по тем же причинам, что Р6´ сам по себе. Р6. Если g < h и f любое следствие этого, то существует разбиение S такое, что если g или h на любом элементе разбиения изменены так, чтобы принять значение f на каждом s, а другие значения считаются неизменными, то затем или модифицированный g остается меньше чем h, или g остается меньше модифицированного h, в зависимости от обстоятельств. Некоторые математические подробности Существуют ли качественные вероятности, которые являются «тонкими» и «плотными», являются «тонкими», но не «плотными», являются «плотными», но не «тонкими», которые не являются ни «тонкими», ни «плотными», но имеют одну и только одну почти согласующуюся (совпадающую) вероятностную меру? Ответы на эти вопросы, проиллюстрированные примерами, будут представлены в данном разделе. Укажем и на другую близкую идею, с которой знакомы читатели, имеющие опыт работы с математической вероятностью и понимающие, что обычно не принято, как это было сделано здесь, что все множества имеют численную вероятность, несомненно, большинство множеств ею обладает, но также существуют и множества с неизмеримой вероятностью. К тому же обычно полагают, что если каждая из бесконечной последовательности непересекающихся множеств измерима, то вероятность их объединения равна сумме вероятностей, то есть вероятностные меры, как правило, предполагаются счетно-аддитивными. Но моя теория предполагает, что вероятность определяется для всех событий, то есть для всех множеств состояний, и не означает счетную аддитивность, а лишь конечную аддитивность. В данном разделе не только дается ответ на поставленные выше вопросы, но и обсуждаются отношения понятий ограниченной области определения и счетной аддитивности к развиваемой нами теории вероятностей. Общие выводы из этого таковы: во-первых, нет никаких технических препятствий для работы с ограниченной областью определения, и, несмотря на сложность формального описания, это предпочтительно было бы делать всегда. Во-вторых, это несколько лучше, чем предполагать счетную аддитивность не в качестве постулата, а в качестве специальной гипотезы в определенных контекстах. Такой подход является более развернутым по сравнению с предложенным де Финетти в [3]. Наконец, перед началом изложения основного содержания данного раздела сформулируем ответ на один простой вопрос об отношении между качественной и количественной вероятностями, а также ряд риторических, не требующих ответа вопросов. Существуют ли качественные вероятности без каких-либо строго согласованных мер? Да, потому что любая качественная вероятность «тонкая», но не «плотная», что легко показать на примере. Однако вопрос о том, всегда ли имеет качественная вероятность на конечном S строго согласованную меру, как подчеркнул де Финетти [11], остается открытым. Материалы остальной части данного раздела отличаются специфической математикой, с ними можно ознакомиться или просто пропустить. В современной математической теории вероятностей так много зависит от предположения об аддитивном характере критерия вероятности, что появляется искушение оговорить эту исчисляемую аддитивность или ее логический эквивалент в качестве постулата, дополняющего Р1-Р6. Но я склонен согласиться с де Финетти [2; 11] и Купманом [7-9] в том, что удобное допущение исчисляемой аддитивности, как и любое другое предположение, не может быть указано в числе постулатов Р1-Р6, если это не является неуместным и необоснованным нарушением предлагаемого способа исследования субъективной вероятности. Я не вижу аргументов, приводящих к требованию исчисляемой аддитивности, хотя многим, по-видимому, была бы понятна интуитивная склонность рассматривать природную вероятность в свете проблемы распространения только конечно-аддитивной равномерной плотности вероятности на целые числа, на пределы и на плоскости. Мне кажется, что лучше не принимать исчисляемую аддитивность как постулат, но признать ее в качестве специализированной гипотезы, которая ведет к большому классу полезных теорем. Условная вероятность, количественная и качественная Автор в сноске предварительно оговаривает, что речь будет идти о вероятности B ≤ C при условии, что произошло событие D и это будет записано просто «при условии D». Условные предпочтения среди действий при условии наличия некоторого данного события были представлены во втором разделе книги. Поскольку соотношение ≤ между событиями определено в терминах соответствующего соотношения между действиями, мы можем ожидать, что оно придаст значение утверждениям вида B ≤ C при условии D, если D не нулевое. Рассмотрим пару действий f и g, которые «проверяют», является ли B ≤ C (как предписано в определении ≤ между действиями), и говорят о том, что B ≤ C при условии D тогда и только тогда, когда f ≤ g при условии D. Так как существует более одной пары действий f, g, с помощью которых можно проверить утверждение B ≤ C, кажется очевидным предположить, что не все пары будут в том же порядке в пределах заданного D, что противоречит определению ≤ при условии D. Однако легко увидеть, что для каждого f, g, проверяющего B ≤ C, f ≤ g при условии D (причем вероятность D не равно 0) эквивалентно выражению B  D ≤ C  D. Таким образом, мы можем видеть не только то, что предложенное определение однозначно, но также выражено через вероятностные сравнения между множествами без ссылки на действия, более того, постулаты P1-P6 применяются к событиям отношения условного предпочтения ≤ при условии D. Все вышесказанное - это преамбула к последующим определениям и теореме, описывающей соотношения качественной вероятности в общем виде. Если (предпочтение) ≤· - качественная вероятность и 0 ≤· D, то В ≤· С при условии D тогда и только тогда, когда В  D ≤· С  D. Теорема 5 Если ≤· - это качественная вероятность, тогда ≤· при условии D. Если к тому же ≤· «тонкое» или «плотное», тогда ≤· при условии D, соответственно, «тонкое» или «плотное». Доказательство. Если ≤· «тонкое», тогда для любого непустого D существует одна и единственная вероятностная мера P(B|D) - условная вероятность B при условии D, что почти всегда соответствует ≤·. Но, как и ожидается от традиционной численной вероятности, что легко проверить: P(В  D)/P(D), рассматривается как функция от B при фиксированной D - это вероятностная мера, которая сответствует ≤· при условии D. Следовательно: P (B D) = P (В  D)/P(D). Как было отмечено во втором разделе книги, предпочтение среди действий при условии B может быть описано при помощи временных терминов. Аналогичным образом сравнение среди событий при условии B и, следовательно, условная вероятность B также могут быть выражены временно. Таким образом, выражение P(C | B) можно рассматривать как вероятность, которую субъект назначил бы событию C, после того как получил информацию о событии B (то есть когда событие B произошло). Эта условная вероятность в рамках субъективной ТВ является воплощением феномена обучения на собственном опыте. В соответствии с установленными определениями пары событий B, C называются независимыми, если P (B  C) = P(B)P(C). Чуть более общая формулировка: набор событий называется независимым, если для каждого конечного набора событий B1,…,Bn выполняется P (i Bi) = () ii PB∏ . Очевидно, что если D - ненулевое, B и D независимые, тогда и только тогда P(B | D) = P(B), и D в этом случае можно назвать нерелевантным к B (не относящимся к B). Понятия независимости и нерелевантности, насколько я знаю, не имеют аналогов в пределах качественной вероятности; это удивительно и грустно, поскольку эти понятия вызывают сильную интуитивную реакцию. Отсутствие этих аналогов прослеживается в отсутствии качественного аналога для выражений вида P(B | C) ≤ P(G | H). Работая под влияниям иных идей, нежели представлены в этой книге, мистер Б.О. Купман [7-9] разработал систему качественной вероятности, в которой имеет смысл сравнивать B при заданном C с G при заданном H. Для качественной вероятности, описанной здесь, также верны некоторые условные сравнения, что могут быть определены естественным образом. Если, например, B ≤·~B при условии C и ~G ≤· G при условии H, то было бы неразумно устанавливать соотношение, что B при условии C ≤· G при условии H. Однако такого рода расширение неуместно для моей цели, поскольку здесь меня несильно интересуют качественные вероятности, за исключением основания количественной вероятности. Следующая формула разделения хорошо известна и легко доказуема: ( ) ( ) ( ), jj j P C P C B P B =∑ где Bi - это разделение S на непустые множества. Далее, если C - непустое множество, то довольно просто вывести знаменитое правило Байеса: ( ) ( ) ( ) ( ) () () ( ) ( ) ii ii i jj j P C B P B P C B P B P B C PC P C B P B = =∑ . Объяснения этих формул есть во всех учебниках по ТВ и, конечно же, в последующих главах этой книги. Наконец, если B и C непустые, то ()()() ( ) ( ) ( ) ( ) P B C P C B P B C P B P C P B P C = =  , что можно описать так: знание о C изменяет вероятность B таким же образом, что и знание о B изменяет вероятность C. Понятие случайной величины можно встретить почти в любых обсуждениях и задачах, связанных с вероятностью. Эксперты согласны со следующим определением. Случайная величина - это функция x, связывающая значение x(s) в некотором множестве X с каждым s в составе множества S, на котором определена вероятность P. Такое S c вероятностью P называется вероятностным пространством. Вещественные случайные величины встречаются чаще всего, хотя значения X могут быть любыми. Если, например, x и y со значениями X и Y, соответственно, есть случайные величины на пространстве с определенной мерой, то новая случайная величина z = {x, y} определена таким образом: z(s) = {x(s), y(s)}. Значения z, следова тельно, являются элементами того, что называется декартовым пространством X × Y: это множество упорядоченных пар с первым элементом из X и вторым из Y. Аналогичный порядок можно получить для упорядоченных n-кратных кортежей элементов и также для бесконечной последовательности случайных величин. Две случайные величины x и y, определенные на пространстве с мерой S, называются статистически независимыми тогда и только тогда, когда для каждого X0 ⊂ X и Y0 ⊂ Y, оба события (подмножества S) определены условиями x(s) ∈ X0 и y(s) ∈ Y0 и, соответственно независимы. Расширение этого определения от пар до любого количества случайных величин выглядит очевидным. Подход к определенности через опыт Раньше было показано, что теория субъективной вероятности с чисто математической точки зрения сводилась к теории вероятностных мер, которая изучалась на протяжении веков. Любая математическая задача, связанная с субъективной вероятностью, является задачей вероятностных мер, специфика интерпретации которой в субъективной концепции вероятности приводит, однако, к проблемам, которые, хотя они и весьма значимы для математической вероятности, выделить достаточно тяжело. Здесь кратко обсуждаются две такие проблемы, выбранные из множества возможных для нашего понимания, которое они обеспечивают в рамках концепции субъективной вероятности. Прежде чем начать изучение этих проблем, отметим, что человек многому учится на собственном опыте. Целью настоящего раздела является исследование вопроса о том, как субъект становится почти уверенным в какой-либо «правде» при бесконечно большом опыте. Скажем более конкретно: предположим, что субъект собирается наблюдать большое количество случайных величин, причем все они независимые при условии Bi для каждого i, где Bi - результат разделения, то есть часть S. Покажем, что в общем случае, по завершении наблюдения он может быть в чемто совершенно уверен, то есть будет считать вероятность того элемента разбиения, который он будет наблюдать, практически равной единице. Опишем ситуацию более формально: пусть Bi - это разделение S, соответсвующее P(Bi) = = β(i), а xr, где r = 1, 2, … есть последовательность случайных величин, каждая из которых принимает конечное число значений (которые без потерь общности могут считаться целыми числами). Пусть также x обозначает первый n из набора случайных величин xr. Следует иметь в виду, что x зависит от n, поэтому, строго говоря, его следует записать в виде x(n). Предположение, что при выполнении условия B xr будет иметь распределение, выраженное таким образом: P (xr(s) = xr ) iB = ξ(xr ), i где = ξ(xr ), i определено контекстом. Сочетая это с утверждением, что xr независимые при условии Bi, то есть P (x ) iB = Df P(x(s) = = {x1, x2, … , xn} 1= = ξ ∏ ) ( ), n ir r  x i где условный символ используется для обозначения равенства по определению. Эти гипотезы сформулированы и следуют из закона Байеса и приведенных ранее формул разбиения: ( ) ( )( ) ( ) () () () r ii r i i x iP x B P B P B x P x P x βξ = = ∏ и ( ) ( ) ( ) r i r P x i x i = β ξ ∑ ∏ . Можно заметить, что если априорная вероятность β(i) получена из Bi = 0, тогда неважно, какое значение x получено методом наблюдения: апостериорная вероятность события Bi, то есть P(Bi | x), также равна нулю. Это пример базового принципа, что если событие рассматривается фактически невозможным, то никакие доказательства не смогут придать ему достоверность. Это также подразумевает эквивалентный принцип здравого смысла: если наблюдение x фактически невозможно в рамках гипотезы Bi, но считается, что x был получен в результате наблюдения, то есть опытным путем, то Bi становится фактически невозможным апостериорно. Интересно сравнить вероятности двух элементов разбиения: B1 и B2, определенных в свете x - полагаю, что все представленные аббревиатуры не требуют объяснений: 1 2 ( ) ( 1) (1) ) ( ) (2) ( 2) (1) (1) ( ) ( ). (2) (2) r r r r rr P B x x P B x x R x R x ξβ = = βξ ββ ′= = ββ ∏ ∏∏ Приведенное уравнение не имеет смысла, если и числитель, и знаменатель в левой части обращаются в ноль, если же обращается в ноль знаменатель, то дробь может считаться бесконечной. Это случится тогда и только тогда, когда B2 = 0, и B1 ≠ 0 при условии x. Таким образом, это происходит, когда β(1) ≠ 0, β(2) = 0 либо если β(1) ≠ 0 и R(x) = ∞. В данном случае R’ (xr) и R(x) - это отношения правдоподобия B1 к B2 при условиях xr и x соответственно, критерии важности во множестве возможных теоретических контекстов. Если субъект изучает в процессе наблюдения x, то есть ищет значение x(s) для s, являющееся истинным состоянием объекта, то естественно задать вопрос: насколько вероятным он считает, что R имеет особую ценность? Дальше будет показано, что при достаточно больших n, за исключением двух тривиальных случаев, вероятность R при условии B1 больше, чем любое предварительно заданное число, и составляет почти единицу. Вероятность P(B1) = 0 также должна быть принята во внимание, поскольку в ином случае условная вероятность не имеет смысла. Другое исключение проявляет себя, когда ξ(xr | 1) = ξ(xr | 2) для каждого xr, то есть когда общее распределение xr при условии B1 такое же, как и при условии B2; так как тогда наблюдение xr просто не отличает B1 от B2, или, выражаясь профессионально xr нерелевантно к B1 при условии B1  B2, и 1 ( ( ) 1 ) 1. r P R x B ′ = = Формально это показывает, что, пока не P(B1) = = 0 или 1, 1 lim ( ( ) ) 1 n P R x B →∞ ≥ρ = для 0. ≤ρ<∞ Задача относительно проста при учете того факта, что R(x) - это произведение n случайных величин R’ (xr), которые независимы при условии B1. При решении этой задачи необходимо различить два случая в зависимости от того, существуют или нет значения x с положительной вероятностью при условии B1, но нулевой вероятностью при условии B2. На практике большая удача - найти примеры первого рассмотренного случая, ибо тогда данный механизм проявляет себя «с удвоенной силой». Действительно, предположим, что 1 ( ( ) ) , ′ <∞ =ϕ r P R x B где 1. ϕ< Тогда вероятность 1 ( ) 1 =∞ = -ϕ P R B очевидным образом достигает 1 с возрастанием n. Второй случай, а именно φ = 1, еще более интересный, тем более что о суммах одинаково распределенных независимых случайных величин многое известно, поэтому естественно их исследовать, заменив произведение на сумму: log ( ) log ( ). ′= ∑ r r R x R x Из определения R’ (xr) легко понять, что P(R’ (xr) > 0 | B1) = 1, и в данном случае функции log R’ (xr) - независимые вещественные ограниченные случайные величины: Согласно слабому закону больших чисел, для любых ε > 0 имеет место 1 lim (log ( ) ( ) ) 1, n P R x n I B →∞ ≥ -ε = что эквивалентно ()1 lim ( ( ) ) 1. nI n P R x e B -ε →∞ ≥= Таким образом, мы достигнем цели, если продемонстрируем, что I > 0 до тех пор, пока выполняется условие 1 11 (log ( ) log ( ( ) log1 0. - ′′= ≥- = =- = rr I E R x B E R x B Можно утверждать, что равенство здесь выполняется тогда и только тогда, когда R’ -1(xr) - это константа с вероятностью единица при условии B1. Однако ожидаемое значение R’ -1(xr) при условии B1 равно единице, что можно проверить по определению R’ -1(xr). Таким образом, исключая предусмотренные случаи, I > 0, и доказательство завершено. Перед наблюдением вероятность того, что вероятность при условии x любого элемента разбиения фактически будет больше, чем α, есть ( ) ( ( ) ), ii i i P P B x Bβ >α∑ где суммирование ограничено теми i, для которых β(i) ≠ 0. Применение данного условия распространяется на произвольные пары аргументов в сумме, причем анализ показывает, что сама она достигает единицы с возрастанием n при условии, что нет двух одинаковых функций ξ(xr | i) и ξ(xr | i’ ) аналогично тому, что β(i) и β(i’ ) не равны нулю. Отсюда вывод: при наблюдении релевантной информации субъект почти наверняка убеждается в достоверности «правды», причем знает об этом и сам. Добавим, что многие уточнения и их следствия могут быть разработаны путем применения сильного закона больших чисел, центральной предельной теоремы ТВ и закона о повторном логарифме к R’ (xr). Величина I именуется информацией о распределении xr при условии B1 относительно распределения xr при заданном B2. Или в более общем виде: если P и Q - вероятностные меры, ограниченные (для простоты) к конечному множеству X с элементами x, то информация о P относительно Q определяется соотношением () ( )log , ()x PxPx Qx∑ если брать за основу [15] К. Шеннона, посвященную разработке систем связи, а также часть материала [16] Н. Винера в схожей области. Идеи Шеннона и Винера, хотя и связаны с вероятностью, но кажутся далекими от статистики, поэтому введенный ими термин «информация» здесь не совсем уместен. Ситуация становится еще более запутанной, принимая во внимание, что еще в 1925 г. Р.А. Фишер подчеркнул важность термина, который он назвал «информация», в рамках теории статистической оценки [17]). На первый взгляд понятие Фишера кажется совершенно иным, нежели у Шеннона и Винера, но, по сути, его версия является «ограниченной» (менее содержательной) версией их термина. Трактовка разных смыслов термина «информации» представлена Кульбаком и Лейблером [18], к чему имеет смысл вернуться впоследствии. Симметричные последовательности событий В сноске автор вводит понятие mixture («смесь») - это комбинация двух или более вероятностных распределений, для которой существуют два контекста применения: - смесь определяет новое распределение вероятности из нескольких существующих, давая смешанное распределение, главная проблема здесь - определение свойств нового распределения; - смесь используется в качестве статистической модели для классификации объектов моделирования, которые могут представлять собой множества, откуда объекты возникают как смесь несколько их компонентов: основная задача здесь заключается в том, чтобы определить, какому дискретному набору подмножеств соответствует тот или иной объект. Задача, часто решаемая статистиками, - оценить из последовательности наблюдений неизвестную вероятность p события, которое соответствует многократно повторяющимся успешным испытаниям. Для объективистского подхода к вероятности эта задача естественна и важна, так как вероятность того, что монета упадет, например, орлом, - это свойство монеты, которая может быть определена путем эксперимента с монетой и никак иначе. Однако в случае строго интерпретированного субъективного подхода к вероятности не существует вероятности, неизвестной заинтересованному человеку, так как он может определить эту вероятность сам, спрашивая только самого себя, вне зависимости от внешнего мира. Эту ситуацию многие интерпретировали именно таким образом, чтобы объяснить, что субъективные взгляды неверны или, по крайней мере, неадекватны, поскольку очевидно, что они не могут даже выразить одну из главных черт статистики. До сих пор в этой книге я не возражал против возможности определения некоей пользы от объективистского подхода к вероятности, довольствуясь представленным определением понятия субъективной вероятности. Велик соблазн найти дуалистическую теорию, допускающую как объективистские и субъективные вероятности в какой-то связи друг с другом. Однако де Финетти [3; 11] показал, что в этом нет необходимости, поскольку представление о монете и неизвестной вероятности p может быть переосмыслено только с точки зрения субъективной вероятности. Текущий раздел содержит развитие идеи де Финетти, предназначенное для более четкого понимания понятия субъективной вероятности, особенно относительно объективистских подходов, где смеси последовательностей случайных величин часто представляют интерес. Предположим, что мир разделен на Bi в явном виде и при условии Bi все xr независимы с P(xr(s) = 1| Bi), которая имеет некоторое фиксированное значение p(i). Тогда безусловная вероятность конкретной начальной последовательности - это смесь вероятностей, заданная следующим образом: P(xr(s) = xr ; r = 1; 2 … n) = (1 ( )) ( ). y ny i i p i p i P B --∑ () Естественно обобщить эту запись и придать ей форму P(xr(s) = xr ; r = 1; 2 …n)= (1 ) ( ), y n y p p dM p --∫ где M - вероятностная мера, вещественные числа в интервале [0, 1]. Следует отметить, что последнее уравнение распространяется на любое n, равносильно тому, что вероятность каждого n в составе заданного множества n из xr принимает значение 1. Это следует из арифметической индукции по формуле P (xr(s) = xr ; r = 1; 2 … n)= = P(xr(s) = xr ; r = 1; 2 … n ; xn +1(s) = 0) + + P(xr(s) = xr ; r = 1; 2 … n ; xn +1(s) = 1), которая применяется к любой последовательности случайных величин, принимающий значения либо 0, либо 1. Данное уравнение можно интерпретироваться таким образом, что мера M является не просто абстрактной вероятностной мерой, а фактически субъективной вероятностью. Таким образом, если p - случайная величина (для данного субъекта) распределенная в соответствии с M и если для каждого p условное распределение xr при условии p - это независимое с P(xr(s) = 1) = p; тогда мы получим его. Строго говоря, понятие условной вероятности в том виде, в котором оно встречается в предыдущем предложении. используется в несколько более широком смысле, нежели в этой книге, поскольку вероятность любого частного p обычно равняется нулю. По крайней мере, для счетно-аддитивных мер необходимое расширение условной вероятности и условное ожидание представлены в работе Колмогорова [19]. Это понятие обладает наибольшей ценностью в продвинутой математической статистике и, как правило, в теории вероятностей. Однако в большинстве случаев, когда объективисты говорят о неизвестной вероятности p при субъективном представлении о вероятности, то нет никакого неизвестного параметра, который смог бы сыграть здесь роль p. Рассмотрение ситуаций, в которых «неизвестная» вероятность применяется, показывает, что, с точки зрения субъективиста (последователя субъективного подхода к вероятности), объективисты всегда ссылаются на симметричные последовательности событий в смысле следующего определения. Последовательность случайных величин x, принимающая только значения 0 и 1, является симметричной последовательностью, тогда и только тогда, когда вероятность любого b из xr(s) равно 1 и любое c другой xr(s) равно 0 зависит только от целых чисел b и c. Легко проверить, что любая смесь рассматриваемых независимых последовательностей является симметричной последовательностью, причем де Финетти установил, что верно и обратное. Эти выводы можно суммировать и формально выразить в виде следующей теоремы. Теорема 6 Последовательность случайных величин x, принимающих значения 0 и 1, симметричная тогда и только тогда, когда существует вероятностная мера M на интервале [0, 1] такая, что вероятность предписывает любому n из xr(s) равна 1 и задана в приведенном здесь виде. Две такие меры M и M’ должны быть по существу одинаковыми в том смысле, что если B - подынтервал [0, 1], то M(B) = M’ (B). Учитывая, что де Финетти опубликовал доказательство теоремы 6 в [3], основанное на интеграле Фурье, я не вижу смысла приводить его в настоящей книге. Теорема 6 позволяет выразить ряд утверждений касательно неизвестных вероятностей в персоналистических (то есть субъективных) взглядах. Например, если статистик говорит: «Я не знаю вероятность p этой монеты, но я уверен, что она не более ½», - то это и означает выражение вероятности в рамках его субъективных взглядов: «Я рассматриваю последовательность подбрасываний этой монеты как симметричную последовательность, где мере M присваивается единица измерения в интервале [0, 1/2 ]». Условие для M, означает в свою очередь, что для каждого n субъективная вероятность последовательности «орлов» не превышает 2-n, что легко проверить. Я не настаиваю на том, что эти предложения, сформулированные в связи с фиктивной неизвестной вероятностью, являются плохими, но, если только понимать их как наводящие аббревиатуры, многозначность таких предложений не является причиной неадекватности субъективного взгляда на вероятность. Математическая концепция вероятностной меры, или, как правило, ограниченная мера - это фундаментальное понятие для математики в целом. Поэтому вероятностные меры, часто под другими именами, используются во многих областях математики, порой совершенно не связанных с ТВ. Например, распределение массы в не обязательно твердом теле выражается ограниченной мерой, которая показывает, какая часть тела находится в каждой области пространства. Поэтому мы не должны удивляться, даже если при изучении самой вероятности мы сталкиваемся с некоторыми вероятностными мерами, используемыми не для измерения вероятности, а только для вспомогательных целей. В событии, для которого p не является неизвестным параметром, мера M, представленная теоремой 6, на первый взгляд кажется чисто вспомогательной, но в действительности M измеряет некоторые весьма интересные нам вероятности, пусть и приблизительно. Например, пусть 1 1 , = = ∑ n nr r xx n тогда можно показать, что: lim ( ( ) ) ( ). nn P x s M p →∞ ≤d = ≤d Говоря словами, субъект считает, что среднее значение любого большого числа будущих наблюдений распределяется примерно так, как p распределяется по M. Такое расширение обычного слабого закона больших чисел, доказанное в [3], имеет место наряду с соответствующим расширением сильного закона. Если наблюдаются первые n членов симметричной последовательности, то как выглядит остальная последовательность для субъекта в свете полученной информации? Во-первых, это также симметричная последовательность, хотя обычно отличающаяся от структуры исходной последовательности, что может быть показано следующим образом. Пусть π (y, n - y) = Df P(xr(s) = xr ; r = 1; 2 … n), как и для симметричной последовательности, тогда ( ( )qq P x s x = ; q = n + 1; n + 2 …n + + m () r xs= xr, r = 1; 2 … n) = = 2) 2) pp rr P x s x p n m P x s x r n = = ( ( ) ; = 1; … + ( ( ) ; = 1; … = = ) ( )) , ) y z n y m z y n y π + - + - π- ( , ( ( , где z - число первых среди xq’ s, q = n + 1,…, n + m. Это уравнение показывает, что последовательность xq, q > n при условии xr(s) = xr, r = 1,…, n есть новая симметричная последовательность, характеризуемая как ( ,( ) ( )) ( ,( ) ( ,( ) y z n y m zzmz y n y π + - + -′ π - = π-Df . Мера M’, связанная с новой последовательностью, согласно теореме 6, определяется условием о том, что (,) ( ) ( ,0) ( , ) m m y n y p dM p m y n y π + -′ =π = = π-∫ (1 ) ( ) ( , ) (1 ) ( ). ( , ) m y n y y n y m p p dM p y n y ppp dM p y n y +- - - = = π- - = π- ∫ ∫ Отсюда мера M’ определяется как 1 ( ) ( , ) (1 ) ( ), y n y B M B y n y p p dM p --′ =π - - ∫ что можно продемонстрировать, правда, с помощью «продвинутых методов», относящихся к проблеме момента Хаусдорфа - см. [20]. Отметим, что если M(B) = 0, то и M’ (B) = 0. Если p - действительно неизвестный параметр, то это означает, что субъект практически уверен в том, что истинная p не находится в B, и никакие доказательств не могут изменить его мнение. Последнее уравнение также показывает, что M’ совершенно иное, нежели M: действительно, для фиксированных n ≥ 1 имеет место M’ практически такое же как и M для каждого y, где π(y, n - y) > > 0, тогда и только тогда M присваивает меру к некоторому значению p. То есть субъект рассматривает доказательства, полученные из симметричной последовательности, как не относящиеся к будущему ее поведению, тогда и только тогда, когда он сначала рассматривает последовательность не просто как симметричную, но и как независимую. Можно показать, что субъект считает весьма вероятным, что если он наблюдает достаточно длинный участок симметричной последовательности, то продолжение последовательности будет таким, для которого условная дисперсия p: { }2 2 ( ) ( ) , p dM p pdM p ′′ - ∫∫ будет мала. В случае, когда p действительно является неизвестным параметром, это означает, что человек совершенно уверен в том, что после достаточно длинной последовательности наблюдений он будет вправе присвоить почти единичную вероятность ближайшей окрестности значения p, то есть фактически получается аналогия с подходом к определенности, который будет обсуждаться нами в дальнейшем. Заключение В статье изложены материалы третьей главы [2], которая содержит ряд ключевых понятий, важных как для последующего изложения материала книги, так и для развития субъективного подхода к ТВ. Подробно рассматриваются взаимные соответствия и существенные различия между объективной ТВ Лапласа - Колмогорова и субъективной ТВ Бернулли - Сэвиджа. Показана связь ТВ с теорией информации, где также необходимо оценивать в количественном виде неопределенность знаний субъекта об условиях, в которых он принимает решение. Одним из важнейших представляется весьма обстоятельно аргументированное утверждение о том, что в большинстве случаев, когда критики говорят о невозможности определить вероятность p при субъективном представлении о вероятности, все равно не находится никакого другого параметра, который смог бы сыграть в данной ситуации роль p. Доказательства ряда представленных теорем опущены по причинам, которые оговариваются или автором, или переводчиками. Нумерация теорем соответствует их порядку следования в статье, номера формул опущены во избежание путаницы. Источники, на которые имеются ссылки в [2], приводятся согласно системе обозначений, принятой автором. События весенних дней 2020 года совершенно неожиданно, наглядно и убедительно продемонстрировали актуальность научного подхода автора к субъективной ТВ. Статистические данные анализа числа пострадавших от панэпидемии COVID-19 по схеме: «заболели - излечились - умерли», сообщаемые средствами масс-медиа в режиме one line (по терминологии [2], это объективные вероятностные закономерности «большого мира»), представляли и до сих пор представляют для каждого из нас явно второстепенный интерес по сравнению с индивидуальными шансами заразиться коронавирусом (которые определяются субъективными вероятностными законами «малого мира»). Методы и средства противодействия инфекции в большом мире и малом мире также существенно отличаются друг от друга буквально во всем. Однако, несмотря на это, агитировать сегодня в пользу ТВ Бернулли - Сэвиджа вместо ТВ Лапласа - Колмогорова представляется излишним. По-видимому, речь в очередной раз должна идти о прагматичном сочетании объективного и субъективного подходов, что, конечно же, выглядит не так впечатляюще, как демонтаж прежней теории, но зато несравненно более разумно и практично.
×

About the authors

V. E Abramov

Povolzhskiy State University of Telecommunications and Informatics

Email: maslov@psati.ru
Samara, Russian Federation

O. N Maslov

Povolzhskiy State University of Telecommunications and Informatics

Email: maslov@psati.ru
Samara, Russian Federation

I. S Shatalov

Povolzhskiy State University of Telecommunications and Informatics

Email: maslov@psati.ru
Samara, Russian Federation

K. A Yuklasov

Povolzhskiy State University of Telecommunications and Informatics

Email: maslov@psati.ru
Samara, Russian Federation

References

  1. Леонард Джимми Сэвидж и его субъективная теория вероятностей. Часть I. Условия возникновения, предпосылки и перспективы В.Е. Абрамов [и др.] // Инфокоммуникационные технологии. 2020. Т. 18. № 1. С. 89-105.
  2. Savage L.J. The Foundations of Statistics. New York: Wiley, 1954. 310 p.
  3. De Finetti Bruno. La provision: ses lois logiques, ses sources subjectives // Annales de l’lnstitut Henri Puincare. 1937. № 7. P. 1-68.
  4. Mosteller Frederick, Nogee Philip. An experimental measurement of utility // Journal of Political Economy. 1951. № 59. P. 371-404.
  5. Rousseas, Stephen W., Hart Albert G. Experimental verification of a composite indifference map // Journal of Political Economy. 1951. № 59. P. 288-318.
  6. Wallis W. Allen, Friedman Milton. The empirical derivation of indifference functions // Studies in Mathematical Economics and Econometrics. Chicago: University of Chicago Press, 1942. P. 175-189.
  7. Koopman B.О. The axioms and algebra of intuitive probability // Annals of Mathematics. 1940. Ser. 2. № 41. P. 269-292.
  8. Koopman B.О. The bases of probability // Bulletin of the American Mathematical Society. 1940. № 46. P. 763-774.
  9. Koopman B.О. Intuitive probabilities and sequences // Annals of Mathematics. 1941. Ser. 2. № 42. P. 169-187.
  10. Keynes John Maynard. A Treatise an Probability. London; New York: Macmillan & Co., 1921; second edition, 1929.
  11. De Finetti Bruno. La ‘logica del plausibile’ secondo l a concezione di Polya // Atti della XLII Riunione della Societd Italiana per il Progresso delle Scienze, November 1949. Rome: Societl Italiana per il Progresso delle Scienze, 1951.
  12. Halmos Paul R. Measure Theory. New York: Van Nostrand Co., 1950.
  13. Banach S. Theorie des operationes lineaires. Warsaw: Fundusz Kultury Narodowej, 1932.
  14. Banach S., Tarski A. Sur la decomposition des ensembles de points en parties respectivement congruentes // Fundamenta Mathematicae. 1924. № 6. P. 244-277.
  15. Shannon Claude E., Weaver Warren. The Mathematical Theory of Communication. Urbana: University of Illinois Press, 1949.
  16. Wiener Norbert. Cybernetics. New York: John Wiley & Sons, 1948.
  17. Fisher R.A. Contributions to Mathematical Statistics. New York: John Wiley & Sons, 1950.
  18. Kullback S., Leibler R.A. On information and sufficiency // Annals of Mathematical Statistics. 1951. № 22. P. 79-86.
  19. Kolmogoroff A.N. Grundbegriffe der Wahrscheinlichkeitsrechnung. Berlin: J. Springer, 1933.
  20. Shohat J.A., Tamarkin J.D. The Problem of Moments // Mathematical Surveys. 1943. № 1. New York: American Mathematical Society, reprinted with small changes in 1950.

Statistics

Views

Abstract: 79

PDF (Russian): 25

Dimensions

Article Metrics

Metrics Loading ...

PlumX


Copyright (c) 2020 Abramov V.E., Maslov O.N., Shatalov I.S., Yuklasov K.A.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies