Подпишись и читай
самые интересные
статьи первым!

Диагностика и лечение хронической ишемической болезни сердца Диагностика хронической ИБС (ч2)

prior probability distribution , или просто prior ) неопределённой величины p {\displaystyle p} - распределение вероятностей , которое выражает предположения о p {\displaystyle p} до учёта экспериментальных данных. Например, если p {\displaystyle p} - доля избирателей, готовых голосовать за определённого кандидата, то априорным распределением будет предположение о p {\displaystyle p} до учёта результатов опросов или выборов. Противопоставляется апостериорной вероятности .

[ | ]

Информативное априорное распределение выражает конкретную информацию о переменной. Например, подходящим априорным распределением для температуры воздуха завтра в полдень будет нормальное распределение со средним значением , равным температуре сегодня в полдень, и дисперсией , равной ежедневной дисперсии температуры.

В качестве примера естественного априори, следуя Джейнсу (2003), рассмотрим ситуацию, когда известно, что мяч спрятан под одной из трех чашек A, B или C, но нет никакой другой информации. В этом случае равномерное распределение p (A) = p (B) = p (C) = 1 3 {\displaystyle p(A)=p(B)=p(C)={\frac {1}{3}}} интуитивно кажется единственно обоснованным. Более формально, проблема не изменится, если поменять местами названия чашек. Поэтому стоит выбрать такое априорное распределение, чтобы перестановка названий его не изменяла. И равномерное распределение является единственным подходящим.

Некорректное априорное распределение [ | ]

Если теорема Байеса записана в виде:

P (A i | B) = P (B | A i) P (A i) ∑ j P (B | A j) P (A j) , {\displaystyle P(A_{i}|B)={\frac {P(B|A_{i})P(A_{i})}{\sum _{j}P(B|A_{j})P(A_{j})}}\,}

то очевидно, что она останется верной, если все априорные вероятности P (A i ) и P (A j ) будут умножены на одну и ту же константу; то же верно для непрерывных случайных величин . Апостериорные вероятности останутся нормированными на сумму (или интеграл) 1, даже если априорные не были нормированными. Таким образом, априорное распределение должно задавать только верные пропорции вероятностей.

См. также [ | ]

1)Выборка вероятностей всех симптомов для предполагаемых заболеваний. Если заболеваний три (D1,D2,D3), то должно появиться три группы чисел:

P(S 2 /D 1) P(S 2 /D 2) P(S 2 /D 3)

P(S 7 /D 1) P(S 7 /D 2) P(S 7 /D 3)

P(S 9 /D 1) P(S 9 /D 2) P(S 9 /D 3)

Если симптомов много и много возможных диагнозов, что и бывает на практике, то один этот этап выборки осуществить без привлечения ЭВМ принципиально невозможно, что и сделало данный метод возможным лишь с использованием компьютерных технологий.

2)Вычисление условной вероятности симптомокомплекса P(S сi /D j). Вычисляют по формуле, известной из теории вероятностей. Условная вероятность симптомокомплекса представляет собой произведение вероятностей симптомов данного симптомокомплекса при данном диагнозе. Например, для симптомокомплекса из n симптомов для некоторого диагноза J:

P(S ci /Dj)= P(S 1 /D j)*P(S 2 /D j) * ... * P(S n /D j) (1)

Количество получаемых таки образом условных вероятностей равно количеству рассматриваемых в системе диагнозов (т.е. числу столбцов таблицы).

Определение априорной вероятности заболевания.

Априорной вероятностью некоторого диагноза (Dj) называют эмпирическую частоту наблюдения данного заболевания в некоторых конкретных условиях. Априорная вероятность обозначается P(D j) .Она характеризует распределение болезней в данной группе населения. Такой группой может быть контингент данной больницы, данного района, данного города. Априорной (доопытной) она называется потому, что уже известна до получения симптомокомплекса, т.е. к ней новый больной никакого отношения не имеет. Смысл введения в диагностику величины P(D j) состоит в том, что она непостоянна и зависит от географических, сезонных, эпидемиологических и других факторов, которые должны быть учтены при постановке диагноза. Например, в какой-либо больнице наугад было выбрано 100 человек, 70 из них оказались больны гриппом. Значит, вероятность заболевания гриппом у всех пациентов в данной больнице будет равна 70/100=0,7, когда эпидемия гриппа будет ликвидирована, естественно и P(D j) для гриппа в этой больнице будет другой. Величина априорной вероятности диагноза является одной из величин, которая в процессе работы диагностической системы требует мониторинга и текущей коррекции.

Вычисление нормировочного коэффициента (Psc).

Нормировочный коэффициент представляет собой полную вероятность наличия симптомокомплекса при всех заболеваниях. Эта величина несет математический смысл, представляя собой полную сумму попарных произведений условных вероятностей симптомокомплекса для данного диагноза на априорную вероятность этого диагноза:

Psc = P(S сi /D 1) * p(D 1)+ P(S сi /D 2) * p(D 2)+ …+P(S сi /D n) * p(D n)


Полное количество слагаемых в данной сумме равно числу диагнозов, рассматриваемых в данной системе.

5)Вычисление вероятностей диагнозов при данном симптомокомплексе (P(D j /S ci)).

Данный этап являет предпоследним в схеме функционирования системы и основан на использовании теоремы Байеса (формула вероятности гипотез):

P(D j /S ci)=[ P(S сi /D j) x P(D j)] / [ P(Sc) ]

Количество вероятностей диагнозов равно числу диагнозов системы. Иными словами в результате данного этапа работы система вычисляет вероятность каждого из имеющихся диагнозов.

Постановка диагноза.

Этап является наиболее простым и основан на простом сравнении полученных на этапе (5) величин. Наибольшая величина и указывает на тот диагноз, который наиболее вероятен при данном симптомокомплексе. Теоретически возможны случаи, когда вероятность нескольких диагнозов равна. В этом случае необходимо говорить о том, что диагностическая таблица, использующаяся в системе недостаточно совершенна, чтобы “различить” эти диагнозы.

С7 В этом современном виде теорема Байеса была на самом деле сформулирована Лапласом. Томасу Байесу принадлежит сама постановка задачи . Он сформулировал ее как обратную известной задаче Бернулли. Если Бернулли искал вероятность различных исходов бросания "кривой" монеты, то Байес, наоборот, стремился определить степень этой "кривизны" по эмпирически наблюдаемым исходам бросания монеты. В его решении отсутствовала априорная вероятность.  


Хотя правило выглядит очень простым, применить его на практике оказывается трудно, так как бывают неизвестны апостериорные вероятности (или даже значения упрощенных решающих функций). Их значения можно оценить. В силу теоремы Байеса апостериорные вероятности можно выразить через априорные вероятности и функции плотности по формуле Р С, Iх = Р С, (Р(х I С, / Р Су Р хI С,  

Оценивая результаты классификации по методу MDA, мы видим значительную долю ошибочных решений по компаниям-банкротам (группа 1) - одной из них кредит был бы предоставлен. Фирмы с неясным положением (группа 2) с трудом поддаются правильной классификации, потому что, в конечном итоге, они могут попасть в 1-ю или 3-ю группу. Дело нельзя улучшить, приводя априорные вероятности в соответствие с представлениями банка о вероятности принадлежности фирмы различным группам. Общий показатель правильности прогноза составил всего 56.6%, причем из 1-й группы правильно классифицированы были только 30%.  

При имеющемся уровне сложности и одновременности происходящих процессов модели, основанные на причинных связях , имеют ограниченные возможности для применения вновь происходящие события постоянно меняют спецификации всех переменных (и включенных, и не включенных в модель), а значения априорных вероятностей и размеров выплат по различным стратегиям весьма неопределенны и резко меняются вместе с изменениями показателей экономического роста , процентных ставок, обменных курсов и прибыльностью сделок, не связанных с кредитованием (например, при изменении операционных и комиссионных сборов).  

Так как в реальной ситуации нельзя знать заранее, какая часть из компаний, представленных в случайной выборке , потерпит банкротство в течение года и поскольку авторы двух рассматриваемых моделей, как можно предположить, устанавливали разделяющие уровни, исходя из каких-то конкретных предположений об априорных вероятностях банкротства и цене ошибок, мы упростили процедуру сравнения и ввели относительные разделяющие уровни. Иначе говоря, для каждой модели мы считали сигналами о банкротстве нижние 10% сигналов, выдаваемых моделью за очередной год. На деле такой подход означает общую 10-процентную априорную вероятность банкротства и такое отношение числа сигналов о банкротстве к реальным банкротствам в предыдущем тесте, которое определяется с помощью оптимизирующего порога. Кроме того, этот способ имеет то преимущество, что при этом минимизируются искажения, возникающие из-за большого разрыва во времени между публикацией Z-счета Альтмана и проведением эксперимента. Средние показатели за это время могли измениться, и поэтому разделение компаний на сильные и слабые, исходя из определенной пропорции, представляется более надежным. В табл. 9.2 приведены результаты эксперимента по прогнозированию банкротств на год вперед с указанием погрешности для каждой модели.  

Принимая априорную вероятность за факт, оцените ожидаемую прибыль в случае открытия филиала.  

Обозначим через А. событие, заключающееся в том, что q б [

Пусть, например, выбраны следующие параметры величина капитальных вложений , величина эксплуатационных затрат и цена готовой продукции , которые соответственно могут принимать значения Кь К2, К3 Эь Э2, Э3 Ць Ц2, Цз- Каждому из этих значений соответствует некоторая априорная вероятность, например, Кь Эь Ц имеют вероятность pt = 0,1, для К2, Э2, Ц2 вероятность будет р2 = 0,8, а для К3, Э3, Ц3 - р3 = 0,1.  

Пусть априорная вероятность получения в конце процесса проектирования технического решения , удовлетворяющего по-  

Если игрок 2 имеет в игре Г более одной стратегии и априорные вероятности их использования игроку 1 неизвестны или даже вовсе не имеет смысла говорить об этих вероятностях, то все только что сказанное неприменимо.  

Как мы уже ранее видели, изменения априорных вероятностей р и q зависит от настройки сигнала.  

Отсюда следует, что если мы имеем нейтрального к риску субъекта, который считает, что колл-опцион будет стоить Си с вероятностью тг и j с вероятностью (1 - тг), то этот субъект будет вычислять текущую цену опциона с полном соответствии с выведенным нами уравнением. Заметим, что мы нигде не предполагали наличия априорных вероятностей появления той или иной цены акции и, соответственно, будущей оценки опциона . Изложенный подход называется нейтральной к риску оценкой.  

Пусть тг(

Правая часть (7.53) не является плотностью в собственном смысле, так как интеграл от нее не определен, тем не менее при вычислении по формуле Байеса плотности апостериорного распределения параметров формальных трудностей при работе с (7.53) или не возникает, или они легко могут быть преодолены. Как мы увидим ниже в п. 7.3.2, выбор (7.53) удобен в аналитическом отношении и, казалось бы, хорошо отражает полное отсутствие априорных знаний о распределении параметров. Однако в нем на самом деле скрываются очень сильные предположения отсутствие корреляции между параметрами (не пу-т ть с корреляцией между оценками значений параметров, которая зависит от распределения регрессоров и величины а), пренебрежимая малость априорной вероятности того, что вектор параметров лежит в любом наперед заданном конечном объеме, какова бы ни была его величина, и т. д. Это приводит порою к серьезным трудностям с интерпретацией результатов байесовского оценивания .  

Рассмотрим содержание теоремы Байеса с несколько иной точки зрения . Для этого выпишем все возможные исходы нашего эксперимента. Пусть символы Н0, h означают исход монета не накрыта и ее верхняя сторона - герб" . Если вы оцениваете априорную вероятность осуществления  

Я как V2i то вероятность указанного исхода будет Va X х1/2=1/4- Ниже мы приводим список всех исходов и их априорные вероятности  

Так, в примере с монетой и игральной костью Р(На) - априорная вероятность, Р(На К) - апостериорная вероятность , а Р(Н На) - правдоподобность.  

Если теперь априорная вероятность Р(Н0) может быть взята равной либо 1, либо 0, говорят, что принимающий решение  

Вообразим теперь, что экспериментатор предлагает принимающему решение совершенно надежную (или полную) информацию о том, какой именно предмет не накрыт. Принимающий решение должен, однако, заплатить за услугу сообщения такой совершенно надежной информации, прежде чем он получит эту информацию. Какова была бы ценность такой информации Он может заглянуть вперед и спросить себя, что он будет делать в ответ на каждое из двух возможных сообщений, которые может обеспечить данная услуга, и вычислить свой доход, исходя из полученных ответов. Взвешивание этого дохода с помощью априорных вероятностей возможных сообщений позволило бы ему оценить сумму его ожидаемого дохода, если он уплатит некоторую сумму за совершенно надежную информацию до ее фактического получения. Так как этот ожидаемый доход был бы больше 0,5 долл., т. е. того, что он ожидает на основании одной лишь априорной информации , то прирост дохода и явился бы той максимальной суммой, которую ему имело бы смысл уплатить за информационную услугу.  

Фирма должна закупить большое количество товара либо сегодня, либо завтра. Сегодня цена товара 14,5 долл. за единицу. По мнению фирмы, завтра его цена будет либо 10, либо 20 долл. с равной вероятностью. Пусть х обозначает завтрашнюю цену тогда априорные вероятности равны  

На последнем этапе проверяется надежность выбора априорных вероятностей наступления рыночных состояний и вычисляется ожидаемая полезность от уточнения этих вероятностей. Для этого строится дерево решений . В случае появления необходимости дополнительных исследований рынка рекомендуется приостановить процесс внедрения выбранного варианта нового товара до получения более надежных результатов.  

В маркетинговой практической деятельности фирмы зачастую приходится сравнивать затраты на получение частичной (неполной) информации и затраты на получение дополнительной новой информации для принятия более качественного решения. Менеджер (ЛПР) должен оценить, насколько выгода, получаемая от дополнительной информации , покрывает затраты на ее получение. В данном случае может быть применена теория принятия решений Байеса. Исходными данными являются априорные вероятности P(Sk) и условные вероятности P(Z Sk) появления рыночного состояния Z при условии, что предположено появление состояния 5А. При получении новой информации вычисляются ожидаемые полезности каждой стратегии, а затем выбирается стратегия с максимальным значением ожидаемой полезности. С помощью новой информации ЛПР может исправлять априорные вероятности P(Sk), а это очень важно при принятии решений.  

Теперь желательно узнать, какая будет вероятность появления объективного состояния Sk при получении новой информации. Таким образом, необходимо найти P(Sk Z), где k,q = 1,п. Это условная вероятность и она является уточненной априорной вероятностью. Для вычисления P(Sk Z) воспользуемся формулой Байеса  

Итак, мы получили уточненные априорные вероятности появления объективных рыночных состояний. Весь процесс вычисления и получаемые результаты указаны в табл. 9.11 и 9.12.  

Использование бейесовского подхода (6.47) требует знания априорных вероятностей и плотностей распределения вероятностей.  

Используя полученные из АГК числовые характеристики объектов, мы провели стандартный линейный множественный дискрими-нантный анализ с одинаковыми (равными 33%) априорными вероятностями принадлежности элемента. группам. Правильно были классифицированы 41% от общего числа случаев, и это несколько лучше 33-процентной точности, которая получилась бы при случайном отнесении объекта к той или иной группе. Табл. 8.6 ниже- это таблица неправильных классификаций, которая также называется матрицей ошибок.  

Следующая проблема - это выработка стандарта для тестирования. Для оценки MDA-моделей в большинстве случаев берется небольшое количество образцов, и это увеличивает вероятность того, что модель будет слишком точно подогнана под тестовые данные. В выборках обычно содержится поровну компаний-банкротов и небанкротов, а сами данные, как правило, соответствуют периодам интенсивных банкротств. Это приводит к выводу о том, что надежными являются только результаты оценки модели на новых данных. Из табл. 9.1 видно, что даже на самых благоприятных тестах с новыми данными (когда все примеры берутся из одного периода времени и притом однородными в смысле отраслей и размера предприятия) качество получается хуже, чем на образцах, по которым определялись параметры модели. Поскольку на практике пользователи моделей классификации не смогут настраивать модель на другие априорные вероятности банкротства, размер фирмы или отрасль, реальное качество модели может оказаться еще хуже. Качество может также ухудшиться из-за того, что в выборках, используемых для тестирования MDA-моделей, бывает мало фирм, которые не обанкротились, но находятся в зоне риска. Если таких с риском выживающих фирм всего четыре-пять, то это искажает реальную долю рисковых компаний, и в результате частота ошибок 2-го рода оказывается недооцененной.  

Участвовавшие в сравнении MDA-методы были рассчитаны и оптимизированы, исходя из доли ложных сигналов 10 1 при некоторых априорных вероятностях и цене ошибок. Хотелось бы использовать в качестве ex ante критерия меньшее, чем 10-процентное, число потенциальных банкротов в популяции, но это плохо согласуется с параметрами моделей . Это также противоречит практике, когда снижение порога ниже 10-процентного уровня не приводило к банкротству. Так, когда доля ложных сигналов урезалась до 7%, Z-шкала Таффлера вообще переставала идентифицировать банкротства, а модель Datastream наталкивалась на это препятствие на отметке 8%. В противоположность этому нейронная сеть распознала два случая банкротства ниже разделяющего уровня в 4.5%, т.е. сеть способна работать в условиях, когда на одну правильную идентификацию банкротства приходится всего пять ложных сигналов. Этот показатель сравним с наилучшими результатами, которые получаются у MDA-моделей на гораздо менее требовательных тестах задним числом (ех post). Отсюда следуют два вывода во-первых, нейронные модели представляют собой надежный метод классификации в кредитной сфере, и, во-вторых, использование при обучении в качестве целевой переменной цены акции может оказаться более выгодным, чем собственно показателя банкротство/выживание. В цене акций отражает-  

В гл. 3-5 описываются методы шкалирования предпочтений (весов) будущих событий, количественные оценки степени предпочтения и, мы можем вычислить безусловную вероятность любого результата выборки  

В статистической теории оптимальных приемников, основные понятия которой были рассмотрены в предыдущих параграфах, вопрос об априорных вероятностях полезного сигнала связан с определенными трудностями. Действительно, априорные вероятности нужны для вычисления апостериорных вероятностей, т. е. они необходимы для фактического осуществления оптимального приемника. Однако априорные вероятности часто неизвестны. Так, Вудворд пишет: «Рассмотрим, например, априорную вероятность обнаружения самолета некоторой радиолокационной установкой на расстоянии завтра в утра. Если установка расположена на аэродроме с регулярным движением, статистический анализ прошлого может дать нам нужные вероятности в предположении, что движение самолетов представляет собой стационарный случайный процесс. Для большого класса задач, однако, мы не располагаем статистикой либо потому, что она не изучалась, либо вследствие более фундаментального обстоятельства: в прошлом не существовало совокупности сходных ситуаций, из которой можно было бы вывести определенное суждение».

Как мы показали в § 29, плотности априорных вероятностей можно представить в виде двух множителей

Априорные вероятности. являются соответственно вероятностями наличия и отсутствия полезного сигнала на входе приемника. Эти вероятности наиболее трудно оценить. Априорные вероятностирт являются вероятностями распределения полезных сигналов по неизвестным параметрам при условии, что полезный сигнал присутствует на входе приемника. Эти распределения в ряде случаев можно более или менее уверенно найти из теоретических соображений. Так, например, случайную высокочастотную фазу при некогерентном приеме естественно предположить равномерно распределенной по окружности, амплитуду флюктуирующего сигнала - по закону Релея. Дальность и азимут цели можно в некоторой небольшой области воздушного пространства

предположить равномерно распределенными; при увеличении размеров области это предположение может стать уже несправедливым.

Учитывая выше приведенные рассуждения и предполагая, что закон распределения априорных вероятностей полезного сигнала по неизвестным параметрам известен, мы можем вычислить введенные выше для различных случаев коэффициенты правдоподобия и Если далее образовать отношение апостериорных вероятностей присутствия и отсутствия полезного сигнала, то получим при обнаружении

а при измерении

Эти формулы нетрудно вывести из выражений (29.09), (29.22), (29.28), (29. 33) и соотношений

Формулы (30.02) и (30.03) показывают, что в отношениях апостериорных вероятностей от априорных вероятностей зависит лишь постоянный множитель а принятая функция определяет коэффициенты правдоподобия

Трудность, обусловленную незнанием отношения можно обойти, если изменить определение оптимального приемника и назвать оптимальным приемник, образующий коэффициенты правдоподобия (а не апостериорные вероятности). В таком случае оптимальные приемники по

определению должны выдавать следующие математические величины:

1) при простом обнаружении

2) при сложном обнаружении

3) при простом измерении

4) при сложном измерении

На основании входных данных и образованных с их помощью величин (30.06) обычно приходится принимать решения. Если решать должен человек, например ответить «есть сигнал» или «нет сигнала», то оптимальный приемник лишь помогает человеку, оставляя за ним операцию решения. Надо сказать, что в своих решениях человек всегда использует (часто,не осознавая этого явно) априорные знания о вероятности появления сигнала: в частности, если априорная вероятность появления сигнала достаточно мала, то для ответа «есть сигнал» потребуется более сильное превышение сигнала над шумами, т. е. большее значение

Процесс решения нетрудно автоматизировать. Ограничиваясь задачей обнаружения (сложного или простого), мы должны учесть, что вероятность наличия полезного сигнала

есть монотонная функция коэффициента правдоподобия Совершенно естественно считать, что сигнал присутствует, если вероятность достаточно велика (т. е. достаточно близка к единице), и что полезного сигнала нет, если вероятность достаточно мала. Поэтому простейшее правило решения имеет вид

где некоторое "пороговое" значение вероятности, скажем, ; или

Более сложное правило:

с двумя порогами использует апостериорные вероятности на выходе оптимального приемника более полно, но при этом иногда дает неопределенный ответ. Если сигнал принят, дальнейшая информация в приемник не поступает и на основании имеющихся сведений требуется принять какое-то определенное решение, то единственный выход заключается, очевидно, в применении правила (30.08) с одним порогом. Если же информация поступает в приемник постепенно, то на основании входных данных, накопившихся за фиксированный промежуток времени, можно принять и неопределенное решение, указывающее на необходимость продолжать наблюдение. В этом случае можно применить «двухпороговое» правило (30.09); в принципе можно было бы, вероятно, использовать и более сложные правила.

Рассмотрим более подробно правило (30.08). Коль скоро мы выберем одно из двух возможных решений, то мы всегда можем или принять правильное решение или ошибиться. Ошибки могут быть двух типов. Первый тип ошибки - принятие решения «да», когда на входе присутствует только помеха. Эта ошибка называется ложной тревогой, ее вероятность мы обозначим через Второй тип ошибки - принятие решения «нет», когда на входе присутствуют как помеха, так и полезный сигнал. Эта ошибка называется пропуском сигнала, вероятность этой ошибки мы будем обозначать через Вероятность ложной тревоги является вероятностью принять помеху за сумму сигнал помеха; вероятность пропуска есть вероятностью принять сумму сигнал помеха за чистую помеху.

Правильные решения также могут быть двух типов: правильное обнаружение и правильное необнаружение. Вероятность правильного обнаружения, которую мы обозначим через есть вероятность принять сумму сигнал помеха за сигнал помеха, а вероятность правильного необнаружения, которую мы обозначим через есть вероятность принять помеху за помеху. Очевидно, что условные вероятности: вероятности принять правильное или неправильное решение при условии, что полезного сигнала нет, такие же вероятности при условии, что полезный сигнал присутствует. Поэтому выполняются соотношения

Полцая вероятность принять правильное решение, очевидно, равна

где и суть априорные вероятности отсутствия и наличия сигнала

При использовании правила (30.08) необходимо - задать, помимо порога априорные вероятности Если последние неизвестны, то можно воспользоваться, как это было указано выше, коэффициентом правдоподобия, с помощью которого правило (30.08) перепишется в виде

есть пороговое значение коэффициента правдоподобия. "Двухпороговое" правило (30.09) примет такой вид:

Согласно этим правилам нетрудно построить схемы, автоматически принимающие решения. Таким образом, "решающий" оптимальный ириемник должен образовывать коэффициент правдоподобия и подавать его на вход решающей схемы (30.12) или (30.14). Заметим, что вместо можно использовать любую монотонно возрастающую функцию (например, что часто упрощает схему оптимального приемника. Порог А в формуле (30.12) обычно находят из требования, чтобы вероятность ложных тревог равнялась заданному значению (часто весьма малому, например, или

Остановимся в заключение на терминологии, принятой в литературе.

Наблюдателем Неймана-Пирсона (Neymann-Pearson) называют наблюдателя, который на основании принятых данных принимает решения о наличии сигнала по правилу, которое обеспечивает

максимальную вероятность правильного обнаружения при фиксированной вероятности ложной тревоги за данный промежуток времени наблюдения . В математической статистике доказывается, что наблюдатель Неймана-Пирсона принимает решения как раз по "одно-пороговомуи правилу (30.12), причем величина порога определяется фиксированным значением Любое другое правило решения приводит к меньшим D (при заданных и ).

Идеальный наблюдатель Зигерта (Siegert) принимает решение, обеспечивающее максимальную вероятность по формуле (30.11) при фиксированном времени наблюдения Решение принимается также по правилу (30.12), но величина порога выбирается равной

Последовательный наблюдатель Вальда (Wald) производит анализ данных, непрерывно поступающих на вход приемника. Последовательный наблюдатель имеет возможность задержать решение до поступления новых данных; правило решения для него имеет вид (30.14). Однако математическая теория последовательного наблюдения отличается большей сложностью, и мы в дальнейшем будем исключительно применять схему решения (30.12) с одним порогом, интерпретируя ее в духе наблюдателя Неймана-Пирсона.

Более глубокий подход к статистической теории приема дает современная теория игр и статистических решений, использованная в теории оптимальных приемников Метером и Мидлтоном. Некоторые относящиеся сюда вопросы рассмотрены в приложении

Случайное событие оценивают числом, определяющим интенсивность проявления этого события. Это число называют вероятностью события P() . Вероятность элементарного события – . Вероятность события есть численная мера степени объективности, возможности этого события. Чем больше вероятность, тем более возможно событие.

Любое событие, совпадающее со всем пространством исходов S , называетсядостоверным событием , т.е. таким событием, которое в результате эксперимента обязательно должно произойти (например, выпадение любого числа очков от 1 до 6 на игральной кости). Если событие не принадлежит множествуS , то оно считаетсяневозможным (например, выпадение числа очков, большего 6, на игральной кости). Вероятность невозможного события равна 0, вероятность достоверного события равна 1. Все остальные события имеют вероятность от 0 до 1.

События Е иназываютсяпротивоположными , еслиЕ наступает тогда, когда не наступает. Например, событиеЕ – «выпадение четного числа очков», тогда событие– «выпадение нечетного числа очков». Два событияЕ 1 иЕ 2 называютсянесовместными , если не существует никакого исхода, общего для обоих событий.

Для определения вероятностей случайных событий используют непосредственные или косвенные способы. При непосредственном подсчете вероятности различают априорную и апостериорную схемы подсчетов, когда проводят наблюдения (опыты) или априорно подсчитывают число опытовm , в которых событие проявилось, и общее число произведенных опытовn . Косвенные способы основываются на аксиоматической теории. Поскольку события определяются как множества, то над ними можно совершать все теоретико-множественные операции. Теория множеств, функциональный анализ были предложены академиком А.Н. Колмогоровым и составили основу аксиоматической теории вероятности. Приведем аксиомы вероятностей.

Аксиома I . Поле событий F (S ) является алгеброй множеств .

Эта аксиома указывает на аналогию теории множеств и теории вероятности.

Аксиома II . Каждому множеству из F (S ) поставлено в соответствие действительное число P(), называемое вероятностью события :

при условии S 1 S 2 = (для несовместных событийS 1 иS 2 ), или для множества несовместных событий

где N – количество элементарных событий (возможных исходов).

Вероятность случайного события

,

где– вероятности элементарных событий, входящих в подмножество.

Пример 1.1. Определить вероятность выпадения каждого числа при бросании игральной кости, выпадения четного числа, числа4 .

Решение . Вероятность выпадения каждого числа из множества

S = {1, 2, 3, 4, 5, 6}
1/6.

Вероятность выпадения четного числа, т.е.
={2,
4, 6}, исходя из (1.6) будетP(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2
.

Вероятность выпадения числа 4 , т.е.
= {4, 5, 6 } ,

P(
) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2.

Задания для самостоятельной работы

1. В корзине 20 белых, 30 черных и 50 красных шаров. Определите вероятность того, что первый вынутый из корзинки шар будет белым; черным; красным.

2. В студенческой группе 12 юношей и 10 девушек. Какова вероятность того, что на семинаре по теории вероятности будут отсутствовать: 1) юноша; 2) девушка; 3) два юноши?

3. В течение года 51 день отличался тем, что в эти дни шел дождь (или снег). Какова вероятность того, что вы рискуете попасть под дождь (или снег): 1) отправляясь на работу; 2) отправляясь в поход на 5 дней?

4. Составьте задачу на тему данного задания и решите ее.

1.1.3. Определение апостериорной вероятности (статистической вероятности или частоты

случайного события)

При априорном определении вероятности предполагалось, что равновероятны. Это далеко не всегда соответствует действительности, чаще бывает, что
при
. Допущение
приводит к ошибке в априорном определенииP() по установленной схеме. Для определения, а в общем случаеP() проводят целенаправленные испытания. В ходе проведения таких испытаний (например, результаты испытаний в примерах 1.2, 1.3) при различном состоянии разнообразных условий, воздействий, причинных факторов, т.е. в различныхслучаях, могут возникнуть различныеисходы (различные проявления сведений исследуемого объекта).Каждый исход испытаний соответствует одному элементу или одному подмножеству множества S .Если определять m как число благоприятных событию А исходов, полученных в результате n испытаний, то апостериорная вероятность (статистическая вероятность или частота случайного события А )

На основании закона больших чисел для A

, n ,

т.е. при увеличении числа испытаний частота случайного события (апостериорная, или статистическая, вероятность) стремится к вероятности этого события.

Пример 1.2. Определенная по схеме случаев вероятность выпадения решки при подбрасывании монеты равна 0,5. Требуется подбросить монету 10, 20, 30 ... раз и определить частоту случайного события решка после каждой серии испытаний.

Решение . К. Пуассон подбрасывал монету 24000 раз, при этом решка выпадала 11998 раз. Тогда по формуле (1.7) вероятность выпадения решки

.

Задания для самостоятельной работы

    На основании большого статистического материала (n ) были получены значения вероятностей появления отдельных букв русского алфавита и пробела () в текстах, которые приведены в табл.1.1.

Таблица 1.1. Вероятность появления букв алфавита в тексте

Возьмите страницу любого текста и определите частоту появления различных букв на этой странице. Увеличьте объем испытаний до двух страниц. Полученные результаты сравните с данными таблицы. Сделайте вывод.

    При стрельбе по мишеням был получен следующий результат (см. табл.1.2).

Таблица 1.2. Результат стрельбы по мишеням

Какова вероятность того, что цель была бы поражена с первого выстрела, если бы по своим размерам она была меньше «десятки», «девятки» и т.д.?

3. Спланируйте и проведите аналогичные испытания для других событий. Представьте их результаты.

Включайся в дискуссию
Читайте также
Пьер и мари кюри открыли радий
Сонник: к чему снится Утюг, видеть во сне Утюг что означает К чему снится утюг
Как умер ахилл. Ахиллес и другие. Последние подвиги Ахиллеса