Что называют случайными массовыми событиями
Случайные события и их вероятности
1. Случайные события
Теория вероятностей— это раздел математики изучающий закономерности массовых случайных событий.
Случайным называется событие, наступление которого нельзя гарантировать. Случайность того или иного события определяется множеством причин, которые существуют объективно, но учесть их все, а также степень их влияния на изучаемое событие, невозможно. К таким случайным событиям относятся: выпадание того или иного числа при бросании игральной кости, выигрыш в лотереи, количество больных, записавшихся на прием к врачу и т.п.
И хотя в каждом конкретном случае трудно предсказать исход испытания, при достаточно большом числе наблюдений можно установить наличие некоторой закономерности. Подбрасывая монету, можно заметить, что число выпадания орла и решки примерно одинаково, а при бросании игральной кости различные грани также появляются, примерно одинаково. Это говорит о том, что случайным явлениям присущи свои закономерности, но они проявляются лишь при большом количестве испытаний. Правильность этого подтверждает закон больших чисел, который лежит в основе теории вероятностей.
Рассмотрим основные термины и понятия теории вероятностей.
Испытанием называется совокупность условий, при которых может произойти данное случайное событие.
События бывают достоверные, невозможные и случайные.
Достоверное событие — это событие, которое в результате испытания непременно должно произойти.
Например,если на игральной кости на всех шести гранях. нанести цифру 1, тогда выпадение цифры 1, при бросании кости, есть событие достоверное.
Например,в ранее рассмотренном примере — это выпадение любой цифры, кроме 1.
Случайное событие — это событие, которое при испытаниях может произойти или не произойти. Те или иные события реализуются с различной возможностью.
События называются несовместными, если в результате данного испытания появление одного из них исключает появление другого.
Например,при бросании монеты выпадение одновременно орла и решки есть события несовместные.
События называются совместными, если в результате данного испытания появление одного из них не исключает появление другого.
Например,при игре в карты появление валета и масти пик — события совместные.
События называются равновозможными, если нет оснований считать, что одно из них происходит чаше, чем другое!
Например,выпадение любой грани игрального кубика есть равновозможные события.
События образуют полную группу событий, если в результате испытания обязательно произойдет хотя бы одно из них и любые два из них несовместны.
Например,при 10 выстрелах в мишень возможно от 0 до 10 попаданий. При бросании игрального кубика может выпасть цифра от 1 до 6. Эти события образуют полную группу.
События, входящие в полную группу попарно несовместных и равновозможных событий, называются исходами, или элементарными событиями. Согласно определению достоверного события, можно считать, что событие, состоящее в появлении одного, неважно какого, из событий полной группы, есть событие достоверное.
Например,при бросании одного игрального кубика выпадает число меньше семи. Это пример достоверного события.
Частным случаем событий, образующих полную группу, являются противоположные события.
Два несовместных события А и (читается «не А») называются противоположными, если в результате испытания одно из них должно обязательно произойти.
Например,если стипендия начисляется только при получении на экзамене хороших и отличных оценок, то события «стипендия» и «неудовлетворительная или удовлетворительная оценка» — противоположные.
Событие А называется благоприятствующим событию В, если появление события А влечет за собой появление события В.
Например,при бросании игрального кубика появлению нечетного числа благоприятствуют события, связанные с выпадением чисел 1,3 и 5.
2. Операции над событиями
Операции над событиями аналогичны операциям над множествами.
Суммой нескольких событий называется событие, состоящее в наступлении хотя бы одного из них в результате испытания.
Сумма событий может быть обозначена знаками «+», «È», «или».
На рисунке 1 представлена геометрическая интерпретация с помощью диаграмм Эйлера-Венна. Сумме событий А + В будет соответствовать вся заштрихованная область.
рис.1
Область пересечения событий А и В соответствует совместным событиям, которые могут произойти одновременно. Аналогично для событий А, В и С имеются совместные события А и В; А и С; В и С; А и В и С, которые могут про изойти одновременно.
Например,в урне находятся белые, красные и синие шары. Возможны следующие события: А — вынут белый шар; В — вынут красный шар; С — вынут синий шар. Событие В + С означает, что произошло событие — вынут цветной шар или вынут не белый шар.
Произведением нескольких событий называется событие которое состоит в совместном наступлении всех этих событий в результате испытания.
Произведение событий может быть обозначено знаками «х», «∩», «и».
Геометрическая интерпретация произведения событий представлена на рис. 2.
Разностью двух событий А-В называется событие, состоящее из исходов, входящих в А, но не входящих в В.
На рис. 3 представлена иллюстрация разности событий с помощью диаграмм Эйлера-Венна.
Разностью двух событий А-В является заштрихованная область А без той части, которая входит в событие В. Разность между произведением событий А и В и событием С будет совместная площадь события А и события В без совместной с нею площадью события С.
3. Определение вероятности события
Классическое определение вероятности заключается в следующем. Если известны все возможные исходы испытания и нет оснований считать, что одно случайное событие появлялось бы чаще других, т.е. события равновозможны и несовместны, то имеется возможность аналитического определения вероятности события.
Вероятностью Р(А)события Аназывается отношение числа благоприятствующих исходов т к общему числу равновозможных несовместных исходов п:
(1)
Свойства вероятности:
1. Вероятность случайного события А находится между 0 и 1.
.
2. Вероятность достоверного события равна 1.
.
3. Вероятность невозможного события равна 0.
.
Случайные события и случайные величины. Основные понятия теории вероятностей. Сбор и регистрация исходных статистических данных.
Случайным событием (или просто событием) называется всякое явление, которое может произойти или не произойти при осуществлении определенной совокупности условий. Теория вероятностей имеет дело с такими событиями, которые имеют массовый характер. Это значит, что данная совокупность условий может быть воспроизведена неограниченное число раз. Каждое такое осуществление данной совокупности условий называют испытанием (или опытом).
Если, например, испытание состоит в бросании монеты, то выпадение герба является событием; если испытание — изготовление подшипника данного типа, то соответствие подшипника стандарту — событие; если испытание — бросание игральной кости, т. е. кубика, на гранях которого проставлены цифры (очки) от 1 до 6, to выпадение пятерки — событие.
Пусть при n испытаниях событие A появилось m раз.
Отношение m/n называется частотой (относительной частотой) события A и обозначается Р*(А)=m/n
Опыт показывает, что при многократном повторении испытаний частота Р*(А) случайного события обладает устойчивостью. Поясним это на примере.
Пусть при бросании монеты 4040 раз герб выпал 2048 раз. Частота появления герба в данной серии опытов равна Р*(А)=m/n=2048/4040=0,5069. При бросании той же монеты 12000 раз герб выпал 6019 раз. Следовательно, в этом случае частота Р*(А)=6019/12000=0,5016. Наконец, при 24000 бросаний герб появился 12012 раз с частотой Р*(А)=0,5005. Таким образом, мы видим, что при большом числе бросаний монеты частота появления герба обладает устойчивостью, т. е. мало отличается от числа 0,5. Как показывает опыт, это отклонение частоты от числа 0,5 уменьшается с увеличением числа испытаний. Наблюдаемое в этом примере свойство устойчивости частоты является общим свойством массовых случайных событий, а именно, всегда существует такое число, к которому приближается частота появления данного события, мало отличаясь от него при большом числе испытаний. Это число называется вероятностью события. Оно выражает объективную возможность появления события. Чем больше вероятность события, тем более возможным оказывается его появление. Вероятность события A будем обозначать через Р(А). В рассмотренном выше примере вероятность появления герба, очевидно, равна 0,5.
Событие называется достоверным, если оно в данном опыте обязательно должно произойти; наоборот, событие называется невозможным, если оно в данном опыте не может произойти.
Пусть, например, из урны, содержащей только черные шары, вынимают шар. Тогда появление черного шара — достоверное событие; появление белого шара — невозможное событие.
Если событие достоверно, то оно произойдет при каждом испытании (m=n). Поэтому частота достоверного события всегда равна единице. Наоборот, если событие невозможно, то оно ни при одном испытании не осуществится (m=0). Следовательно, частота невозможного события в любой серии испытаний равна нулю. Поэтому вероятность достоверного события равна единице, а вероятность невозможного события равна нулю.
Если событие A не является ни достоверным, ни невозможным, то его частота m/n при большом числе испытаний будет мало отличаться от некоторого числа p (где 0
Определение: Случайной называется величина, которая в результате испытания принимает только одно значение из возможного множества своих значение, наперед неизвестное и зависящее от случайных причин.
Различают два вида случайных величин: дискретные и непрерывные.
Определение: Случайная величина Х называется дискретной (прерывной), если множество ее значений конечное или бесконечное, но счетное.
Другими словами, возможные значения дискретной случайной величину можно перенумеровать.
Описать случайную величину можно с помощью ее закона распределения.
Определение: Законом распределения дискретной случайной величины называют соответствие между возможными значениями случайной величины и их вероятностями.
Закон распределения дискретной случайной величины Х может быть задан в виде таблицы, в первой строке которой указаны в порядке возрастания все возможные значения случайной величины, а во второй строке соответствующие вероятности этих значений, т.е.
хx | Xх1 | xх2 | хх3 | …… | .хn |
рp | рр1 | рр2 | рр3 | …. | ррn |
Такая таблица называется рядом распределения дискретной случайной величины.
Если множество возможных значений случайной величины бесконечно, то ряд р1+ р2+…+ рn+… сходится и его сумма равна 1.
Закон распределения дискретной случайной величины Х можно изобразить графически, для чего в прямоугольной системе координат строят ломаную, соединяющую последовательно точки с координатами (xi;pi), i=1,2,…n. Полученную линию называют многоугольником распределения (рис.1).
Закон распределения дискретной случайной величины Х может быть также задан аналитически (в виде формулы):
Полное описание случайной величины дает также функция распределения.
Определение: Функцией распределения дискретной случайной величины Хназывается функция F(x), определяющая для каждого значения х вероятность того, что случайная величина Х примет значение, меньше х:
Случайные и неслучайные события. Предмет теории вероятностей
Наблюдаемые нами явления (события) можно разделить на три вида: достоверные, невозможные, случайные.
Достовернымназывают событие, которое обязательно произойдет, если будет осуществлена определенная совокупность условий.
Невозможным называют событие, которое заведомо не произойдет, если будет осуществлена определенная совокупность условий.
Случайным называют событие, которое при осуществлении определенной совокупности условий может либо произойти, либо не произойти.
В дальнейшем вместо того чтобы говорить «совокупность условий осуществлена», будем говорить кратко «произведено испытание (произведен опыт)». Таким образом, событие будет рассматриваться как результат испытания.
Опыт – подбрасывание монеты.
Событие – появление герба при падении монеты.
Событие – попадание в мишень.
Опыт – проведение лекции
Событие – появление студента (тот или иной студент чаще или реже появляется на лекции).
В теории вероятностей случайные события принято обозначать большими буквами латинского алфавита.
Каждое случайное событие есть следствие действия очень многих случайных причин. Невозможно учесть влияние на результат всех этих причин, поскольку число их очень велико и законы их действия неизвестны. Поэтому теория вероятностей не ставит перед собой задачу предсказать, произойдет единичное событие или нет,– она просто не в силах этого сделать.
По иному обстоит дело, если рассматриваются случайные события, которые могут многократно наблюдаться при осуществлении одних и тех же условий, т. е. если речь идет о массовых однородных случайных событиях. Оказывается, что достаточно большое число однородных случайных событий независимо от их конкретной природы подчиняется определенным закономерностям. Установлением этих закономерностей и занимается теория вероятностей.
Предметом теории вероятностей является изучение вероятностных закономерностей массовых однородных случайных событий.
Знание закономерностей, которым подчиняются массовые случайные события, позволяет предвидеть как эти события будут протекать.
Методы теории вероятностей широко применяются в различных отраслях естествознания и техники: в теории надежности, теории массового обслуживания, теоретической физики, геодезии, астрономии, теории стрельбы, теории ошибок наблюдений, теории автоматического управления, общей теории связи, и во многих других теоретических и прикладных науках. Теория вероятностей служит также для обоснования математической и прикладной статистики, которая в свою очередь используется при планировании и организации производства, при анализе технологических процессов, предупредительном и приемочном контроле качества продукции и для многих других целей.
Виды случайных событий.
События называют несовместными, если появление одного из них исключает появление других в одном и том же испытании.
Пример. Появление герба и появление цифры при подбрасывании 1-ой монеты.
Появление 2-х гербов и 2-х цифр при бросании 2-х монет.
Несколько событий образуют полную группу, если в результате испытания появится хотя бы одно из них.
Другими словами, появление хотя бы одного из событий полной группы есть достоверное событие.
Пример. Появление герба и появление цифры при подбрасывании 1-ой монеты
Появление черной и красной масти при вытягивании карты из колоды
Если события, образующие полную группу, попарно несовместны, то в результате испытания появится одно и только одно из этих событий.
События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другие.
Пример. Опыт: подбрасывание монеты. События: появление герба и появление цифры.
Элементарными событиями (или элементарными исходами) называют события, которые образуют полную группу, являются попарно несовместными и равновозможными.
Те элементарные события, в которых интересующее нас событие наступает, назовем благоприятствующими этому событию.
Большая Энциклопедия Нефти и Газа
Массовые случайные события
Массовые случайные события обладают свойством устойчивости, частоты: наблюдаем. [1]
Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний ( с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах. [2]
Массовые случайные события следует отличать от единичных, исключительных, обладающих той особенностью, что опыт, с которым связаны эти события, принципиально невоспроизводим. Например, событие 1 мая 1975 года в Москве шел дождь является в этом смысле исключительным, так как воспроизвести наступление указанного дня невозможно. В то же время событие 1 мая в Москве шел дождь ( без упоминания о годе) является, несомненно, массовым: ведь наблюдать погоду в Москве 1 мая можно в течение многих лет. [3]
Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний ( с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах. [4]
Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний ( с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах и стремятся ( по вероятности) к некоторому постоянному числу. [5]
Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний ( с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах и стремятся ( по вероятности) к некоторому, постоянному числу. [6]
Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний ( с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах и стремятся ( по вероятности) к некоторому постоянному числу. [7]
Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний ( с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах. [8]
Тема 8: ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ СЛУЧАЙНЫХ СИГНАЛОВ
Таковы первичные законы, установленные природой.
Вергилий. Георгики. (Римский поэт)
«Природа не злонамеренна, но коварна». Это не закон. Это только следствие теории вероятностей. И все же непонятно, почему единственная муха в ресторане падает именно в мой суп.
Владимир Бакаев. Наблюдения. (Уральский геофизик)
Содержание: 8.1. Основные понятия теории вероятностей. События и явления. Классификация случайных событий. Сумма событий. Произведение событий. Полная группа событий. Сложные события. 8.2. Вероятности случайных событий. Частотное определение. Определение на основе меры. Основные положения теории вероятностей. Сложение вероятностей. Условная вероятность. Умножение вероятностей. Независимость событий. Формула полной вероятности. Формула Байеса. 8.3. Случайные величины. Общие понятия. Вероятности случайных величин. Функции от случайной величины. Моменты распределения. Основные числовые характеристики случайных величин. Некоторые распределения случайных величин. Характеристическая функция. 8.4. Системы случайных величин. Функция распределения вероятностей системы. Плотность вероятностей системы. Условные законы распределения. Функции регрессии. Статистическая независимость случайных величин. Моменты систем случайных величин. Сумма и разность случайных величин. Литература.
8.1. Основные понятия теории вероятностей [л28,л29].
События и явления.Все события и явления реального мира разделяются на закономерные (детерминированные) и случайные (вероятностные).
Случайность событий может быть обусловлена как собственной физической природой явлений, что характерно для большинства физических процессов в микромире (например, распад радиоактивных ядер), так и определенным вероятностным характером реализации явлений в силу их многофакторной и, как правило, нелинейной зависимости от внешних и внутренних условий, что характерно для процессов в макромире. Например, индивидуализация исхода бросания игральной кости начинается с вариации некоторых начальных условий (положение в пространстве, скорость и направление движения, момент инерции, момент вращения и пр.) и продолжается на всем пути движения кости вплоть до остановки (трение о воздух, положение в момент удара о стол, поглощение энергии удара и пр.). Невозможность точного повторения всех условий опыта определяет случайность результата.
С практической точки зрения явление или процесс считаются случайными, если в их формировании в той или иной форме присутствует неопределенность и невозможно с заданной точностью предсказать результаты их конкретных реализаций, физического отображения и измерения в ходе контролируемых экспериментов или повторить в ходе многократных реализаций.
Два события называются совместными, если появление одного из них не влияет и не исключает появление другого. Совместные события могут реализоваться одновременно, как, например, появление какого-либо числа на одной кости ни коим образом не влияет на появление чисел на другой кости. События несовместны, если в одном явлении или при одном испытании они не могут реализоваться одновременно и появление одного из них исключает появление другого (попадание в цель и промах несовместны).
Попутно заметим, что для логических операций имеем: А+А=А и А×А=А.
D = A×B×+A××C+×B×C+A×B×C
8.2. Вероятности случайных событий [л30,л28,л29].
Предсказание конкретной реализации случайных событий невозможно. Однако интуитивная ориентировка в случайных событиях известна каждому. Если при игре в кости дважды выпали две шестерки, то едва ли кто-нибудь в третий раз поставит на 12 очков. Это определяется тем, что и случайные события подчиняются определенным вероятностным закономерностям и при повторениях испытаний предсказуемы «в среднем».
Понятие вероятности событий относится к фундаментальным понятиям теории вероятностей. Вероятность случайного события является количественной мерой степени объективной возможности появления этого события в единичном опыте (в единичной реализации случайного явления). На протяжении последних трех веков достаточно интенсивного развития теории вероятностей многие ученые делали попытки сформулировать это фундаментальное понятие на основе строгой логики. Приведем только два из них.
Частотное определение. При N реализациях некоторого случайного явления случайное событие А наблюдалось n раз. Если случайные события в этом явлении взаимно независимы, несовместны и составляют полную группу, то вероятность события А определяется выражением:
P(A) = (8.2.1)
Так как диапазон значений n в данном выражении ограничен интервалом 0 £ n £ N, то отсюда следует, что значения вероятностей событий заключены в интервале от 0 до 1.
Пример.В урне находятся 5 белых и 7 черных шаров. Какова вероятность извлечь из урны 3 белых шара?
Общее число возможных способов извлечь 3 шара из 12 равно числу сочетаний из 12 по 3:
Число возможных сочетаний из 5 белых шаров по 3: n = 5!/(3!×2!) = 10.
Искомая вероятность: P = n/N = 10/220.
При практических оценках вероятностей значение (n/N) называют относительной частотой (или частностью) данного события в данной серии наблюдений. Относительная частота событий при многократных наблюдениях является достаточно устойчивой величиной, флюктуирующей в окрестностях вероятности данных событий, причем величина флюктуаций тем меньше, чем больше количество наблюдений.
Определение на основе меры. Введем пространство (множество) W, элементы которого wi являются случайными элементарными событиями, т.е. W =wi. Определим в этом пространстве неотрицательную меру P(w), которую назовем вероятностью, со следующими свойствами:
1. P(W) = 1, т.е. вероятность появления события, принадлежащего к данному пространству (wi Î W), равна 1 (условие нормировки меры).
2. Если подмножества элементарных событий А Î W и В Î W, каждое из которых принадлежит данному пространству W, не имеют общих элементов, то Р(А+В) = Р(А) + Р(В), т.е. вероятность того, что наблюдаемое событие принадлежит либо подмножеству А, либо подмножеству В, равна сумме вероятностей наблюдать это событие отдельно в подмножествах А и В.
Рис. 8.2.1. |
Для иллюстрации различных положений теории вероятностей удобно использовать условные графические отображения пространств случайных событий, пример которых приведен на рис. 8.2.1. Полное пространство W элементарных событий wi ограничивается произвольным контуром, площадь которого принимается равной 1 и равна вероятности появления событий wi в пространстве W, при этом полагается, что события wi равномерно заполняют пространство W. Группы событий w Î A или w Î В отображаются соответственно замкнутыми контурами внутри пространства W с площадями, равными вероятностям событий А и В.
Основные положения теории вероятностей вытекают непосредственно из определения понятия вероятности.
1. Вероятность любого случайного события А является неотрицательной величиной, значение которой заключено в интервале от 0 до 1.
2. Вероятность достоверного события равна 1.
В общем случае событие W представляет собой сумму полной группы возможных элементарных событий данного случайного явления: W =wi. Следовательно, вероятность реализации хотя бы одного случайного события из полной группы возможных событий также равна 1, т.е. является событием достоверным.
Рис. 8.2.2. |
Сумма противоположных событий тоже составляет полную группу событий и соответственно вероятность суммы противоположных событий равна 1 (рис. 8.2.2):
P(A+) = 1. (8.2.3)
Примером может служить бросание горсти монет. Орел или решка для каждой монеты – противоположные события. Сумма событий для горсти в целом равна 1 независимо от соотношения выпавших орлов и решек.
3. Вероятность невозможного события равна 0.
Рис. 8.2.3. |
Сложение вероятностей зависит от совместности и несовместности событий.
Несовместные события. Вероятность суммы двух несовместных событий А и В равна сумме вероятностей этих событий. Это вытекает из того, что множество С = А+В включает подмножества А и В, не имеющие общих точек, и Р(А+В) = Р(А)+Р(В) по определению вероятности на основе меры. По частотному определению вероятности в силу несовместности событий имеем:
P(A+B) = = += P(A) + P(B),
Противоположные события также являются несовместными и образуют полную группу. Отсюда, с учетом (8.2.3):
Рис. 8.2.4. |
В общем случае для группы несовместных событий (рис. 8.2.4):
если все подмножества принадлежат одному множеству событий и не имеют общих точек (попарно несовместны). А если эти подмножества образуют полную группу событий, то с учетом (8.2.2):
Рис. 8.2.5. |
Совместные события. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления (рис. 8.2.5):
Разобьем события А и В каждое на два множества, не имеющие общих точек: А’, A» и B’, B». Во множества А» и B» выделим события, появляющиеся одновременно, и объединим эти множества в одно множество С. Для этих множеств действительны выражения:
С = A»×B» º А» º В» º А×В, P(C) = P(A») = P(B») = P(A×B).
Множества A’, B’ и С не имеют общих точек и можно записать:
P(A+B) = P(A’+B’+C) = P(A’) + P(B’) + P(С).
Подставляя в правую часть этого уравнения вышеприведенные выражения, приходим к выражению (8.2.8). Физическая сущность выражения достаточно очевидна: суммируются вероятности событий А и В и вычитаются вероятности совпадающих событий, которые при суммировании сосчитаны дважды.
Пример.Вытащим одну карту из колоды (52 карты). Какова вероятность того, что карта окажется или тузом, или пиковой мастью?
Рис. 8.2.6. |
На рис. 8.2.6 на примере трех пространств можно видеть причины появления в выражении (8.2.9) дополнительных сумм вероятностей совпадающих пространств и их знакопеременности. При суммировании вероятностей пространств А,В и С, имеющих общее пространство АВС, его вероятность суммируется трижды, а при вычитании вероятностей перекрывающихся подпространств АВ, АС и ВС трижды вычитается (т.е. обнуляется), и восстанавливается дополнительным суммированием с вероятностью пространства АВС.
Второй сомножитель выражения (8.2.10) из общего числа случаев n1 события А определяет долю, когда одновременно происходит и событие В, т.е. вероятность события В при условии, что произошло событие А. Эта вероятность называется условной вероятностью события В по событию А и записывается в виде Р(В/А):
Р(А) = 13/52. Карта не возвращается в колоду, следовательно, Р(В/А) = (13-1)/(52-1).
В общем случае может определяться условная вероятность события В в предположении, что произошли события А1, А2 и др.: Р(В/А1,А2. ).
Для условной вероятности событий B по событиям A применяется также обозначение РA(B).
Рис. 8.2.7. |
Умножение вероятностей совместных событий. Формула определения вероятности события А×В (А и В одновременно, рис. 8.2.7), которую обычно называют формулой умножения вероятностей, непосредственно следует из выражения (8.2.11):
Р(А) = 13/52. Р(В/А) = (13-1)/(52-1). Р(АВ) = (13×12)/(52×51) @ 0.0588
В общем случае, вероятность умножения нескольких событий равна произведению вероятности одного из этих событий на условные вероятности других:
Независимость событий. Если появление событий А не изменяет вероятности появления событий В, равно как и появление событий В не изменяет вероятности событий А, то события А и В считаются независимыми. Для таких событий Р(А/В) = Р(А), Р(В/А) = Р(В) и Р(А×В) = Р(А)×Р(В).
Р(А) = 4/52. Р(В) = 13/52. Р(АВ) = 1/52. Р(АВ) = Р(А)Р(В) = (4/52)(13/52) = 1/52.
События А и В независимы.
Подмножества, образованные из независимых событий, также являются независимыми. Если условие (8.2.13) не выполняется, но выполняется для каждой пары событий из этой группы (А×В, А×С, В×С и пр.), то такие события называются попарно независимыми.
Если события Аi образуют разбиение пространства событий и все P(Ai) > 0, то для любого события В имеет место формула полной вероятности:
P(B) =P(Ak)×P(B/Ak), (8.2.15)
что непосредственно следует из (8.2.14) для попарно несовместных событий:
Р(А) = M/N. Р() = (N-M)/N. Р(В/A) = (M-1)/(N-1). Р(В/) = M/(N-1).
Отсюда: Р(В) = Р(А)Р(В/А) + Р()Р(В/) = M/N, т.е. Р(В) = Р(А). Аналогично можно вычислить вероятность события С, что третий вынутый шар будет белым, и так далее, причем все вероятности вынуть белый шар на любой попытке равны M/N.
Этот результат давно известен и применяется, например, при жеребьевке, определяя независимость результатов жеребьевки от порядка ее участников при вынимании шаров.
Формула Байеса(или формула гипотез). Если для пространства событий Ai выполнено условие (8.2.14) и для произвольного события В имеет место формула полной вероятности (8.2.15), то одновременно для любой комбинации событий В и Аk имеет место и формула умножения вероятностей (8.2.12)
из которой следует:
Заменяя в этом уравнении выражение Р(В) формулой полной вероятности (8.2.15), получаем формулу Байеса:
Р(Аk/В) =Р(Аk)×Р(В/Аk) /P(Ak)×P(B/Ak). (8.2.16)
Нетрудно видеть, что знаменатель функции является нормировочным коэффициентом приведения суммы вероятностей к 1:
Р(Аk/В) =Р(Аk)×Р(В/Аk) /P(Ak)×P(B/Ak) = 1
Пример.В одном районе «дикого» туризма прогнозирование количества А несчастных случаев на следующие сутки проводилось по следующей методике (для наглядности рассмотрим пример на конкретных условных данных).
Априорные вероятности P(Аk) несчастных случаев на текущий день, вычисленные по предыдущему дню: P(А1=0) = 0.2, P(А2=1) = 0.4, P(А3=2) = 0.3, P(А4=3) = 0.1.
За текущий день зарегистрировано 0 несчастных случаев (В = 0).
Условные вероятности P(B/Ak) вычислялись по формуле плотности распределения вероятностей редких событий (формула Пуассона): P(B/Ak) = (Ak) B ×exp(-Ak) /B!
P(0/0) = 1, P(0/1) = 0.368, P(0/2) = 0.135, P(0/3) = 0.05.
Нормировочный делитель формулы Байеса: P(Ak)×P(B/Ak) = 0.393.
Апостериорные вероятности P'(Ak) = P(Ak/B) = P(Ak/0) несчастных событий на следующий день:
Проверка: P'(Ak) = 1.
8.3. Случайные величины [л30,л31,л2,л4,л15].
Общие понятия. Под случайной величиной в узком смысле данного термина можно понимать числовое отображение исхода случайного явления или опыта, если в основе его формирования лежат определенные физические процессы, вероятностные по свое природе. Так, например, число гамма-квантов, зарегистрированных радиометром за произвольный временной интервал от радиоактивной пробы, является случайной величиной как в силу вероятностной природы самого радиоактивного распада, так и в силу вероятностного характера их распространения, рассеяния и поглощения в окружающей среде и в детекторе радиометра.
Рис. 8.3.1. |
Еще раз отметим, что отнесение тех или иных величин и отображающих их сигналов к случайным или неслучайным (детерминированным) в той или иной мере всегда относительно, особенно в геофизической практике. С одной стороны, ни в одной сколь угодно точно известной геологической обстановке нельзя исключить появления объекта или проявления какого-либо процесса, которые совершенно непредсказуемым образом могут повлиять на распределение информационного сигнала. С другой стороны можно отрицать и истинную случайность физических явлений и процессов, поскольку по мере накопления информации появляется возможность их описания все более точными математическими формулами детерминированного действия.
Множество возможных значений случайной величины принято называть пространством (множеством) состояний (генеральной совокупностью). Если пространство состояний образует континуум, то случайная величина является непрерывной. Если изменение состояний допускается для конечного (счетного) числа координат, то говорят о случайной непрерывной последовательности.
Случайную величину с конечным множеством состояний по непрерывной шкале координат называют дискретной, если она дискретна по множеству своих возможных значений. Если для случайного явления изменение состояний возможно только в конечном числе координат, то говорят о случайной дискретной последовательности. Для случайных явлений с дискретным множеством состояний статистические зависимости могут распространяться на ограниченное число k следующих друг за другом значений. Такие процессы называются марковскими k-го порядка.
p(x)dx = P(x 2 = а 2 sх 2
Моменты распределения.При решении многих практических задач нет особой необходимости в полной вероятностной характеристике каких-либо случайных величин, которую дает функция плотности распределения вероятностей. Очень часто приходится также иметь дело с анализом случайных величин, плотности вероятностей которых не отображаются аналитическими функциями либо вообще неизвестны. В этих случаях достаточно общее представление о характере и основных особенностях распределения случайных величин можно получить на основании усредненных числовых характеристик распределений.
Числовыми характеристиками случайных величин, которые однозначно определяются функциями распределения их вероятностей, являются моменты.
Начальные моменты n-го порядка случайной величины X (или просто моменты) представляют собой усредненные значения n-й степени случайной переменной:
mn º М
Соответственно, для случайных дискретных величин:
mn º М
Центральные моменты n-го порядка, это моменты относительно центров распределения (средних значений) случайных величин:
mn º M<(X-) n >º =(x-m1) n p(x) dx, (8.3.4)
mn º M<(X-) n >º =(xi-m1) n pi, (8.3.4′)
где — начальный момент 1-го порядка (среднее значение величины Х), X0 = X-— центрированные значения величины Х.
Связь между центральными и начальными моментами достаточно проста:
Соответственно, для случайных величин с нулевыми средними значениями начальные моменты равны центральным моментам.
= (1/N)xi n », = (1/N)(xi—) n ». (8.3.5)
Погрешность оценок стремится к нулю при выборке N Þ ¥.
Среднее значение распределения является характеристикой сдвига значений случайных величин относительно x = 0 и представляет собой значение центра рассеяния случайных величин, т.е. математическое ожидание случайной величины по пространству возможных состояний:
M
Если пространство возможных состояний случайных величин ограничено определенными конечными пределами, то соответственно интегрирование (или суммирование) осуществляется в этих пределах. В функциях от случайных величин постоянный множитель можно выносить за знак математического ожидания:
Оценка среднего значения по результатам N-выборки (выборочное среднее):
= (1/N)xi (8.3.7)
Значение генеральной совокупности случайной величины Х является неслучайной величиной, в отличие от значения выборочного среднего , которое также является величиной случайной. Математическое ожидание величины с использованием формулы (8.3.7):
M<> = (1/N) M<xi> = (1/N) M
Отсюда следует, что выборочное среднее есть несмещенная оценка среднего значения генеральной совокупности, т.е. » .
Дисперсия распределения характеризует размер пространства состояний случайной величины, величину их рассеивания по значениям относительно среднего значения:
D
Оценка дисперсии по результатам N-выборки производится по формулам:
Dx = (1/N)(xi—) 2 » D
Для функции с×Х, где с = const, имеем:
Среднее квадратическое отклонение случайной величины от математического ожидания (среднего значения), равное корню квадратному из значения дисперсии:
sх = , (8.3.10)
получило название стандарта (стандартного отклонения). Величину стандарта в относительных единицах среднего значения dx = s/mx называют вариацией или (в основном для временных процессов) флюктуацией значений случайной величины.
Пример.Плотность распределения случайных величин Х: p(x) = (a/2)exp(-a|x-b|), а=2, b=4.
Среднее значение и дисперсия: =x p(x) dx = b = 4, D
Среднее значение и дисперсия по выборке:
= (1/11)xi = 3.79, = (1/11)xi 2 = 15, Dx = — 2 = 0.62.
D() = D((1/N)xi) = (1/N 2 ) D(xi) = (1/N) D(xi),
т.е. дисперсия средних значений по N-выборке в N раз меньше дисперсии самих значений случайных величин Х. Соответственно, точность оценки средних значений определится выражением:
s() = sx/.
К числовым характеристикам случайных величин Х относятся также мода Мох, медиана Мех, асимметрия Sх и эксцесс Ех.
Рис. 8.3.5. |
Мода распределения — это наиболее вероятное значение случайных величин, которому соответствует максимум плотности вероятностей. Функции плотности вероятностей могут иметь больше одного максимума. Такие распределения называют много- или полимодальными. На рис. 8.3.5 приведен пример двумодального распределения.
Для одномодальных распределений, симметричных относительно среднего значения, мода совпадает со средним значением, для асимметричных среднее значение обычно смещено относительно моды в сторону более длинного «хвоста» изменения плотности вероятностей.
Рис. 8.3.6. |
Понятие медианы обычно используется для непрерывных случайных величин.
В резко асимметричных распределениях случайных величин значения моды, медианы и среднего значения существенно расходятся, как, например, для логнормального распределения на рис. 8.3.6.
Рис. 8.3.7. |
Рис. 8.3.8. |
Эксцесс (или крутость) распределения случайных величин также безразмерное число:
Оценка числовых характеристик функций от случайных величин может производиться непосредственно по числовым характеристикам случайных величин с использованием правила переноса ошибок.
Допустим, что случайная величина Y является функционально зависимой от случайной величины Х и определяется выражением Y = g(x). Разложим это выражение в ряд Тейлора относительно математического ожидания :
Оценка математического ожидания :
M
Отсюда, с точностью до членов второго порядка малости:
= g(). (8.3.12)
Оценка дисперсии распределения D(g(x)) = Dy:
Из формулы (8.3.11) имеем:
С использованием этого выражения в (8.3.13) с ограничением до 2-го порядка:
Dy » M<[(x-)g'()] 2 > = [g'()] 2 ×Dx. (8.3.14)
sy = g'()×sx, dy = g'()×dx.
Для линейных функций g(x)
a×x+b выражения (8.3.12-14) являются точными.
Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет