Зависимые и независимые случайные события. Независимые случайные события. Теорема умножения вероятностей Условные законы распределения. Регрессия
При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее тесной.
Понятие о независимых случайных величинах -- одно из важных понятий теории вероятностей.
Определение 1. Случайная величина Y называется независимой от случайной величины X, если закон распределения величины Y не зависит от того, какое значение приняла величина X.
Для непрерывных случайных величин условие независимости Y от X может быть записано в виде:
Напротив, в случае, если Y зависит от X, то
Докажем, что зависимость или независимость случайных величин всегда взаимны: если величина Y не зависит от X, то и величина X не зависит от Y.
Действительно, пусть Y не зависит от X , тогда
Плотность совместного распределения согласно (5.4.5) и (5.4.6) можно записать
откуда, получим:
что и требовалось доказать.
Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин.
Определение 2. Случайные величины X и Y называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины X и Y называются зависимыми.
Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:
т.е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.
Остановимся, несколько подробнее на важных понятиях о «зависимости» и «независимости» случайных величин.
Понятие «зависимости» случайных величин, которым мы пользуемся в теории вероятностей, несколько отличается от обычного понятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости--полную, жесткую, так называемую функциональную зависимость. Две величины X и Y называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой.
В теории вероятностей мы встречаемся с другим, более общим, типом зависимости -- с вероятностной или «стохастической» зависимостью. Если величина Y связана с величиной X вероятностной зависимостью, то, зная значение X, нельзя указать точно значение Y, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X.
Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины X и Y находятся в вероятностной зависимости, это не означает, что с изменением величины X величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины X величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X).
Рассмотрим, например, две такие случайные величины: X -- рост наугад взятого человека, Y -- его вес. Очевидно, величины X и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес.
Две случайные величины $X$ и $Y$ называются независимыми, если закон распределения одной случайной величины не изменяется от того, какие возможные значения приняла другая случайная величина. То есть, для любых $x$ и $y$ события $X=x$ и $Y=y$ являются независимыми. Поскольку события $X=x$ и $Y=y$ независимые, то по теореме произведения вероятностей независимых событий $P\left(\left(X=x\right)\left(Y=y\right)\right)=P\left(X=x\right)P\left(Y=y\right)$.
Пример 1 . Пусть случайная величина $X$ выражает денежный выигрыш по билетам одной лотереи «Русское лото», а случайная величина $Y$ выражает денежный выигрыш по билетам другой лотереи «Золотой ключ». Очевидно, что случайные величины $X,\ Y$ будут независимыми, так как выигрыш по билетам одной лотереи не зависит от закона распределения выигрышей по билетам другой лотереи. В том случае, когда случайные величины $X,\ Y$ выражали бы выигрыш по одной и той же лотереи, то, очевидно, данные случайные величины были бы зависимыми.
Пример 2 . Двое рабочих трудятся в разных цехах и изготавливают различные изделия, несвязанные между собой технологиями изготовления и используемым сырьем. Закон распределения числа бракованных изделий, изготовленных первым рабочим за смену, имеет следующий вид:
$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ x & 0 & 1 \\
\hline
Вероятность & 0,8 & 0,2 \\
\hline
\end{array}$
Число бракованных изделий, изготовленных вторым рабочим за смену, подчиняется следующими закону распределения.
$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий \ y & 0 & 1 \\
\hline
Вероятность & 0,7 & 0,3 \\
\hline
\end{array}$
Найдем закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену.
Пусть случайная величина $X$ - число бракованных изделий, изготовленных первым рабочим за смену, а $Y$ - число бракованных изделий, изготовленных вторым рабочим за смену. По условию, случайные величины $X,\ Y$ независимы.
Число бракованных изделий, изготовленных двумя рабочими за смену, есть случайная величина $X+Y$. Ее возможные значения равны $0,\ 1$ и $2$. Найдем вероятности, с которыми случайная величина $X+Y$ принимает свои значения.
$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right)=0,8\cdot 0,7=0,56.$
$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ или\ X=1,\ Y=0\right)=P\left(X=0\right)P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0,8\cdot 0,3+0,2\cdot 0,7=0,38.$
$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right)=0,2\cdot 0,3=0,06.$
Тогда закон распределения числа бракованных изделий, изготовленных двумя рабочими за смену:
$\begin{array}{|c|c|}
\hline
Число \ бракованных \ изделий & 0 & 1 & 2 \\
\hline
Вероятность & 0,56 & 0,38 & 0,06 \\
\hline
\end{array}$
В предыдущем примере мы выполняли операцию над случайными величинами $X,\ Y$, а именно находили их сумму $X+Y$. Дадим теперь более строгое определение операций (сложение, разность, умножение) над случайными величинами и приведем примеры решений.
Определение 1 . Произведением $kX$ случайной величины $X$ на постоянную величину $k$ называется случайная величина, которая принимает значения $kx_i$ с теми же вероятностями $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\right)$.
Определение 2 . Суммой (разностью или произведением) случайных величин $X$ и $Y$ называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$ ($x_i-y_i$ или $x_i\cdot y_i$), где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$:
$$p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$
Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.
Пример 3 . Независимые случайные величины $X,\ Y$ заданы своими законами распределения вероятностей.
$\begin{array}{|c|c|}
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$
$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$
Составим закон распределения случайной величины $Z=2X+Y$. Суммой случайных величин $X$ и $Y$, то есть $X+Y$, называется случайная величина, которая принимает все возможные значения вида $x_i+y_j$, где $i=1,\ 2,\dots ,\ n$, с вероятностями $p_{ij}$ того, что случайная величина $X$ примет значение $x_i$, а $Y$ значение $y_j$: $p_{ij}=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right]$. Так как случайные величины $X,\ Y$ независимые, то по теореме умножения вероятностей для независимых событий: $p_{ij}=P\left(X=x_i\right)\cdot P\left(Y=y_j\right)=p_i\cdot p_j$.
Итак, имеет законы распределения случайных величины $2X$ и $Y$ соответственно.
$\begin{array}{|c|c|}
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end{array}$
$\begin{array}{|c|c|}
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end{array}$
Для удобства нахождения всех значений суммы $Z=2X+Y$ и их вероятностей составим вспомогательную таблицу, в каждой клетке которой поместим в левом углу значения суммы $Z=2X+Y$, а в правом углу - вероятности этих значений, полученные в результате перемножения вероятностей соответствующих значений случайных величин $2X$ и $Y$.
В результате получим распределение $Z=2X+Y$:
$\begin{array}{|c|c|}
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end{array}$
Любой из них, не зависит от того, какие значения приняли (или примут) остальные случайные величины.
Например, система двух игральных кубиков – совершенно понятно, что результат броска одного кубика никак не влияет на вероятности выпадения граней другого кубика. Или одинаковые независимо работающие игровые автоматы. И, наверное, у некоторых сложилось впечатление, что независимы вообще любые СВ. Однако это далеко не всегда так.
Рассмотрим одновременное сбрасывание двух кубиков-магнитов, у которых северные полюса находятся на стороне 1-очковой грани и южные – на противоположной грани в 6 очков. Будут ли независимыми аналогичные случайные величины? Да, будут. Просто снизятся вероятности выпадения «1» и «6» и увеличатся шансы других граней, т.к. в результате испытания кубики могут притянуться противоположными полюсами.
Теперь рассмотрим систему , в которой кубики сбрасываются последовательно :
– количество очков, выпавших на первом кубике;
– количество очков, выпавших на втором кубике, при условии, что он всё время сбрасывается по правую (например) сторону от 1-го кубика .
В этом случае закон распределения случайной величины зависит от того, как расположился 1-й кубик. Вторая кость может либо притянуться, либо наоборот – отскочить (если «встретились» одноимённые полюса), либо частично или полностью проигнорировать 1-й кубик.
Второй пример: предположим, что одинаковых игровых автоматов объединены в единую сеть, и – есть система случайных величин - выигрышей на соответствующих автоматах. Не знаю, законна ли эта схема, но владелец игрового зала вполне может настроить сеть следующим образом: при выпадении крупного выигрыша на каком-либо автомате, автоматически меняются законы распределения выигрышей вообще на всех автоматах. В частности, целесообразно на некоторое время обнулить вероятности крупных выигрышей, чтобы заведение не столкнулось с нехваткой средств (в том случае, если вдруг кто-то выиграет по-крупному ещё раз). Таким образом, рассмотренная система будет зависима.
В качестве демонстрационного примера рассмотрим колоду из 8 карт, пусть это будут короли и дамы, и простую игру, в которой два игрока последовательно (не важно, в каком порядке) извлекают из колоды по одной карте. Рассмотрим случайную величину , которая символизирует одного игрока и принимает следующие значения: 1 , если он извлёк червовую карту, и 0 – если карту другой масти.
Аналогично, пусть случайная величина символизирует другого игрока и тоже принимает значения 0 либо 1, если он извлёк не черву и черву соответственно.
– вероятность того, что оба игрока извлекут черву,
– вероятность противоположного события, и:
– вероятность того, что один извлечёт черву, а другой – нет; ну или наоборот:
Таким образом, закон распределения вероятностей зависимой системы :
Контроль: , что и требовалось проверить. …Возможно, у вас возник вопрос, а почему я рассматриваю именно 8, а не 36 карт? Да просто для того, чтобы дроби получились не такими громоздкими.
Теперь немного проанализируем результаты. Если просуммировать вероятности по строкам
: , то получится в точности закон распределения случайной величины :
Легко понять, что это распределение соответствует ситуации, когда «иксовый» игрок тянет карту один, без «игрекового» товарища, и его математическое ожидание:
– равно вероятности извлечения червы из нашей колоды.
Аналогично, если просуммировать вероятности по столбцам
, то получим закон распределения одиночной игры второго игрока:
с тем же матожиданием
В силу «симметрии» правил игры, распределения получились одинаковыми, но, в общем случае, они, конечно, различны.
Помимо этого, полезно рассмотреть условные законы распределения вероятностей . Это ситуация, когда одна из случайных величин уже приняла какое-то конкретное значение, или же мы предполагаем это гипотетически.
Пусть «игрековый» игрок тянет карту первым и извлёкает не черву . Вероятность этого события составляет (суммируем вероятности по первому столбцу
таблицы – см. вверху
). Тогда, из той же теоремы умножения вероятностей зависимых событий
получаем следующие условные вероятности:
– вероятность того, что «иксовый» игрок вытянет не черву при условии, что «игрековый» вытянул не черву;
– вероятность того, что «иксовый» игрок вытянет черву, при условии, что «игрековый» вытянул не черву.
…все помнят, как избавляться от четырёхэтажных дробей ? И да, формальное, но очень удобное техническое правило вычисления этих вероятностей : сначала следует просуммировать все вероятности по столбцу , и затем каждую вероятность разделить на полученную сумму.
Таким образом, при условный закон распределения случайной величины запишется так:
, ОК. Вычислим условное математическое ожидание:
Теперь составим закон распределения случайной величины при условии, что случайная величина приняла значение , т.е. «игрековый» игрок извлёк карту червовой масти. Для этого суммируем вероятности 2-го столбца
таблицы (см. вверху
): и вычисляем условные вероятности:
– того, что «иксовый» игрок вытянет не черву,
– и черву.
Таким образом, искомый условный закон распределения:
Контроль: , и условное математическое ожидание:
– разумеется, оно получилось меньше, чем в предыдущем случае, так как «игрековый» игрок убавил количество черв в колоде.
«Зеркальным» способом (работая со строками таблицы ) можно составить – закон распределения случайной величины , при условии, что случайная величина приняла значение , и условное распределение , когда «иксовый» игрок извлёк черву. Легко понять, что в силу «симметрии» игры, получатся те же распределения и те же значения .
Для непрерывных случайных величин вводятся такие же понятия условных распределений и матожиданий , но если в них нет горячей надобности, то лучше продолжить изучение этого урока.
На практике в большинстве случаев вам предложат готовый закон распределения системы случайных величин:
Пример 4
Двумерная случайная величина задана своим законом распределения вероятностей:
…хотел рассмотреть таблицу побольше, но решил таки не маньячить, ведь главное разобраться в самом принципе решения.
Требуется:
1) Составить законы распределения и вычислить соответствующие математические ожидания. Сделать обоснованный вывод о зависимости или независимости случайных величин .
Это задание для самостоятельного решения! Напоминаю, что в случае независимости СВ законы должны получиться одинаковыми и совпасть с законом распределения случайной величины , и законы – совпасть с . Десятичные дроби, кто не знает или позабыл, удобно делить так: .
Свериться с образцом можно внизу страницы.
2) Вычислить коэффициент ковариации.
Сначала разберёмся в самом термине, и откуда он вообще произошёл: когда случайная величина принимает различные значения, то говорят, что она варьируется
, и количественное измерение этой вариации
, как вы знаете, выражается дисперсией
. Используя формулу вычисления дисперсии, а также свойства матожидания и дисперсии, нетрудно установить, что:
то есть, при сложении двух случайных величин суммируются их дисперсии и добавляется дополнительное слагаемое, характеризующее совместную вариацию
или коротко – ковариацию
случайных величин.
Ковариация или корреляционный момент – это мера совместной вариации случайных величин.
Обозначение : или
Ковариация дискретных случайных величин определяется, сейчас буду «выражаться»:), как математическое ожидание произведения линейных отклонений
этих случайных величин от соответствующих матожиданий:
Если , то случайные величины зависимы . Образно говоря, ненулевое значение говорит нам о закономерных «откликах» одной СВ на изменение другой СВ.
Ковариацию можно вычислить двумя способами, я рассмотрю оба.
Способ первый
. По определению математического ожидания
:
«Страшная» формула и совсем не страшные вычисления. Сначала составим законы распределения случайных величин и – для этого суммируем вероятности по строкам («иксовая» величина)
и по столбцам («игрековая» величина)
:
Взгляните на исходную верхнюю таблицу – всем понятно, как получились распределения? Вычислим матожидания
:
и отклонения
значений случайных величин от соответствующих математических ожиданий:
Полученные отклонения удобно поместить в двумерную таблицу, внутрь которой затем переписать вероятности из исходной таблицы:
Теперь нужно вычислить все возможные произведения , в качестве примера я выделил: (красный цвет)
и (синий цвет)
. Вычисления удобно проводить в Экселе, а на чистовике расписать всё подробно. Я привык работать «по строкам» слева направо и поэтому сначала перечислю все возможные произведения с «иксовым» отклонением -1,6, затем – с отклонением 0,4:
Способ второй
, более простой и распространённый. По формуле:
Матожидание произведения СВ определяется как и технически всё очень просто: берём исходную таблицу задачи и находим все возможные произведения на соответствующие вероятности ; на рисунке ниже я выделил красным цветом произведение и синим произведение :
Сначала перечислю все произведения со значением , затем – со значением , но вы, разумеется, можете использовать и другой порядок перебора – кому как удобнее:
Значения уже вычислены (см. 1-й способ), и осталось применить формулу:
Как отмечалось выше, ненулевое значение ковариации говорит нам о зависимости случайных величин, причём, чем оно больше по модулю , тем эта зависимость ближе к функциональной линейной зависимости . Ибо определяется через линейные отклонения.
Таким образом, определение можно сформулировать точнее:
Ковариация – это мера линейной зависимости случайных величин.
С нулевым значением всё занятнее. Если установлено, что , то случайные величины могут оказаться как независимыми, так и зависимыми (т.к. зависимость может носить не только линейный характер). Таким образом, этот факт в общем случае нельзя использовать для обоснования независимости СВ !
Однако, если известно, что независимы, то . В этом легко убедиться аналитически: так как для независимых случайных величин справедливо свойство (см. предыдущий урок)
, то по формуле вычисления ковариации:
Какие значения может принимать этот коэффициент? Коэффициент ковариации принимает значения, не превосходящие по модулю – и чем больше , тем сильнее выражена линейная зависимость. И всё вроде бы хорошо, но есть существенное неудобство такой меры:
Предположим, мы исследуем двумерную непрерывную случайную величину (готовимся морально:)), компоненты которой измеряются в сантиметрах, и получили значение . Кстати, какая размерность у ковариации? Коль скоро, – сантиметры, и – тоже сантиметры, то их произведение и матожидание этого произведения – выражается в квадратных сантиметрах, т.е. ковариация, как и дисперсия – есть квадратичная величина.
Теперь предположим, что кто-то изучил ту же систему , но использовал не сантиметры, а миллиметры. Так как 1 см = 10 мм, то ковариация увеличится в 100 раз и будет равна !
Поэтому удобно рассмотреть нормированный коэффициент ковариации, который давал бы нам одинаковое и безразмерное значение. Такой коэффициент получил название, продолжаем нашу задачу:
3) Коэффициент корреляции . Или, точнее, коэффициент линейной корреляции:
, где – стандартные отклонения случайных величин.
Коэффициент корреляции безразмерен и принимает значения из промежутка:
(если у вас на практике получилось другое – ищите ошибку) .
Чем больше по модулю к единице, тем теснее линейная взаимосвязь между величинами , и чем ближе к нулю – тем такая зависимость выражена меньше. Взаимосвязь считается существенной, начиная примерно с . Крайним значениям соответствует строгая функциональная зависимость , но на практике, конечно, «идеальных» случаев не встретить.
Очень хочется привести много интересных примеров, но корреляция более актуальна в курсе математической статистики
, и поэтому я приберегу их на будущее. Ну а сейчас найдём коэффициент корреляции в нашей задаче. Так. Законы распределения уже известны, скопирую сверху:
Матожидания найдены: , и осталось вычислить стандартные отклонения. Табличкой
уж оформлять не буду, быстрее подсчитать строкой:
Ковариация найдена в предыдущем пункте , и осталось рассчитать коэффициент корреляции:
, таким образом, между величинами имеет место линейная зависимость средней тесноты.
Четвёртое задание опять же более характерно для задач математической статистики , но на всякий случай рассмотрим его и здесь:
4) Составить уравнение линейной регрессии на .
Уравнение линейной регрессии
– это функция , которая наилучшим образом
приближает значения случайной величины . Для наилучшего приближения, как правило, используют метод наименьших квадратов
, и тогда коэффициенты регрессии можно вычислить по формулам:
, вот это чудеса, и 2-й коэффициент:
Случайные события называются независимыми, если появление одного из них никак не влияет на вероятность появления других событий.
Пример 1. Если есть две или более урны с цветными шарами, то извлечение какого-либо шара из одной урны никак не повлияет на вероятность извлечения других шаров из оставшихся урн.
Для независимых событий справедлива теорема умножения вероятностей: вероятность совместного (одновременного ) появления нескольких независимых случайных событий равна произведению их вероятностей:
Р(А 1 и А 2 и А 3 … и А k) = Р(А 1) ∙Р(А 2) ∙…∙Р(А k). (7)
Совместное (одновременное) появление событий означает, что происходят события и А 1 , и А 2 , и А 3 … и А k .
Пример 2. Есть две урны. В одной находится 2 черных и 8 белых шаров, в другой – 6 черных и 4 белых. Пусть событие А –выбор наугад белого шара из первой урны, В – из второй. Какова вероятность выбрать наугад одновременноиз этих урн по белому шару, т.е. чему равна Р (А и В )?
Решение:
вероятность достать белый шар из первой урны
Р
(А
) = = 0,8 из второй – Р
(В
) = = 0,4. Вероятность одновременно достать по белому шару из обеих урн –
Р
(А
и В
) = Р
(А
)·Р
(В
) = 0,8∙ 0,4 = 0,32 = 32%.
Пример 3. Рацион с пониженным содержанием йода вызывает увеличение щитовидной железы у 60% животных большой популяции. Для эксперимента нужны 4 увеличенных железы. Найдите вероятность того, что у 4 случайно выбранных животных будет увеличенная щитовидная железа.
Решение :Случайное событие А – выбор наугад животного с увеличенной щитовидной железой. По условию задачи вероятность этого события Р (А ) = 0,6 = 60%. Тогда вероятность совместного появления четырех независимых событий – выбор наугад 4 животных с увеличенной щитовидной железой – будет равна:
Р (А 1 и А 2 и А 3 и А 4) = 0,6 ∙ 0,6 ∙0,6 ∙ 0,6=(0,6) 4 ≈ 0,13 = 13%.
Зависимые события. Теорема умножения вероятностей для зависимых событий
Случайные события А и В называются зависимыми, если появление одного из них, например, А изменяет вероятность появления другого события – В. Поэтому для зависимых событий используются два значения вероятности: безусловнаяи условнаявероятности.
Если А и В зависимыесобытия, то вероятность наступления события В первым (т.е. до события А ) называется безусловной вероятностью этого события и обозначается Р (В ).Вероятность наступления события В при условии, что событие А уже произошло, называется условной вероятностью события В и обозначается Р (В /А ) или Р А (В).
Аналогичный смысл имеют безусловная – Р (А ) и условная – Р (А/В ) вероятности для события А.
Теорема умножения вероятностейдля двух зависимых событий: вероятность одновременного наступления двух зависимых событий А и В равна произведению безусловной вероятности первого события на условную вероятность второго:
Р (А и В ) = Р (А ) ∙Р (В/А ) , (8)
А , или
Р (А и В ) = Р (В ) ∙Р (А/В), (9)
если первым наступает событие В .
Пример 1.В урне 3 черных шара и 7 белых. Найдите вероятность того, что из этой урныодин за другим(причем первый шар не возвращают в урну) будут вынуты 2 белых шара.
Решение : вероятность достать первый белый шар (событие А ) равна 7/10. После того как он вынут, в урне остается 9 шаров, из них 6 белых. Тогда вероятность появления второго белого шара (событие В ) равна Р (В /А ) = 6/9, а вероятность достать подряд два белых шара равна
Р (А и В ) = Р (А )∙Р (В /А ) = = 0,47 = 47%.
Приведенная теорема умножения вероятностей для зависимых событий допускает обобщение на любое количество событий. В частности, для трех событий, связанных друг с другом:
Р (А и В и С ) = Р (А ) ∙ Р (В/А ) ∙ Р (С/АВ ). (10)
Пример 2. В двух детских садах, каждый из которых посещает по 100 детей, произошла вспышка инфекционного заболевания. Доли заболевших составляют соответственно 1/5 и 1/4, причем в первом учреждении 70 %, а во втором – 60 % заболевших – дети младше 3-х лет. Случайным образом выбирают одного ребенка. Определите вероятность того, что:
1) выбранный ребенок относится к первому детскому саду (событие А ) и болен (событие В ).
2) выбран ребенок из второго детского сада (событие С ), болен (событие D ) и старше 3-х лет (событие Е ).
Решение . 1) искомая вероятность –
Р (А и В ) = Р (А ) ∙ Р (В /А ) = = 0,1 = 10%.
2) искомая вероятность:
Р (С и D и Е ) = Р (С ) ∙ Р (D /C ) ∙ Р (Е /CD ) = = 5%.
Формула Байеса
= (12)
Пример1. При первичном осмотре больного предполагаются 3 диагноза Н 1 , Н 2 , Н 3 . Их вероятности, по мнению врача, распределяются так: Р (Н 1) = 0,5; Р (Н 2) = 0,17; Р (Н 3) = 0,33. Следовательно, предварительно наиболее вероятным кажется первый диагноз. Для его уточнения назначается, например, анализ крови, в котором ожидается увеличение СОЭ (событие А ). Заранее известно (на основании результатов исследований), что вероятности увеличения СОЭ при предполагаемых заболеваниях равны:
Р (А /Н 1) = 0,1; Р (А /Н 2) = 0,2; Р (А /Н 3) = 0,9.
В полученном анализе зафиксировано увеличение СОЭ (событие А
произошло). Тогда расчет по формуле Байеса (12) дает значения вероятностей предполагаемых заболеваний при увеличенном значении СОЭ: Р
(Н
1 /А
) = 0,13; Р
(Н
2 /А
) = 0,09;
Р
(Н
3 /А
) = 0,78. Эти цифры показывают, что с учетом лабораторных данных наиболее реален не первый, а третий диагноз, вероятность которого теперь оказалась достаточно большой.
Пример 2. Определите вероятность, оценивающую степень риска перинатальной* смертности ребенка у женщин с анатомически узким тазом.
Решение : пусть событие Н 1 – благополучные роды. По данным клинических отчетов, Р (Н 1) = 0,975 = 97,5 %, тогда, если Н 2 – факт перинатальной смертности, то Р (Н 2) = 1 – 0,975 = 0,025 = 2,5 %.
Обозначим А
– факт наличия узкого таза у роженицы. Из проведенных исследований известны: а) Р
(А
/Н
1) – вероятность узкого таза при благоприятных родах, Р
(А
/Н
1) = 0,029, б) Р
(А
/Н
2) – вероятность узкого таза при перинатальной смертности,
Р
(А
/Н
2) = 0,051. Тогда искомая вероятность перинатальной смертности при узком тазе у роженицы рассчитывается по формуле Байса (12) и равна:
Таким образом, риск перинатальной смертности при анатомически узком тазе значительно выше (почти вдвое) среднего риска (4,4 % против 2,5 %).
СОБЫТИЯ СЛУЧАЙНЫЕ НЕЗАВИСИМЫЕ
- такие случайные события А
и В,
для которых вероятность Р
одновременного наступления 2-х событий А к В
равна произведению вероятностей наступления каждого из них в отдельности: Р(АВ) = Р(А)·Р(В).
Аналогично определение независимости п
случайных событий. Это определение распространяется на независимость случайных величин,
а именно, случайные величины X 1 , Х 2 , ...,
Х п
независимы, если для любой группы Х i1 , X i2 , ..., X ik ,
этих величин верно равенство: Р(Х i1 ≤ х i1, Х i2 ≤ х i2 , ...,
Х ik ≤ x ik) = Р(Х i1 ≤ х i2)Р(Х i2 ≤х i2)...(Р(Х ik ≤ х ik); 1≤ k ≤ n.
При решении геол. задач методами теории вероятностей и математической статистики
корректная зависимости изучаемых величин часто является наиболее сложной и ответственной частью исследования.
Геологический словарь: в 2-х томах. - М.: Недра . Под редакцией К. Н. Паффенгольца и др. . 1978 .
Смотреть что такое "СОБЫТИЯ СЛУЧАЙНЫЕ НЕЗАВИСИМЫЕ" в других словарях:
См. События независимые случайные. Геологический словарь: в 2 х томах. М.: Недра. Под редакцией К. Н. Паффенгольца и др.. 1978 … Геологическая энциклопедия
У этого термина существуют и другие значения, см. Независимость (значения). В теории вероятностей два случайных события называются независимыми, если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные … Википедия
Коэффициент корреляции - (Correlation coefficient) Коэффициент корреляции это статистический показатель зависимости двух случайных величин Определение коэффициента корреляции, виды коэффициентов корреляции, свойства коэффициента корреляции, вычисление и применение… … Энциклопедия инвестора
Математическая наука, позволяющая по вероятностям одних случайных событий находить вероятности других случайных событий, связанных к. л. образом с первыми. Утверждение о том, что к. л. событие наступает с вероятностью, равной, напр., 1/2, еще не… … Математическая энциклопедия
В теории вероятностей одно из важнейших понятий этой теории. Иногда используют термины статистическая независимость, стохастическая независимость. Предположение о Н. рассматриваемых событий, испытаний и случайных величин было обычной предпосылкой … Математическая энциклопедия
Математическая наука, позволяющая по вероятностям одних случайных событий находить вероятности других случайных событий, связанных каким либо образом с первыми. Утверждение о том, что какое либо событие наступает с Вероятностью,… … Большая советская энциклопедия
ГОСТ Р 50779.10-2000: Статистические методы. Вероятность и основы статистики. Термины и определения - Терминология ГОСТ Р 50779.10 2000: Статистические методы. Вероятность и основы статистики. Термины и определения оригинал документа: 2.3. (генеральная) совокупность Множество всех рассматриваемых единиц. Примечание Для случайной величины… … Словарь-справочник терминов нормативно-технической документации
Занимается изучением событий, наступление которых достоверно неизвестно. Она позволяет судить о разумности ожидания наступления одних событий по сравнению с другими, хотя приписывание численных значений вероятностям событий часто бывает излишним… … Энциклопедия Кольера
Раздел математики, в к ром строят и изучают матем. модели случайных явлении. Случайность присуща в той или иной степени подавляющему большинству протекающих в природе процессов. Обычно она присутствует там, где существ. влияние на ход процесса… … Физическая энциклопедия
В математической статистике статистический метод, предназначенный для выявления влияния отдельных факторов на результат эксперимента, а также для последующего планирования аналогичных экспериментов. Первоначально Д. а. был предложен Р. Фишером… … Математическая энциклопедия