Теория вероятностей
 

Вероятностей теория

Теория вероятностей - наука о вычислении вероятностей случайных событий.

Основные объекты изучения теории вероятностей:

1) случайное событие и его вероятность;
2) случайная величина и ее функция распределения;
3) случайный процесс и его вероятностная характеристика. Например, задачи, которые возникают из ситуаций, обычных на телефонной станции:
а) какова вероятность того, что на станцию за время t поступят n вызовов от абонентов?
б) Какова вероятность того, что длительность ожидания соединения с нужным абонентом окажется большей, чем заданное число t0?
в) Как со временем изменяется очередь на соединение? Какие закономерности появления вызовов во времени?

Эти задачи показывают, что именно практика приводит к необходимости вводить математические понятия и изучать их. В задаче а) речь идет о вероятности наступления случайною события; в задаче б) -о разыскании функции распределения случайной величины (длительности ожидания); в задачах в) рассматриваются случайные процессы, связанные с обслуживанием абонентов.

Основой теории вероятностей является понятие вероятности случайного события. Интуитивно ясное понятие случайного события (появления данного числа вызовов на телефонной станции, выпадения грани 5 при бросании игральной кости и т.д.) формализуется. В современной теории вероятностей принят следующий подход. Рассматривается исходное множество - множество элементарных событий Е. Далее выбираются подмножества этого множества. Например, при бросании игральной кости множество элементарных событий состоит из шести элементов (1,2, 3, 4. 5, 6) - когда кость падает сторонами, обозначенными числами 1, 2, ..., 6. В качестве подмножеств рассматриваем возможности выпадения одной из двух граней i или j; или из трех граней i, или j, или k; ...; или выпадение одной из граней 1, или 2, или 3, ..., или 6. Это последнее событие наступает при любом бросании кости, и поэтому оно называется достоверным. И в любом случае в качестве одного из подмножеств берется все множество. Оно наступает при любом испытании и является достоверным событием. Остальные подмножества являются случайными событиями. Множество F случайных событий (множество выбранных подмножеств Е) не произвольно, а должно обладать следующими свойствами: наряду с событиями А и В в него входят также события А или В, а также А и В. Событие А или В называется суммой событий A и В и обозначается символом А + В, или символом A U B. Событие A и В носит название пересечения (или произведения) событий А и В и обозначается символом АВ (или символом А ∩ В). Требования, наложенные на множество случайных событий, позволяют заключить, что в это множество входит еще одно событие, называемое невозможным. Оно получается каждый раз, когда рассматривается АВ, но события А и В составлены из разных элементарных событий. В примере с бросанием игральной кости если выбрать А = {3}, а В= {5}, то событию АВ не соответствует ни один исход бросания кости. Это невозможное событие. Оно обозначается символом 0.

События А и В называются несовместными, если АВ = 0; иными словами, если события А и В не содержат в своем составе ни одного общего элемент (элементарного события). Определим теперь на множестве F неотрицательную функцию: каждому случайному событию А поставим в соответствие число Р{А}>=0: для функции Р{А} должны быть выполнены два дополнительных свойства: 1) если А и В несовместны, то

Р {А + В}= Р {А} + Р {В};

2) если U-достоверное событие, то Р {U} = 1. Легко проверить, что классическая вероятность является как раз такой функцией. Величина Р{А} называется вероятностью события А. Соотношение 1) носит наименование теоремы сложения вероятностей; она входит в состав трех простейших соотношений, позволяющих вычислять вероятности сложных событий по заданным вероятностям простых.

Два требования, наложенные на вероятность события, позволяют получить большое число следствий:

а) вероятность невозможно¬го события равна 0;
б) каковы бы ни были события А и В,
Р{А + В}=Р{А}+Р{В}- Р{АВ}.

При определении вероятности случайного события всегда предполагается, что выполнен некоторый комплекс условий: игральная кость правильная, т.е. плотность вещества, из которого она сделана, постоянна, а ее форма является идеальным кубом. Таким образом, каждая вероятность является условной. Однако принято эту первичную совокупность условий считать само собой разумеющейся, никак не отмечать ее наличие и просто писать Р {А}-вероятность события А, предполагая при этом, что указанный комплекс условий выполнен. Если же помимо этого комплекса условий известно, что осуществилось еще некоторое условие В, то в этом случае говорят об условной вероятности события А при условии В и обозначают Р {А/В}. Пусть событие А состоит в том, что при бросании игральной кости выпадет не более четырех очков. Вероятность этого события равна 4/6 = 2/3. Если нам стало известно событие В - число выпавших очков оказалось большим двух, то тогда могли выпасть лишь очки 3, 4, 5 или 6. Благоприятствуют интересующему нас событию лишь два из четырех, значит,
Р {А/В} = 2/4 = 1/2. Вообще говоря, условная вероятность Р{А/В} не равна безусловной Р{А}, однако могут быть случаи, когда
Р{А/В} = Р{А}. В этом случае говорят, что событие А независимо от события В.

Найдем вероятность события АВ. Чтобы произошло событие АВ, нужно, во-первых, чтобы произошло событие В, а во-вторых, чтобы наступило событие А при условии, что событие В наступило.

Рассмотрим классическую схему вероятности. Имеется n элементарных равновероятных событий. Событию А благоприятствуют какие-то j из них, событию В благоприятствует k и m-событию АВ. Согласно определению
Р{АВ} = m/n = k/n*m/k. Но первый множитель правой части этого равенства равен Р{В}, а второй - вероятность события А при условии, что В наступило. Таким образом,
Р{АВ} = Р{В}* Р{А/В}. Точно такими же рассуждениями доказываем, что
Р{АВ} = Р{А} * Р{В/А}. Из этих равенств, носящих название теоремы умножения вероятностей, вытекает, во-первых, что если А независимо от В, то и В независимо от А. Во-вторых, следует равенство
Р{А/В} = Р{AB}/P{В}. Для общего определения вероятности равенство
Р{А/В} = Р{АВ}/Р{В} служит определением условной вероятности. Ясно, что и в этом случае имеет место теорема умножения, которая является второй основной теоремой.

Третьей основой вычислений в теории вероятностей служит так называемая формула полной вероятности.

Пусть события A1,А 2,......,As попарно несовместны и пусть событие В наступает только в том случае, когда происходит одно из событий Аj. В этом случае имеет место равенство В = ВА1 + ВА2 +....+BAs.

Отсюда

В развитии теории вероятностей важную роль играла и продолжает играть так называемая схема Бернулли. Пусть производится n независимых испытаний, в каждом из которых может произойти событие А с одной и той же в каждом из испытаний вероятностью р и не произойти с вероятностью q = 1- р. Вероятность того, что при этом событии А появится ровно m раз, а событие А (не А) n-m раз, вычисляется по формуле

При больших n вычисления по этой формуле довольно сложны и технически трудны; для этого обычно используют приближенную формулу (локальную теорему Муавра - Лапласа), согласно которой

В теоретических и прикладных задачах часто приходится находить суммы вида

При больших n, а и b такие вычисления требуют значительных усилий. Для их приближенного вычисления используется интегральная теорема Муавра - Лапласа, согласно которой

Обе теоремы дают очень высокую точность. Они относятся к так называемым предельным теоремам теории вероятностей. Швейцарский математик Я. Бернулли (1654-1705) обнаружил фундаментальный факт теории, получивший название закона больших чисел в форме Бернулли. Пусть μ обозначает число появлений события А в n независимых испытаниях, в каждом из которых событие А наступает с вероятностью р.

Каково бы ни было число ε > 0, имеет место соотношение

т.е. что вероятность отклонения частоты μ/n появления события от р = вероятности этого события больше, чем на ε, стремится к 0.

Наряду со случайными событиями в теории вероятностей и ее применениях рассматривают случайные величины. Представим себе, что при каждом наблюдении некоторая величина принимает какое-то значение в зависимости от случая; например, число космических частиц, попадающих за данный промежуток времени на определенную площадку поверхности; число обрывов пряжи, изготовленной из хлопка определенного сорта и заданного номера, при испытаниях на разрыв. Таких примеров можно привести сколько угодно. Случайные величины различаются как теми значениями, которые они способны принимать, так и вероятностями, с которыми эти значения принимаются. Так, число вызовов от абонентов на телефонной станции за промежуток времени t может быть любым целым числом: 0, 1, 2, ... . Как показывают многочисленные наблюдения, вероятность того, что число вызовов окажется равным k, согласуется с формулой

,

где λ-некоторая положительная постоянная.

Скорость молекулы газа также случайна и может принимать любые значения. Этих значений столько же, сколько положительных чисел. Как в этом случае задавать вероятности этих значений? Математики пошли по такому пути: стали определять не вероятность каждого из возможных значений, а вероятность того, что случайная величина ξ примет значение меньшее, чем заданное значение
х: Р{ξ < х} = F(x). Функция F(x) получила наименование функции распределения случайной величины ξ.

Из теоремы сложения легко вывести следующее важное равенство:
Р{а =< ξ < b} = F(b) - F(a), позволяющее по функции распределения определять вероятность выполнения указанного неравенства.

В теории вероятностей и ее применениях важную роль играют числовые характеристики случайных величин -математическое ожидание и дисперсия. Мы дадим их определение для дискретных случайных величин. Пусть х1, х2 ...-возможные значения случайной величины ξ, и p1, р2 ... вероятности этих значений, тогда сумма

называется математическим ожиданием
ξ, а Е(ξ - Еξ)² = Dξ,- дисперсией ξ.
П. Л. Чебышев доказал закон больших чисел в очень общей форме, а именно: пусть ξ1, ξ2, ...-последовательность независимых случайных величин с математическими ожиданиями a1, a2... и дисперсиями Dξk, ограниченными одной и той же величиной С, тогда для любого положительного ε > 0 выполняется

Вторая предельная теорема получила наименование теоремы Ляпунова, или центральной предельной теоремы: если случайные величины ξ1, ξ2, ...независимы, имеют конечные математические ожидания а1, а2 - и дисперсии
, то при дополнительном условии равномерной малости отдельных слагаемых имеет место:

Эта теорема является значительным обобщением интегральной теоремы Муавра-Лапласа.

В нашем веке в связи с физическими, биологическими, инженерными и другими исследованиями возникла необходимость рассматривать случайные процессы ξ(t), т.е. случайные функции от одного независимого переменного t, под которым обычно понимается время.

Теория случайных процессов в наши дни является одним из основных математических средств изучения явлений реального мира. Первые задачи теории вероятностей были рассмотрены Л. Пачоли (1445 - ок. 1514), Д. Кардано (1501-1576), Н. Тарталья (ок. 1499-1557), Б.Паскалем (1623-1662), П. Ферма (1601 -1665). X. Гюйгенсом (1629-1695). В качестве самостоятельной научной дисциплины теория вероятностей стала оформляться в работах Я. Бернулли (1654-1705), А. Муавра (1667-1754). П.Лапласа (1749-1827). С.Пуассона (1781-1840). Ее последующее развитие связано с именами П.Л. Чебышева, А. А. Маркова, A.M. Ляпунова (1857 1918), А.Я. Хинчина (1894-1959), С. Н. Бернштейна (1880-1968), А. Н. Колмогорова (род. 1903) и др.


Яндекс.Метрика