Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Необходимые теоретические сведения



2.1. События и вероятности.

Пусть проводится некоторый опыт, который может закончиться

различным образом, и заранее точно предсказать его результат невозможно. В теории вероятностей такой опыт называется случайным экспериментом, множество его возможных элементарных исходов обозначается буквой Ω (большая греческая буква омега). Так, если бросается игральная кость, шесть граней которой обозначены цифрами: 1, 2, 3, 4, 5, 6, то всего имеется шесть элементарных исходов и

Подмножества множества W называются в теории вероятностей событиями и обозначаются большими латинскими буквами. В нашем примере событиями являются, например, Событие происходит, если реализуется любой входящий в него элементарный исход. Каждое событие имеет некоторую вероятность своего наступления. Вероятность события А- это действительное число, заключённое между 0 и 1. Вероятность обозначается буквой Р. Таким образом, для любого события имеет место , причём . Вероятность события может рассматриваться как мера его достоверности: чем ближе вероятность к 1- тем достовернее событие.

Если А- событие, то его отрицание называется

противоположным или дополнительным к А событием. Если А и В- события то их сумма А+В- событие, состоящее в осуществлении хотя бы одного из событий А или В, а их произведение АВ- событие, состоящее в одновременном осуществлении А и В.

В нашем случае

Последнее равенство справедливо для любого события А.

Для произведения событий имеем АС={3}, BC={6}, AB=Æ, где Æ- пустое множество или невозможное событие. Для него всегда полагается Р(Æ)=0.

Два события называются несовместными, если они не могут осуществиться одновременно, т.е. их произведение есть невозможное событие. В нашем примере А и В- несовместные события. События А и всегда несовместны.

Один из основных принципов теории вероятностей состоит в том, что, если А и В- несовместные события, то Р(А+В)=Р(А)+Р(В).

Возвращаясь к нашему примеру, замечаем, что 6 возможных элементарных исходов опыта с бросанием кости совершенно симметричны, поэтому каждому из них естественно приписать одинаковую вероятность: Р(1)=Р(2)=…=Р(6). Кроме того, эти элементарные исходы есть несовместные события, в сумме дающие всё множество W. Поэтому Р(1)+Р(2)+…+Р(6)=Р(W)=1. Это позволяет заключить, что вероятность каждого из элементарных исходов равна , а вероятность любого события есть число заключающихся в нём элементарных исходов, делённое на 6, т.е. на полное число элементарных исходов.

Это приводит нас к классическому определению вероятности, согласно которому вероятность события определяется как отношение числа элементарных исходов, благоприятствующих событию, к полному числу элементарных исходов. Следует, однако, подчеркнуть, что это определение может быть использовано лишь в тех случаях, когда элементарные исходы симметричны, стало быть, равновероятны. Это ограничивает его использование азартными играми.

Практическая значимость теории вероятностей во многом основывается на основополагающем принципе, согласно которому при многократном повторении опыта в одинаковых условиях относительная частота события А, определяемая как отношение числа опытов, в которых событие А осуществилось, к полному числу опытов, будет приближаться к Р(А). Этот фундаментальный принцип, называемый законом больших чисел, может быть строго доказан в рамках аксиоматики теории вероятностей.

В нашем примере с костью Р(А)= . Это означает, что при большом числе бросаний относительное число бросаний, закончившихся выпадением 1 и 3, будет близко к . А если многократно подбрасывать монету, то герб выпадает примерно в половине случаев.

Важнейшим понятием теории вероятностей, пронизывающим все её разделы, является понятие независимости. Два события называются независимыми, если факт осуществления одного из них не изменяет вероятности другого. Вероятность их одновременного осуществления равна произведению их вероятностей. Для иллюстрации этого рассмотрим эксперимент с бросанием двух костей. Здесь имеется 6´6=36 возможных исходов, которые вследствие симметрии равновероятны. Поэтому вероятность каждого из них равна . Рассмотрим, например, элементарный исход (3,5), когда на первой кости выпадает 3, а на второй- 5. Его вероятность, как следует из предыдущей аргументации, равна . Однако более общим является следующий подход к определению вероятности. Событие (3,5) является произведением двух событий:

1) на первой кости выпадает тройка и

2) на второй кости выпадает пятёрка.

Эти события независимы и вероятность каждого из них равна . Поэтому вероятность их произведения равна .

Итак, для любых независимых событий А и В имеет место соотношение Р(АВ)=Р(А)×Р(В).

В общем случае Р(АВ)=Р(А)×Р(), где Р()- вероятность события В при условии, что произошло событие А, т.е. условная вероятность события В. Аналогично, Р(АВ)=Р(В)×Р().

Пусть, например, имеется конфетница, содержащая 6 конфет: 3 шоколадных и 3 карамели, и из неё наугад берут 2 конфеты. Какова вероятность, что обе они окажутся шоколадными?

Пусть событие А состоит в том, что первая конфета шоколадная, событие В- вторая конфета шоколадная. Заметим, что Р(А)=Р(В)= . Нас интересует вероятность события АВ. Имеем Р(АВ)=Р(А)×Р События А и В не являются независимыми. Однако, легко переформулировать задачу так, чтобы события стали независимыми. Пусть имеется вторая такая же конфетница, и одна конфета тянется из первой конфетницы, а другая- из второй. Тогда события А и В независимы и вероятность вынуть две шоколадные конфеты равна

Если В1, …, Вк- попарно несовместные события, исчерпывающие в сумме всё множество элементарных событий, то говорят, что В1, …, Вк образуют полную группу событий. Тогда для произвольного события А справедлива так называемая формула полной вероятности

Пусть имеется две внешне одинаковые конфетницы, но в одной 2 шоколадные и 6 карамелей, а в другой 3 шоколадные и 3 карамели. Какова вероятность, что вытянутая из наугад взятой конфетницы конфета окажется шоколадной?

Пусть В1- событие, что взята 1-ая конфетница, В2- 2-ая. Это и будет в данном случае полной группой событий. По формуле полной вероятности для вероятности интересующего нас события получаем

Допустим теперь, что мы вытянули конфету и она оказалась шоколадной. Из какой конфетницы она была вытянута? Т.е. требуется найти вероятности и В этом случае события В1 и В2 называют альтернативными гипотезами, и - априорными вероятностями (вероятностями до опыта), а искомые условные вероятности и - апостериорными вероятностями (вероятностями после опыта).

откуда получаем

аналогично

.

Полученные формулы называются формулами Байеса для вероятностей гипотез. В нашем случае они дают ; Апостериорные вероятности, как и априорные, в сумме дают единицу, но они уже не равны. По результату опыта более вероятно, что мы имеем дело со второй конфетницей.

2.2. Случайные величины

Результатом опыта со случайным исходом может быть число. Так при бросании кости выпадает от 1 до 6 очков, т.е. с опытом связана случайная величина, принимающая с одинаковой вероятностью значения 1, 2, …, 6. С бросанием монеты также удобно связать случайную величину, принимающую с вероятностью значения 0 или 1. Если же монету подбросить n раз, то число выпадений герба является случайной величиной, принимающей значения от 0 до n.

Если случайная величина принимает значения т.е. конечное или счётное множество значений, то она называется дискретной случайной величиной. Закон распределения дискретной случайной величины задаётся вероятностями . При этом всегда Важнейшими дискретными случайными величинами (сл.вел.) являются:

1) бернуллиевская сл.вел., принимающая два значения 1 и 0,

, q (бросание монеты, не обязательно симметричной);

2) биномиальная сл.вел. принимающая значения 0,1,…, n,

, i=0,1,…,n (число выпадений орла в серии из n бросаний несимметричной монеты, когда вероятность выпадения орла равна р, решки- q=1-p, ).

3) пуассоновская сл.вел., принимающая значения 0,1,…,

, i=0,1,… (число телефонных звонков или щелчков счётчика Гейгера за некоторый промежуток времени, если среднее число звонков или щелчков за подобный промежуток равно ).

Наряду с дискретными встречаются и непрерывные сл.вел.. В

качестве примеров можно привести время, проведённое на остановке в ожидании автобуса, расстояние на которое прыгает спортсмен на соревнованиях по прыжкам в длину, ваш собственный вес, измеренный после лечебной диеты и т.д.

Для непрерывной сл.вел. имеет смысл говорить не о вероятности точного значения, а о вероятности того, что значение сл.вел. попадёт в некоторый интервал значений. Закон распределения непрерывной сл.вел. Х задаётся функцией плотности вероятности таким образом, что . При этом и

Важнейшими непрерывными распределениями являются равномерное на некотором отрезке распределение и нормальное распределение. При равномерном на распределении при и при В этом случае вероятность попадания в некоторый интервал равна отношению длины интервала к длине отрезка

Нормальное распределение задаётся двумя параметрами: своим средним значением и разбросом вокруг него s. Его плотность выражается формулой . Как видно из формулы, плотность максимальна при х=m и симметрично убывает в обе стороны от m. Тот факт, что Х распределена по нормальному закону с параметрами m, s кратко записывают в виде Х~N(m,s). Нормальное распределение N(0,1) называется стандартным. Его плотность имеет вид .

Чтобы единым образом описывать дискретные и непрерывные сл.вел., для сл.вел. Х вводят функцию распределения . Для дискретной сл.вел.

Для непрерывной сл.вел.

Функция распределения- это неотрицательная функция, монотонно возрастающая от 0 до 1. Если Х- дискретная сл.вел., то - кусочнопостоянная функция со скачками в точках х1, х2, …, равными вероятностями этих значений. Например, для бернулиевской сл.вел.

Если Х- непрерывная сл.вел., то - непрерывная функция и

Для любой сл.вел. имеет место соотношение

Для решения широкого круга вопросов, связанных со сл.вел. нет необходимости точно знать закон распределения, достаточно некоторых его числовых характеристик. Наиболее информативными и часто используемыми такими характеристиками являются математическое ожидание и дисперсия.

Математическое ожидание МХ- это средневзвешенное значение случайной величины Х. Для дискретной сл.вел. , для непрерывной сл.вел. при условии, что ряд или интеграл сходятся абсолютно.

Основные свойства математического ожидания;

1) М(сХ)=сМХ (постоянный множитель можно выносить за знак математического ожидания);

2) М(Х+У)=МХ+МУ (математическое ожидание суммы случайных величин равно сумме математических ожиданий).

Дисперсия является мерой разброса сл.вел. вокруг среднего

значения. Если МХ=m, то дисперсия DX есть DX=М(X-m)2, при условии, что математическое ожидание существует. Используя свойства математического ожидания, легко получить эквивалентную формулу для дисперсии Дисперсия всегда неотрицательна. Корень квадратный из дисперсии называется средним квадратическим или стандартным отклонением и обозначается

Основные свойства дисперсии:

1) D(сХ)=с2DХ (при умножении сл.вел. на постоянный множитель дисперсия умножается на его квадрат);

2) если Х и У- независимые сл.вел., то D(Х+У)=DХ+DУ (дисперсия суммы независимых сл.вел. равна сумме дисперсий).

Пусть МХ=m, DХ=s2. Тогда, как следует из приведённых

свойств, для случайной величины У= справедливо МУ=0, DУ=1. Подобное линейное преобразование часто используется и называется приведением сл.вел. к стандартному виду.

Найдём математическое ожидание и дисперсию рассмотренных ранее распределений.

1. Пусть Х- бернуллиевская сл.вел. Тогда

2. Пусть Х- биномиальная сл.вел. Её можно рассматривать как сумму n независимых бернуллиевских сл.вл. Поэтому

3. Пусть Х- пуассоновская сл.вел. = Таким образом, и математическое ожидание, и дисперсия пуассоновского распределения равны l.

4. Пусть Х- равномерно распределения на сл.вел. Тогда т.е. математическое ожидание совпадает с серединой отрезка .

5. Если Х- нормально распределённая сл.вел. с плотностью вероятности то МХ=m, DX=s2.

2.3. Предельные теоремы

Если монета бросается 100 раз подряд, то вероятность того, что

орёл выпадет 50 раз определяется по формуле биномиального распределения Однако вычислять столь большие величины как 100! затруднительно даже на вычислительной машине. Поэтому весьма важны предельные теоремы теории вероятностей.

Закон больших чисел.

Пусть Х1, Х2, … - независимые, одинаково распределённые сл.вел. с математическим ожиданием m. Тогда их среднее арифметическое У= стремится к m с ростом n, т.е. для любого сколь угодно малого e .

Р()

Согласно закону больших чисел число выпадения орла при 100- кратном бросании монеты будет не на много отличаться в процентном отношении от 50.

Центральная предельная теорема.

Пусть Х1, Х2,…- независимые, одинаково распределённые сл.вел. с математическим ожиданием m и дисперсией s2. Тогда сл.вел. будет иметь математическое ожидание и дисперсию . Приведём её к стандартному виду Тогда согласно центральной предельной теореме в пределе сл.вел. распределена по закону

С помощью центральной предельной теоремы можно найти, например, вероятность того, что при 100- кратном бросании монеты число выпадений орла Х будет заключено в интервале от 45 до 55. Сл.вел. Х есть сумма бернулиевских сл.вел. Х1, Х2, …, Х100, каждая из которых равна 1 с вероятностью и 0 с вероятностью также . Поэтому Число 100 достаточно велико, чтобы считать, что величина распределена по закону Имеем:

Здесь мы воспользовались чётностью функции из которой следует, что Теперь, обратившись к таблице функции Лапласа Ф(Х)= , данной в Приложении, находим, что Ф(1)=0,341 и искомая вероятность равна 0,682.

Пуассоновское приближение для биномиального распределения.

Пусть Х- биномиальная сл.вел.: Если так, что МХ= остаётся постоянным, то т.е. биномиальное распределение переходит в пуассоновское. Это позволяет приближённо вычислять биномиальные вероятности, когда n велико, р мало, а их произведение nр не слишком малая и не слишком большая величина.

Пусть взято 100 семян, прорастающих с вероятностью 0,02. Какова вероятность, что хотя бы одно из семян прорастёт? (Р(А)=?).

Воспользуемся пуассоновским распределением с параметром

Р(А)=1-Р

2.4. Генеральная совокупность и выборка

Изучаемое множество, состоящее из большого числа объектов, называется в математической статистике генеральной совокупностью, а выбранное из него для изучения ограниченное число объектов- выборкой. Если объекты имеют некоторый числовой признак или характеристику, то случайный выбор объекта из генеральной совокупности порождает дискретную случайную величину. Число её значений заведомо не превышает объёма генеральной совокупности. При большом объёме генеральной совокупности, однако, такую случайную величину считают непрерывной и описывают функцией распределения, что значительно удобнее, чем хранить миллионы значений. Так, если генеральная совокупность- население страны, а числовой признак- возраст, то расстояние между соседними точками дискретного распределения составляет доли секунды и непрерывная модель вполне оправдана.

При таком подходе выборка (х1, х2,…, хn) числовых значений признака из генеральной совокупности рассматривается как n независимых последовательных реализаций случайной величины Х. Выборочным средним называется среднее арифметическое элементов выборки Так как элементы выборки- это случайные величины, то и выборочное среднее- случайная величина. Если МХ=m, DX=s2, то 1) М =m, 2) Первое из этих равенств говорит о том, что выборочное среднее- несмещённая оценка математического ожидания, а второе- что точность этой оценки растёт с ростом n.

Выборочной дисперсией Dв называется величина Можно показать, что т.е. выборочная дисперсия является смещённой оценкой дисперсии. Однако, её легко подправить так, чтобы получить несмещенную оценку.

Исправленной выборочной дисперсией называется величина

На практике разница между выборочной дисперсией и исправленной выборочной дисперсией существенна лишь при небольшом объёме выборки.

Если в выборке объёма n есть повторяющиеся значения, так что всего имеется k<n различных значений, то её удобно задать таблицей частот значений

х1 х2 хк
n1 n2 nк

при этом сумма частот равна объёму выборки: n1+ n2+…+ nк= n.

В этом случае формулы для выборочного среднего и выборочной дисперсии запишутся в виде:

В медицине и биологии при изучении воздействия на живые организмы различных препаратов, а также в вопросах, связанных с маркетингом, возникает задача о сравнении средних двух генеральных совокупностей. Пусть имеется 2 распределения Х и У: МХ=mх, DX=sх2, МУ=mу, DУ=sу2. С целью проверки равенства mх=mу из них извлечены выборки объёмов соответственно n и m, найдены средние и и исправленные выборочные дисперсии и Если mх=mу и объёмы выборок достаточно велики (не менее 30 каждая), то, опираясь на центральную предельную теорему, можно считать, что величина

распределена по закону N (0,1). Поэтому, если Z оказывается большим по абсолютной величине, то мы склонны отбросить гипотезу о равенстве математических ожиданий. Сформулируем точное правило.

Пусть взято малое положительное число a, 0<a<<1, которое в дальнейшем будем называть уровнем значимости. По таблице нормального распределения найдём кр такое, что . Теперь, если абсолютное значение величины , то гипотезу о равенстве математических ожиданий отвергаем. Обычно полагается при этом кр=1,95.

Рассмотрим пример. Пусть две выборки, объёмом 30 каждая, заданы таблицей частот:

         
х        
у        

Так как кр(0,05)=1,95 и 1,24 1,95, то при уровне значимости 0,05 нет оснований отвергать гипотезу о равенстве математических ожиданий МХ=МУ.

2.5. Метод наименьших квадратов и уравнение регрессии.

Пусть дана система линейных уравнений с неизвестными:

которую можно записать в матричном виде как

С .

При система имеет, как правило, единственное решение, так как в типичном случае Если же то решение, как правило, не существует. В этом случае находят набор значений неизвестных х1,…, хn, сумму квадратов разностей левых и правых частей уравнений:

и говорят о решении по методу наименьших квадратов.

Для решения исходной системы по методу наименьших квадратов достаточно решить квадратную систему

где - матрица, полученная из матрицы С транспонированием.

Метод наименьших квадратов является основным средством получения аналитических соотношений между получаемыми из опыта величинами, когда вид зависимости (линейная, квадратическая и т.д.) задан.

Пусть, например, приведено 4 опыта, в результате которых были получены 4 пары величин Х и У: (0;0), (1;0), (2;1), (3;1). Мы хотим записать зависимость У от Х в виде У=аХ+b, т.е. получить, как говорят, уравнение линейной регрессии У на Х. Неизвестными в данном случае являются коэффициенты а и b и мы должны решить по методу наименьших квадратов систему

которая в матричном виде запишется как

Имеем:

С= , и мы получаем систему:

.

Правило Крамера даёт:

Исходные точки и уравнение регрессии представлены на графике

 
 

Если бы мы искали уравнение квадратичной регрессии У на Х, т.е. зависимость вида , то следовало бы решить по методу наименьших квадратов систему

,

,

и задача свелась, таким образом, к решению системы

которая решается обычными методами.





Дата публикования: 2015-01-10; Прочитано: 240 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.028 с)...