Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Понятие о зависимых и независимых событиях. Условная вероятность, закон (теорема) умножения вероятностей. Формула Байеса



ANOVA – дисперсионный анализ (от англ. ANalysis Of VAriance);

cov xy – ковариация признаков x и y;

SS – сумма квадратов (от англ. Sum of Squares);

ЛПУ – лечебно-профилактическое учреждение;

МСЭК – медико-социальная экспертная комиссия;

ЧСС – частота сердечных сокращений.


Основная литература

1. Гельман В.Я. Медицинская информатика. Практикум. СПб: Питер, 2001. – 420 с.

2. Информатика. Книга 2. Основы медицинской информатики: учебник / В.И. Чернов, И. Э. Есауленко, М В. Фролов и др. – М.: Дрофа, 2009. – 205, [3] с.: ил.

3. Применение методов статистического анализа для изучения общественного здоровья и здравоохранения: учебное пособие для практических занятий / под ред. В.З. Кучеренко. - 4-е изд., перераб. и доп. - М.: ГЭОТАР-Медиа, 2011. – 256 с.

4. Сабанов В.И., Голубев А.Н., Комина Е.Р. Медицинская информатика и автоматизированные системы управления в здравоохранении: Учебно-методическое пособие к практическим занятиям. - Волгоград: Изд-во ВолГМУ, 2006. – 144с.

5. Симонович С.В. Информатика. Базовый курс: Учебник для вузов. 3-е изд. Стандарт третьего поколения. – СПб.: Питер, 2011. – 640 с.: ил.

Дополнительная литература

1. Большев Л.Н., Смирнов Н.В. Таблицы математической статистики. – М.: Наука, 1983. – 416 с.

2. ГОСТ Р ИСО 5479-2002.Статистические методы. Проверка отклоне­ния распределения вероятностей от нормального распределения. - М.: Изд-во стандартов. 2002. - 30 с.

3. Зайцев В.М., Лифляндский В.Г., Маринкин В.И. Прикладная медицинская статистика: Учебное пособие. СПб, 2003.

4. Информатика для медиков [Электронный ресурс]: учебное пособие / Г. А. Хай. - СПб.: СпецЛит, 2009. - 223 с. – Режим доступа: http://www.studmedlib.ru

5. Ланг Т.А. Как описывать статистику в медицине. Аннотированное руководство для авторов, редакторов и рецензентов / Т.А. Ланг, М Сесик; пер. с англ. Под ред. В. П. Леонова. – М.: Прикладная медицина, 2011. – 480 с.: ил.

6. Основы высшей математики и математической статистики [Электронный ресурс]: учебник / И.В. Павлушков и др.: 2-е изд., испр. - М.: ГЭОТАР-Медиа, 2009. - 432 с.: ил. – Режим доступа: http://www.studmedlib.ru

7. Статистические методы анализа в здравоохранении. Краткий курс лекций. [Электронный ресурс]: Подготовлены авторским коллективом в составе: д.м.н., проф. Леонов С.А., при участии к.м.н. Вайсман Д.Ш., Моравская С.В, Мирсков Ю.А. - М.: ИД "Менеджер здравоохранения", 2011. - 172 с. – Режим доступа: http://www.studmedlib.ru

8. Степанов А.Н. «Информатика. Учебник для вузов. 4-е изд.». СПб., Питер, 2006, 684 с.

[a1]Добавлено

[a2]Редакция

[a3]Редакция

[a4]Редакция

[a5]Удалены столбцы для выч-я интенсивных показателей

[a6]Удалены столбцы для выч-я интенсивных показателей

[a7]Удалены столбцы для выч-я интенсивных показателей

[a8]Удалены столбцы для выч-я интенсивных показателей

[a9]Удалены столбцы для выч-я интенсивных показателей

[a10]Удалены столбцы для выч-я интенсивных показателей

[a11]Редакция

[a12]Редакция

[a13]Редакция

[a14]Отредактировано

[a15]Редакция

[a16]Добавлено

[a17]Редакция

[a18]Редакция

[a19]Добавлено

[a20]Редакция

[a21]Добавлено

[a22]Добавлены 2 задачи

[a23]Добавлено 53 теста

Случайное событие. Вероятность случайного события. Классическое и статистическое определение вероятности. Понятие о совместных и несовместных событиях. Закон (теорема) сложения вероятностей.

Случайное событие – это любой факт, который в результате испытания может произойти или не произойти. Случайное событие – это результат испытания. Испытание – это эксперимент, выполнение определенного комплекса условий, в которых наблюдается то или иное явление, фиксируется тот или иной результат.

События обозначаются заглавными буквами латинского алфавита А,В,С.

Численная мера степени объективности возможности наступления события называется вероятностью случайного события.

Классическое определение вероятности события А:

Р(А)=m/n

Вероятность события А равна отношению числа случаев, благоприятствующих событию A(m), к общему числу случаев (n).

Статистическое определение вероятности

Относительная частота событий – это доля тех фактически проведенных испытаний, в которых событие А появилось W=P*(A)= m/n. Это опытная экспериментальная характеристика, где m – число опытов, в которых появилось событие А; n – число всех проведенных опытов.

Вероятностью события называется число, около которого группируются значения частоты данного события в различных сериях большого числа испытаний P(A)= .

События называются несовместными, если наступление одного из них исключает появление другого. В противном случае события – совместные.

Сумма двух событий – это такое событие, при котором появляется хотя бы одно из этих событий (А или В).

Если А и В совместные события, то их сумма А+В обозначает наступление события А или события В, или обоих событий вместе.

Если А и В несовместные события, то сумма А+В означает наступление или события А или события В.

Понятие о зависимых и независимых событиях. Условная вероятность, закон (теорема) умножения вероятностей. Формула Байеса.

Событие В называется независимым от события А, если появление события А не изменяет вероятности появления события В. Вероятностью появления нескольких независимых событий равна произведению вероятностей этих:

P(AB) = P(A)*P(B)

Для зависимых событий:

P(AB) = P(A)*Р(B/A).

Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, найденную в предположении, что первое событие произошло.

Условная вероятность события В - это вероятность события В, найденная при условии, что событие А произошло. Обозначается Р(В/А)

Произведение двух событий – это событие, состоящее в совместном появлении этих событий (А и В)

Формула Байеса служит для переоценки случайных событий

P(H/A) = (P(H)*P(A/H))/P(A)

P(H) – априорная вероятность события Н

P(H/A) – апостериорная вероятность гипотезы H при условии, что событие А уже произошло

P(A/H) – экспертная оценка

P(A) – полня вероятность события А

3. Распределение дискретных и непрерывных случайных величин и их характеристики: математическое ожидание, дисперсия, среднее квадратичное отклонение. Нормальный закон распределения непрерывных случайных величин.

Случайная величина – это величина, которая в результате испытания в зависимости от случая принимает одно из возможного множества своих значений.

Дискретная случайная величина это случайная величина, когда принимает отдельное изолированное, счетное множество значений.

Непрерывная случайная величина – это случайная величина, принимающая любые значения из некоторого интервала. Понятие непрерывной случайной величины возникает при измерениях.

Для дискретной случайной величины закон распределения может быть задан в виде таблицы, аналитически (в виде формулы) и графически.

Таблица это простейшая форма задания закона распределения

Хi X1 X2 Xn
Pi P1 P2 Pn

Требования:

для дискретных случайных величин

Аналитический:

1)F(x)=P(X<x)

Функция распределения = интегральная функция распределения. Для дискретный и непрерывных случайных величин.

2)f(x) = F’(x)

Плотность распределения вероятностей = дифференциальная функция распределения только для непрерывной случайной велечины.

Графический:

С-ва: 1) 0≤F(x)≤1

2) неубывающая для дискретных случайных величин

для непрерывных случайных величин

С-ва: 1) f(x)≥0 P(x)=

2) площадь S=1

для непрерывных случайных величин

Характеристики:

1.математическое ожидание – среднее наиболее вероятное событие

Для дискретных случайных величин.

Для непрерывных случайных величин.

2)Дисперсия – рассеяние вокруг математического ожидания

Для дискретных случайных величин:

D(x)= xi-M(x))2*pi

Для непрерывных случайных величин:

D(x)= x-M(x))2*f(x)dx

3)Среднее квадратическое отклонение:

σ(х)=√(D(x))

σ – стандартное отклонение или стандарт

х – арифметическое значение корня квадратного из ее дисперсии

Нормальный закон распределения (НЗР) – закон Гаусса

НЗР – это распад вероятностей непрерывной случайной величины, который описывается дифференциальной функцией

Основные понятия математической статистики. Генеральная совокупность и выборка. Статистическое распределение (вариационный ряд). Гистограмма. Полигон частот.

Математическая статистика – это раздел математики, изучающий приближенные методы отыскания законов распределения и числовых характеристик по результатам эксперимента.

Генеральная совокупность – это множество всех мыслимых значений наблюдений (объектов), однородных относительно некоторого признака, которые смогли быть сделаны.

Выборка это совокупность случайно отобранных наблюдений (объектов) для непосредственного изучения из генеральной совокупности.

Статистическое распределение – это совокупность вариант xi и соответствующих им частот ni.

Гистограмма частот – это ступенчатая фигура, состоящая из смежных прямоугольников, построенных га оной прямой, основания которых одинаковы и равны ширине класса, а высота равна или частоте попадания в интервал ni или относительной частоте ni/n. Ширину интервала i можно определить по формуле Стерджеса:

I=(xmax-xmin)/(1+3,32lgn),

Где xmax – максимальное; xmin – минимальное значение вариант, а их разность носит название вариационный размах; n – объем выборки.

Полигон частот – ломаная линия, отрезки которой соединяют точки с координатами xi, ni.





Дата публикования: 2014-11-03; Прочитано: 725 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.012 с)...