Теория вероятностей и математическая статистика2.1ПИ » Межвузовский информационно-образовательный портал

Межвузовский Информационно-Образовательный Портал

Demo
Demo

Теория вероятностей и математическая статистика
Назад на образовательную программу


МЕТОДИЧЕСКИЕ РЕКОМЕНДАЦИИ - МЕТОДИЧЕСКИЕ РЕКОМЕНДАЦИИ СТУДЕНТАМ ПО ИЗУЧЕНИЮ ДИСЦИПЛИНЫ

Разделы

Список Литературы

Дополнительная литература

Ваш библиотекарь

Анатолий Вассерман

Внимание!

Для входа в Электронную Библиотеку Вам нужно получить Логин и Пароль.
Для получения Логина и Пароля ВАМ нужно обратиться в деканат Вашего института
или заполнить форму для получения:

Форма заявки





    [recaptcha]

    Форма контроля

    • ЭССЕ

      Темы для ЭССЕ
      "Теория вероятностей и математическая статистика"
      - в данной дисциплине ЭССЕ сдавать не нужно!
    • ТЕСТ

      Бланки тестов
    • РЕФЕРАТ

      Темы для рефератов
      "Теория вероятностей и математическая статистика"
      - в данной дисциплине РЕФЕРАТ писать не нужно!

    Форма отправки результатов (ТЕСТ, РЕФЕРАТ)




      • captcha



      ВАШ Куратор

      priemzao@inyaz-mil.ru

      (495) 632-00-78




      Содержание разделов печать раздела -    

      Основные понятия теории вероятностей.
      верх

      Сферы применения вероятностно-статистических методов. Дискретное вероятностное пространство. Случайные события и операции над ними. Вероятностное пространство. Вероятности и правила действий с ними. Независимость событий. Условная вероятность. Формула полной вероятности. Формула Байеса. Схема испытаний Бернулли. Непрерывное вероятностное пространство. Аксиоматика Колмогорова.

       

      Лекция 1: «Основные понятия теории вероятностей»

       

      Теория вероятностей – раздел математики, изучающий закономерности случайных явлений.

      Под опытом, экспериментом, испытанием будем понимать осуществление конкретного комплекса условий.

      Событием называется всякий исход испытания.

      Событие называется случайным, если в результате опыта оно может произойти, а может и не произойти.

      Событие называется достоверным, если оно происходит всегда при выполнении комплекса условий.

      Невозможное событие – такое событие, которое никогда не происходит при выполнении комплекса условий.

      Событие, которое невозможно разложить на более простые, называется элементарным. Все остальные события называются составными.

      Множество всех элементарных событий в условиях данного эксперимента называется пространством элементарных событий.

      Элементарные события называются в некотором опыте равновозможными, если в силу условий проведения опыта можно считать, что ни одно из них не является объективно более возможным, чем другие.

      Пусть N − общее число равновозможных элементарных исходов в пространстве элементарных исходов Ω, а NA − число элементарных исходов, образующих событие A или, как говорят, благоприятствующих событию A.

      Вероятностью P (A) события A называют отношение числа NA благоприятствующих событию A элементарных исходов к общему числу N равновозможных элементарных исходов:

      P (A) = N/NA .

      Сформулированное определение вероятности принято называть классическим определением вероятности.

      События обозначают латинскими буквами А, В, С, . . ., а вероятность буквой Р.

      Два события называются совместными в данном опыте, если появление одного из них не исключает появления другого.

      Два события называются несовместными в данном опыте, если они не могут произойти вместе при одном и том же испытании. 

      П р о т и в о п о л о ж н ы м (или дополнительным) к событию A называется событие Ā состоящее в том, что событие A в результате эксперимента не произошло.

      Несколько событий в условиях данного опыта образуют полную группу событий, если в результате опыта обязательно произойдет хотя бы одно из них.

      События называются независимыми, если появление события В не оказывает влияния на вероятность события А.

      События А1, А2, …, Аn называются попарно независимыми, если любая пара их независима.

      События Н1, Н2, …, Нn называются гипотезами, если они попарно независимы и образуют полную группу событий.

      События называются зависимыми, если появление события В оказывает влияние на вероятность события А.

      Суммой (объединением) двух событий А и B (обозначается А + В) называется событие, состоящее из всех элементарных исходов, принадлежащих по крайней мере одному из событий А или B

      Произведением (пересечением) (обозначается А · В) событий А и B называется событие, состоящее из всех тех элементарных исходов, которые принадлежат и А и B

      Свойства вероятности события.

      1. Вероятность любого события есть неотрицательное число.

      2. Вероятность достоверного события равна единице.

      3. Вероятность невозможного события равна нулю.

      4. Вероятность случайного события A есть число, заключенное между нулем и единицей.

      5. Вероятность суммы двух несовместных событий равна сумме их вероятностей.

      P(A + B) = P(A) + P(B).

      6. Вероятность суммы двух совместных событий равна сумме их вероятностей без вероятности совмещения.

      Р( А + В ) = Р( А ) + Р( В ) – Р( А∙В )

      7. Если события А1, А2, …, Аn образуют полную группу, то

      Р(А1+ А2+ …+ Аn) = 1

      8. P(Ā) = 1 − P(A).

      9. Если события А и В независимы, то вероятность их произведения равна произведению вероятностей

      Р( А∙В ) = Р( А ) ∙ Р( В ).

      Формула полной вероятности.

      Вероятность события А при условии, что событие В произошло, называется условной вероятностью.

      Обозначение: Р(А/В)

      Если события А и В зависимы, то Р( А∙В ) = Р( А ) ∙ Р( В/А ).= Р(В) ∙ Р(А/В)

      Формула полной вероятности события А запишется в виде

      Р( А ) = Р( Нк ) ∙ Р( А/Нк ),

      где Р( Нк ) – вероятность гипотезы Нк, а Р( А/Нк ), – условная вероятность события А.

      Формула Байеса.

      Р(Нк/А) =

      Формула Байеса дает возможность переоценить условные вероятности гипотез Нк.

      Формулы Бернулли и Пуассона.

      Если проводятся n (n<10) независимых испытаний, в результате в каждом из которых может появиться событие А с вероятностью p и не появиться с вероятностью q = 1 – p, то вероятность появления события А ровно m раз в n испытаниях вычисляют по формуле Бернулли

      Pn( m ) = Cnm ∙pm ∙ qn–m.

      Если при этом число испытаний велико, вероятность р события в одном испытании мала, а произведение np не превосходит 20, то вероятность Pn( m ) находится по приближенной формуле Пуассона

      Pn( m ) = , m = 0, 1, . . . n., где λ = np

          

      Рекомендованная литература:

      Случайные величины.
      верх

      Случайные величины. Функция распределения случайной величины. Функция плотности. Понятие о случайном векторе. Совместное распределение нескольких случайных величин. Независимость случайных величин. Маргинальные распределения. Условное распределение.

      Лекция 1: «Случайные величины. Основные понятия.»

       

      Случайной величиной называют величину, которая в результате испытания принимает то или иное возможное значение, причем заранее, до опыта, неизвестно какое именно. Обычно рассматривают два типа случайных величин: дискретные и непрерывные.

      Случайная величина называется дискретной, если множество ее значений является конечным или счетным.

      Законом распределения дискретной случайной величины Х называется всякое соотношение между всеми возможными ее значениями х1, х2, . . . , хn и соответствующими им вероятностями.

      Закон распределения дискретной случайной величины Х чаще всего записывается в виде таблицы:

      xi

      x1

      x2

      x3

      . . .

      xn

      pi

      p1

      p2

      p3

      . . .

      pn

      В этой таблице xi - значения, которые может принимать случайная величина, pi - соответствующая им вероятность.

      Функцией распределения F(х) случайной величины Х, называется вероятность того, что Х примет значение меньшее чем произвольное действительное число х.

      Непрерывной называется случайная величина Х, если ее функция распределения непрерывна. Распределение непрерывной случайной величины однозначно определяется ее функцией распределения.

      Свойства функции распределения (см. подробнее Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 55- 60)

      Р( a ≤ X ≤ b ) = F( b ) – F( a ).

      Плотностью распределения f( х ) ( плотностью вероятности) непрерывной случайной величины Х называется производная ее функции распределения.

      f( х ) = F'(х)

      Свойства плотности вероятностей (см. подробнее Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 60-62)

      Рекомендованная литература:

      1. Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика [Электронный ресурс] : учебник / К. В. Балдин, В. Н. Башлыков, А. В. Рукосуев. - 2-е изд. - М. : Дашков и К, 2010. - 473 с. 

      Лекция 2: «Характеристики распределений случайных величин»

      Математическое ожидание дискретной случайной величины Х определяется формулой М(Х) = xкрк. и имеет смысл среднего значения случайной величины.

      Для оценки степени рассеивания значений случайной величины вокруг ее среднего значения вводится понятие дисперсии.

      Дисперсия есть математическое ожидание квадрата разности случайной величины и ее математического ожидания.

      D(X) = M(Х – M(Х))2 = (xк – М(Х))2∙рк.

      Для вычисления дисперсии используют более удобную формулу

      D(X) = M(Х2) – (М(Х))2.

      Средним квадратическим отклонением называется величина σ = , которая также является мерой рассеивания случайной величины Х.

      Модой дискретной случайной величины называется значение, вероятность которого наибольшая.

      Математическое ожидание непрерывной случайной величины, имеющей плотность f( х ) , определяется формулой М(Х) = хf( х )dx ,

      Дисперсия непрерывной случайной величины, имеющей плотность f( х ) , определяется формулой

      D(X) = M( Х – M(Х))2 = x2 f( x )dx – (М(Х))2.

      Средним квадратическим отклонением называется величина σ = .

      Медианой Ml случайной величины называется такое ее значение для которого Р(х ≤ Ml) ≥ 0,5; Р(х ≥ Ml) ≥ 0,5

      Свойства математического ожидания и дисперсии (см. Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 114-117)

       

      Рекомендованная литература:

      1. Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика [Электронный ресурс] : учебник / К. В. Балдин, В. Н. Башлыков, А. В. Рукосуев. - 2-е изд. - М. : Дашков и К, 2010. - 473 с. 

      Лекция 3: «Основные законы распределений случайных величин» (см. подробнее Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 74-88)

       

      Биноминальное распределение.

      Случайная величина имеет биноминальное распределение тогда, когда вероятность находится по формуле Бернулли

      Pn( m ) = Cnm ∙pm ∙ qn–m.

      М(Х) = nр, D(Х) = npq.

      Распределение Пуассона.

      Случайная величина имеет распределение Пуассона тогда, когда вероятность находится по формуле Пуассона

      Pn( m ) = , m = 0, 1, . . . n., где λ = np

      М(Х) = D(Х) = λ.

      Равномерное распределение.

      Распределение случайной величины называется равномерным на [a,b], если ее плотность вероятности имеет вид:

      f(x) =

      M(X) = , D(X) =

      Экспоненциальное (показательное) распределение.

      Распределение случайной величины называется экспоненциальным, если ее плотность вероятности имеет вид:

      f(t) = le-lt , t ≥ 0, где λ – параметр распределения, λ > 0.

      Математическое ожидание и дисперсию случайной величины находят по формулам:

      M(t) = 1/λ, D(t) = 1/ λ2.

      Нормальное распределение.

      Распределение случайной величины называется нормальным если ее плотность распределения имеет вид:

      f(t)= , где а и σ – параметры распределения (математическое ожидание и среднее квадратическое отклонение) , a > 0, σ > 0,

       

      Рекомендованная литература:

      1. Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика [Электронный ресурс] : учебник / К. В. Балдин, В. Н. Башлыков, А. В. Рукосуев. - 2-е изд. - М. : Дашков и К, 2010. - 473 с. 

      Предельные теоремы.
      верх

      Виды сходимости последовательности случайных величин. Неравенство Чебышева. Закон больших чисел и его следствия. Особая роль нормального распределения: центральная предельная теорема. Теоремы Муавра-Лапласа (локальная и интегральная).

      Лекция 1: «Предельные теоремы». (см. подробнее Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 217-222)

       

      Неравенство Чебышева. Теорема Чебышева.

      Для дискретных и непрерывных случайных величин справедливо неравенство Чебышева.

      Пусть дискретная случайная величина X задана следующей таблицей распределения:

      Требуется оценить вероятность того, что отклонение случайной величины от ее математического ожидания не превосходит по абсолютной величине положительного числа ε. Если ε довольно мало, то мы оценим вероятность того, что X примет значения, довольно близкие к своему математическому ожиданию. П. Л. Чебышев доказал неравенство, благодаря которому можно дать интересующую нас оценку.

      Неравенство Чебышева. Вероятность того, что отклонение случайной величины X от ее математического ожидания по абсолютной величине меньше положительного числа ε, не меньше, чем (1—D(X))/ε2:

      P(| X M(X )| <ε)≥(1−D(X) )/ε2

      Теорема Чебышева. если рассматривается достаточно большое число независимых случайных величин, которые имеют ограниченные дисперсии, то почти достоверным можно считать событие, заключающееся в том, что отклонение среднего арифметического случайных величин от среднего арифметического их математических ожиданий будет по абсолютной величине сколь угодно малым.

      Локальная теорема Лапласа.

      Использование формулы Бернулли при больших значениях n довольно проблематично, поскольку формула требует выполнения действий над гигантскими числами. При подсчете такого рода величин накапливаются погрешности, и окончательный результат может значительно отличаться от действительного. Чтобы найти интересующую вероятность, не обязательно пользоваться формулой Бернулли. Это можно сделать в соответствии с локальной теоремой Лапласа, которая дает асимптотическую формулу. Данная формула позволяет приблизительно найти вероятность появления события ровно k раз в n испытаниях при условии, что число испытаний довольно велико. Эту теорему также называют теоремой Муавра — Лапласа.

      Локальная теорема Лапласа. Если вероятность р появления события А в каждом испытании неизменна и не равна нулю и единице, то в таком случае вероятность Рn(k) того, что событие А появится в n испытаниях ровно k раз, приблизительно равна:

      Рn(k) ≈ ,

      где

      Интегральная теорема Лапласа.

      Пусть производится n испытаний, причем в каждом из них вероятность появления события А неизменна и равна р (0 < р < 1).

      Для того чтобы найти вероятность Рn(kl, k2) того, что событие А появится в n испытаниях не менее k1 и не более k2 раз, воспользуемся интегральной теоремой Лапласа.

      Теорема. Если вероятность р наступления события А в каждом испытании неизменна и не равна нулю и единице, то вероятность Рn(kl, k2) того, что событие А появится в n испытаниях от k1 до k2 раз, приблизительно равна:

      Рn(kl, k2) φ( x'') – φ( x′), где x′=(k1np)/ npq и x'' = (k2np)/ npq.

       

      Рекомендованная литература:

      1. Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика [Электронный ресурс] : учебник / К. В. Балдин, В. Н. Башлыков, А. В. Рукосуев. - 2-е изд. - М. : Дашков и К, 2010. - 473 с. 

      Математическая статистика
      верх

      Генеральная совокупность, выборка. Гистограмма и полигон частот. Выборочная (эмпирическая) функция распределения. Вариационный ряд. Выборочные характеристики (выборочное среднее и выборочная дисперсия) и их распределения для нормальной генеральной совокупности. Асимптотические свойства выборочных моментов.

      Лекция 1: «Математическая статистика»

       

      Статистической совокупностью называется совокупность предметов или явлений, объединенных каким-либо общим признаком. Обработка статистических данных приводит к установлению определенных закономерностей, присущих массовым явлениям.

      Генеральная совокупность – совокупность объектов или наблюдений, все элементы которой подлежат изучению при статистическом анализе.

      Выборка (х1', х2',, хn ') объема n - результат n наблюдений (измерений), проведенных над исследуемой случайной величиной (генеральной совокупностью) Х.

      Выборки в МС должны быть репрезентативны (представительны). Это означает, что:

      • должен быть обеспечен полностью случайный выбор n значений;
      • выборка должна иметь достаточно большой объем (обычно n > 40–50).

        Вариационным рядом называется последовательность элементов выборки, расположенных в неубывающем порядке. Одинаковые элементы повторяются.

        Операция расположения случайной величины по неубыванию называется ранжированием статистических данных.

        Следующий этап обработки ряда х1', х2',, хn '— составление статистического ряда распределения. Форма его записи зависит от характера изучаемой случайной величины Х.

        Пусть х дискретная случайная величина и среди вариационного ряда встречаются одинаковые значения случайной величины. Тогда составляют дискретный статистический ряд который показывает, с какой частотой наблюдалось то или иное значение.

        х1, х2, ..., хk – значения, которые принимает случайная величина, называются вариантами.

        n1, n2, ..., nk – числа, показывающие сколько раз встречался соответствующий вариант, называются частотами.

        n1 + n2 + … + nk = n - объем выборки.

        pi* = ni/n –называется относительной частотой.

        Когда величина Х является непрерывной случайной величиной, тогда составляют интервальный статистический ряд. (см. подробнее Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 232-235)

        Для графического изображения вариационных рядов используют гистограммы, полигон частот и кумуляту.

        Числовые характеристики вариационных рядов.

        Основной характеристикой вариационного ряда является его средняя арифметическая, называемая также выборочным средним.

        Для дискретного ряда она равна

        ,

        а для интервального ряда

        ,

        где xi – середина i-го интервала, fi – высота интервала, к – номер интервала.

        Выборочной дисперсией служит величина

        D = .

        В статистическом анализе рассматривается также коэффициент вариации, равный отношению выборочного среднего квадратического отклонения к выборочной средней ν = (¹ 0).

        Оценка параметров генеральной совокупности.(см. подробнее Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 236-263)

        Пусть распределение случайной величины в генеральной совокупности зависит от какого-либо параметра θ. Оценкой параметра θ называется функция от значений выборки ( x1, x2, . . . , xn ). Оценка называется несмещенной, если М = θ. Здесь устраняется возможность появления систематической ошибки при оценке параметра θ. Оценка называется состоятельной, если при больших n отклонение от θ становится сколь угодно малым.

        Оценкой качества несмещенной оценки является ее дисперсия. Она называется эффективной, если ее дисперсия D = M( – θ )2 является наименьшей среди дисперсий всех возможных оценок параметра θ.

        Основными статистическими распределениями являются

        а) распределение χn2;

        б) распределение Стьюдента tn;

        в) распределение Фишера.

        Интервальные оценки параметров.

        Интервальной оценкой параметра θ называется интервал ( a,β ), который с заданной вероятностью γ покрывает неизвестное значение параметра θ.

        Такой интервал называется доверительным интервалом, а вероятность γ – доверительной вероятностью или уровнем надежности.

        P| – θ | < ∆ = γ тогда интервал имеет вид ( – ∆ , + ∆ ), то есть неравенства – ∆ < θ < + ∆ выполняются с вероятностью γ.

        Проверка статистических гипотез.(см. подробнее Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика, стр. 268-306)

        Статистической гипотезой называется любое предположение о свойствах распределения вероятностей, лежащего в основе наблюдаемых явлений. Гипотезы обозначают латинскими буквами H0, H1, H2, . . ., Hк. Гипотеза H0 называется основной. Ей противопоставляются гипотезы, которые называются альтернативными.

        Вероятность отвергнуть гипотезу H0, если она верна ( то есть принять гипотезу H1 ), называется ошибкой первого рода или уровнем значимости и обозначается a

        P( H1 / H0 ) = a

        Величина 1 – a равна вероятности принять верную гипотезу и называется уровнем доверия

        P( H0 / H0 ) = 1 – a = γ

        Вероятность принять основную гипотезу, если она неверна, называется ошибкой второго рода и обозначается β P( H0 / H1 ) = β.

        Вероятность принять гипотезу H1, если она верна, называется мощностью критерия P( H1 / H1 ) = 1 – β.

         

        Рекомендованная литература:

      1. Рукосуев А. В., Балдин, К. В. Теория вероятностей и математическая статистика [Электронный ресурс] : учебник / К. В. Балдин, В. Н. Башлыков, А. В. Рукосуев. - 2-е изд. - М. : Дашков и К, 2010. - 473 с. 



      Заметили опечатку?

      Выделите текст и нажмите CTRL+ENTER.

      Поступить в МИЛ

        • captcha

        Поступить в МФЭИ

          • captcha

          Demo Demo