RSS    

   Математическая статистика - (лекции)

p>Уже сейчас существует достаточное количество разнообразных пакетов прикладных компьютерных программ для этих целей. Кроме того, создание программы для работы с некоторым оригинальным, не описанным в классике распределением не представляет серьезных трудностей для программиста “средней руки”. Приведем примеры нескольких распределений для дискретных СВ с описанием схемы событий и формулами вычисления вероятностей. Для удобства и наглядности будем полагать, что нам известна величинаp –вероятность того, что вошедший в магазин посетитель окажется покупателем и обозначая(1– p) = q.

    · Биномиальное распределение

Если X – число покупателей из общего числа n посетителей, то вероятность P(X= k) = ·pk·qn-k . · Отрицательное биномиальное распределение (распределение Паскаля) Пусть Y – число посетителей, достаточное для того, чтобы k из них оказались покупателями. Тогда вероятность того, что n–й посетитель окажется k–м покупателем составит P(Y=n) =·pk ·qn–k. · Геометрическое распределение

Если Y – число посетителей, достаточное для того, чтобы один из них оказался покупателем, то P(Y=1) = p ·qn–1.

    · Распределение Пуассона

Если ваш магазин посещают довольно часто, но при этом весьма редко делают покупки, то вероятностьk покупок в течение большого интервала времени, (например, – дня) составит P(Z=k) = lk ·Exp(-l) / k! , где l – особый показатель распределения, так называемый его параметр.

    Односторонние и двухсторонние значения вероятностей

Если нам известен закон распределения СВ (пусть –дискретной), то в этом случае очень часто приходится решать задачи, по крайней мере, трех стандартных типов:

· какова вероятность того, что случайная величина X окажется равной (или наоборот – не равной) некоторому значению, например – Xk ? · какова вероятность того, что случайная величина X окажется больше (или наоборот – меньше) некоторого значения, например – Xk ? · какова вероятность того, что случайная величина X окажется не меньше Xi и при этом не больше Xk ? Первую вероятность иногда называют "точечной", ее можно найти из закона распределения, но только для дискретной случайной величины. Разумеется, что вероятность равенства задана самим законом распределения, а вероятность неравенства составляет

    P(X#Xk) = 1 – P(X=Xk).

Вторую вероятность принято называть "односторонней". Вычислять ее также достаточно просто– как сумму вероятностей всех допустимых значений, равных и меньших Xk . Для примера "открытого" нами закона биномиального распределения при p=0. 5 и m=4 одностороння вероятность того, что X окажется менее 3 (т. е. 0, 1 или 2), составит точно 0. 0625+0. 25+0. 375=0. 6875. Вероятность третьего типа называют "двухсторонней" и вычисляют как сумму вероятностей значенийX внутри заданного интервала. Для предыдущего примера вероятность того, что X менее 4 и более 1 составит 0. 375+0. 25=0. 625. Односторонняя и двухсторонняя вероятности являются универсальными понятиями – они применимы как для дискретных, так и для непрерывных случайных величин.

    Моменты распределений дискретных случайных величин.

Итак, закон распределения вероятностей дискретной СВ несет в себе всю информацию о ней и большего желать не приходится.

Не будет лишним помнить, что этот закон (или просто – распределение случайной величины) можно задать тремя способами: · в виде формулы: например, для биномиального распределения при n=3 и p=0. 5 вероятность значения суммы S=2 составляет 0. 375; · в виде таблицы значений величины и соответствующих им вероятностей: · в виде диаграммы или, как ее иногда называют, гистограммы распределения: Таблица 2–1

    Сумма
    0
    1
    2
    3
    Вероятность
    0. 125
    0. 375
    0. 375
    0. 125
    Рис. 2–1 Гистограмма распределения

Необходимость рассматривать вопрос, поставленный в заглавии параграфа, не так уж и очевидна, поскольку непонятно, что же еще нам надо знать? Между тем, все достаточно просто. Пусть, для какого–то реального явления или процесса мы сделали допущение (выдвинули гипотезу), что соответствующая СВ принимает свои значения в соответствии с некоторой схемой событий. Рассчитать вероятности по принятой нами схеме– не проблема! Вопрос заключается в другом –как проверить свое допущение или, на языке статистики, оценить достоверность гипотезы?

По сути дела, кроме обычного наблюдения за этой СВ у нас нет иного способа выполнить такую проверку. И потом–в силу самой природы СВ мы не можем надеяться, что через достаточно небольшое число наблюдений их частоты превратятся в “теоретические” значения, в вероятности. Короче–результат наблюдения над случайной величиной тоже … случайная величина или, точнее, – множество случайных величин.

Так или примерно так рассуждали первые статистики–профессионалы. И у кого–то из них возникла простая идея: сжать информацию о результатах наблюдений до одного, единственного показателя!

Как правило, простые идеи оказываются предельно эффективными, поэтому способ оценки итогов наблюдений по одному, желательно “главному”, “центральному” показателю пережил все века становления прикладной статистики и по ходу дела обрастал как теоретическими обоснованиями, так и практическими приемами использования.

Вернемся к гистограмме рис. 2–1 и обратим внимание на два, бросающихся в глаза факта: · “наиболее вероятными” являются значения суммы S=1 и S=2 и эти же значения лежат “посредине” картинки; · вероятность того, что сумма окажется равной 0 или 1, точно такая же, как и вероятность 2 или 3, причем это значение вероятности составляет точно 50 %. Напрашивается простой вопрос – если СВ может принимать значения 0, 1, 2 или 3, то сколько в среднем составляет ее значение или, иначе – что мы ожидаем, наблюдая за этой величиной? Ответ на такой вопрос на языке математической статистики состоит в следующем. Если нам известен закон распределения, то, просуммировав произведения значений суммыS на соответствующие каждому значению вероятности, мы найдем математическое ожидание этой суммы как дискретной случайной величины – M(S) = S S i ·P(S i). {2–3} В рассматриваемом нами ранее примере биномиального распределения, при значении p=0. 5, математическое ожидание составит M(S) = 0·0. 125+1·0. 375+2·0. 375+3·0. 125= 1. 5 .

Обратим внимание на то, что математическое ожидание дискретной величины типа Int или Relсовсем не обязательно принадлежит к множеству допустимых ее значений. Что касается СВ типаNom или Ord, то для них понятие математического ожидания (по закону распределения), конечно же, не имеет смысла. Но так как с номинальной, так и с порядковой шкалой дискретных СВ приходится иметь дело довольно часто, то в этих случаях прикладная статистика предлагает особые, непараметрические методы. Продолжим исследование свойств математического ожидания и попробуем в условиях нашего примера вместоS рассматривать U= S – M(S). Такая замена СВ (ее часто называют центрированием) вполне корректна: по величинеU всегда можно однозначно определить S и наоборот.

Если теперь попробовать найти математическое ожидание новой (не обязательно дискретной) величиныM(U) , то оно окажется равным нулю, независимо от того считаем ли мы конкретный пример или рассматриваем такую замену в общем виде.

Мы обнаружили самое важное свойство математического ожидания –оно является “центром” распределения. Правда, речь идет вовсе не о делении оси допустимых значений самой СВ на две равные части. Поистине–первый показатель закона распределения “самый главный” или, на языке статистики, – центральный.

Итак, для СВ с числовым описанием математическое ожидание имеет достаточно простой смысл и легко вычисляется по законам распределения. Заметим также, что математическое ожидание–просто числовая величина (в общем случае не дискретная, а непрерывная) и никак нельзя считать ее случайной.

Другое дело, что эта величина зависит от внутренних параметров распределения (например, – значения вероятности р числа испытаний n биномиальном законе). Так для приведенных выше примеров дискретных распределений математическое ожидание составляет:

    Тип распределения
    Математическое ожидание
    Биномиальное
    n·p
    Распределение Паскаля
    k ·q / p
    Геометрическое распределение
    q / p
    Распределение Пуассона
    l

Возникает вопрос –так что же еще надо? Ответ на этот вопрос можно получить как из теории, так и из практики.

Один из разделов кибернетики –теория информации (курс “Основы теории информационных систем” у нас впереди) в качестве основного положения утверждает, что всякая свертка информации приводит к ее потере. Уже это обстоятельство не позволяет допустить использование только одного показателя распределения СВ– ее математического ожидания. Практика подтверждает это. Пусть мы построили (или использовали готовые) законы распределения двух случайных величинX и Y и получили следующие результаты: Таблица 2–2

    Значения
    1
    2
    3
    4
    P(X) %
    12
    38
    38
    12
    P(Y) %
    30
    20
    20
    30
    Рис. 2–2

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12


Новости


Быстрый поиск

Группа вКонтакте: новости

Пока нет

Новости в Twitter и Facebook

                   

Новости

© 2010.