Справочник от Автор24
Поделись лекцией за скидку на Автор24

Теория вероятностей и математическая статистика

  • 👀 566 просмотров
  • 📌 509 загрузок
Выбери формат для чтения
Статья: Теория вероятностей и математическая статистика
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Теория вероятностей и математическая статистика» pdf
MT1203: Теория вероятностей и математическая статистика В данном курсе основное внимание уделяется математическим методам статистического анализа социально-экономических явлений и процессов, а также специфике проведения владения комплексных исследований, принципам формирования и организации основных источников социально-экономической информации. Требования Курс не предусматривает специальных требований к началу изучения. Однако мы рекомендуем приступать к изучению материала после ознакомления с курсом MT1102 — «Математика». Польза Знания, полученные из этого курса, будут полезны при изучении предметов компьютерного цикла дисциплин. Цели и намерения Целями данного курса является: дать минимально-достаточные знания по данному разделу математики с тем, чтобы подготовить необходимый фундамент для дальнейшего усвоения студентами ряда прикладных задач специальных дисциплин; формирование у студентов научного математического мышления, умения применять математический аппарат для исследования экономических процессов; формирование у студентов навыков обработки статистических данных при исследовании экономических процессов; научить студентов использовать компьютерные программы для обработки статистических данных. Условия завершения и оценка Электронный экзамен. Для успешного завершения дисциплины с оценкой «удовлетворительно» необходимо верно выполнить все обязательные тестовые задания. с оценкой «хорошо» — 75% всех заданий дисциплины, включая верно выполненную обязательную часть; с оценкой «отлично» — 100% всех тестовых заданий. Результат с точки зрения государственного стандарта РФ Изучив курс, студент будет способен уметь: собирать и регистрировать статистическую информацию; проводить первичную обработку и контроль материалов наблюдения; рассчитывать вероятности событий, статистические показатели и формулировать основные выводы; записывать распределения и находить характеристики случайных величин; рассчитывать статистические оценки параметров распределения по выборочным данным и проверять метод статистических испытаний для решения отраслевых задач; знать: основы комбинаторики и теории вероятностей; основы теории случайных величин; статистические оценки параметров распределения по выборочным данным; методику моделирования случайных величин, метод статистических испытаний Используемые образовательные технологии Технология дистанционного обучения, технология объяснительно-иллюстративного обучения, технология развивающего обучения, технология проблемного обучения, технология информационного обучения, технология организации самостоятельной работы, технология развития критического мышления, технология постановки цели, технология концентрированного обучения. Рекомендованная литература 1. Теория вероятностей и математическая статистика: учебник [Электронный ресурс]; Региональный финансово-экономический инс-т. – Курск, 2010. – 85 с. 2. Теория вероятностей и математическая статистика: практикум [Электронный ресурс]; Региональный финансово-экономический инс-т. – Курск, 2011. – 69 с. 3. Сидняев Н.И. Теория вероятностей и математическая статистика. – М.: Издательство Юрайт, 2011. – 219 с. Общая трудоемкость в ЗЕТ или ЕТСS 96 часов Введение Введение Теория вероятностей — раздел высшей математики, изучающий закономерности массовых случайных явлений. Приведем несколько примеров случайных явлений. 1. Производится ряд испытаний заводских изделий определенного типа, например, реле, на длительность безотказной работы. Результат испытания от одного раза к другому не остается постоянным. Эти изменения обусловлены влиянием ряда малозначительных, трудноуловимых факторов таких, например, как микродефекты в металле; разные температурные условия; разные условия хранения и транспортировки изделий; отклонения напряжения от номинала и т.д. 2. Самолет совершает полет на заданной высоте; теоретически он летит горизонтально, равномерно и прямолинейно. Фактически полет сопровождается отклонениями центра массы самолета от теоретической траектории и колебаниями самолета около центра массы. Эти отклонения и колебания являются случайными и связаны с турбулентностью атмосферы; от одного раза к другому они не повторяются. 3. Рассматривается непрерывная работа ЭВМ между двумя очередными сбоями в решении задачи. Все контролируемые условия работы ЭВМ: температура, влажность, напряжение питания, характер решаемой задачи — остаются неизменными. Повторяя такой опыт несколько раз, мы убеждаемся, что время работы ЭВМ между двумя очередными сбоями будет разным (случайным). Это объясняется тем, что различные элементы ЭВМ подвергаются незначительным, неконтролируемым изменениям. Все приведенные примеры рассмотрены здесь под одним и тем же углом зрения: подчеркнуты случайные вариации, неодинаковые результаты ряда опытов, основные условия которых остаются неизменными. Эти вариации всегда связаны с наличием каких-то второстепенных факторов, влияющих на исход опыта, но не заданных в числе его основных условий. Основные условия опыта, определяющие в общих и грубых чертах его протекание, сохраняются неизменными; второстепенные — меняются от опыта к опыту и вносят случайные различия в их результаты. Совершенно очевидно, что в природе нет ни одного физического явления, в котором не присутствовали бы в той или иной мере элементы случайности. Как бы точно и подробно ни были фиксированы условия опыта, невозможно достигнуть того, чтобы при повторении опыта результаты полностью и в точности совпадали. Случайные отклонения неизбежно сопутствуют любому закономерному явлению. Тем не менее в ряде практических задач этими случайными элементами можно пренебречь, рассматривая вместо реального явления его упрощенную схему, «модель», и предполагая, что в данных условиях опыта явление протекает вполне определенным образом. При этом из бесчисленного множества факторов, влияющих на данное явление, выделяются самые главные, решающие; влиянием остальных, второстепенных факторов просто пренебрегают. Такая схема изучения явлений постоянно применяется в физике, механике, технике. При использовании этой схемы для решения любой задачи прежде всего выделяется основной круг учитываемых условий и выясняется, на какие параметры задачи они влияют; затем применяется тот или иной математический аппарат (например, составляются и интегрируются дифференциальные уравнения, описывающие явление); таким образом выявляется основная закономерность, свойственная данному явлению и дающая возможность предсказать результат опыта по его заданным условиям. По мере развития науки число учитываемых факторов становится все больше; явление исследуется подробнее; научный прогноз становится точнее. Однако для решения ряда вопросов описанная схема – классическая схема так называемых «точных наук» – оказывается плохо приспособленной. Существуют такие задачи, где интересующий нас исход опыта зависит от столь большого числа факторов, что практически невозможно зарегистрировать и учесть все эти факторы. Это задачи, в которых многочисленные второстепенные, тесно переплетающиеся между собой случайные факторы играют заметную роль, а вместе с тем число их так велико и влияние столь сложно, что применение классических методов исследования себя не оправдывает. Рассмотрим следующий пример. Некоторое техническое устройство, например система автоматического управления, решает определенную задачу в условиях, когда на систему непрерывно воздействуют случайные помехи. Наличие помех приводит к тому, что система решает задачу с некоторой ошибкой, в ряде случаев выходящей за пределы допустимой. Возникают вопросы: как часто будут появляться такие ошибки? Какие следует принять меры для того, чтобы практически исключить их возможность? Чтобы ответить на такие вопросы, необходимо исследовать природу и структуру случайных возмущений, воздействующих на систему, изучить реакцию системы на такие возмущения, выяснить влияние конструктивных параметров системы на вид этой реакции. Все подобные задачи, число которых в физике и технике чрезвычайно велико, требуют изучения не только основных, главных закономерностей, определяющих явление в общих чертах, но и анализа случайных возмущений и искажений, связанных с наличием второстепенных факторов и придающих исходу опыта при заданных условиях элемент неопределенности. Какие же существуют пути и методы для исследования случайных явлений? С теоретической точки зрения те факторы, которые мы условно назвали «случайными», в принципе ничем не отличаются от других, которые мы выделили в качестве «основных». Теоретически можно неограниченно повышать точность решения каждой задачи, учитывая все новые и новые группы факторов: от самых существенных до самых ничтожных. Однако практически такая попытка одинаково подробно и тщательно проанализировать влияние решительно всех факторов, от которых зависит явление, привела бы только к тому, что решение задачи, в силу непомерной громоздкости и сложности, оказалось бы практически неосуществимым и к тому же не имело бы никакой познавательной ценности. Очевидно, должна существовать принципиальная разница в методах учета основных, решающих факторов, определяющих в главных чертах течение явления, и вторичных, второстепенных факторов, влияющих на течение явления в качестве «погрешностей» или «возмущений». Элемент неопределенности, сложности, многопричинности, присущий случайным явлениям, требует создания специальных методов для изучения этих явлений. Такие методы и разрабатываются в теории вероятностей. Ее предметом являются специфические закономерности, наблюдаемые в случайных явлениях. Практика показывает, что, наблюдая в совокупности массы однородных случайных явлений, мы обычно обнаруживаем в них вполне определенные закономерности, своего рода устойчивости, свойственные именно массовым случайным явлениям. Например, если много раз подряд бросать монету, частота появления герба (отношение числа появившихся гербов к общему числу бросаний) постепенно стабилизируется, 1 приближаясь к вполне определенному числу, а именно к 2 . Такое же свойство «устойчивости частот» обнаруживается и при многократном повторении любого другого опыта, исход которого представляется заранее не определенным, случайным. Отметим, что именно массовость случайных явлений обеспечивает выполнение этой закономерности. Методы теории вероятностей не отменяют и не упраздняют случайности, непредсказуемости исхода отдельного опыта, дают возможность предсказать, с какимто приближением, средний суммарный результат массы однородных случайных явлений. Цель вероятностных методов в том, чтобы, минуя слишком сложное (и зачастую практически невозможное) исследование отдельного случайного явления, обратиться непосредственно к законам, управляющим массами таких явлений. Изучение этих законов позволяет не только осуществлять прогноз в области случайных явлений, но и целенаправленно влиять на ход этих явлений, контролировать их, ограничивать сферу действия случайности, сужать ее влияние на практику. В настоящее время нет практически ни одной области науки, в которой в той или иной степени не применялись бы вероятностные методы. В одних науках, в силу специфики предмета и исторических условий, эти методы находят применение раньше, в других – позднее. Исторически первые зачатки вероятностных методов с довольно примитивным математическим аппаратом возникли в XVII в. при разработке теории азартных игр с целью дать рекомендации игрокам. Затем эти методы стали применяться в практике страховых компаний для установления разумных размеров страховых премий. Постепенно область применения вероятностных методов расширялась. Сегодня эти методы распространяются все шире и шире. Целые разделы современной физики (в частности, ядерная физика) базируются на математическом аппарате теории вероятностей. Широко применяются вероятностные методы в современных электронике, радиотехнике, теории связи, теории автоматического регулирования, кибернетике, вычислительной технике, теории автоматизированных систем управления. Это и естественно, так как работа современных радиотехнических, электронных систем протекает в условиях случайных воздействий, без учета которых невозможны разумное проектирование подобных систем, выбор их конструктивных параметров. Любая процедура управления чем бы то ни было (техническим устройством, группой устройств, человеко-машинным комплексом) протекает в заранее не известных, случайных условиях, неизбежно сопровождается случайными ошибками измерения тех или других параметров, ошибками выполнения команд и т. д.; анализ работы такой системы практически невозможен без учета случайных факторов. Знакомство с методами теории вероятностей и математической статистики необходимо сегодня каждому грамотному инженеру. И не только инженеру. Биология, физиология, медицина, социология все шире применяют вероятностные методы. Не чуждаются их и такие «исконно гуманитарные» науки, как психология, лингвистика, литературоведение, даже эстетика. Случайные события Случайные события Любая современная математическая дисциплина основывается на некоторых исходных понятиях (аксиомах). В теории вероятноестей такой аксиоматический подход был введен сравнительно недавно (в 30-х гг.) А.Н. Колмогоровым. В этой и следующих главах будет показано, что основные понятия и аксиомы теории вероятностей представляют собой математические отражения понятий, хорошо известных любому человеку, наблюдающему опыты со случйными исходами. одним из таких понятий является пространство элементарных исходов, введение которого позволяет при решении конкретных практических задач оперировать общим для современной математики аппаратом теории множеств. Пространство элементарных исходов События Операции над событиями Свойства операций над событиями Решение типовых примеров Проверка знаний: события Пространство элементарных исходов Пространство элементарных исходов Определение Элементарным исходом (или элементарным событием) называют любой простейший (т.е. неделимый в рамках данного опыта) исход опыта. Множество всех элементарных исходов будем называть пространтсвом элементарных исходов. Другими словами, множество исходов опыта образует пространство элементарных исходов, если выполнены следующие требования: в результате опыта один из исходов обязательно происходит; появление одного из исходов опыта исключает появление остальных; в рамках данного опыта нельзя разделить элементарный исход на более мелкие составляющие. В дальнейшем пространство элементарных исходов будем обозначать прописной буквой Ω , а сами элементарные исходы — строчной буквой ω, снабженной, при необходимости, индексами. То, что элемент ω принадлежит Ω , записывают в виде ω ∈ Ω , а тот факт, что множество Ω состоит из элементов ω 1 , ω 2 , … , ω n , … , и только из них, записывают в виде Ω = {ω 1 , ω 2 , … , ω n , …} или в виде Ω = {ω i , i = 1, 2, … , n, …}. В частности, Ω может содержать конечное число элементарных исходов. Примеры Пример 1 Пусть опыт состоит в однократном подбрасывании монеты. При математическом описании этого опыта естественно отвлечься от несущественных возможностей (например, монета встанет на ребро) и ограничиться только двумя элементарными исходами: выпадением «герба» (можно обозначить этот исход как w1 ) и выпаденим «цифры» (w2 ). Таким образом, Ω = {w1 , w2 }. При двукратном подбрасывании монеты (или однократном подбрасывании двух монет) пространство элементарных исходов будет содержать четыре элемента, т.е. Ω = {w11 , w12 , w21 , w22 }, где, например, w12 — появление «герба» при первом броске и появление «цифры» при втором. Пример 2 При однократном бросании игральной кости возможен любой из 6 элементарных исходов w1 , w2 , … , w6, где wi , i грани кости, т.е. , означает появление i очков на верхней ¯ ¯¯¯¯¯¯ = 1, 6 ¯ ¯¯¯¯¯¯ Ω = {wi , i = 1, 6}. При двукратном бросании игральной кости, каждый из шести возможных исходов, при первом бросании может сочетаться с каждым из шести исходов второго бросания, т.е. ¯ ¯¯¯¯¯¯ Ω = {wij , i, j = 1, 6}, где, wij — исход опыта, при котором сначала выпало i,а затем j очков. Нетрудно посчитать, что пространство элементарных исходов Ω содержит 36 элементарных исходов. События События Введем понятие случайного события. Поскольку в дальнейшем будем рассматривать только случайные события, то, начиная с этого момента, будем называть их просто событиями. Определение Любой набор элементарных исходов, или, другими словами, произвольное подмножество пространства элементарных исходов, называют событием, т.е. событие — совокупность элементарных исходов. Элементарные исходы, которые являются элементами рассматриваемого события, называют элементарными исходами, благоприятствующими данному событию. События будем обозначать прописными латинскими буквами, с индексами при необходимости, например: A, B, C2 , D3 и другие. Говорят, что событие A произошло, если в результате опыта появился какой-либо из элементарных исходов ω ∈ A . Замечание Обычно, термин «событие» как подмножество пространства элементрных исходов Ω отождествляют с термином, «событие произошло в результате опыта» или «событие заключается в появлении таких-то элементарных исходов». Так на примере игральной кости, где Ω подмножество {w1 , w2 , w6 }. ¯ ¯¯¯¯¯¯ = {wi , i = 1, 6 } , событием A может быть Пример В примере с игральной костью было показано, что при однократном бросании игральной кости элементарный исход — выпадении i очков. Тогда можно рассмотреть следующие события: A — выпадение четного числа очков; B — выпадение нечетного числа очков; C — выпадение четверки. Очевидно, что A = {w2 , w4 , w6 }, B = {w1 , w3 , w5 } иC = {w4 }. Определение Событие, сотоящее из всех элементарных исходов, т.е. событие, которое обязательно происходит в данном опыте, называют достоверным событием, которое будем обозначать, как и пространство элементарных исходов, буквой Ω . Определение Событие, не содержащее ни одного элементарного исхода, т.е. событие, которое никогда не происходит в данном опыте, называют невозможным событием, которое будем обозначать символом ∅ . Пример При бросании игральной кости достоверное событие можно описать как выпадение хотя бы 1 очка, а невозможное — выпадение 8 очков. Операции над событиями Операции над событиями Часто бывает полезно наглядно представить события в виде диаграммы Эйлера — Венна. Изобразим все пространство элементарных исходов прямоугольником (рис. 1). При этом, каждый элементарный исход ω соответствует точке внутри прямоугольника, а каждое событие A — некоторому множеству точек, этого прямоугольника. Рассмотрим теперь операции над событиями, которые совпадают с операциями над множествами. Рис. 1. Изображение диаграммы Эйлера-Венна Определение Пересечением (произведением) двух событий A и B называют событие, обозначаемое A ∩ B или AB , происходящее тогда и только тогда, когда одновременно происходят оба события A и B , т.е. событие, состоящее из тех и только тех элементарных исходов, которые принадлежат и событию A , и событию B . События A и B называются несовместными, или непересекающимися, если их пересечение является невозможным событием, т.е. если A ∩ B = ∅. В противном случае события называют совместными, или пересекающимися. Определение Объединением (суммой) двух событий A и B называют событие, обозначаемое A ∪ B, происходящее тогда и только тогда, когда происходит хотя бы одно из событий A или B , т.е. событие состоит из элементарных исходов, которые принадлежат хотя бы одному из множеств A или B . Если события A и B несовместимы, то для обозначения могут использововать символ «+ ». Например, поскольку невозможное событие ∅ несовместно с любым событием A , то ∅ ∪ A = ∅ + A = A. Аналогично определяют понятия произведения и суммы событий для любого конечного числа событий и даже для бесконечных последовательностей событий. Так, событие n A1 A2 … An = ⋂ Ai i=1 состоит из элементарных исходов, принадлежащих всем событиям Ai , i событие ,а ¯ ¯¯ ¯¯ ¯¯ ¯ = 1, n n A1 ∪ A2 ∪ … ∪ An = ⋃ Ai i=1 состоит из элементарных исходов, принадлежащих хотя бы одному из событий . ¯ ¯¯ ¯¯ ¯¯ ¯ Ai , i = 1, n В частности, события A1 , A2 , … , An называют попарно несовместными, если Ai Aj = ∅ для любых i, j ¯ ¯¯ ¯¯ ¯¯ ¯ , и несовместными в совокупности, если = 1, n , i ≠ j A1 A2 … An = ∅. Определение Разностью двух событий A и B называют событие, обозначаемое A ∖ B, происходящее тогда и только тогда, когда происходит событие A и не происходит событие B , т.е. состоит из тех элементарных исходов, которые принадлежат событию A и не принадлежат событию B Определение Дополнением события A называют новое событие, обозначаемое A , происходящее ¯ ¯ ¯¯ тогда и только тогда, когда не происходит событие A . Так событие A можно записать в виде: ¯ ¯ ¯¯ ¯ ¯ ¯¯ A = Ω ∖ A. ¯ ¯ ¯¯ Событие A называют событием, противоположным событию A . ¯ ¯ ¯¯ Определение Событие A включено в событие B , если появление за собой события A обязательно влечет за собой наступление события B , или каждый элементарный исход события A принадлежит и событию B . Приоритеты операций Если некоторое событие записано в виде нескольких операций над различными событиями, то сначала выполняется операция дополнения, затем умножения, и, наконец, сложение и вычитание (слева направо). Скобки могут увеличить приоритет любой из операций. Пример Рассмотрим устройство из n элементов. Элементы соединены последовательно, если устройство прекращает функционировать при отказе любого из элементов, и соединены параллельно, если прекращение функционирования наступает только при отказе n элементов (рис. 1а, 1б соответственно). Рис 1. Последовательное и параллельное соединения Обозначим A событие, означающее отказ системы, а Ai — отказ i-го элемента ( ). Тогда для последовательного соединения событие A представимо в виде: ¯ ¯¯ ¯¯ ¯¯ ¯ i = 1, n A = A1 ∪ A2 ∪ … An , а для параллельного соединения A = A1 ∩ A2 ∩ … An . Очевидно, что при параллельном соединении элементов событие A включено в каждое из событий Ai , i ¯ ¯¯ ¯¯ ¯¯ ¯ Ai , i = 1, n , а при последовательном соединении любое событие ¯ ¯¯ ¯¯ ¯¯ ¯ = 1, n включено в событие A . Свойства операций над событиями Свойства операций над событиями Приведем основные свойства операций над событиями, которые напоминают свойства операций над множествами. Справедливость этих свойств легко проверить с помощью диаграмм Эйлера — Венна. 1. Коммутативность суммы и произведения A ∪ B = B ∪ A, AB = BA. 2. Ассоциативность суммы и произведения (A ∪ B) ∪ C = A ∪ (B ∪ C ), (AB)C = A(BC ). 3. Дистрибутивность относительно сложения (A ∪ B)C = AC ∪ BC . 4. Дистрибутивность относительно умножения (не выполняется для чисел) AB ∪ C = (A ∪ C )(B ∪ C ). 5. Включение A в B влечет за собой включение B в A . ¯ ¯ ¯¯ ¯ ¯ ¯¯ 6. Закон двойного дополнения ¯ ¯¯ ¯ ¯ ¯ ¯¯ A = A 7. Закон идемпотентности A ∪ A = AA = A. 8. Законы де Моргана ¯ ¯¯¯¯ ¯¯¯ ¯¯¯¯ ¯ ¯ ¯ ¯¯ ¯ ¯ ¯¯ A ∪ B = A B, ¯ ¯¯ ¯ ¯¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ ¯¯ AB = A ∪ B . Законы де Моргана верны для любого конечного числа событий: ¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯¯ ¯¯¯¯ A1 ∪ A2 ∪ … ∪ An = A1 A2 … An ¯ ¯¯¯¯¯ ¯¯¯¯¯ ¯¯¯¯ ¯¯¯¯¯ ¯¯¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯¯ ¯¯¯¯ A1 A2 … An = A1 ∪ A2 ∪ … ∪ An Решение типовых примеров Решение типовых примеров Пример 1 Опыт состоит в однократном бросании игральной кости. Опишем пространство элементарных исходов Ω и укажем состав подмножеств, соответствующих следующим событиям: 1. A — число очков, выпавших на верхней грани игральной кости, кратно четырем; 2. B — на верхней грани игральной кости выпало четное число очков; 3. C — число очков, выпавших на верхней грани меньше четырех; 4. D — число очков, выпавших на верхней грани меньше или равно 6; Установим пары совместных событий. Решение Пространство элементарных исходов в данном опыте имеет вид Ω = {ω 1 , ω 2 , ω 3 , ω 4 , ω 5 , ω 6 }, где ω i — выпадение на верхней грани игральной кости i очков. 1. Событие A происходит тогда и только тогда, когда выпадает 4, т.е. A . = {ω 4 } 2. Событие B происходит тогда и только тогда, когда выпадает 2, 4, 6 очков, т.е. B = {ω 2 , ω 4 , ω 6 }. Аналогично получаем следующие выражения для описанных событий. 3. C = {ω 1 , ω 2 , ω 3 } . 4. D = {ω 1 , ω 2 , ω 3 , ω 4 , ω 5 , ω 6 } = Ω . Сопоставляя попарно события и проверяя наличие общих элементов, находим пары совместных событий: A и B , A и D, B и C , B и D, C и D. Пример 2 Игральную кость бросают один раз. События A , B , C , D определены в примере 1. Опишем следющие события: 1. E = C ; 2. F = AB 3. G = B ∪ C 4. H = DB ∖ A ¯ ¯ ¯¯ ; ; ; Решение 1. Событие противоположное событию C является выпадение числа очков большее или равное 4, т.е. E = {ω 4, ω 5, ω 6}. Аналогично получаем следующие выражения для описанных событий. 2. F = {ω 4 } ; 3. G = {ω 1 , ω 2 , ω 3 , ω 4 , ω 6 } 4. H = {ω 2 , ω 4 } ; ; Пример 3 Из множества всех студентов наугад выбирают двух студентов: парня и девушку. Событие A — парню больше 21 года, событие B — девушка старше парня, событие C — девушка замужем. Выясним смысл следующих событий: 1. ABC ; 2. A ∖ BC ; 3. BC . ¯ ¯ ¯¯ Решение 1. ABC — Пара, где девушка старше парня и замужем и парню больше 21 года. 2. A ∖ BC — пара, где парень старше 21, причем не младше девушки, и девушка не замужем. 3. BC — пара, где девушка старше парня и не замужем. ¯ ¯ ¯¯ Пример 4 Схема устройства электрической цепи приведена на рисунке 1. Выход из строя элемента i — событие Ai , i = 1, 4. Запишем выражение события разрыва цепи. ¯ ¯¯¯¯¯¯ Решение Рис. 1 Схема устройства Обозначим разрыв цепи в качестве события A . Разрыв цепи произойдет, если выйдут из строя элементы 1 и 2 или 3 и 4, т.е. произойдут события A1 A2 или A3 A4 . Поэтому A = A1 A2 ∪ A3 A4 . Проверка знаний: события Проверка знаний: события Задание 1 Что понимают под пространством элементарных исходов? любой простейший (т.е. неделимый в рамках данного опыта) исход опыта совокупность элементарных исходов множество всех элементарных исходов Задание 2 Случайным образом выбирают одну из 28 костей домино. Перечислите все элементарные исходы, из которых состоят следующие события: 1. A — произведение числа очков на кости нечетно. {(1, 1), (1, 5), (6, 6), (3, 3), (3, 5), (1, 3)} {(0, 0), (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)} {(1, 5), (3, 3)} {(0, 3), (0, 6), (1, 2), (1, 5), (2, 4), (3, 3), (3, 6), (4, 5), (6, 6)} {(1, 1), (1, 3), (3, 5), (5, 5)} {(1, 1), (1, 3), (1, 5), (3, 3), (3, 5), (5, 5)} 2. B — сумма очков на кости кратно 3. {(0, 0), (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)} {(1, 1), (1, 3), (1, 5), (3, 3), (3, 5), (5, 5)} {(1, 1), (1, 3), (3, 5), (5, 5)} {(0, 3), (0, 6), (1, 2), (1, 5), (2, 4), (3, 3), (3, 6), (4, 5), (6, 6)} {(1, 5), (3, 3)} {(1, 1), (1, 5), (6, 6), (3, 3), (3, 5), (1, 3)} 3. A ∖ B. {(1, 1), (1, 3), (3, 5), (5, 5)} {(1, 1), (1, 5), (6, 6), (3, 3), (3, 5), (1, 3)} {(0, 0), (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)} {(1, 1), (1, 3), (1, 5), (3, 3), (3, 5), (5, 5)} {(0, 3), (0, 6), (1, 2), (1, 5), (2, 4), (3, 3), (3, 6), (4, 5), (6, 6)} {(1, 5), (3, 3)} 4. AB {(0, 0), (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)} {(1, 1), (1, 5), (6, 6), (3, 3), (3, 5), (1, 3)} {(1, 1), (1, 3), (1, 5), (3, 3), (3, 5), (5, 5)} {(1, 5), (3, 3)} {(1, 1), (1, 3), (3, 5), (5, 5)} {(0, 3), (0, 6), (1, 2), (1, 5), (2, 4), (3, 3), (3, 6), (4, 5), (6, 6)} Задание 3 По мишени производят три выстрела. Пусть событие Ai , i = 1, 2, 3 — попадание при i-м выстреле. Представьте в виде объединения и пересечения событий Ai или ¯¯¯¯¯ Ai следующие события: 1. A — все выстрелы попали в мишень. ¯ ¯¯ ¯¯¯ A1 ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ A1 A2 A1 A1 ∪ A2 ∪ A3 A1 A2 A3 ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ A1 ∪ A2 ∪ A3 2. B — попадание в мишень не раньше, чем при втором выстреле. ¯ ¯¯ ¯¯¯ A1 ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ A1 ∪ A2 ∪ A3 ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ A1 A2 A1 A1 A2 A3 A1 ∪ A2 ∪ A3 3. C — хотя бы один выстрел не попал в мишень. ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ A1 A2 A1 ¯ ¯¯ ¯¯¯ A1 ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ ¯ ¯¯ ¯¯¯ A1 ∪ A2 ∪ A3 A1 ∪ A2 ∪ A3 A1 A2 A3 Задание 4 Случайным образом бросают 2 игральных кости. Перечислите все элементарные исходы из которых, состоят следующие события: 1. A — сумма очков двух костей равна 7. A = {(1, 6), (2, 4), (3, 4)} A = {(1, 6), (2, 4), (3, 4), (3, 3), (5, 4), (6, 1)} A = {(1, 6), (3, 4), (5, 2), (2, 5), (4, 3), (6, 1)} 2. B — очки на костях совпадают. B = {(1, 3), (2, 2), (3, 4), (3, 1), (4, 3), (2, 1)} B = {(6, 6), (2, 2), (1, 1), (4, 4), (5, 5), (3, 3)} B = {(6, 6), (2, 2), (1, 1), (5, 5), (3, 3)} 3. C — на второй кости выпало больше или равно очков, чем на первой, но меньше или равно 3. C = {(1, 1), (1, 2), (3, 3), (3, 2), (2, 2), (3, 1)} C = {(1, 3), (2, 2), (3, 4), (3, 1), (4, 3), (2, 1)} C = {(2, 2), (1, 2), (1, 1), (1, 3), (3, 3), (2, 3)} 4. D = B ∖ C D = {(6, 6), (2, 2), (1, 1), (5, 5), (3, 3)} D = {(1, 3), (3, 4), (3, 1), (4, 3), (2, 1)} D = {(6, 6), (4, 4), (5, 5)} Задание 5 Какие операции над событиями Вы знаете? Совместность Произведение Достоверность Противоположность Объединение Разность Вероятность Вероятность Говоря о событиях, мы с различной степенью уверенности относимся к возможности их наступления. Так, с большей уверенностью можно утверждать, что при однократном подбрасывании монеты выпадет «герб», чем при однократном бросании игральной кости — 6 очков. Говорят, что первое событие более вероятно, чем второе. Что же такое вероятность события? Возникает мысль поставить каждому событию A в соответствие некоторое число P (A) , которое характеризует меру возможности появления этого события. Если принять, что P (Ω) = 1 и P (∅) = 0, то естественно ожидать, что для любого события A выполняется условие 0 ≤ P (A) ≤ 1 . Определение вероятности как меры возможности появления события в современной математике вводится на основании аксиом. Но, прежде чем перейти к аксиоматическому определению, остановимся на нескольких других определениях, которые исторически возникли раньше. Они, с одной стороны, позволяют лучше понять смысл аксиоматического определения, а с другой — во многих случаях являются рабочим инструментом для решения практических задач. Приведем их, следуя хронологическому порядку появления. Классическое определение Вычисление вероятностей с помощью формул комбинаторики Ограниченность классического определения вероятности. Статистическое определение вероятности Геометрическое определение вероятности Аксиоматическое определение вероятности Свойства вероятности Решение типовых примеров Проверка знаний: вероятность Классическое определение Классическое определение В классическом определении вероятности исходят из того, что пространство элементарных исходов Ω содержит конечное число элементарных исходов, причем все они равновозможны. Понятие равновозможности поясним следующим образом. Элементарные исходы в некотором опыте называют равновозможными, если в силу условий проведения опыта можно считать, что ни один из них не является объективно более возможным, чем другие. Опыт, удовлетворяющий условию равновозможности элементарных исходов, часто называют также классической схемой. Пусть N — общее число равновозможных элементарных исходов в Ω , a NA — число элементарных исходов, образующих событие A (или, как говорят, благоприятствующих событию A ). Определение Вероятностью события A называют отношение числа NA благоприятствующих событию A элементарных исходов к общему числу N равновозможных элементарных исходов, т.е. P (A) = NA . N Данное определение вероятности события принято называть классическим определением вероятности. Заметим, что наряду с названием «классическая схема» используют также названия «случайный выбор», «равновероятный выбор» и т.д. Пример Из урны, содержащей n = 5 белых и m = 10 черных шаров (шары отличаются лишь цветом), наугад вынимают один шар. Требуется найти вероятность P (A) события А , заключающегося в том, что из урны извлечен белый шар. Для решения поставленной задачи заметим, что число элементарных исходов в данном опыте совпадает с общим числом шаров в урне N = 5 + 10 = 15, причем все исходы равновозможны, а число благоприятствующих событию A исходов NA = n = 5. Поэтому, по определению: 5 P (A) = 1 = 15 . 3 Свойства 1. Для любого события A вероятность удовлетворяет равенству P (A) ≥ 0. 2. Вероятность достоверного события Ω , которое содержит все N элементарных исходов равна 1. P (Ω) = 1. 3. Если события A и B несовместны, то P (A + B) = P (A) + P (B). 4. Вероятность невозможного события равна 0. 5. Для любого события A , вероятность противоположного события вычисляется по формуле ¯ ¯ ¯¯ P (A) = 1 − P (A) Недостаток классического определения заключается в том, что оно применимо только к пространствам элементарных исходов, состоящим из конечного числа равновозможных исходов. Этим определением нельзя воспользоваться даже в тех случаях, когда пространство элементарных исходов конечно, но среди исходов есть более предпочтительные или менее предпочтительные. Вычисление вероятностей с помощью Вычисление вероятностей с помощью формул комбинаторики При решении задач, заключающихся в определении вероятности, наибольшую трудность представляет подсчет общего числа элементарных исходов, благоприятствующих данному событию. В этом случае полезно обратиться к формулам комбинаторики. Правило произведения Если объект A можно выбрать из совокупности объектов n способами и после каждого такого выбора объект B можно выбрать m способами, то упорядоченная пара объектов (A, B) может быть выбрана nm способами. Это выражение называют основной формулой комбинаторики. Правило суммы Если некоторый объект A может быть выбран из совокупности объектов n способами, а другой объект B может быть выбран m способами, то выбрать либо A , либо B можно n + m способами. Определения Выборку, в которой не учитывают порядок выбора элементов, называют сочетанием, а выборку, в которой учитывают порядок выбора элементов, — размещением. При этом если рассматривают выборку с возвращением, то сочетание (размещение) называют сочетанием (размещением) с повторениями, а если рассматривают выборку без возвращения, то сочетание (размещение) называют сочетанием (размещением) без повторений, или просто сочетанием (размещением). Размещение без повторений из n элементов по n элементов называют перестановкой из n элементов. Обозначения и вычисление Обозначения и вычисление Размещение из n элементов по k , где k формуле , обозначается Akn и вычисляется по ≤ n n! k An = где n! = 1 ⋅ 2 ⋅ 3 ⋅ … ⋅ n , (n − k)! и читается как n−факториал. По определению 0! Сочетанием из n элементов по k , где k формуле = 1 . , обозначается Cnk и вычисляется по ≤ n n! k Cn = (n − k)!k! Перестановка из n элементов обозначается Pn и вычисляется по формуле Pn = n! Примеры 1. Из шести карточек, образующих слово «МАСТЕР», наудачу выбирают три и выкладывают слева направо. Найдем вероятность P (A) того, что в результате получится слово «МАТ». Элементарным исходом в данном опыте является любая тройка карточек с учетом порядка их выбора, т.е. размещение из n = 6 элементов по k = 3 элементов. Поэтому число этих исходов равно числу размещений из шести элементов по три элемента, т.е. N = A 3 6 6! = = 4 ⋅ 5 ⋅ 6 = 120. 3! Очевидно, что число исходов, благоприятствующих событию A , NA = 1. Следовательно, P (A) = NA N 1 = . 120 2. К Новому году четырем детям были приготовлены подарки. Дед Мороз перепутал подарки и вручил их детям случайным образом. Найдем вероятность Р(A) того, что каждый ребенок получил свой подарок. В данном случае число элементарных исходов равно числу перестановок из n элементов, т.е. = 4 N = P4 = 1 ⋅ 2 ⋅ 3 ⋅ 4 = 24. Поскольку число благоприятствующих событию А исходов NA P (A) = NA = 1 , то 1 = N . 24 3. В партии из 10 деталей 7 стандартных. Найти вероятность того, что среди шести взятых наудачу деталей четыре стандартных. Общее число возможных элементарных исходов испытания равно числу способов, которыми можно извлечь 6 деталей из 10, т.е. числу сочетаний из 10 элементов по 6 элементов C10 6 . Определим число исходов, благоприятствующих интересующему нас событию A (среди шести взятых деталей - 4 стандартных). Четыре стандартные детали можно взять из семи стандартных деталей C74 способами; при этом остальные 6 − 4 = 2 детали должны быть нестандартными; взять же 2 нестандартные детали из 2 10 − 7 = 3 нестандартных деталей можно C способами. Следовательно, число 3 благоприятствующих исходов, по правилу произведения, равно C74 ⋅ C 2 3 . Искомая вероятность равна отношению числа исходов, благоприятствующих событию, к числу всех элементарных C P (A) = 4 7 ⋅ C 2 3 C 6 10 = 7! 3! 4!3! 2!1! 10! 105 = 1 = 210 6!4! Ограниченность классического . 2 Ограниченность классического определения вероятности. Статистическое определение вероятности Классическое определение вероятности предполагает, что число элементарных исходов испытания конечно. На практике же весьма часто встречаются испытания, число возможных исходов которых бесконечно. В таких случаях классическое определение неприменимо. Уже это обстоятельство указывает на ограниченность классического определения. Отмеченный недостаток может быть преодолен, в частности, введением геометрических вероятностей и, конечно, использованием аксиоматической вероятности. Наиболее слабая сторона классического определения состоит в том, что очень часто невозможно представить результат испытания в виде совокупности элементарных событий. Еще труднее указать основания, позволяющие считать элементарные события равновозможными. Обычно о равновозможности элементарных исходов испытания говорят из соображений симметрии. Так, например, предполагают, что игральная кость имеет форму правильного многогранника (куба) и изготовлена из однородного материала. Однако задачи, в которых можно исходить из соображений симметрии, на практике встречаются весьма редко. По этой причине наряду с классическим определением вероятности используют и другие определения, в частности статистическое определение: в качестве статистической вероятности события принимают относительную частоту или число, близкое к ней. Например, если в результате достаточно большого числа испытаний оказалось, что относительная частота весьма близка к числу 0.4, то это число можно принять за статистическую вероятность события. Легко проверить, что свойства вероятности, вытекающие из классического определения, сохраняются и при статистическом определении вероятности. Действительно, если событие достоверно, то NA = N и относительная частота NA N N = = 1, N т. е. статистическая вероятность достоверного события (так же как и в случае классического определения) равна единице. Если событие невозможно, то NA = 0 N и, следовательно, относительная частота NA N = = 0, N т. е. статистическая вероятность невозможного события равна нулю. Для любого события A 0 ≤ NA ≤ N и, следовательно, относительная частота 0 ≤ NA ≤ 1, N т. е. статистическая вероятность любого события заключена между нулем и единицей. Для существования статистической вероятности события A требуется: возможность, хотя бы принципиально, производить неограниченное число испытаний, в каждом из которых событие A наступает или не наступает; устойчивость относительных частот появления A в различных сериях достаточно большого числа испытаний. Недостатком статистического определения является неоднозначность статистической вероятности; так, в приведенном примере в качестве вероятности события можно принять не только 0.4, но и 0.39 ; 0.41 и т. д. Геометрическое определение Геометрическое определение вероятности Геометрическое определение вероятности обобщает классическое на случай бесконечного множества элементарных исходов Ω тогда, когда Ω представляет собой 2 n подмножество пространства R (числовой прямой), R (плоскости), R (n-мерного евклидова пространства). В пространстве R в качестве подмножеств будем рассматривать лишь промежутки или их объединения, т.е. подмножества, которые имеют длину. В пространстве R2 — те подмножества, которые имеют площадь, и т.д. Под мерой μ(A) подмножества A будем понимать его длину, площадь или объем (обобщенный объем) в зависимости от того, какому пространству принадлежит Ω : в R , 2 3 n в R или в R (R ) . Будем также считать, что пространство элементарных исходов Ω имеет конечную меру, а вероятность попадания «случайно брошенной» точки в любое подмножество Ω пропорциональна мере этого подмножества и не зависит от его расположения и формы. В этом случае говорят, что рассматривается «геометрическая схема» или «точку наудачу бросают в область Ω ». Определение Вероятностью события A называют число P (A) , равное отношению меры множества A к мере множества Ω : μ(A) P (A) = , μ(Ω) где μ(A) — мера множества A . Данное определение вероятности события принято называть геометрическим определением вероятности. Замечание Приведенное определение геометрической вероятности с математической точки зрения не является корректным, поскольку в n−мерном пространстве существуют подмножества, не имеющие меры. Пример На отрезок OA длины L числовой оси Ox наудачу поставлена точка B(x) . Найти вероятность того, что меньший из отрезков OB и BA имеет длину, большую L/3. Предполагается, что вероятность попадания точки на отрезок пропорциональна длине отрезка и не зависит от его расположения на числовой оси. Решение Разобьем отрезок OA точками C и D на 3 равные части. Требование задачи будет выполнено, если точка B(x) попадет на отрезок C D длины L/3. Искомая вероятность P = (L/3)/L = 1/3 Пример На плоскости начерчены две окружности, радиусы которых 5 и 10 см соответственно. Найти вероятность того, что точка, брошенная наудачу в большой круг, попадет в кольцо, образованное построенными окружностями. Предполагается, что вероятность попадания точки в плоскую фигуру пропорциональна площади этой фигуры и не зависит от ее расположения относительно большого круга. Решение Площадь круга вычисляется по формуле: πr2 , где r — радиус окружности, тогда площадь кольца c равна 2 2 Sc = 10 π − 5 π = (100 − 25)π = 75π, а площадь большого круга C SC = π10 2 = 100π, Тогда искомая вероятность равна P = Sc SC = 0.75. Аксиоматическое определение Аксиоматическое определение вероятности Пусть каждому событию A (т.е. подмножеству A пространства элементарных исходов Ω ) поставлено в соответствие число P (A) . Числовую функцию P называют вероятностью (или вероятностной мерой), если она удовлетворяет следующим аксиомам: 1. Аксиома неотрицательности: P (A) 2. Аксиома нормированности: P (Ω) . ≥ 0 . = 1 3. Расширенная аксиома сложения: для любых попарно несовместных событий A1 , A2 , … , An , … справедливо равенство P (A1 + A2 + … + An + …) = P (A1 ) + P (A2 ) + … + P (An ) + … Значение P (A) называют вероятностью события A . Если пространство элементарных исходов Ω является конечным или счетным множеством, то каждому элементарному исходу ω i , i = 1, 2, … , можно поставить в соответствие число P (ω i ) = pi ≥ 0 так, что ∞ ∑ = ∑ pi = 1. ωi ∈Ω i=1 Тогда, для любого события А ⊂ Ω в силу аксиомы 3 вероятность P (А) равна сумме вероятностей P (ω i ) всех тех элементарных исходов, которые входят в событие А , т.е. P (A) = ∑ P (wi ). wi ∈A Таким образом, мы определили вероятность любого события, используя вероятности элементарных исходов. Заметим, что вероятности элементарных исходов можно задавать совершенно произвольно, лишь бы они были неотрицательными и в сумме составляли единицу. Именно в этом и состоит идея аксиоматического определения вероятности. Свойства вероятности Свойства вероятности Вероятность удовлетворяет следующим свойствам: 1. Вероятность противоположного события ¯ ¯ ¯¯ P (A) = 1 − P (A). 2. Вероятность невозможного события равна 0: P (∅) = 0. 3. Если A ⊂ B , P (A) ≤ P (B). 4. Вероятность заключена между 0 и 1: 0 ≤ P (A) ≤ 1. 5. Вероятность объединения двух событий: P (A ∪ B) = P (A) + P (B) − P (A ∩ B). 6. Вероятность объединения любого конечного числа событий: P (A1 ∪ A2 ∪ … ∪ An ) = P (A1 ) + P (A2 ) + … + +P (An ) − P (A1 A2 ) − P (A1 A3 ) − … − −P (An−1 An ) + P (A1 A2 A3 ) + P (A1 A2 A4 ) + … + n+1 +(−1) P (A1 A2 … An ). Утверждения 5 и 6 называют теоремами сложения вероятностей для двух и для n событий соответственно. Пример Приведем пример, показывающий, что без учета того, что события совместные, можно прийти к неправильному результату. Опыт состоит в двукратном подбрасывании симметричной монеты. Найдем вероятность события A , означающего появление «герба» хотя бы один раз. Обозначим Ai — появление «герба» при i − м подбрасывании, i = 1, 2 . Ясно, что A = A1 ∪ A2 , и в соответствии с классической схемой вероятности 1 P (A1 ) = P (A2 ) = . 2 Если не учитывать, что A1 и A2 — совместные события, то можно получить следующий результат: 1 P (A) = P (A1 ) + P (A2 ) = 1 + 2 = 1, 2 противоречащий здравому смыслу, поскольку ясно, что событие A не является достоверным. Применяя теорему сложения для двух совместных событий и учитывая равенство 1 P (A1 A2 ) = , 4 находим P (A) = P (A1 ) + P (A2 ) − P (A1 A2 ) = 1 = 1 + 2 1 − 2 3 = 4 . 4 Следствие аксиомы 3 Для любых попарно непересекающихся событий A1 , A2 , … , An справедливо равенство P (A1 + A2 + … + An ) = P (A1 ) + P (A2 ) + … + P (An ). Решение типовых примеров Решение типовых примеров Пример 1 Куб с окрашенными гранями распилен на 27 одинаковых кубиков. Найдем вероятность того, что у выбранного наудачу кубика будет окрашена одна грань (две грани, три грани). Общее число элементарных исходов в данном опыте N = 27. Обозначим: A — событие, заключающееся в том, что у выбранного кубика окрашена одна грань; B — две грани и C — три грани. Событию A благоприятствует NA = 6 элементарных исходов (число граней у исходного куба), событию B — NB = 12 исходов (число ребер у исходного куба), а событию C — 8 исходов (число вершин у исходного куба). Поэтому 6 P (A) = , 27 12 P (B) = , 27 8 P (C ) = . 27 Пример 2 Из колоды в 36 игральных карт выбирают наудачу три карты. Найдем вероятность того, что среди этих карт будут десять «пик», валет «пик», дама «пик», король «пик» и туз «пик». Поскольку порядок выбора в данном случае не существен и карты обратно в колоду не возвращаются, то число элементарных исходов равно числу сочетаний без повторений из 36 элементов по 5 элементов, т.е. N = C 5 36 36! = = 376992. 5!(36 − 5)! Рассматриваемому событию A благоприятствует единственный исход (NA Поэтому 1 P (A) = . 376992 Пример 3 = 1 ). Пример 3 Группа, состоящая из восьми человек, занимает место за круглым столом. Найдем вероятность того, что два определенных человека окажутся сидящими рядом. Так как упорядочивается все множество из восьми элементов, то мы имеем дело с перестановкой из восьми элементов. Поэтому N = P8 = 8! Рассматриваемому событию A благоприятствуют такие перестановки, когда два отмеченных лица садятся рядом: всего восемь различных пар мест за столом и за каждую пару мест данные лица могут сесть двумя способами. При этом остальные шесть человек могут разместиться на оставшихся местах произвольно. Значит, NA = 2 ⋅ 8 ⋅ P6 = 16 ⋅ 6!. Тогда 16 ⋅ 6! P (A) = 2 = 8! 7 Пример 4 Из десяти первых букв русского алфавита составлены всевозможные трехбуквенные слова. Найдем вероятность того, что случайно выбранное слово окажется словом «ВАЗ». Число различных слов равно числу размещений с повторениями из 10 элементов по три элемента, т.е. ¯ ¯¯ ¯¯ ¯¯ ¯ 3 N = A 10 3 = 10 . Поскольку благоприятствующий исход только один, то P (A) = 0, 001. Пример 5 В урне имеются четыре шара различного цвета. Наудачу из урны извлекают шар и после определения его цвета возвращают обратно. Найдем вероятность того, что среди восьми выбранных шаров будут только шары одного цвета (событие A ), будет по два шара разного цвета (событие B ). Число элементарных исходов равно числу с повторениями из четырех элементов по восемь элементов ¯ ¯¯ ¯¯¯ 8 N = A 4 8 = 4 . Для того чтобы найти число исходов, благоприятствующих событию A , предположим сначала, что вынимают только шары первого цвета. Это можно сделать только одним способом. Аналогично только одним способом можно выбрать шары второго, третьего и четвертого цветов. Поэтому NA = 4 и 4 P (A) = 1 = 8 4 7 . 4 Число исходов, благоприятствующих событию B , равно числу тех сочетаний с повторениями из четырех элементов по восемь элементов, в которых каждый элемент повторяется по два раза, т.е. NB = C (2, 2, 2, 2) = 2520. Тогда 2520 P (B) = 8 4 Примечание — число сочетаний с повторениями из n элементов по m элементов, в которых первый элемент встречается ровно m1 раз, второй элемент встречается ровно m2 , n-й элемент встречается ровно mn раз (m1 + m2 + … + mn = m). И вычисляется по формуле: C (m1 , m2 , … , mn ) m! C (m1 , m2 , … , mn ) = . m1 !m2 ! … mn ! Проверка знаний: вероятность Проверка знаний: вероятность Задание 1 Внимание, все ответы нужно дать в виде десятичных дробей. В ящике имеется 50 одинаковых деталей, из них 5 окрашенных. Наудачу вынимают одну деталь. Найти вероятность того, что извлеченная деталь окажется окрашенной. Брошена игральная кость. Найти вероятность того, что выпадет четное число очков. Из десяти первых букв русского алфавита выбирают наудачу без возвращения четыре буквы и записывают в порядке поступления слева направо. Какова вероятность того, что составленное “слово” будет оканчиваться на букву “А”? Участники жеребьевки тянут из ящика жетоны с номерами от 1 до 100 . Найти вероятность того, что номер первого наудачу извлеченного жетона не содержит цифры 3. Восемь различных книг расставляются наудачу на одной полке. Найти вероятность того, что две определенные книги окажутся поставленными рядом. Перед началом первого тура чемпионата по бадминтону участников разбивают на игровые пары случайным образом с помощью жребия. Всего в чемпионате участвует 26 бадминтонистов, среди которых 10 участников из России, в том числе Руслан Орлов. Найдите вероятность того, что в первом туре Руслан Орлов будет играть с каким-либо бадминтонистом из России? В ящике 10 одинаковых деталей, помеченных номерами 1, 2, … , 10. Наудачу извлечены шесть деталей. Найти вероятность того, что среди извлеченных деталей окажутся: 1. деталь № 1: 2. детали № 1 и № 2 (округлите до сотых) Условная вероятность Условная вероятность Рассмотрим события A и B , связанные с одним и тем же опытом. Пусть из каких-то источников нам стало известно, что событие B наступило, но не известно, какой конкретно из элементарных исходов, составляющих событие B , произошел. Что можно сказать в этом случае о вероятности события A ? Вероятность события A , вычисленную в предположении, что событие B произошло, принято называть условной вероятностью и обозначать P (A|B). Понятие условной вероятности играет важнейшую роль в современной теории вероятностей. Условная вероятность позволяет учитывать дополнительную информацию при определении вероятности события. В ряде случаев при помощи условной вероятности можно существенно упростить вычисление вероятности. Определение условной вероятности Геометрическая интерпретация условной вероятности Формула умножения вероятностей Формула полной вероятности Формула Байеса Решение типовых примеров Проверка знаний: условная вероятность Определение условной вероятности Определение условной вероятности Предположим сначала, что мы находимся в рамках классической схемы. Пусть событиям A и B благоприятствуют NA и NB элементарных исходов соответственно. Посмотрим, что дает нам имеющаяся информация о событии B . Поскольку событие B произошло, то достоверно известно, что в результате опыта появился один из NB элементарных исходов, составляющих событие B . Значит, теперь уже при определении степени возможности события A необходимо выбирать только из NB возможных исходов, причем событию A благоприятствуют NAB исходов, при которых происходят и событие A , и событие B , или, другими словами, происходит событие AB . При этом по-прежнему будем считать все NB входящих в событие B исходов равновероятными. Поэтому условную вероятность P (A|B) события A при условии события B в рамках классической схемы вероятности естественно определить как отношение числа NAB исходов, благоприятствующих совместному осуществлению событий А и В , к числу NB исходов, благоприятствующих событию B , т.е. NAB P (A|B) = . NB Если теперь поделить числитель и знаменатель полученного выражения на общее число N элементарных исходов, то придем к формуле P (A|B) = NAB /N P (AB) = NB /N . P (B) К аналогичной формуле можно легко прийти и при статистическом определении вероятности. Определение Условной вероятностью события A при условии (наступлении) события B называют отношение вероятности пересечения событий A и B к вероятности события B : P (AB) P (A|B) = . P (B) В связи с появлением термина «условная вероятность», вероятность события будем называть также безусловной вероятностью события. Теорема (без доказательства) Теорема (без доказательства) Условная вероятность P (A|B) обладает всеми свойствами безусловной вероятности P (A) , т.е. P (ΩB) P (B) P (Ω|B) = = P (B) = 1, P (B) а также для попарно непересекающихся событий A1 , A2 , … , An P (A1 + A2 + … + An |B) = P (A1 |B) + P (A2 |B) + … + P (An |B). Пример Рассмотрим опыт с однократным бросанием игральной кости, но не обычной, а с раскрашенными гранями: грани с цифрами 1, 3 и 6 окрашены красным, а грани с цифрами 2, 4 и 5 — белым цветом. Введем события: A1 — выпадение нечетного числа числа очков; A2 — выпадение четного числа очков; B — появление грани красного цвета. Интуитивно ясно, что если произошло событие B , то условная вероятность события A1 больше, чем условная вероятность события A2 , поскольку на красных гранях нечетных чисел в два раза больше, чем четных. Заметим, что безусловные вероятности событий A1 и A2 при этом одинаковы и равны, очевидно, 1/2 . Найдем условные вероятности событий A1 и A2 при условии события B . Очевидно, что NA P (A1 B) = NA P (A2 B) = P (B) = NB N 1 B = N 2 B = N = 3 6 = 2 6 1 6 1 2 = = 1 3 1 6 , , . Следовательно, по определению условной вероятности, имеем: P (A1 |B) = P (A2 |B) = P (A1 B) P (B) P (A2 B) P (B) = = 1/3 1/2 1/6 1/2 = = 2 3 1 3 , . Геометрическая интерпретация Геометрическая интерпретация условной вероятности При практическом вычислении условной вероятности события A при условии, что событие B произошло, часто удобно трактовать условную вероятность как безусловную, но заданную не на исходном пространстве Ω элементарных исходов, а на новом пространстве Ω1 = В элементарных исходов. Действительно, используя геометрическое определение вероятности, получаем для безусловной и условной вероятностей события A (на рис. 3.1 заштрихованная область соответствует событию AB ): Рис. 3.1. Событие AB P (A) = SA = SΩ P (A|B) = SAΩ SΩ SAB /SΩ SB /Ω , = SAB SB SAΩ = Ω1 1 . Здесь SA , SΩ и т.д. обозначают соответственно площади A , Ω и т.д. Таким образом, выражение для P (A|B) будет совпадать с выражением для P (A) , вычисленным в соответствии со схемой геометрической вероятности, если исходное пространство Ω элементарных исходов заменить новым пространством Ω1 = B . Пример Из урны, в которой a = 7 белых и b = 3 черных шаров, наугад без возвращения извлекают два шара. Пусть событие A состоит в том, что первый извлеченный из урны шар является белым, а A1 — белым является второй шар. Требуется найти P (A1 |A). Решение 1 (стандартное) В соответствии с определением условной вероятности имеем (опуская пояснения): P (A1 |A) = Решение 2 P (AA1 ) P (A) C = 2 7 C 1 7 /C 2 10 /C 1 10 21/45 = 2 = 7/10 . 3 Решение 2 Перейдем к новому пространству Ω1 элементарных исходов. Так как событие A произошло, то это означает, что в новом пространстве элементарных исходов будет всего равновозможных исходов NΩ 1 = a + b − 1 = 9, а событию A1 благоприятствует при этом NA 1 = a − 1 = 6, исходов. Следовательно 6 P (A1 |A) = 2 = 9 . 3 Формула умножения вероятностей Формула умножения вероятностей При решении различных задач часто интересующее нас событие A можно достаточно просто выразить через некоторые события A1 , A2 , … , An с помощью операций объединения или пересечения. Если A = A1 A2 … An , то для нахождения вероятности P (A) события A обычно удобно использовать следующую теорему. Теорема (умножения вероятностей) Если A = A1 A2 … An (т.е. пересечение событий A1 , A2 , … , An) и P (A) справедливо равенство: , то > 0 P (A) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) ⋯ P (An |A1 A2 … An−1 ). Это равенство и называется формула умножения вероятностей. Пример На десяти карточках написаны буквы, образующие слово «МАТЕМАТИКА». Карточки перемешивают и из них наугад последовательно извлекают и выкладывают слева направо три карточки. Найдем вероятность того, что получится слово «ТЕМА» (событие A ). Решение Введем события A1 — на первой карточке написана буква «Т», A2 — на второй карточке — «Е», A3 — на третьей карточке — «М», A4 — на четвертой — «А». Тогда событие A есть пересечение событий Ai , i . Следовательно, ¯ ¯¯¯¯¯¯ = 1, 4 P (A) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 )P (A4 |A1 A2 A3 ). Согласно классическому определению вероятности имеем: 2 P (A1 ) = 1 = 10 . 5 Если событие A1 произошло, то на девяти оставшихся карточках букву «Е» можно выбрать одним способом, поэтому 1 1 P (A2 |A1 ) = . 9 Аналогично определяем: P (A3 |A1 A2 ) = 2 8 1 = P (A4 |A1 A2 A3 ) = 3 7 4 , . Тогда 1 1 1 3 P (A) = 1 = 5 9 4 7 . 420 Формула полной вероятности Формула полной вероятности Пусть дана группа событый H1 , H2 , … , Hn и выполняются следующие условия: 1. События Hi , i ¯ ¯¯ ¯¯ ¯¯ ¯ = 1, n попарно несовместны, т.е. Hi ∩ Hj = ∅, i ≠ j. 2. В результате выполенния опыта одно из событий Hi , i выполняется, т.е. ¯ ¯¯ ¯¯ ¯¯ ¯ = 1, n обязательно H1 ∪ H2 ∪ … ∪ Hn = Ω. Определение События H1 , H2 , … , Hn , удовлетворяющие условиям 1 и 2, называются гипотезами. Заметим, что группу гипотез называют полной группой событий или разбиением пространства Ω . Теорема (без доказательсва) Пусть H1 , H2 , … , Hn — гипотезы, тогда для любого события A его безуслованая вероятность вычисляется по формуле n P (A) = ∑ P (Hi )P (A|Hi ), i=1 которую называют формулой полной вероятности. Пример 1 В партии есть бракованные детали 1-го и 2-го сортов. Деталей 1-го сорта вдвое больше чем бракованных деталей, а деталей 2-го сорта вдвое больше чем деталей первого сорта. Надежность работы детали 1-го сорта — 0.95 , 2-го — 0.8, бракованной — 0.5. Найти вероятность того, что взятая случайным образом деталь выйдет из строя во время гарантийного срока. Решение Решение Обозначим событие A — событие выхода из строя детали и введем следующие гипотезы: 1. H1 — взяли деталь 1-го сорта. 2. H2 — взяли деталь 2-го сорта. 3. H3 — взяли бракованную деталь. Причем P (H1 ) = P (H2 ) = P (H3 ) = 2 7 4 7 1 7 , , . Вероятности выхода из строя деталей при соответствующих гипотезах равны P (A|H1 ) = 1 − 0.95 = 0.05, P (A|H2 ) = 1 − 0.8 = 0.2, P (A|H3 ) = 1 − 0.5 = 0.5. Тогда вероятность того, что деталь выйдет из строя будет равна P (A) = ∑ 3 i=1 P (Hi )P (A|Hi ) = = P (H1 )P (A|H1 ) + P (H2 )P (A|H2 ) + P (H3 )P (A|H 3) = = 2 7 0.05 + 4 7 0.2 + 1 7 0.5 = 0.2 Пример 2 По линии связи посылаются сигналы 1 и 0 с вероятностями p1 = 0.6, p0 = 0.4. Если посылается сигнал 1, то с вероятностями p11 = 0.9, p10 = 0.1 принимаются сигналы 1 и 0 соответсвенно. Если посылается сигнал 0, то с вероятностями p01 = 0.3, p00 = 0.7 принимаются сигналы 1 и 0 соответственно. Какова вероятность того, что принимается сигнал 1? Решение Пусть событие A — принятие сигнала 1, тогда, приняв за H1 посылку сигнала 1, а за H2 — сигнала 0, получим следующие условные вероятности: P (A|H1 ) = 0.9, P (A|H2 ) = 0.3. Тогда искомая вероятность P (A) = P (H1 )P (A|H1 ) + P (H2 )P (A|H2 ) = = 0.6 ⋅ 0.9 + 0.4 ⋅ 0.3 = 0.54 + 0.12 = 0.66. Формула Байеса Формула Байеса Пусть событие A может произойти с одним из событий H1 , H2 , … , Hn , образующих полную группу попарно несовместных событий, т.е. гипотез. Предположим, что известны вероятности гипотез и что в результате опыта событие A произошло, т.е. получена дополнительная информация. Спрашивается, как «изменятся» вероятности гипотез, т.е. чему будут равны условные вероятности P (H1 |A), P (H2 |A), … , P (Hn |A), если известны также условные вероятности P (A|H1 ), P (A|H2 ), … , P (A|Hn ) события A ? Для ответа на этот вопрос используют следующую формулу: ¯ ¯¯ ¯¯ ¯¯ ¯ P (H1 ), P (H2 ), … , P (Hn )(P (Hi ) > 0, i = 1, n ) P (Hi |A) = P (Hi )P (Hi |A) P (Hi )P (Hi |A) = P (A) ∑ n i=1 , P (Hi )P (A|Hi ) называемой, формулой Байеса. Формула Байеса находит широкое применение в математической статистике, теории принятия решений и их приложениях. Заметим, что вероятности P (H1 ), P (H2 ), … , P (Hn ) обычно называют априорными (т.е. полученными до опыта), а условные вероятности P (H1 |A), P (H2 |A), … , P (Hn |A) — апостериорными (т.е. полученными после опыта). Пример Три организации представили в контрольное управление счета для выборочной проверки. Первая организация представила 15 счетов, вторая — 10, третья — 25. Вероятности правильного оформления счетов у этих организаций известны и соответственно равны: 0.9, 0.8, 0.85 . Был выбран один счет и он оказался правильным. Определить вероятность того, что этот счет принадлежит второй организации. Решение Пусть H1 , H2 , H3 — событие выбора счета первой, второй и третьей организации, а событие A — выбран правильный счет. Тогда вероятности событий будут: ( ) = 15 = 3 = 0.3, P (H1 ) = P (H2 ) = P (H3 ) = 15 50 10 50 25 50 = = = 3 = 0.3, 10 1 5 1 2 = 0.2, = 0.5. По формуле полной вероятности, вероятность выбора правильного счета P (A) равна: P (A) = P (H1 )P (A|H1 ) + P (H2 )P (A|H2 ) + P (H3 ) + P (A|H3 ) = = 0.3 ⋅ 0.9 + 0.2 ⋅ 0.8 + 0.5 ⋅ 0.85 = 0.885. Тогда по формуле Байеса находим вероятность H2 : P (H2 ) = P (A|H2 )P (H2 ) P (A) 0.2 ⋅ 0.8 = ≈ 0.19. 0.885 Решение типовых примеров Решение типовых примеров Пример 1 Одновременно бросают две игральные кости (белую и черную). Рассмотрим следующие события: A — на белой кости выпало более двух очков; B — в сумме выпало четное число очков; C — в сумме выпало менее десяти очков. Вычислим условные вероятности P (A|B), P (B|A), P (A|C ), P (C |A), P (B|C ) и P (C |B) и определим, какие из событий A , B и C являются независимыми. Решение Используя классическое определение вероятности, нетрудно посчитать, что P (A) = 2 3 P (AB) = , P (B) = 1 , 3 1 2 P (AC ) = , 1 2 P (C ) = , 5 6 P (BC ) = , 7 18 . Поэтому P (A|B) = P (A|C ) = P (B|C ) = 1 : 3 3 5 , 7 15 1 2 = 2 3 , P (B|A) = P (C |A) = , P (C |B) = 1 3 : 2 3 = 1 2 3 4 7 9 Отсюда следует, что события A и B являются независимыми (т.к. P (A) = P (A|B) и P (B) = P (B|A) ), а события A и C , B и C — зависимые. Следовательно, события A , B и C не являются независимыми в совокупности. Пример 2 Каждая буква слова «МАТЕМАТИКА» написана на отдельной карточке. Карточки тщательно перемешаны. Последовательно извлекают четыре карточки. Найдем вероятность события A — получить слово «МАТ»? Решение Пусть A1 , A2 и A3 — события, состоящие в последовательном извлечении букв «М», «А» и «Т». Тогда соответствующие вероятности равны: P (A1 ) = 2 10 = 1 5 , P (A2 |A1 ) = 3 9 = 1 3 , P (A3 |A2 A1 ) = 2 8 = 1 4 . Тогда, по формуле умножения вероятностей, получаем 1 P (A) = P (A1 )P (A2 |A1 )P (A3 |A2 A1 ) = ≈ 0.017. 60 Пример 3 Обнаружение воздушной цели проводится независимо двумя радиолокационными станциями. Вероятность P (A) обнаружения цели первой станцией равна 0.7. Вероятность P (B) обнаружения цели второй станцией равна 0.8. Определим вероятность P (C ) того, что цель будет обнаружена хотя бы одной станцией. Решение 1 Для решения данной задачи можно выделить следующую полную группу событий: P (C1 ) — цель не обнаружена ни одной из станций, P (C ) — цель обнаружена хотя бы одной станцией, причем P (C1 ) + P (C ) = 1 ⇒ P (C ) = 1 − P (C1 ). Событие C1 — можно представить в виде произведения двух событий: первая станция не обнаружила цель (A) и вторая станция не обнаружила цель (B ) — тогда, учитывая что события A и B независимы, получаем ¯ ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ ¯¯ P (C1 ) = P (A)P (B ) = (1 − 0.7)(1 − 0.8) = 0.06. Тогда вероятность искомого события равна P (C ) = 1 − P (C1 ) = 1 − 0.06 = 0.94. Решение 2 Т.к. события A и B являются независимыми, то по формуле умножения вероятностей для независимых событий вероятность события AB (цель обнаружена обеими станциями) равна: P (AB) = P (A)P (B) = 0.7 ⋅ 0.8 = 0.56. Значит, в силу теоремы сложения вероятностей P (A ∪ B) = P (A) + P (B) − P (AB) = 0.7 + 0.8 − 0.56 = 0.94. Пример 4 В поступивших на склад трех партиях деталей годные составляют 89% , 92% и 97% соответственно, а количества деталей в партиях относятся как 1 : 2 : 3 . Ответим на два вопроса. 1. Чему равна вероятность того, что случайно выбранная со склада деталь окажется негодной? 2. Пусть известно, что случайно выбранная деталь оказалась негодной. Найдем вероятности того, что она принадлежит первой, второй и третьей партиям. Решение Обозначим H1 , H2 и H3 события, состоящие в том, что деталь принадлежит первой, второй и третьей партиям соответственно. Поскольку эти события попарно несовместные и образуют полную группу событий, то они являются гипотезами, причем, P (H1 ) = 1 6 , P (H2 ) = 2 6 , P (H3 ) = 3 6 . 1. Пусть A — выбранная деталь оказалась негодной, причем условные вероятности события A равны: P (A|H1 ) = 1 − 0.89 = 0.11, P (A|H2 ) = 0.08, P (H3 ) = 0.03. Тогда по формуле полной вероятности найдем 1 P (A) = 0.11 2 + 0.08 6 3 + 0.03 6 0.36 = 6 = 0.06. 6 2. Вероятности того, что негодная деталь принадлежит первой, второй и третьей партиям, определим, используя формулу Байеса (округляя до сотых): 1 P (H1 |A) = 6 0.06 2 P (H2 |A) = 6 6 ≈ 0.31, 0.08 0.06 3 P (H3 |A) = 0.11 ≈ 0.44, 0.3 0.06 = 0.25. Проверка знаний: условная вероятность Проверка знаний: условная вероятность Задание 1 В читальном зале имеется шесть учебников по теории вероятностей, из которых три в переплете. Библиотекарь наудачу взял два учебника. Найти вероятность того, что оба учебника окажутся в переплете. В урну, содержащую три шара, опущен белый шар, после чего из нее наудачу извлечен один шар. Найти вероятность того, что извлеченный шар окажется белым, если равновозможны все возможные предположения о первоначальном составе шаров (по цвету). Два автомата производят одинаковые детали, которые поступают на общий конвейер. Производительность первого автомата вдвое больше производительности второго. Первый автомат производит в среднем 60% деталей отличного качества, а второй — 84% . Наудачу взятая с конвейера деталь оказалась отличного качества. Найти вероятность того, что эта деталь произведена первым автоматом. Ответ округлите до сотых. Имеются три партии деталей по 20 деталей в каждой. Число стандартных деталей в первой, второй и третьей партиях соответственно равно 20, 15, 10. Из наудачу выбранной партии наудачу извлечена деталь, оказавшаяся стандартной. Деталь возвращают в партию и вторично из той же партии наудачу извлекают деталь, которая также оказывается стандартной. Найти вероятность того, что детали были извлечены из третьей партии. Ответ округлите до сотых. Два из трех независимо работающих элементов вычислительного устройства отказали. Найти вероятность того, что отказали первый и второй элементы, если вероятности отказа первого, второго и третьего элементов соответственно равны 0.2; 0.4 и 0.3 . Ответ округлите до сотых. Схема Бернулли Схема Бернулли Повторные испытания — это последовательное проведение n раз одного и того же опыта или одновременное проведение n одинаковых опытов. Например, при проведении опыта можно n раз выполнить его, если устанавливать его исходные свойства после каждого испытания. Понятие схемы Бернулли Проверка знаний: схема Бернулли Понятие схемы Бернулли Понятие схемы Бернулли Определение Схемой Бернулли (или последоватльностью независимых одинаковых испытаний, или биномиальной схемой) называют последовательность испытаний, удовлетворяющую следующим условиям: 1. При каждом испытании различают лишь 2 исхода: появление некоторого события A , называемого «успехом», либо появление его дополнения A , называемого «неудачей». ¯ ¯ ¯¯ 2. Испытания являются независимыми, т.е. вероятность успеха в m-м испытании не зависит от исходов всех испытаний до m-го. 3. Вероятность успеха и неудачи во всех испытаниях постоянна, причем P (A) вероятность успеха, а P (A) ¯ ¯ ¯¯ = 1 − p = q = p — — вероятность неудачи. Примеры испытаний 1. Последовательное бросание n раз симметричной монеты. Здесь успехом может быть появление «герба» с вероятностью p = 12 . 2. Последовательность n выстрелов стрелка по мишени при условии, что все выстрелы не зависимы друг от друга (нет «пристрелки», например). Теорема Пусть вероятность появления события A в каждом опыте постоянна и равна p. Тогда вероятность Pn (k) того, что в n независимых испытаниях событие A появится ровно k раз, рассчитывается по формуле, называемой формулой Бернулли: k k Pn (k) = Cn p q n−k ¯ ¯¯ ¯¯ ¯¯ ¯ , k = 0, n , где Cnk — число сочетаний из n элементов по k элементов. Пример 1 Пример 1 Вероятность выпуска бракованного изделия на станке равна 0.2. Определить вероятность того, что в партии из десяти выпущенных на данном станке деталей ровно k будут без брака. Решить задачу для k = 0, 1, 10. Решение По условию, нас интересует событие A выпуска изделий без брака, которое случается каждый раз с вероятностью p = 1 − 0.2 = 0.8. Нужно определить вероятность того, что это событие произойдет k раз. Событию A противопоставляется событие выпуска бракованного изделия A . ¯ ¯ ¯¯ Таким образом, имеем: n = 10; p = 0.8; q = 0.2 . Итак, находим вероятность того, что в партии все детали бракованные (k = 0 ), что только одна деталь без брака (k = 1 ), и что бракованных деталей нет вообще ( k = 10 ): 1. P10 (0) = C 2. P10 (1) = C 10 3. P10 (10) 1 10 = C 0.8 0.2 10 1024 = 1 ≈ 10 7 10 0.8 10 10 1 0.2 10−1 = = 10 10⋅8⋅2 10 9 = 4⋅1024 9 10 0.8 10 0.2 = 8 −7 10 10 10 10 ≈ 0.1 . ≈ 4 ⋅ 10 −6 10 . . Пример 2 По цели производят шесть независимых выстрелов. Вероятность попадания при каждом выстреле p = 0.75. Вычислим: 1. Вероятность ровно пяти попаданий (событие A ). 2. Вероятность не менее пяти попаданий (событие B ). 3. Вероятность менее трех попаданий (событие C ). Очевидно, мы имеем дело со схемой Бернулли, в которой n Воспользовавшись формулой Бернулли, будем иметь: = 5 5 1 ≈ 0.356, = 6, p = 0.75 иq = 0.25 . 5 5 = C P (B) = P {k ≥ 5} = P6 (5) + P6 (6) = 6 = C 5 6 0.75 0.25 1 P (A) 5 0.75 0.25 1 ≈ 0.356, + C 6 6 6 0.75 0.25 ≈ ≈ 0.534, P (C ) = P {k < 3} = P6 (0) + P6 (1) + P6 (2) = = C 6 0.75 0.25 6 + C 1 6 1 0.75 0.25 5 + C 2 6 2 0.75 0.25 ≈ 0.038. Проверка знаний: схема Бернулли 4 ≈ Проверка знаний: схема Бернулли Задание 1 В цехе 6 моторов. Для каждого мотора вероятность того, что он в данный момент включен, равна 0.8. Найти вероятность того (ответ округлите до тысячных), что в данный момент: 1. включено 4 мотора 2. включены все моторы 3. работают не более двух моторов Событие B появится в случае, если событие A появится не менее двух раз. Найти вероятность того, что наступит событие B , если будет произведено 6 независимых испытаний, в каждом из которых вероятность появления события A равна 0.4 (ответ округлите до тысячных). Случайные величины Случайные величины Ранее рассматривались случайные события, что позволяло нам исследовать вероятностные свойства (закономерности) случайных экспериментов на качественном уровне («да» — «нет»): попадание в цель — промах, отказал прибор за время t — не отказал и т.д. Однако с момента возникновения теории вероятностей ее основной задачей было изучение не вероятностных свойств экспериментов со случайными исходами, а связанных с этими экспериментами числовых величин, которые естественно назвать случайными величинами. Определение Функция распределения Дискретные случайные величины Некоторые распределения дискретных случайных величин Проверка знаний: случайные величины Определение Определение Под случайной величиной понимается величина, которая в результате опыта со случайным исходом принимает то или иное значение, причем заранее, до опыта, неизвестно, какое именно. Случайные величины будем обозначать большими буквами: X, Y , Z ; их значения — соответствующими малыми буквами: x, y, z, а ΩX — множество возможных значений величины X. Примеры 1. Опыт — бросок одной игральной кости; случайные величины X – число выпавших очков; ΩX = {0, 1, 2, 3, 4, 5, 6}. 2. Опыт — работа ЭВМ до первого отказа; случайные величины X – время работы до первого отказа; ΩX = (0, ∞]. Определение Скалярную функцию X(ω), заданную на пространстве элементарных исходов, называют случайной величиной, если для любого x ∈ R множество {ω : X(ω) < x} элементарных исходов, удовлетворяющих условию X(ω) < x, является событием. Функция распределения Функция распределения Для исследования вероятностных свойств случайной величины необходимо знать правило, позволяющее находить вероятность того, что случайная величина примет значение из подмножества ее значений. Любое такое правило называют законом распределения вероятностей, или распределением (вероятностей) случайной величины. При этом слово «вероятностей» обычно опускают. Определение Функцией распределения случайной величины X называют функцию F (x) , значение которой в точке x равно вероятности события {X < x}, т.е. события, состоящего из тех и только тех элементарных исходов ω, для которых X(ω) < x: F (x) = P {X < x}. Свойства функции распределения 1. 0 . ≤ F (x) ≤ 1 2. F (x1 ) ≤ F (x 2 ) 3. F (−∞) = 0 4. F (+∞) = 1 при x1 ≤ x2 , т.е. F (x) — неубывающая функция. . . Дискретные случайные величины Дискретные случайные величины Определение Случайную величину X называют дискретной, если множество ее возможных значений конечно или счетно, т.е. его элементы можно расположить в определенном порядке и пронумеровать. Распределение дискретной случайной величины удобно описывать с помощью ряда распределения. Определение Рядом распределения (вероятностей) дискретной случайной величины X называют таблицу (см. Таблица 1) состоящую из двух строк: в верхней строке перечислены все возможные значения случайной величины, а в нижней — вероятности pi = P {X = x i } того, что случайная величина примет эти значения. X x1 x2 … xn P p1 p2 … pn Таблица 1. Ряд распределения Для проверки правильности составления табл. 1 рекомендуется просуммировать вероятности pi . Эта сумма должна быть равна единице: n ∑ pi = 1 i=1 Пример В денежной лотерее выпущено 100 билетов. Разыгрывается один выигрыш в 50 руб. и десять выигрышей по 1 руб. Найти закон распределения случайной величины X — стоимости возможного выигрыша для владельца одного лотерейного билета. Решение Напишем возможные значения X : x1 = 50, x2 = 1, x3 возможных значений таковы: p1 = 0.01, p2 = 0.1, p3 = закон X 50 1 P 0.01 0.1 0.89 . Вероятности этих 0.89. Напишем искомый = 0 Проверим правильность заполнения таблицы: сумма вероятностей должна быть равна 1 . 0.01 + 0.1 + 0.89 = 1 Для наглядности закон распределения дискретной случайной величины можно изобразить и графически, для чего в прямоугольной системе координат строят точки (x i , pi ), а затем соединяют их отрезками прямых. Полученную фигуру называют многоугольником распределения. Покажем теперь, как по ряду распределения дискретной случайной величины построить ее функцию распределения F (x) . Пусть X — дискретная случайная величина, заданная своим рядом распределения, причем значения x1 , x2 , … , xn расположены в порядке возрастания. Тогда для всех x < x1 событие {X < x} является невозможным и поэтому в соответствии с определением функции распределения F (x) = 0 . Если x1 < x2 , то событие {X < x} состоит из тех и только тех элементарных исходов ω, для которых X(ω) = x1 , и, следовательно, F (X) = p1 . Аналогично при x2 < x для которых либо X(ω) событие {X < x} состоит из элементарных исходов ω, x 1 , либо X(ω) = x 2 , т.е. < x3 = {X < x} = {X = x 1 } + {X = x 2 }, а, следовательно, F (X) = p1 + p2 . Наконец, при x > xn событие {X < x} достоверно и F (X) = 1. Таким образом, функция распределения дискретной случайной величины является кусочно постоянной функцией, принимающей на промежутке (∞, x1 ] значение 0, на промежутках (xi , xi+i ], 1 (x n , +∞) — значение 1. , — значение p1 ≤ i < n + … + pi и на промежутке Некоторые распределения дискретных Некоторые распределения дискретных случайных величин Биномиальное распределение Пусть производится n независимых испытаний, в каждом из которых событие A может иметь «успех» либо «неудача». Вероятность «успеха» события во всех испытаниях постоянна и равна p (следовательно, вероятность «неудачи» q = 1 − p) — Рассмотрим в качестве дискретной случайной величины X число «успехов» события A в этих испытаниях. Необходимо найти закон распределения величины X. Для ее решения требуется определить возможные значения X и их вероятности. Очевидно, событие A в n испытаниях может либо иметь «успех», либо «неудачу» 1 раз, либо 2 раза, …, либо n раз. Таким образом, возможные значения X таковы: x1 = 0, x2 = 1, … , xn+1 = n. Остается найти вероятности этих возможных значений, для чего достаточно воспользоваться формулой Бернулли: k k Pn (k) = Cn p q n−k (1). Дискретная случайная величина X распределена по биномиальному закону, если она принимает значения 0, 1, 2, … , n в соответствии с распределением, заданным формулой (1). Распределение Пуассона Дискретная случайная величина X распределена по закону Пуассона, если она принимает целые неотрицательные значения с вероятностями λ i P {X = i} = P (i, λ) = e −λ , i! где λ > 0 = np — параметр распределения Пуассона. Распределение Пуассона также называют законом редких событий, поскольку оно всегда проявляется там, где производится большое число испытаний, в каждом из которых с малой вероятностью происходит «редкое» событие. В соответствии с законом Пуассона распределены, например, число вызовов, поступивших в течение суток на телефонную станцию; число метеоритов, упавших в определенном районе; число распавшихся частиц при радиоактивном распаде вещества. Геометрическое распределение Пусть производятся независимые испытания, в каждом из которых вероятность «успеха» события A равна p и, следовательно, вероятность его «неудачи» q = 1— p. Испытания заканчиваются, как только появится «успех» события A . Таким образом, если «успех» события A появился в k-м испытании, то в предшествующих k— 1 испытаниях оно не появлялось. Обозначим через X дискретную случайную величину — число испытаний, которые нужно провести до первого появления события A . Очевидно, возможными значениями X являются натуральные числа: x 1 = 1, x 2 = 2, x 3 = 3, …. Пусть в первых k − 1 испытаниях событие A имело «неудачу», а в k-м испытании появилось. Вероятность этого «сложного события», по теореме умножения вероятностей независимых событий, P (X = k) = pq k−1 Полагая k = 1, 2, … в предыдущей формуле, получим геометрическую прогрессию с первым членом p и знаменателем q 2 3 p, pq, pq , pq , … pq k−1 ,… Проверка знаний: случайные величины Проверка знаний: случайные величины Данное взаимодействие необходимо успешно завершить, если Вы хотите получить оценку «удовлетворительно». Задание 1 Выберите, какие из следующих утверждения могут быть применены к свойствам функции распределения. 0 ≤ F (X) ≤ 1 F (−∞) = 1 F (x) — неубывающая функция F (x 1 ) ≥ F (x 2 ) при x1 ≤ x2 при x1 ≤ x2 0 ≤ F (X) ≤ 2 F (x 1 ) ≤ F (x 2 ) F (+∞) = 1 Задание 2 Непрерывная случайная величина X распределена по экспоненциальному закону с параметром λ = 0.2 . Найдите вероятность попадания этой случайной величины в интервал (0, 2). Ответ округлите до сотых. Длительность времени X безотказной работы элементов имеет экспоненциальное распределение с параметром λ = 0.02ч . Вычислите вероятность того, что за время t = 100ч элемент (ответ округлите до тысячных): −1 1. Выйдет из строя p ≈ 2. Будет работать исправно p ≈ Задание 3 В течение часа на станцию скорой помощи поступает случайное число X вызовов, распределенное по закону Пуассона с параметром λ = 5. Найдите вероятность того, что в течение часа поступит: 1. Ровно два вызова: p ≈ 2. Не более двух вызовов: p ≈ 3. Не менее двух вызовов: p ≈ Ответ округлите до тысячных. Задание 4 Из партии в 10 деталей, среди которых 2 бракованные, наудачу выбирают 3 детали. Найдите закон распределения числа бракованных деталей среди выбранных. Постройте функцию распределения F (x) и укажите ее значение (округляя до сотых) для: 1. F (1.5) 2. F (3) ≈ ≈ Непрерывные случайные величины Непрерывные случайные величины В отличие от дискретной случайной величины непрерывные случайные величины невозможно задать в виде таблицы ее закона распределения, поскольку невозможно перечислить и выписать в определенной последовательностей все ее значения. Одним из возможных способов задания непрерывной случайной величины является использование функции распределения. Непрерывные случайные величины Некоторые распределения непрерывных случайных величин Проверка знаний: непрерывные случайные величины Непрерывные случайные величины Непрерывные случайные величины Определение Непрерывной называют случайную величину X функцию распределения которой F (x) можно представить в виде: x F (x) = ∫ p(y)dy. −∞ Функцию p(x) называют плотностью распределения вероятностей случайной величины X. Предполагают, что несобственный интеграл закона распределения сходится. Из этого определения следует, что функция распределения является первообразной для плотности распределения. Теорема Плотность распределения обладает следующими свойствами: 1. 0 . ≤ p(x) ≤ 1 2. Вероятность того, что случайная величина X примет значение, принадлежащее интервалу (x1 , x2 ) будет равна x2 P {x 1 < X < x 2 } = ∫ p(x)dx x1 3. Вероятность того, что случайная величина примет какое-нибудь значение равна 1, т.е. вероятность достоверного события равна: +∞ ∫ p(x)dx = 1. −∞ Некоторые распределения Некоторые распределения непрерывных случайных величин Приведем примеры некоторых наиболее важных распределений непрерывных случайных величин. Равномерное распределение Случайная величина имеет равномерное распределение на отрезке [a, b], если ее плотность распределения 0, ⎧ ⎪ p(x) = ⎨ ⎩ ⎪ x ≤ a 1 b−a , a < x ≤ b 0, x > b. Найдем ее функцию распределения. Воспользуемся формулой F (x) Если x ≤ a, то p(x) следовательно = 0 = ∫ x −∞ p(x)dx , следовательно F (x) x a . = 0 . Если x ≤ b p(x)dx = ∫ x − b 0dx + ∫ dx = a − b −∞ Если x > b −∞ a < +∞ b , следовательно +∞ 1 ∫ p(x)dx ∫ 0dx + ∫ b − a + ∫ 0dx = a − b −∞ −∞ a − b a , то это можно записать как x +∞ , = 1/(a − b) x 1 ∫ , то p(x) a = 1. b − a b Итак, искомая функция распределения ⎧ 0, ⎪ p(x) = ⎨ ⎩ ⎪ x−b b−a 1, x ≤ a , a < x ≤ b x > b. Вероятность попадания равномерно распределенной случайной величины в интервал , лежащий внутри отрезка [a, b], равна F (x2 ) − F (x1 ) (x 1 , x 2 ) = x 2 −x 1 а b− , т.е. пропорциональна длине этого интервала. Таким образом, равномерное распределение реализует схему геометрической вероятности при бросании точки на отрезок [a, b]. Экспоненциальное распределение Случайная величина распределена по экспоненциальному (показательному) закону, если она имеет плотность распределения p(x) = { 0, λe x < 0 −λx , x ≥ 0, где λ > 0 параметр экспоненциального распределения. Для функции распределения в данном случае нетрудно получить следующее выражение: F (x) = { 0, x < 0 1 − e −λx , x ≥ 0. Экспоненциально распределенная случайная величина X обладает весьма важным свойством, которое естественно назвать отсутствием последействия, т.е. P (A|B) = P (AB) P (B) = P (A) или P (B) P {x 1 < X < x 1 + x 2 } = 1 − e −λx 2 Пример Пусть автобусы приходят на остановку случайно, но с некоторой фиксированной средней интенсивностью. Тогда количество времени, уже затраченное пассажиром на ожидание автобуса, не влияет на время, которое ему ещё придётся прождать. Нормальное распределение Случайная величина распределена по нормальному (или гауссову) закону, или имеет нормальное (гауссово) распределение, если ее плотность (x−m) 1 p(x) = −− σ√2π e − 2σ 2 2 . Нормальное распределение зависит от двух параметров: m — математического ожидания, σ — средне-квадратичного отклонения. Плотность распределения вычисляется по формуле: x (x−m) 1 F (X) = −− σ√2π ∫ e − 2σ 2 2 −∞ При m = 0 иσ = 1 нормальный закон называют стандартным. Как известно из курса математического анализа, интеграл ∫ 2 e −x /2 dx не может быть выражен через элементарные функции. Поэтому во всех справочниках и в большинстве учебников по теории вероятностей приведены таблицы значений функции стандартного нормального распределения. Вероятность того, что случайная величина примет значение в интервале (a, b) равна b − m P {a < X < b} = F ( a − m ) − F( σ ). σ Проверка знаний: непрерывные Проверка знаний: непрерывные случайные величины Данное взаимодействие необходимо успешно завершить, если Вы хотите получить оценку «хорошо» или «отлично». Задание 1 Непрерывная случайная величина X имеет следующую плотность распределения: p(x) = { 0, a x 3 x ≤ 1 , x > 1 Найти, округляя все ответы до сотых: 1. Коэффициент a 2. Вероятность попадания случайной величины X в интервал (2, 3) 3. Вероятность того, что при трех независимых испытаниях случайная величина X ни разу не попадет в интервал (2, 3) Задание 2 Функция распределения непрерывной случайно величины X задана выражением ⎧ 0, 3 F (x) = ⎨ x , ⎩ 1, x ≤ 0, 0 < x ≤ 1, x > 1 Найти, округляя все ответы до сотых: 1. Вероятность того, что случайная величина X примет значение меньшее 0.4 2. Вероятность попадания случайной величины X интервал (0.25, 0.75) 3. Вероятность того, что случайная величина X примет значение большее 0.75 Задание 3 Случайное отклонение размера детали от номинала имеет нормальное распределение со средним значением m = 1мм и средним квадратичным отколением σ = 2мм. Найти, округляя до сотых: 1. Вероятность того, что отклонение от номинала будет положительным 2. Процент деталей, размер которых будет иметь отклонение от номинала не более 3мм Числовые характеристики случайных величин Числовые характеристики случайных величин Как уже известно, закон распределения полностью характеризует случайную величину. Однако часто закон распределения неизвестен и приходится ограничиваться меньшими сведениями. Иногда даже выгоднее пользоваться числами, которые описывают случайную величину суммарно; такие числа называют числовыми характеристиками случайной величины. Отметим, что основную роль на практике играют математическое ожидание, задающее «центральное» значение случайной величины, и дисперсия, характеризующая «разброс» значений случайной величины вокруг ее математического ожидания. Математическое ожидание Свойства математического ожидания Отклонение случайной величины от ее математического ожидания Моменты высших порядков Дисперсия Свойства дисперсии Среднее квадратическое отклонение Проверка знаний: числовые характеристики Математическое ожидание Математическое ожидание Как уже отмечалось выше, наиболее употребляемой на практике числовой характеристикой является математическое ожидание, или, по-другому, среднее значение случайной величины. Определение Математическим ожиданием (средним значением) M (X) дискретной случайной величины X называют сумму произведений всех ее возможных значений на их вероятности. Пусть случайная величина X может принимать только значения x1 , x2 , … , xn, вероятности которых соответственно равны p1 , p2 , … , pn. Тогда математическое ожидание M (X) случайной величины X определяется равенством M (X) = x 1 p1 + x 2 p2 + … + x n pn Если дискретная случайная величина X принимает счетное множество возможных значений, то ∞ M (X) = ∑ x i pi i=1 Замечание. Из определения следует, что математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина. Рекомендуем запомнить это утверждение, так как далее оно используется многократно. В дальнейшем будет показано, что математическое ожидание непрерывной случайной величины также есть постоянная величина. Примеры 1. Найти математическое ожидание случайной величины X, зная закон ее распределения: X 3 5 2 p 0.1 0.6 0.3 Математическое ожидание равно сумме произведений всех возможных значений случайной величины на их вероятности: M (X) = 3 ⋅ 0.1 + 5 ⋅ 0.6 + 2 ⋅ 0.3 = 3.9 2. Найти математическое ожидание числа появлений события A в одном испытании, если вероятность события A равна p. Случайная величина X — число появлений события A в одном испытании — может принимать только два значения: x1 = 1 (событие A произошло) с вероятностью p и x2 = 0 (событие A не произошло) с вероятностью q = 1 − p. Искомое математическое ожидание M (X) = 1 ⋅ p + 0 ⋅ q = p. Свойства математического ожидания Свойства математического ожидания Математическое ожидание удовлетворяет следующим свойствам. 1. Если случайная величина X принимает всего одно значение C с вероятностью единица (т.е., по сути дела, не является случайной величиной), то M (C ) = C . 2. M (aX + b) 3. M (X1 , где a, b — константы. = aM (x) + b . + X2 ) = M (X1 ) + M (X2 ) 4. M (X1 X2 ) = M (X1 )M (X2 ) для не зависимых случайных величин X1 и X2 . Замечание 1 Определим произведение постоянной величины C на дискретную случайную величину X как дискретную случайную C X , возможные значения которой равны произведениям постоянной C на возможные значения X; вероятности возможных значений C X равны вероятностям соответствующих возможных значений X. Например, если вероятность возможного значения x1 равна p1 то вероятность того, что величина C X примет значение C x1 также равна p1 . Замечание 2 Две случайные величины называют независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. В противном случае случайные величины зависимы. Несколько случайных величин называют взаимно независимыми, если законы распределения любого числа из них не зависят от того, какие возможные значения приняли остальные величины. Замечание 3 Определим произведение независимых случайных величин X и Y как случайную величину XY , возможные значения которой равны произведениям каждого возможного значения X на каждое возможное значение Y ; вероятности возможных значений произведения XY равны произведениям вероятностей возможных значений сомножителей. Например, если вероятность возможного значения x1 равна p1 вероятность возможного значения y1 равна g1 , то вероятность возможного значения x 1 y1 равна p1 g1 . Заметим, что некоторые произведения xi , yj могут оказаться равными между собой. В этом случае вероятность возможного значения произведения равна сумме соответствующих вероятностей. Например, если x1 y1 = x2 y2 , то вероятность x1 y1 (или, что то же, x2 y2 ) равна p1 g1 + p2 g2 . Замечание 4 Определим сумму случайных величин X и Y как случайную величину X + Y , возможные значения которой равны суммам каждого возможного значения X с каждым возможным значением Y ; вероятности возможных значений X + Y для независимых величин X и Y равны произведениям вероятностей слагаемых. Заметим, что некоторые суммы x + y могут оказаться равными между собой. Как и в произведении, вероятность возможного значения суммы равна сумме соответствующих вероятностей. Примеры Пример 1 Независимые случайные величины X и Y заданы следующими законами распределения: X 5 2 4 Y 7 9 p 0.6 0.1 0.3 p 0.8 0.2 Найти математическое ожидание случайной величины XY M (X) = 5 ⋅ 0.6 + 2 ⋅ 0.1 + 4 ⋅ 0.3 = 4.4; M (Y ) = 7 ⋅ 0.8 + 9 ⋅ 0.2 = 7.4. Случайные величины X и Y независимые, поэтому искомое математическое ожидание M (XY ) = M (X)M (Y ) = 4.4 ⋅ 7.4 = 32.56. Пример 2 Представим число успехов X в n испытаниях по схеме Бернулли в виде X = X1 + X2 + … + Xn , где Xi — число успехов в i − м испытании. Нетрудно заметить, что M (Xi ) = 0 ⋅ q + 1 ⋅ p = p. Следовательно, в силу свойства 3 M (X) = M (X1 ) + M (X2 ) + … + M (Xn ) = np. Отклонение случайной величины от ее Отклонение случайной величины от ее математического ожидания Пусть X — случайная величина и M (X) — ее математическое ожидание. Рассмотрим в качестве новой случайной величины разность X − M (X). Отклонением называют разность между случайной величиной и ее математическим ожиданиям. Пусть закон распределения X известен: X x1 x2 … xn p p1 p2 … pn Тогда закон распределения случайной величины X − M (X) будет X x 1 − M (X) x 2 − M (X) … x n − M (X) p p1 p2 … pn Теорема Математическое ожидание отклонения равно 0, т.е. M (X − M (X)) = 0. Доказательство Пользуясь свойствами математического ожидания (математическое ожидание разности равно разности математических ожиданий, математическое ожидание постоянной равно самой постоянной) и приняв во внимание, что M (X) — постоянная величина, имеем M (X − M (X)) = M (X) − M (M (X)) = M (X) − M (X) = 0. Пример Пусть задан закон распределения случайной величины X: X 1 2 p 0.25 0.5 0.25 Убедимся, что математическое ожидание отклонения равно 0. Решение Найдем математическое ожидание X M (X) = 0 ⋅ 0.25 + 1 ⋅ 0.5 + 2 ⋅ 0.25 = 1. Теперь построим новый закон распределения X − M (X), который будет следующим: X −1 1 p 0.25 0.5 0.25 Тогда математическое ожидание отклонения будет равно: M (X − M (X)) = −1 ⋅ 0.25 + 0 ⋅ 0.5 + 1 ⋅ 0.25 = 0. Моменты высших порядков Моменты высших порядков Вторым начальным моментом (обычно опускают слово “начальный”) m2 дискретной случайной величины X называют математическое ожидание квадрата X(Y (x) 2 = x ) : n m2 = M 2 2 (X) = ∑ x pi , i i=1 если X — дискретная случайная величина и +∞ m2 = M 2 (X) = ∫ 2 x p(x)dx, −∞ если X — непрерывная случайная величина. Определение Моментом k − го порядка mk (k − м моментом) случайной величины X называют математическое ожидание k − й степени случайной величины X: mk = M (X k k ) = ∑ x pi , i i если X — дискретная случайная величина и +∞ mk = M k (X) = ∫ k x p(x)dx, −∞ если X — непрерывная случайная величина. Центральным моментом k − го порядка (k − м центральным моментом) случайной величины X называют математическое ожидание k − й степени случайной величины Xo = X— M (X): k M (X − M (X)) k = ∑ (x i − M (X)) pi , i если X — дискретная случайная величина и +∞ +∞ D(X) = ∫ −∞ Дисперсия k (x − M (X)) p(x)dx. Дисперсия Легко указать такие случайные величины, которые имеют одинаковые математические ожидания, но различные возможные значения. Например, средний балл на экзамене в двух группах равен «4», но в первой группе почти все студенты получили «4», а во второй группе «четверочников» нет вообще, но есть как «пятерочники», так и «троечники». Поэтому, наряду с математическим ожиданием, вводят число, характеризующее «разброс» случайной величины относительно своего среднего значения. Такой характеристикой обычно служит дисперсия. Дисперсией D(X) случайной величины X называют математическое ожидание квадрата отклонения случайной величины X от ее математического ожидания, т.е. 2 D(X) = M (X − M (X)) Используя определение второго начального момента и отклонения, можно легко вывести формулу для вычисления дисперсии: n 2 D(X) = ∑ (x − M (X)) pi , i=1 если X — дискретная случайная величина. Замечание Из определения дисперсии следует, что дисперсия любой случайной величины является неотрицательным числом. Дисперсия D(X) представляет собой второй момент центрированной (имеющей нулевое математическое ожидание) случайной величины, поэтому иногда дисперсию называют вторым центральным моментом случайной величины. Свойства дисперсии Свойства дисперсии Дисперсия удовлетворяет следующим свойствам: 1. Дисперсия постоянной величины C равна нулю,т.е D(C ) = 0 . 2. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат: D(C X) = C 2 D(X). 3. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин: D(X + Y ) = D(X) + D(Y ). Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме дисперсий этих величин. D(X1 + X2 + … + Xn ) = D(X1 ) + D(X2 ) + … + D(Xn ). 4. D(X) = M (X 2 ) − M 2 (X) Доказательство 2 D(X) = M (X − M (X)) = M (X = M (X = M (X 2 2 2 = − 2XM (X) + M 2 (X)) = ) − 2M (XM (X)) + M ) − 2M (X)M (X) + M 2 2 (X) = (X) = M (X 2 Среднее квадратическое отклонение ) − M 2 (X) Среднее квадратическое отклонение Нетрудно видеть, что дисперсия D(X) имеет размерность квадрата размерности случайной величины X. Для практических же целей удобно иметь величину, характеризующую разброс значений случайной величины вокруг ее математического ожидания, размерность которой совпадает с размерностью X. В качестве такой − − − − − величины естественно использовать σ = √D(X) , которую называют средним квадратическим отклонением. Например, если X выражается в линейных метрах, то σ(X) будет выражаться также в линейных метрах, a D(X) — в квадратных метрах. Пример Случайная величина X задана следующим законом распределения: X 2 3 10 p 0.1 0.4 0.5 Найти среднее квадратическое отклонение σ(X). Решение Найдем математическое ожидание X: 3 M (X) = ∑ x i pi = 2 ⋅ 0.1 + 3 ⋅ 0.4 + 10 ⋅ 0.5 = 6.4. i=1 Найдем математическое ожидание от X 2 : 3 M (X 2 2 2 ) = ∑ x pi = 2 i 2 ⋅ 0.1 + 3 ⋅ 0.4 + 10 2 ⋅ 0.5 = 54. i=1 Найдем дисперсию X: M (X 2 ) − M 2 (X) = 54 − 6.4 2 Тогда среднее квадратическое отклонение будет равно: − − − − − √ = 13.04. − − − − − −−−− σ(X) = √ D(X) = √13.04 ≈ 3.61. Теорема Среднее квадратическое отклонение суммы конечного числа взаимно независимых случайных величин равно квадратному корню из суммы квадратов средних квадратических отклонений этих величин: −−−−−−−−−−−−−−−−−−−−−−−−−− σ(X1 + X2 + … + Xn ) == √ σ 2 (X1 ) + σ Проверка знаний: числовые 2 (X2 ) + … + σ 2 (Xn ). Проверка знаний: числовые характеристики Задание 1 Известны дисперсии двух независимых случайных величин: D(X) = 4, D(Y ) = 2 . Найти дисперсию суммы этих величин. D(X + Y ) = Дисперсия случайной величины X равна 5. Найти дисперсию следующих величин: 1. D(X − 1) 2. D(−2X) . = . = 3. D(3X + 6) . = Найти дисперсию случайной величины, зная закон ее распределения: X 0.1 2 10 20 p 0.4 0.2 0.15 0.25 D(X) = Случайная величина X может принимать два возможных значения: x1 с вероятностью 0.3 и x2 с вероятностью 0.7, причем x1 что M (X) = 2.7 и D(X) = 0.21 . x1 = , x2 = . < x2 . Найти x1 и x2 , зная, Задание 2 Найти математическое ожидание дискретной случайной величины, зная закон ее распределения: X 6 3 1 p 0.2 0.3 0.5 M (X) = Производится 4 выстрела с вероятностью попадания в цель p1 = 0.6, p2 = 0.4, p3 = 0.5 и p4 = 0.7 . Найти математическое ожидание общего числа попаданий. M (X) = Дискретные независимые случайные величины заданы законами распределения: X 1 2 Y 0.5 1 p 0.2 0.8 p 0.3 0.7 Найти математическое ожидание произведения XY . M (X) = Найти математическое ожидание произведения числа очков, которые могут выпасть при одном бросании двух игральных костей. M (X) = Задание 3 Дисперсия случайной величины D(X) отклонение σ(X). = 6.25 . Найти среднее квадратическое σ(X) = Случайная величина задана законом распределения X 2 4 8 p 0.1 0.5 0.4 Найти среднее квадратическое отклонение этой величины. σ(X) = Найти дисперсию и среднее квадратическое отклонение случайной величины X, распределенной равномерно в интервале (0, 12). Ответ среднего квадратического отклонения округлите до тысячных. D(X) = σ(X) ≈ Числовые характеристики непрерывных Числовые характеристики непрерывных случайных величин Основные понятия и определения числовых характеристик случайных величин находятся в предыдущей главе. Здесь же даны лишь формулы для вычисления этих характеристик для непрерывных случайных величин. Обратите внимание, что формула вычисления среднего квадратического отклонения не изменяется. Математическое ожидание Дисперсия Проверка знаний: числовые характеристики непрерывных случайных величин Математическое ожидание Математическое ожидание Математическим ожиданием непрерывной случайной величины X, возможные значения которой принадлежат отрезку [a, b], называют определенный интеграл b M (X) = ∫ xp(x)dx. a Если возможные значения принадлежат всей оси Ox, то +∞ M (X) = ∫ xp(x)dx. −∞ Предполагается, что несобственный интеграл сходится абсолютно, т. е. существует интеграл +∞ ∫ |x|p(x)dx. −∞ Пример Найдем математическое ожидание равномерно распределенной на отрезке [a, b] случайной величины X. Поскольку в этом случае p(x) +∞ = 0 при x < a иx > b , то +∞ M (X) = ∫ xp(x)dx = −∞ a = b +∞ ∫ xp(x)dx + ∫ xp(x)dx + −∞ a ∫ xp(x)dx = b b = 0 + ∫ xp(x)dx + 0 = a b = ∫ xp(x)dx = a b = ∫ x 1 dx = b−a a = = x 2 2 b ∣ b−a ∣ 1 b−a 1 = a 2 b −a 2 2 = a+b 2 . В общем случае математическое ожидание случайной величины задается выражением +∞ M (X) = ∫ xdF (x), −∞ где F (x) — функция распределения случайной величины X. Дисперсия Дисперсия Дисперсией непрерывной случайной величины X, возможные значения которой принадлежат отрезку [a, b], называют определенный интеграл b D(X) = ∫ 2 (x − M (X)) p(x)dx a Если возможные значения принадлежат всей оси Ox, то +∞ D(X) = ∫ 2 (x − M (X)) p(x)dx. −∞ Проверка знаний: числовые Проверка знаний: числовые характеристики непрерывных случайных величин Данное взаимодействие необходимо успешно завершить, если Вы хотите получить оценку «хорошо» или «отлично». Разрешена ошибка максимум в одном задании. Задание 1 Найти математическое ожидание, дисперсию и среднее квадратичное отклонение непрерывной случайной величины X, плотность распределения которой имеет вид p(x) = { Все ответы округляйте до сотых. 1. M (X) 2. D(X) 3. σ(X) = = = 0, |x| > π/2; cos(x)/2, |x| ≤ π/2. Задание 2 Плотность распределения непрерывной случайной величины X имеет вид p(x) = { 0, x ∉ (0, 1); 2x, x ∈ (0, 1). Найдем начальные моменты первого, второго и третьего порядков случайной величины X, округляя ответы до сотых. 1. m1 = 2. m2 = 3. m3 = Задание 3 Найдите математическое ожидание, дисперсию, среднее квадратичное отклонение случайной величины X, имеющей плотность распределения 1 p(x) = e −|x−3|/2 . 4 Ответ округлите до сотых. 1. M (X) 2. D(X) 3. σ(X) = = = Нормальное распределение Нормальное распределение Напомним, что случайная величина распределена по нормальному (или гауссову) закону, или имеет нормальное (гауссово) распределение, если ее плотность (x−m) 1 p(x) = −− σ√2π e − 2σ 2 2 . Нормальное распределение зависит от двух параметров: m — математического ожидания, σ — средне-квадратичного отклонения. Плотность распределения вычисляется по формуле: x (x−m) 1 F (X) = −− σ√2π ∫ e − 2σ 2 2 dx −∞ Как известно из курса математического анализа, интеграл ∫ 2 e −x /2 dx не может быть выражен через элементарные функции. Поэтому во всех справочниках и в большинстве учебников по теории вероятностей приведены таблицы значений функции стандартного нормального распределения. Вероятность того, что случайная величина примет значение в интервале (a, b) равна b − m P {a < X < b} = F ( a − m ) − F( σ Числовые характеристики Замечания Значения функции Лапласа Пример Проверка знаний: нормальное распределение Числовые характеристики ). σ Числовые характеристики Найдем основные числовые характеристики нормального распределения и покажем, что M (x) = m и σ(x) = σ . Математическое ожидание По определению математического ожидания непрерывной случайной величины +∞ +∞ (x−m) 1 M (X) = ∫ xp(x)dx = −∞ Введем новую переменную z внимание, что z → −∞ x−m = при x = σ , тогда x иz → −∞ σ σ√2π ∫ = σz + m → +∞ (σz + m)e 2σ 2 dx. 1 √2π − и dx при x z = σdz → +∞ . Приняв во , получим 2 dz 2 −∞ +∞ = xe 2 −∞ +∞ M (X) ∫ −− σ√2π − ∫ σze − z +∞ 2 2 dz + −∞ m √2π ∫ e − z 2 2 dz. −∞ Первое из слагаемых равно нулю (под знаком интеграла нечетная функция; пределы интегрирования симметричны относительно начала координат). Второе слагаемое равно m, т.к. это Гауссов интеграл +∞ ∫ e − z 2 2 −− dz = √2π . −∞ Итак, M (X) , т.е математическое ожидание нормального распределения равно = m параметру m. Дисперсия и среднее квадратическое отклонение По определению дисперсии непрерывной случайной величины, учитывая, что , имеем M (X) = m +∞ (x−m) D(X) = ∫ −∞ = x−m 2 (x − m) e − 2σ 2 2 dx Введем новую переменную z внимание, что z → −∞ = при x x−m σ , тогда x − m → −∞ иz = σz → +∞ и dx при x → +∞ +∞ 1 D(X) = −− σ√2π ∫ . Приняв во , получим +∞ 2 (σz) e − z σ 2 2 σdz = 2 ∫ −− √2π −∞ Интегрируя по частям, положив u = σdz z 2 e − z 2 2 dz −∞ = z, dv = ze − D(X) = σ 2 z 2 2 , найдем dz . Следовательно, − − − − − −− 2 σ(x) = √ D(X) = √ σ = σ. Итак, среднее квадратическое отклонение нормального распределения равно параметру σ . Замечания Замечания 1. Общим называют нормальное распределение с произвольными параметрами m и σ > 0. Стандартным или нормированным называют нормальное распределение с параметрами m = 0 и σ = 1. Например, если X — нормальная величина с параметрами m и σ , то величина Y = (X − m)/σ — стандартная нормальная величина, причем M (Y ) = 0 и σ(Y ) = 1 . Плотность стандартного нормального распределения обозначают φ(x) и она равна 1 φ(x) = 2 −− √2π e x /2 . 2. Вероятность попадания стандартной нормальной величины X в интервал (0, x) можно найти, пользуясь функцией Лапласа x 1 Φ(x) = −− √2π ∫ e z 2 /2 dz, причем Φ(−x) . = −Φ(x) Для нахождения значений функции Лапласа используйте таблицу значений. Значения функции Лапласа Значения функции Лапласа x Φ(x) x Φ(x) x Φ(x) x Φ(x) x Φ(x) x Φ(x) 0,00 0,00000 0,50 0,19146 1,00 0,34134 1,50 0,43319 2,00 0,47725 3,00 0,49865 0,01 0,00399 0,51 0,19497 1,01 0,34375 1,51 0,43448 2,02 0,47831 3,05 0,49886 0,02 0,00798 0,52 0,19847 1,02 0,34614 1,52 0,43574 2,04 0,47932 3,10 0,49903 0,03 0,01197 0,53 0,20194 1,03 0,34849 1,53 0,43699 2,06 0,48030 3,15 0,49918 0,04 0,01595 0,54 0,20540 1,04 0,35083 1,54 0,43822 2,08 0,48124 3,20 0,49931 0,05 0,01994 0,55 0,20884 1,05 0,35314 1,55 0,43943 2,10 0,48214 3,25 0,49942 0,06 0,02392 0,56 0,21226 1,06 0,35543 1,56 0,44062 2,12 0,48300 3,30 0,49952 0,07 0,02790 0,57 0,21566 1,07 0,35769 1,57 0,44179 2,14 0,48382 3,35 0,49960 0,08 0,03188 0,58 0,21904 1,08 0,35993 1,58 0,44295 2,16 0,48461 3,40 0,49966 0,09 0,03586 0,59 0,22240 1,09 0,36214 1,59 0,44408 2,18 0,48537 3,45 0,49972 0,10 0,03983 0,60 0,22575 1,10 0,36433 1,60 0,44520 2,20 0,48610 3,50 0,49977 0,11 0,04380 0,61 0,22907 1,11 0,36650 1,61 0,44630 2,22 0,48679 3,55 0,49981 0,12 0,04776 0,62 0,23237 1,12 0,36864 1,62 0,44738 2,24 0,48745 3,60 0,49984 0,13 0,05172 0,63 0,23565 1,13 0,37076 1,63 0,44845 2,26 0,48809 3,65 0,49987 0,14 0,05567 0,64 0,23891 1,14 0,37286 1,64 0,44950 2,28 0,48870 3,70 0,49989 0,15 0,05962 0,65 0,24215 1,15 0,37493 1,65 0,45053 2,30 0,48928 3,75 0,49991 0,16 0,06356 0,66 0,24537 1,16 0,37698 1,66 0,45154 2,32 0,48983 3,80 0,49993 0,17 0,06749 0,67 0,24857 1,17 0,37900 1,67 0,45254 2,34 0,49036 3,85 0,49994 0,18 0,07142 0,68 0,25175 1,18 0,38100 1,68 0,45352 2,36 0,49086 3,90 0,49995 0,19 0,07535 0,69 0,25490 1,19 0,38298 1,69 0,45449 2,38 0,49134 3,95 0,49996 0,20 0,07926 0,70 0,25804 1,20 0,38493 1,70 0,45543 2,40 0,49180 4,00 0,49997 0,21 0,08317 0,71 0,26115 1,21 0,38686 1,71 0,45637 2,42 0,49224 4,05 0,49997 0,22 0,08706 0,72 0,26424 1,22 0,38877 1,72 0,45728 2,44 0,49266 4,10 0,49998 0,23 0,09095 0,73 0,26730 1,23 0,39065 1,73 0,45818 2,46 0,49305 4,15 0,49998 0,24 0,09483 0,74 0,27035 1,24 0,39251 1,74 0,45907 2,48 0,49343 4,20 0,49999 0,25 0,09871 0,75 0,27337 1,25 0,39435 1,75 0,45994 2,50 0,49379 4,25 0,49999 0,26 0,10257 0,76 0,27637 1,26 0,39617 1,76 0,46080 2,52 0,49413 4,30 0,49999 0,27 0,10642 0,77 0,27935 1,27 0,39796 1,77 0,46164 2,54 0,49446 4,35 0,49999 0,28 0,11026 0,78 0,28230 1,28 0,39973 1,78 0,46246 2,56 0,49477 4,40 0,49999 0,29 0,11409 0,79 0,28524 1,29 0,40147 1,79 0,46327 2,58 0,49506 4,45 0,50000 0,30 0,11791 0,80 0,28814 1,30 0,40320 1,80 0,46407 2,60 0,49534 4,50 0,50000 0,31 0,12172 0,81 0,29103 1,31 0,40490 1,81 0,46485 2,62 0,49560 4,55 0,50000 0,32 0,12552 0,82 0,29389 1,32 0,40658 1,82 0,46562 2,64 0,49585 4,60 0,50000 0,33 0,12930 0,83 0,29673 1,33 0,40824 1,83 0,46638 2,66 0,49609 4,65 0,50000 0,34 0,13307 0,84 0,29955 1,34 0,40988 1,84 0,46712 2,68 0,49632 4,70 0,50000 0,35 0,13683 0,85 0,30234 1,35 0,41149 1,85 0,46784 2,70 0,49653 4,75 0,50000 0,36 0,14058 0,86 0,30511 1,36 0,41309 1,86 0,46856 2,72 0,49674 4,80 0,50000 0,37 0,14431 0,87 0,30785 1,37 0,41466 1,87 0,46926 2,74 0,49693 4,85 0,50000 0,38 0,14803 0,88 0,31057 1,38 0,41621 1,88 0,46995 2,76 0,49711 4,90 0,50000 0,39 0,15173 0,89 0,31327 1,39 0,41774 1,89 0,47062 2,78 0,49728 4,95 0,50000 0,40 0,15542 0,90 0,31594 1,40 0,41924 1,90 0,47128 2,80 0,49744 5,00 0,50000 0,41 0,15910 0,91 0,31859 1,41 0,42073 1,91 0,47193 2,82 0,49760 0,42 0,16276 0,92 0,32121 1,42 0,42220 1,92 0,47257 2,84 0,49774 0,43 0,16640 0,93 0,32381 1,43 0,42364 1,93 0,47320 2,86 0,49788 0,44 0,17003 0,94 0,32639 1,44 0,42507 1,94 0,47381 2,88 0,49801 0,45 0,17364 0,95 0,32894 1,45 0,42647 1,95 0,47441 2,90 0,49813 0,46 0,17724 0,96 0,33147 1,46 0,42785 1,96 0,47500 2,92 0,49825 0,47 0,18082 0,97 0,33398 1,47 0,42922 1,97 0,47558 2,94 0,49836 0,48 0,18439 0,98 0,33646 1,48 0,43056 1,98 0,47615 2,96 0,49846 0,49 0,18793 0,99 0,33891 1,49 0,43189 1,99 0,47670 2,98 0,49856 Пример Пример Математическое ожидание и среднее квадратическое отклонение нормально распределенной случайной величины X соответственно равны 10 и 2. Найти вероятность того, что в результате испытания X примет значение, заключенное в интервале (12, 14). Решение Воспользуемся формулой: b − m P {a < X < b} = Φ( a − m ) − Φ( σ Подставив a , , = 12 b = 14 m = 10 иσ , получим = 2 . По таблице значений функции Лапласа1 находим: 0.34134 . Искомая вероятность P {12 < X < 14} = Φ(2) − Φ(1) Φ(2) = 0.47725, Φ(1) = ). σ P {12 < X < 14} = 0.13591. 1. Таблица значений функции Лапласа Проверка знаний: нормальное Проверка знаний: нормальное распределение Задание 1 Случайная величина имеет нормальное распределение с математическим ожиданием m = 10 и средним квадратическим отклонением σ = 5. Найти вероятность того, что случайная величина примет значение, принадлежащее интервалу (5, 25). Распределение случайной величины X подчинено нормальному закону с параметрами m = 15 иσ = 10 . Вычислить 1. Вероятность того, что случайная величина примет значение, принадлежащее интервалу (3, 30) ≈ 2. Вероятность того, что абсолютная величина отклонения меньше числа δ т.е. P (|X − 15| < 9) ≈ Обязательная оценка курса = 9 , Обязательная оценка курса
«Теория вероятностей и математическая статистика» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти

Тебе могут подойти лекции

Смотреть все 938 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot