Справочник от Автор24
Поделись лекцией за скидку на Автор24

Основы теории вероятностей и математической статистики. Часть 1

  • ⌛ 2019 год
  • 👀 351 просмотр
  • 📌 293 загрузки
  • 🏢️ ГУАП
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Основы теории вероятностей и математической статистики. Часть 1» pdf
             ! "#$ %&' ()$ !' $* +,-./-01/12342+.56 7+48,2+/91--:6 4-5912+5/1/ ,;27.7+<5=1+.77 0253727+/271-5> ?. @. ABCBDEFEG, ?. H. IJKLF MNOPQRO SRTRPUO VWXYZ I [\]^_-`a_abcdbe 2012 #  519.2 "" 22.171 /24 !aa]a]_:   -      ,   ..    -      ,   (.. -  #_ab a]$ ba \^%$]]$-% \_a&')^%* )$a_$* d]%ab)%_a_\  ^\.a)_a d.ac]$e$ +$)$c%, -01023435 6. 7., 89:;4 6. <. =24 >?@ABC DEAFGG BEFAHD@A?DEI G JKDEJKDGLE?MAI ?DKDG?DGMG: NLEO. PA?AOGE / Q.R. =KFKSA@AB, Q.T. UVWG@. – XYO.: RZ[Y, 2012. \.1 – 105 ?.: GV. ISBN ZLEO@AE PA?AOGE ?A?DKBVE@A B ?AADBED?DBGG ? PFA]FKJJAI PA BC?^EI JKDEJKDGME _VH ?DN_E@DAB, AONLK`aGb?H PA @KPFKBVE@GHJ «YFGOAFA?DFAE@GE», «cK_GASGdGMK» G «U@SAFJKDGMK», B DAJ LG?VE @K dKAL@AJ SKMNVWDEDE. Q PEFBAI LK?DG PA?AOGH FK??JADFE@C FKd_EVC MNF?K DEAFGG BEFAHD@A?DEI, @KLG@KH ? PA@HDGH ?VNLKI@A]A ?AOCDGH G APEFKeGI @K_ @GJG G dKMK@LGBKH ?G?DEJKJG ?VNLKI@Cb BEVGLG@. fKg_CI FKd_EV ?A_EFgGD DEAFEDGLE?MGE ?BE_E@GH G SAFJNVC, PFAGVV`?DFGFABK@@CE PA_FAO@A FKdAOFK@@CJG PFGJEFKJG. hKBEF^K`D PA?AOGE 10 BKFGK@DAB, MKg_CI Gd MADAFCb ?A_EFgGD PA 9 dK_KL Gd FKd@Cb FKd_EVAB DEAFGG BEFAHD@A?DEI. QAPFA?C JKDEJKDGLE?MAI ?DKDG?DGMG FK??JKDFGBK`D?H BA BDAFAI LK?DG NLEO@A]A PA?AOGH. Zif 519.2 TTf 22.171 ISBN 2 © Q.R.=KFKSA@AB, Q.T.UVWG@, 2012 © RZ[Y, 2012            .  .           .    .,             .  !. -"  .           # .  .      . "   $   :    %  &     ,     –    .    .. '$&   .%     &,   &      .          .    .. (   I    .           &  ,   %  $ )&   . &   (. 1),  ) % # .      .         &  (. 2,3),  * &  &      )& ( &) & . !  %  *& .%%  &  )   )    (. 4), * &        +  (. 5)  *  + (. 6).     &      &          .           &,   %  &   & .  . .  (. 7). ,       &       & &  (. 8). - &  / $ ) /  ,    &,        ,     &,        .  . $ . " &    .   &  $ . . /   &  /     .  .  &    .. "  )  /       ) ,      $   *   . 5%   10  , .) & $ . & )  9 $  $ $& $       . ?@ABC-DECEFGHFI, @JIHKC 2012 I. 0.1. 234367879 0.:. ;<=>8 3   I.      &  ! " ! #$%'$  (%)$ ($: "$ * ( +,%- " *% ) (. /%',  " *%  $ ) (. /%'. 0 6% " /$ 12345789: 1;<9=>? @ABCDEBFGH DAIJKCHLMNKB OIDHB, I FAPQCL – FBJBMNKB ALFRB. SHKBDCHLMNKIG OIDHBHI DBTUHCG, H.L. BHKBVLKCL OCDMI LQB @BGJMLKCW R OCDMP KITMXFLKCW, D ABDHBY @BDMLFKLQB BTUOKB @ACTMCZILHDG R KLRBHBABYP OCDMP, KI[UJILYBYP \]^_`ab_cade fghhiji klmngohiji kipqrst. uvpiw sxywzwhsw {sxsnwk|io }wlsnshq – ~ri rg|w klmngohiw kipqrsw, s, klwfi}grwl€hi, zwxml€rgr sxywzwhst – ‚ƒ„ †‡ ˆ ‰Š‚‹„‹‡ : ŒŽ Œ‘’“” Œ“‘•” ’• –—˜‘ ŒŽ’Ž–•‘™ •š›Žœ’“˜ š’•œ˜’Ž ž •š’Ÿ ˜‘’ž‘™ . ¡•¢ ž›˜£ž‘Ž˜ š’Ž¢•˜‘ –’—˜ž‘ Œž, •—’“” £› Œ•¢‘Ž¢Ž. ¤•ŒŽ–˜, ˜ž›Ž Œ˜£˜’ ’˜ž¢›™¢ Žš–˜˜’ŽŸ ž›¥œ•Ÿ’Ÿ ˜›ŽœŽ’“, ‘ –—’ ›Ž Œ˜£ž¢•š•‘™ •š¦ž ˜š¥›™‘•‘ Œž›˜£¥ §Ž” Žš–˜˜’ŽŸ? ¨›Ž ¦¦§•, –—’ ›Ž Œ ’˜¦›™©Ÿ “¦¢˜ Žš –’—˜ž‘• (š’•œ˜’ŽŸ, › £˜Ÿ, ž¦“‘ŽŸ Ž ‘.£.) Œ˜£˜›Ž‘™ ‘ Ž›Ž Ž’˜ ž˜£’˜˜ žŸž‘ ª›˜–˜’‘ ª‘« –’—˜ž‘•? ¬š–—’ ›Ž, ž £¥«Ÿ ž‘’“, Œ˜£˜›Ž‘™, ’•ž¢›™¢ £ž‘˜’ ‘ Ž›Ž Ž’˜ Œ˜£Œ›—˜’Ž˜  ”••¢‘˜˜ ž›¥œ•Ÿ’Ÿ ˜›ŽœŽ’“? ­‘˜‘“ ’• ª‘Ž Ž –’«Ž˜ £¥«Ž˜ Œž“ £• ‘ ®¯°±²³ ´¯±°³®µ°¶®¯· ² ¸¹®¯¸¹®²º¯¶»¹³ ¶®¹®²¶®²»¹. ¼½¾ ¿ÀÁ¾ ÃÄÅƾǾÈÉ Æ ¿ÀÊÀÇË XVIII ÆËÂÀ. ÌËÍÄοŠĿ¾ ÅÆÇÅϽÈÅ ÆÀпÑÒ ÓÀÔÎËÇÄÒ ÒÀ½ËÒÀ½¾Â¾, ÂĽÄÓÑÕ ¾ÔÁÊÀ˽ ÈÆÄÕȽÆÀ ÆËÓÄŽ¿ÄȽ¾ ¾ ÈÃÄÈÄÖÑ ÃÓ¾ÒË¿Ë¿¾Å ×½ÄÍÄ ÃĿŽ¾Å. ØÓËÎÒ˽ÄÒ ×½¾Ù ¿ÀÁ ÅÆÇÅϽÈÅ Ò˽ÄÎÑ, ÃÄÔÆÄÇÅÏÚ¾Ë ¿ÀÙÄξ½É ÆËÓÄŽ¿ÄÈ½É ÈÄÖѽ¾Õ ÖËÔ ÃÓÄÆËÎË¿¾Å ÄÃѽÄÆ, ¾ ÃÄÎÙÄÎÑ, ÃÄÔÆÄÇÅÏÚ¾Ë ÃÓËÎÈÂÀÔÑÆÀ½É ÄÖÚ¾Ë ÓËÔÁÇɽÀ½Ñ ÃÄÈÇËÎÁÏÚ¾Ù ÄοĽ¾Ã¿ÑÙ ÄÃѽÄÆ ¾Ç¾ ¿ÀÖÇÏÎË¿¾Õ. ÛÀÂ¾Ë Ò˽ÄÎÑ ¾ ÃÓÄÍ¿ÄÔÑ ¿ÁÐ¿Ñ ÆÄ Ò¿Ä;٠ÄÖÇÀȽÅÙ ¿ÀÁ¾ ¾ ½ËÙ¿¾Â¾, Æ ½ÄÒ Ê¾ÈÇË Æ ÃÓ¾ÖÄÓÄȽÓÄË¿¾¾, ÓÀξĽËÙ¿¾ÂË, ܾԾÂË, Ö¾ÄÇÄ;¾, ×ÂÄ¿ÄÒ¾ÂË, ÈÄݾÄÇÄ;¾ ¾ ÎÓÁ;٠¿ÀÁÂÀÙ. 4 1.    1.1.       !"#$%& '()*+(,-./ +./01, 1.23,.-+4,'5, 167,8,4,''*9 2.41+5: 5 8,:.-+5:, 675 01-17*9 '(;4<8(,-./ 7(..=(-75+(,=1, .42>(:'1, /+4,'5,. ?,175/ +,71/-'1.-,: 5)2>(,- =(..1+*, .42>(:'*, /+4,'5/, -.,. 67,8614(@(,-./, >-1 4<;1: 16*- =1A'1 61+-17/-B .014B01 2@18'1 7(). CDEFGHIJ KLMNOLPQRS TUVLS WLXPRQOPKKLS YLZLWQPZ[RQ[WL ZPM\T]QLQL ^_NQL. `^VNQ[P KLMNOLPQRS abcdbefghij, klmn opo oqrstukmvpo wxonlyoznu { xks|mvutuk ow}ut. ~oq}unk pts}{tkulr €‚ƒ„‚ †„, ‡ˆ‰Š ‹Œ‹ ŒŠ‹Ž Œ‡ ‘’‹Šˆ“‹Š” • ’‡–—‰˜””‡ ‹‘™”. š›œžŸ ¡¢ £¤¥¦§¤¨© ª«¬¦©­®, ¯«©«°«® ±«²®© ³°«­¥«´©­ ­µ­ £® ³°«­¥«´©­ § °®¥¶µ·©¤©® «³¦©¤. ¸¹º»¼¹½¾»¼¿ºÀ Á ÂÃÄÅÃÆÇÈÉ ÊËÉÃÌàÍÎÏÐÑ ÒÑÓÏÔÑÕÐ ÖÒÍ×ØÙÐÔÍ ÚÛØÖØÒÐÑÜÒÏÝ ÙÍÞÏÐßà, Ð.Ø. ÖÒÍ×ØÙÐÔÍ ÔÙØÝ ÔÍÓÖÍ×ÒÏÝ ßÙÝÍáÍÔ ÍÎÏÐÑ. âÕÞÍØ ÙÛãäÑàÒÍØ ÙÍÞÏÐßØ ÙÔåÓÑÒÍ Ù ÎÜÍÙÐÜÑÒÙÐÔÍÖ æ. çèéêëìíîï ðîñòóôï õö÷ø ùúûüýúþõö÷ÿú ùúö÷ ýö÷ÿ ÿú üúþý öúûúÿ úù÷ . *÷ú ùúûüýúþõö÷ÿú öúö÷ú÷  6õüõý÷ ý öú÷,  úù÷ö÷ÿ  û ýýúü ö ýúü öú÷, ÷.õ. ÷  6õüõý÷ ý öú÷, ý ö÷ùõýõ ú÷ú ÿõ õ÷ öúú ý ö÷ùõý û ýýú ú öú÷. ' úú ý õý ö ý öú÷ öùúø ÷ö  ÿýõ  ÿ  ÷ýö ú ú  ÿ÷ A, B, C, ..., Z. 'úö÷úÿõýúõ öú÷õ úú ý õ÷ö  ÿú U, ù 6÷úü öúú÷ÿõ÷ö÷ÿ õõ õü ùúûüýúþõö÷ÿú öúÿù û õ÷ ö ùúö÷ ýö÷ÿúü 8. õ÷ö  ÿú V, ù 6÷úü öúú÷ÿõ÷ö÷ÿ õõ õü õÿú üúþýúõ öú÷õ úú ý ùúûüýúþõö÷ÿú ùúö÷ ýö÷ÿ 8 ýõ öúûõþ÷ 6õüõý÷úÿ 6÷ú ú ùúö÷ ýö÷ÿ , ÷.õ. ÿõ÷ö ùö÷ü üýúþõö÷ÿúü Ø. ! ööüú÷ü öõû õ úù ÷:  1.  "#$% &$%(. ) +& ,(% &-$( # . #: 1) &$%# (,##% %. “/&” (+/%&%$#$% "(% 91)  2) & $%# (,##% %. “%012” (+/%&%$#$% "(% 92). ) #$$& /34#% ,#$ 5 &-$(. . ,(# %- /71 # +/%&%$# (+/%&%$#$(% "( 91  92), .%. 5 = {91, 92}. :;<=>; 2. ?@ABCDAEBFGH I@AGJKBL BM@JNOKAP QAGFB. RELGO S@AGF@JKGFDA T DACUAVKWX BGXAEAD ASWFJ GAEL@VBF YLGFO ZNLULKFJ@KWX GAIWFBP [k, MEL k – DWSJDYLL \BGNA , T = {[1, [2, [3, [4, [5, [6}. ], KJS@BUL@, GAIWFBL A, CJQN^\J^_LLGH D DWSJELKBB \LFKAMA \BGNJ, I`ELF SAEUKAVLGFDAU, GAGFAH_BU BC F@LX ZNLULKFJ@KWX GAIWFBP, J BULKKA A = {[2, [4, [6}. 1.2. abcdefgg hei jklmenhopg jqrosgtpg uvwxyz{|} ~€|‚ƒ ƒ„vƒ ~ƒ †‡ˆ{‰}~„yˆ‚ †Š~Šy{~„y ‹, †Œˆw ‡}z~„‚ƒ {y‡ {‚ˆ‚ }~ ‡}z~„‚ƒ {y‡ ˆ{‰}~„yˆ‚. 5 "w‡}ˆ „Š‚, x   A       B (  A⊂B),     A   .    B. '!#  #,  6#  # $,   %!   A,  6##  # $,   %!   B, ..,  9∈A ⇒ 9∈B. &()*+,-)/ 0123457 A 5 B (1218:;<=:5= A = B) 18:;<;=4, <41 :;04>?@=:5= 1A:1B1 58 C45D 0123457 E@=<=4 8; 01217 :;04>?@=:5= AF>B1B1 012345G (4.=. A⊂B 5 B⊂A). H1AI:1J=04E;, 0114E=404E>KL5= 012345GI A 5 B, 01A=FJ;4 1A:5 5 4= J= C@=I=:43, 4.=. M∈A ⇔ M∈B. NOPQRSTQTSQU VWXYZ[\ A [ B ]^_Y`^aZVb VWXYZ[a C = A∪B [c[ (A+B), VWVZWbdaa ` ]^VZefca][[ gWZb XY Wh]WiW [_ jZ[g VWXYZ[\ A [ B. kWhl]WmaVZ`W, VWWZ`aZVZ`endaa VWXYZ[n A∪B, VWVZW[Z [_ jcala]ZW` fWhl]WmaVZ`, VWWZ`aZVZ`end[g VWXYZ[bl A [ B, Z.a. o ∈ p = A∪B, qrst u∈A tst u∈B. vwxwywzw{|w} ~€‚ƒ„ A ƒ B †‡ˆ†‰‚~Š ~€‚ƒ‰ C = A∩B ƒ‹ƒ (AB), ~~‚ŠŒ‰‰ ˆ  ˆŽ‰‰  †~‚‘‹‰ ƒƒ ~€‚ƒ„ A ƒ B. ’ “‰~‚ˆ, ~‚ˆ‰‚~‚ˆ”Œ‰‰ ~€‚ƒ” A∩B, ~~‚ƒ‚ ƒ‡ •‹‰‰ ‚ˆ, €Œƒ– ‹Š ‘ “‰~‚ˆ, ~‚ˆ‰‚~‚ˆ”Œƒ– ~€‚ƒŠ A ƒ B, ‚.‰. —∈˜ = A∩B, ™š›œ ∈A œ ∈B. žŸ ¡¢£¤¥¦ §¨©ª«¬­ A ¬ B ®¯°ª±¯²«§³ §¨©ª«¬² C = A\B, §¨§«¨³´²² ± «¨µ, ¶«¨ §¨©ª«¬² A ·¸¨¬§¹¨º¬«, ¯ §¨©ª«¬² B ®² ·¸¨¬§¹¨º¬«. »¨ºµ®¨¼²§«±¨, §¨¨«±²«§«±½¾´²² §¨©ª«¬¾ A\B, §¨§«¨¬« ¬° ¿À²µ²®«¨±, ·¨ºµ®¨¼²§«±¯ A °¯ ±ª¶²«¨µ ¿À²µ²®«¨± ·¨ºµ®¨¼²§«±¯ B, «.². Á∈ = A\B, ÃÄÅÆ Ç∈A Æ Ç∉B. ÈÉÊËÌÆÃÍ, ÎÏÐÑÒÓÐÎÐÔÐÕÖ×Ø ÙÚÛÜÝÞß A, àáâÜãáäÝÙå ÙÚÛÜÝÞä C = A , ÙÚÙÝÚåæää ã ÝÚç, èÝÚ ÙÚÛÜÝÞä A àä éêÚÞÙëÚìÞÝ. íÚìçàÚîäÙÝãÚ, ÙÚÚÝãäÝÙÝãïßæää ÙÚÛÜÝÞß A , ÙÚÙÝÚÞÝ Þâ ðñäçäàÝÚã éêÚÙÝêáàÙÝãá ò ãÚâçÚîàÜë ÞÙëÚìÚã ÚéÜÝá, àä éêÞàáìñäîáæÞë éÚìçàÚîäÙÝãï, ÙÚÚÝãäÝÙÝãïßæäçï ÙÚÛÜÝÞß A, Ý.ä. ω ∈ A , äÙñÞ ω ∉ A (ÞñÞ Þàáèä ó∈(ò\A)). ôâ ÚéêäìäñäàÞå êáâàÚÙÝÞ ÙÚÛÜÝÞõ A Þ B Þ éêÚÝÞãÚéÚñÚîàÚöÚ ÙÚÛÜÝÞå, ÙñäìïäÝ ÙÚÚÝàÚ÷äàÞä A \ B = A ∩ B . øÚÛÜÝÞå A Þ B àáâÜãáßÝÙå ùúûüýþúûÿùþ ,  A∩B = V, . .     .      - '            –     –         ,      8     ,    –   .      !"#$"%% &()**"             (+,-. 1.1), ./ 0121+34 +5679:2/23 1;5+/<,= ,61>+/?5.3 @ @,A5 6/25B.5..34 C,D7+ (0+1B5 +,-. 1.1A). E;5+/<,= 1>F5A,.5.,= -1>32,G ,61>+/?5./ ./ +,-. 1.1/, ;5+5-5H5.,= – ./ +,-. 1.1>, +/6.1-2, – ./ +,-. 1.1@. I+12,@1;191?5..15 -1>32,5 (A1;19.5.,5) ;10/6/.1 ./ +,-. 1.1D, [email protected] -1>32,= – ./ +,-. 1.1A. 6 # . 1.1. & %     Ak (k = 1, 2, …, n)   ,  ! " $'( )*+* ,-.*+ ,/0'+* )1, 2, 31, 1+*(-!*) 4,*0 /. ,21, !' 6*!4 ,/.*!5, *.. ,/72!11! "4 ,/.*!5 Ak 0" 0*0 2,*,"$1.8 ,/.*!8 n U Ak = U . k =1 9/.:1, $+8+*$!"+;* -, 1(; <$(--( 1,"8*1.4 ,/.*!5, =,<2+ ,/.*!0 Ak -,-+$1, 1,"8*1. Ak∩Aj = V -$! k ≠ j. >$!8$,8 -, 1,5 <$(--. 1,"8*1.4 ,/.*!5 8,<(*  (3!*) ,/.*! ? @ ABCD@ECACFCGHCI JCKLD@I A. MINJDE@DIFOHC A ∪ A = U , HC A ∩ A = V . P@GI AB@EIQIHL JECNJDER, SCDCBLT ACQU@HVWDJV CAIBRX@@ CKYIQ@HIH@V @ AIBIJIUIH@V JCKLD@N: Z[\\]^_^`ab[c^d: A∪B = B∪A, A∩B = B∩A; _cc[e`_^`ab[c^d: A∪(B∪C) = (A∪B)∪C, A∩(B∩C) = (A∩B)∩C; f`c^g`h]^`ab[c^d: A∪(B∩C) = (A∪B)∩(A∪C), A∩(B∪C) = (A∩B)∪(A∩C). ijklhg[m c[hn^`m ℑ opqrsptu upvwt xysyvwzoyxu{ zy|}oy~xus z€yxu€poxusp ‚}oup€orƒ xy„ru † ‡, u.. zy xwu , upvy }oy~xusy xy„ru †, vyuy€y sv‚tˆpu: 1) |yxuys€oy xy„ru , u.. ‡∈ℑ; 2) z€yu syzy‚y~oy xy„ru  A |‚‰ ‚t„yŠy xy„ru ‰ ‹∈ℑ; 3) ŒŽ‘’ A∪B “”• –—˜“™ š—› ŒŽ‘™ œ,∈ℑ. žŸ ¡Ÿ ¢£¤¥Ÿ ¦Ÿ¥§¨§©ª ©£Ÿ«£¬­ Ÿ ©Ÿ¬, ®©Ÿ ¢¯°§± §¢¤£°«§ ²Ÿ°³©´µ ¨§¬¥¡­©§ Ÿ©¡Ÿ²´©£¢ª¡Ÿ ¥Ÿ¡£®¡Ÿ¤Ÿ ®´²¢§ ©£Ÿ«£©´¥Ÿ -¬¡Ÿ £²©¶£¡¡³· Ÿ¸£«§¹´µ, ©.£. «£¨­¢ª©§© ¦£µ²©¶´± ¥Ÿ¡£®¡Ÿ¤Ÿ ®´²¢§ Ÿ¸£«§¹´µ ¡§¦ º¢£¬£¡©§¬´ §¢¤£°«³ ¶¡Ÿ¶ª ¦§£© º¢£¬£¡© §¢¤£°«³. 7 ²¢´ ¡§¦ ²Ÿ°³©´±¬´ ¡­ ¡Ÿ Ÿ²­£²©¶¢±©ª °£²¥Ÿ¡£®¡Ÿ£ ®´²¢Ÿ Ÿ¸£«§¹´µ, ©Ÿ ¶¶Ÿ¦±© ¸Ÿ¡±©´£ )- . &                 ,                '1, '2, …, 'k, …, !"#$%(*#4!+ "(,-.--/ <-#%0(1( ℑ, -12($!"("!( 6.!+ 3-15.!/ .#,*( !"#$%(*!. ∞ ℑ, ..(. U Ak ∈ ℑ. 7-*"- $-,#8#.9 .(-(:; - .-:, =.- <-#%0(1# 8#:,";.# -."-- k =1 3!.(%9"- 1(3,-"(="-0- =!3%# -(#>!/. ?.-15 ;@3"!.9 3A@89 .(:!"-%-0!! A .(-!! :"-*(3.A 3 .(:!"-%-0!(/ A .(-!! A(-@."-3.(/, !A($(: 3%($;B4;B .#1%!>;: CDEFGHD 1.1 IEJKLDMNLGN CNOPGLJFJQGR S TNJOGG PLJUNVTS CNOPGLJFJQGR S TNJOGG SNOJRTLJVTNW X YZ[\]Z^_\]`[ ([\_[`_[a b_[ca\]`[) YZ[\]Z^_\]`[ deaba_]^Z_fg h\g[i[`, i[\][`aZ_[a \[jf]ha ω∈X keaba_] ω lZ[\]Z^_\]`^ Ω keaba_]^Z_[a \[jf]ha (heh h\g[i [lf]^) ω A⊂X m_[ca\]`[ n opqrstu v A∪B v+w xyz{|}~{~}{ ~€{‚ƒ„ † ‡ ˆ‰Š‹ŒŽ‹Ž‹  ‘’’“ ”‰•–— ˜ ™ š A∩B ›š œžŸ ¡¢ £¡¤¥Ÿ¦§ ¨ © ª «¬­¬®¬¯¬°±¬ ±²± ³­´±µ¶¬·¬°±¬ ®´¸¹º±» ¼ ½ ¾ Ø ¿ÀÁÂÃÄ ÅÆÃÇÄÁÂÈà ÉÄÈÃÊÅÃÇÆÃÄ ÁÃËÌÂÍÄ A ÎÃÏÃÐÆÍÂÄÐÑÆÃÄ ÅÆÃÇÄÁÂÈà ¿ÒÃÂÍÈÃÏÃÐÃÇÆÃÄ ÁÃËÌÂÍÄ A∩B = Ø ÓÔ = Ø Ó Õ Ö ×Ø ÙØÚØÛØÜÝÞßÛà áâã äåæçèéåæêäë A⊂B ì íîïðñòóôíõ ö ÷ ø ùúûüûý þ ÿ=þ ÿ     '  .   !"#$% %&( )*" +,! -!)! ./$0!%)! ! ./$0!%)! #$" 12!%)!. 3$./!)/, 4/$&$  +,! -5 ./$0!5 “./!&5" 12! A 676 89:;<=> B” ?@A=ABC>D “HF9=G9IJ>< 89:;<=> A∪B”. 8 1.3.     - - $    3 &.     6   ! !"# % (! (". ". 1.1), ' %' " %")  *#   *#  +"  ,* "" (". +  1.2). . #  ,/ !% 0, "" +01 "1. 245784 1.1. 9:; <=<;> ?@ABC;D> E F G HIJKILMI NOHPMQRHI A∪B = A? STUTVWT. XYZ[\]^[^][ _`Yab]c A∪B [_bd _`Yab][, efghijfik[[_l m ^f_bnoh[^]] p`bl Ya `\^`q` ]e _`Yab]c r s t. uvwxyz{|wv}~y , ~{|€vw~‚w y ƒ„|‚ † ‡ˆ‰Š‰‹ Œ Ž‘ ’Ž‹“”ˆ‰’•‰ Ž–‹•— A∪B, ‹.‰. A ⊂ A∪B. ˜ ™™š Žˆ“Š‰ ’Ž‹“”ˆ‰’•‰ Ž–‹•— A∪B ‡ˆ‰Š‰‹ Œ Ž‘ ’Ž‹“”ˆ‰’•‰ Ž–‹•— ›, œ.. A∪B ⊂ A? žŸ ¡¢Ÿ £ œŸ¤ ¥ ¦§¨, ¢Ÿ©ª¨ «¨¥œ¦¬ «­ ¥Ÿ®¯œ­° ± ²³´µ´¶ ·¸ ¹º»º¼ ½¸¹¶¾¿³´½À´ ¹º»Á¶À Ã. ÄÅÆÇÈ ÉÊËÅÌÉÈ, ËÅÍÎÏÐÑÍÉ ÍÉÌÈÉÒÏÉ ÑÉÓÔÆÉ Í ÐÓÕÖÅÎ B⊂A. ×ØÙÚÛØ 1.2. ÜÝÞßàßáâ ãäåßæäãçáæÝ A ∩ B = A ∪ B. èéêéëìé. í îïðñòóôõôï ö÷øôõ ùöúøôûï ü ýþÿ þþ   ( . . þþ þ þþþÿ þ þ  A ). "  ý þþ    – 0þ 0.   þ  0þ 1, þþ     - ! ýþ ý  þýþÿ .þý 0          þ  '      #$%&$% ()*$ (()*$ ((), +(,- # ,/( ,11 2 )2(-. 3456784 1.2. A B A B A∪B A∩ B 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 A∩ B 9: ;<=<>, ?@A B@ACDE:, BAA@;F@B@;GHI A∪B < A∩ B BA;- KLC<, @.F. M@< BAD:@* ?-32)-&. )**&+,&)&+$012, 3*%45*7,)&+- %/@ 3<*&2+*3*/*75AB )*#A&2C: A = {ω0 } = B, B = {ω1 , ω 2 , ω3 } = A . D#E,%25,52, )*#A&2C A∪B %-,& %*)&*+,<5*, )*#A&2, A∪B = {:0, :1, :2, :3} = U. F,<,),G,52, )*#A&2C A∩B ,)&. 5,+*?4*75*, )*#A&2,, &-> >-> 5,& *#12B H/,4,5&-<5AB )*#A&2C A∩B = V. I/@ <-?5*)&2 )*#A&2C A\B + )**&+,&)&+22 ) *3<,%,/,52,4 3*/$G-,4 A\B = {:1, :2, :3}. J*#A&2, A\B 4*75* 3<,%)&-+2&. 2 + %<$=*4 +2%,: A \ B = A ∩ B = A ∩ A = A = {ω1 , ω2 , ω3 }, &-> >-> 24,,& 4,)&* )**&5*K,52, B = A . 10 2.           ! "#$%& '()*%*+,- *.,% .+*/01*2/%$3 N +40 .+/ *2/'4)*1,5 #$6*1/35, .+/ 7%*8 $6#94-'*( $*:,%/( ; <=>?@A>B?C N(A) =DE. F?@G> N(A) HDEIJDKC@L MNOPQPQR STUVWXY Z, [ \]^\_`^a` N(A)/N – bcdbefcghidbj klecbcbj mnopqrs t. uvwxyzw{|}~, |€ ‚ƒ „€ †‡ƒˆ N €|‰€}ƒ|{ †‰w~ w}|€|w Š ~ } ‹wŒ‰yˆ w}}€zyˆ }€„y|ƒŒ (ƒˆ €Ž‰€ ‰w„ Šw|† ‚ƒ €Šƒ‰wv€zyˆ ‹} €zƒ~ˆ }v€ †v€ ‹€Š‰€ ‚wx) €„ wŠw{| }z€Œ}|z€ ‹}|€Œƒz€}|ƒ, |.{. z ‰{}v€ †vƒˆ }{‚ƒ~ˆ ƒx Š€}|w|€‰€ „€ †‡€€ v€ ƒ{}|zw N1, N2,… , Nk ‰w„ Š{‰ƒŒ Šw‰‰€€ €y|w ƒ{| {}|€ ‚ƒ„ ƒŽ{‰‰y{ ‚wz{‰}|zw 2.1. N ( A) N1 ( A) N 2 ( A) . ≈ ≈ ... ≈ k N1 N2 Nk (2.1) ‘wvƒ €„‚wx€, €|‰€}ƒ|{ †‰w~ w}|€|w }€„y|ƒ~ ’ “”•–—•–˜™š ”“”•” ”›œ”” ž ˜”” Ÿ– ž™•¡, “”˜”¢”– £¡¢¡“˜–¢ž¤¥–˜ ›¡œœ”– ™•¥ ¡¦œ”– ™”—§˜ž– ¨. ©ª« ¬­®¯« p(A) °±²³´±µª®¶ ·¸¹º»¼½º¾¼¿À ÁÂÃÄÅÆÇ A. ÈÉ ÊÅÂË ÂÌÍÎÏÎÐÎÑÆÇ ÁÐÎÏÒÎÅ, ÓÅ ÉÔ ÕÎÍÂÇÅÑÂÁÅÖ ÁÂÃÄÅÆÇ ÌÍÆÃÐÆ×ÎÑÑ ØÂ×Ñ ÃÍÔÅÖ ÎË ÂÅÑÂÁÆÅÎÐÖÑÒÙ ÓÔÁÅÂÅÒ ÌÍÆ ÏÂÁÅÔÅÂÓÑ ÃÂÐÖÚÂØ ÓÆÁÐÎ ÑÔÃÐÙÏÎÑÆÛ ÏÔÑÑÂË ÂÌÄÅÔ Õ ÂÏÆÑÔÜÂÕÄÝ ÒÁÐÂÕÆÇÝ. Þßàáâß. ãäåæçèåéæêëì íäåëîïæð “ñäîèæòóïåô” (ëæõõðêäæöïåô, åéïåäåéïåô æ ñä.) õåïðê÷. øåí÷êæð ù úûüýþÿû   ý “û”. ý û û   ûú,    ý  û ÿû  û   '  . .  1/2, .  !" # $. 2.2. 5%&(()*+(,-+ -/0+1+%+2)+ 3+0-462-(6) 7889:;<=>?@ A?BB=C:?? D AEFG;= H8>=G>8I8 J:8AC:;>ACD; K D8LB8<>MN ?AN8O8D 8JMC; J8LD8E@=C O;CP J:8AC8= 8J:=O=E=>?= D=:8@C>8AC?. Q=AH8EPH8 A89MC?R D O;>>8B 8JMC= >;LMD;SCA@ TUVWXVXYZX[W\Z], ^_`a bc d_`ceafg _agg^hiaa j^h c_jcekjal _mahkhn okoc^-`apc aq jar pc`^^ ecqgcsjtg, m^g uidvc^. wd_hn bic_hikj_hec x ecqgcsjtr a_rcuce cbthk _cu^isah n y`^g^jhce x = {z1, z2, ..., zn}. {_`a e_^ y`^g^jhkijt^ _cpthaf zk, vu^ k = 1, 2, ..., n, ikejcecqgcsjt^ (h.^. ikejcecqgcsjt e_^ a_rcut ukjjcvc cbthk), hc e^icfhjc_hn _cpthaf | }~€‚ƒ„ ƒ †‡ ˆ‡‰Š‹‚„ p ( A) = mA , n (2.2) Œ„ mA – €‚‡ Ž‚„Š„ ‰~‘ ‡’~ €“, ’‚Œ‡†‰€ƒ  }‹”•€‘ ‡’~ €” –, —.˜. ™š›œ žœ˜Ÿ˜ —¡ ¢k, £¤š ¥¦œ˜§¥¨š© £¦Ÿ §˜›—¡ª, ›—¡˜—›—¡ª«¨˜Ÿª ›¬­—š« ®. 11 “  .      . +    ” (      ).             6  8 = {91, 92},   91      “”,  92 – “”.    ' ! "!#" $ %!&$()*## “!,(-”, ".). A = {.1}. /!0(- *! 1(- #2) 1!34 !%,)5)()*#7 $),!&"*! "# p(A) = 1/2. 2.3. :;<=>?@A=BC<;>C >DECFCGCH=C ICE>JAH>?<@AB: 1. Данное аксиоматическое определение вероятности не является конструктивным, т.к. оно не указывает формулы или правила, по которым вероятность можно рассчитать. Это общее определение, которому должны удовлетворять все конструктивные (частные) определения вероятности. В частности, легко проверить, что классическое определение вероятности полностью согласуется с данными аксиомами. Отметим, что аксиомы вероятности аналогичны аксиомам меры. Например, для площади имеем: 1) площадь любой фигуры неотрицательна: S(C) ≥ 0; 2) площадь квадрата с единичной стороной равна 1: S(□1×1) = 1; 3) если фигуры D и E не пересекаются, то площадь их объединения равна сумме площадей: S(F∪G) = S(F) + S(G). Таким образом, понятие площади, нормированной на площадь доступного пространства, сходно с понятием вероятности, и это будет использовано ниже при геометрическом определении вероятности. 2. Статистическое определение вероятности – эмпирический путь нахождения числовой характеристики случайного события, называемой его вероятностью. Напротив, аксиоматическое определение является чисто теоретическим подходом к понятию вероятности и не связано с реальными событиями. Неочевидно, что вероятности, определенные эмпирически и теоретически, – это одно и то же. Связь между ними, точнее приближенное равенство, устанавливается теоремой, называемой Законом больших чисел (см. часть II пособия). 13 2.4. 6  2  2 +   – раздел математики, посвященный решению задач выбора и расположения элементов некоторого конечного множества в соответствии с заданными правилами. Рассмотрим множество, состоящее из N элементов, например, X = {x1, x2, x3, ..., xN}. Будем составлять из элементов этого множества комбинации по k элементов. Две комбинации считаются различными, если они отличаются или хотя бы одним элементом, или их порядком. Приведем важные в практическом отношении понятия размещений, перестановок и сочетаний. # из N элементов множества X по k элементов называется любая упорядоченная комбинация (xj1, xj2, ..., xjk). Две комбинации (xj1, xj2, ..., xjk) и (xi1, xi2, ..., xik) равны тогда и только тогда, когда xjl = xil для l = 1, 2, ..., k. Число всех различных размещений из N элементов по k обозначается ANk и вычисляется по формуле N! ANk = N ⋅ ( N − 1) ⋅ ... ⋅ ( N − k + 1) = , (2.3) ( N − k )! где предполагается, что AN0 = 1. . Если множество X состоит из 5 элементов X = {x1, x2, x3, x4, x5} и мы будем составлять упорядоченные комбинации по 2 элемента, то общее число таких комбинаций (размещений) будет равно A52 = 5 ⋅ 4 = 20 , а именно: x1 x2, x1 x3, x1 x4, x1 x5, x2 x1, x2 x3, x2 x4, x2 x5, x3 x1, x3 x2 , x3 x4 , x3 x5 , x4 x1 , x4 x2 , x4 x3 , x4 x5 , x5 x1 , x5 x2 , x5 x3 , x5 x4 . Частный случай размещения при k = N называется !"!$%&'()*(, из N элементов. Число всех перестановок из N элементов равно ANN = N ⋅ ( N − 1) ⋅ ... ⋅ 2 ⋅ 1 = N ! (2.4) -./01.. Если множество X состоит из 3 элементов X = {x1, x2, x3}, то возможно всего 6 различных перестановок A33 = 3 ⋅ 2 ⋅ 1 = 6 , а именно: x1 x3 x2 , x2 x1 x3 , x2 x3 x1 , x3 x1 x2 , x3 x2 x1 . x1 x2 x3 , 345789:;7< из N элементов множества X по k называется любая неупорядоченная комбинация {xj1, xj2, …, xjk}, состоящая из k элементов множества =. Число всех сочетаний из N по k обозначается C Nk и вычисляется по формуле C Nk ANk N ⋅ ( N − 1) ⋅ K ⋅ ( N − k + 1) N! = = = . k! k ⋅ (k − 1) ⋅ K ⋅ 2 ⋅ 1 k!( N − k )! (2.5) Предполагается, что C N0 = 1 и C Nk = 0 , если k > N. Из формулы для вычисления числа сочетаний C Nk непосредственно следует равенство C Nk = C NN −k . 14   . Если множество X состоит из 5 элементов X = {x1, x2, x3, x4, x5} и мы будем составлять неупорядоченные комбинации по 2 элемента, то общее число таких комбинаций (сочетаний) будет равно C52 = A52 / 2!= 20 / 2 ⋅ 1 = 10 , а именно: x1 x2, x1 x3, x1 x4, x1 x5, x2 x3, x2 x4 , x2 x5 , x3 x4 , x3 x5 , x4 x5 . Во всех приведенных формулах встречается факториал N! = N·(N – 1)·...·2·1. При больших N справедлива формула Стирлинга N != 2πN N N e − N . Элементы комбинаторики широко применяются в теории вероятностей для определения числа элементов множеств равновозможных исходов, используемых в классическом определении вероятности (2.2).  1. При случайном выборе (без возврата) трех элементов из исходного множества, состоящего из 24 элементов, пространство возможных исходов Ω есть множество всех размещений из 24 элементов по 3, если порядок выбора элементов существен. Соответственно число элементов Ω 3 равно A24 = 12144 . 2. Если порядок выбора элементов в примере 1 не учитывается, то пространство Ω есть множество всех сочетаний из 24 элементов по 3, и 3 соответственно число элементов Ω равно C 24 = 2024. Это число меньше, чем в примере 1, в 3! = 6 раз, поскольку все размещения любых трех элементов (т.е. все их перестановки) здесь учитываются одним сочетанием.  3. В частном случае, когда из множества в N элементов случайным образом выбираются без возврата все N элементов, число возможных исходов равно числу перестановок ANN = N !.  4. При так называемом выборе “с возвратом”, например, при случайном наборе номера телефона, содержащего N цифр, пространство возможных исходов Ω есть множество всех N-значных чисел, и соответственно число элементов Ω равно 10N. 2.5.   !"# -$- ! % &'() 3*$'*+. Обычно порядок решения задач с использованием классического определения вероятности состоит в следующем: 1) Сначала нужно определить пространство элементарных событий 8, которое будет наиболее удобным при описании данного случайного опыта, и убедиться в равновозможности всех элементов 8. 2) Затем определить подмножество 8, содержащее все исходы, благоприятствующие событию A. 3) Определить n – общее число элементарных событий в 8 и mA – число элементарных событий в подмножестве, соответствующем A. 4) Применить формулу классического определения вероятности события 15 p ( A) = mA . n   2.1. Игральная кость бросается один раз. Найти вероятность следующих событий: ' – выпадение четного числа очков,  – выпадение не менее 5 очков,  – выпадение не более 5 очков.  . В рассматриваемом случае пространство 8 возможных исходов содержит 6 элементов 8 = {ω1, ω2,…, ω6}, где элементарное событие ωk есть выпадение числа k. Игральная кость считается “правильной”, поэтому все элементарные события являются равновозможными и можно пользоваться классическим определением вероятности. События , и C соответствуют следующим подмножествам пространства : A = {ω2, ω4, ω6}, B = {ω5, ω6}, C = {ω1, ω2, ω3, ω4, ω5}, поэтому число элементарных событий, благоприятствующих событиям A, B и C, соответственно равно mA = 3, mB = 2, mC = 5. Теперь вычисляем вероятности этих событий p ( A) = mA 1 = , n 2 p( B) = mB 1 = , n 3 p (C ) = mC 5 = . n 6  2.2. В урне k белых и r черных шаров (k > 2). Из урны вынимают наугад два шара. Найти вероятность того, что оба шара белые. . За пространство возможных исходов опыта  = {ω} принимаем множество всех сочетаний из (k + r) элементов (общее число шаров) по 2 (число вынутых шаров). Из соображений симметрии (все шары одинаковые, и их вынимают наугад) следует, что все элементарные события равновозможные, поэтому для определения вероятности события (оба вынутых шара белые) можно воспользоваться классическим определением: m p ( A) = A . Число всех элементарных событий равно числу сочетаний из n (k + r) по 2 1 n = Ck2+r = ⋅ (k + r ) ⋅ (k + r − 1). 2 Поскольку нас интересует вероятность вынуть два белых шара, то благоприятные события – возможные сочетания по 2 только белых шаров. Таким образом, число элементарных событий mA, благоприятствующих событию A, равно числу сочетаний из k элементов (общее число белых шаров) по 2 (число вынутых шаров) m A = C k2 = 16 1 ⋅ k ⋅ (k − 1). 2 Вероятность события A равна p ( A) = k ⋅ (k − 1) . (k + r ) ⋅ (k + r − 1)   2.3. В партии, состоящей из k изделий, имеется l дефектных (l ≤ k). Из партии выбирается для контроля r изделий. Найти вероятность того, что из них ровно s изделий будет дефектных (s ≤ r). . За пространство возможных исходов опыта 8 = {ω} принимаем множество всех сочетаний из k элементов (общее число изделий) по r (число выбранных изделий). Элементарные события равновозможные, поэтому пользуемся классическим определением вероятности. Событие A состоит в том, что из r выбранных изделий ровно s дефектных. Его вероm ятность определяется по формуле p ( A) = A , где общее число элеменn тарных событий n равно числу сочетаний из k по r, т.е. n = Ckr . Элементарное событие будет благоприятствующим событию A, если из r выбранных изделий ровно s будет дефектных, а (r – s) – годных. Поэтому число элементарных событий, благоприятствующих событию A, равно произведению числа сочетаний из l (общее число дефектных изделий) по s (выбранное число дефектных изделий) на число сочетаний из (k – l) (общее число годных изделий) по (r – s) (выбранное число годных изделий) r-s m A = Cls ⋅ C k-l . Вероятность события A равна p ( A) = r-s Cls ⋅ Ck-l Ckr . 2.4. Из урны, содержащей k перенумерованных шаров, наугад вынимают один за другим l находящихся в ней шаров (l ≤ k). Найти вероятность того, что номера вынутых шаров будут идти по порядку: s, s + 1,…, s + l – 1 (1 ≤ s ≤ k – l +1). . За пространство возможных исходов опыта  = {ω} принимаем множество всех размещений из k элементов (общее число шаров) по l (число вынутых шаров). Событие A состоит в том, что номера вынутых шаров будут идти по порядку. В силу симметрии результатов опыта все элементарные события равновозможные, поэтому вероятность события A вычисляется по классическому определению p ( A) = mA . n Общее число элементарных событий n равно числу размещений из k по l n = Akl = k ⋅ (k − 1) ⋅ K ⋅ (k − l + 1). 17 Элементарное событие будет благоприятствовать событию A, если номера вынутых шаров образуют ряд последовательных натуральных чисел. Такие размещения (цепочка из l чисел) определяются первым числом, поскольку затем номера увеличиваются на единицу. Так как последнее число в цепочке не может превышать общего числа шаров k, то первый вынутый шар может иметь следующие номера: 1, 2, K , (k – l + 1), т.е. число элементарных событий, благоприятствующих событию A, равно mA = k – l + 1. Вероятность события A равна p ( A) = (k − l + 1) 1 = . k ⋅ (k − 1) ⋅ K ⋅ (k − l + 1) k ⋅ (k − 1) ⋅ K ⋅ (k − l + 2) 1 , так k! как общее число элементарных событий равно числу перестановок, а благоприятствующим является только одно элементарное событие. Если вынимается только один шар, то событие A является достоверным событием, т.е. p(A) = 1. В частном случае l = k мы получим очевидный результат p ( A) =   2.5. Имеется 3 ящика с различными материалами. Их наугад распределяют на 5 полок. Найти вероятность того, что: а) все ящики будут на последней полке; б) только один ящик будет на последней полке. . Каждый ящик может находиться на любой из пяти полок, поэтому распределение одного ящика можно описать числом x1, принимающим одно из значений: 1, 2, …, 5, соответствующее номеру полки. Распределение двух ящиков можно описать двумерным вектором (x1, x2), каждый компонент которого принимает одно из значений: 1, 2, …, 5. За пространство возможных исходов опыта примем множество трехмерных векторов (x1, x2, x3), каждый компонент которого принимает одно из значений: 1, 2, …, 5. Событие A состоит в том, что все ящики будут на последней (пятой) полке, событие B – только один ящик на последней полке. В силу симметрии результатов опыта, все элементарные события равновозможные, поэтому для определения вероятности событий A и B пользуемся классическим определением p ( A) = mA m , p( B) = B . n n Общее число элементарных событий n равно числу трехмерных векторов (x1, x2, x3), каждый компонент которых принимает одно из значений: 1, 2, …, 5, т.е. n = 53 = 125. Число элементарных событий, благоприятствующих событию A, равно единице mA = 1 (событию A соответствует только один вектор (5, 5, 5), все компоненты которого равны пяти). 18 Число элементарных событий, благоприятствующих событию B, равно mB = 3·4·4 = 48, так как один из компонентов вектора должен принимать значение 5, а две остальные – значение 1, 2, 3 или 4. Вероятность событий A и B равна p ( A) = 1 = 0,008 ; 125 p( B) = 48 = 0, 384 . 125   2.6. В розыгрыше первенства по футболу участвуют 16 команд, из которых случайным образом формируются две группы по 8 команд в каждой. Среди участников соревнований имеется 5 команд экстра-класса. Найти вероятность следующих событий: A – все команды экстра-класса попадут в одну и ту же группу, B – две команды экстра-класса попадут в одну из групп, а три – в другую. . Будем следить за формированием одной группы, например, первой. Вторая группа формируется автоматически из оставшихся 8 команд. За пространство возможных исходов опыта 8 = {ω} примем множество сочетаний из 16 элементов (общее число команд) по 8 (число команд в первой группе). Все элементарные события равновозможные, поэтому можно пользоваться классическим определением вероятности p ( A) = mA , n p( B) = mB . n Общее число элементарных событий равно числу сочетаний из 16 команд по 8 8 n = C16 . Элементарное событие будет благоприятствовать событию A, если в первой группе нет команд экстра-класса или в нее входят все пять команд экстра-класса. В первом случае число элементарных событий, благоприятствующих событию A, равно произведению числа сочетаний из 5 (общее число команд экстра-класса) по 0 (число команд экстра-класса в первой группе) на число сочетаний из 11 (общее число команд не экстракласса) по 8 (число команд не экстра-класса в первой группе) 8 8 m1A = C50 ⋅ C11 = C11 . Во втором случае число элементарных событий, благоприятствующих событию A, равно 3 3 m2 A = C55 ⋅ C11 . = C11 Общее число элементарных событий, благоприятствующих событию A, 8 3 3 8 3 равно m A = m1A + m2 A = C11 , так как C11 + C11 = 2 ⋅ C11 = C11 . Элементарное событие будет благоприятствовать событию B, если в первой группе две команды экстра-класса или в нее входят три команды экс19 тра-класса. В первом случае число элементарных событий, благоприятствующих событию B, равно произведению числа сочетаний из 5 (общее число команд экстра-класса в первой группе) по 2 (число команд экстракласса в первой группе) на число сочетаний из 11 (общее число команд не экстра-класса) по 6 (число команд не экстра-класса в первой группе): 6 m1B = C52 ⋅ C11 . 5 Во втором случае получим m2 B = C53 ⋅ C11 , и общее число элементарных событий, благоприятствующих событию B, равно m B = m1B + m2 B = 6 5 5 6 5 C52 ⋅ C11 + C53 ⋅ C11 = 2 ⋅ C53 ⋅ C11 , так как C52 = C53 , C11 = C11 . Итак, вероятности событий A и B равны: p ( A) = 3 2 ⋅ C11 8 C16 , p( B) = 5 2 ⋅ C53 ⋅ C11 8 C16 .   2.7. Шесть спортсменок (№1, №2, …, №6) приехали на сборы. Их расселили случайным образом в двух комнатах. Одна комната рассчитана на двух человек, другая – на четырех. Найти вероятность того, что спортсменки №1 и №2 окажутся в одной комнате. . Нам достаточно следить за заселением только комнаты, рассчитанной на двух человек. В четырехместной комнате будут жить спортсменки, не попавшие в двухместную комнату. За пространство возможных исходов опыта 8 = {ω} примем множество сочетаний из 6 элементов (общее число спортсменок) по 2 (число спортсменок, заселенных в двухместную комнату). Все элементарные события равновозможные, поэтому можно пользоваться классическим определением вероятности p ( A) = mA . n Общее число элементарных событий равно числу сочетаний из 6 человек по 2: n = C62 = 15. Эти сочетания таковы: №1–№2 №2–№3 №3–№4 №4–№5 №5–№6 №1–№3 №1–№4 №1–№5 №1–№6 №2–№4 №2–№5 №2–№6 №3–№5 №3–№6 №4–№6 Элементарное событие будет благоприятствовать событию A (спортсменки №1 и №2 в одной комнате), если в двухместной комнате окажутся спортсменки №1 и №2 или если в двухместной комнате будут жить спортсменки №3, №4, №5 или №6. 20 В первом случае спортсменки №1 и №2 будут жить вместе в двухместной комнате, во втором – в четырехместной. Число благоприятных случаев равно соответственно: mA1 = 1 (случай №1–№2) mA2 = 6 (случаи №3–№4, №3–№5, №3–№6, №4–№5, №4–№6, №5–№6) Полное число благоприятных случаев равно mA = mA1 + mA2 = 7, и следовательно p ( A) = mA 7 = . n 15 Эту же задачу мы в дальнейшем решим с использованием формулы полной вероятности. 21 3. 3.1.                В некоторых случаях за пространство возможных исходов опыта можно принимать область n–мерного пространства (прямой, плоскости, трехмерного пространства и т.д.). Предположим, что за пространство 8 принята некоторая область на плоскости (например, прямоугольник). Тогда событиями будут являться различные подмножества множества 8 (см. рис. 3.1). Элементарными событиями в данном случае служат точки области, соответствующей пространству возможных исходов опыта 8. Множество 8 является бесконечным, так как содержит бесконечное число точек – элементарных событий. A 5 679. 3.1 Если элементарные события равновозможные (т.е. точки области 8 равноправны), то вероятность попадания точки в область ' пропорциональна площади этой области и не зависит ни от формы области , ни от ее положения внутри области  S p( A) =  , (3.1) SΩ где SΩ – площадь области , а S – площадь области !. Рассмотрим одномерный случай. За пространство возможных исходов опыта " принимается отрезок #$, тогда событиями будут являться подмножества этого отрезка. Пусть вероятность попадания точки на отрезок %D пропорциональна длине этого отрезка и не зависит от его расположения внутри отрезка &( (из-за равновозможности элементарных событий – точек отрезка )*) (см. рис. 3.2). A C D B +,-. 3.2 Тогда вероятность попадания точки на отрезок 4D длины отрезков /D и 01: p = . .D будет равна отношению 23 Аналогично определяется вероятность попадания точки в пространственm ную фигуру v, составляющую часть фигуры V: p = v , где mv и mV – мера mV (объем) фигур v и V. Геометрическое определение вероятности удовлетворяет всем аксиомам вероятности. 22 3.2.     - $    3 - . Методика решения задач с использованием гео- метрического определения вероятности аналогична методике с применением классического определения: 1) Следует определить подходящим образом пространство элементарных событий 8. 2) Выделить его подмножество, содержащее все исходы, благоприятствующие событию A. 3) Определить S – площадь (длину, объем) пространства 8 и SA – площадь (длину, объем) его подмножества, соответствующего A. 4) Применить формулу геометрического определения вероятности события S p ( A) = A . S  3.1. Два студента условились встретиться в определенном месте меж- ду 12 и 13 часами дня. Пришедший первым ждет второго в течение 1/4 часа, после чего уходит. Найти вероятность того, что встреча состоится, если каждый студент наудачу выбирает момент своего прихода (в промежутке от 12 до 13 часов). . Обозначим через x и y время прихода студентов к месту встречи. За момент отсчета времени примем 12 часов дня, тогда имеют место неравенства: 0 ≤ x ≤ 1, 0 ≤ y ≤ 1 . Введем декартовую систему координат на плоскости. Моменту прихода студентов соответствует точка .(x,y), которая случайным образом ставится в квадрате 1 . y  !1 y=x+1/4 1 "=x–1/4 D1 ! O D x #%&. 3.3 За пространство ' исходов опыта можно принять квадрат ()(1* со стороной, равной единице. Из условия задачи следует, что можно воспользоваться геометрическим определением вероятности. Определим область, расположенную внутри квадрата +,+1/, которая соответствует тому, что встреча студентов состоится. Для этого необходимо выполнение следующего условия: x − y < 1/ 4 , 23 т.е. чтобы моменты прихода студентов к месту встречи отличались бы менее, чем на ¼ часа. Раскрывая знак абсолютной величины, получим x – 1/4 < y < x + 1/4. Соответствующая область лежит между прямыми y = x – 1/4 и y = x + 1/4. Итак, искомая область – есть многоугольник  11D1D (см. рис. 3.3). Теперь подсчитываем вероятность встречи студентов: p= 24 S OCC1O1D1D S OAO1B = 1 − 2 S CAC1 1 2 1 3 7 = 1− 2⋅ ⋅  = . 2 4 16 4.  "    !  4.1.          Аксиома аддитивности позволяет вычислить вероятность объединения двух несовместных событий ' и  (A∩B = V) p(A∪B) = p(A) + p(B). Ее следствием является формула для вычисления вероятности объединения конечного числа попарно несовместных событий (Ai∩Aj = V при i ≠ j): p(A1∪A2∪…∪An) = p(A1) + p(A2) + … + p(An). Для совместных событий справедлива следующая  *($,. # $%&()* +- - #: Вероятность объединения двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного наступления (т.е. без вероятности пересечения этих событий): p(A∪B) = p(A) + p(B) – p(A∩B). (4.1) ./01213456738/: рассмотрим две пары несовместных событий. Первая па- ра – события B и A\B. Их объединение B ∪ A\B = A∪B, и, следовательно, имеем p(A∪B) = p(B) + p(A\B). Вторая пара – события A\B и A∩B. Их объединение (A\B) ∪ (A∩B) = A, и поэтому p(A\B) + p(A∩B) = p(A) или p(A\B) = p(A) – p(A∩B). Складывая результаты, полученные для пар, и сокращая в левой и правой частях на p(A\B), получим равенство (4.1). Согласие формул сложения вероятностей для несовместных и совместных событий очевидно, так как пересечение несовместных событий есть невозможное событие, вероятность которого равна нулю. Геометрическое определение вероятности делает данную теорему более понятной. Очевидно, что площадь (вероятность) объединения A∪B двух областей A и B равна сумме площадей (вероятностей) этих областей за вычетом площади (вероятности) их пересечения A∩B (см. рис. 1.1б). С этих позиций не трудно понять формулу сложения вероятностей трех событий A, B и C p(A∪B∪C) = p(A) + p(B) + p(C) – p(A∩B) – p(A∩C) – – p(B∩C) + p(A∩B∩C). Приведем общую формулу для вычисления вероятности объединения конечного числа совместных событий  n  p U Ak  = ∑ p ( Ak ) − ∑ p ( Ai ∩ A j ) + ∑ p( Ai ∩ A j ∩ Ak ) − ... 1≤ i < j ≤ n 1≤ i < j < k ≤ n  k =1  k + (−1) n p ( A1 ∩ A2 ∩ A3 ∩ K ∩ An ), (4.2) 25 где суммы распространяются на все возможные комбинации указанных индексов. 4.2. !   .  %    Для того чтобы сформулировать теорему умножения вероятностей, определим условные вероятности. /    события  при условии, что событие ' произошло, называется отношение вероятности совместного наступления двух событий  и  (т.е. их пересечения A ∩ B ) к вероятности события : p A ( B) = p ( A ∩ B) . p ( A) (4.3) Теперь можно сформулировать очевидную  "# $& &$(") (*+ , #"+("- .. 0 "# $1: Вероятность пересечения двух событий 2 и 3 равна произведению вероятности события 4 на условную вероятность события 5 при условии, что событие 6 уже произошло, т.е. p( A ∩ B) = p( A) ⋅ p A ( B) . (4.4) Таким образом, теорема умножения вероятностей неразрывно связана с понятием условной вероятности. Следствием этой теоремы является формула для определения вероятности пересечения конечного числа событий. Вероятность совместного появления нескольких событий (т.е. их пересечения) равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятности каждого последующего события вычисляются в предположении, что все предыдущие события уже наступили: p ( A1 ∩ A2 ∩ K ∩ An ) = p ( A1 ) ⋅ p A1 ( A2 ) ⋅ p A1 ∩ A 2 ( A3 )K p A1 ∩K∩ A n-1 ( An ), где p A1 ∩ A 2 ∩K∩ A n-1 ( An ) – вероятность события An при условии, что события A1, A2, …, An-1 уже произошли. События 7 и 8 называются 9:;<=>?>@A@>, если вероятность их совместного появления равна произведению вероятностей этих событий p ( A ∩ B) = p ( A) ⋅ p ( B ) . (4.5) Это определение независимости событий B и C эквивалентно требованию совпадения вероятности события D и условной вероятности события E при условии, что событие F уже произошло, т.е. p(B) = pA(B) или p(A) = pB(A). В случае нескольких событий, независимых в совокупности, вероятность их совместного появления равна произведению вероятностей этих событий: p ( A1 ∩ A2 ∩ K ∩ An ) = p ( A1 ) ⋅ p ( A2 ) ⋅ p ( A3 ) ⋅ K ⋅ p ( An ). 26 (4.6)   +. 1. Вычислим условную вероятность события B, если произошло событие A, используя геометрическое определение вероятности. Изначально мы имели пространство элементарных исходов 8, и вероятность события B равна отношению площадей B и 8 (см. п.3.1) S p ( B) = B . (4.7) SΩ Пусть известно, что имеет место событие A. Это сужает пространство возможных исходов 8 до множества всех исходов, благоприятных A, т.е., по сути, до множества A. Если при этом происходит событие B, то это означает, что имеет место и A, и B, т.е. событие B сужается до множества исходов, благоприятных и A, и B, или, иными словами, A∩B (см. рис.1.1б). Таким образом, если мы знаем, что случилось событие A, то в формуле (4.7) происходит сужение Ω → Ω ∩ A = A, B → B ∩ A . Как следствие, условная вероятность события B, если известно, что имело место событие A, равна отношению площадей S p A ( B) = '∩B . SA Умножая числитель и знаменатель на площадь S, в результате получим формулу (4.3), которая служила определением условной вероятности S S P( A ∩ B) p A ( B) = ∩B Ω = . S A SΩ P( A) 2. Следует различать “физическую” независимость событий, когда между ними нет причинно-следственной связи, и “математическую” независимость, сформулированную выше. При наличии “физической” независимости можно считать, что имеет место и “математическая” независимость, т.е. справедлива формула (4.5) и ей эквивалентные. 4.4.  $    3  щим образом:   -  - . Задачи в этом разделе обычно решаются следую- 1) Следует определить все входящие в задачу простейшие случайные события и составные события, вероятность которых надо найти. Нужно иметь в виду, что иногда легче вычислить вероятность противоположенного события (см. пример 4.3). 2) Выразить составные события через простейшие, используя операции над событиями. 27 3) Применить теоремы сложения и умножения вероятностей. Перед применением теоремы сложения проверить – являются объединяемые события совместными или несовместными (это может быть неочевидно – см. пример 4.2).   4.1. Вероятность события ' равна p. Доказать, что вероятность противоположного события равна (1 – p). . Покажем, что события A и A образуют полную группу несовместных событий. Событие A , противоположное событию A, наступает в том случае, когда событие не появилось. Поэтому эти события несовместны, т.е. они не могут наступить одновременно в данном опыте. Из определения события A следует, что объединение противоположных событий и A дает достоверное событие (событие произойдет или не произойдет). Итак, события и A образуют полную группу несовместных событий, т.е. они несовместны и A ∪ A = U . Теперь применим теорему сложения вероятностей несовместных событий, учитывая, что вероятность достоверного события равна 1, p ( A) + p ( A) = 1 . Вероятность противоположного события обозначают через q. Таким образом, q = p ( A) = 1 − p ( A) = 1 − p .  4.2. Два стрелка стреляют по мишени. Вероятность попадания в мишень при одном выстреле для первого стрелка равна 0,7, а для второго – 0,8. Найти вероятность того, что при одном залпе в мишень попадет только один из стрелков. . Пусть событие  есть попадание в мишень первым стрелком, а событие  – попадание в мишень вторым стрелком. Тогда противоположные события будут соответствовать A – промаху первого стрелка, B – промаху второго стрелка. Событие  наступает, когда в мишень попадает только один из стрелков. Это событие можно представить в виде C = ( A ∩ B ) ∪ ( A ∩ B ), т.е. происходит хотя бы одно из событий: первый стрелок попадает в мишень, а второй – не попадает ( A ∩ B ) , либо первый стрелок не попадает в мишень, а второй – попадает ( A ∩ B ) . Поскольку вероятности событий  и  известны, то легко вычислить вероятность противоположных событий (см. пример 3.1) p ( A) = 1 − 0,7 = 0,3 ; p ( B ) = 1 − 0,8 = 0,2 . События ( A ∩ B ) и ( A ∩ B ) несовместны, так как при появлении первого должно наступить событие , а при появлении второго событие  не 28 должно наступить. Стрелки стреляют независимо друг от друга, поэтому события ' и  можно считать независимыми. Из теорем сложения и умножения вероятностей имеем p (C ) = p (( A ∩ B) ∪ ( A ∩ B)) = p ( A ∩ B) + p( A ∩ B ) = = p ( A) ⋅ p ( B ) + p ( A ) ⋅ p ( B) = 0,7 ⋅ 0,2 + 0,3 ⋅ 0,8 = 0,38.   4.3. ОТК проверяет изделия на стандартность. Вероятность того, что изделие нестандартно, равна 0,1. Найти вероятность того, что хотя бы одно из трех проверяемых изделий нестандартно.  . Введем обозначение событий: Ai – i-е изделие нестандартно (i = 1, 2, 3), – хотя бы одно из трех проверяемых изделий нестандартно. Тогда событие Ai наступит тогда, когда i–е изделие стандартно, и вероятность этого события равна p ( A i ) = 1 − p ( Ai ) = 1 − 0,1 = 0,9 . События B наступает, когда ни одно из трех проверяемых изделий не является нестандартным, т.е. когда все три изделия стандартны. Следовательно, данное событие можно представить в виде B = A1 ∩ A 2 ∩ A3 . Поскольку стандартность или нестандартность изделия не зависит от результатов проверки других изделий, то события A1, A2, A3 являются независимыми, и по теореме умножения вероятностей имеем p ( B ) = p ( A1 ∩ A 2 ∩ A3 ) = p ( A1 ) ⋅ p ( A 2 ) ⋅ p ( A3 ) = 0,9 3 = 0,729. Теперь вычисляем вероятность события : p ( B ) = 1 − p ( B ) = 1 − 0,729 = 0,271 . Для того чтобы найти вероятность события B, состоящего в появлении события хотя бы один раз при нескольких испытаниях, целесообразно определить сначала вероятность противоположного события B (непоявление события при этих испытаниях), а затем определить вероятность события .  4.4. Брошены три игральные кости. Найти вероятность того, что на всех трех костях появится разное число очков.    !". Введем обозначения: событие # наступает тогда, когда на второй игральной кости выпадает число, отличное от числа, выпавшего на первой игральной кости. Событие $ наступает тогда, когда на третьей игральной кости выпадает число, отличное от числа на первой и второй игральных костях. Событие % наступает тогда, когда на всех трех костях появится разное число очков. Это событие есть пересечение событий & и (, т.е. C = A∩B. По теореме умножения вероятностей имеем 29 p (C ) = p ( A ∩ B ) = p ( A) ⋅ p A ( B ). Вычислим вероятности событий ' и . Вероятность события равна 5 p ( A) = . Так как общее число случаев (количество чисел, которые могут 6 выпасть на второй кости) равно 6, а число случаев, благоприятствующих событию , (количество чисел, не совпадающих с числом, выпавшем на первой кости) равно 5. Аналогично, вероятность события  при условии, 4 2 что событие  появилось, равна p A ( B) = = . Общее число случаев 6 3 (количество чисел, которые могут выпасть на третей кости) равно 6, а число случаев, благоприятствующих событию B (количество чисел, не совпадающих с числами на первой и второй костях) равно 4. Окончательно, вероятность события  равна p (C ) =  5 2 5 ⋅ = . 6 3 9    . Вероятность события  можно вычислить, пользуясь только классическим определением вероятности. Общее число случаев, которые соответствуют различным упорядоченным цепочкам из трех чисел, принимающих значения 1, 2, ..., 6, равно n = 63 = 216. Число случаев, благоприятствующих событию , которые соответствуют упорядоченным цепочкам из трех различных чисел, равно числу размещений mC = A63 = 6 ⋅ 5 ⋅ 4 = 120 . Таким образом, вероятность события  равна p (C ) = mC 120 5 = = . n 216 9 Как и следовало ожидать, оба способа решения приводят к одному и тому же результату.  4.5. В читальном зале имеется шесть учебников по теории вероятностей, из которых четыре в твердом переплете. Библиотекарь наудачу взял три учебника. Найти вероятность того, что все они в твердом переплете.  !"#!#$ %&(). Введем следующие обозначения событий: * – первый учебник в твердом переплете, + – второй учебник в твердом переплете, C – третий учебник в твердом переплете, F – все выбранные учебники в твердом переплете. Событие F есть пересечение событий F = A∩ B ∩C. В рассматриваемом случае события A, B и C не являются независимыми, поэтому по теореме умножения вероятностей имеем 30 p ( F ) = p ( A ∩ B ∩ C ) = p ( A) ⋅ p A ( B) ⋅ p A∩ B (C ). Вычислим эти вероятности, используя классическое определение. Вероятность события A равна p ( A) = mA 4 2 = = . n 6 3 Условная вероятность события B при условии, что событие A произошло (т.е. осталось 5 учебников, из них 3 в твердом переплете), равна p A ( B) = 3 . 5 Условная вероятность события C при условии, что события A и B произошли (т.е. осталось 4 учебника, из них 2 в твердом переплете), равна p A ∩ B (C ) = 2 1 = . 4 2 Таким образом, вероятность события F равна p( F ) = 2 3 1 1 ⋅ ⋅ = . 3 5 2 5    . Эту задачу можно решить, используя только классическое определение вероятности. Общее число случаев равно числу сочетаний n = C63 = 20 . Число случаев mF, благоприятствующих событию F, равно числу сочетаний C 43 = 4 . Таким образом, вероятность события F равна p( F ) = mF 4 1 = = . n 20 5 Оба способа приводят к одному и тому же результату.   4.6. Разрыв электрической цепи может произойти вследствие выхода из строя элемента k или двух элементов k1 и k2. Элементы k, k1 и k2 выходят из строя независимо друг от друга с вероятностями 0,3; 0,2 и 0,2 соответственно. Определить вероятность разрыва электрической цепи. . Введем обозначение событий: A – выход из строя элемента k, Bi – выход из строя элемента ki (i = 1, 2), C – разрыв электрической цепи. По условию задачи событие C произойдет в том случае, когда выйдет из строя элемент k или выйдут из строя два элемента k1 и k2. Поэтому событие C можно представить в виде C = A ∪ ( B1 ∩ B2 ) . Согласно теореме вероятностей имеем (события A и Bi не являются несовместными) p (C ) = p ( A ∪ (B1 ∩ B2 )) = p ( A) + p ( B1 ∩ B2 ) − p ( A ∩ B1 ∩ B2 ). 31 Так как события A, B1 и B2 независимы, то по теореме умножения вероятностей получим p (C ) = p ( A) + p ( B1 ) p ( B2 ) − p ( A) p ( B1 ) p ( B2 ) = = 0,3 + 0,2 ⋅ 0,2 − 0,3 ⋅ 0,2 ⋅ 0,2 = 0,328. 32 5.        .      5.1.  -  . ! ! "   Введем полную группу попарно несовместных событий H1, H2, ..., Hn, которые в дальнейшем будем называть %#$&'()*+#. Для гипотез должны выполняться следующие соотношения: 1) Hi∩Hj = V при i ≠ j; 2) p ( H1 ∪ H 2 ∪ K ∪ H n ) = p ( H1 ) + p ( H 2 ) + K + p ( H n ) = 1. Событие A можно представить как A = A ∩ Ω = A ∩ ( H1 ∪ H 2 ∪ K ∪ H n ) = = ( A ∩ H1 ) ∪ ( A ∩ H 2 ) ∪ K ∪ ( A ∩ H n ) , поскольку оно наступает с одной и только одной из гипотез. Так как несовместность отдельных гипотез приводит к несовместности событий A ∩ H i , то по теореме сложения вероятностей получим p ( A) = p (( A ∩ H1 ) ∪ ( A ∩ H 2 ) ∪ K ∪ ( A ∩ H n )) = = p ( A ∩ H1 ) + p ( A ∩ H 2 ) + K + p ( A ∩ H n ). Событие A может появляться совместно с каждой из гипотез. Используя теорему умножения вероятностей, вероятность события A можно вычислить по формуле, называемой ,./012.3 4.25.3 67/.895.:9;: p ( A) = p ( H 1 ) ⋅ p H1 ( A) + p ( H 2 ) ⋅ p H 2 ( A) + K + p ( H n ) ⋅ p H n ( A). (5.1) Каждый член в формуле полной вероятности p ( H i ) ⋅ p H i ( A) дает вероят- ность соответствующей части ( A ∩ H i ) разбиения события <. Если до опыта вероятности гипотез были равны p ( H1 ) , p (H 2 ), K , p ( H n ), а в результате опыта появилось событие A, то с учетом этого события, “новые”, т.е. условные вероятности гипотез, можно вычислить по =>?@ABC DEFCGE p A (H i ) = p ( H i ) ⋅ p H i ( A) p ( H 1 ) ⋅ p H1 ( A) + K + p ( H n ) ⋅ p H n ( A) = p ( H i ) ⋅ p H i ( A) p ( A) . (5.2) Таким образом, формула Байеса дает возможность “переоценить” вероятности гипотез с учетом наблюдения результата опыта. Заметим, что формула Байеса следует из следующих очевидных равенств после их деления на вероятность p(A) p ( A) ⋅ p A ( H i ) = p ( A ∩ H i ) = p ( H i ∩ A) = p ( H i ) ⋅ p H i ( A) . 33 5.2.     - $    3 - . Если требуется найти вероятность некоторого со- бытия A, когда известны вероятности его наступления совместно с рядом других событий (см. подробнее условие примера 5.1), то следует: 1) Определить полную группу несовместных гипотез, сообразуясь с условиями задачи (см. следующий пункт). 2) Найти вероятности гипотез и условную вероятность события A при условии, что каждая гипотеза имела место (эти данные обычно, так или иначе, сообщаются в условии задачи). Проверить, равна ли сумма вероятностей гипотез 1. 3) Применить формулу полной вероятности. Если требуется найти вероятность некоторого события  при условии, что другое событие ' имело место (см. пример 5.4), то следует: 1) Определить полную группу несовместных гипотез, сообразуясь с условиями задачи. Событие B обычно должно быть одной из гипотез. 2) Найти вероятности гипотез и условную вероятность события A при условии, что каждая гипотеза имела место (эти данные обычно сообщаются в задаче). 3) Применить формулу полной вероятности для определения вероятности события A. 4) Найти условную вероятность pA(B) по формуле Байеса.  5.1. В каждой из двух урн содержится 6 черных и 4 белых шара. Из первой урны наудачу извлечен один шар и переложен во вторую урну, после чего из второй урны наудачу извлечен один шар. Найти вероятность того, что шар черный. . Введем полную группу несовместных гипотез: H1 – шар, извлечен- ный из первой урны, является черным, H2 – шар, извлеченный из первой урны, является белым. Гипотезы образуют полную группу, так как их объединение есть достоверное событие. Вероятности этих несовместных гипотез равны 6 3 4 2 p ( H1 ) = = , p ( H 2 ) = = . 10 5 10 5 Найдем условные вероятности события A (из второй урны извлечен черный шар) при выполнении гипотез H1 и H2. При появлении события H1 во второй урне будет содержаться 11 шаров: 7 черных и 4 белых. Поэтому условная вероятность события A при условии, что событие H1 произошло, будет равна 7 p H 1 ( A) = . 11 34 Аналогично вычисляем условную вероятность события при условии, что произошло событие H2. В этом случае во второй урне 11 шаров: 6 черных и 5 белых, поэтому 6 p H 2 ( A) = . 11 По формуле полной вероятности вычисляем вероятность события A p ( A) = p ( H1 ) ⋅ p H 1 ( A) + p ( H 2 ) ⋅ p H 2 ( A) = 3 7 2 6 3 ⋅ + ⋅ = . 5 11 5 11 5 Вероятность события A, извлечения черного шара из второй урны, равна вероятности извлечения черного шара из первой урны.   5.2. Три орудия производят стрельбу по трем целям. Каждое орудие выбирает себе цель случайным образом и независимо от других. Цель, обстрелянная одним орудием, поражается с вероятностью 0,8. Найти вероятности того, что из трех целей будут поражены две, а третья – нет. . Введем полную группу несовместных гипотез: H1 – обстреляны все три цели; H2 – две цели из трех обстреляны, а третья – нет; H3 – все орудия стреляют по одной цели; Эти события несовместны и образуют полную группу, так как их объединение есть достоверное событие. Вероятность события H1 равна 2 1 2 p ( H1 ) = 1 ⋅ ⋅ = , 3 3 9 так как первое орудие всегда будет стрелять по какой-то цели, второе 2 орудие будет стрелять по другой цели с вероятностью , а третье ору3 1 дие – по оставшейся необстрелянной цели с вероятностью . Вероят3 ность события H3 равна 1 1 1 p( H 3 ) = 1 ⋅ ⋅ = . 3 3 9 2 1 2 Так как p(H1) + p(H2) + p(H3) = 1, то p ( H 2 ) = 1 − − = . 9 9 3 Событие ' наступает тогда, когда поражены ровно две цели из трех. Вычислим условные вероятности наступления события при условии, что произошло одно из событий Hi (i = 1, 2, 3). Вероятность события при условии, что произошло событие H1, равна p H1 ( A) = 0,2 ⋅ 0,8 ⋅ 0,8 + 0,8 ⋅ 0,2 ⋅ 0,8 + 0,8 ⋅ 0,8 ⋅ 0,2 = 0,384. Первое слагаемое соответствует случаю, когда не поражена первая цель, второе – не поражена вторая цель, третье – не поражена третья цель, а остальные две цели поражены. 35 Вероятность события нулю ' при условии, что произошло событие H3, равна p H 3 ( A) = 0. Вероятность события при условии, что произошло событие H2, равна p H 2 ( A) = 0,8 ⋅ (1 − 0,2 2 ) = 0,768. В этом случае по одной цели стреляет одно орудие (вероятность поражения равна 0,8), по другой цели стреляют два орудия (вероятность поражения – хотя бы одного попадания – равна 1– 0,22). По формуле полной вероятности находим вероятность события  2 2 1 p ( A) = ⋅ 0, 384 + ⋅ 0,768 + ⋅ 0 = 0,5973. 9 3 9  5.3. Шесть спортсменок (№1, №2, …, №6) приехали на сборы. Их расселили случайным образом в двух комнатах. Одна комната рассчитана на двух человек, другая – на четырех. Найти вероятность того, что спортсменки №1 и №2 окажутся в одной комнате.  . Нам достаточно следить за заселением только комнаты, рассчитанной на двух человек. В четырехместной комнате будут жить спортсменки, не попавшие в двухместную комнату. Введем полную группу несовместных гипотез: H1 – спортсменку №1 поселили в двухместную комнату; H2 – спортсменку №1 поселили в четырехместную комнату. Это события несовместные. Они образуют полную группу, так как их объединение есть достоверное событие. Вероятности гипотез равны 2 1 4 2 = , p( H 2 ) = = . 6 3 6 3 Чтобы произошло событие A (спортсменки №1 и №2 оказались в одной комнате) при условии, что произошло событие H1, спортсменка №2 должна быть также заселена в двухместную комнату. Всего свободных мест 5, а в двухместной комнате свободно только одно место, поэтому условная вероятность события A здесь равна 1 p H1 ( A) = . 5 p ( H1 ) = Аналогично, при условии, что произошло событие H2, спортсменка №2 должна быть заселена в четырехместную комнату. Всего свободных мест 5, а в четырехместной комнате свободны только три места, т.е. условная вероятность события A 3 p H 2 ( A) = . 5 36 По формуле полной вероятности получим p ( A) = p ( H1 ) ⋅ p H 1 ( A) + p ( H 2 ) ⋅ p H 2 ( A) = 1 1 2 3 7 ⋅ + ⋅ = . 3 5 3 5 15   5.4. На вход радиолокационного устройства с вероятностью 0,2 поступает смесь полезного сигнала с помехой, а с вероятностью 0,8 – только одна помеха. Если поступает полезный сигнал с помехой, то устройство регистрирует наличие какого-то сигнала с вероятностью 0,95, а если помеха – с вероятностью 0,02. Известно, что устройство зарегистрировало наличие какого-то сигнала. Найти вероятность того, что в его составе имеется полезный сигнал. . Из условия задачи следует, что можно ввести следующую полную группу несовместных гипотез: H1 – полезный сигнал на входе имеется, H2 – полезного сигнала на входе нет. Вероятность этих событий равна p(H1) = 0,2, p(H2) = 0,8, а их сумма дает единицу. Событие ' наступает тогда, когда устройство регистрирует наличие какого-то сигнала. Условная вероятность события при условии, что событие H1 произошло, равна p H1 ( A) = 0,95. Условная вероятность события при условии, что событие H2 произошло, равна p H 2 ( A) = 0,02. По условию задачи нужно определить вероятность наличия полезного сигнала, если устройство зарегистрировало какой-то сигнал, т.е. условную вероятность p A ( H1 ) . Эта вероятность определяется по формуле Байеса p ( H1 ) ⋅ p H1 ( A) 0,2 ⋅ 0,95 p A ( H1 ) = = = 0, 922. p ( H1 ) ⋅ p H1 ( A) + p ( H 2 ) ⋅ p H 2 ( A) 0,2 ⋅ 0,95 + 0,8 ⋅ 0,002  5.5. Батарея из трех орудий произвела залп, причем два снаряда попали в цель. Найти вероятность того, чтобы первое орудие дало попадание, если вероятности попадания в цель первым, вторым и третьим орудиями соответственно равны 0,4; 0,3; 0,5. . Введем полную группу несовместных гипотез: H1 – первое орудие попало в цель, H2 – первое орудие не попало в цель. Вероятности этих событий равны p(H1) = 0,4; p(H2) = 1 – 0,4 = 0,6. Событие  наступает тогда, когда два снаряда попадают в цель. Поэтому условная вероятность события  при условии, что событие H1 произошло (первое орудие попало в цель) будет суммой двух слагаемых: p H1 ( A) = 0,3 ⋅ (1 − 0,5) + (1 − 0,3) ⋅ 0,5 = 0,5. 37 Здесь первое слагаемое соответствует случаю, когда второе орудие попадает в цель, а третье не попадает. Второе слагаемое соответствует случаю, когда попадает в цель третье орудие, а второе не попадает. Условная вероятность события ' при условии, что событие H2 произошло (первое орудие не попало в цель), равна p H 2 ( A) = 0,3 ⋅ 0,5 = 0,15, так как в этом случае попадает в цель второе и третье орудия. По формуле Байеса определяем искомую вероятность попадания в цель первого орудия при условии, что два снаряда попали в цель p A ( H1 ) = 38 p ( H1 ) ⋅ p H1 ( A) p ( H1 ) ⋅ p H1 ( A) + p ( H 2 ) ⋅ p H 2 ( A) = 0,4 ⋅ 0,5 = 0,69. 0,4 ⋅ 0,5 + 0,6 ⋅ 0,15 6.    "  6.1.       .    Важным частным случаем применения формул сложения и умножения вероятностей является следующая схема. Пусть проводится конечное число n последовательных независимых испытаний, в каждом из которых возможно только два исхода: либо успех, либо противоположное событие – неудача. Такая последовательность испытаний называется  !#$ % &'())*, если вероятности успеха в каждом опыте одинаковы. В схеме Бернулли одному испытанию соответствует множество элементарных исходов, состоящее из двух элементарных событий: { A, A}, где A – успех, а A – неудача. Пусть вероятности успеха и неудачи в отдельном испытании равны: p(A) = +; p ( A) = 1 − p = q . Событие, состоящее в том, что в n испытаниях событие , наступает ровно k раз, обозначим как событие Qnk . Пусть Ai означает, что событие - наступило в i-м испытании, а Ai – то, что событие . не наступило в i-м испытании, где i меняется от 1 до n. Выразим событие Qnk через события Ai и противоположные им события следующим образом: Qnk = ( A1 ∩ ... ∩ Ak ∩ Ak +1 ∩ ... ∩ An ) ∪ ... ∪ ( A1 ∩ ... ∩ An − k ∩ An − k +1 ∩ ... ∩ An ), где в первых скобках стоит последовательность событий, когда сначала имеют место все k успехов (событий A), а затем все n – k неудач, в последних скобках – событие, когда наоборот сначала имеет место n – k неудач, а затем k успехов. Между этими событиями заключены все возможные последовательности из k успехов и n – k неудач. Вероятность любой такой последовательности событий, начиная с первой, по теореме умножения для независимых событий равна pk·qn–k, т.е. одинакова. Количество подобных последовательностей равно числу сочетаний из n элементов по k, поскольку последовательность однозначно определяется комбинацией (порядок здесь не важен) номеров успешных испытаний, длина комбинации таких номеров равна k, и номера выбираются из множества всех возможных номеров от 1 до n. Далее по теореме сложения для несовместных событий получаем p (Qnk ) = C nk p k q n − k . Таким образом, мы вывели /012343 56173448, определяющую вероятность pn(k) того, что в n испытаниях произошло ровно k успехов, pn (k ) = C kn p k q n−k , (6.1) где Cnk – число сочетаний по k элементов из n. В ряде задач представляет интерес наивероятнейшее число успехов, т.е. такое число успехов m*, вероятность которого самая большая при данном n. Это число находится в интервале единичной длины вблизи точки np: np − q ≤ m* ≤ np + p. 39 6.2.      Формула Бернулли верна при любом n, но при большом числе опытов по ней затруднительно проводить вычисления. В случае больших n удобнее пользоваться приближенными формулами. Если n велико, то применяется     .–0  x2 1 1 1 pn (k ) ≈ ⋅ ϕ( x ) = ⋅ e 2, npq npq 2π − где 0,1 ≤ p ≤ 0,9; x = (6.2) k − np . npq x2 1 −2 Функция ϕ ( x ) = e табулирована (см. табл. 1 в ! "#$). Эта 2π функция имеет следующие свойства: 1) φ(%) – четная и имеет максимум при & = 0; 2) точки перегиба ' = ±1; 3) при ( ≥ 5 функция мала, т.е. φ()) → 0. При больших значениях n для вычисления вероятности того, что произойдет от *1 до +2 событий по схеме Бернулли, используется ,-/123456-47 893:;54 <;4=34–>4?54@4 p n (k1 ≤ k ≤ k 2 ) ≈ Φ ( x2 ) − Φ ( x1 ) , (6.3) k1 − np k − np , x2 = 2 , Φ ( x ) – функция Лапласа, значения которой приnpq npq ведены в табл. 2 ABCDEFGHCI. где x1 = Функция Лапласа Φ ( x ) = J 1 K 2π 0 ∫ − t2 2 d t имеет следующие свойства: 1) Φ ( − x ) = −Φ ( x ) – функция нечетная; 2) функция Ф(x) монотонно возрастает; 3) при больших L (L ≥ 5) Ф(x) → 1/2 (M = ±0,5 – горизонтальные асимптоты), поэтому функция Ф(x) представлена в NOPQRSTUPP только для 0 ≤ V ≤ 5. Вероятность отклонения относительной частоты m/n от вероятности W в независимых испытаниях не более, чем на некоторое число ε > 0, вычисляется по формуле  n  m  pn  − p < ε  = 2Φ  ε ⋅ (6.4) . pq  n    40 6.3.       Рассмотрим, как ведут себя биномиальные вероятности при n → ∞, p→ 0, np → λ, т.е. когда проводят большое число наблюдений “редких” событий (np ≈ npq). В этом случае имеем λ k −λ n→∞ , p→0, np =λ k k n−k (6.5) pn (k ) = C n p q → e = p (k ). k! Предельные вероятности p(k) в схеме независимых испытаний λ k −λ p(k ) ≈ e , k = 0, 1, 2, ... k! называются пуассоновскими. 6.4.    - - $   3 . Следует руководствоваться следующим алгоритмом: 1) Понять, включает ли задача схему Бернулли, и если да, то определить значения параметров схемы: p, q, n. 2) Если n сравнительно мало, то применить формулу Бернулли. 3) Если n велико и p, q > 0,1, то использовать приближенную локальную или интегральную формулу Муавра−Лапласа. 4) Если n велико, а p мало (p < 0,1), то следует найти λ = np и применить приближенную формулу распределения Пуассона.  !"# 6.1. Некоторый стрелок попадает в цель с вероятностью 0,6. Он собирается произвести 10 выстрелов. Найти вероятность того, что он попадет в цель: а) три раза, б) хотя бы один раз, в) наивероятнейшее число попаданий в цель. %&'&()&. В формуле Бернулли параметры равны p = 0,6, q = 1 – p = 1 – 0,6 = 0,4, n = 10. Теперь можно вычислить искомые вероятности: 10! 3 3 10−3 a) p10 (3) = C10 pq = ⋅ 0,63 ⋅ 0, 47 ≈ 0,255; (10 − 3)!3! 0 0 10−0 б) p10 (k ≥ 1) = 1 − C10 p q = 1 − 0, 410 ; в) 10 ⋅ 0,6 − 0, 4 ≤ k0 ≤ 10 ⋅ 0,6 + 0,6 , 5,6 ≤ k0 ≤ 6,6 , k0 = 6. *+,./+ 6.2. Стрелок выполнил 400 выстрелов. Найти вероятность 325 попаданий, если вероятность попадания при каждом выстреле равна 0,8. 41    . Так как число испытаний (выстрелов) достаточно велико, то можно использовать локальную формулу Муавра–Лапласа (npq = 400·0,8·0,2 = 64 ≥ 10). Следовательно, по формуле x2 1 1 −2 pn ( k ) ≈ ⋅ e npq 2π имеем pn ( k ) ≈ где x = 1 ϕ( x), npq k − np . Окончательно, npq 1 1 p400 (325) ≈ ϕ(0,63) ≈ ⋅ 0,3271 ≈ 0,041. 8 64  6.3. Стрелок выполнил 400 выстрелов, вероятность одного попадания равна 0,8. Найти вероятность того, что он попадет от 310 до 325 раз. . Согласно интегральной формуле Муавра–Лапласа имеем p400 (310 ≤ х ≤ 325) = Φ ( x2 ) − Φ ( x1 ) , где х2 = х1 = k2 − np 325 − 320 5 = = = 0,63, 8 npq 64 k1 − np 310 − 320 −10 = = = −1,25. 8 npq 64 Окончательно, p400 (310 ≤ х ≤ 325) = Φ ( 0,63) − Φ ( −1, 25 ) = Φ ( 0,63) + Φ (1,25 ) = = 0,2357 + 0,3944 = 0,6301.  6.4. В каждом из 10000 независимых испытаний вероятность события р = 0,75. Найти вероятность того, что относительная частота появления события отклонится от вероятности события по абсолютной величине не более чем на 0,0001. . По условию задачи n = 10000, p = 0,75, q = 1 – p = 1 – 0,75 = 0,25, ε = 0,0001. Следовательно,   m  n  10000  p10000  − 0,75 < 0,0001 = 2Φ  ε ⋅  = 2Φ  0,0001 ⋅ = pq 0,75 ⋅ 0,25  n      = 2Φ (0,23) = 0,182 . Таким образом, вероятность того, что отклонение относительной частоты успеха от его вероятности в 10000 независимых испытаниях не превысит 0,0001, равна 0,182. 42   6.5. Завод отправил 5000 качественных изделий. Вероятность того, что в пути разбили одно изделие 0,0002. Найти вероятность того, что в пути будет повреждено: а) 3 изделия; б) 1 изделие; в) не более трех изделий. . В задаче рассматривается случай большого числа “редких” событий. При решении задачи нужно воспользоваться формулой Пуассона λ k −λ p(k ) ≈ e , k! где λ = np = 5000 ⋅ 0,0002 = 1. Теперь можно найти: 13 −1 1 e = ≈ 0,061; 3! 6e 13 −1 1 б) при к = 1 p5000 (1) ≈ e = ≈ 0,366; 1! e в) p5000 (0 ≤ х ≤ 3) = p5000 (0) + p5000 (1) + p5000 (2) + p5000 (3) = 1 1 1 1 16 8 = + + + = = ≈ 0,981. е е 2е 6е 6e 3е а) при к = 3 p5000 (3) ≈ 43 7. 7.1.       .     Под случайной величиной понимается величина, которая в ряде повторных опытов может принимать различные значения и в каждом осуществлении опыта принимает одно и только одно значение, заранее неизвестно какое (зависящее от случайного исхода опыта). Такое определение случайной величины понятно, но не конструктивно – его нельзя использовать в математике. В теории вероятностей случайная величина должна быть определена строго, на основе понятия случайного события, теория для которого изложена выше. Нетрудно заметить связь между случайным событием и случайной величиной. Например, значение физической случайной величины есть результат ее измерения. В то же время любое произведенное измерение – это сложное событие, являющееся пересечением случайных событий, которые имели место в процессе измерения и были связаны с состоянием измерительного прибора, а также физическими условиями при измерении и т.д.). Можно сказать, что существует некоторая однозначная связь между значениями случайной величины и случайными событиями. Поэтому определим случайную величину как функцию, которая элементарному событию сопоставляет число – значение случайной величины. Случайной величиной ξ будем называть действительную числовую функцию ξ = ξ(ω), ω ∈ 8 , определенную на множестве  элементарных событий рассматриваемой задачи, для которой определена вероятность p (ξ ∈ B ) = p{ω : ξ(ω) ∈ B} принадлежности ξ каждому из заданных множеств B числовой оси (B∈R1). По сути, такая функция каждому исходу ставит в соответствие определенное число. В качестве множеств B обычно рассматриваются интервалы вида (a, b), [a, b), (a, b], [a, b] и их объединения. Вероятность p(ξ∈B) может быть вычислена, если известна вероятность p(ξ < x) = p{ω: ξ(ω) < x}. Функцией распределения Fξ(x) случайной величины ξ называется вероятность события (ξ < x), рассматриваемая как функция переменной x (x∈R1): Fξ ( x) = p (ξ < x). (7.1) Если не возникает недоразумений, то пишут просто Fξ ( x) = F ( x) . Свойства функции распределения: 1) F ( x) ≥ 0 , поскольку функция распределения есть вероятность; 2) F (x) – неубывающая функция: F ( x2 ) ≥ F ( x1 ) при x2 ≥ x1 , поскольку разность F ( x2 ) − F ( x1 ) есть вероятность попадания в интервал [x1, x2); 3) F (−∞) = 0, F (∞) = 1, т.к. (ξ < –∞) есть невозможное событие, а (ξ < ∞) – 44 достоверное событие. 4) непрерывность слева: lim F ( x − ε) = F(x) (важна в точках разрыва). ε > 0 , ε →0 Если x = xk – точка разрыва непрерывности функции F(x), то величина скачка равна вероятности событий (ξ = xk) F ( xk + 0) − F ( xk ) = p (ξ = xk ). (7.2) Если в точке x = xk функция F(x) непрерывна, то p (ξ = xk ) = 0. (7.3) Задачи вычисления вероятностей вида p(ξ∈B) с помощью функции распределения F(x) решаются с использованием следующей формулы: p (ξ ∈ [a, b)) = p (a ≤ ξ < b) = F (b) − F (a); (7.4) для непересекающихся интервалов [ai, bi), где i = 1, 2, …, m, имеем m m i =1 i =1 p (ξ ∈ U [ai , bi )) = ∑ p (ξ ∈ [ai , bi )). (7.5)   . Функция распределения Fξ(x) определена для любого x и позволяет вычислить вероятность попадания величины ξ в любое множество, для которого есть понятие длины, т.е. функция распределения содержит максимальную информацию о случайной величине. 7.2.        Случайная величина ξ называется дискретной, если множество ее возможных значений конечное ({xi }in=1 ) или счетное ({xi }i∞=1 ) (т.е. множество Ω дискретно). В соответствии с определением и свойством (7.2) функция распределения дискретной случайной величины является кусочно-постоянной функцией и однозначно определяется положением точек разрыва xi (i = 1, 2, …, n) и величиной скачков (7.2) в этих точках. Соответствие между последовательностями xi и pi = p(ξ = xi) (i = 1, 2, ..., n) называется законом (рядом) распределения дискретной случайной величины. Обычно он представляется в виде таблицы, в первой строке которой указаны все возможные значения случайной величины, а во второй – соответствующие вероятности: xi x1 x2 … … xn pi p1 p2 … … pn Вероятность p(ξ∈[a, b)) вычисляется по формуле, вытекающей из (7.4) и свойств F(x) 45 ∑ pi . p (ξ ∈ [a, b)) = x i ∈[ a , b ) Кроме того, справедливо условие нормировки n ∑ pi = i =1 ∑ p(ξ = xi ) = 1. (7.6) x i ∈(-∞ , ∞ ) Функция распределения дискретной случайной величины представляет собой ступенчатую функцию, имеющую разрывы (скачки) в точках, соответствующих возможным значениям случайной величины, при этом величина разрывов равна вероятностям этих значений, т.е. x ≤ x1 ;  0  p 1  Fξ ( x) =  p1 + p2  ...   1 x1 < x ≤ x2 ; x 2 < x ≤ x3 ; ... xn < x. Математическим ожиданием дискретной случайной величины ξ, принимающей возможные значения xi с вероятностями pi = p(ξ=xi), где i = 1, 2, …, n, называется неслучайная величина M[ξ], определяемая формулой n M [ξ ] = mξ = ∑ xi ⋅ pi , (7.7) i =1 где n – число возможных значений. Свойства математического ожидания: 1) M [C ] = C , если С – константа; 2) M [C ⋅ ξ] = C ⋅ M [ξ] ; 3) M [ξ + η] = M [ξ] + M [η]. (7.8) Математическое ожидание случайной величины η, являющейся функцией случайной величины ξ, т.е. η = ϕ(ξ), определяется формулой n M [η] = mη = ∑ ϕ( xi ) ⋅ pi . (7.9) i =1 Дисперсией D[ξ] случайной величины ξ называется неслучайная величина, определяемая формулой [ ] n D[ξ] = M ξ& 2 = ∑ ( xi − mξ ) 2 ⋅ pi , (7.10) i =1 где ξ& = ξ − mξ – центрированная случайная величина. Для вычислений дисперсии удобен другой вариант формулы (7.10) [ ] [ ] [ ] n D[ξ ] = M ξ& 2 = M (ξ − M ξ ) 2 = M ξ 2 − M 2 [ξ ] = ∑ xi2 ⋅ pi − mξ2 . 46 i =1 (7.11) Свойства дисперсии: 1) D[C ] = 0 , если С – константа; (7.11а) 2) D[C ⋅ ξ] = C 2 ⋅ D[ξ] ; 3) D [ξ + η] = D [ξ] + D [η] , если ξ, η – независимые случайные величины. Величина σ ξ = D[ξ ] называется средним квадратичным отклонением случайной величины ξ. Вероятностный смысл M[ξ] и D[ξ] заключается в том, что математическое ожидание дает среднее значение случайной величины, а дисперсия (и среднее квадратическое отклонение) характеризует степень ее отклонения от этого среднего значения. Начальные моменты αk и центральные моменты βk порядка k случайной величины ξ определяются как математическое ожидание k-й степени величины и центрированной величины (ξ – M[ξ]) соответственно: n α k = M [ξ k ] = ∑ xik ⋅ pi , i =1 n β k = M [ξ& k ] = ∑ ( xi − mξ ) k ⋅ pi , i =1 (k = 1, 2, K); (7.12) (k = 1, 2, K). Можно показать, что любой центральный момент выражается через начальные и наоборот – начальные через центральные и α1. Например, β1 = 0, β2 = α2 – (α1)2 и т.д. Нетрудно видеть, что α1 = M[ξ] и β2 = D[ξ]. Совокупность всех начальных моментов случайной величины эквивалентна заданию функции распределения, т.е. содержит всю информацию о поведении случайной величины. Однако во многих практических случаях достаточно определения лишь нескольких моментов.   . Рассмотрим физический смысл дисперсии и среднего квадратичного отклонения. Пусть значения некоторой случайной величины выражены в метрах (например, измеряемая длина чего-либо). Тогда ее математическое ожидание согласно формуле (7.7) будет иметь размерность метров, а дисперсия согласно (7.10) – метров в квадрате. Сравнивать метры и метры в квадрате, т.е. математическое ожидание и дисперсию, бессмысленно. С другой стороны, среднее квадратическое отклонение, являясь корнем квадратным из дисперсии, имеет размерность метров. Его можно и более того нужно сопоставлять с математическим ожиданием. Практика показывает, что отклонение любого значения случайной величины ξ (скажем, результата измерения) от ее среднего значения (математического ожидания) M[ξ] и среднее квадратическое отклонение σξ обычно являются величинами одного порядка, т.е. 47 | ξ − M [ξ ] | ~ σ ξ . Можно строго доказать, что с вероятностью более 89% отклонение любой случайной величины ξ от ее математического ожидания M[ξ] не превосходит трех σξ, точнее 8 p (| ξ − M [ξ ] | < 3σ ξ ) > , 9 Иными словами, чем больше дисперсия и среднее квадратическое отклонение, тем шире область, в которую будут попадать значения случайной величины (как говорят, тем больше разброс ее значений). На практике можно пользоваться оценкой p ( M [ξ] − σ ξ < ξ < M [ξ] + σ ξ ) ≈ 0,6 − 0,8 , которая, как правило, справедлива. 7.3.     &   & Случайная величина ξ называется непрерывной, если ее функция распределения F(x) непрерывна при всех значениях x. Для любого из возможных значений x непрерывной случайной величины ξ выполняется условие (7.3), и поэтому имеет смысл лишь вычисление вероятностей вида p(ξ∈B), где B= [a, b) – конечный интервал (или объединение таких интервалов). Иными словами, вероятность того, что непрерывная случайная величина примет какое-либо конкретное значение, равна нулю. Отличной от нуля является вероятность попадания в какой-то конечный интервал. Для вычисления такой вероятности используется общая формула (7.4). Случайная величина ξ называется абсолютно непрерывной (распределенной с некоторой плотностью), если существует такая интегрируемая неотрицательная функция f(x), что при любом x x F ( x) = ∫ f ( x)d x. (7.13) -∞ Функция f(x), называемая плотностью распределения вероятности, соответственно равна dF ( x) f ( x) = , (7.14) dx и удовлетворяет условиям, следующим из свойств F(x): 1) f ( x) ≥ 0 , так как F(x) – неубывающая функция; 48 ∞ 2) ∫ f ( x) d x = 1, так как p(–∞ < ξ < ∞) = 1; (7.14а) −∞ 3) f (±∞) = 0. Обычно непрерывной называют абсолютно непрерывную случайную величину. В соответствии с формулами (7.4) и (7.13) для вероятности попадания случайной величины в интервал (a ≤ ξ < b) имеет место равенство b p (a ≤ ξ < b) = ∫ f ( x)d x. a Вероятностный смысл плотности распределения заключается в том, что она равна отношению вероятности попадания случайной величины в элементарный интервал к длине этого интервала. Непрерывную случайную величину ξ можно задать, используя либо плотность распределения вероятности fξ(x), либо функцию распределения Fξ(x). Приближенно такую величину можно охарактеризовать несколькими ее моментами. Математическим ожиданием непрерывной случайной величины ξ называется неслучайная величина, определяемая равенством ∞ M [ξ] = mξ = ∫ x ⋅ f ( x)d x. (7.15) -∞ Математическое ожидание функции η = ϕ(ξ ) находится по аналогичной формуле ∞ M [ϕ(ξ )] = ∫ ϕ( x) ⋅ f ( x)d x. (7.16) -∞ Для дисперсии D [ξ ] имеем ∞ D[ξ ] = M [ξ& 2 ] = ∫ ( x − mξ ) 2 ⋅ f ( x)d x (7.17) -∞ или ∞ D[ξ ] = M [ξ ] − M [ξ ] = ∫ x 2 ⋅ f ( x)d x − mξ2 . 2 2 (7.18) -∞ Свойства математического ожидания и дисперсии определяются прежними соотношениями (7.8) и (7.11а). Начальные α k и центральные β k моменты определяются выражениями: ∞ α k = M [ξ ] = ∫ x k ⋅ f ( x)d x k -∞ ∞ β k = M [ξ& k ] = ∫ ( x − mξ ) k ⋅ f ( x)d x (k = 1, 2, K); (7.19) (k = 1, 2, K). -∞ 49 7.4.        Величина η = ϕ(ξ ) , являющаяся функцией случайной величины ξ, также является случайной величиной. Основные задачи сводятся к определению ее характеристик – законов распределения и числовых характеристик по аналогичным характеристикам случайного аргумента. Пусть ξ – дискретная случайная величина, заданная законом (рядом) распределения xi, pi = p(ξ=xi), где i = 1, 2, ..., n. Учитывая, что возможные значения yi случайной величины η определяется соотношениями yi = ϕ( xi ) и p (η = yi ) = p (ξ = xi ) = pi , получаем закон распределения для η yi = ϕ( xi ) , pi = p ( ξ = xi ) , , где i = 1, 2, ..., n. (7.20) При неоднозначности функции ϕ(ξ ) нескольким xi может отвечать одно yj (j = 1, 2, ..., m, m 0) µe −µx , f ξ ( x) =  , 0 x ≥ 0, x < 0. График плотности распределения вероятности приведен на рис. 7.1. Условие нормировки плотности распределения вероятности легко проверяется ∞ ∫ −∞ ∞ f ξ ( x)d x = ∫ µe − µx ∞ d x = ∫ e− zd z = 1, где z = µ x, dz = µ dx. fξ(x) µ– x Рис. 7.1. Плотность распределения вероятности при показательном законе. Функция распределения показательного закона имеет вид 53 x Fξ ( x) = ∫ µx x ∫ f ξ ( y )d y = µe −∞ −µy d y = e − z d z = 1 − e −µx , ∫ где z = µ y, dz = µ dy. Найдем теперь математическое ожидание и выясним содержательный смысл параметра µ. Математическое ожидание (среднее время обслуживание одной заявки) найдем интегрированием по частям ∞ M [ξ ] = xµe ∫ −µx ∞ 1 1 dx = ze − z d z = (− ze − z µ µ ∫ ∞ ∞ 1 + e − z dz ) = , µ ∫ где z = µ x, dz = µ dx. Таким образом, среднее время обслуживания обратно пропорционально µ. В свою очередь µ=1/М[ξ] – среднее число заявок, обслуженных в единицу времени, или интенсивность обслуживания. Дисперсию показательной случайной величины находим, дважды интегрируя по частям ∞ D[ξ ] = x µe ∫ 2 −µx ∞ 1 1 1 2 1 1 d x − 2 = 2 z 2e −z d z − 2 = 2 − 2 = 2 . µ µ 0 µ µ µ µ ∫ где z = µ x, dz = µ dx.   . Покажем, что для простейшего (пуассоновского) потока событий интервал времени между соседними событиями есть случайная величина ξ, имеющая показательный закон. Функция распределения для такой величины η есть Fη ( x) = p(η < x) = 1 − p (η > x) . Событие (η > x) означает, что за интервал времени [0, x) не имело места не одного события потока. Число событий за интервал времени ∆t = x при плотности потока ρ, как отмечалось выше, есть случайная величина ξ c пуассоновским распределением и λ = ρ ∆t. Поскольку событие (η > x) означает ξ = 0, то λ0 − λ p (η > x) = p (ξ = 0) = e = e − λ . 0! Возвращаясь к величине η, получаем показательный закон для ее плотности распределения вероятности f η ( x) = Fη′ ( x) = (1 − e −λ )′ = λe − λ . 7.5.5.   3      Нормальное распределение (распределение Гаусса) занимает в теории вероятностей особо важное место, поскольку согласно центральной предельной теореме достаточно большая сумма независимых случайных величин имеет 54 распределение близкое к нормальному. В частности, биномиальное распределение при n → ∞ стремится к нормальному. Плотность распределения вероятности нормального закона имеет следующий вид: f ξ ( x) = 1 e σ 2π − ( x − a) 2 2σ 2 , − ∞ < x < ∞. Проверим условие нормировки ∞ ∫ −∞ где z = f ξ ( x)d x = ∞ − 1  x − a  e 2 σ  1 ∫ 2π − ∞ 2 2 ∞ −z e 2 1 x−a d = ∫ 2π − ∞  σ  d z = 1, x−a 1 , d z = d x. σ σ При вычислении нормировки мы воспользовались известным результатом, а именно интегралом Пуассона ∞ ∫−∞e − z2 2 dz = 2π . На рис. 7.2 приведено семейство кривых нормальных плотностей в зависимости от параметров а и σ. С геометрической точки зрения параметр а – точка максимума плотности и центр симметрии; σ определяет крутизну кривой и величину максимума. fξ(x) σ1<σ a<0 a>0 x Рис. 7.2. Плотности распределения вероятности при нормальном законе Выясним теперь теоретико-вероятностный смысл параметров. С учетом замены переменных z = (x – a) / σ имеем 55 ∞ 1  x−a  −   x ⋅ e 2 σ  2 1 M [ξ ] = σ 2π −∞ ∫ ∞ ∞ z2 z2 − − σ a dx = ze 2 d z + e 2 d z = 0 + a = a. 2π −∞ 2π −∞ ∫ ∫ Первый равен нулю, как интеграл от нечетной функции по симметричному относительно нуля интервалу, второй интеграл сводится к интегралу Пуассона. Таким образом, параметр а является математическим ожиданием нормальной случайной величины. При вычислении дисперсии необходимо проинтегрировать по частям дважды ∞ 1  x−a  −   2 2 σ  ( x-a) ⋅ e 2 1 D[ξ ] = σ 2π −∞ ∫ − σ 2  2 = − ze  2π   z2 ∞ ∞ z2 − σ2 dx = z 2e 2 d z = 2π −∞ ∫ ∞ z2 − 1 + e 2 dz 2π −∞ −∞ ∫   = σ2.   Отсюда σ2 – это дисперсия нормальной случайной величины, а σ – ее среднее квадратическое отклонение. Определение вероятности попадания нормальной случайной величины в интервал требует введения специальной функции – функции Лапласа x Φ( x) = 1 e 2π ∫0 − t2 2 dt, поскольку интеграл от нормальной плотности не выражается в известных элементарных функциях. С использованием этой функции получаем β β − 1 p (α < ξ < β) = ∫ f ξ ( x)d x = ∫ e σ 2π α α = 1 2π β−a z2 σ − e 2 dz ∫ α−a σ ( x −a )2 2σ 2 d x = β − a α−a = Φ  − Φ   σ   σ  и аналогично функцию распределения для нормального закона Fξ ( x) = 1  x −a + Φ . 2  σ  Если интервал является симметричным относительно математического ожидания, то формула упрощается p ( а − t ⋅ σ < ξ < a + t ⋅ σ) = 2Φ(t ) . 56 Отметим два следствия из последнего соотношения. Во-первых, поскольку функция Лапласа достаточно быстро приближается к своим предельным значениям, например, 2Φ (3) ≈ 0,9973, то справедливо так называемое правило “трех сигм”: теоретически нормальная плотность распределения вероятности отлична от нуля при любых значениях x, однако практически значения случайной величины ξ сосредоточена на отрезке a ± 3σ : p ( а − 3 ⋅ σ < ξ < a + 3 ⋅ σ) = 2Φ (3) ≈ 0,9973. Вероятность попадания вне этого отрезка всего 0,0027. Во-вторых, формула позволяет строить интервал с заданной вероятностью попадания – подобную задачу часто приходится решать в математической статистике. Интервал, симметричный относительно математического ожидания, вероятность попадания в который равна числу p, строится следующим образом. Вначале, пользуясь таблицей функции Лапласа, находим tp из условия 2Φ (t p ) = p . Затем строим интервал, удовлетворяющий заданному условию: p (а − t p ⋅ σ < ξ < a + t p ⋅ σ) = 2Φ( t p ) = p . 7.6.     - $    3 - . Следует помнить, что: 1) Каждый закон распределения удовлетворяет условию нормировки (7.6) или (7.14а). 2) Дисперсию случайных величин часто удобнее вычислять по формулам (7.11) или (7.18). 3) Математическое ожидание и дисперсия случайных величин, имеющих какое-либо из рассмотренных в п. 7.5 распределений, можно легко найти по приведенным общим формулам (например, для биномиального распределения по формулам (7.23), (7.24) и т.д.).  7.1. Восстановить следующий закон распределения дискретной слу- чайной величины ξ (т.е. определить x1, x3, p2): xi x1 x3 pi 0,5 p2 0,3 если известно, что mξ = − 0,2; D[ξ ] = 0,76 . . Для отыскания трех неизвестных x1, x3, p2 нужно составить систему трех уравнений. Первое уравнение запишем, используя условие mξ = − 0,2 . В соответствии с соотношением (7.7) имеем 57 x1 ⋅ 0 ,5 + 0 ⋅ p2 + x3 ⋅ 0 ,3 = −0 ,2. Второе уравнение запишем, используя условие D[ξ] = 0,76 . Так как в соответствии с уравнением (7.11) имеем x12 ⋅ 0,5 + 0 2 ⋅ p2 + x32 ⋅ 0,3 − (−0,2) 2 = 0,76. Третье уравнение получим, воспользовавшись условием нормировки 3 ∑ pi = 1 , которое дает i =1 0 ,5 + p2 + 0 ,3 = 1. Кроме того, так как значения x1, x2 , x3 пишутся в возрастающем порядке, то у нас имеется еще одно неявное условие: x1 < 0 < x3 . Таким образом, получаем систему уравнений 0 ,5 ⋅ x1 + 0 ,3 ⋅ x3 = −0 ,2 ,  0 ,5 ⋅ x12 + 0 ,3 ⋅ x32 = 0 ,8 ,   0 ,5 + p2 + 0,3 = 1 ,  x1 < 0 < x3 . Решая ее, находим: x1 = − 1, x3 = 1, p2 = 0,2 , и искомый закон распределения принимает вид xi –1 1 pi 0,5 0,2 0,3   7.2. Известна вероятность события А: р(А) = 0,5.Случайная величина ξ – число появлений А в трех опытах. Требуется построить ряд распределения случайной величины ξ в трех опытах; найти ее математическое ожидание и дисперсию. ))). Ряд распределения ξ мы построим, если найдем все возможные значения ξ и соответствующие вероятности. В трех опытах число успехов может быть 0, 1, 2 или 3. Вероятности определим по формуле Бернулли: p(ξ = 0) = C 30 (0,5)0 (0,5)3 − 0 = 0,125; p(ξ = 1) = C 13 (0,5)1 (0,5)3 −1 = 0,375; p(ξ = 2) = C 32 (0,5)2 (0,5)3− 2 = 0,375; p(ξ = 3) = C 33 (0,5)3 (0,5)3− 3 = 0,125. Получим ряд распределения 58 xk 1 2 3 pk 0,125 0,375 0,375 0,125 причем найденные вероятности удовлетворяют условию нормировки: 0,125 + 0,375 + 0,375 +0,125 = 1. Числовые характеристики величины ξ можно найти непосредственно по формулам (7.7), (7.11) M [ξ ] = 0 ⋅ 0,125 + 1 ⋅ 0,375 + 2 ⋅ 0,375 + 3 ⋅ 0,125 = 1,5 ; D[ξ ] = 0 2 ⋅ 0,125 + 12 ⋅ 0,375 + 2 2 ⋅ 0,375 + 32 ⋅ 0,125 − 1,5 2 = 0,75. Как и следовало ожидать, наши результаты совпадают со значениями, полученными ранее для распределения Бернулли: M [ξ ] = np = 3 ⋅ 0,5 = 1,5 ; D[ξ ] = npq = 3 ⋅ 0,5 ⋅ (1 − 0,5) = 0,75.   7.3. Плотность потока заявок в некотором бюро по вызову равна двум заявкам в минуту. Найти среднее количество заявок, поступающих с 7 часов до 7.30. Считать поток заявок пуассоновским . Случайная величина ξ – число заявок в интервал времени длиной ∆t = 30 мин имеет пуассоновское распределение с параметром λ = ρ ∆t = 2·30 = 60, поскольку плотность потока ρ = 2 мин–1. Среднее число заявок есть математическое ожидание M[ξ], равное λ = 60. 7.4. Плотность распределения вероятности fξ(x) случайной величины ξ задана в виде 0 ,  f ξ ( x) = С ⋅ x , 0 ,  − ∞ < x < 1, 1≤ x < 2, (7.26) 2 ≤ x < ∞. Требуется найти функцию распределения Fξ(x), построить графики обеих функций, вычислить вероятность события (ξ ≥ 0), а также математическое ожидание M [ξ] и дисперсию D[ξ]случайной величины ξ. . Константу С находим из условия нормировки ∞ ∫ f ξ ( x)d x =1, −∞ ∞ ∫ −∞ 1 2 ∞ Сx 2 f ξ ( x)d x = ∫ 0 ⋅ d x + ∫ Сx ⋅ d x + ∫ 0 ⋅ d x = 2 -∞ 1 2 2 = 1 3 ⋅ С. 2 2 Отсюда С = . График функции fξ(x) представлен на рис. 7.3. 3 59 При вычислении функции распределения Fξ(x) по формуле (7.13) следует fξ(x) 4/3 – 2/3 1 2 x Рис. 7.3. График плотности распределения вероятности fξ(x) иметь в виду, что плотность fξ(x) задается различными выражениями на трех интервалах (см. (7.26)). В соответствии с этим различаются аналитические выражения для функции распределения Fξ(x): а) при x ∈ (− ∞; 1) x x -∞ -∞ Fξ (x) = ∫ fξ (x) ⋅ dx = ∫ 0 ⋅ dx = 0 ; б) при x ∈ [1;2) x 1 x 2 x2 1 Fξ (x) = ∫ fξ (x) ⋅ dx = ∫ 0 ⋅ dx + ∫ x ⋅ dx = − ; 3 3 3 -∞ -∞ 1 в) при x ∈ [2; ∞ ) x 1 2 x 2 Fξ (x) = ∫ fξ (x) ⋅ dx = ∫ 0 ⋅ dx + ∫ x ⋅ dx + ∫ 0 ⋅ dx = 1. 3 -∞ -∞ 1 2 Таким образом, - ∞ < x < 1, 0 ,  2 1 x Fξ ( x) =  − , 1 ≤ x < 2 , 3 3 2 ≤ x < ∞. 1 , Функция распределения Fξ(x) представлена на рис. 7.4. 60 Fξ(x) 1 1 2 x Рис. 7.4. График функции распределения Fξ(x) Вычисляем вероятность события (ξ ≥ 0) следующим образом: ∞ p (ξ ≥ 0) = ∫ f ξ ( x) ⋅ d x = Fξ (∞) − Fξ (0) = 1 . Математическое ожидание в соответствии с формулой (7.15) и предыдущем замечанием о различном представлении fξ(x) на разных интервалах имеет вид ∞ 2 2 M [ξ] = ∫ x ⋅ f ξ ( x) ⋅ d x = ∫ x ⋅ ⋅ x ⋅ d x = 3 -∞ 1 2 2 2 14 ⋅ x ⋅ d x = . ∫3 9 1 Дисперсию D[ξ ] определяем по формуле (7.18) ∞ D[ξ] = ∫ x ⋅ f ξ ( x) ⋅ d x − 2 -∞ 2 mξ2 2 13 = ∫ ⋅ x 3 ⋅ d x − mξ2 = . 3 162 1   7.5. Для случайной величины ξ, равномерно распределенной на интервале [a, b], найти вероятность попадания ее значения в интервал [mξ – σξ, mξ + σξ], где mξ и σξ – соответственно математическое ожидание и среднее квадратическое отклонение ξ. . Для равномерно распределенной случайной величины ξ математическое ожидание и среднее квадратическое отклонение выражаются через a, b следующим образом: mξ = (a + b)/2, σ ξ = (b − a ) / 2 3 . Применение формулы (7.25) для β = mξ + σξ и α = mξ – σξ дает p (α ≤ ξ ≤ β) = β − α 2σ ξ 1 = = ≈ 0,6 . b−a b−a 3 7.6. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a = 65 и средним квадратичным отклонением σ = 5. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p = 0,9606. 61    . Будем искать интервал в виде a ± t ⋅ σ . Тогда по условию 1 0 ,96 = σ 2π a + tσ ∫e − ( x −a )2 2σ2 d x a −t σ t z2 − 2 = e 2 d z = 2Φ (t ). 2π ∫ Обратимся к таблице значений функции Лапласа. Найдем значение аргумента, при котором функция Φ(t) = 0,4803. В результате получим t = 2,06. Теперь можно построить интервал: p (65 − 2,06 ⋅ 5 < ξ < 65 + 2,06 ⋅ 5) = 0,96 . Окончательно получим p (54,7 < ξ < 75,3) = 0,96. 62 8.       Система случайных величин (ξ1 , ξ 2 ,K , ξ n ) возникает в том случае, когда на одном и том же вероятностном пространстве (8, ℑ, р) задано несколько случайных величин: ξ1 = ξ1 (ω), ξ 2 = ξ 2 (ω), K , ξ n = ξ n (ω) . Будем рассматривать частный случай – системы двух случайных величин (ξ1, ξ2). Такую двумерную случайную величину можно определить как функцию, отображающую пару элементарных случайных событий в пару чисел: (ξ, η) : Ω (ξ ) × Ω (η ) → R1 × R1 = R 2 . 8.1     / !"# / $" Законом распределением системы двух дискретных случайных величин (дискретной двумерной случайной величиной) (ξ, η) называется конечный или бесконечный набор возможных значений (xi, yj) и их вероятностей, т.е. вероятностей пересечения событий (ξ = xi) и (η = yi) pij = p (ξ = xi , η = y j ) , (8.1) при этом должно выполняться условие нормировки ∑ pij = 1. i, j Обычно распределение дискретной двумерной случайной величины (закон распределения) задают в виде таблицы. ξ x1 x2 … xi … y1 p11 p21 … pi1 … y2 p12 p22 … pi2 … … … … … … … yj p1j p2j … pij … … … … … … … η Для системы двух дискретных случайных величин существует связь между распределением (8.1) и функцией распределения Fξη ( x, y ) = ∑ pij , где суммирование проводится только по тем парам индексов (i, j), для которых выполняются условия xi < x и yj < y. В общем случае вероятность попадания двумерной случайной величины (ξ, η) в произвольную область G вычисляется по формуле 63 ∑ pij , p ((ξ, η) ∈ G ) = (8.2) (i , j ) где суммирование проводится по тем же парам индексов (i, j), для которых соответствующие точки (xi, yj) принадлежат области G. 8.2.  )  % )  ))) %/   ) )/ % '/ )  Пусть известно совместное распределение системы двух дискретных случайных величин (ξ, η): pij = p (ξ = xi , η = y j ). Распределения для каждой из случайных величин называются частными распределениями для системы двух случайных величин. Эти распределения находятся следующим образом: pi(ξ ) = p (ξ = xi ) = p ((ξ = xi ) ∩ (U (η = y j ))) = j = p (U ((ξ = xi ) ∩ (η = y j ))) = ∑ p (ξ = xi , η = y j ) = ∑ pij , j j (8.3) j так как объединение всех событий (η = y j ) есть достоверное событие U (η = y j ) = U , j а события (η = y j1 ) и (η = y j 2 ) при различных индексах j1 и j2 являются несовместными. Учитывая, что вероятность объединения несовместных событий равна сумме вероятностей, получаем соотношение (8.3). Аналогично определяется частное распределение случайной величины η p (jη ) = p (η = y j ) = ∑ p (ξ = xi , η = y j ) = ∑ pij . j (8.4) j Условным распределением случайной величины ξ при η = y j называется совокупность условных вероятностей событий (ξ = xi ) : pξ ( x1 / y j ), pξ ( x2 / y j ), K, pξ ( xi / y j ), K, вычисленных в предположение, что событие (η = y j ) (8.5) уже наступило ( p (jη ) = p (η = y j ) > 0) . Индекс j имеет одно и то же значение при всех значениях случайной величины ξ. Аналогично определяется условное распределение случайной величины η при условии, что ξ = xi ( pi(ξ ) > 0) . Зная совместное распределение системы двух дискретных случайных величин, можно найти условное распределение: 64 pξ ( xi / y j ) = p (ξ = xi / η = y j ) = p (ξ = xi , η = y j ) p (η = y j ) pij = (η ) . pi (8.6) Здесь используется определение условной вероятности события (ξ = xi ) в предположение, что событие (η = y j ) наступило. Частное распределение p (jη ) находится по формуле (8.4). Аналогично находится условное распределение случайной величины η при (ξ = xi ) pij pη ( y j / xi ) = p (η = y j / ξ = xi ) = (ξ ) , (8.7) pi где pi(ξ ) вычисляются по формуле (8.3). 8.3. !      /     Случайные величины ξ и η называются независимыми, если распределение одной случайной величины не зависит от того, какое значение принимает другая случайная величина. Это определение эквивалентно следующему: случайные величины ξ и η независимы, если для любых x, y справедливо условие Fξη ( x, y ) = p (ξ < x, η < y ) = p (ξ < x) ⋅ p (η < y ) = Fξ ( x) ⋅ Fη ( y ), (8.8) т.е. события (ξ < x) и (η < y ) являются независимыми при любых значениях x и y. Для дискретных случайных величин условие независимости (8.8) можно записать в виде pij = p (ξ = xi , η = y j ) = p (ξ = xi ) ⋅ p (η = y j ) = pi(ξ ) ⋅ p (jη ) , (8.9) а для непрерывных случайных величин – в виде f ξη ( x, y ) = f ξ ( x) ⋅ f η ( y ). (8.10) В случае системы двух независимых случайных величин условные распределения совпадают с частными (безусловными) распределениями. Если случайные величины являются дискретными, то p ( x /y ) = p (ξ ) , p ( y /x ) = p (η) , ξ i j i η j i j при этом использовались соотношения (8.6) и (8.9). В случае непрерывных случайных величин получаем f ξ ( x / y) = f ξη ( x, y ) f η ( y) = f ξ ( x), f η ( y / x) = f η ( y ) , при этом использовались соотношения (8.10). 65 Заметим, что полученные выше соотношения, как и соотношения (8.9), (8.10), являются условиями независимости случайных величин ξ и η, эквивалентными определению независимости случайных величин (8.8). Таким образом, для проверки независимости двух случайных величин достаточно определить частные распределения и, зная совместное распределение, проверить выполнение соотношений (8.9) или (8.10). Если эти соотношения справедливы при любых индексах i и j (соответственно при любых значениях переменных x и y), то случайные величины являются независимыми. В противном случае они являются зависимыми. 8.4. $      / +  +        Подробный анализ понятия математического ожидания случайной величины и его свойств дан в шестом разделе. Математическим ожиданием M[ξ] дискретной случайной величины ξ вычисляется по формуле M [ξ ] = ∑ xi ⋅ pi , (8.11) i при этом математическое ожидание существует, если ряд (8.11) сходится абсолютно, т.е. ∑ xi ⋅ pi < ∞ . i Математическое ожидание дискретной случайной величины ξ можно найти, зная совместное распределение системы двух случайных величин (ξ, η) . Для этого необходимо воспользоваться выражением для частного распределения (8.3) M [ξ] = ∑ xi ⋅ pi(ξ ) = ∑∑ xi ⋅ pij . (8.12) i i j Аналогично находим математическое ожидание другой случайной величины M [η] = ∑ y j ⋅ p (jη ) = ∑∑ y j ⋅ pij . j i (8.13) j В случае непрерывных случайных величин математическое ожидание определяется с помощью интегрирования. Математическое ожидание дает среднее значение случайной величины, а дисперсия является характеристикой отклонения случайной величины от своего среднего значения. Для дискретных случайных величин, используя определение математического ожидания, получим D[ξ ] = ∑ xi2 ⋅ pij − (M [ξ])2 = ∑ ∑ xi2 ⋅ pij − (M [ξ ])2 , i 66 i j D[η]= ∑ y 2j ⋅ pij − (M [η])2 = ∑ ∑ y 2j ⋅ pij − (M [η])2 . i i (8.14) j Среднее квадратическое отклонение случайной величины определяется как корень квадратный из дисперсии σ ξ = D[ξ], σ η = D[η] . 8.5. 5  ,  /    (8.15)   Математическое ожидание и дисперсия являются числовыми характеристиками каждой из случайных величин системы. Корреляционный момент – числовая характеристика системы случайных величин. Корреляционным моментом K ξη случайных величин ξ и η называется математическое ожидание произведения центрированных случайных величин, т.е. K = M [ξ& ⋅ η& ] = M [(ξ − M [ξ]) ⋅ (η − M [η])] . (8.16) ξη Если раскрыть это выражение и использовать свойства математического ожидания, то получим более пригодную для практических расчетов формулу K ξη = M [ξη] − M [ξ ] ⋅ M [η]. (8.17) В случае дискретных случайных величин математическое ожидание представляется в виде суммы K ξη = ∑ ∑ xi ⋅ y j ⋅ pi,j − M [ξ] ⋅ M [η] . i (8.18) j Если же случайные величины ξ и η являются непрерывными, то суммы следует заменить интегралами. Свойства корреляционного момента: 1) K ξη = K ηξ ; 2) K ξξ = D[ξ ]; 3) K ξη ≤ D[ξ ] ⋅ D[η] = σ ξ ⋅ σ η . Совокупность корреляционных моментов и дисперсий определяет корреляционную матрицу системы случайных величин  K ξξ K =   K ηξ K ξη   D[ξ ] K ξη  = . K ηη   K ηξ D[η] (8.19) Из свойств корреляционного момента следует симметричность этой матрицы, а также ее положительная определенность 2 r r (Kx , x ) = ∑ K i, j xi x j = D[ξ ] x12 + 2 K ξη x1 x2 + D[η] x22 > 0, ∀ x1, x2 , i, j 67 x  r где x =  1  – произвольный двумерный вектор.  x2  Коэффициентом корреляции случайных величин ξ и η называется число rξη = K ξη σξ ⋅ ση (8.20) . Из свойств дисперсии и корреляционного момента получаем свойства коэффициента корреляции: 1) rξη = rηξ ; 2) rξξ = 1; 3) rξη ≤ 1 . Нормированная корреляционная матрица  rξξ r =   rηξ rξη   1 = rηη   rηξ rξη  , 1  как и корреляционная матрица K, обладает свойствами симметричности и неотрицательной определенности.           8.6.     Понятие независимости случайных величин было рассмотрено в п. 8.3. Теперь определим понятие некоррелированности случайных величин. Случайные величины ξ и η называются некоррелированными, если их корреляционный момент равен нулю, т.е. (8.21) K ξη = M [ξ& ⋅ η& ] = 0 . Из определения коэффициента корреляции следует, что в случае некоррелированных случайных величин он также равен нулю. Принимая во внимание формулу (8.17), для некоррелированных случайных величин получим M [ξη] = M [ξ ]⋅ M [η], (8.22) т.е. математическое ожидание произведения случайных величин равно произведению математических ожиданий этих величин. Это утверждение справедливо для независимых случайных величин. Например, в случае дискретных независимых случайных величин имеем (см. выражение (8.9)): M [ξ ⋅ η] = ∑∑ xi ⋅ y j ⋅ pi,j = ∑∑ xi ⋅ y j ⋅ pi ⋅ p j =∑ xi ⋅ pi ∑ y j ⋅ p j = M [ξ ]M [η]. i 68 j i j i j Таким образом, из независимости случайных величин следует их некоррелированность. Обратное утверждение в общем случае неверно. Если корреляционный момент K ξη отличен от нуля, то случайные величины ξ и η называются коррелированными, при этом коэффициент корреляции также отличен от нуля rξη ≠ 0 . В общем случае коэффициент корреляции rξη показывает степень линейной связи случайных величин ξ и η. Чем больше значение абсолютной величины коэффициента корреляции rξη , тем более сильно связаны случайные величины ξ и η (см. рис. 8.1). Оказывается, что наибольшее абсолютное значение rξη = 1 коэффициент корреляции принимает тогда и только тогда, когда случайные величины связаны линейной зависимостью η = Aξ + B ( A ≠ 0) . Рис. 8.1. Примеры корреляции случайных величин ξ и η: слев – слабая корреляция (rξη ≈ 0), справа – сильная (rξη ~ 1). 8.7.      $   )  3   . При решении задач этого раздела следует прохо- дить отмеченные в решении данного примера этапы 1−8 и обращать особое внимание на аккуратное выполнение арифметических операций.  8.1. Задано распределение системы двух дискретных случайных вели- чин (ξ, η) (см. таблицу 8.1). Определить частные, условные (при ξ = –1 и η = 0) распределения и моментные характеристики системы случайных величин, а также найти вероятность попадания двумерной случайной величины (ξ, η) в область x2 G = {( x, y ) : + y 2 < 1}. 4 Таблица 8.1 69 ξ –1 1 3 5 0,16 0,12 0,14 0,08 5 0,08 0,10 0,09 0,08 10 0,06 0,04 0,03 0,02 η    . Действия разбиваются на несколько этапов: 1. Вычисление вероятности попадания двумерной случайной величины (ξ, η) в заданную область G – эллипс с полуосями, равными 2 и 1. Вероятность попадания случайной точки с координатами (ξ, η) в область G вычисляется по формуле p ((ξ, η) ∈ G ) = ∑ pij , (i,j ) где суммирование производится только по тем парам индексов (i, j), которые соответствуют точкам (xi, yj), находящимся внутри области G. Непосредственной проверкой убеждаемся, что таких точек две: (–1, 0) и (1, 0) и поэтому p ((ξ, η) ∈ G ) = p11 + p12 = 0,16 + 0,12 = 0,28. 2. Определение частных распределений. При известном совместном распределении систем двух дискретных случайных величин (ξ, η) частные распределения находятся по формулам: pi(ξ ) = ∑ pij и p (jη ) = ∑ pij . j j Полученные частные распределения даны в табл. 8.2 и 8.3 Таблица 8.2 ξ –1 p(ξ) 0,3 1 3 5 0,26 0,26 0,18 Таблица 8.3 η p(η) 0,5 5 10 0,35 0,15 3. Определение условных распределений. Условное распределение случайной величины ξ при условии, что η = 0, вычисляется по формуле p pξ ( xi / η = 0) = (iη1) . p1 70 Полученное условное распределение дано в табл. 8.4. Условное распределение случайной величины η при условии, что ξ = –1, вычисляется по формуле p1 j pη ( y j / ξ = − 1) = (ξ ) . p1 Это условное распределение приведено в табл. 8.5. Таблица 8.4 ξ –1 1 3 5 pξ(x / η = 0) 0,32 0,24 0,28 0,16 Таблица 8.5 η 5 10 pξ(y / ξ = –1) 8/15 4/15 1/5 4. Проверка условий независимости. Для того чтобы случайные величины ξ и η были независимыми, необходимо и достаточно выполнения условия pij = pi( ξ) p (jη) (см. п. 8.3) при любых значениях индексов i и j, т.е. i = 1, 2, 3, 4; j = 1, 2, 3. Из табл. 8.1–8.3 видно, что это условие не выполняется, например, при i = 1 и j = 1. Таким образом, случайные величины ξ и η являются зависимыми. 5. Вычисление математических ожиданий. Так как известны частные распределения случайных величин ξ и η, то их математические ожидания вычисляются по формулам (8.12) –(8.13) 4 M [ξ] = ∑ xi ⋅ pi(ξ ) = 1,64; i =1 M [η] = 3 ∑ y j ⋅ p (jiη) = 3,25. j =1 6. Вычисление дисперсий, средних квадратичных отклонений. Дисперсии случайных величин ξ и η определяем по формулам (8.14) [ ] 4 D[ξ] = M ξ 2 − (M [ξ ])2 = ∑ xi2 pi(ξ ) − (1,64) 2 = 4,71; [ ] D[η] = M η2 − (M [η])2 = i =1 3 ∑ y 2j p (jη ) − (3,25)2 = 13,19. j =1 Теперь находим средние квадратичные отклонения σ ξ = D[ξ ] ≈ 2,17; σ η = D[η] ≈ 3,63. 71 7. Вычисление корреляционной матрицы. Сначала вычислим корреляционный момент случайных величин ξ и η 4 3 K ξη = M [ξη] − M [ξ ] ⋅ M [η] = ∑ ∑ xi y j pij − 1,64 ⋅ 3,25 ≈ − 0,18. i =1 j =1 Теперь найдем коэффициент корреляции K ξη − 0,18 rξη = = ≈ − 0,023. σ ξ ⋅ σ η 2,17 ⋅ 3,63 Таким образом, можно написать корреляционную матрицу  4 ,71 − 0 ,18     − 0 ,18 13,19  и нормированную корреляционную матрицу − 0,023   1  . 1   − 0,023 Так как коэффициент корреляции отличен от нуля, то случайные величины ξ и η являются коррелированными, причем между ними существует весьма слабая линейная связь ( rξη ≈ − 0,023 ). 8. Выводы. Рассматриваемые случайные величины ξ и η являются зависимыми, коррелированными, причем между ними имеется достаточно слабая линейная связь. Распределение случайных величин и их числовые характеристики определены выше. Вероятность попадания двумерной случайной величины (ξ, η) в заданную область G равна 0,28. 72 9.     .      При статистическом определении вероятности она трактуется как некоторое число, к которому стремится относительная частота случайного события (см. п. 2.1). При аксиоматическом определении вероятность – это, по сути, аддитивная мера множества исходов, благоприятствующих случайному событию (см. пп. 2.2, 2.3 и 3.1). В первом случае имеем дело с эмпирическим пределом, во втором – с теоретическим понятием меры. Совсем не очевидно, что они относятся к одному и тому же понятию. Нетривиальную связь данных определений вероятности устанавливает теорема Бернулли, являющаяся частным случаем так называемого закона больших чисел. Как отмечалось, при увеличении числа испытаний биномиальный закон стремится к нормальному распределению (см. п. 7.5). Это теорема Муавра– Лапласа, которая является частным случаем центральной предельной теоремы. Последняя гласит, что функция распределения суммы независимых случайных величин с ростом числа слагаемых стремится к нормальному закону. Закон больших чисел и центральная предельная теорема имеют важное практическое значение. В частности, они лежат в основании математической статистики. Рассмотрение предельных теорем начнем с утверждений и теорем, объединенных общим названием – закон больших чисел. Наиболее изящные и простые доказательства этих теорем получаются с помощью неравенства Чебышева, которое и рассмотрим в первую очередь. Доказательство центральной предельной теоремы предварим описанием используемых для этого характеристических функций. 9.1.    Пусть случайная величина ξ имеет конечные математическое ожидание M[ξ] и дисперсию D[ξ]. Тогда для любого положительного числа ε справедливо неравенство p ( ξ − M [ξ ] < ε ) > 1 − D[ξ ] ε2 . (9.1) Приведем доказательство справедливости этого неравенства, для непрерывной случайной величины с плотностью распределения вероятности fξ(x). В этом случае D[ξ] = ∞ ∫ ( x − M [ξ ]) −∞ 2 f ξ ( x) d x . Разобьем область интегрирования на две части: |x – M[ξ]| < kσξ и |x – M[ξ]| ≥ kσξ, где σξ – среднее квадратическое отклонение ξ и k > 0. Тогда 73 D[ξ] = ∫ ( x − M [ξ ]) 2 x − M [ξ ] ≥ k σ ξ f ξ ( x) d x + ∫ (x − M [ξ ]) x − M [ξ ] < k σξ 2 f ξ ( x) d x. Оба интеграла, входящих в эту формулу, неотрицательны в силу неотрицательности подынтегральной функции. Поэтому, отбросив второй из них и заменив в подынтегральной функции в первом интеграле |x – M[ξ]| на минимально возможное значение, равное kσξ для данной области, получим оценку снизу D[ξ] ≥ ∫ (x − M [ξ ]) 2 x − M [ξ ] ≥k σξ Поскольку σ ξ2 = D[ξ] и β f ξ ( x) d x > k 2 σ ξ 2 ∫α f ξ ( x) d x = ∫ f ξ ( x) d x . x − M [ξ ] ≥k σξ p(α ≤ ξ ≤ β), то неравенство можно пе- реписать D[ξ] > k2 D[ξ] p(|ξ – M[ξ]| ≥ kσξ). Поделив на k2D[ξ], имеем > p ( ξ − M [ξ ] ≥ kσ ξ ) . 1 k 2 Принимая во внимание равенство p(|ξ – M[ξ]| ≥ kσξ) = 1 – p(|ξ – M[ξ]| < kσξ ) и выбирая ε = kσξ, получим неравенство Чебышева, которое устанавливает универсальное соотношение между математическим ожиданием и дисперсией: p ( ξ − M [ξ ] < ε ) > 1 − D[ξ ] ε2 .   : 1. Очевидно, что для противоположенного события D[ξ ] p ( ξ − M [ξ ] ≥ ε ) ≤ ε2 . (9.2) 2. Неравенство Чебышева справедливо для любого закона распределения. 3. Неравенства (9.1), (9.2) дают довольно грубую оценку вероятности соответствующих событий. Например, при ε = σξ получим: ( ) p ξ − M [ξ ] ≥ σ ξ ≤ σ ξ2 σ ξ2 = 1, что и так ясно, поскольку вероятность не может быть больше единицы. При ε = 3σξ оценка получается более точной и интересной: ( ) p ξ − M [ξ ] ≥ 3σ ξ ≤ σ ξ2 9σ ξ2 = 1 ≈ 0,11. 9 Неравенство Чебышева используется крайне редко на практике, но его теоретическое значение очень велико. 74 9.2.   * &     *   Теорема: Пусть случайные величины ξ1, ξ2, …, ξn, … попарно независимы и имеют конечные дисперсии, ограниченные одной и той же постоянной C: D[ξi] ≤ C, где i = 1, 2, ... Тогда для любого ε > 0 имеем 1 n  1 n  lim p ∑ ξ i − ∑ M [ξ i ] < ε  = 1. n→ ∞ n i =1  n i =1  Доказательство: Используем неравенство Чебышева. Пусть ξ = тогда M [ξ ] = (9.3) 1 n ∑ ξi , n i =1 1 n 1 n C M [ξ i ] и D[ξ ] = 2 ∑i =1 D[ξ i ] ≤ . Из (9.2) следует, что ∑ i =1 n n n 1 n  1 n 1 n C p ∑ ξ i − ∑ M [ξ i ] ≥ ε  ≤ 2 2 ∑ D[ξ i ] ≤ 2 . n i =1 ε n  n i =1  ε n i =1 Перейдя к пределу при n → ∞, получаем 1 n  1 n lim p ∑ ξ i − ∑ M [ξ i ] ≥ ε  ≤ 0. n→ ∞ n i =1  n i =1  Поскольку вероятность не может быть отрицательной, имеем 1 n  1 n lim p ∑ ξ i − ∑ M [ξ i ] ≥ ε  = 0 n→ ∞ n i =1  n i =1  и соответственно 1 n  1 n  lim p ∑ ξ i − ∑ M [ξ i ] < ε  = 1. n→ ∞ n i =1  n i =1  Можно ввести понятие сходимости по вероятности, когда вероятность различия двух величин стремится к нулю. Напомним, что в случае обычной сходимости различие величин должно стремиться к нулю. Таким образом, закон больших чисел говорит о сходимости по вероятности среднего арифметического случайных величин (т.е. случайной величины) к среднему арифметическому их математических ожиданий (т.е. к величине по определению неслучайной). : Для вывода формулы (9.3) достаточно потребовать, чтобы n  D ∑ ξ i  = 0. n→ ∞ n 2  i =1  lim 1 В этом состоит суть теоремы Маркова, которая утверждает, что закон больших чисел выполняется, если дисперсия суммы случайных величин растет не слишком быстро с ростом n. 75 9.3.     Одной из важнейших теорем теории вероятностей является теорема Бернулли, представляющая собой частный случай закона больших чисел. Впервые она была опубликована в труде Якоба Бернулли “Искусство предположений”, изданном в 1713 году. Наиболее изящное и краткое ее доказательство нашел П.Л. Чебышев в середине XIX века. Теорема: Рассмотрим схему Бернулли. Пусть µn – число наступлений события А в n независимых испытаниях, р – вероятность наступления события А в одном испытании. Тогда для любого ε > 0 µ  lim p n − p < ε  = 1. n→∞  n  (9.4) Другими словами, вероятность того, что отклонение относительной частоты случайного события от его вероятности р будет по модулю сколь угодно мало, стремится к 1 с ростом числа испытаний n. Доказательство: Случайная величина µn распределена по биномиальному закону, поэтому имеем (см. п. 7.5) M[µn] = np, D[µn] = np(1 – p), и тогда µ   µ  p (1 − p ) M  n  = p, D  n  = . n n n     Для случайной величины µ n / n неравенство Чебышева принимает следующий вид: µ  p (1 − p ) . p n − p < ε  > 1 − 2 n n ε   Переходя к пределу при n → ∞, получаем формулу (9.4).   . Принципиальное различие сходимости по вероятности и просто сходимости можно понять на примере бросания монеты n раз. Легко показать, что относительная частота выпадения “герба” не стремится строго математически к 1/2: для любого n существует отличная от нуля вероятность того, что относительная частота будет равна, например, 1, а не 1/2 (см. пример 9.2). Однако эта вероятность (ее легко найти по формуле Бернулли) быстро убывает с ростом n, и относительная частота сходится по вероятности к 1/2. 9.4. 4  Для доказательства центральной предельной теоремы необходимо ознакомиться с аппаратом характеристических функций. 76 Характеристической функцией случайной величины ξ называется функция φ ξ (t ) = M [exp(itξ )], (9.5) где exp(x) = ex. Таким образом, φξ(t) представляет собой математическое ожидание некоторой комплексной случайной величины η = exp(itξ ) , связанной с величиной ξ. В частности, если ξ – дискретная случайная величина, заданная рядом распределения {xi, pi}, где i = 1, 2, ..., n, то n φ ξ (t ) = ∑exp(itxi ) pi . (9.6) i =1 Для непрерывной случайной величины ξ с плотностью распределения вероятности fξ(x) φ ξ (t ) = ∞ ∫ exp(itx) f ξ ( x) d x . (9.7) −∞ Например, для случайной величины ξ, имеющей нормальный закон распределения с параметрами a =M[ξ] и σ = D[ξ] , характеристическая функция равна  t 2 σ 2   φ ξ (t ) = exp ita − . 2   (9.8) Вывод этого соотношения приведен в примере 9.4. Между характеристической функцией случайной величины φξ(t) и ее функцией распределения Fξ(x) существует взаимно однозначное соответствие. Покажем это для непрерывной случайной величины ξ. Доказательство для дискретной величины аналогично. Соотношение (9.7) есть так называемое прямое преобразование Фурье. Известно, что в таком случае функцию fξ(x) можно найти по известной характеристической функции φξ(t), используя обратное преобразование Фурье: 1 +∞ f ξ ( x) = ∫ exp(−itx) φξ (t ) d t . 2π - ∞ (9.9) В силу единственности преобразования Фурье между fξ(x) и φξ(t) имеется однозначное соответствие: известной плотности распределения вероятности fξ(x) соответствует одна и только одна характеристическая функция φξ(t), и наоборот. Поскольку между fξ(x) и Fξ(x) также существует однозначное соответствие, такое соотношение между φξ(t) и Fξ(x) доказано. Отметим другие свойства характеристических функций: 1) φCξ (t ) = φ ξ (Ct ) для любой постоянной С. Иными словами, если случайные величины η и ξ связаны соотношением η = Cξ, то для их характеристических функций справедливо равенство 77 φ η (t ) = φ ξ (Ct ) . (9.10) Действительно, φ η (t ) = M [exp(itη)] = M [exp(itCξ)] = M [exp(i ~ t ξ)] = φ ξ (~ t ) = φξ (Ct ) , где ~ t = Ct. 2) Для последовательности независимых случайных величин ξ1, ξ 2, …, ξ n φ ξ1 + ξ 2 + ...+ ξ n (t ) = φ ξ (t ) ⋅ φξ (t ) ⋅ ... ⋅ φξ (t ) , 1 2 (9.11) n Как легко видеть, φξ1 + ξ 2 + ...+ ξ n (t ) = M [exp (it (ξ1 + ξ 2 + ... + ξ n ))] = = M [exp(itξ1 ) ⋅ exp(itξ 2 ) ⋅ ... ⋅ exp(itξ n )] = = M [exp(itξ1 )] ⋅ ... ⋅ M [exp(itξ n )] = φ ξ (t ) ⋅ φ ξ (t ) ⋅ ... ⋅ φ ξ (t ) . 1 2 n Если все случайные величины ξi имеют одинаковое распределение, т.е. φ ξ (t ) = φ ξ (t ) , то формула упрощается i φ ξ 1 + ξ 2 + ... + ξ n (t ) = ( φ ξ (t )) n . (9.12) 3) φ ξ( k ) (0) = i k M [ξ k ] , т.е. производные φξ(t) по t связаны с моментами ξ. Пусть существуют начальные моменты порядка k (k = 1, 2, …) случайной величины ξ, т.е. M [ξ k ] < ∞ . Тогда характеристическая функция φξ(t) непрерывно дифференцируема k раз, и ее k-я производная в нуле связана с k-м моментом  φ ξ( k ) (0) =    dk   M [ exp ( it ξ )] = M ( exp ( it ξ ) ) =  k  k  d t d t   t =0   t =0 dk = M [i k ξ k exp(itξ)] |t = 0 = i k M [ξ k ] . (9.13) Как следствие, характеристическую функцию φξ(t) часто называют производящей функцией начальных моментов ξ. 4) Функция φξ(t) раскладывается в ряд Тейлора. Если существуют моменты случайной величины ξ порядка k = 1, 2, ..., т.е. M [ξ k ] < ∞ , то ее характеристическая функция φξ(t) может быть разложена в ряд Тейлора в окрестности точки t = 0 следующим образом: k tj k i jt j φ ξ (t ) = φ ξ (0) + ∑ φ ξ( j ) (0) + o(| t k |) = 1 + ∑ M [ξ j ] + o(| t k |) = j =1 j! j =1 j! = 1+ itM [ξ ] − 78 t2 ikt k M [ξ 2 ] + ... + M [ξ k ] + o(| t k |) . 2 k! (9.14)   : Характеристические функции позволяют легко доказать следующие свойства нормального распределения: 1. Нормальное распределение устойчиво относительно суммирования. Обозначим плотность распределения вероятности нормально распределенной величины с математическим ожиданием a и дисперсией σ2 как f N ( x , a , σ) = 1 e 2πσ − ( x − a) 2 2σ 2 , а функцию распределения как FN ( x, a, σ) = x  x−a 1 + . σ  2 ∫ f N (t , a, σ) d t = Φ −∞ Пусть случайные величины ξ1 и ξ2 являются независимыми и имеют нормальное распределение с параметрами a1, σ1 и a2, σ2 соответственно, т.е. их плотности распределения вероятности равны f ξ1 ( x) = f N ( x, a1 , σ1 ) и f ξ 2 ( x ) = f N ( x, a 2 , σ 2 ) . Тогда, согласно формулам (9.8) и (9.11), характеристическая функция суммы ξ1 + ξ2 равна 2 2   t 2 σ12   ita2 − t σ 2  = φ ξ + ξ (t ) = φ ξ (t ) ⋅ φ ξ (t ) = exp ita1 − ⋅ exp  1 2 1 2 2  2     t 2 (σ12 + σ 22 )  = expit (a1 + a2 ) − , 2   т.е. характеристическая функция суммы ξ1 + ξ2 есть характеристическая функция случайной величины, имеющей плотность распределения веро- ятности f N ( x, a1 + a 2 , σ12 + σ 22 ) . Следовательно, данная сумма распределена по нормальному закону с параметрами a = a1 + a2 и σ = σ12 + σ 22 и ее функция распределения равна FN ( x, a1 + a 2 , σ12 + σ 22 ). 2. Если случайная величина ξ имеет нормальное распределение с плотностью f ξ ( x) = f N ( x, 0, 1) , то случайная величина η = α + βξ имеет нормальное распределение с плотностью f η ( x) = f N ( x, α, β) . Рассмотрим характеристическую функцию η, используя формулы (9.8), (9.10) и (9.11), φ η (t ) = φα + βξ (t ) = φ α (t ) ⋅ φβξ (t ) = φα (t ) ⋅ φξ (β t ) =  t 2β 2   t 2β 2   = exp itα − . = exp(itα) ⋅ exp −    2 2     Таким образом, характеристическая функция η есть характеристическая функция случайной величины, имеющей нормальное распределение с па79 раметрами α и β. Следовательно, случайная величина η = α + βξ распределена по нормальному закону Fη ( x) = FN ( x, α, β) . 9.5. #  -      (   -  ) Группа теорем, касающихся предельных законов распределения суммы случайных величин, носит общее название центральной предельной теоремы. Рассмотрим ее классическую формулировку. Теорема: Пусть ξ1, ξ2, …, ξn, … – бесконечная последовательность независимых одинаково распределенных случайных величин, имеющих конечные математическое ожидание a и дисперсию σ2. Тогда при n → ∞ функция распределения ηn = ( S n − an) /(σ n ), где S n = ∑ in=1 ξ i , стремится к нормальному закону с нулевым математическим ожиданием и средним квадратическим отклонением, равным единице, т.е. Fη n ( x) n → FN ( x, 0, 1) . (9.15) →∞ Доказательство: Используем характеристические функции. Пусть ζi = 1 (ξ i − a ) . σ n Разложим характеристическую функцию ζi в ряд Тейлора t2 it 3 ikt k 2 3 φ ζ (t ) = 1 + itM [ζ i ] − M [ζ i ] − M [ζ i ] + ... + M [ζ ik ] + ... (9.16) i 2 6 k! 1 Ясно, что в формуле (9.16) M [ζ i ] = M [ζ i2 ] = ( σ n 1 2 M [ξ i2 ] − ) 2aM [ξ i ] + a = 2 σ n M [ξ i − a ] = [D[ξ ] + (M [ξ ]) σ n 1 i 2 2 i 1 σ n (M [ ξ i ] − a ) = 0 ] −a = 2 σ2 1 = . σ2n n и То- гда при больших n для любого i имеем φ ζ (t ) = 1 − i t2 1 + o  . 2n n (9.17) Интересующая нас случайная величина есть n ∑ ξ − an n S n − an i =1 i ηn = = = ∑ζ i , σ n σ n i =1 и ее характеристическая функция соответственно равна φ η n (t ) = φζ 1 + ζ 2 + ...+ ζ n (t ) = φζ (t ) ⋅ φ ζ (t ) ⋅ ... ⋅ φζ (t ) = 1 2 n n 2  t  1  = 1 − + o   .  n   2n 80 (9.18) Переходя в (9.18) к пределу при n → ∞ , получим n n    t2  t2 t2   1  lim φη n (t ) = lim 1 − + o   = lim 1 −  = exp −  . (9.19) n→∞ n→∞ n→∞  n   2n  2n   2 Следовательно, при n → ∞ характеристическая функция ηn = ( S n − an) /(σ n ) стремится к характеристической функции некоторой случайной величины, имеющей нормальное распределение с a = 0 и σ = 1. Поскольку между функцией распределения случайной величины и ее характеристической функцией имеется однозначное соответствие, функция распределения ηn стремится к нормальному закону: Fη n ( x) n → FN ( x, 0, 1) , →∞ что и требовалось доказать.   +: 1. С ростом n функция распределения Sn стремится к нормальному закону: FS n ( x) n → FN ( x, an, σ n ) , →∞ поскольку S n = an + σ n ηn и согласно предельной теореме функция распределения ηn стремится к FN (x, 0, 1) . S 1 2. Если использовать ξ = ∑ in=1 ξ i = n , то можно переписать результат n n центральной предельной теоремы в следующем виде: Fξ ( x) n → FN ( x, a, →∞ 9.6.  (  σ ). n )  $  −  (9.20)  Интегральная теорема Муавра−Лапласа является следствием центральной предельной теоремы в случае, когда реализуется схема Бернулли и случайная величина распределена по биномиальному закону. Теорема. Рассмотрим схему Бернулли. Пусть µn − число наступлений события А в n независимых испытаниях, р − вероятность наступления события А µ n − np в одном испытании. Тогда при n → ∞ функция распределения ηn = np(1 − p ) стремится к нормальному закону с нулевым математическим ожиданием и стандартным отклонением, равным единице, т.е. → FN ( x, 0, 1) . Fη n ( x) n →∞ (9.21) 81 Доказательство: Представим µn как сумму независимых случайных величин: µn = ξ1 + ξ2 + … + ξn, где ξi = 1, если событие А произошло в i-м испытании, и ξi = 0 в противоположном случае. Все ξi имеют одинаковый биномиальный закон распределения ξi 1 pi 1−p p и, следовательно, M[ξi] = a = p, D[ξi] = σ2 = p(1 − p). Подставляя в формулировку центральной предельной теоремы Sn = µn и найденные значения a и σ, получим соотношение (9.21).   : 1. С ростом n функция распределения µn стремится к нормальному закону (по аналогии с Sn) Fµ n ( x) n → FN ( x, np, np (1 − p ) ) . →∞ 2. Аналогично, если µn 1 n = ∑ ξi , n n i =1 то можно переписать результат теоремы Муавра−Лапласа в следующем виде: Fµ ( x) n → FN ( x, p, p(1 − p ) / n ) . (9.22) →∞ µ= 3. Предельная теорема Муавра–Лапласа приводит к интегральной формуле Муавра–Лапласа, рассмотренной в п. 6.2. Доказательство этого приведено в решении примера 9.5. 9.7.     - -  $    3 . При решении задач этого раздела следует помнить следующее: 1) Закон больших чисел применим к достаточно большой последовательности независимых случайных величин, и гласит, что сумма этих величин стремится по вероятности к сумме их математических ожиданий; 2) Центральная предельная теорема говорит о том, что закон распределения такой суммы случайных величин стремится к нормальному.  9.1. Пусть последовательность независимых случайных величин ξ1, ξ2, ..., ξk, ... задана следующим законом распределения: (ξk)i –ka ka pi 1/(2k2) 1 – 1/k2 1/(2k2) где a – некоторый параметр, i = 1, 2, 3. 82 Применим ли к этой последовательности закон больших чисел в форме Чебышева? Если применим, то к чему стремится по вероятности сумма случайных величин этой последовательности?    . Для того чтобы к последовательности случайных величин был при- меним закон больших чисел достаточно, чтобы эти величины были попарно независимы и их дисперсии были ограничены одним и тем же числом. Поскольку ξ1, ξ2, ..., ξk, ... независимы, то они и подавно попарно независимы, т.е. первое требование выполнено. Для любого k ≥ 1 математическое ожидание M[ξk] = 0, поскольку закон распределения симметричен относительно значения ξk, равного 0. Дисперсия ξk равна D[ξ k ] = M [ξ k2 ] − (M [ξ k ])2 = (− ka )2 1 2k 2 + 0 + (ka )2 1 2k 2 − 0 = a2, и, следовательно, ограничена числом a2 для любого k. Таким образом, выполнено и второе требование, т.е. к данной последовательности применим закон больших чисел. Тогда сумма ξ1 + ξ2 + ... + ξk, + ... должна стремиться по вероятности к сумме математических ожиданий ∞ ∑ k =1 M [ξ k ] = 0 .  9.2. Доказать, что с ростом числа бросков монеты n относительная частота выпадения “герба” rn не стремится строго математически, но стремится по вероятности к 1/2. . Если бы rn стремилось к 1/2, то для любого малого ε > 0, существовало бы некоторое число n1, такое что для всех n > n1 выполнялось бы неравенство |rn – 1/2| < ε. Покажем, что это не так в нашем случае. Например, при выпадении “герба” все n раз относительная частота rn = 1. Вероятность такого события согласно формуле Бернулли равна (то же когда “герб” не выпадает ни разу, т.е. для rn = 0) p n (n ) 1 = Cnn   n 1   2 2 n−n = 2 − n. Как следствие, уже для ε = 1/2 не существует такого n1, чтобы для всех n > n1 событие (|rn – 1/2| < ε) было достоверным, поскольку вероятность противоположенного события (того, что rn – 1/2 ≥ 1/2 или 1/2 – rn ≥ 1/2, т.е. rn = 1 или rn = 0) равна 2⋅2–n и больше 0. Сходимость rn к 1/2 по вероятности доказывается соответствующим применением теоремы Бернулли. Условия теоремы в данном случае, очевидно, выполнены, и µn /n = rn, p = 1/2.  9.3. Найти характеристическую функцию дискретной случайной вели- чины ξ, принимающей значение 1, если выпало 10 и более очков при одновременном броске двух игральных кубиков, и 0 – в противном случае. 83    . Поскольку возможно всего 36 комбинаций выпадающих чисел, при этом только в 6 случаях сумма очков равна 10 и более, имеем следующий закон распределения ξ: xi 1 pi 5/6 1/6 5 1 5 + exp(it ) Тогда по формуле (9.6) φ ξ (t ) = exp(it ⋅ 0) + exp(it ⋅ 1) = . 6 6 6  9.4. Найти характеристическую функцию непрерывной случайной ве- личины ξ, распределенной по нормальному закону  ( x − a) 2  1 exp− . f ξ ( x) = 2  2πσ 2 σ   . Начнем с того, что согласно (9.7) +∞  ( x − a) 2  1 exp− dx . φ ξ (t ) = ∫ exp(itx) 2  2 σ π 2 σ −∞   Пусть y = x−a , тогда σ φ ξ ( x) =  y2  exp(ita ) + ∞ −  ity exp ( σ ) exp ∫  2  dy = 2π − ∞    t 2σ 2   exp ita −  +∞ 2   exp − 1 ( y − itσ) 2  d y . =  ∫  2 2π  −∞ Поскольку +∞ +∞  ( y − itσ) 2   z2    exp − d y = exp ∫  ∫  − 2  dz = 2π ,  2 −∞ −∞     то искомая характеристическая функция равна  t 2 σ 2   φ ξ (t ) = exp ita − . 2   (89)  9.5. Игральную кость бросают 300 раз. Оценить вероятность того, что 1 или 2 выпадет от 85 до 115 раз. . Будем считать выпадение 1 или 2 благоприятным исходом отдельно- го испытания (броска). Пусть k – число благоприятных исходов. Требуется определить p(85 ≤ k ≤ 115). Отдельные броски игральной кости можно считать независимыми испытаниями (как в схеме Бернулли) и задачу можно решить, используя би84 номиальное распределение. Вероятность k благоприятных исходов в серии из n независимых испытаний согласно формуле Бернулли равна p n (k ) = C nk p k (1 − p ) n − k , где p – вероятность благоприятного исхода в отдельном испытании. В нашем случае p = 1/3. Искомая вероятность будет точно определяться суммой p (85 ≤ k ≤ 115) = 115 ∑ i = 85 i 1 C300   i  1 1 −   3  3 300 − i , вычисление которой весьма утомительно. Более простой, но в некоторой степени приближенный способ решения поставленной задачи состоит в использовании центральной предельной теоремы. Пусть ξi – случайная величина, относящаяся к i-му испытанию. Ее значение, равное x1 = 1, соответствует благоприятному исходу i-го испытания, x2 = 0 − противоположному случаю. Величины ξi имеет один и тот же закон распределения: xj 1 pj 2/3 1/3 где j = 1, 2. 1 2 1 Тогда M [ξ i ] = a = 1 ⋅ + 0 ⋅ = и 3 3 3 [ ] D[ξ i ] = σ = M ξ i − (M [ξ i ]) 2 2 2 2 1 2 1 2 = 1 ⋅ + 02 ⋅ −   = . 3 3  3 9 2 ξ Очевидно, что при таком выборе ξi, случайная величина S 300 = ∑ 300 i =1 i будет описывать число благоприятных исходов (выпадение 1 или 2) в нашей задаче. Поскольку общее число испытаний достаточно велико (n = 300), можно считать, что условия центральной теоремы выполнены и, следовательно, S300 имеет функцию распределения, близкую к нормальному закону с математическим ожиданием an = 100 и дисперсией σ2n = 200/3, т.е. FS 300 ( x) ≈ FN ( x, an, σ n ) . Тогда p(k1 ≤ k ≤ k 2 ) = FS 300 (k 2 ) − FS 300 (k1 ) ≈ FN (k 2 , an, σ n ) −  k − na   k − na  − FN (k1 , an, σ n ) = Φ 2  − Φ 1 ,  σ n   σ n  (9.7) 85 где Φ(x) – функция Лапласа (таблица ее значений приведена в Приложении). Подставляя численные значения, соответствующие нашей задаче, получим  115 − 100   85 − 100  p (85 ≤ k ≤ 115) ≈ Φ  − Φ = 10 2 / 3 10 2 / 3      15  = 2Φ   ≈ 2Φ (1,84) ≈ 0,93.  10 2 / 3  Иными словами, вероятность того, что полное число благоприятных исходов не заключено в пределах от 85 до 115, составляет лишь около 7 процентов.   9.6. Величина S – сумма 100 чисел, каждое из которых сгенерировано датчиком случайных чисел. Датчики вырабатывают случайные числа, равномерно распределенные в интервале [0, 1]. Найти пределы, в которые с вероятностью, не меньшей 0,9, попадет S. . Пусть ξi – случайное число, выработанное i-м датчиком. Если ξi равномерно распределены в интервале [α, β], то согласно п. 7.5 α +β ( β − α )2 2 M [ξ i ] = a = , D[ξ i ] = σ = . 2 12 В нашем случае α = 0 и β = 1, соответственно M[ξi] =1/2 и D[ξi] = σ2 = (1 − 0)2/12 = 1/12. Величина S, согласно центральной предельной теореме, стремится к нормально распределенной, т.е. FS ( x) n → FN ( x, an, σ n ) . Будем ис→∞ кать интервал, симметричный относительно математического ожидания an − tσ n , an + tσ n , где параметр t > 0, [ ( ] ) p an − tσ n ≤ S ≤ an + tσ n = Φ (t ) − Φ (− t ) = 2Φ (t ) . По условию задачи p ≥ 0,9, и, следовательно, 2Φ(t) ≥ 0,9 или Φ(t) ≥ 0,45. Обратившись к таблицам значений функции Лапласа, мы найдем, что t ≥ 1,64. В результате находим искомый интервал [an − tσ ] 16,4 16,4   n , an + tσ n = 50 − , 50 + = [45,3; 54,7], 2 3 2 3   т.е. 45,3 ≤ S ≤ 54,7 с вероятностью, не меньшей 0,9. 9.7. Классическая задача. Монета подбрасывается 100, 900 и 10000 раз. Оценим в каждом из случаев вероятность того, что частота выпадения “герба” отличается от половины на одну сотую или более. 86    . Поскольку здесь имеет место схема Бернулли и число испытаний достаточно велико, используем предельную (интегральную) теорему Муавра–Лапласа в виде (9.22), где µ − относительная частота выпадения “герба”, а p = 0,5. Рассмотрим сначала вероятность противоположного события, состоящего в том, что µ − p ≤ 0,01. Случайная величина ( µ − p ) имеет математическое ожидание, равное 0, и дисперсию D[µ − p] = p ⋅ (1 − p) / n = 0,25 / n . Поэтому при больших n функция распределения ( µ − p ) стремится к нормальному закону FN ( x, 0, 0,5/ n ) . Тогда p ( µ − 0,5 ≤ 0,01) = p (−0,01 ≤ µ − 0,5 ≤ 0,01) ≈  0,01   − 0,01   − Φ  = Φ (0,02 n ) . ≈ Φ  0,5 / n   0,5 / n  Следовательно: для n = 100 p ( µ − 0,5 ≤ 0,01) ≈ 2 ⋅ Φ (0,2) ≈ 0,159 ; для n = 900 p ( µ − 0,5 ≤ 0,01) = 2 ⋅ Φ (0,6) = 0,451; для n = 10000 p ( µ − 0,5 ≤ 0,01) = 2 ⋅ Φ (2,0) = 0, 955. Таким образом, p ( µ − 0,5 ≥ 0,01) − вероятность того, что частота выпадения “герба” отличается от половины на одну сотую или более, для 100, 900 и 10000 бросков равна соответственно: (1 − 0,159) = 0,841; (1 − 0,451) = 0,549 и (1 − 0,955) = 0,045. Данный пример показывает, как с увеличением числа бросков (испытаний) частота выпадения “герба” по вероятности стремится к своему математическому ожиданию, равному 1/2. Видно, что, чем больше испытаний, тем меньше вероятность отклонения относительной частоты события от его вероятности. Напомним, что именно в этом и состоит суть закона больших чисел (теоремы Бернулли). 87   1. Колемаев В.А., Калинина В.Н. Теория вероятностей и математическая статистика. М.: ЮНИТИ-ДАНА, 2003. 352 с. 2. Гмурман В.Е. Теория вероятностей и математическая статистика. М.: Высшее образование, 2006. 575 с. 3. Чистяков В.П. Курс теории вероятностей. М.: Агар, 2000. 256 с. 4. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. М.: Высшее образование, 2006. 476 с. 5. Сборник задач по математике (для ВТУЗов). Специальные курсы. / Под ред. А.В.Ефимова, т.3. М.,1984. 605 с. 88    Таблица 1 t   t 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 t ϕ(t) t ϕ(t) 0,00 0,39894 0,39695 0,39104 0,38139 0,36827 0,35207 0,33322 0,31225 0,28969 0,26609 0,24197 0,21785 0,19419 0,17137 0,14973 0,12952 0,11092 0,09405 0,07895 0,06562 0,05399 0,04398 0,03547 0,02833 0,02239 0,01753 0,01358 0,01042 0,00792 0,00595 3,0 0,00443 4,0 0,00013   0,02 0,39886 0,39608 0,38940 0,37903 0,36526 0,34849 0,32918 0,30785 0,28504 0,26129 0,23713 0,21307 0,18954 0,16694 0,14556 0,12566 0,10741 0,09089 0,07614 0,06316 0,05186 0,04217 0,03394 0,02705 0,02134 0,01667 0,01289 0,00987 0,00748 0,00562 3,2 0,00238 4,2 0,00006 2 1 −2 ϕ (t ) = e 2π 0,04 0,06 0,39822 0,39862 0,39387 0,39505 0,38762 0,38568 0,37654 0,37391 0,35889 0,36213 0,34105 0,34382 0,32506 0,32086 0,30339 0,29887 0,27562 0,28034 0,25164 0,25648 0,22747 0,23230 0,20357 0,20831 0,18037 0,18494 0,15822 0,16256 0,13742 0,14146 0,11816 0,12188 0,10059 0,10396 0,08478 0,08780 0,07074 0,07341 0,05844 0,06077 0,04780 0,04980 0,04041 0,03871 0,03103 0,03246 0,02582 0,02463 0,01936 0,02033 0,01585 0,01506 0,01160 0,01223 0,00935 0,00885 0,00707 0,00668 0,00530 0,00499 3,4 3,6 0,00123 0,00061 4,4 4,6 0,00002 0,00001 0,08 0,39767 0,39253 0,38361 0,37115 0,35553 0,33718 0,31659 0,29431 0,27086 0,24681 0,22265 0,19886 0,17585 0,15395 0,13344 0,11450 0,09728 0,08183 0,06814 0,05618 0,04586 0,03706 0,02965 0,02349 0,01842 0,01431 0,01100 0,00837 0,00631 0,00470 3,8 0,00029 89 Таблица 2 2        Φ(t ) = t 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 t Φ(t) t Φ(t) 90 0,00 0,00000 0,03983 0,07926 0,11791 0,15542 0,19146 0,22575 0,25804 0,28814 0,31594 0,34134 0,36433 0,38493 0,40320 0,41924 0,43319 0,44520 0,45543 0,46407 0,47128 0,47725 0,48214 0,48610 0,48928 0,49180 0,49379 0,49534 0,49653 0,49744 0,49813 3,0 0,49865 4,0 0,49997 0,02 0,00798 0,04776 0,08706 0,12552 0,16276 0,19847 0,23237 0,26424 0,29389 0,32121 0,34614 0,36864 0,38877 0,40658 0,42220 0,43574 0,44738 0,45728 0,46562 0,47257 0,47831 0,48300 0,48679 0,48983 0,49224 0,49413 0,49560 0,49674 0,49760 0,49825 3,2 0,49931 4,2 0,49999 0,04 0,01595 0,05567 0,09483 0,13307 0,17003 0,20540 0,23891 0,27035 0,29955 0,32639 0,35083 0,37286 0,39251 0,40988 0,42507 0,43822 0,44950 0,45907 0,46712 0,47381 0,47932 0,48382 0,48745 0,49036 0,49266 0,49446 0,49585 0,49693 0,49774 0,49836 3,4 0,49966 t −x e 2 1 ∫ 2π 0 0,06 0,02392 0,06356 0,10257 0,14058 0,17724 0,21226 0,24537 0,27637 0,30511 0,33147 0,35543 0,37698 0,39617 0,41308 0,42786 0,44062 0,45154 0,46080 0,46856 0,47500 0,48030 0,48461 0,48809 0,49086 0,49305 0,49477 0,49609 0,49711 0,49788 0,49846 3,6 0,49984 dx 0,08 0,03188 0,07142 0,11026 0,14803 0,18439 0,21904 0,25175 0,28230 0,31057 0,33646 0,35993 0,38100 0,39973 0,41621 0,43056 0,44295 0,45352 0,46246 0,46995 0,47615 0,48124 0,48537 0,48870 0,49134 0,49343 0,49506 0,49632 0,49728 0,49801 0,49856 3,8 0,49993   5     5    1 1. Бросают игральную кость. Путь событие А – это выпадение четного числа, а событие В – выпадение числа меньшего 4. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 4, и события B, когда произведение выпавших очков равно 4. 3. Случайным образом выбирают 3 шара из 7, среди которых 3 белых и 4 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,3 и 0,8 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 10 хорошистов, 4 троечника и 4 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из четырех троечников? 6. Известна вероятность события A: p(A) = 0,1. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 1), x ∈ [0 ; 2], f ξ ( x) =  x ∉ [0 ; 2]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 3]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,762. 9. Дан ряд распределения двумерной случайной величины (ξ, η): 91 ξ 1 2 η –1 p11 1/8 1/8 1/8 1 3/8 1/8 Найти значение p11, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   2 1. Бросают игральную кость. Путь событие А – это выпадение нечетного числа, а событие В – выпадение числа меньшего 5. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 10, и события B, когда произведение выпавших очков равно 6. 3. Случайным образом выбирают 3 шара из 7, среди которых 4 белых и 3 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,2 и 0,9 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 4 хорошиста, 12 троечников и 2 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из двух двоечников? 6. Известна вероятность события A: p(A) = 0,2. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 1), x ∈ [0 ; 3], f ξ ( x) =  x ∉ [0 ; 3]. 0 , 92 Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 4]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=25 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,8444. 9. Дан ряд распределения двумерной случайной величины (ξ,η): ξ 1 2 η –1 3/8 1/8 1/8 1/8 1 1/8 p33 Найти значение p33, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   3 1. Бросают игральную кость. Путь событие А – это выпадение четного числа, а событие В – выпадение числа большего 3. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 5, и события B, когда произведение выпавших очков равно 4. 3. Случайным образом выбирают 3 шара из 8, среди которых 3 белых и 5 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,4 и 0,8 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 8 хорошистов, 6 троечников и 4 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из шести троечников? 93 6. Известна вероятность события A: p(A) = 0,3. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 2), x ∈ [0 ; 2], f ξ ( x) =  x ∉ [0 ; 2]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 3]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,8859. 9. Дан ряд распределения двумерной случайной величины (ξ, η): ξ 1 2 η –1 1/8 p13 1/8 1/8 1 3/8 1/8 Найти значение p13, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   4 1. Бросают игральную кость. Путь событие А – это выпадение нечетного числа, а событие В – выпадение числа большего 2. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 9, и события B, когда произведение выпавших очков равно 6. 3. Случайным образом выбирают 3 шара из 8, среди которых 5 белых и 3 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 94 4. Два независимых события A и B наступают с вероятностями 0,3 и 0,9 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 6 хорошистов, 10 троечников и 2 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из двух двоечников? 6. Известна вероятность события A: p(A) = 0,4. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 2), x ∈ [0 ; 3], f ξ ( x) =  x ∉ [0 ; 3]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 4]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,899. 9. Дан ряд распределения двумерной случайной величины (ξ, η): ξ 1 2 η –1 3/8 1/8 1/8 1/8 1 p31 1/8 Найти значение p31, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   5 1. Бросают игральную кость. Путь событие А – это выпадение четного числа, а событие В – выпадение числа меньшего 6. Что представляют собой собы95 тия A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 6, и события B, когда произведение выпавших очков равно 4. 3. Случайным образом выбирают 3 шара из 9, среди которых 3 белых и 6 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,5 и 0,8 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 6 хорошистов, 8 троечников и 4 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из восьми троечников? 6. Известна вероятность события A: p(A) = 0,5. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 3), x ∈ [0 ; 2], f ξ ( x) =  x ∉ [0 ; 2]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 3]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,9216. 9. Дан ряд распределения двумерной случайной величины (ξ, η): ξ 96 1 2 η –1 1/8 1/8 p21 1/8 1 3/8 1/8 Найти значение p21, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   6 1. Бросают игральную кость. Путь событие А – это выпадение нечетного числа, а событие В – выпадение числа меньшего 3. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 8, и события B, когда произведение выпавших очков равно 6. 3. Случайным образом выбирают 3 шара из 9, среди которых 6 белых и 3 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,4 и 0,9 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 8 хорошистов, 8 троечников и 2 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из двух двоечников? 6. Известна вероятность события A: p(A) = 0,6. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 3), x ∈ [0 ; 3], f ξ ( x) =  x ∉ [0 ; 3]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 4]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,95. 97 9. Дан ряд распределения двумерной случайной величины (ξ, η): ξ 1 2 η –1 3/8 1/8 1/8 p22 1 1/8 1/8 Найти значение p22, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   7 1. Бросают игральную кость. Путь событие А – это выпадение четного числа, а событие В – выпадение числа большего 4. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 7, и события B, когда произведение выпавших очков равно 4. 3. Случайным образом выбирают 3 шара из 10, среди которых 3 белых и 7 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,6 и 0,8 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 4 хорошиста, 10 троечников и 4 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из десяти троечников? 6. Известна вероятность события A: p(A) = 0,7. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ 98 x ∈ [0 ; 2], x ∉ [0 ; 2]. C ( х + 4), f ξ ( x) =  0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 3]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,9606. 9. Дан ряд распределения двумерной случайной величины (ξ, η): ξ 1 2 η –1 1/8 1/8 1/8 1/8 1 p31 1/8 Найти значение p31, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   8 1. Бросают игральную кость. Путь событие А – это выпадение нечетного числа, а событие В – выпадение числа большего 1. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 7, и события B, когда произведение выпавших очков равно 6. 3. Случайным образом выбирают 3 шара из 10, среди которых 7 белых и 3 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,5 и 0,9 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 10 хорошистов, 6 троечников и 2 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если не99 кий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из двух двоечников? 6. Известна вероятность события A: p(A) = 0,8. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 4), x ∈ [0 ; 3], f ξ ( x) =  x ∉ [0 ; 3]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 4]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,966. 9. Дан ряд распределения двумерной случайной величины (ξ, η): ξ 1 2 η –1 3/8 p12 1/8 1/8 1 1/8 1/8 Найти значение p12, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η.   9 1. Бросают игральную кость. Путь событие А – это выпадение четного числа, а событие В – выпадение числа большего 5. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 8, и события B, когда произведение выпавших очков равно 4. 100 3. Случайным образом выбирают 3 шара из 11, среди которых 3 белых и 8 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,7 и 0,8 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 2 хорошиста, 12 троечников и 4 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из двенадцати троечников? 6. Известна вероятность события A: p(A) = 0,9. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 5), x ∈ [0 ; 2], f ξ ( x) =  x ∉ [0 ; 2]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 3]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,9774. 9. Дан ряд распределения двумерной случайной величины (ξ, η): ξ 1 2 η –1 1/8 1/8 1/8 1/8 1 3/8 p32 Найти значение p32, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η. 101   10 1. Бросают игральную кость. Путь событие А – это выпадение нечетного числа, а событие В – выпадение числа меньшего 2. Что представляют собой события A , B , A∪B, A∩B, A\B, B\A? Какие элементы пространства элементарных исходов данного опыта им благоприятствуют? 2. Бросают две игральные кости. Найти вероятность события A, когда сумма выпавших очков равна 6, и события B, когда произведение выпавших очков равно 6. 3. Случайным образом выбирают 3 шара из 11, среди которых 8 белых и 3 черных. Найти вероятность того, что среди выбранных окажется два белых шара. 4. Два независимых события A и B наступают с вероятностями 0,6 и 0,9 соответственно. Найти вероятность того, что наступит: а) хотя бы одно событие; б) ровно одно событие. 5. В группе 20 студентов: 2 отличника, 12 хорошистов, 4 троечника и 2 двоечника. Отличники учат 100% экзаменационных билетов, хорошисты – только 80%, троечники – 60% и двоечники – только 40%. Найти вероятность того, что взятый наугад студент этой группы сдаст экзамен. Если некий студент данной группы сдал экзамен, то какова вероятность того, что он являлся одним из двух двоечников? 6. Известна вероятность события A: p(A) = 1/4. Дискретная случайная величина ξ – число появлений события A в трех опытах. Требуется построить ряд распределения этой случайной величины, найти ее математическое ожидание M[ξ], дисперсию D[ξ], среднее квадратическое отклонение σ и вероятность попадания в интервал p(|ξ – M[ξ]| < σ). 7. Дана плотность распределения вероятности непрерывной случайной величины ξ C ( х + 5), x ∈ [0 ; 3], f ξ ( x) =  x ∉ [0 ; 3]. 0 , Найти значение константы С, функцию распределения Fξ(x), вероятность попадания в интервал p(ξ∈[1, 4]), математическое ожидание M[ξ] и дисперсию D[ξ]. 8. Случайная величина ξ имеет нормальное распределение с математическим ожиданием a=15 и дисперсией σ2=400. Найти интервал, симметричный относительно математического ожидания, вероятность попадания в который равна p=0,9861. 9. Дан ряд распределения двумерной случайной величины (ξ, η): 102 ξ 1 2 η –1 p11 1/8 1/8 1/8 1 1/8 1/8 Найти значение p11, частные распределения случайных величин ξ и η, их математическое ожидание и дисперсию (т.е. M[ξ], D[ξ], M[η], D[η]), а также корреляционный момент Kξ,η и коэффициент корреляции rξ,η. 103   1. 1.1. 1.2. 1.3. 2. 2.1. 2.2. 2.3. 2.4. 2.5. 3. 3.1. 3.2. 4. 4.1. 4.2. 4.3. 5. 5.1. 5.2. 6. 6.1. 6.2. 6.3. 6.4. 7. 7.1. 7.2. 7.3. 7.4. 7.5. 7.5.1. 7.5.2. 7.5.3. 7.5.4. 104 I.        ………………………….……….……………………….      !  ,…………………... Случайные события………………………………………………. Операции над случайным событиями………………………....... Решение типовых примеров……………………………………... "-#$%$&$'($ )$#*+.'*/.$0 /&1230'45 /*64.(0……………. Статистическое определение вероятности……………………… Классическое определение вероятности………………………... Аксиоматическое определение вероятности…………………… Элементы комбинаторики……………………………………….. Решение типовых примеров……………………………………... 4 5 5 5 9 11 11 11 12 14 15 789:8;<=>8?@=8 A8<9B;C9?;=………………………………….. 22 Геометрическое определение вероятности……………………... 22 Решение типовых примеров……………………………………... 23 DEFGEHI JKFLEMNO N PHMFLEMNO QEGFORMFJRES…………….. 25 Теоремы сложения вероятностей………………………………... 25 Условные вероятности. Теоремы умножения вероятностей………………………………………………………. 26 Решение типовых примеров……………………………………... 27 TUVWXYZ [UY\U] ^_VU`a\Ubac. dc[Ua_ef. TUVWXYZ gZ]_bZ……………………………………………………………... 33 Формула полной вероятности и формула Байеса………………. 33 Решение типовых примеров……………………………………... 34 hijkilmnom opqrksnot………………………………………… Схема независимых испытаний. Формула Бернулли…………... Предельные теоремы Лапласа…………………………………… Распределение Пуассона…………………………………………. Решение типовых примеров……………………………………... uvwxyz{|} ~}vx{|…………………………………………... Случайная величина. Функция распределения………………… Дискретная случайная величина………………………………… Непрерывная случайная величина………………………………. Функция случайных величин……………………………………. Примеры распределений случайных величин………………….. Биномиальное распределение (распределение Бернулли)…….. Распределение Пуассона…………………………………………. Равномерный закон распределения……………………………... Показательный закон распределения…………………………… 39 39 40 41 41 44 44 45 48 50 50 50 51 52 53 7.5.5. Нормальный закон распределения……………………………… 55 7.6. Решение типовых примеров……………………………………... 57 8. 8.1. 8.2. 8.3. 8.4. 8.5. 8.6. 8.7. 9. 9.1. 9.2. 9.3. 9.4. 9.5. 9.6. 9.7.   /   '  ………………….. Закон распределения системы дискретных случайных величин……………………………………………………………. Частные и условные распределения системы двух дискретных случайных величин……………………………………………….. Условия независимости двух случайных величин……………... Математическое ожидание и дисперсия случайных величин……………………………………………………………. Корреляционная матрица двух случайных величин……….…... Соотношение независимости и некоррелированности случайных величин……………………………………………….. Решение типового примера……….………………………………   * &.  ,….…………….. Неравенство Чебышева………………………………...…….…... Закон больших чисел в форме Чебышева…………………..…... Теорема Бернулли…………………………………………….…... Характеристические функции……………………………….…... Центральная предельная теорема (теорема Ляпунова)…….…... Предельная (интегральная) теорема Муавра–Лапласа ………... Решение типовых примеров……….…………………………….. 63 63 64 65 66 67 68 69 73 73 75 76 76 80 81 82 !"#$%(#)%(…………………………………….…………………. 88 +%"-.0$1"$………………………………………………………. 89 2(%"(1#3 4.1#%.-5136 %(7.# 8-9 :(.;1"4.<.……………… 91 105
«Основы теории вероятностей и математической статистики. Часть 1» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot