Legea numerelor mari „sub forma” teoremei lui Cebyshev. Legea numerelor mari

Practica studierii fenomenelor aleatorii arată că, deși rezultatele observațiilor individuale, chiar și cele efectuate în aceleași condiții, pot diferi foarte mult, în același timp, rezultatele medii pentru un număr suficient de mare de observații sunt stabile și depind slab de rezultatele observațiilor individuale.

Justificarea teoretică pentru această proprietate remarcabilă a fenomenelor aleatorii este legea numerelor mari. Denumirea „legea numerelor mari” combină un grup de teoreme care stabilesc stabilitatea rezultatelor medii ale unui număr mare de fenomene aleatoare și explică motivul acestei stabilități.

Cea mai simplă formă a legii numerelor mari și, din punct de vedere istoric, prima teoremă a acestei secțiuni este teorema lui Bernoulli afirmând că dacă probabilitatea unui eveniment este aceeași în toate încercările, atunci odată cu creșterea numărului de încercări, frecvența evenimentului tinde spre probabilitatea evenimentului și încetează să mai fie aleatorie.

Teorema lui Poisson afirmă că frecvența unui eveniment într-o serie de încercări independente tinde spre media aritmetică a probabilităților sale și încetează să fie aleatorie.

Teoreme limită ale teoriei probabilităților, teoreme Moivre-Laplace explicați natura stabilității frecvenței de apariție a unui eveniment. Această natură constă în faptul că distribuția limitativă a numărului de apariții ale unui eveniment cu o creștere nelimitată a numărului de încercări (dacă probabilitatea unui eveniment în toate încercările este aceeași) este distributie normala.

Teorema limită centrală explică utilizarea pe scară largă legea normală distributie. Teorema afirmă că ori de câte ori se formează o variabilă aleatoare ca urmare a adunării unui număr mare de variabile aleatoare independente cu varianțe finite, legea de distribuție a acestei variabile aleatoare se dovedește a fi practic normal prin lege.

Teorema de mai jos, intitulată „ Legea numerelor mari„afirmă că în anumite condiții, mai degrabă generale, cu creșterea numărului de variabile aleatoare, media lor aritmetică tinde spre media aritmetică a așteptărilor matematice și încetează să fie aleatorie.

Teorema lui Lyapunov explică răspândirea legea normală distribuția și explică mecanismul formării sale. Teorema ne permite să afirmăm că, ori de câte ori se formează o variabilă aleatoare ca urmare a adunării unui număr mare de variabile aleatoare independente, ale căror variații sunt mici în comparație cu varianța sumei, legea de distribuție a acestei variabile aleatoare se dovedește a fi: fie practic normal prin lege. Și întrucât variabilele aleatoare sunt întotdeauna generate de un număr infinit de cauze și de cele mai multe ori niciuna dintre ele nu are o varianță comparabilă cu varianța variabilei aleatoare în sine, majoritatea variabilelor aleatoare întâlnite în practică sunt supuse legii distribuției normale.

Enunţurile calitative şi cantitative ale legii numerelor mari se bazează pe inegalitatea lui Cebyshev. Acesta definește limita superioară a probabilității ca abaterea valorii unei variabile aleatoare de la așteptarea sa matematică să fie mai mare decât un anumit număr dat. În mod remarcabil, inegalitatea Chebyshev oferă o estimare a probabilității evenimentului pentru o variabilă aleatoare a cărei distribuție este necunoscută, sunt cunoscute doar așteptarea și varianța sa matematică.

inegalitatea lui Cebyshev. Dacă o variabilă aleatoare x are o varianță, atunci pentru orice e > 0 inegalitatea , Unde M x și D x - așteptarea și varianța matematică a variabilei aleatoare x .

teorema lui Bernoulli. Fie m n numărul de succese în n încercări Bernoulli și p probabilitatea de succes într-o singură încercare. Atunci pentru orice e > 0 avem .

Teorema limitei centrale. Dacă variabilele aleatoare x 1 , x 2 , …, x n , … sunt independente pe perechi, distribuite egal și au varianță finită, atunci la n ® uniform în x (- ,)

LEGEA NUMERELOR MARI

un principiu general, în virtutea căruia combinarea factorilor aleatori duce, în anumite condiții foarte generale, la un rezultat aproape independent de întâmplare. Convergența frecvenței de apariție a unui eveniment aleatoriu cu probabilitatea sa cu o creștere a numărului de încercări (remarcat mai întâi, aparent, în jocurile de noroc) poate servi ca prim exemplu de funcționare a acestui principiu.

La cumpăna dintre secolele al XVII-lea și al XVIII-lea. J. Bernoulli a demonstrat o teoremă care afirmă că într-o succesiune de încercări independente, în fiecare dintre care apariția unui anumit eveniment A are aceeași valoare, relația este adevărată:

pentru orice - numărul de apariții ale evenimentului în primele încercări, - frecvența aparițiilor. Acest teorema Bernoulli a fost extins de S. Poisson la cazul unei secvențe de încercări independente, unde probabilitatea apariției unui eveniment A poate depinde de numărul procesului. Fie această probabilitate pentru a k-a încercare să fie egală și fie


Apoi Teorema Poisson afirmă că

pentru orice Prima rigoare a acestei teoreme a fost dată de PL Cebyshev (1846), a cărui metodă este complet diferită de metoda lui Poisson și se bazează pe anumite considerații extreme; S. Poisson a derivat (2) dintr-o formulă aproximativă pentru probabilitatea specificată, bazată pe utilizarea legii Gauss și la acel moment încă nejustificată. S. Poisson a întâlnit pentru prima dată termenul „legea numerelor mari”, pe care l-a numit generalizarea teoremei lui Bernoulli.

O generalizare suplimentară naturală a teoremelor Bernoulli și Poisson apare dacă observăm că variabilele aleatoare pot fi reprezentate ca o sumă

variabile aleatoare independente, unde dacă A apare în studiul Ath și - in caz contrar. În același timp, matematică așteptarea (coincide cu media aritmetică a așteptărilor matematice) este egală cu p pentru cazul Bernoulli și pentru cazul Poisson. Cu alte cuvinte, în ambele cazuri, se ia în considerare abaterea mediei aritmetice X k din media aritmetică a lor matematică. așteptări.

În lucrarea lui P. L. Chebyshev „Pe valori medii” (1867), s-a stabilit că pentru variabile aleatoare independente relația

(pentru orice ) este adevărat în ipoteze foarte generale. P. L. Cebyshev a presupus că matematica. așteptările sunt toate mărginite de aceeași constantă, deși reiese clar din demonstrația sa că este suficient să se ceară ca variațiile să fie mărginite.

sau chiar cereri

Astfel, P. L. Chebyshev a arătat posibilitatea unei generalizări ample a teoremei lui Bernoulli. A. A. Markov a remarcat posibilitatea unor generalizări ulterioare și a sugerat utilizarea numelui B. h. la întregul set de generalizări ale teoremei lui Bernoulli [și, în special, la (3)]. Metoda lui Cebyshev se bazează pe stabilirea exactă a proprietăților generale ale matematicii. aşteptărilor şi asupra utilizării aşa-numitelor. inegalități Cebyshev[pentru probabilitatea (3) dă o estimare a formei


această limită poate fi înlocuită cu una mai precisă, desigur, cu restricții mai semnificative, vezi Fig. inegalitatea Bernstein]. Dovezi ulterioare ale diferitelor forme de B. h. într-o oarecare măsură, ele sunt o dezvoltare a metodei Chebyshev. Aplicând „reducerea” corespunzătoare a variabilelor aleatoare (înlocuindu-le cu variabile auxiliare, și anume: , dacă unde sunt unele constante), A. A. Markov a extins B. cap. pentru cazurile în care variațiile termenilor nu există. De exemplu, el a arătat că (3) este valabil dacă pentru unele constante si toata lumea si

PRELEZA 5

Repetarea trecutului

Partea 1 - CAPITOLUL 9. LEGEA NUMERELOR MARI. TEOREME LIMITELOR

Cu o definiție statistică
probabilitate, este tratată ca unele
numărul către care ruda
frecvența unui eveniment aleatoriu. La
definiția axiomatică a probabilității -
este, de fapt, o măsură aditivă a setului
rezultate care favorizează șansa
eveniment. În primul caz, avem de-a face
limită empirică, în a doua - cu
conceptul teoretic de măsură. Absolut nu
Evident, se referă la același lucru
concept. Relația dintre diferite definiții
probabilitățile sunt stabilite de teorema lui Bernoulli,
care este un caz special al legii marii
numerele.

Cu o creștere a numărului de teste
legea binomului tinde să
distributie normala. Este o teoremă
De Moivre-Laplace, care este
caz special al limitei centrale
teoreme. Acesta din urmă spune că funcția
repartizarea sumei independentelor
variabile aleatoare cu număr crescător
termenii tinde spre normal
lege.
Legea numerelor mari și a centralei
teorema limitei stă la baza
statistici matematice.

9.1. inegalitatea lui Cebyshev

Fie variabila aleatoare ξ
așteptări matematice finite
M[ξ] și varianța D[ξ]. Atunci pentru
orice număr pozitiv ε
inegalitatea este adevarata:

Note

Pentru evenimentul opus:
Inegalitatea lui Cebyshev este valabilă pentru
orice lege de distribuție.
Punând
fapt:
, obținem un non-trivial

9.2. Legea numerelor mari în forma Cebyshev

Teorema Fie variabile aleatoare
sunt independente pe perechi și au finite
variațiile limitate la aceeași
constant
Atunci pentru
orice
noi avem
Astfel, se vorbește despre legea numerelor mari
convergența în probabilitate a mediei aritmetice a variabilelor aleatoare (adică variabilă aleatoare)
la media lor aritmetică mat. așteptări (de ex.
la o valoare non-aleatorie).

9.2. Legea numerelor mari în forma Cebyshev: Complement

Teorema (Markov): legea marelui
numerele este satisfăcută dacă varianța
suma variabilelor aleatoare nu crește
prea repede pe măsură ce n crește:

10.9.3. teorema lui Bernoulli

Teorema: Luați în considerare schema Bernoulli.
Fie μn numărul de apariții ale evenimentului A în
n încercări independente, p este probabilitatea de apariție a evenimentului A într-unul
Test. Apoi pentru orice
Acestea. probabilitatea ca abaterea
frecvența relativă a unui eveniment aleatoriu din
probabilitatea sa p va fi modulo arbitrar
mic, tinde spre unitate pe măsură ce numărul crește.
teste n.

11.

Dovada: variabila aleatoare μn
distribuite conform legii binomului, deci
noi avem

12.9.4. Funcții caracteristice

Funcția caracteristică a aleatoriei
cantitatea se numește funcție
unde exp(x) = ex.
Prin urmare,
reprezintă
așteptarea unora
variabilă aleatoare complexă
asociat cu magnitudinea. În special, dacă
este o variabilă aleatoare discretă,
dat de seria de distribuție (xi, pi), unde i
= 1, 2,..., n, atunci

13.

Pentru o variabilă aleatoare continuă
cu densitate de distribuţie
probabilități

14.

15.9.5. Teorema limitei centrale (teorema lui Lyapunov)

16.

A repetat trecutul

17. FUNDAMENTELE TEORIEI PROBABILITĂȚII ȘI STATISTICII MATEMATICE

PARTEA II. MATEMATIC
STATISTICI

18. Epigraf

„Există trei feluri de minciuni: minciuni,
minciuni flagrante și statistici”
Benjamin Disraeli

19. Introducere

Cele două sarcini principale ale matematicii
statistici:
colectarea și gruparea statisticilor
date;
dezvoltarea metodelor de analiză
date primite in functie de
scopurile cercetării.

20. Metode de analiză a datelor statistice:

estimarea probabilității necunoscute a unui eveniment;
estimare a funcției necunoscute
distributie;
estimarea parametrilor cunoscutului
distributie;
verificarea ipotezelor statistice despre specie
distribuție necunoscută sau
valorile parametrilor cunoscute
distributie.

21. CAPITOLUL 1. CONCEPTE DE BAZĂ ALE STATISTICII MATEMATICE

22.1.1. Populația generală și eșantionul

Populația generală - toate
o mulțime de obiecte cercetate,
Eșantion - un set de obiecte, aleatoriu
selectate din populația generală
pentru cercetare.
Volumul populaţiei generale şi
dimensiunea eșantionului - numărul de obiecte din populația generală și eșantion - vom
notată ca N și, respectiv, n.

23.

Eşantionarea se repetă când
fiecare obiect selectat
alegerea următoare revine la
populația generală și
nerepetabil dacă este selectat
obiect în populaţia generală
se intoarce.

24. Eșantion reprezentativ:

reprezintă corect caracteristicile
populația generală, adică este o
reprezentant (reprezentant).
Conform legii numerelor mari, se poate susține că
că această condiție este îndeplinită dacă:
1) dimensiunea eșantionului n este suficient de mare;
2) fiecare obiect al probei este ales aleatoriu;
3) pentru fiecare obiect, probabilitatea de a lovi
în eșantion este același.

25.

Populația generală și eșantionul
poate fi unidimensional
(un singur factor)
și multidimensional (multifactorial)

26.1.2. Legea distribuției eșantionului (serie statistică)

Introduceți un eșantion de dimensiunea n
variabilă aleatoare de interes pentru noi ξ
(orice parametru al obiectelor
populaţia) ia n1
ori valoarea lui x1, n2 ori valoarea lui x2,... și
nk ori este valoarea lui xk. Apoi observabilele
valorile x1, x2,..., xk ale unei variabile aleatoare
ξ se numesc variante, iar n1, n2,..., nk
– frecvențele acestora.

27.

Diferența xmax – xmin este intervalul
probe, raportul ωi = ni /n –
opțiuni de frecvență relativă xi.
Este evident că

28.

Dacă scriem opțiunile în ordine crescătoare, obținem o serie variațională. O masă formată din
varianta ordonată și frecvențele acestora
(și/sau frecvențe relative)
se numeşte serie statistică sau
legea distributiei selective.
-- Analog al legii distribuției discretelor
variabilă aleatoare în teoria probabilității

29.

Daca seria de variatii consta din foarte
multe numere sau
unele continue
semn, folosiți grupat
probă. Pentru a-l obține, intervalul
care conţine toate observabile
valorile caracteristicilor sunt împărțite în
mai multe părți de obicei egale
(subintervale) de lungime h. La
alcătuirea unei serii statistice în
ca xi, punctele de mijloc sunt de obicei alese
subintervale și echivalează ni cu numărul
varianta care a intrat in subintervalul i-lea.

30.

40
- Frecvente -
35
30
n2
n3
ns
n1
25
20
15
10
5
0
A
a+h/2 a+3h/2
- Opțiuni -
b-h/2
b

31.1.3. Poligon de frecvență, funcție de distribuție a probei

Să amânăm valorile variabilei aleatoare xi cu
axa absciselor, iar valorile ni de-a lungul axei ordonatelor.
O linie întreruptă ale cărei segmente se conectează
puncte cu coordonatele (x1, n1), (x2, n2),..., (xk,
nk) se numește poligon
frecvente. Dacă în schimb
valori absolute ni
pus pe axa y
frecvențele relative ωi,
atunci obținem un poligon de frecvențe relative

32.

Prin analogie cu funcția de distribuție
variabilă aleatoare discretă prin
legea de eşantionare a distribuţiei poate fi
construiți un eșantion (empiric)
functie de distributie
unde însumarea se realizează peste toate
frecvențe, care corespund valorilor
varianta, x mai mic. observa asta
funcţia de distribuţie empirică
depinde de dimensiunea eșantionului n.

33.

Spre deosebire de funcție
găsite
pentru o variabilă aleatoare ξ experimentală
prin prelucrarea datelor statistice, adevărata funcție
distributie
asociat cu
populatia generala se numeste
teoretic. (de obicei general
agregatul este atât de mare încât
este imposibil să procesezi totul;
poate fi doar explorat
teoretic).

34.

Observa asta:

35.1.4. Proprietățile funcției de distribuție empirică

călcat
vedere

36.

O altă reprezentare grafică
eșantionul care ne interesează este
histograma - figură în trepte,
format din dreptunghiuri ale căror baze sunt subintervale
lățimea h și înălțimile - segmente de lungime
ni/h (histograma de frecvență) sau ωi/h
(histograma frecvențelor relative).
În primul caz
aria histogramei este egală cu volumul
probe n, în timpul
a doua - unitate

37. Exemplu

38. CAPITOLUL 2. CARACTERISTICILE NUMERICE ALE EȘANTIONULUI

39.

Sarcina statisticii matematice este
obțineți din eșantionul disponibil
informatii despre general
agregate. Caracteristicile numerice ale unui eșantion reprezentativ - evaluarea caracteristicilor relevante
variabilă aleatoare în studiu,
legate de general
agregat.

40.2.1. Media eșantionului și varianța eșantionului, momente empirice

Se numește media eșantionului
media aritmetică a valorilor
varianta din proba
Media eșantionului este utilizată pentru
evaluarea statistică a matematicii
așteptările variabilei aleatoare studiate.

41.

Se numește varianța eșantionului
valoare egală cu
Pătrat mediu al eșantionului
deviere -

42.

Este ușor să arăți ce se face
următoarea relație, convenabilă pentru
calculul varianței:

43.

Alte caracteristici
serii de variații sunt:
modul M0 este o variantă având
cea mai mare frecvență, iar mediana este eu
variantă care împarte variaționalul
rândul în două părți egale cu numărul
opțiune.
2, 5, 2, 11, 5, 6, 3, 13, 5 (mod = 5)
2, 2, 3, 5, 5, 5, 6, 11,13 (mediana = 5)

44.

Prin analogie cu corespunzătoare
expresiile teoretice pot
construiți momente empirice,
folosit pentru statistici
evaluări de primar şi central
momente ale aleatoriei
cantități.

45.

Prin analogie cu momentele
teorii
probabilități prin empiric inițial
momentul de ordin m este cantitatea
punct empiric central
comanda m -

46.2.2. Proprietăți ale estimărilor statistice ale parametrilor de distribuție: imparțialitate, eficiență, consistență

2.2. Proprietățile estimărilor statistice
parametrii de distribuție: imparțialitate, eficiență, consistență
După primirea estimărilor statistice
parametrii de distribuție aleatoare
valori ξ: media eșantionului, varianța eșantionului etc., trebuie să vă asigurați că
că sunt o bună aproximare
pentru parametri relevanți
distribuţia teoretică ξ.
Să găsim condițiile care trebuie pentru asta
fi efectuat.

47.

48.

Scorul statistic A* se numește
imparțial dacă este matematic
așteptarea este egală cu parametrul evaluat
populația generală A pentru orice
dimensiunea eșantionului, adică
Dacă această condiție nu este îndeplinită, devizul
numit offset.
Estimarea imparțială nu este suficientă
condiție pentru o bună aproximare a statisticilor
punctează A* la valoarea adevărată (teoretică).
parametrul estimat A.

49.

Răspândirea valorilor individuale
raportat la valoarea medie M
depinde de varianța D.
Dacă dispersia este mare, atunci valoarea
găsit din datele unui eșantion,
poate diferi semnificativ de
parametru evaluat.
Prin urmare, pentru fiabil
estimarea varianței D ar trebui
fi mic. Evaluare statistică
se numeste eficient daca
dată fiind dimensiunea eșantionului n, are
cea mai mică variație posibilă.

50.

La estimări statistice
încă o cerință
viabilitate. Scorul este numit
consistent dacă ca n → it
tinde în probabilitate să
parametrul evaluat. observa asta
estimarea nepărtinitoare va fi
consistent dacă ca n → sa
varianța tinde spre 0.

51. 2.3. Proprietăți medii ale eșantionului

Vom presupune că opțiunile x1, x2,..., xn
sunt valorile corespunzătoare
variabile aleatoare independente distribuite identic
,
având așteptări matematice
și dispersie
. Apoi
eșantionul mediu poate
tratată ca o variabilă aleatoare

52.

imparțial. Din proprietăți
așteptarea matematică implică faptul că
acestea. media eșantionului este
estimare imparțială a matematicii
așteptarea unei variabile aleatoare.
De asemenea, puteți arăta eficacitatea
estimări prin media eșantionului a așteptărilor matematice (pentru normal
distributie)

53.

Consecvență. Fie a estimat
parametrul, și anume cel matematic
așteptarea populației
– variația populației
.
Luați în considerare inegalitatea Chebyshev
Noi avem:
apoi
. Ca n → partea dreaptă
inegalitatea tinde spre zero pentru orice ε > 0, adică
și de aici valoarea X reprezentând eșantionul
estimarea tinde spre parametrul estimat a în termeni de probabilitate.

54.

Astfel, se poate concluziona
că media eșantionului este
imparțial, eficient (conform
cel putin pentru normal
distribuţie) şi consistentă
estimarea așteptărilor
variabilă aleatoare asociată cu
populatia generala.

55.

56.

PRELEZA 6

57. 2.4. Proprietățile varianței eșantionului

Noi investigăm imparțialitatea varianței eșantionului D* ca
estimări ale varianței unei variabile aleatoare

58.

59.

60. Exemplu

Găsiți eșantion mediu, eșantion
varianța și rădăcina medie pătrată
abatere, mod și eșantion corectat
varianță pentru un eșantion având următoarele
legea distributiei:
Decizie:

61.

62. CAPITOLUL 3. ESTIMARE PUNCTĂ A PARAMETRILOR O DISTRIBUȚIE CUNOSCUTĂ

63.

Presupunem că forma generală a legii
distribuţia ne este cunoscută şi
rămâne să clarificăm detaliile -
parametrii care o definesc
formă reală. Exista
mai multe metode pentru a rezolva acest lucru
sarcini, dintre care două noi
luați în considerare: metoda momentelor și metoda
probabilitate maximă

64.3.1. Metoda momentelor

65.

Metoda momentelor dezvoltată de Carl
Pearson în 1894, pe baza
folosind aceste egalități aproximative:
momente
calculat
teoretic conform legii cunoscute
distribuții cu parametrii θ și
mostre de momente
calculat
conform probei disponibile. Necunoscut
Opțiuni
definit în
rezultatul rezolvării unui sistem de ecuații r,
legarea relevantă
momente teoretice și empirice,
De exemplu,
.

66.

Se poate arăta că estimările
parametrii θ obţinuţi prin metodă
momente, bogate, lor
așteptările matematice sunt diferite
de la valorile reale ale parametrilor la
valoarea de ordinul lui n–1 și media
abaterile standard sunt
valori de ordinul n–0,5

67. Exemplu

Se știe că caracteristica ξ a obiectelor
populatia generala, fiind aleatorie
valoare, are o distribuție uniformă în funcție de parametrii a și b:
Este necesar să se determine prin metoda momentelor
parametrii a și b conform unui eșantion cunoscut
in medie
și varianța eșantionului

68. Memento

α1 - așteptare matematică β2 - varianță

69.

(*)

70.

71.3.2. Metoda maximă de probabilitate

Metoda se bazează pe funcția de probabilitate
L(x1, x2,..., xn, θ), care este legea
distribuții vectoriale
, Unde
variabile aleatoare
ia valori
opțiunea de eșantionare, adică au aceleași
distributie. Din moment ce variabilele aleatoare
sunt independente, funcția de probabilitate are forma:

72.

Ideea metodei celor mai mari
plauzibilitatea constă în faptul că noi
căutăm astfel de valori ale parametrilor θ, la
care probabilitatea de apariţie în
selectarea valorilor variante x1, x2,..., xn
este cel mai mare. Cu alte cuvinte,
ca o estimare a parametrilor θ
se ia un vector pentru care funcţia
probabilitatea are un local
maxim pentru x1, x2, …, xn dat:

73.

Estimări prin metoda maximului
plauzibilitatea se obține din
condiție extremum necesară
funcțiile L(x1,x2,..., xn,θ) într-un punct

74. Note:

1. Când căutați funcția maximă de probabilitate
pentru a simplifica calculele, puteți efectua
acțiuni care nu schimbă rezultatul: în primul rând,
utilizați în loc de L(x1, x2,..., xn,θ) funcția de probabilitate logaritmică l(x1, x2,..., xn,θ) =
log L(x1, x2,..., xn,θ); în al doilea rând, aruncați în expresie
pentru funcția de probabilitate independentă de θ
termeni (pentru l) sau pozitivi
factori (pentru L).
2. Estimările parametrilor considerate de noi sunt
pot fi numite estimări punctuale, deoarece pentru
parametru necunoscut θ, unu
un singur punct
, care este al lui
valoare aproximativă. Cu toate acestea, această abordare
poate duce la erori grave și punct
estimarea poate diferi semnificativ de adevărată
valorile parametrului estimat (în special în
dimensiune mică a eșantionului).

75. Exemplu

Decizie. În această sarcină, este necesar să se evalueze
doi parametri necunoscuți: a și σ2.
Funcția de log-probabilitate
are forma

76.

Renunțând la termenul din această formulă, care nu este
depinde de a și σ2, compunem sistemul de ecuații
credibilitate
Rezolvând, obținem:

77. CAPITOLUL 4. ESTIMAREA INTERVALULUI PARAMETRILOR O DISTRIBUȚIE CUNOSCUTĂ

78.









(*)

79.

(*)

80.4.1. Estimarea așteptării matematice a unei mărimi distribuite normal cu o varianță cunoscută







eșantion mediu
ca valoare aleatorie



81.

Noi avem:
(1)
(2)

82.

(2)
(1)
(*)
(*)

83.4.2. Estimarea așteptării matematice a unei mărimi distribuite normal cu o varianță necunoscută

84.




grade de libertate. Densitate

cantitățile sunt

85.

86. Distribuția densității Student cu n - 1 grade de libertate

87.

88.

89.







găsi prin formule

90. 4.3. Estimarea abaterii standard a unei marimi distribuite normal





abaterea σ.

matematică necunoscută
aşteptare.

91. 4.3.1. Un caz special al binecunoscutei așteptări matematice






Folosind cantitățile
,


varianța eșantionului D*:

92.



cantități
au normal




93.


conditii
Unde
este densitatea distribuției χ2


94.

95.

96.

97.4.3.2. Caz special de așteptare matematică necunoscută








(unde variabila aleatoare


χ2 cu n–1 grade de libertate.

98.

99.4.4. Estimarea așteptării matematice a unei variabile aleatoare pentru un eșantion arbitrar










un eșantion mare (n >> 1).

100.




cantități
având

dispersie
, și rezultatul
eșantion mediu
ca valoare
variabilă aleatorie

magnitudinea
are asimptotic


.

101.






utilizați formula

102.

103.

Cursul 7

104.

Repetarea trecutului

105. CAPITOLUL 4. ESTIMAREA INTERVALULUI PARAMETRILOR O DISTRIBUȚIE CUNOSCUTĂ

106.

Problema estimării unui parametru al unui cunoscut
distribuţiile pot fi rezolvate prin
construirea unui interval în care, cu un dat
valoarea adevărată este probabilă
parametru. Această metodă de evaluare
se numește estimarea intervalului.
De obicei la matematică pentru evaluare
parametrul θ, construim inegalitatea
(*)
unde numărul δ caracterizează acuratețea estimării:
cu cât δ mai mic, cu atât estimarea este mai bună.

107.

(*)

108.4.1. Estimarea așteptării matematice a unei mărimi distribuite normal cu o varianță cunoscută

Fie variabila aleatoare ξ studiată să fie distribuită conform legii normale cu cunoscută
abaterea standard σ și
așteptare matematică necunoscută a.
Solicitat de valoarea mediei eșantionului
estimați așteptarea matematică ξ.
Ca și înainte, vom lua în considerare rezultatul
eșantion mediu
ca valoare aleatorie
valorile, iar valorile sunt variantele eșantionului x1, x2, …,
xn - respectiv, deoarece valorile sunt aceleași
variabile aleatoare independente distribuite
, fiecare dintre ele având un covoraș. așteptarea a și abaterea standard σ.

109.

Noi avem:
(1)
(2)

110.

(2)
(1)
(*)
(*)

111.4.2. Estimarea așteptării matematice a unei mărimi distribuite normal cu o varianță necunoscută

112.

Se știe că variabila aleatoare tn,
dat în acest fel are
Distribuția lui Student cu k = n - 1
grade de libertate. Densitate
distribuția de probabilitate a unui astfel de
cantitățile sunt

113.

114. Distribuția densității Student cu n - 1 grade de libertate

115.

116.

117.

Notă. Cu un număr mare de grade
libertate k Distribuţia elevului
tinde spre o distributie normala cu
zero așteptări matematice și
varianță unică. Prin urmare, pentru k ≥ 30
intervalul de încredere poate fi în practică
găsi prin formule

118. 4.3. Estimarea abaterii standard a unei marimi distribuite normal

Fie variabila aleatoare aflată în studiu
ξ este distribuit conform legii normale
cu așteptare a și
pătrat mediu necunoscut
abaterea σ.
Luați în considerare două cazuri: cu cunoscut și
matematică necunoscută
aşteptare.

119. 4.3.1. Un caz special al binecunoscutei așteptări matematice

Fie cunoscută valoarea M[ξ] = a și
evaluați numai σ sau varianța D[ξ] = σ2.
Amintiți-vă asta pentru un covoraș cunoscut. aşteptare
estimarea imparțială a varianței este
varianţa eşantionului D* = (σ*)2
Folosind cantitățile
,
definite mai sus, introducem o aleatorie
valoarea Y, care preia valorile
varianța eșantionului D*:

120.

Luați în considerare o variabilă aleatoare
Sumele de sub semn sunt aleatorii
cantități
au normal
distribuție cu densitatea fN (x, 0, 1).
Atunci Hn are o distribuție χ2 cu n
grade de libertate ca suma pătratelor n
standard independent (a = 0, σ = 1)
variabile aleatoare normale.

121.

Să determinăm intervalul de încredere de la
conditii
Unde
este densitatea distribuției χ2
și γ - fiabilitate (încredere
probabilitate). Valoarea lui γ este numeric egală cu
zona figurii umbrite din fig.

122.

123.

124.

125. 4.3.2. Caz special de așteptare matematică necunoscută

În practică, cea mai frecventă situație
când ambii parametri ai normalului sunt necunoscuți
distribuţii: aşteptarea matematică a şi
abaterea standard σ.
În acest caz, construirea unei încrederi
intervalul se bazează pe teorema lui Fisher, din
pisică. rezultă că variabila aleatoare
(unde variabila aleatoare
luând valorile imparțialului
varianța eșantionului s2 are o distribuție
χ2 cu n–1 grade de libertate.

126.

127.4.4. Estimarea așteptării matematice a unei variabile aleatoare pentru un eșantion arbitrar

Estimări de intervale de matematică
aşteptările M[ξ] obţinute pentru normal
variabilă aleatoare distribuită ξ ,
sunt in general nepotrivite pentru
variabile aleatoare având o formă diferită
distributie. Cu toate acestea, există o situație în care
pentru orice variabile aleatoare
utilizați intervale similare
relații, aceasta are loc la
un eșantion mare (n >> 1).

128.

Ca mai sus, vom lua în considerare opțiunile
x1, x2,..., xn ca valori independente,
aleatoriu distribuit egal
cantități
având
așteptarea M[ξi] = mξ și
dispersie
, și rezultatul
eșantion mediu
ca valoare
variabilă aleatorie
Conform teoremei limitei centrale
magnitudinea
are asimptotic
legea distribuției normale c
așteptarea mξ și varianța
.

129.

Prin urmare, dacă valoarea varianței este cunoscută
variabila aleatoare ξ, atunci putem
utilizați formule aproximative
Dacă valoarea dispersiei mărimii ξ
necunoscut, atunci pentru mare nu poate
utilizați formula
unde s este valoarea rms corectată. deviere

130.

A repetat trecutul

131. CAPITOLUL 5. VERIFICAREA IPOTEZELOR STATISTICE

132.

O ipoteză statistică este o ipoteză despre
forma unei distribuţii necunoscute sau despre parametri
distribuția cunoscută a unei variabile aleatoare.
Ipoteza de testat, de obicei notat ca
H0 se numește ipoteza nulă sau principală.
Ipoteza utilizată suplimentar H1,
contrazicând ipoteza H0 se numeşte
concurent sau alternativ.
Verificarea statistică a nulului avansat
ipoteza H0 constă în compararea ei cu
date mostre. Cu o astfel de verificare
Pot apărea două tipuri de erori:
a) erori de primul fel - cazuri în care este respinsă
ipoteza corectă H0;
b) erori de al doilea fel - cazuri când
se acceptă ipoteza greşită H0.

133.

Probabilitatea unei erori de primul fel va fi
numiți nivelul de semnificație și desemnați
ca.
Tehnica principală de verificare statistică
ipoteza este că
eșantionul disponibil, valoarea este calculată
criteriu statistic – unele
variabila aleatoare T cu cunoscut
legea distributiei. Interval de valori T,
sub care ipoteza principală H0 trebuie
fi respins, numit critic și
intervalul de valori T pentru care această ipoteză
poate fi acceptat, - zona de acceptare
ipoteze.

134.

135.5.1. Testarea ipotezelor despre parametrii unei distribuții cunoscute

5.1.1. Testarea de ipoteze despre matematică
așteptarea unei aleatorii distribuite normal
cantități
Fie variabila aleatoare ξ
distributie normala.
Trebuie să verificăm ipoteza că
că așteptarea sa matematică este
un număr a0. Luați în considerare separat
cazurile în care varianţa ξ este cunoscută şi când
ea este necunoscută.

136.

În cazul dispersiei cunoscute D[ξ] = σ2,
ca în § 4.1, definim un aleatoriu
o valoare care preia valorile
eșantion mediu. Ipoteza H0
formulat inițial ca M[ξ] =
a0. Pentru că eșantionul înseamnă
este o estimare imparțială a lui M[ξ], atunci
ipoteza H0 poate fi reprezentată ca

137.

Având în vedere caracterul imparțial al corectat
variațiile eșantionului, ipoteza nulă poate fi
scrie asa:
unde variabilă aleatoare
ia valorile probei corectate
dispersia lui ξ și este similară cu cea aleatorie
valoarea lui Z considerată în secțiunea 4.2.
Ca criteriu statistic, alegem
variabilă aleatorie
luând valoarea raportului celui mai mare
variația eșantionului la una mai mică.

145.

Variabila aleatoare F are
Distributie Fisher-Snedecor cu
numărul de grade de libertate k1 = n1 – 1 şi k2
= n2 – 1, unde n1 este dimensiunea eșantionului, conform
care cu atât mai mare
varianta corectata
, și n2
volumul celei de-a doua probe, pentru care
a găsit o variație mai mică.
Luați în considerare două tipuri de concurență
ipoteze

146.

147.

148. 5.1.3. Compararea așteptărilor matematice ale variabilelor aleatoare independente

Să luăm mai întâi în considerare cazul unui normal
distribuţii ale variabilelor aleatoare cu cunoscute
varianțe, și apoi pe baza ei - o mai generală
cazul unei distribuţii arbitrare a cantităţilor la
mostre independente suficient de mari.
Fie independente variabilele aleatoare ξ1 și ξ2 și
sunt distribuite în mod normal și fie variațiile lor D[ξ1]
și D[ξ2] sunt cunoscuți. (De exemplu, ele pot fi găsite
din altă experiență sau calculată
teoretic). Eșantioane extrase de mărimea n1 și n2
respectiv. Lasa
– selectiv
medii pentru aceste mostre. Solicitat de selectiv
medie la un nivel de semnificație dat α
testați ipoteza despre egalitatea matematicii
așteptările variabilelor aleatoare considerate să fie făcute din considerente a priori,
bazat pe condiții experimentale și
apoi ipotezele despre parametri
distribuțiile sunt examinate așa cum se arată
anterior. Cu toate acestea, de foarte multe ori există
necesitatea de a verifica
ipoteza despre legea distributiei.
Teste statistice concepute
căci astfel de verificări sunt de obicei numite
criteriile de consimțământ.

154.

Sunt cunoscute mai multe criterii de acord. Demnitate
Criteriul lui Pearson este universalitatea sa. Cu al lui
poate fi folosit pentru a testa ipoteze despre diferite
legi de distribuție.
Criteriul lui Pearson se bazează pe compararea frecvențelor,
găsit din eșantion (frecvențe empirice), s
frecvențele calculate cu ajutorul celor testate
legea distribuţiei (frecvenţele teoretice).
De obicei frecvențe empirice și teoretice
diferă. Trebuie să aflăm dacă este o coincidență
discrepanță de frecvență sau este semnificativă și explicată
faptul că frecvenţele teoretice se calculează pe baza
ipoteză incorectă despre distribuția generalului
agregate.
Criteriul Pearson, ca oricare altul, răspunde la
Întrebarea este dacă există acord între ipoteza propusă și
date empirice la un anumit nivel
semnificaţie.

155. 5.2.1. Testarea ipotezei distribuției normale

Să existe o variabilă aleatoare ξ și să fie
un eşantion de mărime n suficient de mare cu un mare
opțiunea numărului de valori diferite. Necesar
la nivelul de semnificație α, testați ipoteza nulă
H0 că variabila aleatoare ξ este distribuită
amenda.
Pentru confortul procesării eșantionului, luăm două numere
α și β:
și împărțiți intervalul [α, β] la s
subintervale. Vom presupune că valorile variantei,
care se încadrează în fiecare subinterval sunt aproximativ egale
un număr care specifică mijlocul subintervalului.
Numărarea numărului de opțiuni care se încadrează în fiecare cuantilă de ordin α (0< α < 1) непрерывной
variabila aleatoare ξ este un astfel de număr xα,
pentru care egalitatea
.
Cuantila x½ se numește mediana aleatoriei
mărimile ξ, cuantilele x0 și x2 sunt quartilele sale, a
x0,1, x0,2,..., x0,9 - decile.
Pentru distribuția normală standard (a =
0, σ = 1) și, prin urmare,
unde FN (x, a, σ) este funcția de distribuție normală
variabilă aleatoare distribuită și Φ(x)
Funcția Laplace.
Cuantila distribuției normale standard
xα pentru un α dat poate fi găsit din relație

162.6.2. Distribuția elevilor

În cazul în care un
– independentă
variabile aleatoare având
distribuție normală cu zero
așteptarea matematică și
varianța unitară, atunci
distribuție ale variabilelor aleatoare
numită distribuția t a lui Student
cu n grade de libertate (W.S. Gosset).

Legea numerelor mariîn teoria probabilității afirmă că media empirică (media aritmetică) a unui eșantion finit suficient de mare dintr-o distribuție fixă ​​este apropiată de media teoretică (așteptarea) acestei distribuții. În funcție de tipul de convergență, se distinge între legea slabă a numerelor mari, când există convergență în probabilitate, și legea puternică a numerelor mari, când există convergență aproape peste tot.

Există întotdeauna un număr finit de încercări pentru care, cu orice probabilitate dată, mai puțin de 1 frecvența relativă de apariție a unui eveniment va diferi în mod arbitrar puțin de probabilitatea acestuia.

Sensul general al legii numerelor mari: acțiunea comună a unui număr mare de factori aleatori identici și independenți duce la un rezultat care, în limită, nu depinde de întâmplare.

Metodele de estimare a probabilității bazate pe analiza unui eșantion finit se bazează pe această proprietate. Un bun exemplu este predicția rezultatelor alegerilor pe baza unui sondaj efectuat pe un eșantion de alegători.

YouTube enciclopedic

    1 / 5

    ✪ Legea numerelor mari

    ✪ 07 - Teoria probabilității. Legea numerelor mari

    ✪ 42 Legea numerelor mari

    ✪ 1 - Legea numerelor mari a lui Cebyshev

    ✪ Clasa a 11-a, lecția 25, curba Gauss. Legea numerelor mari

    Subtitrări

    Să aruncăm o privire la legea numerelor mari, care este poate cea mai intuitivă lege din matematică și teoria probabilităților. Și pentru că se aplică atât de multe lucruri, este uneori folosit și înțeles greșit. Permiteți-mi să-i dau mai întâi o definiție pentru acuratețe și apoi vom vorbi despre intuiție. Să luăm o variabilă aleatoare, să spunem X. Să presupunem că îi cunoaștem așteptările matematice sau media populației. Legea numerelor mari spune pur și simplu că, dacă luăm exemplul al-lea număr de observații ale unei variabile aleatoare și facem o medie a numărului tuturor acestor observații... Să luăm o variabilă. Să-l numim X cu un indice n și o liniuță în partea de sus. Aceasta este media aritmetică a celui de-al n-lea număr de observații ale variabilei noastre aleatoare. Iată prima mea observație. Fac experimentul o dată și fac această observație, apoi o fac din nou și fac această observație, o fac din nou și obțin asta. Execut acest experiment de n ori și apoi împart la numărul observațiilor mele. Iată indicația mea de probă. Iată media tuturor observațiilor pe care le-am făcut. Legea numerelor mari ne spune că media eșantionului meu se va apropia de media variabilei aleatoare. Sau pot scrie, de asemenea, că media eșantionului meu se va apropia de media populației pentru al n-lea număr care merge la infinit. Nu voi face o distincție clară între „aproximare” și „convergență”, dar sper că înțelegeți intuitiv că dacă iau aici un eșantion destul de mare, atunci obțin valoarea așteptată pentru populație în ansamblu. Cred că cei mai mulți dintre voi înțelegeți intuitiv că dacă fac suficiente teste cu un eșantion mare de exemple, în cele din urmă testele îmi vor da valorile pe care le aștept, ținând cont de așteptarea matematică, probabilitatea și toate astea. Dar cred că adesea nu este clar de ce se întâmplă asta. Și înainte de a începe să explic de ce este așa, permiteți-mi să vă dau un exemplu concret. Legea numerelor mari ne spune că... Să presupunem că avem o variabilă aleatoare X. Este egală cu numărul de capete în 100 de aruncări ale monedei corecte. În primul rând, cunoaștem așteptările matematice ale acestei variabile aleatorii. Acesta este numărul de aruncări de monede sau de încercări înmulțit cu șansele ca orice încercare să reușească. Deci este egal cu 50. Adică legea numerelor mari spune că dacă luăm o probă, sau dacă fac media acestor încercări, primesc. .. Prima dată când fac un test, răsturn o monedă de 100 de ori sau iau o cutie de o sută de monede, o scutur și apoi număr câte capete am și obțin, să zicem, numărul 55. Acesta va fi X1. Apoi scutur din nou cutia și obțin numărul 65. Apoi din nou - și obțin 45. Și fac asta de n ori, apoi îl împart la numărul de încercări. Legea numerelor mari ne spune că această medie (media tuturor observațiilor mele) va tinde spre 50, în timp ce n va tinde spre infinit. Acum aș vrea să vorbesc puțin despre motivul pentru care se întâmplă acest lucru. Mulți cred că dacă, după 100 de încercări, rezultatul meu este peste medie, atunci, după legile probabilității, ar trebui să am mai multe sau mai puține capete pentru a, ca să spunem așa, să compensez diferența. Nu este exact ceea ce se va întâmpla. Aceasta este adesea denumită „eșecul jucătorului de noroc”. Lasă-mă să-ți arăt diferența. Voi folosi următorul exemplu. Lasă-mă să desenez un grafic. Să schimbăm culoarea. Acesta este n, axa mea x este n. Acesta este numărul de teste pe care le voi rula. Și axa mea y va fi media eșantionului. Știm că media acestei variabile arbitrare este 50. Lasă-mă să desenez asta. Acesta este 50. Să ne întoarcem la exemplul nostru. Dacă n este... În timpul primului meu test, am obținut 55, care este media mea. Am un singur punct de intrare a datelor. Apoi, după două încercări, primesc 65. Deci media mea ar fi 65+55 împărțită la 2. Adică 60. Și media mea a crescut puțin. Apoi am primit 45, ceea ce mi-a scăzut din nou media aritmetică. Nu voi reprezenta 45 pe diagramă. Acum trebuie să fac o medie a tuturor. Cu ce ​​este egal 45+65? Permiteți-mi să calculez această valoare pentru a reprezenta punctul. Adică 165 împărțit la 3. Adică 53. Nu, 55. Deci media coboară din nou la 55. Putem continua aceste teste. După ce am făcut trei încercări și am ajuns cu această medie, mulți oameni cred că zeii probabilităților vor face astfel încât să obținem mai puține capete în viitor, că următoarele încercări vor fi mai mici pentru a reduce media. Dar nu este întotdeauna cazul. În viitor, probabilitatea rămâne întotdeauna aceeași. Probabilitatea ca voi arunca capete va fi întotdeauna de 50%. Nu că primesc inițial un anumit număr de capete, mai mult decât mă aștept, și apoi dintr-o dată ar trebui să cadă cozile. Aceasta este „eșecul jucătorului”. Dacă obții un număr disproporționat de capete, nu înseamnă că la un moment dat vei începe să scapi un număr disproporționat de cozi. Acest lucru nu este în întregime adevărat. Legea numerelor mari ne spune că nu contează. Să zicem, după un anumit număr finit de încercări, media ta... Probabilitatea este destul de mică, dar, totuși... Să presupunem că media ta ajunge la acest punct - 70. Te gândești: „Uau, am depășit cu mult așteptările”. Dar legea numerelor mari spune că nu-i pasă de câte teste rulăm. Mai avem un număr infinit de încercări înaintea noastră. Așteptările matematice ale acestui număr infinit de încercări, mai ales într-o situație ca aceasta, va fi următoarea. Când ajungeți la un număr finit care exprimă o valoare mare, un număr infinit care converge cu acesta va duce din nou la valoarea așteptată. Aceasta este, desigur, o interpretare foarte liberă, dar asta ne spune legea numerelor mari. Este important. El nu ne spune că dacă obținem o mulțime de capete, atunci cumva șansele de a obține cozi vor crește pentru a compensa. Această lege ne spune că nu contează care este rezultatul cu un număr finit de încercări atâta timp cât mai ai un număr infinit de încercări înaintea ta. Și dacă faci destui din ele, vei reveni din nou la așteptări. Acesta este un punct important. Gandeste-te la asta. Dar asta nu se foloseste zilnic in practica la loterie si cazinouri, desi se stie ca daca faci destule teste... Putem chiar sa calculam... care este probabilitatea sa ne abatem serios de la norma? Dar cazinourile și loteriile funcționează în fiecare zi pe principiul că, dacă iei destui oameni, bineînțeles, într-un timp scurt, cu o mostră mică, atunci câțiva oameni vor atinge jackpot-ul. Dar pe termen lung, cazinoul va beneficia întotdeauna de parametrii jocurilor pe care te invită să le joci. Acesta este un principiu important al probabilității care este intuitiv. Deși uneori, când ți se explică în mod formal cu variabile aleatorii, totul pare puțin confuz. Tot ceea ce spune această lege este că, cu cât sunt mai multe eșantioane, cu atât media aritmetică a acelor eșantioane va converge către media adevărată. Și pentru a fi mai specific, media aritmetică a eșantionului dvs. va converge cu așteptările matematice ale unei variabile aleatorii. Asta e tot. Ne vedem în următorul videoclip!

Legea slabă a numerelor mari

Legea slabă a numerelor mari este numită și teorema lui Bernoulli, după Jacob Bernoulli, care a demonstrat-o în 1713.

Să existe o succesiune infinită (enumerare consecutivă) de variabile aleatoare distribuite identic și necorelate. Adică covarianța lor c o v (X i , X j) = 0 , ∀ i ≠ j (\displaystyle \mathrm (cov) (X_(i),X_(j))=0,\;\forall i\not =j). Lasa . Se notează prin media eșantională a primului n (\displaystyle n) membri:

.

Apoi X ¯ n → P μ (\displaystyle (\bar (X))_(n)\to ^(\!\!\!\!\!\!\mathbb (P) )\mu ).

Adică pentru fiecare pozitiv ε (\displaystyle \varepsilon )

lim n → ∞ Pr (| X ¯ n − μ |< ε) = 1. {\displaystyle \lim _{n\to \infty }\Pr \!\left(\,|{\bar {X}}_{n}-\mu |<\varepsilon \,\right)=1.}

Legea puternică a numerelor mari

Să existe o succesiune infinită de variabile aleatoare independente distribuite identic ( X i ) i = 1 ∞ (\displaystyle \(X_(i)\)_(i=1)^(\infty )) definite pe un spațiu de probabilitate (Ω, F, P) (\displaystyle (\Omega,(\mathcal (F)),\mathbb (P))). Lasa E X i = μ , ∀ i ∈ N (\displaystyle \mathbb (E) X_(i)=\mu ,\;\forall i\in \mathbb (N) ). Notează prin X¯n (\displaystyle (\bar(X))_(n)) medie eșantională a primului n (\displaystyle n) membri:

X ¯ n = 1 n ∑ i = 1 n X i , n ∈ N (\displaystyle (\bar (X))_(n)=(\frac (1)(n))\sum \limits _(i= 1)^(n)X_(i),\;n\in \mathbb (N) ).

Apoi X ¯ n → μ (\displaystyle (\bar (X))_(n)\to \mu ) aproape intotdeauna.

Pr (lim n → ∞ X ¯ n = μ) = 1. (\displaystyle \Pr \!\left(\lim _(n\to \infty)(\bar (X))_(n)=\mu \ dreapta)=1.) .

Ca orice lege matematică, legea numerelor mari poate fi aplicată în lumea reală numai în baza unor ipoteze cunoscute, care pot fi îndeplinite doar cu un anumit grad de acuratețe. Deci, de exemplu, condițiile testelor succesive adesea nu pot fi menținute la infinit și cu o acuratețe absolută. În plus, legea numerelor mari vorbește doar despre improbabilitate abatere semnificativă a valorii medii de la așteptarea matematică.

Cuvintele despre numere mari se referă la numărul de teste - se ia în considerare un număr mare de valori ale unei variabile aleatoare sau acțiunea cumulativă a unui număr mare de variabile aleatoare. Esența acestei legi este următoarea: deși este imposibil de prezis ce valoare va lua o singură variabilă aleatoare într-un singur experiment, totuși, rezultatul total al acțiunii unui număr mare de variabile aleatoare independente își pierde caracterul aleatoriu și poate să fie prezis aproape în mod fiabil (adică cu mare probabilitate). De exemplu, este imposibil de prezis pe ce parte va cădea o monedă. Cu toate acestea, dacă aruncați 2 tone de monede, atunci cu mare siguranță se poate argumenta că greutatea monedelor care au căzut cu stema în sus este de 1 tonă.

În primul rând, așa-numita inegalitate Chebyshev se referă la legea numerelor mari, care estimează într-un test separat probabilitatea de a accepta o valoare de către o variabilă aleatorie care se abate de la valoarea medie cu cel mult o valoare dată.

inegalitatea lui Cebyshev. Lasa X este o variabilă aleatoare arbitrară, a=M(X) , A D(X) este dispersia sa. Apoi

Exemplu. Valoarea nominală (adică necesară) a diametrului manșonului prelucrat pe mașină este 5mm, iar variația nu mai este 0.01 (aceasta este toleranța de precizie a mașinii). Estimați probabilitatea ca, la fabricarea unei bucșe, abaterea diametrului său de la nominal să fie mai mică decât 0,5 mm .

Decizie. Lasă r.v. X- diametrul bucsei fabricate. După condiție, așteptarea sa matematică este egală cu diametrul nominal (dacă nu există o eroare sistematică în configurarea mașinii): a=M(X)=5 , și varianța D(X)≤0,01. Aplicând inegalitatea Cebyshev pentru ε = 0,5, primim:

Astfel, probabilitatea unei astfel de abateri este destul de mare și, prin urmare, putem concluziona că în cazul unei singure producții a unei piese, abaterea diametrului față de cel nominal nu va depăși aproape sigur 0,5 mm .

Practic, abaterea standard σ caracterizează media abaterea unei variabile aleatoare de la centrul acesteia (adică de la așteptarea ei matematică). Pentru ca media abatere, apoi abateri mari (accent pe o) sunt posibile în timpul testării. Cât de mari abateri sunt practic posibile? Când studiem variabile aleatoare distribuite normal, am derivat regula „trei sigma”: o variabilă aleatoare distribuită normal X într-un singur test practic nu se abate de la media sa mai mult decât , Unde σ= σ(X) este abaterea standard a r.v. X. Am dedus o astfel de regulă din faptul că am obţinut inegalitatea

.

Să estimăm acum probabilitatea pentru arbitrar variabilă aleatorie X acceptați o valoare care diferă de medie de cel mult trei ori abaterea standard. Aplicând inegalitatea Cebyshev pentru ε = și având în vedere că D(X)=σ 2 , primim:

.

Prin urmare, în general putem estima probabilitatea ca o variabilă aleatorie să se abate de la medie cu cel mult trei abateri standard în funcție de numărul 0.89 , în timp ce pentru o distribuție normală poate fi garantată cu probabilitate 0.997 .

Inegalitatea lui Cebyshev poate fi generalizată la un sistem de variabile aleatoare independente distribuite identic.

Inegalitatea generalizată a lui Cebyshev. Dacă variabile aleatoare independente X 1 , X 2 , … , X n M(X i )= A si dispersii D(X i )= D, apoi

La n=1 această inegalitate trece în inegalitatea Cebyshev formulată mai sus.

Inegalitatea Chebyshev, având semnificație independentă pentru rezolvarea problemelor corespunzătoare, este folosită pentru a demonstra așa-numita teoremă Chebyshev. Mai întâi descriem esența acestei teoreme și apoi dăm formularea formală a acesteia.

Lasa X 1 , X 2 , … , X n– un număr mare de variabile aleatoare independente cu așteptări matematice M(X 1 )=a 1 , … , M(X n )=a n. Deși fiecare dintre ele, ca rezultat al experimentului, poate lua o valoare departe de media sa (adică așteptările matematice), totuși, o variabilă aleatorie
, egală cu media lor aritmetică, cu o probabilitate mare va lua o valoare apropiată de un număr fix
(aceasta este media tuturor așteptărilor matematice). Aceasta înseamnă următoarele. Fie, ca rezultat al testului, variabile aleatoare independente X 1 , X 2 , … , X n(sunt o mulțime!) au luat valorile în consecință X 1 , X 2 , … , X n respectiv. Atunci, dacă aceste valori însele se pot dovedi a fi departe de valorile medii ale variabilelor aleatoare corespunzătoare, valoarea lor medie
este probabil să fie aproape de
. Astfel, media aritmetică a unui număr mare de variabile aleatoare își pierde deja caracterul aleatoriu și poate fi prezisă cu mare precizie. Acest lucru poate fi explicat prin faptul că abaterile aleatorii ale valorilor X i din A i pot fi de semne diferite și, prin urmare, în total aceste abateri sunt compensate cu o mare probabilitate.

Terema Cebysheva (legea numerelor mari sub forma lui Cebyshev). Lasa X 1 , X 2 , … , X n este o secvență de variabile aleatoare independente pe perechi ale căror varianțe sunt limitate la același număr. Apoi, oricât de mic ar fi numărul ε pe care îl luăm, probabilitatea inegalității

va fi în mod arbitrar aproape de unitate dacă numărul n variabile aleatoare pentru a lua suficient de mari. Formal, aceasta înseamnă că în condițiile teoremei

Acest tip de convergență se numește convergență în probabilitate și se notează prin:

Astfel, teorema Cebyshev spune că, dacă există un număr suficient de mare de variabile aleatoare independente, atunci media lor aritmetică într-un singur test va lua aproape sigur o valoare apropiată de media așteptărilor lor matematice.

Cel mai adesea, teorema Cebyshev este aplicată într-o situație în care variabile aleatoare X 1 , X 2 , … , X n au aceeași distribuție (adică aceeași lege de distribuție sau aceeași densitate de probabilitate). De fapt, acesta este doar un număr mare de instanțe ale aceleiași variabile aleatoare.

Consecinţă(a inegalității generalizate Cebyshev). Dacă variabile aleatoare independente X 1 , X 2 , … , X n au aceeași distribuție cu așteptările matematice M(X i )= A si dispersii D(X i )= D, apoi

, adică
.

Dovada rezultă din inegalitatea generalizată Cebyshev prin trecerea la limita ca n→∞ .

Observăm încă o dată că egalitățile scrise mai sus nu garantează că valoarea cantității
tinde să A la n→∞. Această valoare este încă o variabilă aleatorie, iar valorile sale individuale pot fi destul de departe A. Dar probabilitatea unui astfel de lucru (departe de A) valori cu creștere n tinde spre 0.

cometariu. Concluzia corolarului este, evident, valabilă și în cazul mai general când variabilele aleatoare independente X 1 , X 2 , … , X n au o distribuție diferită, dar aceleași așteptări matematice (egal A) și variațiile limitate în agregat. Acest lucru face posibilă prezicerea acurateței măsurării unei anumite cantități, chiar dacă aceste măsurători sunt efectuate cu instrumente diferite.

Să luăm în considerare mai detaliat aplicarea acestui corolar la măsurarea cantităților. Să folosim un dispozitiv n măsurători ale aceleiași mărimi, a cărei valoare adevărată este A si nu stim. Rezultatele unor astfel de măsurători X 1 , X 2 , … , X n pot diferi semnificativ unul de celălalt (și de valoarea adevărată A) din cauza diverșilor factori aleatori (căderi de presiune, temperaturi, vibrații aleatorii etc.). Luați în considerare r.v. X- citirea instrumentului pentru o singură măsurătoare a unei mărimi, precum și un set de r.v. X 1 , X 2 , … , X n- citirea instrumentului la prima, a doua, ..., ultima măsurătoare. Astfel, fiecare dintre cantități X 1 , X 2 , … , X n există doar una dintre cazurile de r.v. X, și de aceea toate au aceeași distribuție ca și r.v. X. Deoarece rezultatele măsurătorilor sunt independente unele de altele, r.v. X 1 , X 2 , … , X n poate fi considerat independent. Dacă dispozitivul nu dă o eroare sistematică (de exemplu, zero nu este „doborât” pe scară, arcul nu este întins etc.), atunci putem presupune că așteptarea matematică M(X) = a, prin urmare M(X 1 ) = ... = M(X n ) = a. Astfel, sunt îndeplinite condițiile corolarului de mai sus și, prin urmare, ca valoare aproximativă a cantității A putem lua „implementarea” unei variabile aleatorii
în experimentul nostru (constând dintr-o serie de n măsurători), adică

.

Cu un număr mare de măsurători, precizia bună a calculului folosind această formulă este practic de încredere. Acesta este motivul pentru principiul practic conform căruia, cu un număr mare de măsurători, media lor aritmetică practic nu diferă mult de valoarea adevărată a mărimii măsurate.

Metoda „eșantionării”, care este utilizată pe scară largă în statistica matematică, se bazează pe legea numerelor mari, care permite obținerea caracteristicilor sale obiective cu o acuratețe acceptabilă dintr-un eșantion relativ mic de valori ale unei variabile aleatoare. Dar acest lucru va fi discutat în secțiunea următoare.

Exemplu. Pe un dispozitiv de măsurare care nu face distorsiuni sistematice, se măsoară o anumită cantitate A o dată (valoare primită X 1 ), și apoi încă de 99 de ori (valori obținute X 2 , … , X 100 ). Pentru valoarea adevărată a măsurării A mai întâi luați rezultatul primei măsurători
, iar apoi media aritmetică a tuturor măsurătorilor
. Precizia de măsurare a dispozitivului este astfel încât abaterea standard a măsurătorii σ nu este mai mare de 1 (deoarece dispersia D 2 de asemenea, nu depășește 1). Pentru fiecare dintre metodele de măsurare, estimați probabilitatea ca eroarea de măsurare să nu depășească 2.

Decizie. Lasă r.v. X- citirea instrumentului pentru o singură măsurătoare. Apoi, după condiție M(X)=a. Pentru a răspunde la întrebările puse, aplicăm inegalitatea generalizată Chebyshev

pentru ε =2 primul pentru n=1 iar apoi pentru n=100 . În primul caz, obținem
, iar în al doilea. Astfel, cel de-al doilea caz garantează practic precizia de măsurare dată, în timp ce primul lasă îndoieli serioase în acest sens.

Să aplicăm afirmațiile de mai sus variabilelor aleatoare care apar în schema Bernoulli. Să ne amintim esența acestei scheme. Lasă-l să fie produs n teste independente, în fiecare dintre acestea un eveniment DAR poate apărea cu aceeași probabilitate R, A q=1–r(prin sens, aceasta este probabilitatea evenimentului opus - nu apariția unui eveniment DAR) . Să cheltuim un număr n astfel de teste. Luați în considerare variabile aleatoare: X 1 – numărul de apariții ale evenimentului DARîn 1 testul, ..., X n– numărul de apariții ale evenimentului DARîn n al-lea test. Toate introduse r.v. poate lua valori 0 sau 1 (eveniment DAR poate apărea sau nu în test) și valoarea 1 acceptat condiționat în fiecare proces cu o probabilitate p(probabilitatea producerii unui eveniment DARîn fiecare test) și valoarea 0 cu probabilitate q= 1 p. Prin urmare, aceste mărimi au aceleași legi de distribuție:

X 1

X n

Prin urmare, valorile medii ale acestor cantități și dispersiile lor sunt, de asemenea, aceleași: M(X 1 )=0 q+1 p= p, …, M(X n )= p ; D(X 1 )=(0 2 q+1 2 p)− p 2 = p∙(1− p)= p q, … , D(X n )= p q . Înlocuind aceste valori în inegalitatea generalizată Chebyshev, obținem

.

Este clar că r.v. X=X 1 +…+X n este numărul de apariții ale evenimentului DAR in toate nîncercări (cum se spune - „numărul de succese” în n teste). Lasă să intre n eveniment de testare DAR aparut in k dintre ei. Atunci inegalitatea anterioară poate fi scrisă ca

.

Dar amploarea
, egal cu raportul dintre numărul de apariții ale evenimentului DARîn nîncercări independente, la numărul total de încercări, denumit anterior rata relativă a evenimentelor DARîn n teste. Prin urmare, există o inegalitate

.

Trecand acum la limita la n→∞, obținem
, adică
(după probabilitate). Acesta este conținutul legii numerelor mari sub forma lui Bernoulli. De aici rezultă că pentru un număr suficient de mare de încercări n abateri arbitrar mici ale frecvenței relative
evenimente din probabilitatea sa R sunt evenimente aproape sigure, iar abaterile mari sunt aproape imposibile. Concluzia rezultată despre o astfel de stabilitate a frecvențelor relative (la care ne-am referit anterior ca experimental fapt) justifică definiția statistică introdusă anterior a probabilității unui eveniment ca număr în jurul căruia fluctuează frecvența relativă a unui eveniment.

Având în vedere că expresia pq= p∙(1− p)= pp 2 nu depășește intervalul de schimbare
(este ușor de verificat prin găsirea minimului acestei funcții pe acest segment), din inegalitatea de mai sus
ușor să obții asta

,

care este utilizat în rezolvarea problemelor corespunzătoare (una dintre ele va fi dată mai jos).

Exemplu. Moneda a fost aruncată de 1000 de ori. Estimați probabilitatea ca abaterea frecvenței relative de apariție a stemei de la probabilitatea acesteia să fie mai mică de 0,1.

Decizie. Aplicarea inegalității
la p= q=1/2 , n=1000 , ε=0,1, primim .

Exemplu. Estimați probabilitatea ca, în condițiile exemplului anterior, numărul k a stemelor căzute va fi în intervalul de 400 inainte de 600 .

Decizie. Condiție 400< k<600 înseamnă că 400/1000< k/ n<600/1000 , adică 0.4< W n (A)<0.6 sau
. După cum tocmai am văzut din exemplul anterior, probabilitatea unui astfel de eveniment este cel puțin 0.975 .

Exemplu. Pentru a calcula probabilitatea unui eveniment DAR Au fost efectuate 1000 de experimente, în care evenimentul DAR a aparut de 300 de ori. Estimați probabilitatea ca frecvența relativă (egale cu 300/1000=0,3) să fie diferită de probabilitatea adevărată R nu mai mult de 0,1.

Decizie. Aplicând inegalitatea de mai sus
pentru n=1000, ε=0,1, obținem .

Acțiune