1. Definicja przestrzeni probabilistycznej. Przykład miary probabilistycznej dla skończonej przestrzeni zdarzeń elementarnych. Przestrzenią probabilis...
5 downloads
38 Views
61KB Size
4. Definicja funkcji prawdopodobieństwa dla zmiennej losowej dyskretnej, przykłady rozkładów: Bernoulliego i Poissona.
Zmienna losowa X jest typu skokowego (dyskretnego), jeŜeli istnieje skończony albo przeliczalny zbiór Wx={x1, …, xn, …} jej wartości x1, …, xn, … taki, Ŝe: P( X = xi ) = pi > 0 , i ∈ ℕ ,
∑p i =1
i
= 1 (*),
gdzie górna granica sumowania wynosi n albo ∞ stosownie do tego, czy zbiór Wx jest skończony czy przeliczalny. Równość (*) nazywamy warunkiem unormowania.
Funkcję p określoną na zbiorze Wx równością: p( xi ) = P ( X = xi ) ≡ pi , xi ∈ Wx albo, co jest równowaŜne, dwuwierszową tablicą xi pi
x1 p1
x2 p2
… …
xn pn
… …
i spełniającą warunek unormowania (*) nazywamy funkcją rozkładu prawdopodobieństwa (funkcją prawdopodobieństwa) zmiennej losowej X.
Dyskretna zmienna losowa X ma rozkład Bernoulliego (dwumianowy, binomialny) z parametrami (n, p), n ∈ ℕ , 0 < p < 1, jeŜeli jej funkcja prawdopodobieństwa pk=P(k, n, p) = P(X=k) jest postaci: n k = 0,1,..., n , gdzie q = 1 − p . P ( k , n, p ) = p k q n − k , k Wartość oczekiwana dla tego rozkładu wynosi E ( X ) = np , a wariancja D 2 ( X ) = npq .
Dyskretna zmienna losowa X ma rozkład Poissona z parametrem λ (λ > 0), jeśli jej funkcja prawdopodobieństwa pk ≡ P (k ; λ ) = P ( X = k ) jest postaci:
P(k ; λ ) = e
−λ
λk
, k ∈ ℕ 0 = ℕ ∪ {0} . k! Jej wartość oczekiwana i wariancja są równe parametrowi λ: E ( X ) = λ , D 2 ( X ) = λ .
7. Definicja wektora losowego, rozkładu łącznego zmiennych (X, Y), brzegowych i warunkowych, definicja kowariancji i współczynnika korelacji zmiennych losowych X, Y.
Wektor losowy to zmienna losowa wielowymiarowa, gdzie ( x1 , x2 ,..., xn ) ∈ ℝ n , którego kaŜda współrzędna jest zmienną losową ( X 1 , X 2 ,..., X n ) .
Łączny rozkład zmiennych losowych (X, Y) określamy poprzez łączną funkcję prawdopodobieństwa podającą dla wszystkich par wartości (xi, yj) wektora (X, Y) ich prawdopodobieństwa: P ({ X = xi , Y = y j }) = pij , gdzie ∑∑ pij = 1 . j
i
Rozkład brzegowy zmiennej losowej X – prawdopodobieństwo przyjęcia wartości xi niezaleŜnie od tego, jaką wartość przyjmie zmienna losowa Y i wynosi: k
P({ X = xi }) = pi. = ∑ pij , gdzie i = 1,..., r . j =1
Rozkład brzegowy zmiennej losowej Y – prawdopodobieństwo przyjęcia wartości yj niezaleŜnie od tego, jaką wartość przyjmie zmienna losowa X i wynosi: r
P({Y = y j }) = p. j = ∑ pij , gdzie j = 1,..., k . Zachodzi:
∑p
i.
i =1
∑p
=1 i
.j
i
= 1.
j
Rozkład warunkowy – określa rozkład jednej zmiennej pod warunkiem, Ŝe ta druga przyjmuje pewną ustalona wartość: P ({ X = xi ∩ Y = y j }) pij = , gdzie j = 1,..., k . P ({ X = xi | Y = y j }) = P ({Y = y j }) p. j P ({Y = y j | X = xi }) =
P ({Y = y j ∩ X = xi }) P ({ X = xi })
=
pij pi .
, gdzie i = 1,..., r .
Kowariancja – miara zgodności rozkładów dwóch zmiennych losowych opisana wzorem: cov( X , Y ) = σ XY = E[( X − E ( X ))(Y − E (Y ))] , gdzie E(X) oraz E(Y) oznaczają wartości oczekiwane w rozkładzie brzegowym odpowiednio zmiennej X oraz Y: r
E ( X ) = ∑ xi * pi . i =1
k
i
E (Y ) = ∑ y j * p. j . i =1
Współczynnik korelacji – charakteryzuje siłę zaleŜności miedzy zmiennymi X i Y: cov( X , Y ) cov( X , Y ) ρ= = , gdzie D(X) i D(Y) oznaczają odchylenia standardowe w rozkładzie 2 2 D ( X ) * D (Y ) D( X ) * D (Y ) brzegowym odpowiednio zmiennych X i Y.
10. Definicja estymatora punktowego parametrycznego, definicja nieobciąŜoności, efektywności i zgodności estymatora, przykład estymatora nieobciąŜoności wariancji, estymatora nieobciąŜonego i efektywnego średniej rozkładu cechy.
Estymator punktowy parametryczny – statystyka próbkowa â=Tn=h(X1,…,Xn), której wartości przyjmujemy, jako oszacowania nieznanego parametru a.
Estymator jest nieobciąŜony, jeśli wartość oczekiwana rozkładu estymatora jest równa prawdziwej wartości szacowanego parametru: E(â)=a.
Najefektywniejszym jest estymator o najmniejszej wariancji (Tn)e. Efektywnością estymatora Tn pewnego parametru nazywa się wielkość: D 2 (T e ) e(Tn ) = 2 n D (Tn )
Estymator Tn (â) parametru a nazywamy estymatorem zgodnym, jeśli zachodzi:
lim P (| T ∀ ε >0
Estymator nieobciąŜony wariancji: S*2 =
n 2 1 n S = ( X i − X )2 . ∑ n −1 n − 1 i =1
Estymator nieobciąŜony i efektywny średniej rozkładu cechy: X =
1 n ∑ Xi . n i −1
n →∞
n
− a |< ε ) = 1
13. Statystyka testowa, obszar krytyczny dla testu dla wartości średniej w populacji N(m, σ2), σ-nieznane. Tak jak ma Karol Łyp (z forum – pod MS teoria), choć nie jestem pewna statystyki testu (t-> tn).
16. Klasyczny model regresji liniowej i jego estymacja metodą najmniejszych kwadratów, współczynnik dopasowania, wariancja resztowa. Model regresji liniowej – zakłada, Ŝe związek miedzy zmiennymi losowymi X i Y jest postaci: Yi = a1 xi + a0 + ε i , gdzie i = 1,..., n εi – zmienne losowe zwane błędami losowymi, które spełniają warunki: E(εi)=0 D2(εi)=σ2 cov(εi , εj)=0, gdzie i≠j ai, a0, σ – parametry modelu.
{reszta jak u Karola… o_O – na samym końcu niepotrzebne są objaśnienia dla n i k}