Save 37% off PRO during our Black Friday Sale! »

Przykłady rozkładów prawdopodobieństwa

9b91521dd3d020edb72521181aa32c9f?s=47 Tomasz
December 21, 2005

Przykłady rozkładów prawdopodobieństwa

Prezentacja ze studiów.

9b91521dd3d020edb72521181aa32c9f?s=128

Tomasz

December 21, 2005
Tweet

Transcript

  1. Przykłady rozkładów prawdopodobieństwa Przemysław Konitz Tomasz Torcz 21.XII.2005

  2. Cele prezentacji: • Przybliżyć teorie prawdopodobieństwa częściowo przedstawione w poprzednich

    prezentacjach • Przestawia 2 przykłady transformacji, których efektem są stany słabo zależne statystycznie od czynników je wywołujących. Przy czym skupimy się na rozkładzie jednorodnym oraz gaussa.
  3. Jednorodny rozkład prawdopodobieństwa • Definicja: mówimy, że ziarnista zmienna losowa

    s posiada jednorodny rozkład prawdopodobieństwa jeśli: P(s=s l )=const. gdzie l=1,2,…,L bądź w przypadku zmiennej ciągłej p(s)=const. Vs W dalszej części będziemy rozważać przypadek ciągły.
  4. Założenia: • Stan podstawowy jest liczbą ze zbioru: <-s b

    , s b ) • Stan postawowy może być rozważany jako realizacja ciągłej zmiennej losowej s, a przez p(s) oznaczamy jej gęstość prawdopodobieństwa • Używając jednorodnej kwantyzacji - T q (۰) przekształcamy ciągłą zmienną „s” w ziarnistą zmienna „w” przyjmującą potencjalne wartości: s l , l=1,2,…,L czyli w=T q (s) • Reguła kwantyzacji: w = s l jeżeli | s-s l | ≤ | s-s k | V k≠l gdzie s l = [l - (L + 1)/2]Δ Δ=2s b /L
  5. 1. Stan wtórny definiujemy: b=s-s l =s-T q (s) określamy

    go mianem - „błąd kwantyzacji” i może być interpretowany jako wyjście systemu:
  6. • Zmienną losową reprezentującą stan wtórny zapiszemy formalnie jako: •

    Przedstawiając to na rysunku: • Widzimy, że (1) ) (s q T   s b            L l l l b s b s P b b P 1 )] , ( [ ] , [     s b
  7. Inny przykład stanu podstawowego • Interpretacja równania 1. gęstość prawdopodobieństwa

    stanu wtórnego „b” jest sumą przesuniętych segmentów o długości Δ gęstości prawdopodobieństwa stanu podstawowego
  8. None
  9. Wniosek: Jeżeli długość przedziału kwantyzacji Δ jest dostatecznie mała i

    gęstość prawdopodobieństwa jest funkcja gładką to niezależnie od użytej funkcji obrazującej ten rozkład gęstości prawdopodobieństwa, gestość prawdopodobieństwa stanu wtórnego zmierza do postaci jednorodnej. Zatem schemat jest przykładem systemu produkującego inne stany, które są słabo zależne od stanów „pierwotnych”
  10. None
  11. Przykłady z życia wzięte: 1.Dysk 2.Rewolwer 3.Koło ruletki … są

    to przykłady, gdzie stan wtórny „b” rozumiany jest jako reszta z dzielenia stanu pierwotnego przez stałą wartość Δ. Przy czym stan pierwotny to obrót np. dysku podzielonego na pewną ilość segmentów natomiast stan „b” obrazuje przesunięcie fazy od środka poszczególnego segmentu, sektora.
  12. Gaussowski rozkład prawdopodobieństwa Określony jest wzorem zwany również rozkładem normalnym

    dla zmiennej gaussowskiej: ps= 1 2πσ2 e−s− s2/2 σ2 Es= s ,σ2 s=σ2
  13. Jeśli zmienna losowa S może zostać przedstawiona w postaci gdzie

    zmienne losowe S(i) mają Es(i) = 0, ich wariancje σ2[s(i)] są podobnego rzędu wielkości* i ponadto zmienne S(i) spełniają dodatkowe szerokie założenia, to wtedy dla dużych I gęstość prawdopodobieństwa znormalizowanej zmiennej losowej S/√i zmierza do gaussowskiego rozkładu prawdopodobieństwa. S=∑ i=1 I si
  14. * Przez ,,wariancje są podobnego rzędu wielkości'' rozumiemy, że istnieją

    dwie stałe A 1 >0 i A 2 >A 1 takie, że A 1 < σ2[s(i)]< A 2 dla wszystkich i. Rozkład prawdopodobieństwa: (gdzie G=[G(m, k)]) nazywamy K-wymiarowym gaussowskim rozkładem prawdopodobieństwa; - determinowany przez czynniki a(k) and G(m, k), związane z momentami odpowiadającej K-wymiarowej zmiennej losowej: S = {s(k), k =1, 2, ..., K}
  15. s(k) = Es(k) GC SS = D 1 C SS

    – macierz korelacji zmiennej losowej S
  16. Ponieważ w bardzo ogólnych warunkach istnieje C-1 – odwrotność macierzy

    korelacji C, więc wzór (4.5.51b) można zapisać w postaci A=C SS -1 Z (4.5.25a) i (4.5.15b) wnioskujemy następująco: K-wymiarowy rozkład prawdopodobieństwa jest dokładnie określony przez średnie składników odpowiadającej K-wymiarowej zmiennej losowej i ich macierz korelacji.
  17. Nieskorelowane zmienne gaussowskie Poczyńmy następujące założenia: A1. Zmienne składowe S(k)

    są nieskorelowane (c(m, k) = 0 ; dla wszystkich m różnych od k) A2. Wartości średnie Es(k) = 0 A3. Wariancje σ2[S(k)] = σ2 = const Z A1 wynika, że wszystkie elementy macierzy korelacji C SS leżące poza główną przekątną są zerowe.
  18. Biorąc pod uwagę A3 widzimy, że C-1=1/σ2D 1 . Możemy

    przekształcić wcześniejszy wzór: 4.5.19a A = (2πσ)2 Widzimy, że gęstość prawdopodobieństwa nieskorelowanych zmiennych gaussowskich równa jest produktowi gęstości prawdopodobieństwa zmiennych składowych. Innymi słowy Jeśli zmienne gaussowskie są nieskorelowane, to są one statystycznie niezależne.
  19. Wielowymiarowe zmienne gaussowskie Jeśli zbiór zmiennych losowych może być przedstawiony

    jako suma dużej liczby niezależnych zbiorów składników o podobnej rzędzie wielkości wariancji, to znormalizowana suma ma w przybliżeniu wielowymiarową gęstość prawdopodobieństwa
  20. Rozpatrzmy, jako przykład, fluktuacje termiczne opornika. Przebieg szumu składa się

    z wielu jednostkowych impulsów generowanych przez zderzenia elektronów. Tak więc, bez wnikania w szczegóły dotyczące właściwości pojedynczych impulsów, dochodzimy do wniosku, że ciąg próbek szumu termicznego ma wielowymiarowy rozkład gaussowski. Z dużą dokładnością dowodzą tego eksperymenty.
  21. Najważniejsze cechy zmiennych gaussowskich: • aby dokładnie określić właściwości statystyczne

    zmiennych gaussowskich, wystarczy tylko znać ich średnie wartości i macierz korelacji (4.5.21) • zmienne gaussowskie poddane przekształceniom liniowym dają w wyniku zmienna gaussowską • -->
  22. • gęstość warunkowego rozkładu prawdopodobieństwa kilku składników wielowymiarowej zmiennej losowej

    pod warunkiem, że zestaw innych składników jest znany, jest gaussowskim rozkładem prawdopodobieństwa. Te właściwości w powiązaniu z równaniem (4.4.3) pozwalają zredukować obliczenia rozkładu prawdopodobieństwa liniowej kombinacji zmiennej gaussowskiej i łącznych i warunkowych rozkładów takiej liniowej kombinacji do prostych przekształceń macierzowych.
  23. PODSTAWOWE WŁAŚCIWOŚCI DŁUGICH CIĄGÓW ZMIENNYCH LOSOWYCH

  24. • Założenia: 1. łańcuch stanów S tr = { s(1),

    s(2), … , s(I) } jest obserwacją zmiennych losowych S tr = { s(1), s(2), … , s(I) } gdzie łańcuch stanów przedstawia statystyczną regularność [tr – train ] 2. zbiór potencjalnych wartości każdego elementarnego stanu jest taki sam i potencjalnymi stanami są s l , l = 1, 2, … , L 3. zmienne losowe s(i) dla każdego i są statystycznie niezależne 4. M(s l , I) oznacza liczbę wystąpień stanu s l w łańcuchu S tr
  25. TWIERDZENIE: • dla danych ε>0 δ>0 możemy znaleźć takie I(ε,

    δ) że dla I > I(ε, δ) zbiór S (I) nieograniczonego łańcucha S tr może być podzielony na dwa podzbiory S ty i S nty tak, że dla każdego łańcucha mamy : (1) oraz S S ty tr  M s l , I I P s l s l , l    ) ( nty tr S S P
  26. • współczynnik (2) Jest częstością występowania elementarnego stanu s l

    w łańcuchu S tr . • Tak więc w każdym ciągu należącym do zbioru S ty częstość występowania każdego elementarnego stanu s l jest z dokładnością lepszą niż ε bliska prawdopodobieństwu stanu s l . Taki cąg nazywamy typowym - zgodnie z notacja S ty • Zbiór S nty składa się z łańcuchów dla których częstość występowania stanów różni się przynajmniej o ε. Taki ciąg nazywamy nietypowym. • Prawdopodobieństwo jest sumą prawdopodobieństw wszystkich nietypowych ciągów I I s M l l I s P ) , ( * ) , (  ) S ( nty tr S P 
  27. • Dlatego też na podstawie przedstawionego poprzednio wzoru: zakładamy, że

    prawdopodobieństwo każdego nietypowego ciągu jest małe • Oznaczmy przez S tr ’ ciąg należący do zbioru S ty . Szacujemy prawdopodobieństwo (3) że ciąg S tr ’ jest wynikiem obserwacji ciągu zmiennych losowych Str    ) ( nty tr S S P )] ( ' ) ( ),..., 2 ( ' ) 2 ( ), 1 ( ' ) 1 ( [ ) ' ( I s I s s s s s P S S P tr tr     
  28. • Z racji że s(i) i są statystycznie niezależne: (4)

    • Po zlogarytmowaniu otrzymujemy i podzieleniu obu stron równania przez I: (5) • Wzór (*) zapiszemy w postaci: (6) gdzie | ε l | < ε. • Podstawiając powyższe równanie otrzymujemy: (7)  ) ( 1 1 ] ) ( [ ) ( ' ) ( [ ) ' ( N s M l L l I i tr tr l s l s P i s i s P S S P          ] ) ( [ log )] ( ' ) ( [ log 2 1 ) ( 1 2 1 ) ' ( log2 l L l I I s M I i I I S S P s l s P i s i s P l tr tr              ] ) 1 ( [ ) , ( l I I s M s s P l  l I S S P C s H tr     )] 1 ( [ ) ' ( log 2
  29. • gdzie (8) jest entropią zmiennej losowej s(l) • natomiast

    współczynnik C l definiujemy jako: (9) • Ze wzoru (7) dochodzimy do postaci: (10)       L l l l s s P s l s P l s H 1 2 ] ) 1 ( [ ]} ) ( [ log { )] ( [     L l l l s s P C 1 2 ] ) 1 ( [ log 2 )] ( [ ) ' ( l s IH tr tr S S P   
  30. Interpretacja geometryczna: • jeśli byśmy rozrysowali diagram w zbiorze S

    wszystkich możliwych ciągów S tr ={s(1),s(2), … , s(I)} wówczas wierzchołki tych linii utworzą dwa obszary: jeden „wysoki” obszar obrazujący zbiór S ty (z wysokością wyrażoną zależnością 10 i drugi obszar niski (o poziomie bliskim zeru) określający zbiór S nty - nietypowych ciągów.
  31. None
  32. Odpowiednik dla zmiennych ciągłych: • poprzedni wniosek wyrażony wzorem (8)

    możemy zmodyfikować do postaci ciągłej jeżeli zamiast P(S=s) weźmiemy gęstość prawdopodobieństwa p(S) typowego ciągu. Wówczas entropię zmiennej ciągłej przedstawi się jako równanie: • Dla zmiennych ciągłych chcąc zobrazować podział na ciagi typowe oraz nietypowe zauważymy znaczne skomplikowanie. Dla przykładu gdy gęstość prawdopodobieństwa p(s) wyrażona będzie funkcją gaussa wówczas zbiór S ty jest cienką, I – wymiarową kulistą powłoką.    b a s s ds s p s p l s H ) ( )] ( log [ )] ( [ 2       L l l l s s P s l s P l s H 1 2 ] ) 1 ( [ ]} ) ( [ log { )] ( [
  33. Podsumowanie • regularności statystyczne są nieodłączną cechą układu • nazywamy

    je stanem statystycznym i oznaczamy przez S STAT • W opisie tym zawiera się stan różnorodności SVAR stanu zewnętrznego i opis wag statystycznych: S STAT = { S VAR , W } = { SRT, MR, W }
  34. •Wprowadziliśmy następujące stany: •stan zewnętrzny •stan wewnętrzny •stan konkretny •stan

    różnorodności •stan statystyczny •meta stan •meta stan wyższego rzędu •stan uogólniony
  35. •stan zewnętrzny • wpływa bezpośrednio na interakcje pomiędzy elementami układu

    •stan wewnętrzny • ogólne związki pomiędzy elementami stanów zewnętrznych •stan konkretny • stany wewnętrzne i zewnętrzne •stan różnorodności • zbiór potencjalnych form stanu konkretnego •stan statystyczny • jw. ale wraz ze związanymi wagami statystycznymi
  36. •meta stan • zbiorcza nazwa stanów różnorodności i statystycznych •meta

    stan wyższego rzędu • zbiór potencjalnych form meta stanu niższego rzędu, ewentualnie wraz z wagami statystycznymi •stan uogólniony • stany konkretne i metastany
  37. Podsumowanie cd. •Każdy z tych stanów może być dokładny lub

    zgrubny •Każdy ze stanów ma fundamentalną strukturę, często również makrostrukturę. Podstawowe struktury: wektor, tablica (funkcja ziarnistych argumentów), i funkcja argumentu(ów) ciągłych.
  38. •Jeśli którykolwiek ze stanów nie jest znany, możemy z powodzeniem

    wziąść pod uwagę zbiór potencjalnych form stanu nieznanego.
  39. Dziękujemy! Wesołych Świąt!