Title: Analisi dei Dati Universit
1Analisi dei DatiUniversità Carlo
CattaneoEmanuele Borgonovo
2Capitolo I
3Introduzione
- Processo Stocastico un processo stocastico è un
processo che è costituito da eventi la cui
realizzazione non è deterministica, ma
caratterizzata da incertezza - Esempio i tempi di arrivo dei clienti in un
grande centro commerciale o il numero di clienti
che arriva al centro commerciale nellintervallo
dt attorno al tempo t.
4Elementi introduttivi di Teoria della Probabilità
5Probabilità
- E possibile definire la Probabilità?
- Sì, ma ci sono due scuole
- La prima dice che la probabiltà è una porprietà
oggettiva degli eventi (Scuola Frequentista) - La seconda dice che la Probabilità è una misura
soggettivadella verosimiglianza degli eventi
(De Finetti)
6Gli Assiomi di Kolmogorov
U
B
A
7Aree e rettangoli?
U
- Supponete di saltare dentro U a caso. Chiamate
P(A) la probabilità di saltare in A. Quanto vale?
- Sarà larea di A diviso larea di U P(A)A/U
- In questo caso P(U)P(A) P(B) P(C) P(D) P(E)
8Legge della somma delle probabilità
- Dati n eventi non mutuamente esclusivi, in
generale la probabilità dellunione di detti n
eventi sarà la somma delle probabilità degli
eventi singoli, cui si sottrarrà la somma delle
probabilità delle doppie intersezioni, si
sommeranno le probabilità delle triple
intersezioni e così via. - In termini di aree
9Legge della somma delle probbilità in termini di
aree
U
B
AB
A
U
B
C
AB
A
10Probabilità Condizionata
U
B
AB
A
B
AB
11Probabilità Condizionata
Positivamente Correlati
Negativamente Correlati
Indipendenti
12(No Transcript)
13A Vincere lo scudetto
P(AB)P(AB)P(B)
P(AB)P(BA)P(A)
P(AB)0.8 P(B)0.7
P(A)0.8
P(AB)0.56
P(BA)0.7
B Vincere 20 partite
14Consulente
- P(DiceSoleSole)89
- P(DicePioggiaSole)1-8911
- P(DicePioggiaPioggia)95
- P(DiceSolePioggia)1-955
- P(DiceSole) P(DiceSolePioggia)P(Pioggia)
P(DiceSoleSole)P(Sole)550895047
15IL teorema della probabilità Totale
U
E
- Teorema probabilità totale dati N eventi
mutuamente esclusivi (A1, A2,,AN) e esaustivi,
la probabilità di un altro evento E in U è data
da
16(No Transcript)
17ESEMPIO
- P(T)0.1 P(N)0.9
- P(sTT)0.9
- P(sNN)0.9
- (Prob totale)
- P(sT)P(sTT)P(T)P(sTN)P(N)
- 0.90.10.10.920,90,1
- P(TsT)P(sTT)P(T)/P(sT)0,5
18Funzione di Partizione
- La funzione di partizione (cumulative
distribution) di una variabile casuale risponde
alla definizione di essere la probabilità che il
valore della variabile casuale sia inferiore ad
un valore di riefrimento. - Scriviamo FX(x)P(Xltx)
- Per una variabile discreta
- Per una variabile continua deve esistere una
funzione f(u) tale che - La funzione f(u) è detta densità di probabilità
di X
19Esempio
- Ad una lotteria, si gioca con una scatola che
contiene cappelli eleganti e sportivi in egual
proporzione. Il gioco è il seguente. Si estrae
un cappello. Se è elegante si ha diritto a
tirare una moneta. Se esce testa, si estrae un
altro cappello. Non si ha diritto ad altre
estrazioni. Qual è la probabilità di vincere due
cappelli eleganti? - Soluzione Applichiamo il teorema della
probabilità totale a P(2 cappelli eleganti) - P(2 cappelli eleganti)P(II cap. el.1
estrazione)P(1estrazione)P(II cap. el.II
estrazione)P(II estrazioni). - Chiaramente P(2 cappelli1 estrazione)0, quindi
- P(II cappelli elegante)P(II cap. el.II
estrazione)P(IIestrazione). - P(II estrazione) P(II estrazioniI sprt)P(I
sprt)P(II estrazioneI eleg)P(I eleg) - Ora se il primo è sportivo non si ha diritto a
seconda estrazione. - Osserviamo poi che P(II estrazione I eleg)
P(testa) 1/2 - Quindi P(II estrazione)1/21/20.25
- Inoltre P(II cap. el .)P(II cap. el.II
estrazione)P(II estrazione)1/20.250.125 - Per esercizio calcolare
- La probabiltà di uscire con un cappello
- La probabilità di uscire con un cappello elegante
e con uno sportivo - Ripetere gli stessi calcoli se I cappelli sono in
proporzione 2/3 sportivi/eleganti
20X
x
b
a
P(Xltx) P(Xx)0 Non ha senso per un numero
continuo Chiedersi P(Xx), ma ha senso P(Xltx)
21Relazione tra F(x) ed f(x)
- Se f(x) è continua, allora vale
- Esempio. Sia 0ltTlt? una variabile casuale
caratterizzata da una distribuzione esponenziale,
ovvero f(t) dt?e- ?tdt è la probabilità che T
abbia un valore compreso tra t e dt. - Qual è la probabilità che Tltt?
- Soluzione
- P(Tltt)F(t)
22Distribuzione Esponenziale
23(No Transcript)
24Valore atteso
- Il valore atteso di una variabile aleatoria
continua è definito da - Esempio
- Per una variabile discreta
- Esempio calcolare il valore atteso della
variabile aleatoria in Tabella a fianco
25Varianza
- La varianza esprime lo scostamento quadratico
medio dal valor medio. E definita da - Notiamo la relazione tra VX e EX2. Si ha
- EX2 è detto momento di ordine 2 o secondo
momento della distribuzione f(x).
26Skewness
- E il parametro che misura il grado di asimmetria
di una distribuzione. - La definiamo come momento centrale del III
ordine - Se la distribuzione è simmetrica la skewness è
nulIa. - Di sotto la skewness delle distribuzioni più
comuni
27..alla distribuzione di Poisson
- P è detta distribuzione di Poisson
- ? prende il nome di rateo o tasso della
distribuzione - Significato probabilità di avere k eventi, dato
il tasso ?.
28Momenti della distribuzione di Poisson
29La distribuzione Beta
- La distribuzione beta della variabile X, con a?x
? b è definita come segue - ?(q,r) è detta funzione beta.
- Momenti della distribuzione
30La distribuzione Beta (2)
- Grafico per a-10, b10, q2,r3
- q4,r3
- Grafico per a-10, b10, q3,r3 (simmetrico)
31La distribuzione ?
- Una variabile continua X (X??) segue una
distribuzione ? se la sua densità di probabilità
è data da - Dove
- ? (parametro di forma),? (parametro di scala)gt0 e
- ?(?) è la funzione ?, una funzione notevole, che
generalizza il concetto di fattoriale ai numeri
non interi. ?(?) è definita come segue - I parametri ? (parametro di locazione) e sono
legati al valore medio ed alla varianza di ?
dalle seguenti relazioni -
32Grafici della distribuzione ?
33Capitolo VIStatistica Multivariata
34Distribuzioni multivariate
- Consideriamo un fenomeno casuale in cui si
combinino due variabili. Ad esempio, I ricavi di
un supermercato derivano dai clienti che entrano
nel supermercato e dal tipo di acquisti che i
clienti effettuano. Modellizziamo il problema
chiamando X la variabile aleatoria relativa al
numero di clienti che entrano nel supermercato e
Y quella relativa al valore dellacquisto.
Chiaramente quanto si venderà è funzione di X e
Y. - F(x,y) sarà la probabilità che arrivino Xltx
clienti e che acquistino per un valore pari ad
Ylty. Se a questa funzione cumulativa corrisponde
una funzione densità di probabilità, scriveremo
f(x,y)dxdy la probabilità che arrivino x clienti
e comperino per un valore y. - Qual è la probabilità che i clienti comperino
Xltx indipendentemente da y? - Analogo ragionamento si applica alla
determinazione della distribuzione marginale
FY(y).
35Distribuzioni Multivariate
- Più formalmente, se xy è il nostro spazio degli
eventi, dove un evento è una combinazione dei
valori di xy FXY(x,y) rappresenta la probabilità
che X sia minore di x e, allo stesso tempo, Y sia
minore di y - FXY(x,y)P(X?x,Ylty) congiunta
- Per soddisfare gli assiomi della probabilità deve
essere - F(?, ?)1
- F(?, y)FY(y), F(x, ?)FX(x) marginali
- F(-?, -?)0,
- F(-?, y)0, F(x, -?)0
- F(?, y)FY(y)
36Distribuzioni multivariate
- Ora, logicamente ci si aspetta che Y dipenda in
qualche modo da X. Infatti, più clenti arrivano
più sarà facile raggiungere valori alti di Y.
Ma, se per caso, in un mondo poco reale, si
verificasse che Y non dipende da X, ci troveremmo
di fronte al fatto che P(Xltx) è indipendente dal
valore di Y. Dunque - P(X,Y)P(Xltx) P(Ylty)
- Quindi F(X,Y)FX(x) FY(y)
- od anche f(x,y)dxdyf(x)dx f(y)dy
- Diremo che X e Y sono indipendenti se
- fXY(xy)fX(x)
-
37Esempio
- Considerate due variabilie X e Y caratterizzate
dalla seguente possibile densità - Trovate c
- Sol
- X e Y sono indipendenti?
- Sono indipendenti se possiamo scrivere fXY(xy)
fX(x). - Ovvero Nel nostro
caso è facile verificare che questa condizione
non può essere verificata e quindi le due
variabili non sono indipendenti. La ragione è
legata alla presenza del termine di interazione
y/x
38Valore atteso condizionale
- Si può dimostrare che
- Nel caso X e Y siano indipendenti
39Parte IIProcessi stocastici
40 41Somma di un Numero Casuale di Variabili casuali
- Siete i gestori di un supermercato. Ogni cliente
spende Xi, dove I è il numero che indica
li-esimo cliente. In media I clienti spendono
75EUR a testa. Il numero medio di clienti
giornaliero è una variabile casuale N con valor
medio 300. Quanto vi aspettate di incassare al
giorno? - Soluzione. Lincasso giornaliero è dato da
- Dobbiamo quindi calcolare il valore atteso di I
- Per farlo, condizioniamo sul valore che assumerà
N. Abbiamo - Quindi ci attentiamo un incasso di
7530022500EUR/Giorno
42Esercizio
- Arrivi, N, beta(0,60,2,2)
- Spesa gamma(100,4).
- EI3025750.
43Processi di Poisson
44Processi di Conteggio
- Consideriamo un processo stocastico, in cui siamo
interessati a contare arrivi e tempi di arrivo.
Per esempio gli arrivi di clienti al
supermercato, di telefonate ad un centralino etc. - Denotiamo con N(t) il numero di eventi che si
verificano nel tempo t, cioè nellintervallo di
tempo 0-t. - N(t)numero di eventi tra 0 e t.
- Non è difficile intuire che
- N(t) è un numero intero non negativo, ?t
- N(s)ltN(t) se sltt
- N(t)-N(s) è il numero di eventi che si sono
verificati nel tempo t-s. Si chiamerà incremento
dei conteggi tra t e s. - Notazione indicheremo con tk il tempo del
k-esimo arrivo.
45Processi di Conteggio (2)
- Il tempo XkTk-Tk-1 è il tempo di attesa tra il
k-esimo e il k-1-esimo evento - Es. Supponete che il supermercato apra alle 9. Il
primo cliente arriva alle 9.01 e il secondo alle
9.05. Abbiamo T11min, T25min, X24min - Vale che TnX1X2Xn
- Due proprietà sono di interesse indipendenza e
stazionarietà degli incrementi - Incrementi Indipendenti Un processo viene detto
ad incrementi indipendenti, se i numeri di eventi
che si verificano in intervalli di tempo
disgiunti sono indipendenti tra loro
PN(ts)-N(t)kN(ts)-N(t) PN(ts)-N(t)k - Incrementi Stazionari Un processo viene detto ad
incrementi stazionari se il numero di eventi che
si verifica in un intervallo dipende solo dalla
lunghezza dellintervallo. Sia s la lunghezza
dellintervallo. In termini di probabilità si
scrive PN(ts)-N(t)kPN(ts)-N(t)k
46Processi di Poisson
- Un processo di conteggio è detto processo di
Poisson se verifica le seguenti proprietà - N(0)0
- Il processo è a incrementi indipendenti
- Il processo è a incrementi stazionari e la
probabilità di k eventi nel tempo s è data da - ? è detto intensità o tasso del processo
47Indipendenti
N(t)
N(t)
N(ts)
N(ts)
s
s
t
t
N(ts)-N(t)
N(ts)-N(t)
P(N(ts)-N(t)k N(ts)-N(t)m) P(N(ts)-N(t)
k)
48Stazionari
N(t)
N(t)
N(ts)
N(ts)
s
s
t
t
N(ts)-N(t)
N(ts)-N(t)
P(N(ts)-N(t)k) P(N(ts)-N(t)k)
49Distribuzione dei tempi di arrivo
- Quanto dobbiamo attendere per il primo arrivo?
- In termini di probabilità, scriviamo la domanda
come qual è la probabilità che X1 sia maggiore
di t) P(X1gtt). - P(X1ltt)1-P(X1gtt)
- La risposta è la distribuzione cumulativa di X1
P(X1gtt)PN(t)0P(? k0)e-?t P(X1ltt)1- e-?t - Qual è la distribuzione di X2?
- P(X2gttX1s)PN(t-s)0X1s grazie a proprietà
di intervalli indipendenti PN(t-s)0
P(?k0)e-?(t-s) - Ne segue
- I tempi di arrivo X1,X2,...,Xn di un processo di
Poisson sono variabili aleatorie indipendenti con
legge esponenziale di tasso ? - ET1/ ?
50Distribuzione di Tn
- La distribuzione del tempo di attesa Tn risponde
alla domanda come è distribuita la somma degli
Xi? Infatti TnX1X2Xn - DunquePTngttPX1X2Xn gtt
- Si dimostra che Tn?(n,?)
- Ricordiamo che I tempi di arrivo sono iid
esponenziali. Utilizziamo la funzione
generatrice dei momenti
51Esempio
- Gli arrivi orari ad un supermercato sono
distribuiti secondo una Poisson di media
1001/ore. - Qual è il tempo di attesa perchè arrivino 500
clenti? - Risposta 5 ore
- Qual è il tempo di attesa tra un cliente e il
successivo? - -------
- 1) Tn
- 2) ETn
- 3) distribuzione di Tn
- 4)ETnEdi una variabile Gamman/ ?500/1005
52Esempio
- Qual è il tempo di attesa tra un cliente e il
successivo? - -------
- 1) Xk
- 2) EXk
- 3) distribuzione di Xk è esponenziale
- 4)Exk1/ ?1/1001/ore1 centesimo di ora
53Processi di Poisson con selezione
- Consideriamo un processo di Poisson con arrivi di
tasso ?. - Ad ogni arrivo associamo un tasso di successo p.
Per esempio successo è se un cliente compera più
di tre tipi di prodotto diverso. - Indichiamo con M(t) il numero di successi
ottenuti fino al tempo t. - M(t) viene detto processo di Poisson con
selezione. - Si dimostra che
- M(t) e un processo di Poisson di intensità ?p.
- EM(s) ?ps ET1/( ?p) ETnn/( ?p)
54p
?p
?
55Esempio
- ?10000/anno
- p0.8
- T500 arrivo500/100000,05 18,25gg
- T500 acquisto500/(100000,8)0,0625 22,812gg
56Applicazione
- Supponiamo che se un cliente compera più di tre
prodotti il guadagno sia G. Se compera meno di
tre prodotti si ha una perdita L. Quali sono i
valori del tasso di arrivo dei clienti e della
probabilità p per avere il break-even, se gli
arrivi orari seguono un processo di poisson di
tasso ? e la probabilità che comperino più di tre
prodotti è p? - Processo di guadagno vi dà un valore atteso di
- EIpiùdi3ENEXlambdapEG ?pG
- EImenodi3ENEXlambda(1-p)EL ?(1-p)L
- EIpiùdi3EImenodi3
- ?(1-p)L?pG
- (1-p)LpG
- p/(1-p)L/G
- Es. G10 L3.
- p3/130,23
57Sol.
- Sol. Poissimo dividere il processo in due
sottoprocessi di tassi ?p e ?(1-p)
rispettivamente. Il valore atteso degli acquisti
in unora è dato rispettivamente da ?p e ?(1-p).
Affinchè vi sia break even occorre che - EGuad EMG?p
- EPerdite?(1-p)L
- ?pG ?(1-p)L? p/(1-p)L/G
- GL implica p0,5
- GgtL (es. G1,2L) plt0,5 (p0,46)
- Gltl (es G0,8L) pgt0,5 (p0,56)
58Processi di Poisson composti
- Consideriamo un processo in cui gli eventi
costituiscono un processo di poisson di tasso ?.
Ogni volta che un evento si realizza, si ha una
conseguenza Xi . Per esempio I clienti giungono
al supermercato nei tempi ti ed ognuno spende un
ammontare Xi. Quanto spendono in totale i
clienti, e , dunque, quanto incassa il
supermercato? - Il processo X(t) è detto processo di Poisson
composto. In generale lo caratterizzeranno due
distribuzioni, quella di Poisson e quella degli
Xi. La distribuzione degli Xi potrà essere
continua o discreta.
59X2
X1
X4
X3
?
60Valori Attesi
- I processi che coinvolgono la somma di variabili
casuali sono più facilmente trattabili in termini
della funzione generatrice dei momenti. Nel
nostro caso dobbiamo calcolare
61Valori Attesi (cont.)
- Da cui, derivando la funzione generatrice dei
momenti, è facile verificare che
62Applicazione
- I clienti che arrivano al supermercato spendono
secondo la seguente tabella - Arrivano in media 100 clienti allora. Nellarco
di una giornata (8 ore), quanto incassa il
supermercato? - Risposta 1008Eeuro spesi100891.673280
EUR - Incertezza (vedi esempio Excel)
EUR
p
EUR
p
i
i
25
2
95
5
30
3
100
5
35
3
105
4
40
3
110
4
45
3
115
4
50
4
120
4
55
4
125
4
60
4
130
3
65
4
135
3
70
4
140
3
75
5
145
3
80
5
150
3
85
3
155
3
90
3
160
2
63La rovina dellassicuratore
- The compound Poisson process is very important in
insurance, as a model for the arrival of claims
at an insurance office. The standard model
assumes that premiums arrive at a constant rate c
and looks to find the probability that the
surplus - S(t) S(0) ct - X(t)
- ever hits 0 (ruin occurs).
- ES(t) E ct - X(t) E ct -EX(t)
- ct -EX(t) ct
- ES(t)0
- c
-
64Capitolo IXProcessi di Markov Discreti e
Omogenei
65Gestione di Magazzino
- Siete i gestori di un concessionario di
automobili di lusso. Avete posto per 7 auto. Il
tempo di consegna delle automobili è di due
giorni, per cui se ordinate lauto al Venerdì,
per il Lunedì mattina sono in vetrina. Se al
Venerdì della n-esima settimana avete 2 auto o
meno di 2 in vetrina, ne ordinate altre in modo
da riportavi a 7. Le vendite arrivano secondo
una distribuzione di Poisson con media 4 e sono
pronta consegna. - Chiamiamo Xn il numero di auto in vetrina
allinizio della n-esima settimana. Xn è una
variabile aleatoria. Infatti, dipendendo dal
numero di vendite, potremmo avere 7,6,5,4,3 auto
in vetrina ogni Lunedì mattina. Analizziamo come
si piò descrivere il comportamento di X - Per il nostro problema, notiamo che se mettiamo
sullasse orizzontale il numero della settimana e
su quello verticale le auto vendute, abbiamo un
risultato del tipo
66Evoluzione temporale Processi Discreti
- Notiamo che il sistema procede a scatti nel
tempo, ovvero ogni settimana il sistema si
evolve. - Tale tipo di processo è detto discreto
(ovviamente dal punto di vista temporale)
X
X
n
7
6
.....
5
4
3
2
1
0
1
2
3
...
...
n-1
n
n1
...
t
67Stati del sistema ed Evoluzione temporale
- Chiamiamo stati del sistema (S) i valori che la
variabile aleatoria X può assumere. - Nella figura della pagina precedente, si tratta
dellasse verticale. - Nel nostro caso sono 3,4,5,6,7. Abbiamo quindi 5
stati possibili. - In generale useremo la notazione S1,2,,N per
indicare gli stati del sistema - Dato il sistema in un determinato stato alla
n-esima settimana, alla n1-esima il sistema può
rimanere ancora nello stesso stato o passare ad
un altro stato la settimana successiva - Per esempio, se abbiamo 4 auto in vetrina alla
30-esima settimana (X30), e se non si presentano
clienti, avremo ancora 4 auto il lunedì della
n1-esima settimana. Se vendiamo 2 auto, X317.
68Diagramma degli stati
- E una rappresentazione grafica degli stati del
sistema e delle transizioni che il sistema può
compiere
69(No Transcript)
70Probabilità di transizione e Processi di Markov
- Il sistema si muove da uno stato allaltro con
della probabilità, che vengono dette probabilità
di transizione. - Le probabilità di transizione rispondono alla
domanda qual è la probabilità che il sistema si
muova nello stato j ad n1 dato che al tempo n
era nello stato i e nei tempi precedenti in
Xn-1,X0? - In notazione probablistica, la probabilità
cercata è - Ora, un processo viene detto Markoviano se la
probabilità che il sistema passi allo stato j al
tempo n1, dato che è nello stato i al tempo n,
dipende solo dal fatto che il sistema è nello
stato I al tempo n e non dipende dagli stati nei
quali il sistema si trovava prima di i. Ovvero,
è indipendente dal modo in cui il sistema è
arrivato in i. - In formule
71La matrice di Markov
- Si definisce matrice di Markov una matrice
- i cui elementi sono le probabilità di transizione
di un sistema markoviano. La i-esima riga
descrive lo stato di partenza, la j-esima colonna
lo stato di arrivo. - Si dimostra che gli elementi della matrice
soddisfano le seguenti proprietà - La seconda proprità dice che, se il sistema è in
i al tempo n, allora con probabilità 1 al tempo
n1 sarà in uno degli stati del sistema
72E un magazzino Markoviano?
- Studiamo se il processo che abbiamo a
disposizione nella nostra gesione di magazzino è
un processo di Markov. - Innazitutto scriviamo Xn1 in forma matematica
- Dove Vn rappresenta le vendite della n-esima
settimana. Ricaviamo poi la probabilità di Xn. - P(Vn)s dipende solo da vendite in settimana
n-esima e non dalle vedntie delle settimane
precedenti. Quindi possiamo scrivere - Si tratta quindi di un processo di Markov.
- In più notiamo che la probabilità non dipende dal
fatto di essere nella settimana n-esima. Si
tratta quindi di un processo di Markov omogeneo.
73Definizione di Processo di Markov Omogeneo
- Un processo stocastico sullo spazio degli stati
S, si dice di Markov discreto se ?n - E omogeneo se verifica
- ovvero la matrice di Markov non dipende dal tempo
n.
74La matrice di Markov nel nostro esempio
- La matrice sarà della forma
- dove abbiamo catalogato gli stati come
X13,X24,,X57 - Si ha
75Matrice di Markov dellesempio
- Lultimo passo prima di riempire la matrice è
quello di calcolare le pij mediante la
distribuzione di Poisson. - Infine
k 0 1 2 3 4 5 6
?4 0.018 0.073 0.146 0.195 0.195 0.156 0.104
76Evoluzione temporale della matrice di transizione
- Indichiamo con ai le probabilità iniziali del
sistema aiP(X0i) (non è condizionale!!!) - Qual è la probabilità che al tempo k, Xkj dato
X0i? - Definiamo la matrice delle probabilità di
transizione a k-passi come - Dove
- Indichiamo la probabilità incondizionale di Xkj
con a(k) - Che differenza cè tra a(k) e P(k)?
77Evoluzione temporale della matrice di transizione
- Calcoliamo P(0) e P(1).
- Per P(0) notiamo che pijP(X0jX0i)1 se ij,
altrimenti0. - Per P(1), notiamo che pij(1)P(X1jX0i)pij.
Quindi P(1)P
78Markov a k passi
k
0
1
2
79Matrice a k Passi P(k)
- Probabilità che dato che al tempo 0 sono nello
stato i, mi trovo nello stato j al tempo k
K30
K0
Markov
80Teorema relazione tra P(k) e P
- Per un processo markoviano discreto e omogeneo
vale - che in forma matriciale equivale a scrivere
- Quindi per k2, si vede che
- per k3,
- Per ks vale
81Distribuzione del sistema
- Probabilità che il sistema si trovi in un dato
stato
82(No Transcript)
83La distribuzione non condizionale
- Definiamo
- a(k) è la distribuzione (discreta) della
probabilità che il sistema si trovi in un
determinato stato per tk. - Infatti, per definizione a(k) è un vettore il cui
elemento s-esimo è dato da
84Un esempio
- Consideriamo il seguente gioco. Una pallina può
trovarsi sulla metà superiore o inferiore del
flipper, rimbalzare da una metà allaltra ed
uscire. Rappresentiamo il problema con i seguenti
stati - j1 la pallina è sulla metà superire
- j2la pallina è sulla metà inferiore
- j3 la pallina è uscita
- Determiniamo gli stati del sistema
- Lo stato 3 è detto assorbente, perchè il sistema
può solo entrare in 3 e non uscire
85Esempio
- Funzionante parzialmente guasto
- Se funzionante passa a guasto con probabilità
0.5 parzialmente funzionante 0.2. - Se parzialmente funzionante torna perfettamente
funzionante con probabilità 0.3, va totalmente
guasto con probabilità 0.4. - Se è guasto, torna perfettamente fuzionante con
probabilità 0.7, parzialmente funzionante con
probabilità 0.2 - - Disegnate il diagramma degli stati
- - Strutturate la matrice di Markov
86Equazione di Chapman-Kolmogorv
- Il teorema di C-K stabilisce che le probabilità
di transizione a n passi soddisfano la seguente
equazione - E quindi, in forma matriciale
87Evoluzione Temporale per lesempio
40
30
20
k
88Esiste una distribuzione di probabilità limite?
- Dettagliamo la domanda nel titolo in tre punti
- Per n che tende linfinito, la distribuzione di
Xn tende ad una distribuzione limite? - Se esiste tale distribuzione limite, è unica?
- Se esiste ed è unica, come si calcola?
- Notazione indichiamo con
- Se il limite esiste, ? è detta distribuzione
limite del processo
89Calcolo della distribuzione limite
- Teorema 1 se esiste una distribuzione limite,
allora soddisfa le seguenti proprietà - Dimostriamo la prima.
- In forma matriciale
90Esistenza della distribuzione limite
- Notiamo che dal punto di vista dellalgebra
lineare la distribuzione limite deve soddisfare
il sistema lineare - Ricordiamo che la condizione necessaria affinchè
il sistema non possegga la sola soluzione nulla
è - Quindi non è garantita lesistenza della
distribuzione limite
91Unicità della distribuzione limite
- Anche lunicità della distribuzione limite non è
in genere garantita. Per un esempio vedi
Kulkarni, p.129.
92Periodicità, Irriducibilità e Esistenza
- Un processo di Markov discreto e omogeneo è detto
periodico di periodo d se gt1 d è lintero più
grande per cui vale - Con n multiplo di d. Se d1 il processo è detto
aperiodico. - In pratica il concetto di periodicità risponde
alla domanda è possibile tornare ad i dopo
essere partiti da i? Se il processo è periodico
di periodo d allora è possibile tornare ad I solo
ai tempi d,2d,kd. Non è possibile in tempi
intermedi. - Il periodo può essere calcolato per via grafica
dai diagrammi di transizione. Si deve definire
un ciclo diretto nel diagramma come il ciclo da
un nodo a se stesso. Se tutti I cicli diretti
nel diagramma sono multipli di d allora il
periodo è d.
93Periodicità, Irriducibilità e Esistenza
- Un processo di Markov discreto e omogeneo è detto
irriducibile se, ?i,j esiste kgt0 tale che - La precedente proprietà dice che è possibile
muoversi dallo stato i allo stato j in uno o più
passi per tutti gli stati i e j. - Condizione sufficiente di esistenza e unicità
- un processo di Markov irriducibile e aperiodico
ammette ununica distribuzione limite.
94Distribuzione Stazionaria
- Una distribuzione ? è detta stazionaria se
- per tutti gli stati (?i) e per tutti i tempi n0.
- Anche la distribuzione stazionaria, se esiste
soddisferà - Ne segue che se esiste una distribuzione limite
essa è anche una distribuzione stazionaria
95Costi o ricavi associati agli stati
- Spesso il fatto che il sistema sia in un
determinato stato comporta allazienda un
costo/ricavo gestionale (es. costo di magazzino
delle parti di ricambio o ricavo da vendite) - Per sapere quanto è il costo totale atteso,
occorre sapere quanto tempo il sistema sta in un
determinato stato. Ora notiamo che per modelli
markoviani discreti il sistema scatta da uno
stato allaltro ogni n. Quindi il tempo totale
che il sistema trascorre in uno stato non è altro
che la somma del numero di volte che, passa dallo
stato di interesse. Denotiamo con j lo stato di
interesse e con Xkj levento il sistema è nello
stato j al tempo k. Leghiamo ad Xk la variabile
Zj(k) definita come segue - Il numero di volte in cui il sistema passa per lo
stato j è proprio la somma delle variabili Zj(k).
Quindi - Saremo interessati al valore atteso di Nj(k)
96Tempi di occupazione
- Il sistema patirà dallo stato X0i. Definiamo con
mij(k) il numero di volte in cui il sistema passa
per lo stato j partendo dallo stato i al tempo 0. - In forma matriciale
- Si dimostra che
- In forma matriciale
97Esempio
- Esempio. Se k10, scrivere la matrice di
occupazione dellesempio Pallina da flipper. - Utilizziamo la formula precedente
- Notiamo il risultato. Se partiamo da 3, stiamo in
3 per 11 voltesempre!
98Costi condizionali
- Costi da associare agli stati C(Xj) è il costo
associato al fatto che il sistema è nello stato
j. - Il costo totale generato nel periodo 0..k, è
- Il valore atteso è
- Vettore dei costi condizionale allo stato del
sistema a k0 - Possiamo quindi ricavare il valore atteso del
costo come - Forma matriciale
- Forma vettoriale
99Esempio
- Nellesempio del gioco, ogni volta che la pallina
finisce nello stato 3 si perdono 2EUR, ogni volta
che siete nello stato 1 o 2 vincete 1 EUR. In 10
partite, quanti soldi si perdono se si parte
dallo stato 1? E dallo stato 2? E da 3? E se
aveste a0.5 0.5 0, vi convene giocare?
100La distribuzione delloccupazione
- Sia Nj(k) il numero di volte in cui il sistema
visita lo stato j nel tempo 0k. - Loccupazione dello stato j viene definita da
- Interpretazione è la frazione di tempo che il
sistema spende nello stato j. - La distribuzione di occupazione (?), se esiste,
soddisfa le seguenti equazioni - Un processo markoviano irriducibile ammette
ununica distribuzione di occupazione che è
uguale alla distribuzione stazionaria.
101Costo per unità di tempo
- Il costo per unità di tempo è definito come
- Dove i denota lo stato di partenza.
- Si dimostra che soddisfa la seguente eguaglianza
per un processo di Markov irriducibile ed è
indipendente da i
102Esempio 1
- Consideriamo un processo di Markov S1,2,3,4,
discreto e irriducibile che sia caratterizzato
dalla seguente distribuzione di occupazione degli
stati ?0.27 0.45 0.2 0.08 e costi per stato
c400 500 600 700. Il sistema si muove su base
settimanale. - Quanto vi costa, nel lungo periodo, il sistema
alla settimana? - Sol. 509EUR per settimana
103Problemi
- Consideriamo un gioco in cui il sistema ha tre
stati e può passare da uno stato allaltro con le
seguenti probabilità, k0,1, - E un processo irriducibile?
- Se lo stato 1 dà un profitto di 10, lo stato 2
una vincita di 15 e lo stato 3 una perdita di
-20, vi conviene giocare fino a k10 se le
probabilità di partenza sono 0.3 0.3 0.4? (Ans.
1.15, sì) - E allinfinito? (0.1667)
104Capitolo XProcessi di Markov Continui nel Tempo
105Introduzione
- Nel caso dei processi di Markov discreti, si
individuavano una serie di istanti k0,1,,n n
cui lo stato del sistema veniva osservato.
Supponiamo ora che il sistema sia osservato con
continuità. - Un esempio può essere quello di un satellite che
gira nello spazio e può essere in 2 stati,
funzionante o rotto. Ci chiediamo se al tempo T
il satellite sia funzionante o rotto.
106Definizione Markov continuo
- Processo di Markov continuo nel tempo
- Un processo stocastico è detto di Markov,
continuo del tempo se vale - dove X(st) indica lo stato del sistema al tempo
ts. Notiamo che st sostituisce k al pedice
nella noazione precedente. - Interpr. la probabilità che il sistema passi
dallo stato I che occupava in s allo stato j dopo
un tempo t dipende solo dallo stato in cui il
sistema si trovava in s e da s. - Matrice delle probabilità di transizione
107Definizione Markov continuo omogeneo
- Processo di Markov continuo nel tempo è omogeneo
se vale - Interpr. la probabilità che il sistema passi
dallo stato i che occupava in s allo stato j dopo
un tempo t dipende solo di due stati e non dal
tempo s. - Matrice delle probabilità di transizione
108Proprietà della matrice prob. transizione
- La matrice delle probailità di transizione
soddisfa le seguenti proprietà - Dimostriamo la 3
109Equazioni di Chapman Kolmogorov
- Valgono i due seguenti lemma
- ?Itasso istantaneo di uscita dallo stato i, qij
tasso di transizione dallo stato i allo stato j.
Sono le probabilità condizionale che il sistema
compia la transizione dallo stato I allo stato j
nellintervallo di tempo dt, dato che è nello
stato i a t. - Si dimostra che le probabilità di transizione
soddisfano le seguenti equazioni - se si condiziona su h.
- Se si condiziona su t.
110Equazioni di C-K (2)
- Poniamo
- ?ij è detto rateo di transizione ed è la
probabilità che nel tempo dt il sistema passi
allo stato j dato che è nello stato i. - Le equazioni di C-K si possono quindi riscrivere
come
111Equazioni di C-K (3)
- Dove A e la matrice dei ratei di transizione del
sistema, P e il vettore delle probabilita degli
stati del sistema.
112Costruzione della matrice di transizione
- Esempio componente soggetto a rottura e
riparazione. 2 stati in funzione o in
riparazione, con tassi di guasto ? e riparazione
?. - Chi sono P12 e P21? Sono le probabilita di
transizione in dt. Quindi - P12? e P21 ?
- La matrice di transizione e costruita con le
seguenti regole - () se il salto e in entrata allo stato, (-) se
il salto e in uscita - Prendiamo lo stato 1 si entra in 1 da due con
tasso ? (), si esce con tasso ? (-). - Quindi
113La matrice di transizione
- La matrice di transizione e
114Equazione delle Pi(t)
- Definiamo le probabilità incondizionali che il
sistema si trovi nello stato i al tempo t come - Si dimostra (vedi seguito) che le equazioni
soddisfatte dalle probabilità incondizionali sono
115Differenza
116Soluzione delle equazioni
- E la probabilita che a t il componente sia
nello stato 1. Occorre risolvere il sistema di
equazioni differenziali lineari precedente. Modo
piu usato in affidabilita e mediante
trasformata di Laplace. - Con trasf. Laplace, le equazioni da differenziali
diventano algebriche. Dopo aver lavorato con
equazioni algebriche, occorre poi
antitrasformare. - Si ottiene dunque la disponibilita come funzione
del tempo. Il risultato per un componente singolo
soggetto a riparazioni e rotture e il seguente
117Risultato
- Probabilità che il sistema sia nello stato
1Disponibilita istantanea - Disponibilita asintotica
- Interpretazione tempo che occorre in media alla
riparazione diviso il tempo totale
118Probabilità limite
- Per t che tende ad infinito, se il processo
Markoviano è irriducibile, le probabilità limite
esistono e soddisfano le seguenti equazioni - ovvero, ?j
- Tale relazione esprime il bilancio tra le entrate
e le uscite dallo stato
119Esempio
- Si consideri un sistema con due componenti, con
la possibilità di riparare un solo componente
alla volta, nel caso si rompa. I due componenti
sono identici e si rompono con tasso costante ?.
Il tasso di riparazione è ?. Rappresentare il
sistema come processo di Markov, scrivere le
equazioni di C-K per il processo e trovare le
probabilità limite.
2?
?
3
1
2
2?
?
120Distribuzione stazionaria
- Per un processo di Markov continuo,irriducibile,
la distribuzione limite è anche la distribuzione
stazionaria.
121Distribuzione di occupazione
- Sia T un tempo su cui osserviamo il sistema.
- Sia mij(T) il tempo speso dal sistema nello stato
j dato che è partito da I al tempo 0. - Se il processo è irriducible, vale allora che
- la frazione di tempo che il sistema passa nello
stato j al tendere di t allinfinito non dipende
da i - La frazione di tempo spesa da sistema nello stato
j è - Quindi le probabilità limite si possono
interpretare come frazione del tempo che il
sistema spende in un determonato stato
122Modellazione dei Costi/Ricavo
- Il modello dei costi è il seguente.
- Sia c(X(t)) dt il costo istantaneo (tasso di
costo) associato al fatto che il sistema è nello
stato j al tempo t. - Il costo/ricavo totale che il sistema
sosterrà/produrrà nel tempo 0-T sarà
123Tasso di costo istantaneo limite
- Per un processo continuo, Markoviano,
irriducibile vale - Esempio supponiamo che se la macchina produce
incassiamo 1000. Se si rompe spendiamo costa
-5000. Calcoliamo se, a regime, conviene
investire nella macchina quando ?10-4 e ?10-2. - clim940, quindi conviene.
124Capitolo IXProblemi, dimostrazioni etc.