Title: Teoria das filas
1Teoria das filas
2Introdução
- Por que aparecem as filas?
- Não é eficiente, nem racional, que cada um
disponha de todos os recursos individualmente.
Por exemplo - que cada pessoa disponha do uso exclusivo de uma
rua para se movimentar - que cada pessoa tenha um supermercado para o seu
abastecimento exclusivo - Recursos limitados devem ser compartilhados.
3Introdução
- Ao compartilhar recursos, pode acontecer que no
momento em que se queira fazer uso de um recurso,
este esteja ocupado, - necessidade de esperar
- aparecem as filas
- Exemplo nos sistemas de fluxo pode acontecer a
formação de filas
4Sistemas de fluxo
- Um fluxo é o movimento de alguma entidade através
de um ou mais canais de capacidade finita para ir
de um ponto a outro. - Capacidade finita significa que o canal só pode
satisfazer a demanda a uma taxa finita. - Exemplos
- fluxo de automóveis (entidades) através de uma
rede de caminhos (canais) - transmissão de mensagens telefônicas (entidades)
através da rede (canal)
5Sistemas de fluxo
- Se dividem em duas classes
- Determinísticos sistemas no qual o comportamento
da demanda de serviço é totalmente previsível,
isto é, a quantidade de demanda é exatamente
conhecida sobre o intervalo de interesse. - Aleatório não é possível predizer como vai se
comportar a demanda de serviço, por exemplo, o
instante de chegada de uma demanda é imprevisível.
6Sistemas de fluxo
- Exemplo de fluxo determinístico
- Seja r a taxa de chegada (constante) de pacotes
em uma rede de comutação a um buffer. - Seja c a taxa (constante) com que esses pacotes
são processados em cada nó. - Se r gt c, o buffer do nó é inundado com pacotes,
já que o número de pacotes em espera de serviço
crescerá indefinidamente. - Se r lt c, se tem um fluxo estável, o número de
pacotes em espera de serviço é finito.
7Sistemas de fluxo
- Exemplo de fluxo aleatório
- Um centro de computação em que as solicitações de
impressão podem chegar em instantes
imprevisíveis. - Quando um trabalho de impressão chega, pode ser
que o servidor esteja atendendo outro e seja
necessário esperar. - Se está desocupado, pode atender imediatamente à
nova solicitação de impressão até que esta fique
completa.
8Teoria das filas
- Representação de uma fila
9Teoria das filas
- Notação de Kendall para descrever uma fila
-
- A/B/C/K/m/Z
-
10Teoria das filas
- Notação de Kendall para descrever uma fila
- A/B/C/K/m/Z
-
distribuição do tempo entre chegadas
- Alguns valores de A mais comuns
- M denota distribuição exponencial equivalente
(M provém de Markoviano) - G distribuição geral
- D representa um tempo fixo (determinístico)
11Teoria das filas
- Notação de Kendall para descrever uma fila
- A/B/C/K/m/Z
-
distribuição do tempo entre chegadas
- Alguns valores de B mais comuns
- M denota distribuição exponencial equivalente (M
provém de Markoviano) - G distribuição geral
- D representa um tempo fixo (determinístico)
distribuição do tempo de serviço
12Teoria das filas
- Notação de Kendall para descrever uma fila
- A/B/C/K/m/Z
-
distribuição do tempo entre chegadas
número de servidores
distribuição do tempo de serviço
13Teoria das filas
- Notação de Kendall para descrever uma fila
- A/B/C/K/m/Z
-
distribuição do tempo entre chegadas
número de servidores
distribuição do tempo de serviço
número máximo de clientes permitidos no sistema
14Teoria das filas
- Notação de Kendall para descrever uma fila
- A/B/C/K/m/Z
-
distribuição do tempo entre chegadas
número de servidores
tamanho da população
distribuição do tempo de serviço
número máximo de clientes permitidos no sistema
15Teoria das filas
- Notação de Kendall para descrever uma fila
- A/B/C/K/m/Z
-
disciplina de serviço
distribuição do tempo entre chegadas
número de servidores
tamanho da população
distribuição do tempo de serviço
número máximo de clientes permitidos no sistema
- Z se omite quando
- ????? FIFO
16Teoria das filas
- Notações usadas nos sistemas de filas
- Ci i-ésimo usuário que entra ao sistema.
- ri tempo de chegada de Ci
- ti tempo entre as chegadas de Ci-1 e Ci (ti ri
- ri-1) - A(t) distribuição do tempo entre chegadas
Pti?t - xi tempo de serviço para Ci
- B(x) distribuição do tempo de serviço Pxi ?x
- wi tempo de espera na fila de Ci
- se tempo no sistema (fila mais serviço) de Ci
(se wi xi)
17Teoria das filas
- Notação de filas em diagrama temporal
Servidor
Fila
Ci Ci1
Ci2
18Teoria das filas
- Notações usadas nos sistemas de filas (cont.)
- Ek estado do sistema (normalmente corresponde ao
número de usuários no sistema) - ?k?taxa média de chegada dos usuários ao sistema,
quando este se encontra no estado k - ?k taxa média de serviço quando o sistema se
encontra no estado k
19Teoria das filas
- Outros parâmetros de uma fila
- N(t) número de usuários no sistema no instante t
- L Ek número médio de usuários no sistema
(em estado estacionário) - LQ número médio de usuários na fila (em estado
estacionário). - T Es tempo médio de permanência de um
usuário no sistema Ek/? (fórmula de Little)
20Cadeias de Markov discretas
21Cadeias de Markov discretas
- Markov estabeleceu uma simples e útil relação
entre as variáveis aleatórias que forman
processos estocásticos
22Definições
- Estado se Xn i diz-se que o processo está no
estado i no instante n, onde Xn, n0,1,2... é
um processo estocástico que passa por um número
finito ou contável de possíveis estados. - Transição a transição de um estado a outro
depende somente do estado atual, e não da
história do processo
23Observações
- No caso das cadeias discretas de Markov, os
instantes de tempo nos quais a transição entre um
estado e outro acontecem podem asumir apenas
valores inteiros 0, 1, 2..., n. Em outras
palavras, o tempo é discretizado. - Os processos devem permanecer num estado
determinado durante um tempo que deve estar
geométricamente distribuído.
24Observações
- Propriedade Markoviana
- PXn1 j Xn i, Xn-1 in-1,... X0 i0
- PXn1 j Xn i Pij ? 0
- Interpretação (sistema sem memória)
- A transição de um estado para outro só depende
do estado atual, e não da história do processo.
25Cadeias de Markov discretas
Xn denota a cidade na qual encontra-se o turista
ao meio-dia no dia n
X1
X2
X3
X4
X5
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
26Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
27Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
28Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
29Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
...
1
2
3
4
5
Continuarei mais ao Norte?
t
30Cadeias de Markov discretas
- Da minha viagem,n posso lhes dizer que
- Nos processos de Markov, o estado atual do
sistema e as probabilidades de transição entre os
diversos estados caracterizam o comportamento
futuro do sistema. - Já que um processo de Markov está num estado
determinado, seu comportamento futuro não depende
de sua história antes de chegar a esse estado.
31Definições
- Cadeias de Markov são processos estocásticos
X(t) que satisfazem - pij probabilidade de transição do estado i para
o estado j depende somente do estado i - Ppij matriz de probabilidade de transição
- tempo em que o processo permanece no
estado i, sem memória
32Exemplo
- Considerando-se apenas o trajeto
Santiago-Valparaíso-Serena, tem-se graficamente
(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
33(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
- Números nos arcos dão a probabilidade pij do
viajante ser recolhido por um carro - Probabilidade do viajante permanecer em Serena
até o dia seguinte é 1/2 - Números entre parênteses usados posteriormente
34(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
- Matriz de probabilidades de transição
35Definições
- Num processo de Markov, se diz que um estado Sj é
transiente se, de algum estado Sk que pode ser
alcançado desde Sj, o sistema não pode voltar a
Sj. A probabilidade de não voltar a si mesmo
existe.
1
3
2
Estados 1 e 2 são transientes
36Definições
- Se diz que um estado é recorrente se de cada
estado Sk alcançável a partir de Sj, o sistema
pode voltar a Sj.
1
3
2
Estados 1, 2 e 3 são recorrentes
37Cadeias de Markov discretas
- Exemplo 1 predição do tempo
- Dois estados possíveis
- 0 chuva
- 1 não chuva
- Hipótese o tempo amanhã só depende de hoje
(processo sem memória) - Chove hoje ? probabilidade de chover amanhã ?
- Não chove hoje ? probabilidade de chover amanhã
?
38Cadeias de Markov discretas
- Cadeia de Markov fica definida por
0
1
0
1
Graficamente
1
0
39Cadeias de Markov discretas
- Exemplo 2 transformar um processo não-
Markoviano em Markoviano (às vezes é possível) - Considere-se um elevador em um prédio de três
andares
Estados
Andar 3
Andar 2
Andar 1
40Cadeias de Markov discretas
- Processo não-Markoviano, porque no estado 2 é
necessária a informação do estado anterior (1 ou
3) para saber qual será a direção do elevador. - Para que o processo seja Markoviano, se faz
necessária uma redefinição dos estados.
41Cadeias de Markov discretas
- Exemplo 2 transformar um processo
não-Markoviano em Markoviano (às vezes é
possível)
Redefinição dos estados
3 Andar 2, sentido abaixo
2 Andar 3, sentido abaixo
1 Andar 2, sentido acima
0 Andar 1, sentido acima
42Cadeias de Markov discretas
- Da redefinição obtém-se o novo diagrama de
estados
1
1
1
0
1
2
3
1
0 andar 1, sentido acima 1 andar 2,
sentido acima 2 andar 3, sentido abaixo
3 andar 2, sentido abaixo
43Cadeias de Markov discretas
- Exemplo 2.1 transformar um processo
não-Markoviano em Markoviano (às vezes é
possível) - Choveu, choveu ? amanhã choverá p0,7
- Não-choveu, choveu ? amanhã choverá p0,5
- Choveu, não choveu ? amanhã choverá p0,4
- Não choveu, não choveu ? amanhã choverá p0,2
- Usando a definição anterior NÃO é processo de
Markov -
44Cadeias de Markov discretas
- Exemplo 2.1 transformar um processo não-
Markoviano em Markoviano (às vezes é possível) - Motivo há contradição precisa-se de informação
não só do dia presente, mas também do anterior. - Redefinição de estados se o estado depende do
tempo de ontem e hoje então SIM, pode ser
Markoviano - Para transformar um processo não-Markoviano em
Markoviano (se possível), devem ser redefinidos
os estados de maneira adequada.
45Cadeias de Markov discretas
- Exemplo 2.1 transformar um processo não-
Markoviano em Markoviano (às vezes é possível) - Portanto, se são redefinidos os seguintes
estados - 0 Choveu, choveu
- 1 Não choveu, choveu
- 2 Choveu, não choveu
- 3 Não choveu, não choveu
46Cadeias de Markov discretas
Estados
0 Choveu, choveu 1 Não choveu, choveu
2 Choveu, não choveu 3 Não choveu, não
choveu
Cadeia de Markov definida pela matriz de
probabilidade de transição
47Definições
- ?i probabilidade estacionária de estar no
estado i - ?i(n) probabilidade de estar no estado I no
instante n - ?i(0) probabilidade inicial de estar no
estado i - ?(?0, ?1, ?2, , ?n)
- Por definição
48Definições
- Exemplo
- Aplicando recursivamente
-
- ou
49Definições
- Se a cadeia de Markov é irredutível e ergódica,
então - existe e ? é denominada a probabilidade límite
de P, ou autovetor esquerdo de P. - Obtenção de ?
50Cadeias de Markov discretas
- Exemplo 3 utilizando o exemplo 1, se a
probabilidade de que choverá hoje é 0.2 e - Qual é a probabilidade incondicional de que
amanhã choverá?
51Cadeias de Markov discretas
- Aplicando o teorema da probabilidade total
- seja ? a probabilidade incondicional de que
choverá amanhã. - ? P(amanhã choverá hoje choveu)
- P(amanhã choverá hoje não choveu)
52Cadeias de Markov discretas
- Exemplo 4 utilizando o exemplo 1
-
-
-
- Se e então a
probabilidade límite de que choverá é
53Cadeias de Markov discretas
- Voltando ao exemplo do turista
Me leva?
(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
54Cadeias de Markov discretas
- Do diagrama de estados pode obter-se a matriz
de probabilidades de transição - definindo-se a matriz de probabilidade como
55Cadeias de Markov discretas
- Considerando-se a relação
- obtém-se que
- com
56Cadeias de Markov discretas
- Resolvendo-se as equações obtém-se as
probabilidades em estado de equilíbrio -
57Cadeias de Markov de tempo contínuo
58Cadeias de Markov detempo contínuo
- Definição uma cadeia de Markov de tempo contínuo
é um processo aleatório em que, dado o estado
presente, o valor do processo no futuro não
depende do passado. - É como uma cadeia de Markov discreta, com a
diferença de que o tempo de permanência em um
estado é uma variável aleatória com distribuição
exponencial.
59Cadeias de Markov detempo contínuo
- Evolução a partir de um estado
taxa média de saída do estado i para o
estado j taxa média de saída do estado i para
o estado k probabilidade de transitar do
estado i ao estado j, no momento da transição
Pij
60Cadeias de Markov detempo contínuo
- Definição
- tij (tik) tempo de permanência no estado i antes
de transitar para j (k), caso passe para j(k). - tij e tik são variáveis aleatórias com
distribuição exponencial de parâmetros?? ij e ?
ik respectivamente. - Seja t o tempo de
permanência no estado i. Do anterior se deduz que
t min tij , tik
t se distribui exponencialmente com parâmetro (?
ij? ik)
61Cadeias de Markov detempo contínuo
- Propriedades
- O tempo de permanência em um estado é Markoviano
(processo sem memória) - A escolha do próximo estado se efetua no instante
da transição e só depende do estado atual e não
do passado, portanto é Markoviano.
62Cadeias de Markov detempo contínuo
- Dado que o tempo de permanência em qualquer
estado e a escolha do próximo estado são
Markovianos, então tem-se uma cadeia de Markov de
parâmetro contínuo. - As variáveis aleatórias tempo de permanência no
estado i e próximo estado visitado são
independentes.
63Cadeias de Markov detempo contínuo
Um processo aleatório X(t) é uma cadeia de Markov
de tempo contínuo se
64Cadeias de Markov detempo contínuo
- Exemplo processo de Poisson
j-i chegadas
- N(t) estado no instante t
- N(t) número de chegadas até t
65O que é resolver uma cadeia de Markov?
- É encontrar as probabilidades de transição de
qualquer estado i a qualquer estado j em um dado
instante. - Para resolver este problema se utilizará o
princípio do balanço global
66Princípio de balanço global
. . .
. . .
67Princípio de balanço global
Definições
- ?k probabilidade em regime estacionário de
estar no estado k - Outra interpretação fração de tempo que o
sistema fica no estado k.
Unidade de tempo
Unidade de tempo
68Princípio de balanço global
Definições
- ?k(t) probabilidade de estar no estado k no
instante t - ?ki taxa média de transição do estado k para o
estado i - ?k ?ki número médio de transições do
estado k ao estado i, por unidade de tempo.
69Princípio de balanço global
. . .
. . .
Número médio de entradas de qualquer estado k ao
estado i em ?t
número médio de saídas do estado i a qualquer
estado j em ?t
70Princípio de balanço global
- Número de entradas totais ao estado i em??t
- Número de saídas totais desde o estado i em ?t
71Princípio de balanço global
Entradas líquidas médias por unidade de tempo (EN)
número médio de entradas totais por unidade de
tempo
número médio de saídas totais por unidade de tempo
-
- Considerando-se o número de entradas líquidas em
um intervalo ?t, se tem que
72Princípio de balanço global
- O número de entradas líquidas em ?t pode ser
interpretado como
Unidade de tempo
73Princípio de balanço global
- Usando-se novamente o balanço de fluxos
número de entradas totais em ?t
número de saídas totais em ?t
Variação do tempo de permanência no estado i, por
unidade de tempo
-
- Esta variação pode expressar-se em forma da
equação de diferenças
(1)
74Princípio de balanço global
(2)
- Tomando-se o limite em (2)
(3)
Equação de balanço global para o estado i
75Princípio de balanço global
- Equação de balanço global para um estado i
qualquer
- Pode-se reescrever em forma vetorial da seguinte
maneira
76Princípio de balanço global
77Equações de balanço global
- O conjunto das equações de balanço global pode
expressar-se em forma matricial como
Além disso, sempre
Equações de balanço global
78Equações de balanço global
- Em estado estacionário se tem que
fluxo de entrada fluxo de saída
Equações de balanço global em estado
estacionário
79Equações de balanço global
- Os conjuntos de equações anteriores servem para
resolver tanto a situação transiente como
estacionária da cadeia de Markov. Isto é, nos
permite encontrar as probabilidades de transição
de qualquer estado i a qualquer estado j num
intervalo t qualquer (Pij(t)).
80Exemplo Cadeia de Markov de dois estados
- Uma máquina funciona uma quantidade de tempo
exponencialmente distribuída com média
1/???Quando falha??se repara com a mesma
distribuição em um tempo médio 1/?. Inicialmente,
a máquina encontra-se funcionando. - Deseja-se determinar a probabilidade de que a
máquina esteja funcionando em um instante t dado.
Inicialmente a máquina se encontra operacional.
81Exemplo Cadeia de Markov de dois estados
Em reparo
82Exemplo Cadeia de Markov de dois estados
- Equações de balanço global estabelecem que
- Forma escalar da equação anterior é
83Exemplo Cadeia de Markov de dois estados
(4)
(5)
(6)
84Exemplo Cadeia de Markov de dois estados
- Resolvendo (4), (5) e (6), obtém-se
85Exemplo Cadeia de Markov de dos estados
- Resolvendo em estado estacionário, obtém-se
(7)
(8)
(9)
86Exemplo Cadeia de Markov de dois estados
- Resolvendo (7), (8) e (9), obtém-se
Também pode chegar-se a este resultado através
das equações em estado transiente, fazendo tender
o parâmetro t a infinito.
87Exemplo Cadeia de Markov de dois estados
Gráfico de ?0 com ?4
?0
?2
?5
?7
t
88Exemplo Cadeia de Markov de dois estados
Gráfico de ?0 com ?4
?0
?7
?5
?2
t
89Exemplo Cadeia de Markov de dois estados
Gráfico de ?1 com ?4
?1
?7
?5
?2
t
90Exemplo Cadeia de Markov de dois estados
Gráfico de ?1 com ?4
?1
?2
?5
?7
t
91Problema 1
- Seja uma cadeia de Markov de três estados como se
ilustra na figura
?01
?10
?20
?02
Dado que acontece uma transição do estado 0,
determinar a probabilidade de que esta transição
seja para o estado 1.
92Problema 1
- Define-se
- t01 tempo de permanência no estado 0 antes de
transitar para o estado 1, caso transite para o
estado 1 - t02 tempo de permanência no estado 0 antes de
transitar para o estado 2, caso transite para
o estado 2 - A probabilidade pedida é equivalente à
probabilidade de que a transição para o estado 1
ocorra antes da transição para o estado 2.
93Problema 1
94Problema 1
- Estendendo o resultado anterior, para qualquer
número de estados, se tem que
- onde
- Pij probabilidade de transitar do estado i para
o estado j, dado que acontece uma transição - ?ik taxa média de saída do estado i para o
estado k
95Problema 2
- Dado que aconteceu uma transição do estado i,
qual é a probabilidade de que o próximo estado
seja i ?
Sabe-se que
Além disso
96Problema 2
97Problema 3
- Dado que no instante zero o sistema está no
estado i, qual é a probabilidade de permanecer
neste estado até o instante t?
Ppermanecer em estado i até t 1 - Psair do
estado i até t
Dado que o tempo de permanência é exponencial
Portanto
Psair do estado i até t
Ppermanecer no estado i até t