Teoria das filas - PowerPoint PPT Presentation

About This Presentation
Title:

Teoria das filas

Description:

Title: Distribuci n de Bernoulli Author: Administraci n de Redes Last modified by: Celso Created Date: 4/10/1998 7:27:52 PM Document presentation format – PowerPoint PPT presentation

Number of Views:109
Avg rating:3.0/5.0
Slides: 98
Provided by: Admini63
Category:
Tags: das | filas | futuro | proximo | teoria

less

Transcript and Presenter's Notes

Title: Teoria das filas


1
Teoria das filas

2
Introdução
  • Por que aparecem as filas?
  • Não é eficiente, nem racional, que cada um
    disponha de todos os recursos individualmente.
    Por exemplo
  • que cada pessoa disponha do uso exclusivo de uma
    rua para se movimentar
  • que cada pessoa tenha um supermercado para o seu
    abastecimento exclusivo
  • Recursos limitados devem ser compartilhados.

3
Introdução
  • Ao compartilhar recursos, pode acontecer que no
    momento em que se queira fazer uso de um recurso,
    este esteja ocupado,
  • necessidade de esperar
  • aparecem as filas
  • Exemplo nos sistemas de fluxo pode acontecer a
    formação de filas

4
Sistemas de fluxo
  • Um fluxo é o movimento de alguma entidade através
    de um ou mais canais de capacidade finita para ir
    de um ponto a outro.
  • Capacidade finita significa que o canal só pode
    satisfazer a demanda a uma taxa finita.
  • Exemplos
  • fluxo de automóveis (entidades) através de uma
    rede de caminhos (canais)
  • transmissão de mensagens telefônicas (entidades)
    através da rede (canal)

5
Sistemas de fluxo
  • Se dividem em duas classes
  • Determinísticos sistemas no qual o comportamento
    da demanda de serviço é totalmente previsível,
    isto é, a quantidade de demanda é exatamente
    conhecida sobre o intervalo de interesse.
  • Aleatório não é possível predizer como vai se
    comportar a demanda de serviço, por exemplo, o
    instante de chegada de uma demanda é imprevisível.

6
Sistemas de fluxo
  • Exemplo de fluxo determinístico
  • Seja r a taxa de chegada (constante) de pacotes
    em uma rede de comutação a um buffer.
  • Seja c a taxa (constante) com que esses pacotes
    são processados em cada nó.
  • Se r gt c, o buffer do nó é inundado com pacotes,
    já que o número de pacotes em espera de serviço
    crescerá indefinidamente.
  • Se r lt c, se tem um fluxo estável, o número de
    pacotes em espera de serviço é finito.

7
Sistemas de fluxo
  • Exemplo de fluxo aleatório
  • Um centro de computação em que as solicitações de
    impressão podem chegar em instantes
    imprevisíveis.
  • Quando um trabalho de impressão chega, pode ser
    que o servidor esteja atendendo outro e seja
    necessário esperar.
  • Se está desocupado, pode atender imediatamente à
    nova solicitação de impressão até que esta fique
    completa.

8
Teoria das filas
  • Representação de uma fila

9
Teoria das filas
  • Notação de Kendall para descrever uma fila
  • A/B/C/K/m/Z

10
Teoria das filas
  • Notação de Kendall para descrever uma fila
  • A/B/C/K/m/Z

distribuição do tempo entre chegadas
  • Alguns valores de A mais comuns
  • M denota distribuição exponencial equivalente
    (M provém de Markoviano)
  • G distribuição geral
  • D representa um tempo fixo (determinístico)

11
Teoria das filas
  • Notação de Kendall para descrever uma fila
  • A/B/C/K/m/Z

distribuição do tempo entre chegadas
  • Alguns valores de B mais comuns
  • M denota distribuição exponencial equivalente (M
    provém de Markoviano)
  • G distribuição geral
  • D representa um tempo fixo (determinístico)

distribuição do tempo de serviço
12
Teoria das filas
  • Notação de Kendall para descrever uma fila
  • A/B/C/K/m/Z

distribuição do tempo entre chegadas
número de servidores
distribuição do tempo de serviço
13
Teoria das filas
  • Notação de Kendall para descrever uma fila
  • A/B/C/K/m/Z

distribuição do tempo entre chegadas
  • K é omitido quando
  • K ?

número de servidores
distribuição do tempo de serviço
número máximo de clientes permitidos no sistema
14
Teoria das filas
  • Notação de Kendall para descrever uma fila
  • A/B/C/K/m/Z
  • m se omite quando
  • m ?

distribuição do tempo entre chegadas
número de servidores
tamanho da população
distribuição do tempo de serviço
número máximo de clientes permitidos no sistema
15
Teoria das filas
  • Notação de Kendall para descrever uma fila
  • A/B/C/K/m/Z

disciplina de serviço
distribuição do tempo entre chegadas
número de servidores
tamanho da população
distribuição do tempo de serviço
número máximo de clientes permitidos no sistema
  • Z se omite quando
  • ????? FIFO

16
Teoria das filas
  • Notações usadas nos sistemas de filas
  • Ci i-ésimo usuário que entra ao sistema.
  • ri tempo de chegada de Ci
  • ti tempo entre as chegadas de Ci-1 e Ci (ti ri
    - ri-1)
  • A(t) distribuição do tempo entre chegadas
    Pti?t
  • xi tempo de serviço para Ci
  • B(x) distribuição do tempo de serviço Pxi ?x
  • wi tempo de espera na fila de Ci
  • se tempo no sistema (fila mais serviço) de Ci
    (se wi xi)

17
Teoria das filas
  • Notação de filas em diagrama temporal

Servidor
Fila
Ci Ci1
Ci2
18
Teoria das filas
  • Notações usadas nos sistemas de filas (cont.)
  • Ek estado do sistema (normalmente corresponde ao
    número de usuários no sistema)
  • ?k?taxa média de chegada dos usuários ao sistema,
    quando este se encontra no estado k
  • ?k taxa média de serviço quando o sistema se
    encontra no estado k

19
Teoria das filas
  • Outros parâmetros de uma fila
  • N(t) número de usuários no sistema no instante t
  • L Ek número médio de usuários no sistema
    (em estado estacionário)
  • LQ número médio de usuários na fila (em estado
    estacionário).
  • T Es tempo médio de permanência de um
    usuário no sistema Ek/? (fórmula de Little)

20
Cadeias de Markov discretas

21
Cadeias de Markov discretas
  • Markov estabeleceu uma simples e útil relação
    entre as variáveis aleatórias que forman
    processos estocásticos

22
Definições
  • Estado se Xn i diz-se que o processo está no
    estado i no instante n, onde Xn, n0,1,2... é
    um processo estocástico que passa por um número
    finito ou contável de possíveis estados.
  • Transição a transição de um estado a outro
    depende somente do estado atual, e não da
    história do processo

23
Observações
  • No caso das cadeias discretas de Markov, os
    instantes de tempo nos quais a transição entre um
    estado e outro acontecem podem asumir apenas
    valores inteiros 0, 1, 2..., n. Em outras
    palavras, o tempo é discretizado.
  • Os processos devem permanecer num estado
    determinado durante um tempo que deve estar
    geométricamente distribuído.

24
Observações
  • Propriedade Markoviana
  • PXn1 j Xn i, Xn-1 in-1,... X0 i0
  • PXn1 j Xn i Pij ? 0
  • Interpretação (sistema sem memória)
  • A transição de um estado para outro só depende
    do estado atual, e não da história do processo.

25
Cadeias de Markov discretas
Xn denota a cidade na qual encontra-se o turista
ao meio-dia no dia n
X1
X2
X3
X4
X5
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
26
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
27
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
28
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
29
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
...
1
2
3
4
5
Continuarei mais ao Norte?
t
30
Cadeias de Markov discretas
  • Da minha viagem,n posso lhes dizer que
  • Nos processos de Markov, o estado atual do
    sistema e as probabilidades de transição entre os
    diversos estados caracterizam o comportamento
    futuro do sistema.
  • Já que um processo de Markov está num estado
    determinado, seu comportamento futuro não depende
    de sua história antes de chegar a esse estado.

31
Definições
  • Cadeias de Markov são processos estocásticos
    X(t) que satisfazem
  • pij probabilidade de transição do estado i para
    o estado j depende somente do estado i
  • Ppij matriz de probabilidade de transição
  • tempo em que o processo permanece no
    estado i, sem memória

32
Exemplo
  • Considerando-se apenas o trajeto
    Santiago-Valparaíso-Serena, tem-se graficamente

(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
33
(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
  • Números nos arcos dão a probabilidade pij do
    viajante ser recolhido por um carro
  • Probabilidade do viajante permanecer em Serena
    até o dia seguinte é 1/2
  • Números entre parênteses usados posteriormente

34
(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
  • Matriz de probabilidades de transição

35
Definições
  • Num processo de Markov, se diz que um estado Sj é
    transiente se, de algum estado Sk que pode ser
    alcançado desde Sj, o sistema não pode voltar a
    Sj. A probabilidade de não voltar a si mesmo
    existe.

1
3
2
Estados 1 e 2 são transientes
36
Definições
  • Se diz que um estado é recorrente se de cada
    estado Sk alcançável a partir de Sj, o sistema
    pode voltar a Sj.

1
3
2
Estados 1, 2 e 3 são recorrentes
37
Cadeias de Markov discretas
  • Exemplo 1 predição do tempo
  • Dois estados possíveis
  • 0 chuva
  • 1 não chuva
  • Hipótese o tempo amanhã só depende de hoje
    (processo sem memória)
  • Chove hoje ? probabilidade de chover amanhã ?
  • Não chove hoje ? probabilidade de chover amanhã
    ?

38
Cadeias de Markov discretas
  • Cadeia de Markov fica definida por

0
1
0
1
Graficamente
1
0
39
Cadeias de Markov discretas
  • Exemplo 2 transformar um processo não-
    Markoviano em Markoviano (às vezes é possível)
  • Considere-se um elevador em um prédio de três
    andares

Estados
Andar 3
Andar 2
Andar 1
40
Cadeias de Markov discretas
  • Processo não-Markoviano, porque no estado 2 é
    necessária a informação do estado anterior (1 ou
    3) para saber qual será a direção do elevador.
  • Para que o processo seja Markoviano, se faz
    necessária uma redefinição dos estados.

41
Cadeias de Markov discretas
  • Exemplo 2 transformar um processo
    não-Markoviano em Markoviano (às vezes é
    possível)

Redefinição dos estados
3 Andar 2, sentido abaixo
2 Andar 3, sentido abaixo
1 Andar 2, sentido acima
0 Andar 1, sentido acima
42
Cadeias de Markov discretas
  • Da redefinição obtém-se o novo diagrama de
    estados

1
1
1
0
1
2
3
1
0 andar 1, sentido acima 1 andar 2,
sentido acima 2 andar 3, sentido abaixo
3 andar 2, sentido abaixo
43
Cadeias de Markov discretas
  • Exemplo 2.1 transformar um processo
    não-Markoviano em Markoviano (às vezes é
    possível)
  • Choveu, choveu ? amanhã choverá p0,7
  • Não-choveu, choveu ? amanhã choverá p0,5
  • Choveu, não choveu ? amanhã choverá p0,4
  • Não choveu, não choveu ? amanhã choverá p0,2
  • Usando a definição anterior NÃO é processo de
    Markov

44
Cadeias de Markov discretas
  • Exemplo 2.1 transformar um processo não-
    Markoviano em Markoviano (às vezes é possível)
  • Motivo há contradição precisa-se de informação
    não só do dia presente, mas também do anterior.
  • Redefinição de estados se o estado depende do
    tempo de ontem e hoje então SIM, pode ser
    Markoviano
  • Para transformar um processo não-Markoviano em
    Markoviano (se possível), devem ser redefinidos
    os estados de maneira adequada.

45
Cadeias de Markov discretas
  • Exemplo 2.1 transformar um processo não-
    Markoviano em Markoviano (às vezes é possível)
  • Portanto, se são redefinidos os seguintes
    estados
  • 0 Choveu, choveu
  • 1 Não choveu, choveu
  • 2 Choveu, não choveu
  • 3 Não choveu, não choveu

46
Cadeias de Markov discretas
Estados
0 Choveu, choveu 1 Não choveu, choveu
2 Choveu, não choveu 3 Não choveu, não
choveu
Cadeia de Markov definida pela matriz de
probabilidade de transição
47
Definições
  • ?i probabilidade estacionária de estar no
    estado i
  • ?i(n) probabilidade de estar no estado I no
    instante n
  • ?i(0) probabilidade inicial de estar no
    estado i
  • ?(?0, ?1, ?2, , ?n)
  • Por definição

48
Definições
  • Exemplo
  • Aplicando recursivamente
  • ou

49
Definições
  • Se a cadeia de Markov é irredutível e ergódica,
    então
  • existe e ? é denominada a probabilidade límite
    de P, ou autovetor esquerdo de P.
  • Obtenção de ?

50
Cadeias de Markov discretas
  • Exemplo 3 utilizando o exemplo 1, se a
    probabilidade de que choverá hoje é 0.2 e
  • Qual é a probabilidade incondicional de que
    amanhã choverá?

51
Cadeias de Markov discretas
  • Aplicando o teorema da probabilidade total
  • seja ? a probabilidade incondicional de que
    choverá amanhã.
  • ? P(amanhã choverá hoje choveu)
  • P(amanhã choverá hoje não choveu)

52
Cadeias de Markov discretas
  • Exemplo 4 utilizando o exemplo 1
  • Se e então a
    probabilidade límite de que choverá é

53
Cadeias de Markov discretas
  • Voltando ao exemplo do turista

Me leva?
(1)
Valpo
1/4
3/4
3/4
1/4
1/4
Santiago
(0)
Serena
1/2
(2)
1/4
54
Cadeias de Markov discretas
  • Do diagrama de estados pode obter-se a matriz
    de probabilidades de transição
  • definindo-se a matriz de probabilidade como

55
Cadeias de Markov discretas
  • Considerando-se a relação
  • obtém-se que
  • com

56
Cadeias de Markov discretas
  • Resolvendo-se as equações obtém-se as
    probabilidades em estado de equilíbrio

57
Cadeias de Markov de tempo contínuo

58
Cadeias de Markov detempo contínuo
  • Definição uma cadeia de Markov de tempo contínuo
    é um processo aleatório em que, dado o estado
    presente, o valor do processo no futuro não
    depende do passado.
  • É como uma cadeia de Markov discreta, com a
    diferença de que o tempo de permanência em um
    estado é uma variável aleatória com distribuição
    exponencial.

59
Cadeias de Markov detempo contínuo
  • Evolução a partir de um estado

taxa média de saída do estado i para o
estado j taxa média de saída do estado i para
o estado k probabilidade de transitar do
estado i ao estado j, no momento da transição
Pij
60
Cadeias de Markov detempo contínuo
  • Definição
  • tij (tik) tempo de permanência no estado i antes
    de transitar para j (k), caso passe para j(k).
  • tij e tik são variáveis aleatórias com
    distribuição exponencial de parâmetros?? ij e ?
    ik respectivamente.
  • Seja t o tempo de
    permanência no estado i. Do anterior se deduz que

t min tij , tik
t se distribui exponencialmente com parâmetro (?
ij? ik)
61
Cadeias de Markov detempo contínuo
  • Propriedades
  • O tempo de permanência em um estado é Markoviano
    (processo sem memória)
  • A escolha do próximo estado se efetua no instante
    da transição e só depende do estado atual e não
    do passado, portanto é Markoviano.

62
Cadeias de Markov detempo contínuo
  • Dado que o tempo de permanência em qualquer
    estado e a escolha do próximo estado são
    Markovianos, então tem-se uma cadeia de Markov de
    parâmetro contínuo.
  • As variáveis aleatórias tempo de permanência no
    estado i e próximo estado visitado são
    independentes.

63
Cadeias de Markov detempo contínuo
  • Definição formal

Um processo aleatório X(t) é uma cadeia de Markov
de tempo contínuo se
64
Cadeias de Markov detempo contínuo
  • Exemplo processo de Poisson

j-i chegadas
  • N(t) estado no instante t
  • N(t) número de chegadas até t

65
O que é resolver uma cadeia de Markov?
  • É encontrar as probabilidades de transição de
    qualquer estado i a qualquer estado j em um dado
    instante.
  • Para resolver este problema se utilizará o
    princípio do balanço global

66
Princípio de balanço global
  • Definições

. . .
. . .
67
Princípio de balanço global
Definições
  • ?k probabilidade em regime estacionário de
    estar no estado k
  • Outra interpretação fração de tempo que o
    sistema fica no estado k.

Unidade de tempo
Unidade de tempo
68
Princípio de balanço global
Definições
  • ?k(t) probabilidade de estar no estado k no
    instante t
  • ?ki taxa média de transição do estado k para o
    estado i
  • ?k ?ki número médio de transições do
    estado k ao estado i, por unidade de tempo.

69
Princípio de balanço global
. . .
. . .
Número médio de entradas de qualquer estado k ao
estado i em ?t
número médio de saídas do estado i a qualquer
estado j em ?t
70
Princípio de balanço global
  • Número de entradas totais ao estado i em??t
  • Número de saídas totais desde o estado i em ?t

71
Princípio de balanço global
  • Balanço de fluxos

Entradas líquidas médias por unidade de tempo (EN)
número médio de entradas totais por unidade de
tempo
número médio de saídas totais por unidade de tempo
-
  • Considerando-se o número de entradas líquidas em
    um intervalo ?t, se tem que

72
Princípio de balanço global
  • O número de entradas líquidas em ?t pode ser
    interpretado como

Unidade de tempo
73
Princípio de balanço global
  • Usando-se novamente o balanço de fluxos

número de entradas totais em ?t
número de saídas totais em ?t
Variação do tempo de permanência no estado i, por
unidade de tempo
-
  • Esta variação pode expressar-se em forma da
    equação de diferenças

(1)
74
Princípio de balanço global
  • Dividindo por ?t em (1)

(2)
  • Tomando-se o limite em (2)

(3)
Equação de balanço global para o estado i
75
Princípio de balanço global
  • Equação de balanço global para um estado i
    qualquer
  • Pode-se reescrever em forma vetorial da seguinte
    maneira

76
Princípio de balanço global
  • Definindo-se

77
Equações de balanço global
  • O conjunto das equações de balanço global pode
    expressar-se em forma matricial como

Além disso, sempre
Equações de balanço global
78
Equações de balanço global
  • Em estado estacionário se tem que

fluxo de entrada fluxo de saída
Equações de balanço global em estado
estacionário
79
Equações de balanço global
  • Os conjuntos de equações anteriores servem para
    resolver tanto a situação transiente como
    estacionária da cadeia de Markov. Isto é, nos
    permite encontrar as probabilidades de transição
    de qualquer estado i a qualquer estado j num
    intervalo t qualquer (Pij(t)).

80
Exemplo Cadeia de Markov de dois estados
  • Uma máquina funciona uma quantidade de tempo
    exponencialmente distribuída com média
    1/???Quando falha??se repara com a mesma
    distribuição em um tempo médio 1/?. Inicialmente,
    a máquina encontra-se funcionando.
  • Deseja-se determinar a probabilidade de que a
    máquina esteja funcionando em um instante t dado.
    Inicialmente a máquina se encontra operacional.

81
Exemplo Cadeia de Markov de dois estados
Em reparo
  • Se tem que
  • Condições iniciais

82
Exemplo Cadeia de Markov de dois estados
  • Equações de balanço global estabelecem que
  • Forma escalar da equação anterior é

83
Exemplo Cadeia de Markov de dois estados
  • Portanto

(4)
(5)
(6)
84
Exemplo Cadeia de Markov de dois estados
  • Resolvendo (4), (5) e (6), obtém-se

85
Exemplo Cadeia de Markov de dos estados
  • Resolvendo em estado estacionário, obtém-se

(7)
(8)
(9)
86
Exemplo Cadeia de Markov de dois estados
  • Resolvendo (7), (8) e (9), obtém-se
  • Observação

Também pode chegar-se a este resultado através
das equações em estado transiente, fazendo tender
o parâmetro t a infinito.
87
Exemplo Cadeia de Markov de dois estados
Gráfico de ?0 com ?4
?0
?2
?5
?7
t
88
Exemplo Cadeia de Markov de dois estados
Gráfico de ?0 com ?4
?0
?7
?5
?2
t
89
Exemplo Cadeia de Markov de dois estados
Gráfico de ?1 com ?4
?1
?7
?5
?2
t
90
Exemplo Cadeia de Markov de dois estados
Gráfico de ?1 com ?4
?1
?2
?5
?7
t
91
Problema 1
  • Seja uma cadeia de Markov de três estados como se
    ilustra na figura

?01
?10
?20
?02
Dado que acontece uma transição do estado 0,
determinar a probabilidade de que esta transição
seja para o estado 1.
92
Problema 1
  • Define-se
  • t01 tempo de permanência no estado 0 antes de
    transitar para o estado 1, caso transite para o
    estado 1
  • t02 tempo de permanência no estado 0 antes de
    transitar para o estado 2, caso transite para
    o estado 2
  • A probabilidade pedida é equivalente à
    probabilidade de que a transição para o estado 1
    ocorra antes da transição para o estado 2.

93
Problema 1
  • Portanto

94
Problema 1
  • Estendendo o resultado anterior, para qualquer
    número de estados, se tem que
  • onde
  • Pij probabilidade de transitar do estado i para
    o estado j, dado que acontece uma transição
  • ?ik taxa média de saída do estado i para o
    estado k

95
Problema 2
  • Dado que aconteceu uma transição do estado i,
    qual é a probabilidade de que o próximo estado
    seja i ?

Sabe-se que
Além disso
96
Problema 2
  • Portanto

97
Problema 3
  • Dado que no instante zero o sistema está no
    estado i, qual é a probabilidade de permanecer
    neste estado até o instante t?

Ppermanecer em estado i até t 1 - Psair do
estado i até t
Dado que o tempo de permanência é exponencial
Portanto
Psair do estado i até t
Ppermanecer no estado i até t
Write a Comment
User Comments (0)
About PowerShow.com