Variáveis aleatórias discretas

Sejam {X} uma v.a. discreta e {f\colon{\mathbb R}\rightarrow{\mathbb R}} a função de massa de probabilidade (f.m.p.) para {X}, então

  1. {f(x) > 0} para um subconjunto enumerável de pontos de {{\mathbb R}};
  2. {\sum_x f(x)=1}, em que a soma e sobre todo {x} tal que {f(x)>0};
  3. a função de distribuição acumulada (f.d.a) é {\displaystyle F(x) = \mathop{\mathbb P}(X\leq x) = \sum_{y \leq x} f(y)}, em que a soma e sobre todo {y} tal que {f(y)>0};
  4. {f(x) = P(X=x) = F(x) - F(x-)}.

A f.m.p. caracteriza a distribuição de probabilidades da variável aleatória.

O valor esperado de {X} e a variância de {X} são dados, respectivamente, por

\displaystyle  \mathop{\mathbb E}(X) =\sum_x xf(x) \qquad \mathrm{e} \qquad \sum_x(x-\mathop{\mathbb E}(X))^2f(x)

onde as somas são sobre todo {x} tal que {f(x)>0}.

— Distribuição de Bernoulli —

Na prática, ocorrem muitas situações com experimentos que admitem apenas dois resultados, por exemplo

  1. uma peça é classificada como boa ou defeituosa;
  2. o resultado de um exame médico é positivo ou negativo;
  3. um paciente submetido a um tratamento é curado ou não da doença;
  4. um entrevistado concorda ou não concorda com a afirmação feita;
  5. no lançamento de um dado ocorre ou não ocorre a face “5”.

Nessas situações podemos representar, genericamente, os resultados do experimento com o espaço amostral

\displaystyle \Omega = \{ \mathrm{sucesso}, \mathrm{fracasso}\}

e o modelo probabilístico fica determinado dado {p=\mathop{\mathbb P}(\mathrm{sucesso})}. Esses experimentos recebem o nome de Ensaios de Bernoulli e a v.a. indicadora do evento “sucesso” é uma variável aleatória de Bernoulli com parâmetro {p}.

A notação {X \sim \mathrm{Bernoulli}(p)} indica que {X} é uma v.a. com distribuição de Bernoulli de parâmetro {p}; ela assume dois valores

  • {1} se ocorre sucesso,
  • {0} se ocorre fracasso;

e sua f.m.p. é

\displaystyle \mathrm{be}_p(x) = p^x(1-p)^{1-x} \qquad \forall x\in\{0,1\}

e vale {0} para outros valores de {x}.

A média e a variância de uma v.a. {X\sim \mathrm{Bernoulli}(p)} são dadas por

\displaystyle  \mathop{\mathbb E} (X) = p\;\;\; ~\mathrm{e}~\;\;\;\mathrm{Var}(X) = p(1-p).

Exercício 59 Verifique as fórmulas acima para média e variância de uma v.a. de Bernoulli.

— Distribuição Binomial —

Consideremos {n} repetições independentes de um Ensaio de Bernoulli. Seja {X} o número de sucessos nas repetições.

Exemplo 58 Um dado equilibrado é lançado 3 vezes. Qual é a probabilidade de se obter a face 5 duas vezes? Se {S} denota sucesso, i.e., “ocorre face 5” e {F} denota fracasso, “não ocorrer face 5” então podemos representar o espaço amostral por

\displaystyle \Omega =\{SSS, SSF, SFS, FSS, SFF, FSF, FFS, FFF\}

e {p = \mathop{\mathbb P}(\mathrm{sucesso}) = 1/6} e {1 - p = \mathop{\mathbb P}(\mathrm{fracasso}) = 5/6}. Como podemos determinar, por exemplo, {\mathop{\mathbb P}(X=2)\mathrm{?}} A função de massa de probabilidade é

{x} {f(x)}
{0} {(1-p)^3}
{1} {3p(1-p)^2}
{2} {3p^2(1-p)}
{3} {p^3}

e podemos escrever essa função como {f(x) = \binom{3}{x}p^x(1-p)^{3-x}} para todo {x\in\{0,1,2,3\}}. Assim, {\mathop{\mathbb P} (X = 2) = \binom{3}{2}p^2(1-p)^{3-2} = 0,0694.}

Uma variável aleatória com distribuição binomial de parâmetros {n\in {\mathbb N}} e {p\in(0,1)} é uma v.a. com f.m.p.

\displaystyle \mathrm{Bi}_{n,p}(x) = \binom{n}{x}p^x(1-p)^{n-x}, \qquad \forall x\in\{0,1,2,\dots,n\}

que pode ser vista como o número de sucessos em {n} ensaios independentes de Bernoulli e com mesma probabilidade {p} de sucesso.

De fato, se {Y_1,Y_2,\dots,Y_n} são as v.a. indicadoras de sucesso em cada um dos ensaios, então {X=\sum_{i=1}^nY_i} é a quantidade de sucessos ocorridos.

A notação {X \sim \mathrm{Binomial}(n,p)} indica que {X} é uma v.a. com distribuição binomial com parâmetros {n} e {p}. A média e a variância de {X} são dadas por

\displaystyle \mathop{\mathbb E} (X) = np\;\;\; ~\mathrm{e}~\;\;\; \mathrm{Var}(X) = np(1-p).

Essas duas igualdades podem ser deduzidas da identidade { \mathop{\mathbb E}(X^k) = np \mathop{\mathbb E}\big( (Y+1)^{k-1} \big)} em que {Y \sim \mathrm{Binomial}(n-1,p)}. De fato, usando que {i\binom ni = n\binom{n-1}{i-1}} na segunda identidade abaixo

\displaystyle  \begin{array}{rcl}  \displaystyle \mathop{\mathbb E}(X^k) &=& \sum_{i=0}^n i^k\binom ni p^i(1-p)^{n-i} \\ \displaystyle &=& \sum_{i=1}^n i^{k-1} i\binom ni p^i(1-p)^{n-i} \\ \displaystyle &=& \sum_{i=1}^n i^{k-1} n\binom {n-1}{i-1} p^i(1-p)^{n-i} \\ \displaystyle &=& np\sum_{i=1}^n i^{k-1}\binom {n-1}{i-1} p^{i-1}(1-p)^{n-i} \\ \displaystyle &=& np\sum_{j=0}^{n-1} (j+1)^{k-1}\binom {n-1}{j} p^{j}(1-p)^{n-1-j} \\ \displaystyle &=& np \mathop{\mathbb E}\big( (Y+1)^{k-1} \big). \end{array}

Exercício 60 Verifique as fórmulas para média e variância de uma v.a. binomial (use a identidade dada acima).

Exemplo 59 Numa prova com 12 questões de múltipla escolha, com 3 alternativas, se todas as respostas forem chute, então a função de massa de probabilidade

\displaystyle f(x) = \mathrm{Bi}_{12,\frac 13}(x) =\binom{12}x \left(\frac 13\right)^x \left(\frac 23\right)^{n-x}

tem o seguinte gráfico de barras

A seguir, respectivamente, os gráficos mostram a distribuição nos casos de uma prova com 120 questões e 2 alternativas, uma prova com 120 questões e 3 alternativas e uma prova com 120 questões e 5 alternativas

Usando R:
o primeiro dos gráficos pode ser obtido com o R fazendo

x<-0:12
p=1/3
n=12
plot(x,dbinom(x,n,p),type="h")

A primeira linha diz os valores de {x} pros quais queremos {\mathrm{Bi}_{n,p}(x)}. A segunda e terceira linhas atribuem os parâmetros da distribuição binomial, o parâmetro {p} é {0,5} e {n} é {12}. Podemos usar o único comando

plot(0:12,dbinom(0:12,12,1/3),type="h")

{\texttt{type="h"}} é para o tipo de gráfico com barras. Os outros 3 gráficos acima são dados, respectivamente, por

plot(0:120,dbinom(0:120,120,1/2),type="h")
plot(0:120,dbinom(0:120,120,1/3),type="h")
plot(0:120,dbinom(0:120,120,1/5),type="h")

Exemplo 60 Um equipamento resiste a um teste de choque com probabilidade {3/4}. Qual é probabilidade de que em {4} testes {2} equipamentos sobrevivam ao choque?

\displaystyle \mathrm{Bi}_{4,3/4}(2) = \binom 42 \left(\frac 34 \right)^2 \left(\frac 14 \right)^2 = \frac{27}{128}.

Exemplo 61 Uma febre atinge 25% dos rebanhos. Se {X} animais não ficam doente então

\displaystyle  \mathop{\mathbb P}(X=x) = \mathrm{Bi}_{n,p}(x) = \binom nx (0,75)^x(0,25)^{n-x}

Os indivíduos de rebanhos de vários tamanhos recebem vacina.

população proporção de sadios análise
{n=x=10} {\mathop{\mathbb P}(X=x) = 0,056} se nenhum animal ficar doente, pode ser que a vacina seja eficaz
{n=x=12} {\mathop{\mathbb P}(X=x) = 0,032} se nenhum animal ficar doente, pode ser que a vacina seja eficaz
{n=17,~x=16} {\mathop{\mathbb P}(X\geq x) = 0,0501} se {\leq 1} ficar doente, evidência mais forte de eficácia que 0 doentes em 10
{n=23,~x=21} {\mathop{\mathbb P}(X\geq x) = 0,0492} {\leq 2} doentes em 23 é evidência mais forte que 1 em 17 e 0 em 10 de eficácia

Usando R:
Para {X\sim \mathrm{Binom}(n,p)}, podemos calcular {\mathrm{Bi}_{n,p} (x) = \mathop{\mathbb P}(X\leq x)} em R usando

{\texttt{pbinom(x,n,p)}}

no exemplo acima, para cada linha, respectivamente, os valores são obtidos com

 pbinom(10,10,.75) - pbinom(9,10,.75)
 pbinom(12,12,.75) - pbinom(11,12,.75)
  1 - pbinom(15,17,.75)
  1 - pbinom(20,23,.75)

A primeira linha da tabela também é obtida com

dbinom(10,10,.75) 

e a segunda com

dbinom(12,12,.75)

.

Exemplo 62 Um fabricante garante que seu produto tem uma taxa de itens defeituosos de {3\%}.

Numa seleção de 20 itens a serem inspecionados, qual é a probabilidade de ao menos um ser defeituoso?

Se {X} é a quantidade de itens defeituosos

\displaystyle  \mathop{\mathbb P}(X\geq 1) = 1-\mathop{\mathbb P}(X=0) = 1- \binom{20}0(0,03)^0(0,97)^{20} =0,4562.

Se 10 carregamentos por mês deixam a fabrica e de cada carregamento 20 itens são inspecionados, com que probabilidade 3 carregamentos tem pelo menos um item defeituoso?

\displaystyle \binom{10}3 (0,4562)^3(1-0,4562)^7 = 0,1602.

Seja {X\sim \mathrm{Binomial}(n,p)}. Para {n} e {p} fixos, quando {x} varia de {0} a {n} o valor de {\mathrm{Bi}_{n,p}(x)} cresce monotonicamente e depois decresce monotonicamente. De fato,

\displaystyle  \frac{\mathrm{Bi}_{n,p}(x)}{\mathrm{Bi}_{n,p}(x-1)} = \frac{(n-x+1)p}{(1-p)x} \ \ \ \ \ (25)

que é {\geq 1} se e só se {(n-x+1)p \geq (1-p)x} ou, equivalentemente, {x\leq (n+1)p}.

Proposição 12 Seja {X\sim \mathrm{Binomial}(n,p)}. Para {n} e {p} fixos, quando {x} varia de {0} a {n} o valor de {\mathrm{Bi}_{n,p}(x)} cresce monotonicamente e depois decresce monotonicamente atingindo o máximo quando {x=(n+1)p}.{\Box}

Notemos que o ponto de máximo é aproximadamente o valor médio, o que sugere que os maiores valores de {\mathrm{Bi}_{n.p}} estão em torno da média (reveja os gráficos do exemplo 59).

Exemplo 63 Numa doença rara, um paciente se recupera com probabilidade {0,4}. Em 15 pacientes doentes, seja {X} o número de sobreviventes.

  1. pelo menos {10} sobrevivem.

    \displaystyle  \begin{array}{rcl}  \mathop{\mathbb P}(X\geq 10) &=& 1-\mathop{\mathbb P}(X<10) \\ &=& 1-\sum_{x=0}^9 \binom{15}x (0,4)^x(0,6)^{15-x} = 0,0338. \end{array}

  2. de {3} a {8} pacientes sobrevivam

    \displaystyle  \begin{array}{rcl}  \mathop{\mathbb P}(3\leq X\leq 8) &=& \sum_{x=3}^8 \binom{15}x(0,4)^x(0,6)^{15-x}\\ &=& 0,8779 \end{array}

  3. {X\in (\mu-2\sigma,\mu+2\sigma)}. Usando a desigualdade de Chebyshev

    \displaystyle  \mathop{\mathbb P}\left( \big| X-\mu \big|\geq 2\sigma \right) \leq \frac 14

    portanto {X\in (\mu-2\sigma,\mu+2\sigma)} com probabilidade {3/4}. A v.a. {X} tem média e variância dadas, respectivamente, por {\mu = 6} e {\sigma^2 = 3,6}, portanto com probabilidade {3/4} ~{X} está no intervalo {(2.20,9.89)}.

Usando R:

 
1-pbinom(9,15,0.4)

para o item 1

pbinom(8,15,0.4)-pbinom(2,15,0.4)

para o item 2

Notemos que, no exemplo acima, não foi preciso usar os valores de {\mu} e {\sigma} para derivar o limitante {3/4} para a probabilidade. Isso se deve ao fato de Chebyshev valer pra qualquer distribuição e, por isso, a estimativa não é muito precisa.

Exemplo 64 Numa eleição, seja {p} a fração (desconhecida) da população que vota no candidato {D}. Para simplificar, assumimos que um voto em voto em {D} é ensaio de Bernoulli com parâmetro {p}.

Suponha que são realizadas {n} entrevistas: {V_i \sim \mathrm{Bernoulli}(p)} é a v.a. indicadora do {i}-ésimo voto ser para {D}, para {1\leq i \leq n}. Então

\displaystyle S_n = \sum_{i=1}^n V_i \sim \mathrm{Binomial}(n,p)

é o total de entrevistados a favor de {D}. Ademais, a razão {\frac{S_n}n} é uma estimativa para {p}.

Queremos determinar {n} para obtermos uma estimativa para {p} com erro de 4 pontos percentuais com pelo menos 95% de certeza (grau de confiança). i.e.,

\displaystyle  \mathop{\mathbb P} \left( \left | \frac{S_n}n -p \right| \geq 0,04 \right) < 0,05.  \ \ \ \ \ (26)

Usando a desigualdade de Chebyshev (17),

\displaystyle  \mathop{\mathbb P} \left( \left | {S_n} - np \right| \geq 0,04n \right) \leq \frac{np(1-p)}{ 0,0016n^2} \leq \frac 1{4\cdot0,0016\cdot n}

e fazendo o lado direito igual a {0,05} e resolvendo para {n} obtemos {n=3125} entrevistas para que {S_n/n} estime {p} dentro dos parâmetros de exigência. Acontece, que Chebyshev é uma desigualdade fraca devido a sua generalidade com respeitos às v.a.’s, ela não usa nenhuma particularidade da distribuição binomial que, pela proposição anterior, parece estar bem concentrada em torno da média.

A eq. (26) equivale a

\displaystyle  \mathop{\mathbb P} \left( \frac{S_n}n \leq p - 0,04\right) + \mathop{\mathbb P} \left( \frac{S_n}n \geq p + 0,04\right) < 0,05

e a soma a esquerda da desigualdade é

\displaystyle  F_{S_n}\big( (p-0,04)n \big) + F_{S_n}\big( ((1-p)-0,04)n \big)

que é máxima para {p=0,5} para todo {n} fixo, portanto

\displaystyle  \begin{array}{rcl}  \mathop{\mathbb P} \left( \frac{S_n}n \leq p - 0,04\right) + \mathop{\mathbb P} \left( \frac{S_n}n \geq p + 0,04\right) &\leq& F_{S_n}\big( (0,5-0,04)n \big) + F_{S_n}\big( (0,5-0,04)n \big) \\ &=& 2F_{S_n}\big( 0,46n \big) \end{array}

que é menor que {0,05} para {n\geq 624}.

Usando R:

 n<-500:1000
 plot(n,2*pbinom(.46*n,n,1/2),type="h")

Essa estimativa é bem próxima a de dados reais. Informações obtidas no sítio do IBOPE referentes ao 1º turno das eleições municipais de 2008 exibem a seguinte quantidade de entrevistados de acordo como o erro e o grau de confiança:

— Distribuição de Poisson —

A notação X \sim \mathrm{Poisson}(\lambda) indica que {X} é uma v.a. com distribuição de Poisson com parâmetro {\lambda >0}, a qual assume valores no conjunto dos naturais com f.m.p. dada por

\displaystyle  \mathrm{Po}_\lambda(x) = \frac{\mathrm{e}^{-\lambda}\lambda^x}{x!}, \qquad \forall x\in\mathbb{N}.

A média e a variância de { X \sim \mathrm{Poisson}(\lambda)} é

\displaystyle \mathop{\mathbb E} (X) = \mathrm{Var}(X) = \lambda.

Exercício 61 Use que {\displaystyle \sum_{j\geq 0} \frac{\lambda^j}{j!} = \mathrm{e}^\lambda} para provar que {\mathop{\mathbb E}(X) = \lambda}. Prove que {\mathop{\mathbb E}(X^2) = \lambda (\lambda+1)}. Conclua que {\mathrm{Var}(X) = \lambda}.

Ocasiões em que aparecem uma variável aleatória de Poisson são aquelas em que, geralmente, estamos interessados no número de eventos que ocorrem em um intervalo fixo de tempo (ou numa região de área fixa, ou de volume fixo) se esses eventos ocorrem com uma taxa média conhecida e independentemente do tempo desde a última ocorrência. Por exemplo,

  1. o número de erros de impressão numa página de livro;
  2. o número de chamadas que chega a uma central telefônica;
  3. o número de partículas {\alpha} descarregadas por um material radioativo em um período fixo de tempo;

o que é justificado pelo seguinte. Suponha que em {n} ensaios independentes de Bernoulli com probabilidade de sucesso {p=p(n)} a taxa média de sucesso é {\lambda = np}. A probabilidade de {x} sucessos é {\mathrm{Bi}_{n,p}(x) = \mathop{\mathbb P}(X=x)}, para {X\sim\mathrm{Binomial}(n,p)}.

Para {x=0}

\displaystyle \mathrm{Bi}_{n,p}(0) = (1-p)^n = \left( 1 -\frac\lambda{n}\right)^n

portanto, para {n} suficientemente grande {\mathrm{Bi}_{n,p}(0) \approx \mathrm{e}^{-\lambda}} (pela definição de {\mathrm{e}} como limite de uma sequência). Agora, usando (25) podemos concluir que

\displaystyle  \begin{array}{rcl}  \mathrm{Bi}_{n,p}(1) \approx& \mathrm{Bi}_{n,p}(0)\lambda &\approx \lambda \mathrm{e}^{-\lambda}\\ \mathrm{Bi}_{n,p}(2) \approx& \mathrm{Bi}_{n,p}(1)\lambda/2& \approx (\lambda^2/2) \mathrm{e}^{-\lambda}\\ \mathrm{Bi}_{n,p}(3) \approx& \mathrm{Bi}_{n,p}(2)\lambda/6 &\approx (\lambda^3/3!) \mathrm{e}^{-\lambda} \end{array}

o que podemos estender usando indução para

\displaystyle \mathrm{Bi}_{n,p}(x) \approx \frac{\lambda^x\mathrm{e}^{-\lambda}}{x!} =\mathrm{Po}_\lambda(x)

que é conhecido como a aproximação de Poisson para a distribuição binomial; em resumo fixado {\lambda} e fixado {x}, se {X_n\sim \mathrm{Binomial}(n,\lambda/n)} e {Y\sim \mathrm{Poisson}(\lambda)}, então

\displaystyle  \lim_{n\rightarrow\infty} \mathop{\mathbb P}(X_n=x) = \mathop{\mathbb P}(Y=x)

e uma prova pode ser vista aqui.

Exemplo 65 Um telefone recebe em média 5 chamadas por minuto. Supondo que a distribuição de Poisson seja um modelo adequado para essa situação, qual a probabilidade com que o telefone não receba chamadas durante um intervalo de 1 minuto?

\displaystyle  \mathrm{Po}_5(0) = \frac{5^0\mathrm{e}^{-5}}{0!} = 0,0067

Usando R:

plot(0:20,dpois(0:20,5),type="h")

desenha o gráfico acima e \mathrm{Po}_5(0) é dado por

dpois(0,5)

Exemplo 66 O número de partículas que contaminam a superfície de um CD no processo de fabricação tem distribuição de Poisson. O número médio de partículas é {0,1} {\mathrm{particulas}/\mathrm{cm}^2} e a área de um CD é {100\mathrm{cm}^2}. Seja {X} o número de partículas num CD; {X\sim \mathrm{Poisson}(10)}.

  1. a probabilidade de ter 12 partículas é

    \displaystyle  \mathop{\mathbb P}(X=12)=\frac{\mathrm{e}^{-10}10^{12}}{12!} = 0,095

  2. a probabilidade de ter 0 partículas é

    \displaystyle  \mathop{\mathbb P}(X=0) = \frac{\mathrm{e}^{-10}10^0}{0!} = 4,54\times 10^{-5}

  3. a probabilidade de ter {\leq 12} partículas é

    \displaystyle  \mathop{\mathbb P}(X\leq 12) = \sum_{x\leq 12} \frac{\mathrm{e}^{-10}10^x}{x!} = 0,792

Usando R:

dpois(12,10)

ou

 ppois(12,10) - ppois(11,10)

para item 1

ppois(12,10)

para o item 3

plot(0:20,dpois(0:20,10),type="h")

para o gráfico?

Exemplo 67 Suponha que essas notas tenham erros tipográficos por página que segue uma distribuição de Poisson com {\lambda=1/2}. Qual é a probabilidade de haver pelo menos um erro nessa página? Se X é a quantidade de erros por página

\displaystyle \mathop{\mathbb P}(X\geq 1) = 1-\mathop{\mathbb P}(X=0)=1-\mathrm{e}^{-1/2}\approx 0,393.

Exemplo 68 Um analisador conta um número médio de {4} partículas por milésimo de segundo. Com que probabilidade um dado milésimo de segundo o contador contará {6} partículas?

\displaystyle \mathrm{Po}_4(6) = \frac{\mathrm{e}^{-4}4^6}{6!}=0,1042.

Usando a desigualdade de Chebyshev (17) a probabilidade do evento {X\in(\mu-2\sigma, \mu+2\sigma)}, em que X é o número de partículas num determinado milésimo é

\displaystyle \mathop{\mathbb P}( 0\leq X\leq 4) \geq \frac 34.

Exercício 62 Prove que a f.m.p. de {X\sim\mathrm{Poisson}(\lambda)} satisfaz {\mathrm{Po}_\lambda(x+1)= \frac{\lambda}{x+1} \mathrm{Po}_\lambda(x)}.

— Distribuição Hipergeométrica —

Uma v.a. com distribuição hipergeométrica com parâmetros {n,a,s} tem f.m.p.

\displaystyle  \mathrm{H}_{n,a,s}(x) = \frac{\binom ax \binom{n-a}{s-x}}{\binom ns}, \qquad \qquad \forall x\in\Big\{\max\{0,s-(n-a)\},\dots,\min\{a,n\}\Big\}.

A média e a variância de uma v.a. hipergeométrica são dadas por

\displaystyle  \mathop{\mathbb E} (X) = sp \qquad \mathrm{e} \qquad \mathrm{Var}(X) = sp(1-p)\frac{n-s}{n-1}

em que {p=\frac{a}{n}}. A prova dessas fórmulas é similar à prova para v.a. binomial, segue da identidade {\mathop{\mathbb E}(X^k) = \frac{sa}{n} \mathop{\mathbb E}((Y+1)^k)} em que {Y} é uma v.a. hipergeométrica com parâmetros {n-1,a-1,s-1}.

Exercício 63 Mostre as identidades

\displaystyle  i\binom ai = a\binom {a-1}{i-1} \quad \textrm{ e } \quad s \binom ns = n \binom {n-1}{a-1}

e obtenha delas a identidade {\mathop{\mathbb E}(X^k) = \frac{as}{n} \mathop{\mathbb E}\big((Y+1)^k\big)}. Em seguida, deduza as igualdade para média e variância.

Uma coleção de {n} objetos contém

  1. {a} objetos azuis,
  2. {n-a} objetos vermelhos.

Uma amostra com {s} elementos é selecionada. Qual a probabilidade da amostra conter {x} ({x\leq a}) bolas azuis? O número de bolas azuis é uma v.a. hipergeométrica.

Exemplo 69 Qual a probabilidade de acertar 4 dos 6 números sorteados na mega-sena? Os parâmetros são {a=s=6} e {n=60}, logo

\displaystyle  \mathrm{H}_{60,6,6}(4) = \frac{\binom {6}{4} \binom {54}{2}}{\binom{60}{6}} = 0,0004287524.

Usando R:
{\mathrm{H}_{n,a,s}(x)} é calculado com

{\mathtt{dhyper(x,a,n-a,s)}}

Nesse exemplo

dhyper(4,6,54,6)

Exemplo 70 Um comprador de componentes elétricos compra os componentes em lote de 10. A política de controle de qualidade é inspecionar 3 componentes escolhidos aleatoriamente e comprar o lote somente se os 3 não apresentarem defeitos. Se 30% dos lotes têm 4 componentes com defeito e 70% apenas 1, qual é a proporção de lotes rejeitados? Consideremos os eventos: {A\equiv} “aceita um lote” e {B\equiv} “lote com 4 peças com defeito”.

\displaystyle  \begin{array}{rcl}  \mathop{\mathbb P} (A) = \mathop{\mathbb P} (A~|~B) \mathop{\mathbb P}(B) + \mathop{\mathbb P}(A~|~\overline B)\mathop{\mathbb P}(\overline B) = \frac{\binom {4}{0} \binom {6}{3}}{\binom{10}{3}} \frac {3}{10} + \frac{\binom {1}{0} \binom {9}{3}}{\binom{10}{3}} \frac {7}{10} = \frac{54}{100}. \end{array}

Exemplo 71 Um produto é distribuído em lotes de 40 unidades. Um lote é inaceitável se três ou mais itens apresentam defeito. O departamento de controle de qualidade de um comprador adotou o plano de selecionar 5 itens e rejeitar o lote se um item inspecionado for defeituoso.

Num lote com 3 itens defeituosos, a probabilidade de haver um defeituoso numa amostra de 5 é

\displaystyle  H_{40,3,5}(1) = \frac{\binom{3}{1}\binom{37}{4}}{\binom{40}{5}} =0,3017

ou seja, detecta um lote ruim em apenas 30% dos casos. Como já vimos, se {X} é o número de itens defeituosos na amostra, então {X\in (\mu-2\sigma,\mu+2\sigma)} com probabilidade pelo menos {3/4}, pela desigualdade de Chebyshev. Nesse caso {\mu = 0,375} e {\sigma = 0,558} e temos então que menos que 2 itens em 5 são defeituosos com probabilidade {\geq 3/4}, ou seja, em 75% dos casos.

Exemplo 72 (Estimativa de máxima verossimilhança) Num lago 1000 peixes foram capturados, marcados e devolvidos. Uma nova captura de 1000 peixes é feita 100 deles estão marcados. O que pode ser dito a respeito do tamanho da população de peixes no lago?

A probabilidade do evento em função do número (desconhecido) de peixes desmarcados tem gráfico de barras


olhando mais de perto


sugere uma população de aproximadamente 9.000 + 1.000 peixes (máxima verossimilhança — estimativa que maximiza a probabilidade do evento ocorrido, aqui essa estimativa por ser feita de modo análogo a (25)).

— Outras distribuições —

Uma v.a. com distribuição geométrica com parâmetro {p} tem f.m.p. dada por

\displaystyle  \mathrm{G}_p(x) = (1-p)^{x-1}p, \qquad \forall x\in\{1,2,\dots\}

que correspondente ao número de ensaios de Bernoulli independentes com parâmetro {p} até ocorrer um sucesso. A notação {X \sim \mathrm{Geometrica}(p)} indica que {X} é uma v.a. geométrica com parâmetro {p}. A média e a variância de {X} são

\displaystyle  \mathop{\mathbb E} (X) = \frac 1p \;\;\; ~\mathrm{e}~\;\;\; \mathrm{Var}(X) = \frac{(1-p)}{p^2}.

Usando R:
{\mathrm{G}_p(x)} é calculado com

{\mathtt{dgeom(x,p)}}

{F_X(x)} para {X\sim\mathrm{Geometrica}(p)} é calculado com

{\mathtt{pgeom(x,p)}}

Uma v.a. binomial negativa com parâmetros {p} e {r} tem f.m.p. dada por

\displaystyle  \mathrm{NBi}_{p,r}(x) = \binom{x-1}{r-1}p^r(1-p)^{x-r}, \qquad \forall x\in\{r+1,r+2,\dots\}

que correspondente ao número de ensaios de Bernoulli independentes com parâmetro {p} até ocorrer um total de {r} sucessos.

Exercício 64 Mostre que se {X} é v.a. binomial negativa com parâmetros {p} e {r} e {Y} é v.a. binomial negativa com parâmetros {p} e {r+1}, então

\displaystyle  \mathop{\mathbb E}(X^k) = \frac rp \mathop{\mathbb E}\big( (y-1)^{k-1}\big).

Deduza daí a média e a variância de uma v.a. binomial negativa com parâmetros {p} e {r}.

Usando R:
{\mathrm{NBi}_{p,r}(x)} é calculado com

{\mathtt{dnbinom(x,r,p)}}

A f.d.a. {F(x)} é calculado com

{\mathtt{dnbinom(x,r,p)}}

Uma v.a. com distribuição zeta (ou Zipf) com parâmetro {\alpha} tem f.m.p. dada por

\displaystyle  f(x) = \frac{C}{x^{\alpha+1}} , \qquad \forall x\in\{1,2,\dots\}.

A constante é

\displaystyle  C= \left( \sum_{k\geq 1} \left(\frac 1x \right)^{\alpha+1}\right)^{-1}.

A distribuição deve seu nome a função zeta de Riemann e deve-se a George K.~Zipf sua popularização.

Finalmente, {X\sim \mathrm{Uniforme}(k)} se {X} assume valores {x_1,x_2,\dots,x_k} com a mesma probabilidade, a saber {1/k}.

Deixe um comentário