Esperança matemática

Se duas moedas são lançadas 16 vezes e o número de caras por lançamento é {0} em 4 deles, é {1} em 7 deles e é dois em 5 deles, qual é o número médio de caras por lançamento?

\displaystyle  0 \frac 4{16} + 7\frac 1{16} + 2\frac 5{16}

Se {X} é uma v.a. então valor médio (ou valor esperado, ou esperança) da v.a. {X} é dado por

  • se {X} é discreta e assume valores {x_1,x_2,\dots} e tem função de massa de probabilidade {f} então

    \displaystyle  \mathop{\mathbb E}(X) \stackrel{\text{\tiny def}}{=} \sum_{i\geq1}x_if(x_i)  \ \ \ \ \ (13)

    no caso infinito exigimos convergência absoluta, na prática significa que se alterarmos o ordem dos fatores o limite não muda, o que nos permite escrever (verifique a igualdade)

    \displaystyle  \mathop{\mathbb E}(X) = \sum_{\omega\in\Omega}X(\omega)\mathop{\mathbb P}(\omega);  \ \ \ \ \ (14)

  • se {X} é contínua e tem função de densidade de probabilidade {f} então

    \displaystyle  \mathop{\mathbb E}(X)\stackrel{\text{\tiny def}}{=} \int_{-\infty}^{+\infty} xf(x)\,\mathrm{d}x.  \ \ \ \ \ (15)

Exemplo 43 (variável aleatória indicadora) Seja {I_A} variável aleatória indicadora da ocorrência do evento {A}, i.e., {I_A=1} se {A} ocorre e {I_A=0} se {\overline A} ocorre, ou ainda, para todo {\omega\in\Omega}

\displaystyle   I_A(\omega) = \begin{cases} 1 & \text{ se }\omega\in A;\\ 0 & \text{ se }\omega\not\in A.\\ \end{cases} \ \ \ \ \ (16)

Então {\mathop{\mathbb E}(I_A) = \mathop{\mathbb P}(A)}.

Observação 3 (uma justificativa informal para (15)) A definição de valor médio no caso discreto é intuitiva. No caso contínuo podemos justificar, ingenuamente, da seguinte maneira: Sejam {I_n=(y_n,y_{n+1}]}, para todo {n\in{\mathbb Z}}, uma coleção de intervalos centrados em {x_i} que particiona a reta e que, por simplicidade, supomos de mesmo comprimento {\varepsilon}. Definimos a v.a. discreta {Y} sobre o mesmo espaço amostral dada por

\displaystyle Y = \sum_n x_n I_{[X\in I_n]}

que assume os valores {x_n} ({n\in{\mathbb Z}}). Assim {[Y=x_n] = [X\in I_n]} e a esperança de {Y} é

\displaystyle  \mathop{\mathbb E}(Y) =\sum_n x_n\mathop{\mathbb P}(Y=x_n) = \sum_n x_n\mathop{\mathbb P}(X\in I_n).

Notemos que se {\omega \in [X\in I_n]}, então {X\omega\in I_n} e {Y(\omega)=x_n}, logo

\displaystyle \big| Y(\omega) -X(\omega)\big| \leq \frac{ |y_{n+1}-y_n|}2 = \frac\varepsilon 2\quad (\forall \omega\in\Omega).

Portanto, a definição de esperança para a variável {X} deve satisfazer {|\mathop{\mathbb E}(X)-\mathop{\mathbb E}(Y)|\leq \frac\varepsilon 2}, logo {E(X)=\lim \mathop{\mathbb E}(Y)} quando {\varepsilon \rightarrow 0}, i.e.

\displaystyle  \begin{array}{rcl}  \displaystyle \mathop{\mathbb E}(X) &=& \lim_{\varepsilon \rightarrow 0} \sum_n x_n \mathop{\mathbb P}(y_n < X \leq y_{n+1}) \\&=& \displaystyle \lim_{\varepsilon \rightarrow 0} \sum_n x_n (F_X(y_{n+1})-F_X(y_n)) \\&=& \displaystyle \int_{-\infty}^{+\infty} x \,\mathrm{d}F_X \\&=& \displaystyle \int_{-\infty}^{+\infty} x f(x) \,\mathrm{d}x \end{array}

pois {dF_X =f(x)\,\mathrm{d}x}; (lembremos que {F_X'=f}).

Exemplo 44 Seja {X} o resultado de um lançamento de um dado,

\displaystyle  \mathop{\mathbb E} X = 1\frac 16 + 2\frac 16 + 3 \frac 16 + 4 \frac 16 + 5\frac 16 + 6\frac 16 = \frac 72.

Qual a probabilidade {\mathop{\mathbb P}(X=7/2)}?

Exemplo 45 Num jogo de azar você ganha {\$ 1.000.000} com probabilidade {p} e {\$10} com probabilidade {1-p}. O ganho médio de uma aposta é

\displaystyle \mathop{\mathbb E}(Y)= 10^6p+10(1-p).

No caso de {p=1/2}, temos {\mathop{\mathbb E}(Y) = 500.005}, qual é a probabilidade de você ganhar {\$500.000} numa aposta?

Exemplo 46 Num jogo com 3 moedas, você ganha {\$5} se ocorrerem três caras ou {3} coroas, você perde {\$3} se ocorrer uma ou duas caras, se {Y} é o ganho então o ganho médio é

\displaystyle  \mathop{\mathbb E}(Y) = 5\frac 14 - 3\frac 34 =-1.

Exemplo 47 Seja {T} o tempo de vida útil de um equipamento eletrônico. {T} tem f.d.p.

\displaystyle f(t) = \begin{cases} \frac{20.000}{t^3} & \text{ se } t>100\\ 0 & \text{caso contr\'ario.} \end{cases}

O tempo médio de vida é

\displaystyle  \mathop{\mathbb E}(T)= \int_{-\infty}^{+\infty} x\frac{20.000}{x^3}\,\mathrm{d}x = \int_{100}^{+\infty} \frac{20.000}{x^2}\,\mathrm{d}x = 200 \text{ horas.}

O seguinte resultado é muito útil. A prova do caso discreto é bem fácil e fica como exercício, a prova do caso contínuo é difícil e pulamos.

Teorema 9 Seja {X} uma variável aleatório com função de probabilidade {f}. Seja {g} uma função real. Então {g(X)} é uma variável aleatória cuja média é

\displaystyle  \mathop{\mathbb E}(g(X)) = \sum_x g(x)f(x)

onde a soma é sobre todo real {x} tal que {f(x)>0}; caso {X} seja uma v.a.discreta, e cuja média é

\displaystyle  \mathop{\mathbb E}(g(X)) = \int_{-\infty}^{+\infty} g(x)f(x)\,\mathrm{d}x

caso {X} seja uma v.a.contínua.{\Box}

Exemplo 48 Seja {X} o resultado do lançamento de um dado, como no exemplo 44.

\displaystyle  \mathop{\mathbb E}(X^2) = \frac{1+4+9+16+25+36}6 = \frac{91}6.

Notemos que, com o resultado do exemplo 44 podemos concluir que {\mathop{\mathbb E}(X\cdot X) \neq \mathop{\mathbb E}(X)\mathop{\mathbb E}(X)}; em geral não vale {\mathop{\mathbb E}(X\cdot Y) = \mathop{\mathbb E}(X)\mathop{\mathbb E}(Y)} para {X,Y} v.a.’s quaisquer.

Exemplo 49 Seja {X} o número de carros lavados num lava-rápido em 1 hora

{x} {4} {5} {6} {7} {8} {9}
{f(x)} {1/12} {1/12} {1/4} {1/4} {1/6} {1/6}

Para {x} carros lavados o atendente recebe {2x-1} reais do gerente. O ganho médio é

\displaystyle  \mathop{\mathbb E}(2X-1) = \sum_{x=4}^9 (2x-1)f(x) = 12,67.

Exemplo 50 Se {Z} é uma v.a.com f.d.p

\displaystyle  f(x) = \begin{cases} \frac{x^2}3, & \text{ se } -1<x<2\\ 0 & \text{ caso contr\'ario.} \end{cases}

e {g\colon {\mathbb R}\rightarrow {\mathbb R}} é dada por {g(x)=4x+1} então

\displaystyle  \mathop{\mathbb E}(g(Z)) = \mathop{\mathbb E}(4Z+3)= \int_{-1}^2 (4x+3)\frac{x^2}3\,\mathrm{d}x = 8

Corolario 10 Para quaisquer {a,b\in{\mathbb R}} e v.a. {X}

\displaystyle  \mathop{\mathbb E}(aX+b) = a\mathop{\mathbb E}(X) + b.

Demonstração: Usando o teorema anterior com {g(x) = ax+b} temos, no caso discreto, somando-se sobre todo {x\in{\mathbb R}} tal que {f(x)>0}

\displaystyle  \begin{array}{rcl}  \mathop{\mathbb E}(aX+b) &=& \sum_x (ax+b)f(x) = \sum_x ax f(x)+\sum_x bf(x) \\ &=& a\sum_x x f(x)+ b \sum_x f(x) = a\mathop{\mathbb E}(X)+b \end{array}

e no caso contínuo

\displaystyle  \begin{array}{rcl}  \mathop{\mathbb E}(aX+b) &=& \int_{-\infty}^{+\infty} (ax+b)f(x) \, \mathrm{d}x = \int_{-\infty}^{+\infty} ax f(x)\, \mathrm{d}x +\int_{-\infty}^{+\infty} bf(x) \, \mathrm{d}x\\ &=& a \int_{-\infty}^{+\infty} x f(x) \, \mathrm{d}x + b \int_{-\infty}^{+\infty} f(x) \, \mathrm{d}x = a\mathop{\mathbb E}(X)+b. \end{array}

\Box

Exemplo 51 Reconsiderando o exemplo 49, podemos usar o corolário e calcular

\displaystyle \mathop{\mathbb E}(2X-1) = 2\mathop{\mathbb E}(X) -1 = 2\sum_x xf(x) -1 = 2\frac {41}6 -1 = 12,67.

No caso do exemplo 50

\displaystyle  \mathop{\mathbb E}(4Z+3) = 4\mathop{\mathbb E}(Z) + 3 = 4\int_{-1}^2 \frac{x^2}3\,\mathrm{d}x + 3 = 4x^3\Big|_{-1}^2+3=8.

Exemplo 52 Numa urna estão 1 bola branca e 1 bola preta; uma bola é escolhida ao acaso, se for preta ela é devolvida e mais uma bola preta é colocada na urna e o sorteio é repetido, se sair bola branca o experimento termina. Se {X} é o número de rodadas até terminar então \displaystyle{\mathop{\mathbb P}(X=k)= \frac 1{k(k+1)}} e média é {\displaystyle\sum_{k\geq 1} k \frac 1{k(k+1)} = \sum_{k > 1} \frac 1k = \infty} (essa é a série harmônica).

Exemplo 53 Seja {X} uma variável com f.d.p.

\displaystyle f(x) = \begin{cases} \frac{10}{x^2} & \text{ se }x>10\\ 0 & \text{ caso contr\'ario.} \end{cases}

{X} tem esperança

\displaystyle \mathop{\mathbb E}(X) = \int_{10}^\infty x\frac{10}{x^2}\,\mathrm{d}x = \int_{10}^\infty \frac{10}{x}\,\mathrm{d}x = 10\ln(x)\Big|^{\infty}_{10} = \infty

Observação 4 No caso dos dois últimos exemplos dizemos que a variável aleatória não tem esperança finita.

Exercício 44 Prove o caso discreto do teorema acima, i.e., {\mathop{\mathbb E}(g(X)) = \sum_x g(x)f(x)}.

— Variância —

A variância da v.a. {X} é uma medida de quão dispersos estão os valores que a variável assume com relação ao valor médio, é dada pelo valor esperado da v.a. {g(X)=(X-\mathop{\mathbb E}(X))^2}

\displaystyle  \mathrm{Var}(X) \stackrel{\text{\tiny def}}{=} \mathop{\mathbb E}(X-\mathop{\mathbb E}(X))^2= \begin{cases} \displaystyle \sum_x(x-\mathop{\mathbb E}(X))^2f(x) &\textrm{ no caso discreto,}\\ \ &\ \\ \displaystyle \int_{-\infty}^{+\infty}(x-\mathop{\mathbb E}(X))^2f(x)\,\mathrm{d}x &\textrm{ no caso continuo.}\\ \end{cases}

O seguinte exercício fornece um modo, em geral, mais fácil para computar a variância.

Exercício 45 Prove que

\displaystyle \mathrm{Var}(X) = \mathop{\mathbb E}(X^2) - (\mathop{\mathbb E}(X))^2.

O desvio padrão é definido como a raiz quadrada positiva da variância

\displaystyle \sigma_X = \sqrt{\mathrm{Var} (X )}.

Suponhamos que {X} é, por exemplo, a quantidade de refrigerante engarrafada por uma máquina de uma fábrica em {ml} ({\mathrm{mililitros}}). Então {\mathrm{Var}(X)} é a dispersão dos valores de {X} com respeito a média em {ml^2}, o desvio padrão é uma medida de dispersão em {ml}.

Exemplo 54 A variância no valor resultante de um lançamento de dado é (veja os exemplos 44 e 48) {91/6 - 49/4 = 35/12} ({\approx 2,91}). O desvio padrão é {\approx 1,7}.

Exemplo 55 Qual é o valor médio da soma dos pontos no lançamento de dois dados? O espaço amostral é composto por 36 eventos elementares igualmente prováveis

\displaystyle  \begin{array}{rcl}  \Omega = &\Big\{(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), \\ &(2,1), (2,2), (2,3), (2,4), (2,5), (2,6),\\ & (3,1), (3,2), (3,3), (3,4), (3,5), (3,6),\\ & (4,1), (4,2), (4,3), (4,4), (4,5), (4,6),\\ & (5,1), (5,2), (5,3), (5,4), (5,5), (5,6),\\ & (6,1), (6,2), (6,3), (6,4), (6,5), (6,6)\Big\} \end{array}

Se {X} é o resultado da soma dos lançamentos, então sua função de massa de probabilidade é

{x} {f(x)}
{2} {1/36}
{3} {2/36}
{4} {3/36}
{5} {4/36}
{6} {5/36}
{7} {6/36}
{8} {5/36}
{9} {4/36}
{10} {3/36}
{11} {2/36}
{12} {1/36}

O valor esperado da soma é

\displaystyle  \mathop{\mathbb E}(X) = 2(1/36) + 3(2/36) + \cdots + 11(2/36) + 12(1/36) = \frac{252}{36} = 7

e o da variância é

\displaystyle  \begin{array}{rcl}  \mathrm{Var} (X) &=& (2 - 7)^2(1/36) + (3 - 7)^2(2/36) + \cdots \\ &&+ (11- 7)^2(2/36) + (12- 7)^2(1/36)= \frac{210}{36} = 5,83. \end{array}

o desvio padrão vale {2,41}, aproximadamente. Notemos que no intervalo {(\mathop{\mathbb E}(X) -\sigma_X,\mathop{\mathbb E}(X) + \sigma)= \{5,6,7,8,9\}} está concentrado {2/3} da massa de probabilidade.

Exemplo 56 Um canal digital transmite informação em pacotes de 4 bits. Os bit podem ser recebidos com erro e {X} denota o número de bits errados num pacote, com função de distribuição acumulada

\displaystyle  F(x)= \begin{cases} 0 \quad & x< 0 \\ 0,6561 \quad & 0 \leq x < 1 \\ 0,9477 \quad & 1\leq x < 2 \\ 0,9963 \quad & 2\leq x < 3\\ 0,9999 \quad & 3\leq x < 4\\ 1 \quad & 4\leq x \end{cases}

assim,

  • {\mathop{\mathbb P}(X=0) = f(0) = 0,6561 - 0 = 0,6561}
  • {\mathop{\mathbb P}(X=1) = f(1) = 0,9477 - 0,6561 = 0,2916}
  • {\mathop{\mathbb P}(X=2) = f(2) = 0,9963 - 0,9477 = 0,0486}
  • {\mathop{\mathbb P}(X=3) = f(3) = 0,9999 - 0,9963 = 0,0036}
  • {\mathop{\mathbb P}(X=4) = f(4) = 1 - 0,9999 = 0,0001}

e o valor médio do número de bits errados é

\displaystyle  \begin{array}{rcl}  \mathop{\mathbb E}(X) &=& 0\cdot f(0)+1\cdot f(1)+2\cdot f(2)+3\cdot f(3)+4\cdot f(4)\\ &=& 0\cdot 0,6561 + 1\cdot 0,2916 + 2\cdot 0,0486 + 3\cdot 0,0036 +4 \cdot 0,0001\\ &=& 0,4 \end{array}

e a variância

\displaystyle  \begin{array}{rcl}  \mathrm {Var}(X) &=& \sum_{x=0}^4(x - \mathop{\mathbb E}(X))^2f(x) \\ &=& 0,16\cdot 0,6561 + 0,36\cdot 0,2916 + 2,56\cdot 0,0486 + 6,76 \cdot 0,0036 \\&&+ 12,96 \cdot 0,001296 \\&=& 0,36 \end{array}

portanto o desvio padrão é {0,6}.

— Propriedades da esperança —

A esperança de uma variável aleatória satisfaz as seguintes propriedades enunciadas como exercícios. Convém ressaltar que o caso contínuo tem, em geral, maior dificuldade, mas que o caso discreto é simples na maioria dos casos.

Exercício 46 Para {c\in {\mathbb R}} fixado e {X(\omega)=c} ({\forall \omega\in\Omega}), vale {\mathop{\mathbb E}(X)=c} e {\mathrm{Var}(X)=0}.

Exercício 47 Prove que se {\mathop{\mathbb P}(a\leq Z\leq b)=1} então {a\leq \mathop{\mathbb E}(Z) \leq b}.

Exercício 48 Prove que se {X\leq Y} (i.e., {X(\omega)\leq Y(\omega),\;\forall \omega\in\Omega}) então {\mathop{\mathbb E}(X) \leq \mathop{\mathbb E}(Y)}.

Exercício 49 Se {Y} é uma v.a. contínua que assume valores não-negativos então {\mathop{\mathbb E}(Y) = \int_0^\infty \mathop{\mathbb P}(Y > x) \,\mathrm{d}x}. Se além de não-negativa é inteira (portanto discreta), então {\mathop{\mathbb E}(Y) =\sum_{i\geq 1} \mathop{\mathbb P}(Y\geq i)}.

Exercício 50 (soma de variáveis aleatórias) Sejam {X} e {Y} v.a.’s sobre o mesmo espaço amostral e a soma delas é a função {X+Y} dada por {X+Y (\omega) = X(\omega)+Y(\omega)}. Então

\displaystyle E(X+Y)=\mathop{\mathbb E}(X)+\mathop{\mathbb E}(Y).

Prove que se {\mathop{\mathbb E}(X\cdot Y)=\mathop{\mathbb E}(X)\mathop{\mathbb E}(Y)} então

\displaystyle \mathrm{Var}(X+Y)=\mathrm{Var}(X)+\mathrm{Var}(Y).

Exercício 51 Para {a,b\in{\mathbb R}}, {\mathrm{Var}(aX+b) = a^2 \mathrm{Var}(X)}.

Exercício 52 Se {\lambda} é real positivo e {X} uma v.a. então

\displaystyle  \mathop{\mathbb P} (X\geq \lambda) \leq \frac{\mathop{\mathbb E}(X)}{\lambda}.

(Dica: Defina {Y} por {Y(w) = \lambda} se {Z(w)\geq \lambda}, caso contrário {Y(w) = 0}. Determine {\mathop{\mathbb E}(Y)} e use o exercício 48)

Exercício 53 (desigualdade de Chebyshev) Se {\lambda} é real positivo e {X} uma v.a. de esperança finita então

\displaystyle  \mathop{\mathbb P} \big (|X-\mathop{\mathbb E}(X)|\geq \lambda \big) \leq \frac{\mathrm{Var}(X)}{\lambda^2}.  \ \ \ \ \ (17)

(Dica: use o exercício anterior com {Z=X-\mathop{\mathbb E}(X)}.)

Se fizermos {\lambda = k\sigma_X} em (17) obtemos a probabilidade de {X} desviar de {\mathop{\mathbb E}(X)} por pelo menos {k} desvios padrão

\displaystyle  \mathop{\mathbb P} \big (|X-\mathop{\mathbb E}(X)|\geq k\sigma_X \big) \leq \frac 1{k^2}.  \ \ \ \ \ (18)

Exercício 54 (desigualdade de Markov) Se {\lambda} é real positivo e {X} uma v.a. então

\displaystyle  \mathop{\mathbb P} \big (|X|\geq \lambda \big) \leq \frac{\mathop{\mathbb E}(|X|^t)}{\lambda^t} \ \ \ \ \ (18)

para todo {t>0}.

Exercício 55 Se {Z\geq 0} e {\mathop{\mathbb E}(Z)=0} então {\mathop{\mathbb P}(Z=0)=1}.

Exemplo 57 Consideremos {n} lançamentos de uma moeda com os resultados independentes. Seja {X_i} a variável indicadora (exemplo 43) do evento “ocorre cara”. A v.a.

\displaystyle  S_n = X_1+\cdots+X_n

é a quantidade de ocorrência de cara e {\frac{S_n}n} é o número médio de ocorrência de cara.

A esperança de {S_n} é, usando o exercício 50

\displaystyle  \mathop{\mathbb E}(S_n) = \mathop{\mathbb E}\left( \sum_{i=1}^n X_i \right)= \left( \sum_{i=1}^n \mathop{\mathbb E}(X_i) \right)=\frac n2.

e a variância é {\mathrm{Var} (S_n) = \mathop{\mathbb E}(S_n ^2) - \mathop{\mathbb E}(S_n)^2}, assim precisamos calcular {\mathop{\mathbb E}(S_n ^2)}.

\displaystyle  \mathop{\mathbb E}(S_n ^2) = \mathop{\mathbb E} \left( \sum_{i=1}^n \sum_{j=1}^n X_i X_j\right)= \sum_{i=1}^n \sum_{j=1}^n \mathop{\mathbb E}(X_iX_j),

se {i\neq j} então

\displaystyle \mathop{\mathbb E}(X_i\cdot X_j) = \mathop{\mathbb P}(X_i\cdot X_j=1) = \mathop{\mathbb P}\big([X_i=1]\cap [X_j=1]\big)= \frac 12 \cdot \frac 12

e se {i= j} então

\displaystyle \mathop{\mathbb E}(X_i\cdot X_j) = E(X_ i^2) = P(X_i=1) = \frac 12

portanto

\displaystyle  \mathop{\mathbb E}(S_n ^2) = \sum_{i=1}^n \sum_{j=1}^n \mathop{\mathbb E}(X_iX_j) = \sum_{i=1}^n \mathop{\mathbb E}(X_i^2) + \sum_{i=1}^n \sum_{\substack{j=1\\j\neq i}}^n \mathop{\mathbb E}(X_iX_j) = \frac {n}2 + \frac{n(n-1)}4.

De volta à variância de {S_n} temos

\displaystyle  \mathrm{Var}\left(S_n\right) = \mathop{\mathbb E}(S_n ^2) - \mathop{\mathbb E}(S_n)^2 = \frac n2 + \frac{n(n-1)}4 - \left(\frac n2\right)^2 = \frac n4.

A esperança de {S_n/n} é, usando linearidade da esperança (corolário 10)

\displaystyle   \mathop{\mathbb E}\left(\frac{S_n}n\right) = \frac 1n \mathop{\mathbb E}(S_n) =\frac 12. \ \ \ \ \ (20)

e a variância é, pelo exercício 51,

\displaystyle  \mathrm{Var}\left(\frac{S_n}n\right) = \frac 1{n^2} \mathrm{Var} (S_n) = \frac 1{n^2} \frac n4 = \frac 1{4n}.

Usando a desigualdade de Chebyshev, eq.~(17), para qualquer {\lambda >0}

\displaystyle  \mathop{\mathbb P} \left( \left| \frac{S_n}n -\frac 12 \right| \geq \lambda \right) \leq \frac{1}{4n\lambda^2}

portanto

\displaystyle \mathop{\mathbb P} \left( \frac 12 -\lambda \leq \frac{S_n}n \leq \frac 12 + \lambda \right) > 1 - \frac 1{4n\lambda^2}.

Por exemplo, fazendo {\lambda = n^{-1/2}} temos que o número médio de caras está no intervalo {(\frac 12 - \frac 1{\sqrt{n}}, \frac 12+ \frac 1{\sqrt{n}})} com probalidade maior que {3/4}.

Mais que isso, a probabilidade tende a {1} quando {n\rightarrow \infty}. Esse resultado foi provado pela primeira vez em 1713, por Jacob Bernoulli, sem usar a desigualdade de Chebyshev, desconhecida na época.

Teorema 11 (Lei Fraca dos Grandes Números) Sejam {X_1,X_2,\dots,X_n} v.a.’s independentes e identicamente distribuídas, cada uma com média {\mathop{\mathbb E}(X_i) = \mu} finita e com variância finita. Então para todo {\lambda >0}

\displaystyle   \mathop{\mathbb P}\left( \left| \frac{X_1+\cdots+X_n}{n} - \mu \right| \geq \lambda \right) \rightarrow 0 \ \ \ \ \ (21)

quando {n\rightarrow \infty}.

A Lei Forte dos Grandes Números estabelece que, sob as mesmas hipóteses da lei fraca,

\displaystyle   \frac{X_1+\cdots+X_n}{n} \rightarrow \mu \textrm{ quando } n\rightarrow \infty. \ \ \ \ \ (22)


Demostração do teorema 9. Vamos provar a parte referente a v.a. contínua. Primeiro, provaremos que se {X} assume valores não-negativos então

\displaystyle  \mathop{\mathbb E}(X) = \int_0^{+\infty} \mathop{\mathbb P}(X>x)\,\mathrm{d}x = \int_0^{+\infty} \big(1-F_X(x)\big)\,\mathrm{d}x .

De fato,

\displaystyle  \int_0^{+\infty} \mathop{\mathbb P}(X>x)\,\mathrm{d}x = \int_0^{+\infty} \int_x^{+\infty} f(u)\,\mathrm{d}u\, \mathrm{d}x = \int_0^{+\infty} \int_0^{u} f(u)\,\mathrm{d}x \,\mathrm{d}u = \int_0^{+\infty} u f(u)\,\mathrm{d}u

na segunda igualdade trocamos a ordem de integração.

Segundo, assumiremos que {g(x)\geq 0} para todo {x}. Então,

\displaystyle \mathop{\mathbb E}(g(X))= \int_0^{+\infty} \mathop{\mathbb P}\big(g(X)>x\big)\,\mathrm{d}x = \int_0^{+\infty} \int_B f(u)\,\mathrm{d}u\,\mathrm{d}x

em que {B= \{u\in{\mathbb R} \colon g(u)>x\}}

\displaystyle \mathop{\mathbb E}(g(X))= \int_0^{+\infty} \int_B f(u)\,\mathrm{d}u\,\mathrm{d}x = \int_0^{+\infty} \int_0^{g(u)} \,\mathrm{d}x f(u)\,\mathrm{d}(u) = \int_0^{+\infty} g(u) f(u)\,\mathrm{d}u

que é o estabelecido no enunciado para {g} não negativa.

Pra finalizar, se {g} assume valores reias então definimos as v.a.’s não negativas

\displaystyle g^+(x) = \max\{ g(x),0\} \quad\textrm{ e }\quad g^-(x) = \max\{- g(x),0\}

e temos que {g(x) = g^+(x) - g^-(x)}, portanto,

\displaystyle \mathop{\mathbb E}(g(X)) = \mathop{\mathbb E}(g^+(X)) - \mathop{\mathbb E}(g^-(X)) = \int_0^{+\infty} g^+(u)f(u)\,\mathrm{d}u - \int_0^{+\infty} g^-(u)f(u)\,\mathrm{d}u = \int_0^{+\infty} g(u)f(u)\,\mathrm{d}u.

Prova da desigualdade de Chebyshev Para demonstrar a desigualdade de Chebyshev, primeiro mostramos a seguinte desigualdade de Markov: Se {X} é uma variável aleatória não-negativa e {t>0} então

\displaystyle  \mathop{\mathbb P}(X\geq t) \leq \frac{\mathop{\mathbb E}{X}}{t} . \ \ \ \ \ (23)

Demonstracao: Dados {X} e {t} como no enunciado defina {Z(\omega)} ({\forall \omega\in \Omega}) por

\displaystyle  Z(\omega)= \begin{cases} t, &\textrm{ se }X(\omega) \geq t, \\ 0, &\textrm{ se }X(\omega) < t. \end{cases}

Então {X \geq Z} e {\mathop{\mathbb E} X \geq \mathop{\mathbb E} (Z) = 0 \mathop{\mathbb P} (X < t ) + t\mathop{\mathbb P} (X \geq t )} portanto

\displaystyle  \mathop{\mathbb E} (X) \geq t \mathop{\mathbb P} (X \geq t)

donde concluímos (23). \Box

Agora, se {X} é uma variável aleatória qualquer com {\mathop{\mathbb E}(X),\mathrm{Var}(X) < \infty} então {0\leq (X-\mathop{\mathbb E} X)^2 <\infty} logo para todo {\lambda > 0} temos por (23) com {t=\lambda}

\displaystyle  \mathop{\mathbb P}\left( \big(X-\mathop{\mathbb E} {X}\big)^2\geq \lambda^2 \right) {\leq} \frac{\mathop{\mathbb E}(X-\mathop{\mathbb E} X)^2}{\lambda^2}

e de {\{(X-\mathop{\mathbb E} {X})^2\geq \lambda^2\} = \{\big|X-\mathop{\mathbb E} {X}\big|\geq \lambda\} } temos a seguinte desigualdade de Chebyshev

\displaystyle  \mathop{\mathbb P} \big( \big|X-\mathop{\mathbb E} {X}\big|\geq \lambda \big) {\leq} \frac{\mathrm{V} (X)}{\lambda^2}

para todo {\lambda >0}.{\Box}

Demonstração da Lei Fraca dos Grande Números Sejam {X_1,X_2,\dots } uma seqüência de variáveis aleatórias independentes, identicamente distribuídas e todas com valor esperado {\mu } e variância {\sigma^2} finitos.

\displaystyle  {M}_n =\frac{ X_1+X_2+\cdots+X_n}n.

e temos

\displaystyle  \mathop{\mathbb E}({M_n})=\mu~\textrm{ e }~\mathrm{Var}({M_n} )= \frac{\sigma^2}n.

Usando a desigualdade de Chebyshev (17), concluímos para todo {\lambda > 0}

\displaystyle  \lim_{n\rightarrow\infty} \mathop{\mathbb P}\big( |{M_n}-\mu| \geq \lambda \big) \leq \lim_{n\rightarrow\infty} \frac{\sigma^2}{n\lambda^2} = 0. \ \ \ \ \ (24)

Problema: Pedro e Paula ambos querem cortar um pedaço de papel retangular. Como ambos são probabilistas eles determinam a forma exata do retângulo utilizando realizações de uma v.a. positiva, digamos {U}, como se segue. Pedro é preguiçoso e gera apenas uma única realização dessa v.a.; então ele corta um quadrado que tem comprimento e largura igual a esse valor. Paula gosta de diversidade e gera duas realizações independentes de {U}. Ela, então, corta um retângulo com largura igual a primeira realização e comprimento igual ao da segunda realização. {(a)} Serão as áreas cortadas por Pedro e Paula diferentes em média? {(b)} se forem, Pedro ou Paula deverá ter um retângulo com área maior?

Uma resposta em “Esperança matemática

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s