bc1414 – O modelo de Ehrenfest

Um sistema é formado por dois compartimentos {A} e {B} ligados por uma pequena abertura. No início, {N} moléculas de um gás estão no compartimento {A} e o compartimento {B} está vazio.

Ehrenfest

Em cada instante uma úncia molécula troca de compartimento e todas as moléculas de um mesmo compartimento tem a mesma probabilidade de passar pela abertura.

Parece claro que o sistema deve, eventualmente, chegar a um equilíbrio com as moléculas distribuídas igualmente entre {A} e {B}. No entanto, as moléculas podem se reorganizar desproporcionadamente em {A} ou em {B}. À primeira vista, não há sentido óbvio de fluxo de tempo neste experimento, que é uma realização discreta de dinâmica molecular, onde as equações de de trajetórias são reversíveis no tempo. Como leis reversíveis de movimento podem, intrinsecamente, conter uma direção preferencial de fluxo de tempo? Se começar com todas as moléculas de um lado, o que evita que o reagrupamento de todas as moléculas de volta para o lado do estado inicial? Quando Boltzmann foi desafiado com essa objeção, apocrifamente ele respondeu, impaciente, “Versuch es doch!” (“Experimente!”)[Nonconvergence of the Ehrenfest thought experiment, C. R. MacCluer, Am. J. Phys. 77, 695 (2009); View online: dx.doi.org/10.1119/1.3130022]

Seja {X_t} a quantidade de moléculas no instante {t} que estão no compartimento {B}, {X_0=0}. Conhecido {X_t}, no próximo momento, {X_{t+1}}, temos

\displaystyle  X_{t+1} = \begin{cases} X_t -1 &\text{ caso uma mol\'ecula tenha passado de }B \text{ para }A\\ X_t +1 &\text{ caso uma mol\'ecula tenha passado de }A \text{ para }B \end{cases}

e essa variáveis aleatórias definem um processo estocástico sobre o conjunto de estados {S=S(N):=\{1,2,\dots,N\}}. Ademais

\displaystyle  \begin{array}{rcl}  \mathop{\mathbb P}( X_1 = 1~|~X_0=0) &=& 1 \\ \mathop{\mathbb P}( X_{t+1} = N-1 ~|~ X_t= N) &=& 1 \qquad (t>0)\\ \mathop{\mathbb P}( X_{t+1} = k+1 ~|~ X_t= k) &=& (N-k)/N \quad (t>0)\\ \mathop{\mathbb P}( X_{t+1} = k-1 ~|~ X_t= k) &=& k/N \quad (t>0) \end{array}

em qualquer outro caso {\mathop{\mathbb P}( X_{t+1} = j ~|~ X_t= i)=0}.

Fazendo {p_{i,j} := \mathop{\mathbb P}( X_{t+1} = j ~|~ X_t= i)=0} temos uma matriz {P=(p_{i,j})} quadrada {N+1 \times N+1} denominada matriz das transições do processo.

Por exemplo, para {N=3} temos

\displaystyle  P = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 1/3 & 0 & 2/3 & 0 \\ 0 & 2/3 & 0 & 1/3 \\ 0 & 0& 1 & 0 \end{pmatrix}

e se denotarmos a função de massa de probabilidade {f^{(t)}} da v.a. {X_t} por um vetor, fazendo {f^{(t)}_k = f^{(t)}(k) = \mathop{\mathbb P}(X_t=k)} para todo {k\in S}

\displaystyle  \begin{array}{rcl}  f^{(0)} &=& ( 1,0,0,0) \\ f^{(1)} &=& ( 0,1,0,0) \\ f^{(2)} &=& ( 1/3,0,2/3,0) \end{array}

e, se {t> 2} temos {\mathop{\mathbb P}(X_{t+1}=k) = \sum_{s=0}^3 \mathop{\mathbb P}(X_{t+1}=k~|~X_t =s)\mathop{\mathbb P}(X_t=s) } pela Lei de Probabilidade Total, i.e.,

\displaystyle  \begin{array}{rcl}  f^{(t+1)}(k) = f^{(t)}(k-1) p_{k,k-1} + f^{(t)}(k+1) p_{k,k+1} \end{array}

para todo {k}.

De um modo geral, conhecida uma distribuição inicial de probabilidades {f^{(0)}} sobre {S(N)} e a matriz de transições {P} então para todo {t>0}

\displaystyle  \begin{array}{rcl}  & f^{(t+1)}(k) = \sum_{s=0}^N \mathop{\mathbb P}(X_{t+1}=k~|~X_t =s)\mathop{\mathbb P}(X_t=s) \\ &= \mathop{\mathbb P}(X_{t+1}=k~|~X_t = k-1)\mathop{\mathbb P}(X_t=k-1) + \mathop{\mathbb P}(X_{t+1}=k~|~X_t = k+1)\mathop{\mathbb P}(X_t=k+1) \end{array}

ou seja

{f^{(t+1)} = f^{(t)} P = f^{(0)} P^t.}

No nosso exemplo

\displaystyle  f^{(3)} = f^{(2)} P= ( 1/3,0,2/3,0) \begin{pmatrix} 0 & 1 & 0 & 0 \\ 1/3 & 0 & 2/3 & 0 \\ 0 & 2/3 & 0 & 1/3 \\ 0 & 0& 1 & 0 \end{pmatrix} = (0,7/9,2/9,0).

A matriz {P} tem um distribuição invariante, i.e., existe um vetor {\pi =(\pi_i)_{i\in S}} com {\pi_k = \mathop{\mathbb P}(X_t=k)} tal que

{\pi = \pi P }

e isso nos permite algumas conclusões interessantes a respeito desse processo. Essa distribuição é, para {k\in S(N)},

\displaystyle  \pi_k := \frac 1{2^N}\binom Nk.

Não é difícil verificar que essa distribuição é simétrica em torno de {k=N/2}, logo o sistema tem maior probabilidade de estar num estado com aproximadamente metade das moléculas em cada compartimento.

No caso {N=3}, por exemplo, {\pi = (1/8,3/8,3/8,1/8)}.

Uma das consequências é que pelo Teorema Ergódico para Cadeias de Markov (Teorema 21) — esse processo satisfaz as hipóteses do teorema) para todo {k\in S}, com probabilidade {1} vale que

\displaystyle  \lim_{n\rightarrow\infty} \frac{\big| t\colon 0<t\leq n, ~X_t=k\big|}{n} = \pi_k

isto é, {\pi_k} é a fração limite do número de visitas ao estado {k} em {n} passos. Assim, a fração do tempo que o processo passa no estado {N/2} é

\displaystyle \pi_{N/2} = \frac 1{2^N}\binom N{N/2} \approx \frac 1{2^N} \frac{2^N}{\sqrt{\pi N/2}} = \frac{1}{\sqrt{\pi N/2}}

onde usamos no coeficiente binomial uma aproximação via fórmula de Stirling, e probabilidade de todas as moléculas voltarem para o compartimento {A} é muito menor

\displaystyle \pi_0 = \frac 1{2^N}.

Outra consequência (equação 59 do Teorema 20) é a respeito do tempo de retorno. Definamos

\displaystyle  T := \inf \{ t\in{\mathbb N} \colon t>0,~X_t = 0\}

que é o tempo do primeiro retorno a origem. Então,

\displaystyle \mathop{\mathbb E}(T) = \frac 1{\pi_0} = 2^N.

Assim, se {N=1000} então {\mathop{\mathbb E}(T) = 2^{1000}} e se medimos o tempo em segundos então {2^{1000}\,\text{segundos}\approx 10^{993}\,\text{anos}} (juntas, todas as pessoas do mundo já viveram {\approx 10^{11}} anos).

Uma falha desse modelo é que não temos {f^{(t)} \rightarrow \pi} quando {t\rightarrow\infty}. Uma ligeira modificação do experimento, para um modelo mais atraente fisicamente, é apresentada no exercício 7 abaixo. No modelo modificado há convergência para distribuição estacionária.

Exercício 1 Com a distribuição invariante sobre o conjunto de estados, qual a probabilidade do compartimento ter {0} partículas e de ter {N/2} partículas.

Exercício 2 Descreva {p^2}.

Exercício 3 Se {P} é a matriz das transições e {P^2} tem elementos {(p_{i,j}^{(2)})} então {p_{i,j}^{(2)}} é a probabilidade de que evento? Analogamente para {n>2}, {P^n=(p_{i,j}^{(n)})} e {p_{i,j}^{(n)}} é a probabilidade de que evento?

Exercício 4 Argumente que para quaisquer {i,j\in S}, existe {t\in {\mathbb N}} tal que {p_{i,j}^{(t)}> 0}. Nesse caso dizemos que o processo é irredutível.

Exercício 5 Mostre que {p_{i,i}^{(t)} =0} se {t} é ímpar. O período de um estado é {d= \mathrm{mdc}{t\colon p_{i,i}^{(t)} =0}}. Mostre que os estados de {S} têm período {2}.

Exercício 6 Mostre que {\pi_i p_{i,j}=\pi_jp_{j,i}} para a distribuição invariante {\pi}. Nesse caso chamamos o processo de reversível.

Exercício 7 Considere o experimento de Ehrenfest com a seguinte modificação: em cada momento, independentemente do passado, um compartimento é escolhido aleatoriamente em seguida e uma molécula é escolhida aleatoriamente; a molécula escolhida vai para o compartimento escolhido. Descreva o processo (distribuição inicial e as transições de estado). Compute a função de massa de {X_3}. Esse processo é irredutível? Qual o período dos estados?

Exercício 8 Defina {Q}, a matriz das transições no processo modificado dado acima. Mostre que {q_{i,j}^{(n)}\rightarrow \binom Nj\frac 12^n}, quando {n\rightarrow\infty}.

Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s