FE cap1

FE cap1

(Parte 1 de 2)

3 1. Teoria das Distribuicoes da Fısica Estatıstica

Esta introducao visa familiarizar o leitor com conceitos estatısticos, distribuicoes, probabilidades, etc.. Os exemplos dados poderao parecer em primeira inspecao banais, porem contem os ingredientes matematicos necessarios para se compreender as aplicacoes fısicas a serem estudadas ao longo do curso. A exposicao sera sucinta e desprovida de rigor matematico. Para material de apoio e complemento, algumas referencias padrao sao fornecidas ao final do capıtulo.

O objetivo de uma teoria estatıstica e descrever comportamentos medios de sistemas. Em particular, a teoria sera mais eficiente quando tratar de N sistemas preparados de forma semelhante com N 1. O tratamento estatıstico e bastante usado em varios campos do conhecimento, tais como fısica, medicina, sociologia, etc.. Uma teoria aplicavel em uma variedade tao grande de problemas nao pode ser baseada exclusivamente em caracterısticas especıficas dos sistemas estudados. Veremos que algumas hipoteses fortes sobre aspectos genericos dos problemas a serem estudados nos permitem uma grande simplificacao e o uso de um tratamento unificado. Os exemplos a seguir tornarao mais clara esta discussao:

Um problema estatıstico simples com o qual nos defrontamos ja em cursos de matematica elementar e: Jogando cara ou coroa com uma moeda N vezes, qual a probabilidade de que obtenhamos cara n vezes (com n ≤ N)? Este problema nos e familiar e sabemos trata-lo usando a teoria de probabilidades – a qual nada mais e do que a teoria estatıstica.

Um exemplo de um problema de fısica e: Uma partıcula em suspensao na superfıcie de um lıquido percorre em media uma distancia entre colisoes com outras partıculas. Apos N colisoes qual a probabilidade de que a partıcula em questao esteja a uma distancia d do ponto inicial? A teoria estatıstica da uma resposta.

A chave para identificarmos a semelhanca entre os exemplos dados esta na “complexidade” da dinamica dos mesmos. De fato, mesmo o primeiro exemplo poderia ser descrito atraves da mecanica classica. Imagine que conhecessemos as condicoes iniciais da moeda ao ser lancada com grande precisao e pudessemos integrar suas equacoes de movimento. Isto nos propiciaria prever se o resultado seria cara ou coroa, pois trata-se de um problema determinıstico. A pratica nos mostra que tal projeto e bastante difıcil de ser executado – caso contrario, alguem ja estaria explorando um cassino com esta ideia. Por tras disto esta a nocao de ergodicidade, a base em que se apoia a teoria estatıstica. Quando um problema e muito “complexo” e o resultado final varia drasticamente atraves de alteracoes mınimas das condicoes iniciais, o problema e classificado como ergodico e um tratamento estatıstico torna-se adequado. Pense que mesmo tendo calculado o resultado do lancamento da moeda para um conjunto de condicoes iniciais, uma subita lufada de vento pode por todo calculo a perder.

O problema ergodico nao sera tratado neste curso, pois o tornaria demasi-

Figure 1: Partıcula movendo-se sob a acao de centros espalhadores.

adamente longo. Voltaremos a esta discussao em outras oportunidades mais a frente, mas sempre superficialmente. Referencias bibliograficas adequadas sobre o assunto estao listadas no final do capıtulo. A mensagem que deve ficar e que e frequente encontrarmos sistemas cujo comportamento e determinıstico, mas que podem ser considerados como dando eventos completamente aleatorios e descorrelacionados.

O roteiro deste capıtulo se inicia com uma apresentacao dos elementos basicos da teoria estatıstica. Comecamos nossa discussao com variaveis discretas, distribuicao binomial e o exemplo do passeio aleatorio. Passamos entao para o limite contınuo e discutimos a distribuicao gaussiana e a distribuicao de Poisson, ambas de grande relevancia para fısica.

1.1. Elementos basicos de estatıstica

Tomemos de uma variavel u que so possa assumir um conjunto contavel (finito ou infinito) de M valores

Esta variavele chamada de estocastica quando seu valor so pode ser determinado apos o exame do resultado do experimento, como por exemplo no jogo de cara ou coroa. Podemos definir P(ui), a probabilidade de um experimento dar ui.

medio de u, que sera denotado por u, e dado por

Por conveniencia, em geral, as distribuicoes de probabilidade sao normalizadas

5 Assim sendo a media passa a ser dada pela forma mais simples

Esta definicao e facilmente estendida a medias de funcoes arbitrarias da variavel u

Por vezes desejamos obter apenas algumas informacoes simples de uma distribuicao, enquanto que conhecer a funcao exata que ajusta tal distribuicao e uma informacao que nao nos interessa. Nestes casos e interessante se conhecer os primeiros momentos de uma distribuicao, onde o n-esimo momento e definido como

Em primeira inspecao, poderıamos conjecturar que conhecendo todos os momentos de uma distribuicao, te-la-ıamos caracterizado completamente. Infelizmente ha alguns contra-exemplos que desmentem esta asserciva. Ainda assim, por vezes o primeiro e segundo momentos de uma distribuicao contem informacao suficiente para diversas aplicacoes fısicas.

O primeiro momento nada mais e do que a media da distribuicao, como fica claro ao compararmos a Eq. (3) com a Eq. (5). Muito util tambem e a variancia, definida como o segundo momento em torno da media, ou

onde σ e chamado de desvio padrao. Note que

garantindo que a variancia e sempre positiva ou nula. E comum usar-se tambem δu2 para denotar a variancia – no que segue daremos preferencia a esta ultima notacao.

A maioria dos problemas fısicos a serem considerados neste curso envolvem variaveis estocasticas contınuas e nao as discretas, descritas acima. Para tratarmos tais problemas, os conceitos acima apresentados precisam ser estendidos. Como acima,tambem quando trabalhamoscom uma variavelestocastica contınua x, a quantidade estatıstica central de interesse e a distribuicao P(x). Neste caso, a probabilidade de que o resultado de uma “medida” de x esteja entre os valores a e b e dada por:

Esta definicao e tambem a justificativa para chamarmos P(x) de densidade de probabilidade. A igualdade acima e valida para P(x) normalizados a unidade∫

onde a integracao e feita sobre todo o domınio D da densidade de probabilidade. Estas consideracoes nos levam imediatamente a generalizacao dos momentos de uma distribuicao. A definicao agora passa a ser

Esta relacao sera muito utilizada nos capıtulos que se seguem.

1.2. Passeio aleatorio e a distribuicao binomial

Consideremos o problema de uma partıcula restrita a movimentar-se em uma dimensao sob a influencia de um potencial que age periodicamente. Suponhamos ainda que o potencial age apos cada passo de comprimento da partıcula e seu efeito e de determinar aleatoriamente em que direcao sera dado o proximo passo. Seja p a probabilidade de ir para a direita e q a de ir para a esquerda: Apos N passos, a pergunta natural deste problema e: Qual a probabilidade de encontrarmos a partıcula na posicao m, ao final destes N passos? Ou melhor, quanto vale PN(m)?

Alternativamente sabendo o numero de passos para a direita, n1;o u o numero de passos para a esquerda n2, a posicao m fica determinada, pois

A probabilidade de uma sequencia de n1 passos para a direita e n2 passos para a esquerda e dada pelo produto

Ha, no entanto, para um total de N passos varias sequencias distintas compostas de n1 passos a direita e n2 passos a esquerda. O numero total de sequencias distintas C corresponde ao numero de permutacoes na ordem em que os passos sao dados para a direita e para a esquerda. Este numero e

Entao a probabilidade de tomarmos n1 passos a direita (ou n2 = N − n1 a esquerda) em qualquer ordem e obtida multiplicando a probabilidade pelo numero de caminhos possıveis.

Esta e a distribuicao binomial. 1

Exemplo: Vamos analisar o problema de jogarmos cara ou coroa N =2 0 vezes. A probabilidade de obtermos cara e p =1 /2 (analogo ao ir para a direita ou esquerda com p =1 /2 no problema do passeio aleatorio) e coroa tem probabilidade q =1 − 1/2=1 /2.

Figura 1.2.

A figura acima traduz muito bem o resultado intuitivo de que jogando N = 20 vezes, o resultado mais provavel e que tenhamos 10 eventos cara

Voltemos ao problema do passeio aleatorio para estudarmos o valor medio e a variancia. O numero medio de passos a direita e obtido usando as Eqs.(3) e(12)

Atraves do metodo da “forca bruta” podemos calcular n1 atraves dos seguintes passos: Primeiro corta-se o fator multiplicativo n1 com o fatorial tomando o cuidado de alterar o somatorio

em seguida, fazendo a mudanca de variaveis n′ = n1 − 1, obtemos uma “nova” distribuicao binomial em n′

A nova somatoria e a expansao binomial de (p + q)N−1. O resultado final e

Este resultado ja era previsıvel antes mesmo de fazermos as contas, pois a media de passos para a esquerda nada mais e do que o numero total de passos N vezes a probabilidade p de ir para a esquerda a cada passo.

Um modo mais elegante de obtermos este resultado e observarmos que

Usando esta identidade em (14) escrevemos

Este truque torna facil a tarefa de calcular o segundo momento n2i (tente o metodo direto, e convenca-se de que este e bastante trabalhoso!)

Desta equacao, operando as derivadas e apos algumas manipulacoes algebricas, obtemos o que nos leva ao resultado final para a variancia

A variancia envolve quadrados de n1 e uma boa estimativa da variancia tıpica vem de √

Np =

A expressao (20) implica que com N crescente o desvio padrao dividido pelo valor medio cai com 1/√ N. Este quociente e um bom parametro para uma estimativa do intervalo de confiabilidade (ou “erro”) de um experimento, como por exemplo N jogos de cara ou coroa.

1.3. A distribuicao de Poisson

A distribuicao poissoniana e um caso particular da distribuicao binomial, quando um evento tem probabilidade muito pequena de ocorrer (p 1), mas o numero total de eventos e muito grande (N 1) de modo que Np seja uma constante finita. Ou seja, n = Np 1. Neste caso nao e difıcil mostrar que a distribuicao binomial se reduz a:

Antes de fazermos a demonstracao e necessario apresentarmos uma aproximacao para a funcao fatorial, conhecida como formula de Stirling 2

a qual nos permite extender para o contınuo o domınio da variavel discreta n. Facamos agora a algebra: usando a formula de Stirling, vemos que

Empregando esta relacao e lembrando que p = n/N, podemos escrever

Para chegar ao resultado desejado, agora basta apenas lembrar que para a finito,

2Precisaoda formulade Stirling: Definindos(n)= √ 2pin(n/e)n/n!, podemosnos convencer numericamente da acuracia da aproximacao, notando que e uma das definicoes da funcao exponencial.

Note que a nova distribuicao nao depende separadamente de p e N, mas da combinacao a ≡ n = Np. Esta expressao e a distribuicao de Poisson:

Pa(n)= an

Esta distribuicao tem multiplas aplicacoes em disversas areas da fısica. Um dos exemplos mais simples e o do decaimento radiativo nuclear. Imagine uma amostra de algumasgramas de um material contendo uma concentracao razoavel de nucleos que decaem espontaneamente com tempo mediode decaimento (tempo de meia vida) da ordem de semanas. Neste caso dar um tratamento microscopico ao problema e virtualmente impossıvel, uma vez que o numero de constituintes do sistema e enorme e a natureza da interacao nuclear e complexa. Conclui-se que o tratamente estatıstico se faz necessario. Notemos entao que o numero de nucleos e grande (N 1), e que no entanto a probabilidade de que um dado nucleo decaia em um segundo, por exemplo, e baixa (p 1). Destas condicoes vemos que a distribuicao de Poisson deve ser a mais indicada para descrever o processo. A analise dos dados mostra que ela o faz com grande sucesso.

1.4. O limite para N 1 e a distribuicao gaussiana

O objetivo desta sessao e obter o limite da distribuicao binomial para N 1, no caso em que n1 = pN 1e n2 = qN 1. Examinando a Fig. 1.2, podemos esperar que, nestas condicoes, a distribuicao WN(n1) seja centrada em torno de n1 caindo rapidamente para valores de n1 muito diferentes do valor medio. Mostraremos abaixo que a curva contınua que melhor ajusta o histograma da

Fig. 1.2 e uma gaussiana.

Aproximando os fatoriais da distribuicao binomial WN(n), Eq. (12) pela expressao (21), obtemos

Explicitando a algebra, mesmo correndo o risco de sermos tediosos, WN(n1) pode ser rearranjado como:

Para as simplificacoes subsequentes e necessario escrever WN(n1) como uma exponencial

O motivo para fazermos estas manipulacoes e que queremos mostrar que (23) pode ser muito bem aproximada por uma gaussiana centrada em n1, o que implica que f(n1) ≈ a + b(n1 − n1)2, onde a e b sao constantes arbitrarias com b< 0. Para determinarmos a e b, e conveniente expandir f(n1) em serie de

Taylor em torno de um ponto arbitrario n′ 1

onde queremos que n′1 satisfaca:

dn1

−1+ln

para N 1 (a menos que pq 1, que e o caso do limite de Poisson discutido no topico anterior). E facil prosseguir e calcular a segunda e terceira derivadas dn1

+l n

A derivada terceira e:

dn1 o que da

e por isto para N 1, derivadas superiores a f′′ podem ser desprezadas. (A grosso modo cada derivada a mais ganha um termo da ordem de 1/N o que garante a qualidade da aproximacao para N 1.)

Precisamos ainda calcular f(n1) (lembrando novamente que n1 = Np)

Reunindo estes resultados ficam determinados a e b, de modo que obtemos a distribuicao aproximada ilustrada na figura 1.3.

Ainda nao chegamos a distribuicao gaussiana propriamente dita, pois faltanos tirar o limite para uma distribuicao de variavel contınua. Antes de faze-lo, e bom motivar fisicamente o trabalho a ser feito. Como vimos a variancia (as vezes chamada de dispersao) escala como σ ≈ √ N e, juntamente com o valor medio, determina o intervalo mais provavel de um evento ocorrer (n1±σ). Para

Dito isto, voltemos ao problema do passeio aleatorio e ao inves de contar o numero de passos a direita, digamos que o que nos interessa e a posicao final:

onde e o comprimento de cada passo. A distribuicao desejada pode tomar um numero muito alto de valores com alta probabilidade, pois N 1. Em geral /x 1, o que nos motiva a simplificar o problema e tomar a variavel x como contınua. Resta-nos agora transformar WN(n1) em uma distribuicao P(x) com x contınuo. Para tal observemos que

Esta relacao e simples de verificar graficamente (Fig. 1.3) Figura 1.3

a distribuicao gaussiana. Examinemos agora propriedades da distribuicao gaussiana. Primeiro, sua normalizacao tem de ser verificada∫ ∞

o que e um teste de consistencia para as aproximacoes que fizemos a fim de obter (3), uma vez que a distribuicao binomial, nosso ponto de partida, e normalizada.

Usando as relacoes do apendice A, fica facil de ver que para a distribuicao gaussiana dada por (3), x = µ e que a variancia δx2 = σ2 . De fato, µ e σ caracterizam completamente a distribuicao gaussiana.

1.5. Funcao caracterıstica e o teorema do limite central

E comum caracterizarmos uma distribuicao por seus momentos. Para isto e muito util trabalharmos com a funcao caracterıstica da distribuicao em questao. Ela e dada pela transformada de Fourier da densidade de probabilidade

(Parte 1 de 2)

Comentários