FDP

Nunca é possível saber a face de uma moeda ou dado que cairá virada para cima após um lançamento ou qual valor será medido pelo instrumento usado em algum arranjo experimental montado para se observar certo fenômeno físico. Ao invés disso é possível saber a chance associada a essas ocorrências ou o intervalo que possui maior chance de conter o valor medido. De modo simplificado, a chance de se obter um dado valor aleatório é governada por uma função de densidade de probabilidade (FDP).

De maneira geral qualquer função F pode ser uma função densidade de probabilidade desde que satisfaça duas propriedades:

\begin{aligned} 1. \ & \int F(x) dx = 1\qquad ou \qquad \sum P(x) = 1 \\ 2. \ & F(x) \geq 0 \end{aligned}

onde

P(x_1, x_2, ..., x_n) \equiv F(x_1) + ... + F(x_n)

e a integração ou soma percorre todos os x_i possíveis. É interessante ressaltar desde já que a palavra “densidade” implica que a informação da probabilidade de algo é obtida a partir de integração.

Às FDP se atribui quantidades como média (ou valor esperado), definido por

< x > \ \equiv x_0 \ = \int x \ f(x)dx

e os momentos centrais de grau n, onde o grau 2 é correspondente ao desvio padrão, o de grau 3 corresponde à assimetria e o de grau 4 corresponde à curtose, em geral definidos por

\mu_n^0 \equiv \ < (x-x_0)^n > \ = \int (x-x_0)^n f(x)dx

onde o desvio padrão seria definido por

\mu_2^0 \equiv \ < (x-x_0)^2 > \ \equiv \sigma_0^2 \ = \int (x-x_0)^2 f(x)dx

que pode ser reescrito como

\sigma_0^2=< x^2 > - < x_0 >^2.

Um exemplo seria a função

f(x) = \begin{cases} A e^{ \left( -\frac{x}{L} \right)}, \qquad se \qquad x \geq 0\\ 0 \qquad caso \qquad contrario \end{cases}

f precisa ser normalizada para ser uma FDP, uma vez que já é extritamente positiva. Assim

\int_{0}^{\infty} A e^{ \left( -\frac{x}{L} \right)}dx =1 \qquad \Rightarrow \qquad A = \frac{1}{L}

agora bastaria encontrar x_0 e \sigma_0 de f:

x_0 = < x > = \int_{0}^{\infty} \frac{x e^{\left( -\frac{x}{L} \right)}}{L} dx \qquad \Rightarrow \qquad x_0=L

de maneira análoga se obtém

\sigma_0^2=< x^2 > - < x_0 >^2 = 2L^2 - L^2 \qquad \Rightarrow \qquad \sigma_0=L

Apesar de toda função poder ser uma FDP, existem algumas funções mais imediatamente associadas a FDP, como a gaussiana (ou normal)

\frac{1}{\sqrt{2 \pi} \sigma }e^{- \left( \frac{x-x_0}{\sqrt{2}\sigma} \right)^2 }

a binomial

\frac{N!}{(N-n)!n!}p^{n}q^{N-n}

a distribuição de Poisson

\frac{a^{n}e^{-a}}{n!}

a exponencial, etc. Sabemos que para a função gaussiana

x_0 = \frac{\sum_{i=1}^{N} x_i}{N}

e

\sigma_0 = \sqrt{ \frac{\sum_{i=1}^{N} (x_i - x_0)}{N-1} }.

O objetivo desse texto não é explicar o significado dos termos ou indicar quando que dados aleatórios seguem cada uma delas. Ao invés disso pretendo mostrar a obtenção da média e desvio padrão para as distribuições binomial e de Poisson.

Para a binomial será necessário lembrar que

(a+b)^N = \sum_{n=0}^{N} \frac{N!}{(N-n)!n!}a^{n}b^{N-n} .

De fato a FDP binomial não tem esse nome por acaso, sua forma e as etapas de sua construção possuem lá suas semelhanças com o binômio de Newton.
Usando as definições apresentadas anteriormente

n_0 = \sum_{n=0}^{N} n \frac{N!}{(N-n)!n!}p^{n}q^{N-n}

Como disse o professor que me apresentou essa abordagem: “o objetivo é ir manipulando a distribuição até ela ficar mais ou menos com a cara do binômio de Newton, porque o binômio de Newton a gente sabe quanto dá”.
Então a ideia é essa. Para isso a ideia (para ambas as distribuições) sempre será fazer a mudança de variável do tipo

\begin{aligned} r=&n-1\\ R=&N-1 \end{aligned}

sempre que conveniente. Por que? Nesse momento talvez a melhor resposta seria “porque dá certo”. Também pode ser útil lembrar que

1!=0!=1

para entender porque eventuamente o ponto de partida dos somatórios mudam repentinamente. Quando o índice está operado por um fatorial tanto faz começar do 0 ou do 1. Tendo isso em mente segue o valor de n_0

\begin{aligned} n_0 =& \sum_{n=0}^{N} n \frac{N!}{(N-n)!n!}p^{n}q^{N-n}\\ =&\sum_{n=1}^{N} \frac{N!}{(N-n)!(n-1)!}p^{n}q^{N-n}\\ =&\sum_{r=0}^{R} \frac{(R+1)!}{(R-r)!r!}p^{r+1}q^{R-r}\\ =&(R+1)p\sum_{r=0}^{R} \frac{R!}{(R-r)!r!}p^{r}q^{R-r}\\ =&(R+1)p(p+q)^R\\ =&Np(p+1-p)^{N-1}\\ n_0 =&Np\\ \end{aligned}

Analogamente

\begin{aligned} < n^2 >_0 =& \sum_{n=1}^{N} n^2 \frac{N!}{(N-n)!n!}p^{n}q^{N-n}\\\ =&\sum_{r=0}^{R} \frac{(r+1)^2(R+1)!}{(R-r)!(r+1)!}p^{r+1}q^{R-r}\\ =&(R+1)p\sum_{r=0}^{R} \frac{(r+1)R!}{(R-r)!r!}p^{r}q^{R-r}\\ =&(R+1)p \left[ \sum_{r=0}^{R} r\frac{R!}{(R-r)!r!}p^{r}q^{R-r} + \sum_{r=0}^{R} \frac{R!}{(R-r)!r!}p^{r}q^{R-r} \right]\\ &\\ & s=r-1=n-2 \qquad e \qquad S=R-1=N-2\\ &\\ =&(R+1)p \left[ \sum_{s=0}^{S} \frac{(S+1)!}{(S-s)!s!}p^{r}q^{R-r} + \sum_{r=0}^{R} \frac{R!}{(R-r)!r!}p^{r}q^{R-r} \right]\\ < n^2 >_0 =&Np \left[ (N-1)p + 1 \right]\\ \end{aligned}

Então

\begin{aligned} \sigma_0^2=&< n^2 >_0 - < x_0 >^2\\ =&Np^{2}(N-1) + Np - N^{2}p^{2}\\ \sigma_0=&\sqrt{ Np(1-p)}=\sqrt{n_0q} \end{aligned}

E claramente a distribuição binomial é normalizada, basta substituir p e q por a e b no binômio de newton, sabendo que

q=1-p.

A distribuição de Poisson é um caso limite da distribuição binomial, quando o número de observações N é muito grande e a chance de sucesso p é muito pequena. Sob estas condições é razoável as seguintes aproximações

\begin{aligned} 1. \ & \ n_0 = Np = a << N\\ 2. \ & \ \frac{N!}{(N-n)!n!} = N(N-1)(N-2)...(N-n+1) \approx N^{n}\\ 3. \ & \ p = \frac{a}{N} \end{aligned}

Daí

\frac{N!}{(N-n)!n!}p^{n}q^{N-n}=\frac{N^{n}}{n!}\frac{a^{n}}{N^{n}}\left( 1 - \frac{a}{N} \right)^{N-n}

Lembrando que

e^x = lim_{N \to \infty} \left(1 + \frac{x}{N} \right)^N = \sum_{n=0}^{\infty} \frac{x^n}{n!}

Segue que no limite N \to \infty sob as condições citadas anteriormente a distribuição binomial assume a forma da distribuição de Poisson

\frac{a^{n}e^{-a}}{n!}

que é normalizada, já que

e^{-a}\sum_{n=0}^{\infty}\frac{a^n}{n!}=e^{-a}e^{a}=1.

De maneira muito parecida com o caso da binomial é possível encontrar a média

\begin{aligned} n_0 =& \sum_{n=0}^{\infty} n\frac{a^{n}e^{-a}}{n!}\\ =& \sum_{n=1}^{\infty} \frac{a^{n}e^{-a}}{(n-1)!}\\ =& \sum_{r=0}^{\infty} \frac{a^{r+1}e^{-a}}{r!} \qquad (r=n-1)\\ =& a \sum_{r=0}^{\infty} \frac{a^{r}e^{-a}}{r!}\\ n_0 =& a \end{aligned}

Analogamente

\begin{aligned} < n^2 > =& \sum_{n=0}^{\infty} n^2\frac{a^{n}e^{-a}}{n!}\\ =& \sum_{r=0}^{\infty} (r+1)^2\frac{a^{r+1}e^{-a}}{(r+1)!} \qquad (r=n-1)\\ =& a \left[ \sum_{r=0}^{\infty} r\frac{a^{r}e^{-a}}{r!} + \sum_{r=0}^{\infty} \frac{a^{r}e^{-a}}{r!}\right]\\ < n^2 > =& a(a+1) \end{aligned}

Então

\begin{aligned} \sigma_0^2=&< n^2 >_0 - < x_0 >^2\\ =&a(a+1)-a^2\\ \sigma_0=&\sqrt{a} \end{aligned}

Anúncios

Comentário:

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s