Como bom estudante de física, você deve ter alguma intuição a respeito da média: provavelmente, você já deve ter feito várias medidas de algum fenômeno (como o período de um pêndulo) e tirado a média para obter uma estimativa do valor “real”. A Lei dos Números Grandes nos ajudará a formalizar essa intuição.
Como podemos modelar o processo de repetir um experimento
vezes? Bem, cada experimento consiste na medida de uma variável aleatória
para
. Essas variáveis aleatórias, porém, são reproduções do mesmo experimento (pense no exemplo de medir o período do mesmo pêndulo
vezes). Portanto, podemos afirmar algumas coisas interessantes sobre essas variáveis aleatórias. Primeiramente, elas devem ser identicamente distribuídas, ou seja,
devem vir da mesma distribuição, já que estamos medindo a mesma coisa em situações idênticas. Além disso, se nosso procedimento experimental for adequado, as variáveis aleatórias devem ser independentes, já que o resultado de um experimento não deve afetar causalmente o resultado do próximo. (Desprezaremos aqui o desgaste dos materiais do experimento, a fatiga do experimentador, etc.!)
Nossa meta como físicos é reconstruir a distribuição a partir da qual geramos as variáveis aleatórias
. Geralmente, porém, estamos medindo coisas (como o período de um pêndulo) que não tem aleatoriedade intrínseca: a discrepância entre os valores obtidos nos
experimentos é fruto de erros experimentais. Consequentemente, estamos mais interessantos em reconstruir o valor esperado (também conhecido como a média) da distribuição do que a forma geral da mesma. Afinal, a média da distribuição dos períodos observados dos pêndulos (desprezando erros sistemáticos) é algo que podemos chamar de “o período do pêndulo”! É claro, queremos ter alguma ideia de quão precisa é a nossa estimativa do período do pêndulo – um bom físico nunca escreve um valor experimental sem uma medidade de erro!
A Lei dos Números Grandes é algo poderoso: nos proporciona uma maneira de estimar o valor esperado de uma distribuição e também nos dá uma maneira de analisar o erro da nossa estimativa. O estimador do valor esperado deve já ser conhecido por você: ele é simplesmente a média aritimética dos resultados experimentais

Note que escrevemos esse estimador com um chapéu para indicar que ele é apenas nosso melhor chute para o valor da média da distribuição μ, que não podemos observar diretamente.
Com esse prelúdio terminado, podemos ir diretamente ao enunciado formal dessa lei!
Teorema. (Lei dos Números Grandes.) Sejam
variáveis aleatórias independentes e identicamente distribuídas. Definimos uma nova variável aleatória X tal que

Para qualquer
positivo, temos que
converge em probabilidade para
.
(Note que o estimador da média
é simplesmente o valor obtido de
para um dado conjunto de experimetos.)
Prova. Primeiramente, mostraremos que
. Lembrando da linearidade da expectativa, essa parte é quase trivial:

Agora, precisamos ter uma ideia de quão próximo
está de
, em geral. Essa ideia é capturada pela variância. Porém, como precisamos de um caso limite, será muito conveniente usar a desigualdade de Chebyshev. Para chegarmos nessa desigualdade de uma maneira fácil, porém, é necessário provarmos a desigualdade de Markov. Pode parecer um caminho tortuoso, mas essas desigualdades não são monstros de sete cabeças! Vamos à desigualdade de Markov:
Lema. (Desigualdade de Markov.) Seja
uma variável aleatória, com valor esperado
, tal que 
a função densidade de probabilidade associada a
. Logo:


Usamos o fato que ambas as integrais na primeira linha são positivas, já que
e
. Logo
é sempre não-negativa. Logo, podemos aplicar a desigualdade de Markov para ![\mathbb{P}[(X - \mu)^2 > t^2]” /></span><script type='math/tex'>\mathbb{P}[(X - \mu)^2 > t^2]</script>, o que resulta em</p>
<p style=](https://i0.wp.com/noic.com.br/wp-content/plugins/latex/cache/tex_b552d5a746e69439b30f2a070b54c1d9.gif?ssl=1)
completa a prova.
Agora, está quase tudo pronto para finalizarmos a prova por completo! Basta calcularmos a variância de
para podermos aplicar a desigualdade de Chebyshev e encontrarmos um limite para a probabilidade de 
![\mathbb{V}(X) = \mathbb{E}[(X - \mu)^2] = \frac{1}{n^2} \mathbb{E}\left[\left(\sum_{i = 1}^n X_i - \mu_i\right)^2\right].](https://i0.wp.com/noic.com.br/wp-content/plugins/latex/cache/tex_6e29eb23c401b65760f3037a709b4a46.gif?ssl=1)
Notemos que
para todo valor de
, e que, como as variáveis aleatórias
são independentes, os termos mistos do quadrado (isto é, termos da forma
para
) são nulos. Portanto, temos apenas
termos não-nulos; cada um desses termos é simplesmente
. Concluímos que a variância de
é
.
Finalmente, substituímos tudo na desigualdade de Chebyshev. Obtemos
. Consequentemente, o lado esquerdo também tem essa tendência e a Lei dos Números Grandes foi provada. Adicionalmente, conseguimos uma expressão que nos permite estimar o nível do erro das nossas medidas (usando o estimador do desvio-padrão

[fórmula que estabeleceremos posteriormente] como nosso melhor chute para o valor real de
)! Derivamos um tremendo resultado, de fato!
(Nota: esse limite superior no erro não é o mais prático para uma olimpíada como a IYPT, pois existem expressões mais complexas que nos dão um limite mais apertado. Porém, é uma fórmula muito fácil de se lembrar e calcular, o que pode a tornar útil em uma experimental da OBF ou algo similar.)
