Curso Física Experimental Noic- Aula 01

Aula de Victor Ivo

Erros Experimentais: Suas análises e implicações

Na física experimental se faz a hipótese razoável de que não temos uma precisão infinita na informação que obtemos na natureza, i.e, dada uma realidade ou em geral um fenômeno, não é possível mapear todos acontecimentos naturais ou medir as observáveis (comprimento, intervalo de tempo, peso) com precisão arbitrária, a implicação prática disso é que a partir de alguma casa os dígitos de números medidos começa a perder o significado, ou credibilidade.

Tomemos como exemplo ilustrativo uma régua:

Régua marcada

Figura 1: Régua milimetrada marcada com um x num ponto ao longo de si

Pelas marcações e observando podemos inferir que um ponto está entre duas marcações da régua, isto é , é seguro afirmar que o centro do x marcado está entre 20.0 e 21.0 mm, ou matematicamente, definindo x=0 no zero da régua:

 x \in R : x \in (20.0,21.0) mm

-Obs: Ainda podemos inferir que o centro (valor mais provável da medida) está em 20.5 mm, pois nosso erro experimental é pequeno o suficiente para colocarmos um 0.5mm a mais ou a menos a par da marcação do instrumento.

-Obs(2): Observável é qualquer grandeza física mensurável, por medidas diretas ou indiretas, como por exemplo energia, quantidade de movimento, velocidade, etc.....

Perceba que a régua é, a grosso modo, uma idealização da reta real ( o conjunto dos reais), cuja medição é uma função que leva uma observação a um intervalo no conjunto dos reais (reais com dimensão de comprimento, hehe), e toda a ideia de instrumento de medição não foge muito dessa ideia, basicamente temos uma observação, que através de uma "função" responde regiões possíveis pra um valor de observável (nunca um ponto, sempre uma região de possibilidades, esta é a grande limitação da experimentação).

A toda medida física vamos definir um erro, ou desvio, que corresponde ao desvio em média que a medida terá em relação ao valor médio dela, e este erro vai nos ajudar a entender a limitação da nossa medição e portanto o que podemos estudar com nosso esquema experimental, também nos ajudará a entender o quão exato é nosso experimento e até comparar de maneira adequada medidas diferentes.

Tendo em mente o que é uma medição e os processos que geram uma medição, partiremos agora pra algumas definições, como vamos definir qual a região de possível existência (ou de mais relevante possibilidade de existência) pra uma observável a partir do instrumento que estamos usando. Na base das definições teremos os erros instrumentais, vamos tomar algumas hipóteses razoáveis sem nenhuma dedução rigorosa, tomando como regra que, tomando um valor médio ou mais aparente como centro da medida, podemos definir a semi-largura da região possível de existência da medida (o chamado desvio experimental) como:

-Para instrumentos analógicos ( Como régua ou compasso):

O erro é metade da graduação do instrumento, i.e, para uma régua milimetrada teríamos um erro na medida de 0.5 mm, e isso faz algum sentido se você imaginar que para um intervalo entre x e x+\Delta x a medida está numa largura possível de \Delta x, e é natural convencionar que o desvio da medida é metade desse intervalo, sendo a largura total o dobro do desvio ( considerando o desvio igual nas duas "direções").

-Para instrumentos digitais ( Como multímetro ou cronômetro):

O erro é convencionado como a própria graduação, e isto vem do fato de que não estamos mais definindo uma região entre duas marcações para a existência da medida, mas estamos tomando uma leitura como o valor da medida, e as flutuações em torno dessa medida se dão por flutuações do último digito, podendo ser um pra cima ou pra baixo (para instrumentos bons, na prática a flutuação dos valores pode ser bem maior), mas alguns experimentalistas acham mais conveniente definir o desvio como a flutuação em média da medida, em alguns casos pode ser mais conveniente, mas a regra original é que se deve usar o último dígito.

Amperímetros

Figura 2: (A) Amperímetro (medidor de corrente) analógico. (B) Multímetro (que também funciona como amperímetro) digital

Outra restrição importante é que se deve limitar a escrita do valor principal ao último dígito do desvio, isto é, não faz sentido você escrever um valor de distância de  21.58 mm com uma régua milimetrada, então você deve aproximar pro número mais próximo com a quantidade correta de algarismos, como 21.6 mm (pois seu erro é 0.5 mm, o que vai até a primeira casa). Alguns também usam que sua medida deve ser sempre um múltiplo do erro, portanto ainda teríamos que corrigir nossa medida para 21.5 mm, mas depende do experimentalista, nas provas quando se cobra isso em geral está escrito em alguma parte dela que é necessário ( por exemplo, na parte que sempre vem com revisão das fórmulas de erro). É definido também que os desvios devem conter apenas um algarismo na sua representação, sendo exceção pra isso apenas o 1 e o 2, que devem ser representados com dois algarismos, a única exceção pra isso é o erro de instrumentos de medição, o erro de instrumento de medição deve ter sempre um algarismo a não ser que dito o contrário, e ainda vale que se o fabricante definir como você deve calcular o erro da medição, isto deve se sobressair sobre as regras acima.

-Exemplo:

Vamos supor que você usou o multímetro da figura para fazer uma medida de voltagem rms (o que ele está indicando agora), e no visor está indicando 21.7, supondo que você não recebeu nenhuma informação a mais pro aparelho, você deve estimar o erro como o último digito, assim, podemos representar esse valor como:

V_{rms}=(21.7 \pm 0.1) V

Onde V é volts, perceba que o erro tem apenas um algarismo (zeros a esquerda não contam, obviamente, do contrário você podia mudar o número de algarismos por escrever o número de maneira diferente 0.1 e 0.01 *10 são o mesmo número e devem ter o mesmo número de algarismos), apesar de o algarismo ser um, mas suponha por exemplo que você faz uma operação como somar isso com outro número:

n=(1.20 \pm 0.10) V

Veremos no final desta aula, que o desvio desse produto é, sendo \sigma_{x} o desvio de x:

\sigma_{n+V_{rms}}=\sqrt{\sigma_{n}^2+\sigma_{V_{rms}}^2}

Como os dois desvios são iguais:

\sigma_{n+V_{rms}}=\sqrt{2}*0.1 \approx 0.1414... \approx 0.14

Esse erro agora deve conter dois dígitos, pela regra do 1, e não é uma exceção pois esse erro não surgiu de um instrumento (que o faria ter um dígito), mas de uma operação, então:

n+V_{rms}=(22.90 \pm 0.14) V

Perceba que tivemos que adicionar um zero a direita da primeira medida, fazendo 21.7 \rightarrow 21.70.

Contudo, apesar do corte de algarismos a mais, é recomendado colocar a medida inteira nos cálculos que a envolvem, pra apenas no final simplificar o cálculo, do contrário teríamos um acúmulo de erros induzidos pela constante simplificação ( perceba que é recomendado, mas não obrigado diretamente e que tempo pode ser precioso numa prova).

Tipos de erro experimental:

  • Aleatório:

A noção de um erro experimental aleatório vem do tipo de erro na medida que apenas afeta a precisão da medida ( se feito em condição de repetitividade), sem afetar a exatidão, isto é, imagine um gás com um número grande de partículas preso num recipiente cúbico, por simetria é esperado que se fizermos uma média da posição das moléculas  encontremos a posição média como sendo zero (no centro), só que as moléculas estão espalhadas ao longo do recipiente de maneira aleatória e equiprovável, então é como se tivéssemos uma posição média com alto desvio, já que apesar da posição estar em média no zero, nós temos várias partículas dispersas por todos os valores até o contorno (até x=R,ou y ou z, onde R é o comprimento do cubo).

A analogia do gás fica mais clara no conceito de medidas em condição de repetitividade, onde cada partícula do gás é uma medição, onde o valor médio (para medidas totalmente aleatórias) é o valor real da medição, e a dispersão média da medida é o desvio experimental.

Exemplo 2:

  • Medida de intervalo de tempo com um cronômetro
  • Erro na posição de um feixe laser (ele tem um certo diâmetro)
  • Sistemático:

O erro sistemático está relacionado com o desvio da média duma série de medidas em condição de repetitividade, isto é, um erro que desloca a média do valor real da observável, mas podemos associar o conceito de erro sistemático de uma maneira mais geral a erros que deslocam o valor da medida do valor original, isto complementado com erros aleatórios leva ao erro real do laboratório, em que conseguimos um valor deslocado do valor real e com uma certa aleatoriedade nas medidas que o desloca da sua média. O erro sistemático, no nosso exemplo do gás, seria uma maior concentração de partículas (que são nossos pontos) numa região que não é o centro ( que seria o valor esperado).

Exemplo 3:

  • Ganho ou perda de tempo num cronômetro por erro de calibração
  • Régua com zero colocado de maneira errada (desloca todos os valores de um valor constante)
  • Resistência do ar num experimento de queda livre

Vale lembrar também que o conceito de erro experimental e erro aleatório só fazem sentido em situações com condição infinita de repetitividade, isto é , com uma quantidade infinita de medidas de um dado observável, pois é muito difícil que um conjunto finito de medidas (50 medidas, por exemplo) dê o valor médio de uma observável igual ao valor verdadeiro, sempre existe um desvio do valor médio em relação ao valor esperado, que não deve ser confundido com um erro sistemático, um erro sistemático desloca o valor médio do valor esperado mesmo com medidas infinitas da mesma observável, ele está atrelado à condução do experimento e não ao número de medidas em si.
Exatidão

Figura 3: (a) Medidas com baixa precisão e alta exatidão (b) Medidas com alta precisão e alta exatidão (c) Medidas com baixa precisão e baixa exatidão (d) Medidas com alta precisão e alta exatidão. É como um lance de dardos em que o centro é o valor verdadeiro e os dardos, os pontos, são as medidas.

Podemos pensar numa analogia com um tribunal, em que temos várias testemunhas que presenciaram o crime dando um depoimento, os depoimentos terão algumas coisas em comum, isto são os padrões que podemos tirar de  quase todos, e isso é o que esperamos que de fato tenha acontecido, e o que não é consenso (alguns falaram que alguém matou um homem, outros falaram que ele morreu num acidente, não podemos garantir como ele morreu apenas por isso, mas provavelmente esse homem morreu mesmo) nós tiramos da descrição do crime, as coisas pouco repetidas, que podemos ver que talvez sejam apenas confusões ou histórias inventadas, são os erros aleatórios, e uma inverdade reiterada várias vezes, como se as testemunhas combinassem um falso testemunho antes, é um erro sistemático, é uma falsa "medida precisa".

Qualidade de medida:

Podemos analisar a qualidade de uma medida experimental, a grosso modo, por dois conceitos, sua exatidão e sua precisão, sua exatidão se refere ao quão perto do valor real nossa medida experimental está e a precisão é quão pequeno está o desvio do valor, que pode se dar genericamente como desvios dos valores medidos do valor médio, o que seria como o tamanho do recipiente de gás na nossa analogia.

  • Erro Aleatório diminui precisão.
  • Erro Sistemático diminui exatidão.

Os erros aleatórios estão associados ao equipamento usado na medição, então melhorar precisão é melhorar o instrumento usado no experimento, não se pode estudar distâncias interatômicas com uma régua, e se consegue aumentar a exatidão diminuindo os erros sistemáticos no experimento, que muitas vezes dependem do experimentalista, que deve corretamente calibrar o equipamento, se certificar que o procedimento experimental está funcionando corretamente e não deve cometer erros grosseiros (como medir 22 ou 21 oscilações de um pêndulo ao invés de 20).

Propagação de erros:

É extremamente comum lidarmos com experimentos em que precisamos trabalhar com a falseabilidade de alguma teoria, ou de alguma lei empírica, e para isso muitas vezes precisamos tratar dados experimentais, que serão tratados  por uma série de operações como multiplicação, adição ou etc. Em geral quando exercemos esse tipo de operação, temos uma medida, que é levada por meio de uma função a uma imagem (como por exemplo  f(x)=x^2, leva um elemento x do domínio para um x^2 na imagem), e isso acontece porque estamos trabalhando com um ponto, quando temos uma medida experimental não temos um ponto, temos uma região de relevância estatística (que vale a pena ser considerada como possível), e cada ponto dessa região terá uma imagem, e no final a função ( sendo contínua) vai gerar uma imagem com uma certa região de existência ( que vale a pena ser considerada), ou seja, o erro da medida se propaga pela função, e isso deve ser considerado para fazermos análises experimentais adequadas.

Podemos imaginar, por exemplo, para erros pequenos, que o desvio do valor da função também deve ser muito pequeno (por continuidade da função), e para isso podemos pegar o desvio em primeira ordem, através da derivada da função, i.e:

Função

Figura 4: Gráfico de uma função f(x) genérica, a reta spray de vermelho representa a tangente à curva nesse ponto, e as variações da função em relação a esse ponto podem ser aproximadas como as variações dessa reta.

Próximo o suficiente do ponto x_{o} podemos tratar a função localmente como uma reta, cuja inclinação é igual à da reta tangente à função neste ponto, podemos aproximar a flutuação dessa função como a flutuação dessa reta devido a um desvio \epsilon do ponto, tal que:

f(x_{o}+\epsilon) \approx f(x_{o})+f'(x_{o})\epsilon

Onde f'(x_{o}) é numericamente igual à inclinação da reta tangente à função no ponto x_{o}, sendo esta também chamada de derivada da função. Podemos estimar o erro da função então a partir do erro da medida, que estimaremos como o desvio padrão (ou erro) de x, logo:

f(x+\sigma_{x}) \approx f(x)+\sigma_{f(x)}

\sigma_{f(x)}=| f'(x) \sigma_{x} |

Usamos a barra de módulo porque o erro é por definição positivo,e numa notação mais clara, a relação fica:

\sigma_{f(x)}= |\frac{df(x)}{dx} \sigma_{x} |

Perceba que fizemos  \epsilon \rightarrow \sigma_{x}, pois é a flutuação média da medida, e numa função de "n" variáveis independentes,{x_{i}}, não demonstraremos nesta aula mas pode-se mostrar que:

\sigma_{f(x_{1},...,x_{n})}=\sqrt{\sum_{i=1}^{n} (\frac{\partial f(x_{1},...,x_{n})}{\partial x_{i}} \sigma_{x_{i}})^2}

Sendo \frac{\partial f}{\partial x} a derivada parcial da função f em relação a x, i.e, a derivada da função mantendo todo o resto das variáveis independentes constantes, por exemplo:

Exemplo:

f(x,y)=xy

Pela regra do produto temos:

\frac{\partial f}{\partial x}=\frac{\partial x}{\partial x}y+x\frac{\partial y}{\partial x}=y+0=y

\frac{\partial f}{\partial y}=\frac{\partial x}{\partial y}y+x\frac{\partial y}{\partial y}=0+x=x

Zeramos as derivadas de y em relação a x e a contrária porque elas são zero, já que na derivada parcial em relação a uma variável você mantém todas as outras constantes, e a derivada da função constante é zero.

Vale provar alguns resultados úteis, por exemplo, num produtório de variáveis:

f(x_{1},...,x_{n})=x_{1}x_{2}...x_{n}

\frac{\partial f}{\partial x_{i}}=x_{1}...x_{i-1}x_{i+1}...x_{n}

\frac{\partial f}{\partial x_{i}}=\frac{f}{x_{i}}

\sum_{i=1}^{n}(\frac{\partial f}{\partial x_{i}} \sigma_{x_{i}})^2

\sum_{i=1}^{n}(\frac{f}{x_{i}}\sigma_{x_{i}})^2

\sigma_{f}=\sqrt{f^2 \sum_{i=1}^{n}(\frac{\sigma_{x_{i}}}{x_{i}})^2}

(\frac{\sigma_{f}}{f})^2=\sum_{i=1}^{n} (\frac{\sigma_{x_{i}}}{x_{i}})^2

Portanto, podemos usar que o erro relativo \frac{\sigma_{f}}{f} da função ao quadrado é a soma dos quadrados dos erros relativos, algo como "Pitágoras", ou módulo de um vetor (que na realidade tem algo a ver com isso), e isso funciona sempre que as grandezas forem independentes (sem nenhuma correlação), e o erro for pequeno o suficiente (sempre use na hora da prova, ainda não foi cobrado nada para erros da ordem de grandeza da medida e a matemática é mais complicada, então sempre simplifique como pequeno para olimpíadas).

Você não precisa decorar as relações de erros para a prova porque sempre é dado uma folha com as relações mais importante, e de qualquer maneira você pode apenas aplicar a fórmula das derivadas ( se você souber derivar , o que não é necessário mas pode ser muito bom para olimpíada, na seletiva e Ipho é necessário, mas na OBF não é).

-Exemplos:

(1) Produtório de Potências:

f({x_{i}})=x_{1}^{a_{1}}.....x_{n}^{a_{n}}

\frac{\partial f}{\partial x_{i}}=a_{i} x_{1}^{a_{1}}....x_{i-1}^{a_{i-1}}x_{i}^{a_{i}-1}x_{i+1}^{a_{i+1}}...x_{n}^{a_{n}}

\frac{\partial f}{\partial x_{i}}=a_{i} \frac{f}{x_{i}}

\sigma_{f}=\sqrt{\sum_{i=1}^{n}(\frac{\partial f}{\partial x_{i}} \sigma_{x_{i}})^2}

\sigma_{f}=\sqrt{\sum_{i=1}^{n}(a_{i}\frac{f}{x_{i}}\sigma_{x_{i}})^2}

(\frac{\sigma_{f}}{f})^2=\sum_{i=1}^{n} (a_{i} \frac{\sigma_{x_{i}}}{x_{i}})^2

Pro caso a_{1}=a_{2}=...=a_{n}=1 temos o resultado da soma das quadraturas de volta, que é bastante parecido com esse a não ser pelo termo de potência multiplicando, que é como se fosse uma soma com "pesos".

-Exemplo(1):

Dado (x,y) independentes, pegue:

x=(1.70 \pm 0.03)

y=(1.50 \pm 0.05)

f(x,y)=x^{2} y^{3}

\delta_{f}^2=(2\delta_{x})^2+(3\delta_{y})^2

\sigma_{f}=x^{2} y^{3} \sqrt{(2\frac{0.03}{1.70})^2+(3\frac{0.05}{1.5})^2}

\sigma_{f} \approx 0.5

f=(9.8 \pm 0.5)

(2) Logaritmo Natural:

f(x)=a lnx

\sigma_{f}=\frac{\partial f}{\partial x} \sigma_{x}

\sigma_{f}=\frac{a \sigma_{x}}{x}

O erro da função depende do erro relativo do argumento, que em geral é bem menor que um, então é esperado que tirar o ln de uma função reduza bastante o erro relativo dela, o que pode ajudar bastante em experimentos poucos precisos em que se precisa fazer uma análise de erro.

(3) Funções harmônicas:

f(x)=senx

g(x)=cosx

\sigma_{sen(x)}=|\frac{df}{dx} \sigma_{x}|=|cos x \sigma_{x}|

\sigma_{cos(x)}=|\frac{df}{dx} \sigma_{x}|=| sen x \sigma_{x}|

\sigma_{sen(x)}^2+\sigma_{cos(x)}^2=\sigma_{x}^2

As flutuações de funções harmônicas dependem fortemente do argumento, o que pode levar a flutuações quase nulas em certas partes da função, isto que pode ser muito bem aproveitado para reduzir erros experimentais em certos experimentos.

(4) Exponencial:

f(x)=b e^{x}

\sigma_{f}=|\frac{df}{dx}\sigma_{x}|

\sigma_{f}=be^{x} \sigma_{x}

\frac{\sigma_{f}}{f}=\sigma_{x}

Vemos então que o erro relativo cresce muito fortemente em funções exponencial, porque uma flutuação de 1 no argumento da função já leva a um erro relativo igual a um, o que não tem sentido físico, então a função exponencial pode ser muito perigosa para análise de erros, os erros crescem "exponencialmente" também.

Algarismos Significativos:

Muitos cursos de física experimental primeiro ensinam como trabalhar com algarismos significativos, e depois disso ensinam erro, eu sempre preferi no curso primeiro ensinar erro e propagação de erro, pois assim não só o aluno aprende primeiro como surgem a redução de algarismos pelas regras de erro (o que é quantitativamente a ideia de algarismos que perdem o significado por causa de limitações) e pode já aplicar essas ideias nas tabelas e gráfico, como ele pode deduzir diretamente as regras de algarismo significativo, o que faremos a seguir:

Passo 01:

Observemos que toda medida experimental tem um erro, e portanto podemos expressa-lá da seguinte maneira:

x=x_{o} \pm \sigma_{x}

Passo 02:

Consideremos agora operações entre medidas, como adição e multiplicação, começaremos pela de multiplicação porque já foi comentada na parte de propagação de erros, sendo as duas variáveis aleatórias, perceba que:

f(x,y)=xy

Chamaremos de \delta o erro relativo de uma medida, logo:

\delta_{f}^2=\delta_{x}^2+\delta_{y}^2

Sem perda de generalidade vamos dizer que \delta_{x} \geq \delta_{y},i.e, podemos dizer que:

\sqrt{2} \delta_{x} \geq \delta_{f} \geq \delta_{x}

Obs: Se elas não forem aleatórias, o fator multiplicando o desvio na desigualdade esquerda pode ser no máximo 2, então continuamos na nossa conclusão em geral, perceba que potenciações são multiplicações de um número por ele mesmo (isso funciona mesmo que não seja um número inteiro na potência, faça as contas do erro para a potenciação e ficará claro).

Dessa desigualdade conseguimos ver que o erro relativo não pode diferir muito em ordem de grandeza do maior erro, em geral quando tratamos de erro queremos apenas ordens de grandeza, apesar de algumas análises mais precisas, mas no caso do estudo de algarismos significativos não queremos uma precisão grande no erro, queremos apenas chegar numa relação confiável pra trabalhar com número de dígitos de uma medida sem precisar de cálculos extensos, então podemos dizer com segurança que é bastante suficiente tomar o erro relativo como o maior (pois pode diferir deste no máximo de um fator raíz de 2), e que como o erro relativo multiplicado pelo valor dá o erro, sendo a ordem de grandeza definida por um fator de 10 do erro relativo, temos que o erro relativo está definindo o número de algarismos escritos do número, então basicamente o número de algarismos da nossa multiplicação é o número de algarismos do número com menos algarismos (o que tem o maior erro relativo), portando nos permitindo enunciar a regra da multiplicação:

-Regra da multiplicação: Numa multiplicação de dois números, a quantidade de algarismos significativos da multiplicação é a quantidade do número com menos significativos

Passo 03:

Trabalhando no escopo do caso passado, podemos agora ver como fica a regra de algarismos significativos no caso da adição, o trabalho é parecido com o realizado na sessão passada no sentido de que ainda usaremos uma quadratura e a ideia de desigualdades, perceba que, dado z tal que:

z=x+y

\sigma_{z}=\sqrt{\sum_{i=1}^{n}(\frac{\partial f}{\partial x_{i}} \sigma_{x_{i}})^2}

\sigma_{z}=\sqrt{\sigma_{x}^2+\sigma_{y}^2}

Analogamente, faça sem perda de generalidade que \sigma_{x} \geq \sigma_{y}, i.e, podemos dizer que:

\sqrt{2} \sigma_{x} \geq \sigma_{z} \geq \sigma_{x}

Agora, perceba que como a medida vai até a última casa do erro, então o erro define a última casa, de novo como não vamos nos importar com valores exatos de erro e o que mais importa para algarismo significativos é a ordem de grandeza, o erro definindo a última casa, e o erro de z sendo da mesma ordem do erro de x, sendo x o número com menos casas decimais (maior erro), temos então que eles vão até a mesma última casa, nos permitindo enunciar

-Regra da Soma: A última casa da soma de dois números é a última casa do número com menos casas decimais.

E basicamente com essas duas regras nós construímos toda conta com algarismos significativos, o que surge naturalmente da teoria de erro e algumas hipóteses simplificadores razoáveis. É necessário o uso de algarismos significativos corretamente mesmo em questões teóricas de olimpíadas de física, pois mesmo com os dados fornecidos não sendo pegues por você, eles tem alguma origem empírica, portanto contendo erro que pode ser tratado suficientemente bem por nossas regras.

Outra coisa que o aluno mais astuto pode ter percebido é que na nossa demonstração fizemos apenas o caso da soma de dois números e da multiplicação de dois, mas perceba que sempre podemos dividir uma soma de n números em várias operações sucessivas de soma dois a dois, o mesmo pra multiplicações, sendo nossa regra consistente. Outro aluno poderia argumentar que considerando um caso de "n" termos nas operações temos que o intervalo da desigualdade fica maior e maior (trocando 2 por n na desigualdade), o que pode causar um ganho de ordem de grandeza do erro ou erro relativo, mas toda regra tem suas limitações e com a regra de algarismos não é diferente, quando você aumenta muito o número de operações a precisão vai ficando mais e mais escassa, pelo constante acúmulo de erro, mas para casos comuns de prova isto não é tão relevante e não será o suficiente para estragar uma questão ou experimento, uma regra simplificadora deve ser usada de maneira simples, então tenhamos a maturidade adequada de seguir com as aproximações razoáveis que ela nós dá quando necessário seu uso.

Para o aluno de Ipho vale-se destacar que mesmo sendo a teoria de erro pouco presente nas provas o uso correto de algarismos significativos é mais do que necessário em todos problemas, sendo experimentais ou teóricos, então saiba que você pode ficar um pouco mais tranquilo com relação a incertezas, mas não tanto.

Para qualquer dúvida sobre a matéria dada no curso, ou até mesmo para olhar uma segunda vez ou revisar, deixo o link para o resumo da própria SBF sobre alguns tópicos:

Arquivo SBF sobre Retas e Erro

Deixo também aqui o link de alguns exercícios de experimental da UFPE, eles contém alguns dados, tabelas e papéis de gráfico que você pode usar para treinar velocidade e aplicar o que você aprendeu nessas aulas. Recomendo fortemente que você tente fazer o máximo de questões possíveis, alguns tópicos lá não são dados nesse curso pois também não caem nas provas, mas você pode fazer pra "saber pra vida", ou até mesmo olhar as soluções/gabaritos do que você não sabe para aprender, e depois voltar pra refazer a questão, de qualquer maneira, se esforce o máximo possível para treinar as habilidades que lhe serão úteis na hora dos testes. Link aqui

Deixo também o link de algumas tarefas para treinar velocidade e os conceitos ensinados aqui da aula, esse do próprio Noic, com algumas tabelas propositalmente extensas e propagações um pouco mais complicadas que vão cobrar seu bom e rápido uso de ferramentas como calculadora, tabela e gráficos, tente fazer todos antes das suas provas no tempo recomendado em cada um:

-Lista Noic de Tarefas em Experimental 01

-Lista Noic de Tarefas em Experimental 02

Desta aula vale-se destacar e lembrar o ensino de:

  • Como surge a ideia de erro experimental e como podemos pensar nisso formalmente.
  • Como se quantifica erros de instrumentos analógicos e digitais.
  • Como se simplifica a leitura para corte de algarismos sem significância.
  • Tipos de erros experimentais e como os evitar.
  • Propagação de erros.
  • Dedução e uso correto das regras de algarismos significativos.