Resumo do Capítulo 1 – “Measurement Systems” – do livro "Introduction to Instrumentation and Measurements" de Robert B Northrop.
Este resumo, fornece uma visão global dos principais tópicos abordados no Capítulo 1, salientando tanto os fundamentos teóricos dos sistemas de medição como a importância das técnicas de calibração e dos avanços tecnológicos que permitiram a evolução dos padrões de medição.
1.1 Introdução
Nesta secção o autor apresenta o contexto dos sistemas de medição e a relevância de compreender sua arquitetura para enfrentar os desafios inerentes, tais como ruído, erros de calibração, resposta dinâmica dos sensores e não-linearidades. Além disso, é introduzido o conceito de padrões – desde os primários, mantidos em laboratórios nacionais, até os secundários, usados na prática para calibração – com referência especial aos padrões modernos do NIST (Instituto Nacional de Padrões e Tecnologia dos Estados Unidos). Assim, o leitor é alertado para a natureza dinâmica e em constante mudança dos campos de instrumentação e medição.
1.2 Arquitetura dos Sistemas de Medição
Esta secção debruça-se sobre a estrutura típica de um sistema de medição através de um diagrama em blocos:
-
Conversão da Quantidade Sob Medição (QUM):
O processo começa com o sensor ou transdutor, que converte a QUM (por exemplo, pressão, deslocamento ou temperatura) numa forma utilizável – tipicamente um sinal elétrico (tensão ou corrente). É feita a distinção entre sensor e transdutor, sendo que estes últimos têm capacidade adicional de converter o sinal. -
Dinâmica dos Sensores:
São apresentados modelos matemáticos que descrevem o comportamento dos sensores:-
Sensores de Primeira Ordem (Low-Pass):
Modelados por uma equação diferencial simples, cuja resposta a um degrau envolve um tempo de estabelecimento (settling time) e uma constante de tempo. -
Sensores de Segunda Ordem:
Onde se distinguem três casos – subamortecido, criticamente amortecido e sobreamortecido – cada um com características diferentes na resposta ao degrau. O capítulo ilustra estas respostas através de diagramas e equações, enfatizando a influência dos polos na resposta temporal. -
Sensores Bandpass:
Utilizados quando a QUM é variável no tempo, produzindo uma resposta que sobe até atingir um pico antes de regredir a zero, exemplificada por transdutores piezoelétricos.
-
-
Condições e Processamento do Sinal:
Após a conversão, o sinal passa por um “condicionamento” analógico que inclui:-
Amplificação: Aumenta a potencia do sinal para que seja mais facilmente processado.
-
Filtragem: Utiliza filtros (incluindo a filtragem anti-aliasing) para eliminar ruídos e interferências, garantindo que o sinal esteja livre de componentes de alta frequência que poderiam comprometer a conversão de analógico para digital.
-
Conversão Analógico-Digital (ADC):
O sinal já condicionado é periodicamente amostrado e digitalizado, permitindo um processamento posterior por computadores. Posteriormente, podem ser aplicados tratamentos digitais, como filtragem adicional ou análises estatísticas.
-
1.3 Erros nas Medições
Esta secção analisa as várias fontes de erros que podem afetar as medições, dividindo-as em duas categorias principais:
-
Erros Brutos (Gross Errors):
Associados a falhas humanas ou práticas inadequadas, tais como:-
Leitura precoce antes de atingir o estado estacionário, causando erro dinâmico.
-
Efeitos de paralaxe na leitura de instrumentos analógicos.
-
Erros na gravação dos dados ou na utilização incorreta dos instrumentos.
-
-
Erros do Sistema (System Errors):
Resultam de fatores intrínsecos ao sistema de medição:-
Erros de Calibração e Offset:
Um instrumento pode ter um desvio devido a alterações no valor dos componentes com o tempo (envelhecimento) ou alterações de temperatura. -
Ruído:
Pode ser o ruído ambiental (ex.: interferências de fontes de rádio ou campos eletromagnéticos) ou ruído oriundo dos circuitos eletrónicos (como o ruído térmico em resistências ou ruído de quantização do ADC). -
Derivas (Drift):
Mudanças lentas na sensibilidade ou no zero do sistema devido a variações de temperatura ou humidade.
-
São definidas matematicamente as métricas de erro, como o erro absoluto, o erro relativo (percentual), a precisão (medida como a dispersão dos valores obtidos em relação à média) e a exatidão (quanto o valor medido se aproxima do verdadeiro). Além disso, apresenta uma abordagem de séries de Taylor para a propagação do erro (limiting error, ou LE) em medições derivadas, ilustrada com exemplos (por exemplo, a medição de potência).
Também é discutido o método de ajuste por mínimos quadráticos (regressão linear) para encontrar a melhor linha de ajuste a conjuntos de dados ruidosos, com fórmulas para determinar o coeficiente de correlação, o declive (m) e a coordenada na origem (b), e, assim, avaliar a qualidade do ajuste.
1.4 Padrões Utilizados em Medições
Esta secção é dedicada à calibração e à definição dos padrões que asseguram a precisão e a rastreabilidade das medições. São distinguidos vários tipos de padrões:
-
Padrões Internacionais:
Definidos por acordos internacionais (ex.: o quilograma, mantido em Sèvres, França) e utilizados como referência absoluta. -
Padrões Primários:
Mantidos em laboratórios nacionais (como o NIST nos EUA), estes padrões representam unidades físicas fundamentais e são continuamente comparados a outras medições internacionais. -
Padrões Secundários e de Trabalho:
São calibrados a partir dos padrões primários e utilizados em laboratórios e na indústria para ajustar e verificar a precisão dos instrumentos de medição.
Dentro da secção, diversos padrões elétricos são abordados:
-
Potencial (Volt):
É discutido o desenvolvimento histórico – do uso da célula padrão de Weston (com suas limitações, como o elevado coeficiente de temperatura) à adoção do efeito Josephson para estabelecer um padrão de tensão baseado em fenómenos quânticos. São apresentados esquemas e fórmulas que relacionam o passo quântico à frequência de radiação (usando a constante de Josephson) e a comparação com outros padrões. -
Resistência (Ohm):
A evolução do padrão de resistência é apresentada, desde o método inicial com colunas de mercúrio (internacional ohm) até aos padrões primários de resistências wirewound (como a resistência Thomas) e, mais recentemente, ao uso do Efeito Hall Quântico (QHE) como base para o padrão de resistência, que permite medições com incertezas extremamente baixas. -
Corrente e Carga:
São analisadas as definições tradicionais e modernas de ampère, passando pela medição de corrente através de métodos de interação entre condutores (força entre eles) e através de técnicas mais modernas, nomeadamente o método de equilíbrio de massa em sistemas de levitação supercondutora, que relacionam corrente elétrica com parâmetros mecânicos (massa, aceleração da gravidade, velocidade). -
Capacidade (Farad):
São explorados os métodos para definir e medir a capacidade, incluindo a definição convencional (1 F = 1 V / 1 C) e técnicas mais avançadas, como as pontes comutadas e o uso de condensadores calculáveis baseados no teorema de Thompson-Lampard. Estes dispositivos, de geometria controlada e medidos com interferometria a laser, permitem alcançar incertezas de ordem extremamente baixa.
Indutância (Henry):
Embora a indutância seja uma quantidade derivada, os padrões para indutância são obtidos mediando‑a por métodos de ponte, envolvendo resistências e condensadores de alta precisão. Estão também vinculados aos padrões quânticos e à utilização de circuitos de ponte AC para estabelecer referências secundárias ou de transferência.