Pesquisar neste blogue

Mostrar mensagens com a etiqueta Resumo. Mostrar todas as mensagens
Mostrar mensagens com a etiqueta Resumo. Mostrar todas as mensagens

terça-feira, 29 de abril de 2025

Resumo extraído do Capítulo 1 do livro Structured Computer Organization de Andrew S. Tanenbaum (5.ª edição)

1. Introdução

Este capítulo começa por definir o que é um computador digital: uma máquina capaz de resolver problemas executando instruções fornecidas por pessoas. Estas instruções formam programas, que têm de ser convertidos numa linguagem de máquina simples para serem executados. Como esta linguagem é difícil de usar, os sistemas são estruturados em camadas ou níveis de abstração para facilitar o seu desenvolvimento e utilização. Este conceito é a base da “organização estruturada dos computadores”.


1.1 Organização Estruturada de Computadores

1.1.1 – Linguagens, Níveis e Máquinas Virtuais

A diferença entre o que é conveniente para as pessoas e para os computadores exige a criação de linguagens intermédias. Cada linguagem (L0, L1, L2, ..., Ln) representa um nível (ou máquina virtual) de abstração. A execução de programas escritos nestas linguagens pode ser feita por tradução (converter para uma linguagem de nível inferior) ou por interpretação (executar directamente, instrução a instrução).

Isto dá origem à ideia de uma máquina multinível, onde apenas o nível mais baixo (L0) é executado directamente pelo hardware. Os níveis superiores são implementados por interpretadores ou tradutores baseados nos níveis inferiores. Esta estrutura facilita o desenvolvimento de sistemas complexos, escondendo detalhes de baixo nível e aproximando a linguagem da máquina à forma como os humanos pensam.

1.1.2 – Máquinas Multinível Contemporâneas

A maioria dos computadores modernos é estruturada em múltiplos níveis (até seis), desde o nível de hardware até às linguagens orientadas ao utilizador. Estes níveis são:

  1. Nível 0 – Lógica Digital: baseia-se em portas lógicas digitais (AND, OR, etc.), implementadas com transístores.

  2. Nível 1 – Microarquitectura: combina registos e uma ALU (Unidade Aritmética e Lógica). Pode ser controlado por hardware ou por microprogramas.

  3. Nível 2 – Arquitetura do Conjunto de Instruções (ISA): é a interface formal entre hardware e software. Define o conjunto de instruções que a máquina pode executar.

  4. Nível 3 – Máquina do Sistema Operativo: adiciona funcionalidades como multitarefa e manipulação de memória, interpretadas pelo sistema operativo.

  5. Nível 4 – Linguagem Assembly: forma simbólica da linguagem da máquina, traduzida por um assembler.

  6. Nível 5 – Linguagens de Alto Nível: como C, Java, etc., traduzidas por compiladores ou interpretadas.

Cada nível é construído com base no anterior, e os programadores de aplicações normalmente trabalham nos níveis mais altos, abstraindo-se dos níveis inferiores.

1.1.3 – Evolução das Máquinas Multinível

Historicamente, os computadores começaram com apenas dois níveis (lógica digital e ISA). A introdução da microprogramação por Maurice Wilkes simplificou o hardware ao mover parte do controlo para o software.

O sistema operativo surgiu para automatizar a operação dos computadores, criando um novo nível virtual. Ao longo do tempo, mais funcionalidades foram adicionadas ao microcódigo e aos sistemas operativos, aumentando a complexidade dos níveis intermédios.

Na década de 1980, houve uma tendência para eliminar a microprogramação em favor de execução direta (hardware controlado), como nas arquiteturas RISC. A linha entre hardware e software tornou-se cada vez mais fluida: funcionalidades podem ser implementadas em qualquer nível, dependendo do custo, desempenho e fiabilidade.


Secção 1.2 – Marcos na Arquitetura de Computadores

1.2.1 – Geração Zero: Computadores Mecânicos (1642–1945)

Iniciada com Pascal e Leibniz, esta geração é marcada por máquinas de cálculo mecânicas. Charles Babbage idealizou a Analytical Engine, considerada a antecessora dos computadores modernos. Ada Lovelace foi a primeira programadora da história.

1.2.2 – Primeira Geração: Válvulas de Vácuo (1945–1955)

Com o estímulo da Segunda Guerra Mundial, surgiram os primeiros computadores electrónicos como o ENIAC, EDSAC e Whirlwind I. John von Neumann propôs o modelo de computador com armazenamento em memória, que ainda hoje é usado (arquitetura de Von Neumann).

1.2.3 – Segunda Geração: Transístores (1955–1965)

A invenção do transístor permitiu construir computadores mais fiáveis e eficientes. Destacam-se o IBM 7094 (científico), o CDC 6600 (supercomputador com unidades funcionais paralelas), e o PDP-8 (minicomputador popular da DEC).

1.2.4 – Terceira Geração: Circuitos Integrados (1965–1980)

Com os circuitos integrados, surgem famílias de computadores como o IBM System/360, com várias versões compatíveis entre si. Introduziu-se o conceito de emulação e multiprogramação. No mundo dos minicomputadores, destaca-se o PDP-11 da DEC.

1.2.5 – Quarta Geração: VLSI e Computadores Pessoais (1980–?)

A integração em larga escala (VLSI) possibilitou a criação de computadores pessoais. O IBM PC, lançado em 1981, dominou o mercado, dando origem à indústria dos clones de PC. A Apple destacou-se com o Macintosh e o conceito de interface gráfica (GUI). Nesta geração destacam-se ainda os processadores RISC, como o MIPS e SPARC, e o Alpha da DEC (64 bits).

1.2.6 – Quinta Geração: Computadores Invisíveis

A promessa japonesa de inteligência artificial não se concretizou como esperado. No entanto, deu-se o aparecimento dos computadores invisíveis: embebidos em dispositivos, cartões e electrodomésticos. Esta visão, chamada computação ubíqua ou computação pervasiva, representa uma mudança de paradigma mais do que uma nova arquitetura.


1.3 – O Zoo dos Computadores

Esta secção explora a diversidade atual de computadores, motivada por forças tecnológicas e económicas.

1.3.1 – Forças Tecnológicas e Económicas

A evolução do hardware tem sido guiada pela Lei de Moore, que prevê a duplicação de transístores por chip de circuito integrado a cada 18 meses. Isso permite mais memória e maior desempenho. A crescente capacidade dos chips impulsiona novas aplicações e mercados, alimentando um ciclo virtuoso de inovação tecnológica.

1.3.2 – O Espectro dos Computadores

Os computadores variam desde os mais baratos (como cartões com chips descartáveis) até supercomputadores. O autor apresenta uma escala com tipos de computadores, preços aproximados e exemplos de aplicação, demonstrando a diversidade de equipamentos existentes.

1.3.3 – Computadores Descártaveis

Exemplos incluem chips RFID, usados em etiquetas inteligentes e até em seres vivos. Estes chips, sem bateria, são ativados por sinais externos e podem ser usados para identificação e seguimento de objetos, pessoas e animais, levantando implicações éticas e sociais.

1.3.4 – Microcontroladores

Presentes em electrodomésticos, brinquedos, carros e equipamentos médicos. São computadores completos (CPU, memória, E/S) integrados num único chip, programados para tarefas específicas e produzidos em massa a baixo custo.

1.3.5 – Computadores de Jogo

Ex: consolas como a Xbox e PlayStation. São sistemas especializados em multimédia, com CPUs gráficas poderosas e arquitecturas optimizadas para jogos.

1.3.6 – Computadores Pessoais

Incluem computadores de secretária, portáteis e PDAs. Têm múltiplos periféricos e sistemas operativos complexos. Os portáteis são versões compactas dos de secretária.

1.3.7 – Servidores

Computadores semelhantes a PCs mas com mais capacidade de memória, armazenamento e rede. São utilizados em redes empresariais e na Internet, executando sistemas operativos como Linux ou Windows Server.

1.3.8 – Conjuntos de Estações de Trabalho (COWs)

Clusters de computadores interligados que operam como um sistema único para tarefas paralelas. São usados como supercomputadores baratos ou "server farms" em sites de grande tráfego.

1.3.9 – Mainframes

Máquinas grandes e antigas, usadas ainda hoje por empresas com investimentos pesados em software antigo. Têm grande capacidade de E/S e armazenamento e foram ressuscitadas com a Internet para lidar com grandes volumes de transacções.

1.3.10 – Supercomputadores

Antes mais poderosos que os mainframes, hoje têm menos relevância, sendo substituídos por clusters mais baratos e flexíveis.


1.4 – Famílias de Computadores de Exemplo

O livro foca-se em três tipos de computadores:

  1. Computadores Pessoais – representados pelo Pentium 4

  2. Servidores – representados pelo UltraSPARC III

  3. Computadores Embebidos – representados pelo 8051

1.4.1 – Introdução ao Pentium 4

A família de CPUs da Intel evoluiu do 4004 (1970) até ao Pentium 4, com grande compatibilidade com versões anteriores. O Pentium Pro introduziu cache de dois níveis e execução paralela de até 5 instruções. O Pentium 4 trouxe a tecnologia de hyperthreading e novas instruções multimédia (SSE).

1.4.2 – Introdução ao UltraSPARC III

A Sun Microsystems criou a linha SPARC, baseada numa arquitectura RISC. A CPU UltraSPARC III, com 64 bits e total compatibilidade retroactiva, é um exemplo de processador poderoso para servidores. O SPARC distingue-se por ser uma arquitetura aberta com vários fabricantes licenciados.

1.4.3 – Introdução ao 8051

O 8051 é um microcontrolador de 8 bits com CPU, memória e E/S num só chip, lançado pela Intel em 1980. Muito usado em sistemas embebidos devido ao seu baixo custo, larga disponibilidade, vasta documentação e suporte por múltiplos fabricantes. Há variantes como o 8751 (regravável) e o 8052 (mais memória). A família MCS-51 é ainda amplamente usada em engenharia e investigação.


1.5 – Unidades Métricas

Esta secção esclarece o uso das unidades métricas no contexto da ciência computacional, e especialmente nas áreas de armazenamento e transmissão de dados.

Unidades Padrão

  • A informática adopta o sistema métrico internacional (SI), evitando unidades tradicionais anglo-saxónicas.

  • As principais prefixos métricos utilizados são:

    • mili (10⁻³), micro (10⁻⁶), nano (10⁻⁹), pico (10⁻¹²), kilo (10³), mega (10⁶), giga (10⁹), tera (10¹²), entre outros.

Ambiguidade entre base 10 e base 2

  • No contexto da memória, a indústria usa:

    • 1 KB = 2¹⁰ = 1024 bytes,

    • 1 MB = 2²⁰ = 1.048.576 bytes,

    • 1 GB = 2³⁰ = 1.073.741.824 bytes,

    • 1 TB = 2⁴⁰ = 1.099.511.627.776 bytes.

  • Contudo, em comunicações, os prefixos referem-se a potências de 10:

    • 1 kbps = 10³ bits/segundo,

    • 1 Mbps = 10⁶ bits/segundo, etc.

Esta dualidade pode causar confusão, por isso o livro usa:

  • KB, MB, GB, TB → para potências de 2 (memória),

  • kbps, Mbps, Gbps, Tbps → para potências de 10 (transmissão de dados).


1.6 – Estrutura do Livro

Esta secção apresenta uma visão geral da estrutura e abordagem do livro.

Objectivo principal

O livro trata da organização estruturada de computadores multinível, examinando quatro níveis em detalhe:

  1. Lógica digital – circuitos e portas lógicas.

  2. Microarquitectura – como o hardware interpreta instruções da ISA.

  3. ISA (Instruction Set Architecture) – conjunto de instruções da máquina.

  4. Máquina do sistema operativo – funcionalidades oferecidas pelo sistema operativo.

A obra foca-se em conceitos fundamentais e exemplos práticos, evitando pormenores excessivamente matemáticos ou técnicos.

Exemplos usados

Serão utilizados três computadores de referência ao longo do livro:

  • Pentium 4 (PCs),

  • UltraSPARC III (servidores),

  • 8051 (sistemas embebidos).

Estes foram escolhidos por:

  • Serem largamente utilizados.

  • Apresentarem arquitecturas diferentes.

  • Permitirem comparação crítica entre soluções de design.

O autor destaca que não se trata de um manual de programação de nenhuma dessas máquinas, mas sim de uma exploração dos princípios subjacentes a todas elas.

Estrutura dos capítulos seguintes

  • Cap. 2: Introdução aos componentes principais (processadores, memórias, E/S).

  • Cap. 3: Nível de lógica digital – portas, circuitos e álgebra booleana.

  • Cap. 4: Microarquitectura – implementação da ISA.

  • Cap. 5: ISA – detalhes das instruções e dados.

  • Cap. 6: Nível do sistema operativo – controlo de processos, memória, etc.

  • Cap. 7: Linguagem assembly e o processo de ligação (linking).

  • Cap. 8: Computadores paralelos – multiprocessadores, COWs e SoCs.

  • Cap. 9: Leituras sugeridas e bibliografia anotada.




Capa do livro Structured Computer Organization de Andrew S. Tanenbaum (5.ª edição)

Capítulo 1 do livro Structured Computer Organization de Andrew S. Tanenbaum (5.ª edição)





🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

domingo, 27 de abril de 2025

Resumo extraído do Capítulo 2 do livro Automating Manufacturing Systems with PLCs de Hugh Jack

 

2. PROGRAMMABLE LOGIC CONTROLLERS


2.1 INTRODUÇÃO

Esta secção inicia com uma perspetiva histórica da engenharia de controlo, destacando como, inicialmente, os seres humanos eram os principais elementos no controlo dos processos. Com o tempo, o uso de sistemas eléctricos baseados em relés permitiu automatizar decisões lógicas simples, mas foi a introdução de computadores de baixo custo que impulsionou a revolução dos Controladores Lógicos Programáveis (PLCs) a partir dos anos 1970.


Pontos-chave:

  • Evolução dos métodos de controlo: de humanos para relés e, por fim, para PLCs.

  • Vantagens dos PLCs:

    • Custo-efetividade na gestão de sistemas complexos;

    • Flexibilidade para reprogramação e adaptação a novos processos;

    • Capacidades computacionais superiores que permitem controlo sofisticado;

    • Ferramentas de diagnóstico que reduzem o tempo de paragem;

    • Alta fiabilidade dos componentes que garantem uma longa vida útil.


2.1.1 LADDER LOGIC

Nesta secção apresenta-se a linguagem Ladder, o método principal de programação para PLCs.


Pontos-chave:

  • Relação com a lógica de relés:
    Ladder logic foi desenvolvida para imitar os circuitos de relés, facilitando a transição para os PLCs sem exigir uma grande formação de engenheiros e técnicos.

  • Representação gráfica:
    É utilizado um formato que se assemelha a uma escada, onde os “trilhos” verticais representam as ligações de energia (alimentação e neutro) e os “degraus” contêm os contactos (normalmente abertos e fechados) e as bobinas de saída.

  • Objetivos de aprendizagem:

    • Compreender os fundamentos dos PLCs;

    • Aprender a desenvolver e interpretar programas simples em Ladder logic;

    • Reconhecer a evolução histórica e as razões para a sua adoção generalizada.


2.1.2 PROGRAMAÇÃO

Esta secção explica os diferentes métodos de programação utilizados nos PLCs, com ênfase na transição dos esquemas de relés para linguagens de programação mais abstratas.


Pontos-chave:

  • Programação baseada em diagramas de relé:
    Nos primeiros PLCs, os programas eram desenhados de forma a refletir os esquemas elétricos tradicionais, simplificando o processo de adaptação para técnicos.

  • Uso de mnemónicos:
    São instruções que correspondem diretamente às funções representadas no Ladder logic (por exemplo, instruções como LDN, LD, AND, OR, ST) e que, por uma questão de eficiência, eram convertidas para operações internas no PLC.

  • Diversidade de linguagens:
    Além do Ladder, mencionam-se outras abordagens, como os Sequential Function Charts (SFCs) – que se assemelham a fluxogramas, e o Structured Text, uma linguagem similar ao BASIC para uma programação mais estruturada.

  • Conversão interna:
    Mesmo que o programador utilize Ladder logic, este é convertido internamente para uma forma mnemónica antes de ser executado, garantindo uma execução consistente e optimizada.


2.1.3 LIGAÇÕES DOS PLCs

Aqui é detalhado como um PLC interage com o mundo externo, através de entradas e saídas que controlam e reagem a processos físicos.


Pontos-chave:

  • Integração com sensores e atuadores:
    O PLC recolhe sinais de sensores e, com base na lógica de controlo programada, activa atuadores que modificam o estado de um processo.

  • Ciclo de operação (scan cycle):

    • Verificação inicial (sanity check): No arranque, o PLC realiza uma verificação rápida para confirmar a integridade do hardware.

    • Ciclo contínuo: O PLC lê as entradas, processa a lógica (utilizando o programa Ladder) e atualiza as saídas, repetindo este ciclo incessantemente com tempos de varrimento da ordem dos milissegundos.

  • Separação entre controlador e processo:
    Destaca a importância de distinguir entre a lógica interna do PLC e o processo físico que está a ser controlado, garantindo que o controlo seja realizado de forma eficaz.


2.1.4 ENTRADAS NA LADDER LOGIC

Esta secção aborda como as entradas são representadas e utilizadas nos programas em Ladder.


Pontos-chave:

  • Tipos de contactos:
    São representados os contactos normalmente abertos e normalmente fechados, o que define se um circuito permite a passagem de corrente na ausência ou presença de um sinal.

  • Função IIT (Immediate Input):
    Permite que as entradas sejam lidas durante a varredura do programa, e não apenas no início de cada ciclo, facilitando respostas mais imediatas a mudanças no ambiente.

  • Integração com o ciclo de controlo:
    A forma como os sinais são lidos e incorporados na lógica garante que os processos físicos sejam monitorizados com precisão.


2.1.5 SAÍDAS NA LADDER LOGIC

Nesta secção explica-se a diversidade de tipos de saídas disponíveis num PLC e as suas funções no controlo do sistema.


Pontos-chave:

  • Diversidade funcional:

    • Saída normal: Ativa um atuador convencionalmente.

    • Saída normalmente ligada: Aciona um dispositivo ao ser desenergizada.

    • OSR (One Shot Relay): Garante que uma transição de entrada active a saída apenas durante um único ciclo, criando um efeito de “pulsar”.

    • Instruções de latch (L) e unlatch (U): Permitem travar uma saída numa condição ligada, até que se execute a operação de desligamento.

    • IOT (Immediate Output): Permite atualizar as saídas instantaneamente, sem aguardar o final do ciclo de varrimento.

  • Aplicação na prática:
    A escolha do tipo de saída depende do tipo de aplicação e dos requisitos de resposta do sistema controlado.


2.2 Um caso de estudo

Esta secção apresenta um caso prático para estudo: o controlo de uma única luz através de três interruptores em simultâneo.


Pontos-chave:

  • Problema proposto:
    Desenvolver um sistema de controlo baseado em relés que permita que qualquer dos três interruptores possa acionar a luz.

  • Duas abordagens possíveis:

    1. Acionamento simples: Qualquer interruptor, quando ligado, ativa a luz e todos devem estar desligados para a luz apagar.

    2. Alternância (toggle): Cada interruptor atua de forma independente para ligar ou desligar a luz, independentemente do estado dos restantes, representando um problema de “exclusive or”.

  • Relevância:
    Demonstra a importância de compreender claramente o comportamento desejado do sistema, pois pequenas diferenças no enunciado podem levar a soluções técnicas totalmente distintas.


2.3 RESUMO

A secção de resumo consolida os conceitos apresentados ao longo do capítulo.
Principais pontos abordados:

  • Contactores e relés:
    Explicação dos contactos normalmente abertos e fechados e a sua relação com os circuitos de relés e Ladder logic.

  • Integração das saídas:
    Como as saídas podem ser recirculadas e, em certos casos, funcionar como entradas (exemplo do circuito “seal-in”).

  • Métodos de programação:
    Apresenta as diversas técnicas – Ladder logic, programação mnemónica, Sequential Function Charts (SFCs) e Structured Text – que podem ser utilizadas para desenvolver programas de PLC.

  • Flexibilidade e diversidade de abordagens:
    Através do caso de estudo, evidencia-se que o mesmo problema pode ser resolvido de formas radicalmente diferentes, enfatizando a importância da compreensão detalhada dos requisitos de controlo.


Capítulo 2 do livro Automating Manufacturing Systems with PLCs de Hugh Jack

Capa do livro Automating Manufacturing Systems with PLCs de Hugh Jack




🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

sexta-feira, 25 de abril de 2025

Resumo extraído do Capítulo 3 do livro Measurements and Instrumentation Principles de Alan S. Morris, 3 ed


Capítulo 3 – Errors during the Measurement Process 


3.1 Introdução

Nesta secção, o autor distingue entre erros que surgem durante o processo de medição e os que ocorrem devido a ruído induzido durante a transmissão do sinal (estes últimos são abordados no Capítulo 5). Explica a importância de minimizar os erros de medição e quantificar o erro máximo remanescente. Quando o resultado final depende de várias medições combinadas, é necessário calcular a forma como os erros individuais contribuem para o erro total. Os erros de medição dividem-se em erros sistemáticos (tendencialmente positivos ou negativos) e erros aleatórios (variações imprevisíveis à volta do valor real).


3.2 Fontes de erro sistemático

Analisa as principais fontes de erro sistemático:

  • 3.2.1 Perturbação do sistema pela medição: A medição altera o sistema. Ex.: termómetro que arrefece ligeiramente a água quente. No caso de circuitos eléctricos, o teorema de Thévenin é usado para analisar como a resistência do voltímetro afeta o circuito.

  • 3.2.2 Entradas ambientais: Variações como temperatura e pressão afetam o funcionamento do instrumento. Ex.: deriva do zero e da sensibilidade.

  • 3.2.3 Desgaste dos componentes: Com o tempo, os instrumentos perdem precisão, o que pode ser corrigido com recalibração.

  • 3.2.4 Cabos de ligação: A resistência dos cabos pode introduzir erro, especialmente em medições a longas distâncias ou em ambientes com ruído eléctrico.


3.3 Redução dos erros sistemáticos

Apresenta várias estratégias para reduzir erros sistemáticos:

  • 3.3.1 Design cuidadoso do instrumento: Reduzir a sensibilidade a variações ambientais, como escolher materiais com baixo coeficiente térmico.

  • 3.3.2 Método de entradas opostas: Compensação de variações ambientais com resistências com coeficientes opostos.

  • 3.3.3 Realimentação de alto ganho: Uso de realimentação para reduzir a influência de variações ambientais nos componentes internos.

  • 3.3.4 Calibração: Recalibração periódica para corrigir desvios provocados por desgaste ou condições ambientais.

  • 3.3.5 Correcção manual: Técnicos experientes podem corrigir leituras com base no conhecimento do sistema.

  • 3.3.6 Instrumentos inteligentes: Usam sensores adicionais para compensar automaticamente os efeitos ambientais.


3.4 Quantificação dos erros sistemáticos

Mesmo após minimizar os erros sistemáticos, é necessário estimar o erro residual. Como as condições ambientais são imprevisíveis, normalmente assume-se um ponto médio e especifica-se um erro máximo com base nas especificações do fabricante.


3.5 Erros aleatórios

Os erros aleatórios são flutuações imprevisíveis. Podem ser reduzidos por repetição e cálculo da média ou mediana. Introduz os conceitos de desvio padrão (σ), variância (V) e erro padrão da média (α). Também aborda:

  • 3.5.1 Análise estatística: Inclui o cálculo de média, mediana, desvio padrão e variância. Mostra como conjuntos com menor dispersão oferecem maior confiança.

  • 3.5.2 Análise gráfica – histogramas: Permite visualizar a distribuição dos erros. Com muitos dados, aproxima-se de uma curva de distribuição de frequência (distribuição Gaussiana).

  • Distribuição Gaussiana: Explica como a maioria dos erros aleatórios segue esta distribuição. Introduz a função densidade de probabilidade (pdf) e o uso de tabelas gaussianas.

  • Erro padrão da média: Mede a diferença entre a média calculada e o valor verdadeiro. Reduz-se com mais medições.

  • Estimativa de erro numa única medição: Quando não se podem repetir medições, usa-se uma estimativa com base em conjuntos de referência.

  • Ajuste à distribuição Gaussiana: Ensina a verificar se os dados seguem uma distribuição normal, usando histogramas, gráficos de probabilidade normal e, opcionalmente, o teste qui-quadrado.

  • Valores discrepantes (outliers): Medições com erro muito elevado devem ser descartadas (ex: fora de ±3σ).

  • Casos com poucas medições: Usa-se a distribuição t de Student quando o número de medições é pequeno.


3.6 Agregação de erros em sistemas de medição

Erro total pode resultar de vários componentes e tipos de erro:

  • 3.6.1 Combinação de erros sistemáticos e aleatórios: Combina-se por raiz quadrada da soma dos quadrados:
    erro total = √(erro sistemático² + erro aleatório²)

  • 3.6.2 Agregação de erros de componentes separados:

    • Soma: erro total = √(erro₁² + erro₂²)

    • Diferença: mesma fórmula, mas o erro relativo pode aumentar

    • Produto e quociente: aplicam-se regras específicas para combinar erros relativos


Capa do livro Measurements and Instrumentation Principles de Alan S. Morris, 3 ed

Capítulo 3 do livro Measurements and Instrumentation Principles de Alan S. Morris, 3 ed



🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

quarta-feira, 23 de abril de 2025

Resumo extraído do Capítulo 5 do livro The Art of Electronics (2.ª edição), de Horowitz e Hill


Capítulo 5 — Filtros Activos e Osciladores


5.01 Resposta em frequência com filtros RC

Filtros RC simples (resistência-condensador) produzem respostas em frequência de inclinação suave, que são suficientes para aplicações em que a frequência indesejada está bem afastada da banda de passagem. No entanto, para necessidades de separação mais rigorosa de frequências próximas, é necessário um filtro com uma banda de passagem mais plana e uma queda de ganho mais acentuada fora dela. Simplesmente encadear vários filtros RC com buffers não resolve, pois embora a inclinação global melhore, a “curva do joelho” permanece suave. Conclui-se que não se consegue obter uma resposta tipo queda abrupta com filtros RC passivos, mesmo com vários estágios.


5.02 Desempenho ideal com filtros LC

Filtros com bobines (L) e condensadores (C) permitem alcançar respostas de frequência muito mais nítidas, com transições acentuadas e passagens planas. Exemplos como os filtros telefónicos demonstram que os circuitos LC podem aproximar-se bastante do desempenho ideal. Contudo, as bobines são volumosas, caras e apresentam imperfeições como resistências parasitas, não linearidade e susceptibilidade a interferência magnética. Por isso, procura-se uma alternativa sem bobinas que mantenha estas características ideais.


5.03 Introdução aos filtros activos: visão geral

Filtros activos utilizam amplificadores operacionais (op-amps) para replicar características de filtros LC sem usarem bobinas. Podem implementar todos os tipos de filtros (passa-baixo, passa-alto, passa-banda, rejeita-banda) com diversas respostas (máxima planura, declive acentuado, atraso constante, etc.). Introduzem-se os conceitos de Negative-Impedance Converter (NIC) e gyrator, dois circuitos que simulam o comportamento de bobinas com apenas resistências, condensadores e amplificadores. Estes métodos permitem construir filtros activos com características semelhantes às dos filtros RLC clássicos, mas de forma mais prática e versátil.


5.04 Critérios chave de desempenho dos filtros

Define-se uma série de parâmetros para caracterizar filtros:

  • Domínio da frequência: onde se analisam o ganho e a fase em função da frequência. Inclui-se:

    • Banda de passagem: gama de frequências pouco atenuadas.

    • Banda de corte: onde o sinal é fortemente atenuado.

    • Região de transição: entre as duas anteriores.

    • Ondulações: variações no ganho dentro da banda de passagem.

  • Domínio temporal: observa-se a resposta a sinais transitórios (degraus, impulsos), caracterizada por tempo de subida, sobre-elevação, oscilação e tempo de estabelecimento.

A linearidade da fase também é importante, pois variações não-lineares distorcem sinais mesmo dentro da banda de passagem.


5.05 Tipos de filtros

Existem diferentes famílias de filtros, cada uma optimizada para diferentes critérios:

  • Butterworth: passabanda com resposta maximamente plana, mas transição suave para a banda de corte. É fácil de implementar, mas tem más características de fase.

  • Chebyshev: permite ondulações na banda de passagem para obter uma transição mais rápida para a banda de corte. Existe também a variante com ondulações na banda de corte (filtro elíptico ou Cauer) que melhora ainda mais a inclinação da transição.

  • Bessel: optimizado para manter o atraso temporal constante e evitar distorções temporais, mesmo com uma transição menos acentuada em frequência. Ideal para sinais que requerem preservação de forma.

A escolha do filtro depende dos requisitos da aplicação: planura, inclinação, distorção temporal ou número de componentes. Cada tipo é adequado para diferentes contextos de uso.


5.06 — Circuitos VCVS (Voltage-Controlled Voltage Source)

Os filtros activos mais comuns baseiam-se na topologia VCVS, uma variação do circuito de Sallen-Key, em que o seguidor de tensão (ganho unitário) é substituído por um amplificador não inversor com ganho superior a 1. Estes circuitos permitem implementar filtros de 2 polos (2ª ordem) com poucos componentes, sendo possíveis variantes passa-baixo, passa-alto e passa-banda.

A resposta do filtro é determinada pelos valores das resistências e capacidades, bem como pelo ganho do amplificador. Por encadeamento (cascata) de várias secções VCVS de 2 polos, é possível construir filtros de ordem superior (4, 6, 8 polos, etc.). Cada secção corresponde a um factor quadrático da função de transferência total.

Esta abordagem é popular pela sua simplicidade, baixo número de componentes e bom desempenho para muitos tipos de filtros padrão (Butterworth, Bessel, Chebyshev). No entanto, é sensível à tolerância dos componentes.


5.07 — Projecto de filtros VCVS usando uma tabela simplificada

Esta secção apresenta uma forma prática de projectar filtros VCVS, com base numa tabela (Tabela 5.2) que fornece os ganhos e factores de normalização para diferentes tipos de resposta (Butterworth, Bessel e Chebyshev com 1 dB ou 2 dB de ripple) e ordens do filtro (2, 4, 6, 8 polos).

Processo de projecto:

  • Escolhe-se o tipo de filtro (ex.: Butterworth, para planura máxima; Chebyshev, para transição rápida; Bessel, para bom desempenho temporal).

  • Decide-se o número de polos (ordem do filtro).

  • Colocam-se em cascata as secções de 2 polos necessárias (ex.: 3 secções para um filtro de 6 polos).

  • A tabela fornece o ganho (K) e, quando necessário, um factor de escala para os valores RC de cada secção.

  • Para filtros passa-alto, invertem-se os valores de frequência de normalização (usa-se 1/factor).

Filtros passa-banda ou rejeita-banda podem ser construídos combinando filtros passa-baixo e passa-alto, embora esta abordagem tenha limitações para filtros com Q elevado (factor de qualidade alta).


5.08 — Filtros de variável de estado (State-variable filters)

Estes filtros são mais complexos do que os VCVS (tipicamente usam 3 ou 4 amplificadores operacionais), mas oferecem vantagens significativas:

  • Maior estabilidade.

  • Baixa sensibilidade a variações dos componentes.

  • Facilidade de ajuste (frequência e Q podem ser ajustados independentemente).

  • Permitem obter simultaneamente saídas passa-baixo, passa-alto e passa-banda a partir do mesmo circuito.

Estão disponíveis em forma de circuitos integrados comerciais (ex.: AF100, UAF série). Os fabricantes fornecem tabelas e fórmulas para desenhar filtros Butterworth, Chebyshev e Bessel com diversas ordens e respostas.

Estes filtros são especialmente úteis para implementações com elevada selectividade (filtros de Q elevado). São usados em aplicações que exigem estabilidade de frequência, boa precisão e ajustabilidade.


5.09 — Filtros notch com Twin-T

A configuração Twin-T é um circuito passivo RC que cria um filtro rejeita-banda (notch) com atenuação máxima numa frequência específica. Caracteriza-se por uma forte atenuação no ponto de ressonância (frequência de entalhe), mas com uma queda de resposta suave nas frequências vizinhas — típico de redes RC.

Pode transformar-se em filtro activo com amplificadores operacionais para melhorar a profundidade da atenuação, formando um filtro activo de rejeição. No entanto, quanto maior for o ganho no circuito de realimentação (bootstrap), menor é a profundidade efectiva do entalhe devido a limitações práticas, como a estabilidade.

Há também a variante chamada “bridged-T”, que permite ajuste do entalhe com um único potenciómetro. Apesar de mais prática, requer igualmente boa correspondência entre componentes (condensadores e resistências).

Estes filtros são úteis para eliminar interferências específicas, como a frequência da rede eléctrica (50/60 Hz), mas não são adequados para filtros com alta selectividade ou aplicações com grande variação de frequência (são difíceis de sintonizar).


5.10 — Implementação de filtros com gyrators

Os gyrators são circuitos activos que simulam bobines usando apenas resistências, condensadores e amplificadores operacionais. Um gyrator pode transformar o comportamento de um condensador numa bobine equivalente (L = CR²), permitindo replicar as propriedades de filtros LC sem usar bobines físicas.

Vantagens:

  • Evita as limitações práticas das bobines reais (volume, custo, perdas, interferência magnética).

  • Permite realizar filtros com resposta similar a filtros LC ideais.

Estas implementações são especialmente úteis em filtros de áudio, telefónicos ou outras aplicações em que a utilização de bobines seria impraticável. Filtros baseados em gyrators são geralmente mais estáveis e compactos, e os seus desempenhos aproximam-se bastante dos filtros passivos com bobinas.


5.11 — Filtros de condensador comutado (Switched-capacitor filters)

Os filtros com condensadores comutados substituem resistências por circuitos comutadores (MOS) que operam com um sinal de relógio. Estes circuitos simulam a função de integração com precisão, e a frequência de corte do filtro torna-se proporcional à frequência do relógio.

Vantagens principais:

  • Grande precisão e estabilidade, pois o ganho do integrador depende apenas da razão entre condensadores, facilmente controlável em tecnologia integrada.

  • Facilidade de ajuste da frequência do filtro variando apenas a frequência do relógio.

  • Implementação em circuito integrado (IC) facilita miniaturização e baixo custo.

Desvantagens:

  • Presença de "clock feedthrough": interferência do sinal de relógio na saída (normalmente removível com um filtro RC).

  • Possibilidade de aliasing: componentes do sinal perto da frequência de relógio podem ser misturadas para dentro da banda de passagem.

  • Gama dinâmica reduzida devido ao ruído e injecção de carga dos interruptores MOS.

Estes filtros são ideais para aplicações de baixo custo e frequência relativamente baixa. Estão disponíveis em várias versões: filtros dedicados (ex.: MF4) e filtros universais (ex.: MF5), que permitem configuração externa para diferentes tipos de resposta.


5.12 — Introdução aos Osciladores

Osciladores são componentes essenciais em quase todos os sistemas electrónicos — desde relógios digitais a instrumentos de medição, passando por computadores e telecomunicações. Geram formas de onda periódicas como relógios, sinais sinusoidais ou rampas.

Utilizações típicas incluem:

  • Geração de sinais de referência.

  • Controlo de tempo.

  • Excitação de circuitos de medição ou processamento.

A escolha do tipo de oscilador depende da aplicação, sendo importantes factores como:

  • Estabilidade e precisão da frequência.

  • Pureza do sinal (baixo ruído de fase).

  • Facilidade de ajuste e controlo.


5.13 — Osciladores de relaxação

Os osciladores de relaxação baseiam-se na carga e descarga de um condensador até atingir um limiar, reiniciando então o ciclo. Produzem formas de onda triangulares ou dente-de-serra.

Características principais:

  • Simplicidade: podem ser implementados com um amplificador operacional ou mesmo com inversores CMOS.

  • Custo reduzido e poucos componentes.

  • São ideais para frequências baixas a médias, mas menos precisos que os osciladores de cristal.

Exemplo: um op-amp com realimentação positiva pode gerar um ciclo de carga/descarga controlado por um limiar interno (como um Schmitt trigger). Também se pode obter um oscilador de baixa interferência (baixo ruído de fase) com CMOS inverters, útil em aplicações sensíveis.


5.14 — O clássico temporizador 555

O 555 é um dos circuitos integrados mais populares de sempre para gerar sinais de temporização e oscilação. É um circuito de relaxação com lógica interna que carrega e descarrega um condensador através de resistências, produzindo um sinal rectangular.

Modos de funcionamento:

  • Astável: oscilador contínuo (carga/descarga cíclica).

  • Monoestável: gera um único pulso de duração definida.

  • Gerador de rampa ou dente-de-serra: com fonte de corrente.

Vantagens:

  • Funciona com tensões de 4,5 V a 16 V.

  • Boa estabilidade de frequência.

  • Pode ser usado como gerador de pulsos, rampas ou mesmo sinais com ciclos de trabalho (duty cycle) personalizados.

Limitações:

  • Picos de corrente durante transições de saída.

  • A versão bipolar (original) não fornece oscilação rail-to-rail nem baixas correntes de alimentação.

Alternativas CMOS (como o 7555) melhoram estes aspectos: menor consumo, funcionamento com tensões mais baixas, e melhor desempenho em alta frequência.


5.15 — Osciladores controlados por tensão (VCOs)

Os VCOs (Voltage-Controlled Oscillators) produzem uma frequência de saída que varia em função de uma tensão de entrada. São essenciais em aplicações como modulação de frequência (FM), síntese de frequências, e controlo de fase (PLLs).

Características importantes:

  • A linearidade da relação tensão-frequência.

  • A estabilidade da frequência.

  • A capacidade de modulação.

Existem muitos ICs comerciais com saídas em onda quadrada, triangular ou sinusoidal, com diferentes gamas de frequência e linearidade. Um VCO ideal teria:

  • Boa linearidade.

  • Baixo ruído de fase.

  • Amplitude de saída constante.

Alguns chips combinam VCO com circuitos de controlo de fase (ex.: CD4046, usado em PLLs). Outros VCOs usam filtros de condensador comutado para gerar formas de onda moduladas com boa estabilidade.


5.16 — Osciladores em quadratura (Quadrature oscillators)

Um oscilador em quadratura gera dois sinais sinusoidais de igual frequência e amplitude, com um desfasamento de 90° entre si — um sinal seno e um co-seno. Estes sinais são fundamentais em aplicações como:

  • Geração de sinal de banda lateral única (SSB).

  • Comunicação em quadratura.

  • Síntese de sinais modulados.

Implementações possíveis:

  • Usar um filtro passa-banda de condensador comutado (como o MF5), que recebe uma onda quadrada e filtra a frequência central, convertendo-a numa sinusóide. Uma realimentação adequada permite auto-oscilação.

  • Usar geradores analógicos de funções trigonométricas (como o AD639), que convertem uma entrada triangular em saídas seno e co-seno com grande precisão.

Estes osciladores funcionam bem para frequências até cerca de 100 kHz. Podem ser utilizados como fontes sinusoidais de baixa distorção, ajustáveis em frequência e amplitude.


5.17 — Geradores de funções trigonométricas analógicos

A Analog Devices produz circuitos integrados especializados, como o AD639, que gera funções trigonométricas a partir de tensões analógicas.

Características do AD639:

  • Aceita uma entrada linear (ex.: uma rampa ou onda triangular).

  • Gera em tempo real uma saída proporcional a sin(x) ou cos(x).

  • Inclui uma tensão de referência precisa (+1,8 V).

  • Gera saídas com elevada linearidade e baixa distorção.

Esta abordagem é particularmente útil para criar osciladores sinusoidais com excelente estabilidade e controlo preciso da frequência, sem depender de filtragem posterior de sinais triangulares.


5.18 — Osciladores sinusoidais por filtragem

Outra técnica para gerar sinais sinusoidais consiste em:

  1. Gerar uma onda quadrada (por exemplo, com um comparador).

  2. Aplicar essa onda a um filtro passa-banda activo (ex.: com o CI MF5).

  3. Realimentar a saída do filtro à entrada do comparador.

O filtro, ao ter uma resposta estreita (alto Q), selecciona uma única frequência da onda quadrada e mantém a oscilação. Este método resulta num oscilador sinusoidal auto-oscilante, com frequência definida pela frequência de corte do filtro.

É uma forma eficaz de produzir sinais sinusoidais limpos, com baixo custo e poucos componentes, adequada para frequências entre alguns Hz e dezenas de kHz.


5.19 — Osciladores com cristal de quartzo

Cristais de quartzo vibram naturalmente a frequências precisas e estáveis, sendo usados para obter osciladores de altíssima estabilidade e baixo desvio.

Vantagens:

  • Precisão e estabilidade muito elevadas (ppm).

  • Baixo ruído de fase.

  • Temperatura e envelhecimento pouco afectam a frequência.

Configurações típicas:

  • Osciladores Pierce.

  • Osciladores Colpitts com cristal.

  • Amplificadores em realimentação com o cristal no laço.

Aplicações incluem:

  • Relógios e temporizadores.

  • Sistemas digitais síncronos.

  • Equipamento de rádio e telecomunicações.

Osciladores com cristal são indispensáveis quando se exige referência de frequência estável ao longo do tempo e temperatura.


5.20 — Estabilidade e ruído de osciladores

Esta secção aborda os factores que afectam a qualidade dos osciladores, nomeadamente:

  • Estabilidade de frequência: depende do tipo de oscilador, componentes usados e controlo de temperatura.

  • Ruído de fase (ou ruído lateral): resulta de flutuações de fase próximas da frequência fundamental, afectando sinais em rádio e comunicação digital.

  • Sensibilidade à tensão de alimentação: é desejável que a frequência se mantenha constante mesmo com variações no fornecimento eléctrico.

  • Influência da carga: o oscilador deve manter a frequência quando ligado a diferentes circuitos.

Uma boa escolha de topologia (como o uso de cristais ou reguladores de tensão) e de componentes (com baixo coeficiente térmico) é essencial para garantir desempenho previsível e fiável do oscilador.


segunda-feira, 21 de abril de 2025

Resumo extraído do Capítulo 3 do livro Basic Engineering Circuit Analysis de J. David Irwin e R. Mark Nelms

Capítulo 3 – Técnicas de Análise Nodal e em Malhas

Secção 3.1 – Análise Nodal

Esta secção introduz a análise nodal como uma técnica para determinar as tensões nos nós de um circuito eléctrico. Parte-se do princípio de que se conhecermos todas as tensões nos nós (relativas a um nó de referência), podemos calcular todas as correntes nas resistências através da Lei de Ohm.

  • O nó de referência é normalmente escolhido como o que tem mais ligações e é representado como “terra” (0 V).

  • Utilizando a Lei das Correntes de Kirchhoff (KCL), escrevem-se equações para cada nó não-referência, onde a soma das correntes que entram e saem é zero.

  • As correntes nos ramos são expressas em função das tensões nos nós usando a Lei de Ohm:

    I=(VmVn) / 
  • Isto resulta num sistema de N - 1 equações lineares para N nós, que podem ser resolvidas por métodos como eliminação de Gauss, análise matricial, ou software como MATLAB.

  • A secção cobre circuitos com:

    • Apenas fontes de corrente independentes.

    • Fontes de corrente dependentes, onde os controlos podem depender de outras tensões ou correntes no circuito.

    • Fontes de tensão independentes entre:

      • O nó de referência e um nó (caso simples – a tensão do nó fica conhecida).

      • Dois nós não-referência (mais complexo – usa-se o conceito de supernó).

    • Fontes de tensão dependentes (também tratadas com supernós e equações de controlo adicionais).

Exemplos resolvidos demonstram:

  • Como montar e resolver o sistema de equações nodais.

  • A aplicação da análise em situações reais.

  • O uso de MATLAB como ferramenta de apoio.

No final, apresenta-se uma estratégia sistemática para realizar a análise nodal, com três passos principais:

  1. Escolha do nó de referência e atribuição das tensões dos restantes nós.

  2. Escrita das equações de restrição de fontes de tensão.

  3. Aplicação da KCL aos restantes nós e supernós.


Secção 3.2 – Análise de Correntes de Malha 

Esta secção introduz a análise de correntes de malhas, que é uma técnica alternativa baseada na Lei das Tensões de Kirchhoff (KVL). Em vez de determinar tensões nos nós, esta técnica determina as correntes nas malhas independentes do circuito.

  • Para um circuito com B ramos e N nós, existem B - N + 1 malhas independentes.

  • Define-se uma corrente de malha para cada malha e usa-se KVL para escrever equações em que a soma das quedas e subidas de tensão é zero.

  • Os ramos partilhados por duas malhas terão uma corrente igual à diferença entre as correntes das malhas envolvidas.

  • Os exemplos mostram como escrever as equações, resolver o sistema e calcular todas as grandezas do circuito.

  • Assim como na análise nodal, a presença de fontes de tensão independentes é simples de integrar; fontes de corrente independentes ou dependentes podem exigir técnicas adicionais (como a introdução de supermalhas).

A secção inclui circuitos com:

  • Apenas fontes de tensão.

  • Fontes de corrente entre dois nós (tratadas com supermalhas).

  • Fontes dependentes (de tensão ou corrente), com equações de controlo adicionais.

Capítulo 3 – Técnicas de Análise Nodal e em Malhas


🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

quarta-feira, 16 de abril de 2025

Resumo extraído do Capítulo 1 do livro Introduction to Signal Processing de Sophocles J. Orfanidis

Capítulo 1 – Amostragem e Reconstrução 

1.1 Introdução

O processamento digital de sinais analógicos ocorre em três etapas:

  1. Digitalização: o sinal analógico é amostrado e quantizado, processo conhecido como conversão A/D.

  2. Processamento: os sinais digitalizados são manipulados por um processador digital de sinais (DSP).

  3. Reconstrução: os sinais processados são convertidos novamente para formato analógico através de uma conversão D/A.

O DSP pode ser implementado com computadores de uso geral, microprocessadores, chips DSP dedicados ou hardware especializado. Os conceitos fundamentais de amostragem e quantização são os pilares do processamento digital e serão aprofundados nos dois primeiros capítulos.


1.2 Revisão de Sinais Analógicos

Esta secção revê conceitos fundamentais:

  • Um sinal analógico é uma função contínua no tempo, x(t)x(t).

  • O espectro de frequência é obtido através da Transformada de Fourier X(Ω)X(\Omega), onde Ω=2πf\Omega = 2\pi f.

  • A Transformada de Fourier permite representar o sinal como uma soma de sinusoides.

  • A Transformada de Laplace generaliza a de Fourier, introduzindo s=σ+jΩs = \sigma + j\Omega, útil na análise de sistemas com exponenciais.

  • O sistema linear é caracterizado por uma resposta ao impulso h(t)h(t), e a saída y(t)y(t) é dada pela convolução entre x(t)x(t) e h(t)h(t).

  • No domínio da frequência, a saída é Y(Ω)=H(Ω)X(Ω)Y(\Omega) = H(\Omega)X(\Omega), onde H(Ω)H(\Omega) é a resposta em frequência do sistema.

A filtragem permite atenuar ou realçar componentes de frequência específicas.


1.3 Teorema da Amostragem

Esta secção explora os fundamentos da amostragem:

  • A amostragem de um sinal consiste em medir o seu valor a intervalos regulares TT, com taxa de amostragem fs=1/Tf_s = 1/T.

  • A amostragem replica o espectro do sinal em múltiplos inteiros de fsf_s, o que pode levar a aliasing (sobreposição de espectros).

  • Para evitar aliasing, o Teorema da Amostragem estabelece que:

    1. O sinal deve ser limitado em banda (não conter frequências acima de fmaxf_{max}).

    2. A taxa de amostragem deve ser pelo menos o dobro da frequência máxima: fs2fmaxf_s \geq 2f_{max} (chamada taxa de Nyquist).

1.3.2 Filtros Anti-Aliasing

Antes da amostragem, é necessário aplicar um filtro passa-baixo analógico que limita o sinal à banda permitida (até fs/2f_s/2) para evitar aliasing.

1.3.3 Limitações de Hardware

O hardware impõe uma limitação superior à taxa de amostragem, pois cada amostra requer um tempo de processamento TprocT_{proc}. Assim, a taxa deve satisfazer:

2fmaxfsfproc2f_{max} \leq f_s \leq f_{proc}

1.4 Amostragem de Sinusoides

A análise da amostragem de sinais sinusoidais leva às mesmas conclusões do teorema da amostragem:

  • Um mínimo de duas amostras por ciclo é necessário para representar uma sinusoide.

  • Quando o sinal não está limitado em banda, conterá componentes de frequência infinitamente altas, impossibilitando uma amostragem correta.

  • Se violado o teorema, o processo de reconstrução poderá reconstruir uma frequência errada — fenómeno conhecido como aliasing.

O sinal reconstruído será uma versão do sinal original onde todas as frequências foram mapeadas para o intervalo de Nyquist.


1.5 Amostragem Prática e Reconstrução

1.5.1 Sampler Ideal e Reconstructor Ideal

  • Um amostrador ideal extrai o valor exato do sinal contínuo em instantes t=nTt = nT.

  • Um reconstructor ideal é um filtro passa-baixo com frequência de corte igual à frequência de Nyquist fs/2f_s/2.

  • Este reconstrutor remove as réplicas espectrais introduzidas pela amostragem e reconstrói o sinal original, se não houver aliasing.

1.5.2 Reconstrução Prática

  • Na prática, a reconstrução envolve:

    1. Um retentor de ordem zero, que mantém o valor da última amostra até à seguinte.

    2. Um filtro de suavização (low-pass) analógico que suaviza o sinal em degraus.

  • Este método introduz distorções, mas é amplamente utilizado por ser simples e eficaz em muitos casos.

1.5.3 Escolha do Filtro

  • Os filtros de reconstrução e antialiasing não podem ser ideais, mas devem atenuar suficientemente as componentes fora da banda desejada.

  • A ordem do filtro está relacionada com a rapidez de atenuação em dB por oitava:

    • Por exemplo: um filtro com atenuação de 60 dB/oct corresponde a um filtro de ordem 10 (regra: 6 dB/oct por ordem).

  • Filtros mais complexos têm melhor desempenho, mas maior custo e dificuldade de implementação analógica.


1.6 Oversampling e Decimação

Oversampling (sobreamostragem)

  • Aumentar a taxa de amostragem para além da taxa de Nyquist:

    • Vantagens:

      • Maior separação entre réplicas espectrais.

      • Permite usar filtros antialiasing com menor ordem.

      • Reduz o ruído de quantização (ver Capítulo 2).

      • Diminui a distorção por aliasing.

    • Exemplo: amostragem a 80 kHz para sinais com banda até 20 kHz.

Decimação

  • Redução controlada da taxa de amostragem:

    • Antes da redução, o sinal deve ser filtrado com um filtro digital de decimação para evitar aliasing.

    • O filtro atua sobre o sinal digital (pós-amostragem) e remove frequências acima da nova Nyquist.

  • Permite que a parte inicial do sistema opere com alta taxa de amostragem e, posteriormente, reduza a taxa para valores padrão (por exemplo, 44.1 kHz para CDs).


1.7 Interpolação Digital

Definição

  • Processo inverso da decimação: aumenta a taxa de amostragem.

  • Implica:

    1. Inserção de zeros entre as amostras (up-sampling).

    2. Aplicação de um filtro interpolador digital que suaviza o sinal e remove as imagens espectrais introduzidas pela inserção dos zeros.

Objectivos

  • Produzir um sinal com uma forma mais suave ou compatível com uma nova taxa de processamento.

  • Utilizado em:

    • Conversores digitais para analógico com oversampling.

    • Ajustes de taxas de amostragem entre sistemas com frequências diferentes.

Filtro de Interpolação

  • Deve ter corte em π/L\pi/L (onde LL é o fator de interpolação).

  • Tal como na decimação, a qualidade do filtro determina o nível de distorção.


Capítulo 1 do livro Introduction to Signal Processing de Sophocles J. Orfanidis

 


🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

sábado, 12 de abril de 2025

Resumo extraído do capítulo 2 livro "Computer Organization and Design RISC-V 2nd edition, by Hennessy and Patterson


Capítulo 2: Instruções: A linguagem do Computador

2.1 Introdução

Apresenta o conceito de linguagem máquina, onde cada instrução é uma "palavra" e o conjunto de todas constitui o conjunto de instruções (ISA). É introduzido o RISC-V como ISA base do livro, comparando-o com o MIPS e o x86, mostrando a importância de um design simples, eficaz e de fácil implementação para hardware e compiladores.


2.2 Operações do Hardware do Computador

Explica os tipos de instruções básicas: aritméticas, lógicas, de transferência de dados e de controlo de fluxo: add, sub, lw, sw, e beq.


2.3 Operandos do Hardware do Computador

Discute os registos (e.g., x0 a x31 no RISC-V), usados para armazenar operandos, e a razão para a sua limitação (tipicamente 32 registos): menor complexidade e maior velocidade.


2.4 Números com e sem sinal

Aborda a representação de números inteiros com sinal (signed) usando complemento para dois, e sem sinal (unsigned). Explica as diferenças nas instruções e como o hardware as interpreta.


2.5 Representar Instruções no Computador

Mostra como as instruções RISC-V são codificadas em binário, detalhando os campos opcode, rd, rs1, rs2, funct3 e funct7. Apresenta os formatos R, I, S, B, U e J.


2.6 Operações Lógicas

Explora as instruções lógicas como and, or, xor, sll, srl, sra, etc. Mostra como são úteis em manipulação de bits, máscaras e operações de baixo nível.


2.7 Instruções para Tomada de Decisão

Introduz as instruções condicionais como beq, bne, blt, bge, etc. Usa exemplos de condições e ciclos (if, while) para mostrar a sua tradução para assembly.


2.8 Suporte a Procedimentos no Hardware

Explica a chamada e retorno de procedimentos (jal, jalr, ret), a passagem de parâmetros (x10, x11, ...), o uso da stack (sp) e a preservação de registos (ra, s0-s11), incluindo o prólogo e epílogo das funções.


2.9 Comunicação com Pessoas

Descreve input/output em baixo nível, abordando syscalls, o uso de ecall no RISC-V, e o papel do sistema operativo para fornecer serviços como impressão no ecrã ou leitura do teclado.


2.10 Endereçamento RISC-V para Imediatos e Endereços Longos

Discute os desafios de representar constantes grandes (imediatos) e endereços longos, e como o RISC-V usa instruções como lui, auipc, combinadas com outras (addi, jalr) para construir valores de 32 bits.


2.11 Paralelismo e Instruções: Sincronização

Apresenta o conceito de sincronização em multiprocessadores com instruções como lr.w (load reserved) e sc.w (store conditional), fundamentais para evitar condições de corrida (race conditions) e implementar locks.


2.12 Traduzir e Iniciar um Programa

Explica as etapas de tradução de um programa C: compiladorassemblyobjetoligação (linking)carregamento (loading). Introduz as ferramentas envolvidas (e.g., assembler, linker, loader) e os tipos de ficheiros (.c, .s, .o, .exe).


2.13 Exemplo de Ordenação em C: Tudo Junto

Fornece um exemplo completo de ordenar um array em C, a sua tradução para assembly RISC-V, e a análise do desempenho. Mostra como os ciclos for e chamadas a funções são representadas em assembly.


2.14 Arrays vs Ponteiros

Compara o uso de arrays com o uso de ponteiros em C, tanto a nível de sintaxe como de geração de código assembly. Mostra que os ponteiros podem gerar código mais compacto e rápido, dependendo da optimização.


2.15 Compilação de C e Interpretação de Java

Apresenta técnicas de compilação e optimização em C, como propagação de constantes e alocação de registos, e compara com a execução de bytecode Java numa Java Virtual Machine (JVM), incluindo métodos, objectos, garbage collection, etc.


2.16 ARMv8: Material Real

Compara o RISC-V com o conjunto de instruções ARMv8 (64 bits), destacando diferenças e semelhanças, tais como o número de registos, formatos de instruções e modos de endereçamento.


2.17 x86-64: Material Real

Explora a complexidade da ISA x86-64, mostrando como lida com instruções variáveis em tamanho (1 a 15 bytes), modos de endereçamento avançados, e a sua longa história de compatibilidade com versões anteriores.


2.18 Falácias e Armadilhas

Lista ideias erradas comuns em design de instruções e hardware, como “mais instruções = melhor desempenho” ou “hardware complexo é sempre mais rápido”, explicando por que estas ideias são enganadoras.


2.19 Considerações Finais

Resume os principais conceitos do capítulo, reforçando a ligação entre linguagens de alto nível, linguagem de máquina e execução no hardware. Destaca a importância de compreender a base para construir sistemas eficientes.


2.20 Perspectiva Histórica e Referências

Apresenta a evolução dos conjuntos de instruções desde os primeiros computadores até aos dias de hoje, mencionando marcos como o IBM 701, o PDP-11, o MIPS, e os princípios que guiaram o design moderno de ISAs.


2.21 Tudo Junto: Multiplicação de Matrizes em C

Aplica os conhecimentos do capítulo numa tarefa prática: multiplicação de matrizes, analisando o impacto do código, do compilador e da ISA no desempenho.


2.22 Falácias e Armadilhas

Reforça e detalha falhas de raciocínio comuns, com exemplos concretos de como certas decisões de design podem parecer vantajosas mas serem prejudiciais.


2.23 Observações Finais

Conclui o capítulo com um reforço da ideia central: compreender a linguagem do computador é essencial para todos os programadores, pois permite otimizar desempenho, detectar problemas e compreender o funcionamento interno dos sistemas.






🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

quinta-feira, 10 de abril de 2025

Resumo extraído do capítulo 1 do livro Introduction to Instrumentation and Measurements - de Robert B Northrop


Resumo do Capítulo 1 – “Measurement Systems” – do livro "Introduction to Instrumentation and Measurements" de Robert B Northrop.

Este resumo, fornece uma visão global dos principais tópicos abordados no Capítulo 1, salientando tanto os fundamentos teóricos dos sistemas de medição como a importância das técnicas de calibração e dos avanços tecnológicos que permitiram a evolução dos padrões de medição.


1.1 Introdução
Nesta secção o autor apresenta o contexto dos sistemas de medição e a relevância de compreender sua arquitetura para enfrentar os desafios inerentes, tais como ruído, erros de calibração, resposta dinâmica dos sensores e não-linearidades. Além disso, é introduzido o conceito de padrões – desde os primários, mantidos em laboratórios nacionais, até os secundários, usados na prática para calibração – com referência especial aos padrões modernos do NIST (Instituto Nacional de Padrões e Tecnologia dos Estados Unidos). Assim, o leitor é alertado para a natureza dinâmica e em constante mudança dos campos de instrumentação e medição.


1.2 Arquitetura dos Sistemas de Medição
Esta secção debruça-se sobre a estrutura típica de um sistema de medição através de um diagrama em blocos:

  • Conversão da Quantidade Sob Medição (QUM):
    O processo começa com o sensor ou transdutor, que converte a QUM (por exemplo, pressão, deslocamento ou temperatura) numa forma utilizável – tipicamente um sinal elétrico (tensão ou corrente). É feita a distinção entre sensor e transdutor, sendo que estes últimos têm capacidade adicional de converter o sinal.

  • Dinâmica dos Sensores:
    São apresentados modelos matemáticos que descrevem o comportamento dos sensores:

    • Sensores de Primeira Ordem (Low-Pass):
      Modelados por uma equação diferencial simples, cuja resposta a um degrau envolve um tempo de estabelecimento (settling time) e uma constante de tempo.

    • Sensores de Segunda Ordem:
      Onde se distinguem três casos – subamortecido, criticamente amortecido e sobreamortecido – cada um com características diferentes na resposta ao degrau. O capítulo ilustra estas respostas através de diagramas e equações, enfatizando a influência dos polos na resposta temporal.

    • Sensores Bandpass:
      Utilizados quando a QUM é variável no tempo, produzindo uma resposta que sobe até atingir um pico antes de regredir a zero, exemplificada por transdutores piezoelétricos.

  • Condições e Processamento do Sinal:
    Após a conversão, o sinal passa por um “condicionamento” analógico que inclui:

    • Amplificação: Aumenta a potencia do sinal para que seja mais facilmente processado.

    • Filtragem: Utiliza filtros (incluindo a filtragem anti-aliasing) para eliminar ruídos e interferências, garantindo que o sinal esteja livre de componentes de alta frequência que poderiam comprometer a conversão de analógico para digital.

    • Conversão Analógico-Digital (ADC):
      O sinal já condicionado é periodicamente amostrado e digitalizado, permitindo um processamento posterior por computadores. Posteriormente, podem ser aplicados tratamentos digitais, como filtragem adicional ou análises estatísticas.


1.3 Erros nas Medições
Esta secção analisa as várias fontes de erros que podem afetar as medições, dividindo-as em duas categorias principais:

  • Erros Brutos (Gross Errors):
    Associados a falhas humanas ou práticas inadequadas, tais como:

    • Leitura precoce antes de atingir o estado estacionário, causando erro dinâmico.

    • Efeitos de paralaxe na leitura de instrumentos analógicos.

    • Erros na gravação dos dados ou na utilização incorreta dos instrumentos.

  • Erros do Sistema (System Errors):
    Resultam de fatores intrínsecos ao sistema de medição:

    • Erros de Calibração e Offset:
      Um instrumento pode ter um desvio devido a alterações no valor dos componentes com o tempo (envelhecimento) ou alterações de temperatura.

    • Ruído:
      Pode ser o ruído ambiental (ex.: interferências de fontes de rádio ou campos eletromagnéticos) ou ruído oriundo dos circuitos eletrónicos (como o ruído térmico em resistências ou ruído de quantização do ADC).

    • Derivas (Drift):
      Mudanças lentas na sensibilidade ou no zero do sistema devido a variações de temperatura ou humidade.

São definidas matematicamente as métricas de erro, como o erro absoluto, o erro relativo (percentual), a precisão (medida como a dispersão dos valores obtidos em relação à média) e a exatidão (quanto o valor medido se aproxima do verdadeiro). Além disso, apresenta uma abordagem de séries de Taylor para a propagação do erro (limiting error, ou LE) em medições derivadas, ilustrada com exemplos (por exemplo, a medição de potência).

Também é discutido o método de ajuste por mínimos quadráticos (regressão linear) para encontrar a melhor linha de ajuste a conjuntos de dados ruidosos, com fórmulas para determinar o coeficiente de correlação, o declive (m) e a coordenada na origem (b), e, assim, avaliar a qualidade do ajuste.


1.4 Padrões Utilizados em Medições
Esta secção é dedicada à calibração e à definição dos padrões que asseguram a precisão e a rastreabilidade das medições. São distinguidos vários tipos de padrões:

  • Padrões Internacionais:
    Definidos por acordos internacionais (ex.: o quilograma, mantido em Sèvres, França) e utilizados como referência absoluta.

  • Padrões Primários:
    Mantidos em laboratórios nacionais (como o NIST nos EUA), estes padrões representam unidades físicas fundamentais e são continuamente comparados a outras medições internacionais.

  • Padrões Secundários e de Trabalho:
    São calibrados a partir dos padrões primários e utilizados em laboratórios e na indústria para ajustar e verificar a precisão dos instrumentos de medição.

Dentro da secção, diversos padrões elétricos são abordados:

  • Potencial (Volt):
    É discutido o desenvolvimento histórico – do uso da célula padrão de Weston (com suas limitações, como o elevado coeficiente de temperatura) à adoção do efeito Josephson para estabelecer um padrão de tensão baseado em fenómenos quânticos. São apresentados esquemas e fórmulas que relacionam o passo quântico à frequência de radiação (usando a constante de Josephson) e a comparação com outros padrões.

  • Resistência (Ohm):
    A evolução do padrão de resistência é apresentada, desde o método inicial com colunas de mercúrio (internacional ohm) até aos padrões primários de resistências wirewound (como a resistência Thomas) e, mais recentemente, ao uso do Efeito Hall Quântico (QHE) como base para o padrão de resistência, que permite medições com incertezas extremamente baixas.

  • Corrente e Carga:
    São analisadas as definições tradicionais e modernas de ampère, passando pela medição de corrente através de métodos de interação entre condutores (força entre eles) e através de técnicas mais modernas, nomeadamente o método de equilíbrio de massa em sistemas de levitação supercondutora, que relacionam corrente elétrica com parâmetros mecânicos (massa, aceleração da gravidade, velocidade).

  • Capacidade (Farad):
    São explorados os métodos para definir e medir a capacidade, incluindo a definição convencional (1 F = 1 V / 1 C) e técnicas mais avançadas, como as pontes comutadas e o uso de condensadores calculáveis baseados no teorema de Thompson-Lampard. Estes dispositivos, de geometria controlada e medidos com interferometria a laser, permitem alcançar incertezas de ordem extremamente baixa.

  • Indutância (Henry):
    Embora a indutância seja uma quantidade derivada, os padrões para indutância são obtidos mediando‑a por métodos de ponte, envolvendo resistências e condensadores de alta precisão. Estão também vinculados aos padrões quânticos e à utilização de circuitos de ponte AC para estabelecer referências secundárias ou de transferência.


Introduction to Instrumentation and Measurements - Robert B Northrop Cap1


🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

Formulário de Contacto

Nome

Email *

Mensagem *