Pesquisar neste blogue

A apresentar mensagens correspondentes à consulta sinais sistemas ordenadas por data. Ordenar por relevância Mostrar todas as mensagens
A apresentar mensagens correspondentes à consulta sinais sistemas ordenadas por data. Ordenar por relevância Mostrar todas as mensagens

quarta-feira, 9 de julho de 2025

Resumo extraído do Capítulo 3 do livro "Signals and Systems" de Oppenheim e Nawab

Capítulo 3: Representação de sinais periódicos em séries de Fourier

3.1 Perspectiva Histórica

Esta secção traça a evolução histórica da análise de Fourier, mostrando como a ideia de decompor fenómenos periódicos em somas de funções trigonométricas remonta à antiguidade (por exemplo, os babilónios na astronomia). No século XVIII, Euler estudou cordas vibrantes, introduzindo a ideia de modos normais como combinações de senos e cossenos. Bernoulli defendeu que todos os movimentos de uma corda poderiam ser representados assim, mas Lagrange criticou a validade para sinais com descontinuidades.
Joseph Fourier retomou o conceito no início do século XIX para estudar a propagação de calor, afirmando que qualquer fenómeno periódico poderia ser descrito por séries de senos e cossenos, mesmo com descontinuidades — uma ideia inovadora mas inicialmente controversa. Fourier enfrentou resistência (inclusive de Lagrange) e dificuldades para publicar o seu trabalho, mas a sua Théorie analytique de la chaleur (1822) tornou-se fundamental. Fourier foi além das séries, propondo a transformação integral (base do que hoje chamamos Transformada de Fourier) para sinais aperiódicos. O impacto do seu trabalho estende-se por múltiplas áreas da ciência, engenharia e matemática, incluindo tópicos como integração, séries temporais, difusão de calor, sinais sinusoidais em circuitos de corrente alternada, ondas marítimas e transmissão de rádio. Finalmente, o texto destaca que, para sinais em tempo discreto, a análise harmónica ganhou relevância com o desenvolvimento da Transformada Rápida de Fourier (FFT) nos anos 60, revolucionando a computação digital de séries de Fourier.


3.2 Resposta de Sistemas LTI a Exponenciais Complexas

Esta secção demonstra porque é que as exponenciais complexas são tão importantes na análise de sistemas lineares e invariantes no tempo (LTI). O ponto central é que uma exponencial complexa é uma função própria de um sistema LTI: a resposta do sistema a uma entrada exponencial é a mesma exponencial multiplicada por um factor constante (o valor próprio ou ganho de frequência do sistema).
Em termos contínuos, uma entrada este^{st} gera uma saída H(s)estH(s)e^{st}, onde H(s)H(s) é a transformada de Laplace da resposta impulsional. No caso discreto, uma entrada znz^n gera uma saída H(z)znH(z)z^n.
Como consequência, qualquer sinal que possa ser escrito como combinação linear de exponenciais complexas pode ser analisado decompondo cada componente, aplicando a propriedade da sobreposição. Assim, se a entrada for uma soma de exponenciais, a saída será uma soma das mesmas exponenciais, escaladas pelos ganhos de frequência correspondentes. Esta ideia justifica a relevância das séries e transformadas de Fourier para representar sinais e estudar sistemas.
Inclui-se um exemplo de um sistema que apenas aplica um atraso de tempo, mostrando que a exponencial é efectivamente função própria — a saída é a entrada atrasada multiplicada por uma fase.


3.3 Representação de Sinais Periódicos em Tempo Contínuo (Série de Fourier)

Aqui é introduzida formalmente a Série de Fourier para sinais periódicos em tempo contínuo. Define-se que um sinal é periódico se x(t)=x(t+T)x(t) = x(t + T) para um período TT. O sinal pode ser expresso como uma soma de exponenciais complexas com frequências harmónicas múltiplas da fundamental:

x(t)=k=akejkω0tx(t) = \sum_{k=-\infty}^{\infty} a_k e^{jk\omega_0 t}

com ω0=2π/T\omega_0 = 2\pi/T.
É demonstrado que combinações lineares de exponenciais harmonicamente relacionadas continuam a ser periódicas. Apresenta-se a relação entre exponenciais e senos/cossenos, mostrando como sinais reais podem ser escritos em forma trigonométrica.
Segue-se o processo de determinação dos coeficientes aka_k (análise) através de integração ao longo de um período, baseando-se na ortogonalidade das exponenciais. Também se ilustra a interpretação física de cada termo: o coeficiente a0a_0 representa a componente DC (média), enquanto os outros descrevem a energia distribuída pelas harmónicas.
Exemplos práticos incluem uma onda sinusoidal, uma combinação de senos e cossenos, e uma onda quadrada — mostrando como sinais com descontinuidades podem ser aproximados por somas finitas de harmónicas.


3.4 Convergência da Série de Fourier

Esta secção discute as condições sob as quais a Série de Fourier efectivamente converge para o sinal original. Euler e Lagrange duvidavam da validade de representar funções descontínuas com somas de funções contínuas. Fourier, no entanto, mostrou que mesmo sinais como a onda quadrada podem ser representados correctamente no sentido de energia (ou seja, o erro quadrático médio tende para zero).
São introduzidas condições práticas de convergência:

  • Se um sinal for contínuo e de energia finita num período, a sua Série de Fourier converge.

  • Para sinais descontínuos, são apresentadas as condições de Dirichlet: o sinal deve ter energia finita, variação limitada (número finito de máximos e mínimos por período) e um número finito de descontinuidades.
    Se estas condições forem satisfeitas, a Série de Fourier converge para o sinal original em todos os pontos de continuidade e para a média dos limites laterais nos pontos de descontinuidade (ex. Gibbs phenomenon).
    O famoso fenómeno de Gibbs mostra que, perto das descontinuidades, a soma parcial da Série de Fourier apresenta oscilações que não desaparecem, mas concentram-se cada vez mais junto à descontinuidade à medida que se somam mais harmónicas. Mesmo assim, a energia do erro global tende para zero.


3.5 Propriedades da Série de Fourier em Tempo Contínuo

Esta secção organiza e descreve as propriedades fundamentais das Séries de Fourier para sinais periódicos em tempo contínuo. Estas propriedades são essenciais para simplificar cálculos e interpretar resultados.

As principais propriedades abordadas são:

  • Linearidade: A Série de Fourier é linear. Se dois sinais periódicos têm séries de Fourier conhecidas, qualquer combinação linear destes sinais resulta numa combinação linear dos coeficientes das séries.

  • Deslocamento Temporal: Um deslocamento no tempo de um sinal resulta numa rotação de fase nos coeficientes. Assim, se deslocarmos o sinal em t0t_0, os coeficientes multiplicam-se por ejkw0t0e^{-jkw_0 t_0}.

  • Inversão Temporal: Inverter um sinal no tempo equivale a inverter a sequência de coeficientes: akaka_k \rightarrow a_{-k}.

  • Escalonamento Temporal: Alterar a escala de tempo muda o período do sinal e a frequência fundamental, mas os coeficientes mantêm-se inalterados.

  • Multiplicação de Sinais: Multiplicar dois sinais periódicos no domínio temporal corresponde a uma convolução discreta dos seus coeficientes no domínio da frequência.

  • Conjugação: O conjugado de um sinal resulta nos coeficientes conjugados e invertidos: ak=aka_k^* = a_{-k}.

  • Sinais Reais: Se o sinal é real, os coeficientes são conjugados simétricos: ak=aka_{-k} = a_k^*.

  • Sinais Pares ou Ímpares: Para sinais reais, se forem pares, os coeficientes são reais e pares; se forem ímpares, os coeficientes são imaginários puros e ímpares.

  • Diferenciação e Integração: Derivar um sinal corresponde a multiplicar os coeficientes por jkw0jkw_0; integrar corresponde a multiplicar os coeficientes pelo inverso (salvo o termo DC).

  • Relação de Parseval: A potência média de um sinal periódico é igual à soma das potências médias de cada harmónica: 

  • 1TTx(t)2dt=k=ak2.\frac{1}{T} \int_{T} |x(t)|^2 dt = \sum_{k=-\infty}^{\infty} |a_k|^2.

Estas propriedades são resumidas numa tabela para consulta rápida e exemplificadas com pequenos exercícios que mostram como podem poupar cálculos. A intuição é que manipulando sinais no tempo podemos prever e controlar o efeito sobre o espectro de Fourier.


3.6 Séries de Fourier em Tempo Discreto

Nesta secção, o conceito de Séries de Fourier é estendido a sinais periódicos em tempo discreto. A ideia principal é análoga ao caso contínuo, mas adaptada à natureza discreta dos sinais.

  • Um sinal discreto x[n]x[n] é periódico com período NN se x[n]=x[n+N]x[n] = x[n + N].

  • A representação em série de Fourier é dada por:

    x[n]=k=0N1akej(2π/N)kn.x[n] = \sum_{k=0}^{N-1} a_k e^{j(2\pi/N)kn}.
  • Os coeficientes são obtidos por:

    ak=1Nn=0N1x[n]ej(2π/N)kn.a_k = \frac{1}{N} \sum_{n=0}^{N-1} x[n] e^{-j(2\pi/N)kn}.

Comparando com o caso contínuo, destaca-se que:

  • O número de harmónicas distintas é finito (N coeficientes para período N).

  • Os expoentes são amostrados uniformemente no círculo unitário.

  • A periodicidade de ej(2π/N)kne^{j(2\pi/N)kn} implica que o espectro é também periódico (aliasing inerente).

São discutidos exemplos simples de sinais discretos, como sequências binárias ou impulsos periódicos, e mostra-se como se obtêm os espectros. Este formalismo é a base para o desenvolvimento posterior da Transformada Discreta de Fourier (DFT) e da FFT.


3.7 Propriedades da Série de Fourier em Tempo Discreto

Tal como na secção 3.5, mas agora no contexto discreto, são apresentadas as propriedades que permitem manipular séries de Fourier de sinais discretos:

  • Linearidade: Mantém-se.

  • Deslocamento Temporal: Deslocar uma sequência no tempo adiciona uma fase exponencial ao espectro.

  • Inversão Temporal: Inverter o sinal inverte os índices dos coeficientes.

  • Multiplicação: A multiplicação de duas sequências periódicas corresponde a uma convolução discreta circular dos seus coeficientes.

  • Parseval: A soma da energia de um período é igual à soma dos quadrados das magnitudes dos coeficientes:

    1Nn=0N1x[n]2=k=0N1ak2.\frac{1}{N} \sum_{n=0}^{N-1} |x[n]|^2 = \sum_{k=0}^{N-1} |a_k|^2.

Estas propriedades são organizadas numa tabela análoga à do caso contínuo, facilitando o uso prático em problemas de análise de sinais e sistemas discretos.


3.8 Resposta de Sistemas LTI a Sinais Periódicos

Esta secção liga tudo: mostra como as séries de Fourier permitem analisar a resposta de sistemas LTI a sinais periódicos, tanto contínuos como discretos.

A ideia é:

  • Se a entrada x(t)x(t) ou x[n]x[n] é uma combinação de exponenciais complexas, e sabendo que cada exponencial é função própria do sistema LTI, então a saída é simplesmente a soma das mesmas exponenciais multiplicadas pelos ganhos do sistema em cada frequência.

  • Assim, o sistema filtra cada harmónica de forma independente, modificando a amplitude e fase segundo a resposta em frequência H(jω)H(j\omega) ou H(ejΩ)H(e^{j\Omega}).

  • Na prática, isto significa que podemos prever o comportamento de circuitos, filtros digitais e outros sistemas LTI analisando a resposta em frequência e o espectro de entrada.

A secção termina com exemplos ilustrativos: por exemplo, um circuito RC filtrando uma onda quadrada, mostrando como o espectro de saída atenua harmónicas de alta frequência — demonstrando o papel da resposta em frequência como “peneira” de harmónicas.


Secção 3.9 — Filtragem

A filtragem consiste em alterar as amplitudes relativas dos componentes de frequência de um sinal ou até eliminar alguns completamente. Os sistemas LTI (Lineares e Invariantes no Tempo) que modificam o espectro de forma controlada são chamados de filtros modeladores de frequência. Os filtros selectivos de frequência deixam passar algumas frequências quase sem distorção e atenuam ou rejeitam outras.

Como vimos, no domínio da frequência, a saída de um sistema LTI resulta da multiplicação das componentes do sinal de entrada pela resposta em frequência do sistema. Por isso, projectar filtros passa por escolher adequadamente essa resposta em frequência.

3.9.1 Filtros modeladores de frequência

Um exemplo comum está nos sistemas de áudio. Os filtros LTI nesses sistemas permitem ao utilizador ajustar o balanço entre graves e agudos. Estes filtros formam etapas de um equalizador, muitas vezes dividido em vários estágios em cascata, cujo efeito global resulta do produto das respostas em frequência de cada estágio.

  • Mostram-se exemplos de curvas de magnitude em dB (20 log10 |H(jω)|), num gráfico log-log.

  • Outro exemplo importante é o filtro diferenciador, com resposta em frequência H(jω) = jω. Amplifica mais as componentes de alta frequência, o que o torna útil, por exemplo, para realçar contornos em imagens (realce de transições bruscas em brilho). A aplicação a imagens bidimensionais é ilustrada, mostrando como realça bordas verticais ou horizontais consoante o conteúdo espectral em cada direcção.

No domínio discreto, os filtros LTI também são fundamentais. Usam-se em processamento digital (capítulo 7), por exemplo para separar variações de curto e longo prazo em séries temporais (dados económicos, demográficos). Um exemplo simples é o filtro média de dois pontos:

y[n]=12(x[n]+x[n1])y[n] = \frac{1}{2} (x[n] + x[n-1])

que actua como um filtro passa-baixo, atenuando altas frequências e preservando variações lentas.


3.9.2 Filtros selectivos de frequência

Estes filtros são desenhados para deixar passar algumas bandas de frequência e rejeitar outras com a maior precisão possível. Por exemplo:

  • Em áudio, podem remover ruído de alta frequência.

  • Em comunicações (como AM), permitem separar canais codificados em diferentes bandas.

Existem tipos básicos bem definidos:

  • Passa-baixo: passa baixas frequências, rejeita altas.

  • Passa-alto: o inverso.

  • Passa-banda: passa uma banda específica.

As frequências de corte marcam as fronteiras entre bandas passantes e de rejeição.

A figura 3.26 ilustra a resposta em frequência de um filtro passa-baixo ideal. A figura 3.27 mostra filtros passa-alto e passa-banda ideais (observa-se simetria em torno de ω=0 porque usamos exponenciais complexas). Para tempo discreto, a resposta em frequência deve ser periódica (figura 3.28), com período 2π.

Embora úteis para especificação teórica, os filtros ideais não são realizáveis fisicamente. Na prática, usam-se aproximações com transições menos abruptas e características ajustadas a cada aplicação.


Secção 3.10 — Exemplos de filtros contínuos descritos por equações diferenciais

Os filtros contínuos reais são muitas vezes implementados por circuitos cujas relações entrada-saída obedecem a equações diferenciais lineares com coeficientes constantes.

3.10.1 Um filtro RC passa-baixo simples

Um exemplo clássico é o circuito RC de primeira ordem, com o condensador como saída. A equação diferencial:

RCdvc(t)dt+vc(t)=vs(t)RC \frac{dv_c(t)}{dt} + v_c(t) = v_s(t)

leva a uma resposta em frequência:

H(jω)=11+jωRCH(jω) = \frac{1}{1 + jωRC}

  • Para ω≈0, |H(jω)|≈1 → passa baixas frequências.

  • Para ω elevado, |H(jω)|→0 → atenua altas frequências.

O compromisso entre domínio do tempo e da frequência: aumentar RC melhora a atenuação de altas frequências mas torna a resposta ao degrau mais lenta.


3.10.2 Um filtro RC passa-alto simples

Escolhendo agora como saída a tensão na resistência, a equação diferencial muda para:

RCdvs(t)dt+vs(t)=vr(t)RC \frac{dv_s(t)}{dt} + v_s(t) = v_r(t)

dando uma resposta em frequência:

G(jω)=jωRC1+jωRCG(jω) = \frac{jωRC}{1 + jωRC}

  • Atenua baixas frequências.

  • Passa altas frequências (para ω ≫ 1/RC).

Tal como no caso passa-baixo, o valor de RC controla a forma da resposta em frequência e a velocidade da resposta no tempo. Ambos os circuitos são exemplos de filtros de primeira ordem, com transições suaves entre banda passante e de rejeição.


Secção 3.11 — Exemplos de filtros discretos descritos por equações às diferenças

Os filtros em tempo discreto são implementados por equações às diferenças lineares de coeficientes constantes. Podem ser:

  • Recursivos (IIR): têm resposta ao impulso infinita.

  • Não-recursivos (FIR): resposta ao impulso finita.

Ambos são muito usados em sistemas digitais.

3.11.1 Filtros recursivos de primeira ordem

Um exemplo simples:

y[n]ay[n1]=x[n]y[n] - a y[n-1] = x[n]

Para entrada exponencial complexa, a resposta em frequência é:

H(ejω)=11aejωH(e^{jω}) = \frac{1}{1 - a e^{-jω}}

  • Para a>0 (e |a|<1), actua como passa-baixo.

  • Para a<0 (e |a|<1), actua como passa-alto.

O parâmetro a controla tanto a largura da banda passante como a velocidade da resposta ao impulso ou degrau.


3.11.2 Filtros não-recursivos

Forma geral:

y[n]=k=NMbkx[nk]y[n] = \sum_{k=-N}^{M} b_k x[n-k]

Exemplo clássico: filtro de média móvel.
Para três pontos:

y[n]=13(x[n1]+x[n]+x[n+1])y[n] = \frac{1}{3}(x[n-1] + x[n] + x[n+1])

  • Atenua variações rápidas (altas frequências), passa variações lentas (baixas frequências).

  • O tamanho da janela controla a frequência de corte.

Outros filtros não-recursivos podem fazer passa-alto. Exemplo:

y[n]=12(x[n]x[n1])y[n] = \frac{1}{2}(x[n] - x[n-1])

atua como um diferenciador discreto, atenuando baixas frequências.

As principais características dos FIR:

  • Impulso finito → sempre estáveis.

  • Possibilidade de serem causais ou não, dependendo se dependem de amostras futuras.


Secção 3.12 — Resumo

O capítulo introduz a representação em séries de Fourier para sinais periódicos em tempo contínuo e discreto, explorando a motivação principal: as exponenciais complexas são autofunções de sistemas LTI.

Mostrou-se que:

  • Qualquer sinal periódico pode decompor-se numa soma ponderada de exponenciais harmónicas.

  • Aplicando um sinal periódico a um sistema LTI, cada coeficiente de Fourier na saída é o produto do coeficiente de entrada pelo valor da resposta em frequência nessa harmónica.

Isto conduz ao conceito de filtragem com sistemas LTI, incluindo a filtragem selectiva de frequência.

O capítulo discutiu:

  • Filtros ideais (não realizáveis) como referência teórica.

  • Exemplos práticos baseados em equações diferenciais (contínuo) e às diferenças (discreto).

  • A importância de compreender as respostas em frequência para conceber sistemas que realizem filtragem conforme os requisitos da aplicação.

Adiantou ainda que nos capítulos seguintes se desenvolverão ferramentas para sinais aperiódicos e uma análise mais detalhada da filtragem.


Capítulo 3 do livro "Signals and Systems" de Oppenheim e Nawab


🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

terça-feira, 3 de junho de 2025

Resumo extraído do Capítulo 2 do livro Introduction to Signal Processing de Sophocles J. Orfanidis

Capítulo 2 – Quantização

2.1 Processo de Quantização

Esta secção explica o processo fundamental de quantização, etapa essencial da conversão de sinais analógicos em digitais, após a amostragem.

  • Um conversor analógico-digital (ADC) converte cada amostra do sinal x(nT)x(nT) num valor quantizado xQ(nT)x_Q(nT), representável por um número finito de bits BB, com 2B2^B níveis de quantização.

  • A resolução do quantizador, ou largura de quantização QQ, é Q=R/2BQ = R/2^B, onde RR é a gama total do sinal (full-scale range).

  • A quantização por arredondamento é preferível à truncagem, pois introduz menor viés no erro de quantização.

  • O erro de quantização e(nT)=xQ(nT)x(nT)e(nT) = x_Q(nT) - x(nT) tem amplitude máxima de Q/2Q/2, e a variância média do erro é Q2/12Q^2/12. O erro pode ser modelado como ruído branco com distribuição uniforme em [Q/2,Q/2][-Q/2, Q/2], desde que o sinal ocupe bem a gama RR.

  • O modelo aditivo de ruído considera que xQ(n)=x(n)+e(n)x_Q(n) = x(n) + e(n), sendo e(n)e(n) ruído branco, estacionário, não correlacionado com o sinal.

  • Para sinais de baixa amplitude, o erro de quantização não é ruído branco, podendo introduzir distorções chamadas granulação.

  • A técnica de dithering (adição de ruído antes da quantização) pode eliminar essas distorções, tornando o erro mais aleatório, ainda que à custa de um aumento ligeiro do ruído (3 a 6 dB).


2.2 Sobreamostragem e modelação do ruído

Esta secção apresenta técnicas para melhorar a qualidade da quantização sem aumentar o número de bits por amostra.

Conceitos principais:

  • O ruído de quantização é uniformemente distribuído no espectro (ruído branco).

  • Com sobreamostragem (oversampling), o sinal é amostrado a uma taxa fs>fsf_s' > f_s. Isto espalha o ruído por uma banda maior, reduzindo o ruído na banda útil.

  • Mesmo com menor resolução (menos bits por amostra), o desempenho pode manter-se ou até melhorar devido ao maior número de amostras.

Cálculos:

  • Com sobreamostragem, a potência de ruído dentro da banda útil é reduzida: σe2=σe2/L\sigma_e^2 = \sigma_{e'}^2 / L, com L=fs/fsL = f_s' / f_s.

  • A poupança de bits por sobreamostragem sem modelação de ruído é pequena: ΔB=0.5log2L\Delta B = 0.5 \log_2 L.

  • Para aumentar essa poupança, usa-se modelação de ruído, que filtra o ruído de quantização com um filtro HNS(f)H_{NS}(f) para "empurrar" o ruído para fora da banda útil.

  • Com quantizadores de ordem pp e sobreamostragem, a poupança é maior: ΔB=(p+0.5)log2L0.5log2(π2p2p+1)\Delta B = (p + 0.5) \log_2 L - 0.5 \log_2\left(\frac{\pi^{2p}}{2p+1}\right).

  • Por exemplo, com ordem 2 e L=128L = 128, é possível obter o equivalente a um quantizador de 16 bits usando apenas 1 bit por amostra.

Aplicações:

  • Esta técnica é usada em conversores delta-sigma, presentes em leitores de CD, sistemas de áudio digital e codificação de voz.

  • O sistema de DSP com sobreamostragem permite filtros analógicos mais simples, menor resolução nos conversores, e ainda assim manter a qualidade através de filtragem digital (interpolação e decimação).


2.3 Conversores D/A

Esta secção discute os conversores digital-analógico (DACs), focando-se nas convenções de codificação e funcionamento lógico, sem entrar em detalhes eléctricos.

  • Um DAC de BB bits converte uma palavra digital [b1,b2,...,bB][b_1, b_2, ..., b_B] num valor analógico xQx_Q dentro da gama RR.

  • Três tipos de codificação:

    1. Unipolar natural binario: xQ=Ri=1Bbi2ix_Q = R \cdot \sum_{i=1}^{B} b_i \cdot 2^{-i}

    2. Bipolar offset binario: igual ao anterior, mas com deslocamento R/2-R/2

    3. Complemento para dois: semelhante ao offset binario, mas com o bit mais significativo invertido para representar sinais negativos de forma natural.

  • As representações natural e offset têm os mesmos padrões binários, mas diferentes níveis de saída.

  • A tabela 2.3.2 mostra, por exemplo com B=4B = 4, como as palavras binárias mapeiam para níveis analógicos em cada codificação.

  • O código complemento para dois é obtido facilmente a partir da forma natural binaria, complementando os bits e somando 1 (ex: 0011 = +3 → 1101 = −3).

  • São apresentadas funções C para simular conversores DAC de  complemento para dois (usando a regra de Horner para calcular xQx_Q).


Capítulo 2 do livro Introduction to Signal Processing de Sophocles J. Orfanidis



🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

segunda-feira, 26 de maio de 2025

Resumo extraído do Capítulo 2 do livro Structured Computer Organization de Andrew S. Tanenbaum (5.ª edição)

Estrutura dos sistemas computacionais



2.1 PROCESSADORES

Esta secção aborda a organização e evolução dos processadores (CPUs).

  • Estrutura Básica da CPU: A CPU é composta pela UC (unidade de controlo), ALU (Unidade Aritmética e Lógica) e registos. A unidade de controlo busca instruções da memória principal, interpreta-as e executa-as. Os registos armazenam dados temporários e instruções em execução, sendo o Program Counter (PC) e o Instruction Register (IR) os mais importantes.

  • Execução de Instruções: A execução dá-se em etapas: buscar a instrução, actualizar o PC, decodificar a instrução, buscar operandos, executar a operação e escrever o resultado.

  • Caminho de Dados (Datapath): Mostra como os dados fluem dentro da CPU, entre registos e a ALU. A performance do processador depende da eficiência deste caminho.

  • Pipelining: Técnica para acelerar a execução de instruções dividindo-as em várias fases (como uma linha de montagem). Várias instruções podem ser processadas em simultâneo, uma em cada estágio.

  • Paralelismo a Nível de Instrução: Explora-se o uso de pipelines duplos (como no Pentium) ou arquitecturas superscalares com várias unidades funcionais que permitem executar múltiplas instruções por ciclo de relógio.

  • Processamento Paralelo (Array e Vector Processors): Processadores de array como o ILLIAC IV executam a mesma instrução sobre múltiplos dados em paralelo (SIMD). Os vector processors, como o Cray-1, usam registos vectoriais e pipelines para realizar operações vectoriais com alta eficiência.

  • Multiprocessadores e Multicomputadores: Multiprocessadores partilham memória comum e são fortemente acoplados, facilitando a programação. Multicomputadores têm memória separada por CPU e comunicam por troca de mensagens, sendo mais escaláveis. Sistemas híbridos tentam combinar o melhor de ambos.


2.2 MEMÓRIA PRINCIPAL

Esta secção foca-se na organização, tipos e funcionamento da memória principal de um sistema informático.

  • Bits e Codificação Binária: A unidade mínima é o bit. O sistema binário é o mais fiável devido à facilidade de distinguir entre dois estados (0 e 1). Alguns sistemas usam codificações como BCD para representar números decimais.

  • Endereços de Memória: Cada célula de memória tem um endereço único. A quantidade de bits por endereço determina o número máximo de células endereçáveis. A célula é a unidade mais pequena de endereçamento e normalmente contém um byte (8 bits).

  • Ordenação de Bytes (Byte Ordering): Define como os bytes que compõem uma palavra são armazenados na memória — por exemplo, "little-endian" versus "big-endian".

  • Correção de Erros: Utilizam-se códigos como o de Hamming para detectar e corrigir erros na memória. A verificação de paridade também pode ser usada para detecção simples.

  • Memória Cache: Pequena memória rápida usada para armazenar dados frequentemente usados. Baseia-se no princípio da localidade (temporal e espacial). A performance depende da taxa de acertos (hit ratio) e é influenciada pelo tamanho da cache, tamanho da linha, organização, separação de dados e instruções (cache unificada vs Harvard) e número de níveis de cache.

  • Empacotamento e Tipos de Memória: As memórias modernas são vendidas como módulos (SIMMs ou DIMMs), cada um contendo vários chips de memória. DIMMs transferem 64 bits por ciclo e são comuns em computadores de secretária, enquanto os SO-DIMMs são usados em portáteis. A correção de erros é opcional e pouco comum em computadores domésticos.


2.3 MEMÓRIA SECUNDÁRIA

Mesmo com memórias principais cada vez maiores, elas continuam a ser insuficientes para armazenar todos os dados desejados, especialmente com o aumento da informação digital (como livros digitalizados, vídeos, etc.). A solução clássica é utilizar uma hierarquia de memória, onde memórias mais lentas, maiores e baratas complementam as mais rápidas e pequenas.

2.3.1 Hierarquias de Memória

  • Organiza-se a memória em níveis: registos, cache, memória principal, discos magnéticos, fitas magnéticas e discos ópticos.

  • À medida que se desce na hierarquia:

    • O tempo de acesso aumenta.

    • A capacidade de armazenamento aumenta.

    • O custo por bit diminui.

2.3.2 Discos Magnéticos

  • Compostos por pratos com revestimento magnético.

  • A informação é lida/escrita por cabeças móveis que flutuam sobre os pratos.

  • Os pratos giram a velocidade constante; os dados são organizados em pistas e sectores.

  • Utilizam estratégias como zonas concêntricas com diferentes números de sectores para aumentar a capacidade (zone bit recording).

  • Discos Winchester são selados para evitar poeira.

2.3.3 Desempenho dos Discos

  • Fatores como o tempo de procura (seek time), latência rotacional e taxa de transferência afetam o desempenho.

  • Há uma grande diferença entre a taxa de pico (burst) e a taxa sustentada de transferência de dados.

2.3.4 Interfaces e Controladores

  • Interfaces como IDE, EIDE e SCSI evoluíram para suportar velocidades maiores e múltiplos dispositivos.

  • O endereçamento evoluiu de C/H/S para LBA (Logical Block Addressing) para ultrapassar limites antigos (como os 504 MB dos primeiros BIOS).

2.3.6 RAID

  • RAID (Redundant Array of Independent Disks) melhora desempenho e fiabilidade.

  • Combina múltiplos discos como se fossem um só, podendo usar técnicas como espelhamento (RAID 1) ou distribuição de paridade (RAID 5).

2.3.8 CD-Recordables (CD-R)

  • CDs graváveis foram introduzidos como meio económico para backups.

  • Utilizam discos com trilhas guia e material sensível à gravação com laser.

2.3.9 CD-Rewritables (CD-RW)

  • Usam uma liga metálica especial com dois estados estáveis (amorfo e cristalino).

  • Um laser de diferentes potências escreve, apaga e lê os dados.

2.3.10 DVD

  • Representa uma evolução do CD-ROM, com maior capacidade.

  • É mais adequado para aplicações como filmes e grandes bases de dados.


2.4 ENTRADA/SAÍDA (INPUT/OUTPUT)

A secção trata da forma como os dispositivos de entrada e saída (E/S) se ligam ao processador e à memória, com foco especial nos barramentos (buses).

2.4.1 Barramentos

  • Os barramentos são conjuntos de fios paralelos que transportam sinais de controlo, dados e endereços entre os vários componentes de um computador.

  • A estrutura física típica inclui uma motherboard com slots para módulos de memória e placas de E/S ligadas ao barramento (ex: PCI).

  • Dispositivos de E/S dividem-se entre o controlador (controlador físico/electrónico) e o dispositivo propriamente dito (ex: disco, monitor).

  • O controlador gere o dispositivo e comunica com a CPU através do barramento. Pode usar DMA (Acesso Directo à Memória) para ler/escrever dados sem intervenção da CPU.

  • Quando a transferência termina, o controlador gera uma interrupção, que suspende o programa em execução e invoca um tratador de interrupções (interrupt handler).

Arbitragem do Barramento

  • Um árbitro de barramento decide qual componente usa o barramento quando há conflito (por exemplo, CPU vs dispositivo de E/S).

  • Os dispositivos de E/S têm normalmente prioridade, pois não podem parar a sua operação física sem risco de perda de dados (ex: discos rígidos).

Problemas de Velocidade e Compatibilidade

  • À medida que os componentes ficaram mais rápidos, os barramentos tornaram-se um gargalo. Surgiram soluções com barramentos múltiplos (por exemplo, PCI e ISA).

  • A evolução para o barramento PCI, mais rápido, permitiu maior largura de banda para dispositivos como placas gráficas, som, rede e discos SCSI.


2.5 SUMÁRIO

Esta secção faz uma recapitulação dos principais conceitos abordados ao longo do capítulo:

  • Componentes dos Sistemas Computacionais: São compostos por três tipos principais de componentes:

    • Processadores: Responsáveis por buscar, decifrar e executar instruções.

    • Memórias: Armazenam instruções e dados.

    • Dispositivos de Entrada/Saída (E/S): Permitem a comunicação com o exterior (ex: teclado, ecrã, impressora, etc.).

  • Ciclo de Execução de Instruções: Consiste em buscar uma instrução da memória, decodificá-la e executá-la. Este processo pode ser descrito como um algoritmo e, por vezes, é implementado por interpretadores.

  • Melhoria de Desempenho: Muitos computadores modernos usam pipelines ou arquitecturas superscalar, com várias unidades funcionais a operar em paralelo.

  • Computação Paralela:

    • Processadores em Array: Executam a mesma operação em múltiplos dados ao mesmo tempo (SIMD).

    • Multiprocessadores: Partilham uma memória comum (memória partilhada).

    • Multicomputadores: Cada processador tem a sua própria memória, e a comunicação entre eles é feita por troca de mensagens.

  • Hierarquia de Memória:

    • Memória Principal: Rápida e usada para armazenar o programa em execução. Pode usar cache para melhorar a performance.

    • Memória Secundária: Mais lenta, usada para armazenamento a longo prazo. Inclui discos magnéticos, discos ópticos e RAID.

  • Dispositivos de Entrada/Saída: Transferem dados entre o mundo exterior e o computador. Estão ligados por meio de um ou mais barramentos. A maioria dos dispositivos usa o código ASCII, mas o UNICODE está a tornar-se o padrão global.


Capítulo 2 do livro Structured Computer Organization de Andrew S. Tanenbaum (5.ª edição)

Capa do livro Structured Computer Organization de Andrew S. Tanenbaum (5.ª edição)


🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

terça-feira, 6 de maio de 2025

Resumo extraído do Capítulo 4 do livro Discrete-Time Signal Processing de Oppenheim e Schafer, (3ª edição)


4 - Amostragem de sinais em tempo contínuo


Secção 4.1 – Amostragem Periódica

Esta secção introduz o conceito de amostragem periódica como a forma mais comum de obter representações em tempo discreto de sinais contínuos. A operação básica consiste em obter uma sequência de amostras x[n]=xc(nT)x[n] = x_c(nT), onde TT é o período de amostragem. A conversão ideal contínua-para-discreta (C/D) é representada por um modulador de trem de impulsos seguido pela conversão desses impulsos numa sequência discreta.

É destacado que a operação de amostragem, por si só, não é invertível sem restrições ao conteúdo em frequência do sinal original, o que leva à introdução do conceito de sinal de banda limitada. É feita uma representação matemática do processo através da multiplicação do sinal contínuo xc(t)x_c(t) por um trem de impulsos s(t)s(t), resultando numa expressão composta por impulsos com áreas iguais aos valores de xc(nT)x_c(nT). Esta modelação permite a análise do processo tanto no domínio do tempo como no da frequência.


Secção 4.2 – Representação no Domínio da Frequência da Amostragem

Esta secção desenvolve a análise da amostragem no domínio da frequência. Mostra que a transformada de Fourier do sinal amostrado xs(t)x_s(t) é uma soma de cópias deslocadas da transformada de Fourier do sinal original Xc(jΩ)X_c(j\Omega), espaçadas pela frequência de amostragem Ωs=2πT\Omega_s = \frac{2\pi}{T}. Esta replicação espectral pode causar sobreposição, ou aliasing, se Ωs<2ΩN\Omega_s < 2\Omega_N, onde ΩN\Omega_N é a frequência de Nyquist, definida como a maior frequência presente em xc(t)x_c(t).

O teorema da amostragem de Nyquist-Shannon é: um sinal contínuo de banda limitada pode ser reconstruído exatamente a partir das suas amostras, desde que a frequência de amostragem seja pelo menos o dobro da frequência máxima do sinal. São fornecidos exemplos com sinais sinusoidais que demonstram a ocorrência ou ausência de aliasing dependendo da frequência de amostragem usada.


Secção 4.3 – Reconstrução de um Sinal de Banda Limitada a partir das suas Amostras

A secção foca-se no processo inverso da amostragem: a reconstrução de xc(t)x_c(t) a partir de x[n]x[n]. Quando o sinal amostrado satisfaz o teorema de Nyquist, é possível reconstruí-lo exatamente utilizando um filtro passa-baixo ideal. O sistema ideal de reconstrução é chamado conversor ideal discreto-para-contínuo (D/C), que transforma a sequência x[n]x[n] num trem de impulsos e, posteriormente, aplica um filtro passa-baixo com resposta impulsiva hr(t)=sin(πt/T)πt/Th_r(t) = \frac{\sin(\pi t/T)}{\pi t/T}, resultando numa interpolação sinc dos valores amostrados.

A equação final expressa xr(t)x_r(t), o sinal reconstruído, como uma soma ponderada de funções sinc deslocadas no tempo. É mostrado que este processo gera um sinal contínuo cujos valores coincidem com os das amostras originais em t=nTt = nT, garantindo assim uma reconstrução perfeita sob as condições ideais.


Secção 4.4 – Processamento em Tempo Discreto de Sinais em Tempo Contínuo

Esta secção explora um dos principais objetivos do processamento digital de sinais: usar sistemas em tempo discreto para processar sinais analógicos (contínuos). Isto é feito interligando três blocos principais:

  1. Um conversor contínuo-para-discreto (C/D), que amostra o sinal analógico.

  2. Um sistema em tempo discreto (como um filtro digital).

  3. Um conversor discreto-para-contínuo (D/C), que reconstrói um sinal contínuo a partir do sinal processado.

Para que o sistema global se comporte como um sistema linear e invariante no tempo (LTI), duas condições devem ser cumpridas:

  • O sistema digital deve ser LTI.

  • A frequência de amostragem deve ser pelo menos igual à taxa de Nyquist para evitar aliasing.

Esta secção fornece uma análise em domínio da frequência que mostra como a resposta em frequência do sistema total pode ser entendida como o produto da resposta do sistema digital com a resposta do filtro de reconstrução, devidamente escalados.

São dados exemplos práticos:

  • Exemplo 4.3 mostra como realizar um filtro passa-baixo contínuo ideal usando um filtro digital passa-baixo.

  • Exemplo 4.4 mostra como implementar numericamente um diferenciador ideal contínuo através de um sistema digital.

Estes exemplos demonstram como, ajustando a frequência de corte e o período de amostragem, se consegue controlar a frequência de corte do sistema contínuo equivalente.


Secção 4.5 – Processamento em Tempo Contínuo de Sinais em Tempo Discreto

Aqui é apresentado o conceito complementar ao da secção anterior: usar sistemas contínuos para interpretar ou implementar comportamentos de sistemas discretos. Embora esta abordagem não seja habitual para implementação prática, tem valor teórico.

O sistema considerado consiste em:

  1. Um conversor D/C que interpola a sequência discreta através de uma função sinc.

  2. Um sistema contínuo LTI com resposta em frequência Hc(jΩ)H_c(j\Omega).

  3. Um conversor C/D que volta a amostrar o sinal filtrado.

Dado que o sinal reconstruído pelo D/C está limitado em banda (até π/T\pi/T), a operação do sistema contínuo pode ser interpretada como uma forma alternativa de aplicar uma operação sobre o sinal discreto.

Exemplos destacados:

  • Exemplo 4.7: mostra como implementar um atraso não-inteiro, algo não trivial no domínio discreto. Ao aplicar um atraso fracionário no domínio contínuo ao sinal interpolado, e depois voltar a amostrar, obtém-se o efeito desejado.

  • Exemplo 4.8: aplica essa ideia a um filtro de média móvel (moving average), onde se demonstra que um filtro de 6 pontos tem um atraso de 2.5 amostras, visível através do seu efeito sobre um cosseno amostrado.


Secção 4.6 – Alteração da Taxa de Amostragem Usando Processamento em Tempo Discreto

Esta secção aborda técnicas para alterar a taxa de amostragem de sinais discretos — uma necessidade comum em sistemas digitais. Duas operações principais são discutidas:

Redução da taxa de amostragem (downsampling)

Consiste em reduzir a taxa de amostragem em um fator inteiro MM, retendo apenas uma em cada MM amostras:

xd[n]=x[nM]x_d[n] = x[nM]

Este processo pode causar aliasing, tal como a amostragem contínua, se o sinal não for previamente limitado em frequência. Para evitar aliasing, é necessário que o sinal x[n]x[n] seja pré-filtrado com um filtro passa-baixo discreto.

A análise em frequência mostra que o espectro de xd[n]x_d[n] é composto por múltiplas cópias comprimidas do espectro de x[n]x[n], somadas entre si.

Exemplos visuais:

  • Figuras da secção mostram como o espectro muda com o downsampling, evidenciando os efeitos de aliasing e como evitá-los com pré-filtragem.

A operação inversa (aumento da taxa de amostragem, ou upsampling) será discutida em secções seguintes, mas esta secção foca-se na fundamentação teórica e nos efeitos espectrais da redução da taxa.


Secção 4.9 – Sobreamostragem e Modelação do Ruído na Conversão A/D e D/A

Esta secção aprofunda a utilização de técnicas de sobreamostragem (oversampling) e modelação de ruído (noise shaping) para melhorar o desempenho na conversão analógica-para-digital (A/D) e digital-para-analógica (D/A), permitindo uma representação mais precisa com menos bits de quantização.

4.9.1 Sobreamostragem com Quantização Directa

Ao aumentar a taxa de amostragem em relação à frequência de Nyquist (ou seja, sobreamostrar com um fator MM), é possível reduzir o ruído de quantização para um determinado tamanho de passo Δ\Delta do quantizador. Isto significa que podemos utilizar quantizadores com menos bits, mantendo a mesma precisão. A relação é tal que, ao duplicar MM, pode-se reduzir o número de bits em 0,5 para atingir o mesmo desempenho de relação sinal/ruído.

4.9.2 Sobreamostragem com Modelação do Ruído

Apenas sobreamostrar exige valores de MM muito elevados para obter grandes reduções no número de bits, o que é pouco prático. No entanto, ao introduzir um sistema de feedback que "modela" o espectro do ruído de quantização — deslocando-o para fora da banda útil do sinal — pode-se eliminar grande parte desse ruído através de filtragem subsequente. Este processo, chamado modelação de ruído, usa estruturas com realimentação para alterar a densidade espectral de potência do ruído, concentrando-o fora da banda ω<π/M|ω| < π/M. Isto permite ganhos maiores em eficiência de quantização, como demonstrado pela Tabela 4.1: com M=64M = 64, o ganho pode chegar a 8.1 bits com modelação de ruído de 1ª ordem, versus 3 bits com sobreamostragem directa.

4.9.3 Aplicação na Conversão D/A

As mesmas ideias são aplicáveis ao processo inverso (D/A). Aqui, a sequência digital é primeiro aumentada em taxa (upsampled), sujeita a modelação de ruído e depois reconvertida para o domínio contínuo por um conversor D/A. A ideia é que a modelação de ruído afaste o ruído da banda do sinal para que a filtragem analógica final possa removê-lo de forma mais eficaz, permitindo o uso de conversores com menos bits. A ordem da modelação de ruído (por exemplo, 1ª, 2ª ou até 5ª ordem) permite controlar ainda mais este efeito, como mostrado na Tabela 4.2. Contudo, ordens mais elevadas trazem riscos de instabilidade, o que levou ao desenvolvimento de estruturas alternativas como MASH (Multistage Noise Shaping).


Secção 4.10 – Resumo do Capítulo

Esta secção recapitula os principais tópicos abordados no capítulo:

  • O teorema de Nyquist-Shannon é a base para a representação de sinais contínuos por amostras discretas.

  • É possível reconstruir um sinal contínuo de forma exata a partir das suas amostras se a taxa de amostragem for suficiente (acima do dobro da frequência máxima do sinal).

  • Processamento digital de sinais contínuos envolve amostragem, processamento em tempo discreto, e reconstrução.

  • Técnicas como subamostragem (downsampling), sobreamostragem (upsampling), e conversão de taxas não inteiras são fundamentais em aplicações digitais.

  • Foi dada ênfase às implicações práticas como a necessidade de filtros anti-aliasing, a influência do ruído de quantização, e estratégias como decimação, interpolação e modelação de ruído para melhorar a eficiência das conversões A/D e D/A.

Estas ideias oferecem as bases para sistemas modernos como áudio digital (e.g., CD) e comunicações, onde a relação entre o domínio contínuo e o discreto é fundamental.



Capítulo 4 do livro Discrete-Time Signal Processing de Oppenheim e Schafer, (3ª edição)


🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

sexta-feira, 2 de maio de 2025

Resumo extraído do Capítulo 10 do livro Microelectronic Circuits de Sedra e Smith, (6.ª edição)


Capítulo 10 – Feedback 


Secção 10.1 – A Estrutura Geral de Realimentação 

Esta secção introduz a estrutura básica de um amplificador com realimentação negativa, usando um diagrama de fluxo de sinal. O sistema é composto por:

  • Um amplificador de malha aberta com ganho AA;

  • Uma rede de realimentação que devolve parte do sinal de saída à entrada;

  • Um somador que subtrai o sinal de realimentação xfx_f do sinal de entrada xsx_s, resultando no sinal xix_i que entra no amplificador.

O sinal de realimentação xfx_f é uma fração da saída xox_o, dada por xf=βxox_f = \beta x_o. O ganho da malha fechada AfA_f é derivado como:

Af=A1+AβA_f = \frac{A}{1 + A\beta}

O produto AβA\beta é designado ganho de malha (loop gain). Quando Aβ1A\beta \gg 1, o ganho do sistema depende principalmente de β\beta, o que permite obter ganhos precisos e estáveis, pois β\beta é normalmente determinado por componentes passivos.

A secção reforça também o conceito de sinal de erro xix_i, que tende para zero quando o ganho de malha é elevado, promovendo uma operação linear do amplificador.


Secção 10.2 – Algumas Propriedades da Realimentação Negativa 

Nesta secção, discutem-se os principais benefícios da realimentação negativa:

1. Desensibilização do Ganho:

Reduz a sensibilidade do ganho da malha fechada a variações no ganho do amplificador. Um pequeno desvio em AA causa uma variação muito menor em AfA_f, dependendo da quantidade de realimentação 1+Aβ1 + A\beta.

2. Extensão da Largura de Banda:

Para um amplificador com uma única frequência de corte ωH\omega_H, a aplicação de realimentação negativa aumenta a frequência de corte para:

ωHf=ωH(1+AMβ)\omega_{Hf} = \omega_H (1 + A_M\beta)

Reduz-se o ganho, mas aumenta-se a largura de banda, mantendo constante o produto ganho-largura de banda.

3. Redução de Interferência:

Ao intercalar um amplificador livre de interferências antes do estágio sujeito a ruído e aplicar realimentação, melhora-se a relação sinal/interferência. O benefício só ocorre se a interferência puder ser isolada de forma prática.

4. Redução da Distorção Não Linear:

A realimentação reduz as variações no ganho devido a não linearidades internas do amplificador. Isto resulta numa característica de transferência mais linear, embora com um ganho menor. A saturação, no entanto, não pode ser corrigida por realimentação.


Secção 10.3 – As Quatro Topologias Básicas de Realimentação 

Esta secção classifica amplificadores em quatro tipos, com base nas quantidades de entrada e saída, e associa a cada um uma topologia de realimentação apropriada:

1. Amplificadores de Tensão:

  • Entrada: tensão

  • Saída: tensão

  • Topologia: série–shunt (mistura série na entrada, amostragem shunt na saída)

  • Efeitos: aumento da resistência de entrada, diminuição da resistência de saída

2. Amplificadores de Corrente:

  • Entrada: corrente

  • Saída: corrente

  • Topologia: shunt–série (mistura shunt na entrada, amostragem série na saída)

  • Efeitos: diminuição da resistência de entrada, aumento da resistência de saída

3. Amplificadores de Transcondutância:

  • Entrada: tensão

  • Saída: corrente

  • Topologia: série–série

  • Efeitos: aumento das resistências de entrada e saída

4. Amplificadores de Transresistência:

  • Entrada: corrente

  • Saída: tensão

  • Topologia: shunt–shunt

  • Efeitos: diminuição das resistências de entrada e saída

Cada topologia é ilustrada com circuitos práticos, mostrando como a realimentação é implementada e como se garante que seja negativa.


Secção 10.4 – O Amplificador de Tensão com Realimentação (Série–Shunt)

10.4.1 – Caso Ideal

A estrutura ideal de um amplificador de tensão com realimentação série–shunt é composta por:

  • Um amplificador de malha aberta com resistência de entrada RiR_i, ganho de tensão A=Vo/ViA = V_o/V_i e resistência de saída RoR_o;

  • Uma rede de realimentação que mistura em série na entrada e amostra em paralelo (shunt) na saída;

  • Fontes e cargas absorvidas no bloco do amplificador.

O ganho de tensão com realimentação é:

Af=A1+AβA_f = \frac{A}{1 + A\beta}

A resistência de entrada com realimentação aumenta:

Rif=Ri(1+Aβ)R_{if} = R_i (1 + A\beta)

A resistência de saída com realimentação diminui:

Rof=Ro1+AβR_{of} = \frac{R_o}{1 + A\beta}

Estes efeitos são desejáveis num amplificador de tensão: entrada alta impedância, saída baixa impedância, e ganho estável.

10.4.2 – Caso Prático

Na prática, a rede de realimentação pode carregar o amplificador e alterar os valores de AA, RiR_i, e RoR_o. Para lidar com isso, Sedra e Smith recomendam:

  • Representar a rede de realimentação com parâmetros h (modelo híbrido), pois facilita a análise de ligações série (entrada) e shunt (saída);

  • Desprezar o parâmetro h21h_{21}, assumindo que a rede de realimentação é passiva;

  • Determinar o bloco A (amplificador base) incluindo os efeitos da carga e da fonte;

  • Determinar β=h12\beta = h_{12}, medindo a proporção entre o sinal na entrada e na saída da rede, com entrada aberta (devido à ligação série).

10.4.3 – Resumo

Para sistemas com realimentação série–shunt:

  • Curto-circuita a porta ligada em shunt;

  • Abre a porta ligada em série;

  • Determina AA, β\beta, RiR_i, e RoR_o com estas condições;

  • Aplica as fórmulas:

    • Rif=Ri(1+Aβ)R_{if} = R_i (1 + A\beta)

    • Rof=Ro1+AβR_{of} = \frac{R_o}{1 + A\beta}

Dois exemplos (com amplificadores operacionais e MOSFETs) são trabalhados com valores numéricos para ilustrar o processo.


Secção 10.5 – O Amplificador de Transcondutância com Realimentação (Série–Série)

10.5.1 – Caso Ideal

Este tipo de amplificador:

  • Recebe uma tensão de entrada;

  • Fornece uma corrente de saída (ganho A=Io/ViA = I_o/V_i);

  • Utiliza realimentação série na entrada e série na saída.

O sistema ideal consiste num:

  • Amplificador de malha aberta com entrada de resistência RiR_i, saída RoR_o, e transcondutância AA;

  • Rede de realimentação que converte a corrente de saída IoI_o numa tensão Vf=βIoV_f = \beta I_o, que é subtraída de VsV_s.

Ganho com realimentação:

Af=A1+AβA_f = \frac{A}{1 + A\beta}

Efeitos principais:

  • A resistência de entrada aumenta: Rif=Ri(1+Aβ)R_{if} = R_i (1 + A\beta);

  • A resistência de saída aumenta: Rof=Ro(1+Aβ)R_{of} = R_o (1 + A\beta).

10.5.2 – Caso Prático

O processo para análise prática é semelhante ao da secção anterior:

  • Representa-se a rede de realimentação com parâmetros z (impedância), já que as ligações série aparecem tanto na entrada como na saída;

  • O parâmetro β=z12\beta = z_{12} pode ser obtido medindo a tensão de realimentação em função da corrente de saída;

  • A resistência de entrada considera o efeito de abrir a porta de saída;

  • A resistência de saída é calculada com a porta de entrada aberta.


Secção 10.6 – O Amplificador de Transresistência com Realimentação (Shunt–Shunt)

10.6.1 – Caso Ideal

O amplificador de transresistência converte corrente de entrada em tensão de saída:

  • A=Vo/IiA = V_o/I_i

A realimentação:

  • Amostra a tensão de saída (shunt na saída);

  • Injeta uma corrente de realimentação na entrada (shunt na entrada).

Rede ideal:

  • O amplificador tem resistência de entrada RiR_i, resistência de saída RoR_o, e ganho AA;

  • A rede fornece If=βVoI_f = \beta V_o, sendo misturado com IsI_s para produzir IiI_i.

Ganho com realimentação:

Af=A1+AβA_f = \frac{A}{1 + A\beta}

Efeitos principais:

  • A resistência de entrada diminui: Rif=Ri1+AβR_{if} = \frac{R_i}{1 + A\beta}

  • A resistência de saída diminui: Rof=Ro1+AβR_{of} = \frac{R_o}{1 + A\beta}

10.6.2 – Caso Prático

Nesta topologia:

  • Utilizam-se parâmetros y (admitância) para descrever a rede de realimentação;

  • A porta de entrada é shunt (mistura em paralelo), portanto deve ser curto-circuitada para calcular os efeitos da carga;

  • A porta de saída também é shunt, sendo curto-circuitada para isolar a rede.

Determina-se β=y21\beta = y_{21} aplicando uma tensão à saída e medindo a corrente injectada na entrada (com entrada em curto-circuito).


Secção 10.7 – O Amplificador de Corrente com Realimentação (Shunt–Série)

10.7.1 – Caso Ideal

Este amplificador:

  • Recebe uma corrente de entrada;

  • Fornece uma corrente de saída;

  • É caracterizado por um ganho de corrente A=Io/IiA = I_o / I_i;

  • Utiliza uma topologia shunt–série, ou seja, mistura em paralelo na entrada e amostra em série na saída.

A estrutura ideal inclui:

  • Um amplificador com resistência de entrada RiR_i, resistência de saída RoR_o, e ganho de corrente AA;

  • Uma rede de realimentação que converte a corrente de saída IoI_o numa corrente If=βIoI_f = \beta I_o que é subtraída da corrente da fonte IsI_s, produzindo IiI_i.

O ganho com realimentação:

Af=A1+AβA_f = \frac{A}{1 + A\beta}

As resistências alteram-se da seguinte forma:

  • A resistência de entrada diminui:

    Rif=Ri1+AβR_{if} = \frac{R_i}{1 + A\beta}
  • A resistência de saída aumenta:

    Rof=Ro(1+Aβ)R_{of} = R_o (1 + A\beta)

10.7.2 – Caso Prático

Utiliza-se o modelo g (transcondutância/admitância) para a rede de realimentação, apropriado para conexões shunt (paralelas). Para determinar os efeitos da rede:

  • A porta de entrada (mistura shunt) é curto-circuitada;

  • A porta de saída (amostragem série) é aberta.

Para obter β=g21\beta = g_{21}, aplica-se uma corrente na saída e mede-se a corrente de realimentação que entra na entrada, com esta em curto-circuito.


Secção 10.8 – Resumo do Método de Análise com Realimentação

Esta secção sintetiza o método sistemático para analisar qualquer amplificador com realimentação negativa, dividido nos seguintes passos:

  1. Identificar o tipo de amplificador (tensão, corrente, transcondutância ou transresistência);

  2. Determinar a topologia de realimentação adequada (série–shunt, série–série, shunt–shunt ou shunt–série);

  3. Isolar o circuito A (malha aberta), incluindo os efeitos das resistências de fonte e carga, bem como da rede de realimentação (através da sua carga);

  4. Determinar o ganho de malha aberta AA, resistência de entrada RiR_i e de saída RoR_o;

  5. Determinar o fator de realimentação β\beta;

  6. Calcular o ganho com realimentação:

    Af=A1+AβA_f = \frac{A}{1 + A\beta}
  7. Calcular as resistências com realimentação com base na topologia:

Topologia RifR_{if} RofR_{of}
Série–shunt Ri(1+Aβ)R_i (1 + A\beta) Ro/(1+Aβ)R_o / (1 + A\beta)
Série–série Ri(1+Aβ)R_i (1 + A\beta) Ro(1+Aβ)R_o (1 + A\beta)
Shunt–shunt Ri/(1+Aβ)R_i / (1 + A\beta) Ro/(1+Aβ)R_o / (1 + A\beta)
Shunt–série Ri/(1+Aβ)R_i / (1 + A\beta) Ro(1+Aβ)R_o (1 + A\beta)

Este resumo serve como um guia rápido para a análise de qualquer circuito com realimentação.


Secção 10.9 – Determinação do Ganho de Malha (Loop Gain)

O ganho de malha

AβA\beta é um parâmetro central na análise de amplificadores com realimentação negativa.

Método de Determinação:

  1. Abrir a malha – rompe-se o laço de realimentação num ponto apropriado do circuito;

  2. Inserir uma fonte de teste no ponto de ruptura (pode ser uma fonte de tensão ou corrente, conforme a topologia);

  3. Calcular a resposta do sistema à fonte de teste;

  4. O ganho de malha é definido como:

    Aβ=sinal de realimentac¸a˜o (feedback)sinal de testeA\beta = \frac{\text{sinal de realimentação (feedback)}}{\text{sinal de teste}}

Observações:

  • A abertura da malha deve preservar a impedância de entrada e saída originais;

  • Esta abordagem é particularmente útil quando se pretende analisar a estabilidade do sistema;

  • Será usada nas secções seguintes para estudar o problema da estabilidade e a compensação em frequência.


Secção 10.10 – O Problema da Estabilidade

A realimentação negativa, embora traga vantagens (ganho estável, menor distorção, etc.), pode comprometer a estabilidade do amplificador quando envolve sinais dependentes da frequência.

Oscilações não desejadas:

  • Um sistema com realimentação negativa pode tornar-se instável e entrar em oscilação se o ganho de malha AβA\beta se tornar negativo (i.e., com mudança de fase de 180° e magnitude ≥ 1).

  • Esta oscilação ocorre quando a realimentação se transforma efetivamente em positiva a certas frequências, devido a efeitos de fase introduzidos por múltiplos polos.

Critério de estabilidade:

  • Um amplificador com realimentação é potencialmente instável se, para alguma frequência, a magnitude de AβA\beta for ≥ 1 e a fase total for 180°.

  • Para garantir estabilidade: quando Aβ=180°\angle A\beta = -180°, a magnitude Aβ|A\beta| deve ser inferior a 1.

Exemplo: AmpOp realimentado:

  • Um AmpOp com múltiplos polos e sem compensação pode oscilar quando usado com realimentação.


Secção 10.11 – Efeito da Realimentação sobre os Polos do Amplificador

Esta secção examina como a realimentação altera a resposta em frequência, modificando os polos do amplificador.

Amplificador de malha aberta com dois polos:

Ganho:

A(s)=A0(1+s/p1)(1+s/p2)A(s) = \frac{A_0}{(1 + s/p_1)(1 + s/p_2)}

Com realimentação:

Af(s)=A(s)1+βA(s)A_f(s) = \frac{A(s)}{1 + \beta A(s)}

Efeitos principais:

  1. Polos deslocam-se para frequências mais elevadas:

    • Os polos movem-se para a direita no plano complexo (frequência aumenta);

    • Isso resulta num aumento da largura de banda do sistema;

  2. Separação entre os polos diminui:

    • Quanto mais separados os polos estiverem no amplificador de malha aberta, mais benéfico é o efeito da realimentação;

  3. Realimentação pode alterar a natureza dos polos:

    • Polos reais podem tornar-se complexos conjugados;

    • Se o sistema se aproximar de um par de polos com parte real pequena, pode gerar picos na resposta em frequência (ressonância).

Conclusão:

A realimentação negativa melhora a largura de banda mas pode também reduzir a margem de estabilidade, exigindo atenção à posição dos polos.


Secção 10.12 – Estudo da Estabilidade com Diagramas de Bode

A estabilidade pode ser avaliada visualmente com o uso de diagramas de Bode para o ganho de malha 

AβA\beta.

Critérios importantes:

  • Margem de fase (PM):

    • A diferença entre a fase de AβA\beta e -180° quando Aβ=1|A\beta| = 1;

    • PM ≥ 45° é geralmente desejável para garantir estabilidade e evitar picos excessivos na resposta.

  • Margem de ganho (GM):

    • O valor de Aβ|A\beta| em dB abaixo de 0 dB quando a fase atinge -180°;

    • Também deve ser positivo (tipicamente ≥ 10 dB).

Etapas para o estudo com Bode:

  1. Traçar Aβ|A\beta| e Aβ\angle A\beta;

  2. Determinar a frequência de ganho unitário (onde Aβ=1|A\beta| = 1);

  3. Avaliar a margem de fase nessa frequência.

Exemplo:

Um sistema com dois polos muito afastados terá boa margem de fase; se os polos forem próximos, a margem pode ser insuficiente e a resposta em frequência exibirá sobre-elevação (overshoot) ou até instabilidade.


Secção 10.13 – Compensação em Frequência

Quando o amplificador realimentado não é estável, é necessário aplicar compensação para controlar o comportamento em frequência.

Objetivo:

Modificar a função A(s)A(s) de modo que o ganho de malha AβA\beta tenha margens de estabilidade adequadas (PM e GM).

Métodos comuns:

  1. Compensação por polo dominante:

    • Introduz um novo polo de baixa frequência que domina o comportamento;

    • Os polos de alta frequência são relegados a frequências mais elevadas;

    • Tipicamente usada em AmpOps (por exemplo, através de um condensador de compensação interno);

  2. Compensação por zero:

    • Introduz um zero para cancelar ou deslocar polos;

    • Pode aumentar a margem de fase;

  3. Compensação com realimentação de Miller:

    • Utiliza a capacidade de Miller para mover um polo para frequências mais baixas;

    • Frequentemente empregada com transístores bipolares ou MOSFETs.

Compensação interna vs externa:

  • Muitos AmpOps são compensados internamente para garantir estabilidade com ganho unitário;

  • Noutros casos, o projetista deve dimensionar redes externas para estabilizar o sistema.


 

Capítulo 10 do livro Microelectronic Circuits de Sedra e Smith, (6.ª edição)



🎓 Quer melhorar os seus resultados na universidade? 
Disponibilizamos explicações de ensino superior adaptadas às suas necessidades, com acompanhamento personalizado para diferentes disciplinas.
✔ Explore a nossa Lista de Matérias disponíveis.
🌟 Veja os testemunhos de alunos que já atingiram melhores notas com o nosso apoio.
📬 Contacte-nos por email ou pelo formulário de contacto e obtenha a ajuda que precisa para dominar os seus estudos!

EuExplico Eu Explico Explicações de Ensino Superior

Formulário de Contacto

Nome

Email *

Mensagem *