Filtro analógico - Analogue filter

Filtros analógicos são um bloco de construção básico de processamento de sinal muito usado em eletrônica . Entre suas muitas aplicações estão a separação de um sinal de áudio antes da aplicação em alto-falantes de baixo , médio e tweeter ; a combinação e posterior separação de múltiplas conversas telefônicas em um único canal; a seleção de uma estação de rádio escolhida em um receptor de rádio e rejeição de outras.

Filtros lineares eletrônicos analógicos passivos são aqueles filtros que podem ser descritos com equações diferenciais lineares (lineares); eles são compostos de capacitores , indutores e, às vezes, resistores ( passivos ) e são projetados para operar em sinais continuamente variáveis ​​( analógicos ). Existem muitos filtros lineares que não são analógicos na implementação ( filtro digital ), e existem muitos filtros eletrônicos que podem não ter uma topologia passiva - os quais podem ter a mesma função de transferência dos filtros descritos neste artigo. Os filtros analógicos são usados ​​com mais frequência em aplicações de filtragem de ondas, ou seja, onde é necessário passar componentes de frequência específicos e rejeitar outros de sinais analógicos ( tempo contínuo ).

Os filtros analógicos têm desempenhado um papel importante no desenvolvimento da eletrônica. Especialmente no campo das telecomunicações , os filtros têm tido uma importância crucial em uma série de avanços tecnológicos e têm sido a fonte de enormes lucros para as empresas de telecomunicações. Não deve ser surpresa, portanto, que o desenvolvimento inicial de filtros estava intimamente conectado com linhas de transmissão . A teoria das linhas de transmissão deu origem à teoria dos filtros, que inicialmente assumiu uma forma muito semelhante, e a principal aplicação dos filtros foi para uso em linhas de transmissão de telecomunicações. No entanto, a chegada de técnicas de síntese de rede aumentou muito o grau de controle do projetista.

Hoje, muitas vezes é preferível realizar a filtragem no domínio digital, onde algoritmos complexos são muito mais fáceis de implementar, mas os filtros analógicos ainda encontram aplicações, especialmente para tarefas simples de filtragem de baixa ordem e muitas vezes ainda são a norma em frequências mais altas onde digital a tecnologia ainda é impraticável ou, pelo menos, menos econômica. Sempre que possível, e especialmente em baixas frequências, os filtros analógicos são agora implementados em uma topologia de filtro que é ativa para evitar os componentes enrolados (ou seja, indutores, transformadores, etc.) exigidos pela topologia passiva .

É possível projetar filtros mecânicos analógicos lineares usando componentes mecânicos que filtram vibrações mecânicas ou ondas acústicas . Embora existam poucas aplicações para tais dispositivos na mecânica em si, eles podem ser usados ​​na eletrônica com a adição de transdutores para converter de e para o domínio elétrico. Na verdade, algumas das primeiras ideias para filtros eram ressonadores acústicos porque a tecnologia eletrônica era mal compreendida na época. Em princípio, o projeto de tais filtros pode ser alcançado inteiramente em termos das contrapartes eletrônicas de grandezas mecânicas, com energia cinética , energia potencial e energia térmica correspondendo à energia em indutores, capacitores e resistores, respectivamente.

Visão histórica

Existem três estágios principais na história do desenvolvimento de filtros analógicos passivos :

  1. Filtros simples . A dependência da frequência da resposta elétrica era conhecida para capacitores e indutores desde muito cedo. O fenômeno de ressonância também era familiar desde o início e era possível produzir filtros simples de ramificação única com esses componentes. Embora tenham sido feitas tentativas na década de 1880 para aplicá-los à telegrafia , esses projetos se mostraram inadequados para o sucesso da multiplexação por divisão de frequência . A análise de rede ainda não era poderosa o suficiente para fornecer a teoria para filtros mais complexos e o progresso foi ainda mais dificultado por uma falha geral em entender a natureza do domínio da frequência dos sinais.
  2. Filtros de imagem . A teoria do filtro de imagem cresceu a partir da teoria da linha de transmissão e o projeto procedeu de maneira semelhante à análise da linha de transmissão. Pela primeira vez, filtros puderam ser produzidos com bandas de passagem precisamente controláveise outros parâmetros. Esses desenvolvimentos ocorreram na década de 1920 e os filtros produzidos com esses designs ainda eram amplamente usados ​​na década de 1980, diminuindo apenas à medida que o uso de telecomunicações analógicas diminuiu. Sua aplicação imediata foi o desenvolvimento economicamente importante da multiplexação por divisão de frequência para uso em linhas de telefonia intermunicipais e internacionais.
  3. Filtros de síntese de rede . As bases matemáticas da síntese de rede foram estabelecidas nas décadas de 1930 e 1940. Após a Segunda Guerra Mundial , a síntese de rede se tornou a principal ferramenta de projeto de filtro . A síntese de rede colocou o projeto de filtro em uma base matemática sólida, libertando-o das técnicas matematicamente desleixadas de projeto de imagem e cortando a conexão com as linhas físicas. A essência da síntese de rede é que ela produz um projeto que irá (pelo menos se implementado com componentes ideais) reproduzir com precisão a resposta originalmente especificada emtermos de caixa preta .

Ao longo deste artigo, as letras R, L e C são usadas com seus significados usuais para representar resistência , indutância e capacitância , respectivamente. Em particular, eles são usados ​​em combinações, como LC, para significar, por exemplo, uma rede consistindo apenas de indutores e capacitores. Z é usado para impedância elétrica , qualquer combinação de 2 terminais de elementos RLC e em algumas seções D é usado para a quantidade raramente vista de elastância , que é o inverso da capacitância.

Ressonância

Os primeiros filtros utilizavam o fenômeno da ressonância para filtrar os sinais. Embora a ressonância elétrica tenha sido investigada por pesquisadores desde um estágio muito inicial, a princípio ela não foi amplamente compreendida pelos engenheiros elétricos. Consequentemente, o conceito muito mais familiar de ressonância acústica (que, por sua vez, pode ser explicado em termos da ressonância mecânica ainda mais familiar ) encontrou seu caminho no projeto de filtro antes da ressonância elétrica. A ressonância pode ser usada para obter um efeito de filtragem porque o dispositivo ressonante responderá às frequências na, ou perto, da frequência de ressonância, mas não responderá às frequências longe da ressonância. Conseqüentemente, frequências distantes da ressonância são filtradas da saída do dispositivo.

Ressonância elétrica

Um exemplo de 1915 de um tipo antigo de circuito ressonante conhecido como bobina de Oudin, que usa potes de Leyden para a capacitância.

A ressonância foi notada no início dos experimentos com o jarro de Leyden , inventado em 1746. O jarro de Leyden armazena eletricidade devido à sua capacitância e é, de fato, uma forma inicial de capacitor. Quando uma jarra de Leyden é descarregada permitindo que uma faísca salte entre os eletrodos, a descarga é oscilatória. Isso não foi suspeitado até 1826, quando Felix Savary na França, e mais tarde (1842) Joseph Henry nos Estados Unidos notaram que uma agulha de aço colocada perto da descarga nem sempre magnetiza na mesma direção. Ambos chegaram independentemente à conclusão de que havia uma oscilação transitória morrendo com o tempo.

Hermann von Helmholtz em 1847 publicou seu importante trabalho sobre conservação de energia em parte do qual ele usou esses princípios para explicar por que a oscilação morre, que é a resistência do circuito que dissipa a energia da oscilação em cada ciclo sucessivo. Helmholtz também notou que havia evidências de oscilação nos experimentos de eletrólise de William Hyde Wollaston . Wollaston estava tentando decompor a água por choque elétrico, mas descobriu que tanto hidrogênio quanto oxigênio estavam presentes em ambos os eletrodos. Na eletrólise normal, eles se separariam, um para cada eletrodo.

Helmholtz explicou por que a oscilação diminuiu, mas ele não explicou por que ela ocorreu em primeiro lugar. Isso foi deixado para Sir William Thomson (Lord Kelvin) que, em 1853, postulou que havia indutância presente no circuito assim como a capacitância do jarro e a resistência da carga. Isso estabeleceu a base física para o fenômeno - a energia fornecida pelo jarro foi parcialmente dissipada na carga, mas também parcialmente armazenada no campo magnético do indutor.

Até o momento, a investigação havia sido sobre a frequência natural de oscilação transitória de um circuito ressonante resultante de um estímulo repentino. Mais importante do ponto de vista da teoria do filtro é o comportamento de um circuito ressonante quando acionado por um sinal CA externo : há um pico repentino na resposta do circuito quando a frequência do sinal acionador está na frequência ressonante do circuito. James Clerk Maxwell ouviu falar do fenômeno de Sir William Grove em 1868 em conexão com experimentos com dínamos , e também estava ciente do trabalho anterior de Henry Wilde em 1866. Maxwell explicou a ressonância matematicamente, com um conjunto de equações diferenciais, praticamente da mesma forma termos que um circuito RLC é descrito hoje.

Heinrich Hertz (1887) demonstrou experimentalmente os fenômenos de ressonância construindo dois circuitos ressonantes, um dos quais era acionado por um gerador e o outro era sintonizável e apenas acoplado ao primeiro eletromagneticamente (ou seja, sem conexão de circuito). Hertz mostrou que a resposta do segundo circuito era máxima quando estava em sintonia com o primeiro. Os diagramas produzidos por Hertz neste artigo foram os primeiros gráficos publicados de uma resposta ressonante elétrica.

Ressonância acústica

Como mencionado anteriormente, foi a ressonância acústica que inspirou as aplicações de filtragem, sendo a primeira delas um sistema telegráfico conhecido como " telégrafo harmônico ". As versões são devidas a Elisha Gray , Alexander Graham Bell (1870), Ernest Mercadier e outros. Seu objetivo era transmitir simultaneamente uma série de mensagens telegráficas pela mesma linha e representa uma das primeiras formas de multiplexação por divisão de frequência (FDM). O FDM exige que a extremidade de envio esteja transmitindo em frequências diferentes para cada canal de comunicação individual. Isso exige ressonadores sintonizados individuais, bem como filtros para separar os sinais na extremidade receptora. O telégrafo harmônico conseguiu isso com palhetas afinadas eletromagneticamente acionadas na extremidade de transmissão, que vibrariam palhetas semelhantes na extremidade de recepção. Apenas a palheta com a mesma frequência de ressonância do transmissor vibraria de forma apreciável na extremidade receptora.

A propósito, o telégrafo harmônico sugeriu diretamente a Bell a ideia do telefone. As palhetas podem ser vistas como transdutores que convertem o som de e para um sinal elétrico. Não é um grande salto dessa visão do telégrafo harmônico para a ideia de que a fala pode ser convertida de e para um sinal elétrico.

Multiplexação inicial

Filtro de telégrafo múltiplo de Hutin e Leblanc de 1891 mostrando o uso de circuitos ressonantes na filtragem.

Na década de 1890, a ressonância elétrica era muito mais amplamente compreendida e se tornou uma parte normal do kit de ferramentas do engenheiro. Em 1891, Hutin e Leblanc patentearam um esquema FDM para circuitos telefônicos usando filtros de circuito ressonante. Patentes rivais foram depositadas em 1892 por Michael Pupin e John Stone Stone com ideias semelhantes, a prioridade sendo concedida a Pupin. No entanto, nenhum esquema usando apenas filtros de circuito ressonante simples pode multiplexar com sucesso (ou seja, combinar) a largura de banda mais ampla dos canais de telefone (em oposição ao telégrafo) sem uma restrição inaceitável de largura de banda de voz ou um espaçamento de canal tão amplo que torne os benefícios da multiplexação antieconômico.

A razão técnica básica para essa dificuldade é que a resposta de frequência de um filtro simples se aproxima de uma queda de 6 dB / oitava longe do ponto de ressonância. Isso significa que se os canais telefônicos forem espremidos lado a lado no espectro de frequência, haverá diafonia de canais adjacentes em qualquer canal. O que é necessário é um filtro muito mais sofisticado que tenha uma resposta de frequência plana na banda passante exigida, como um circuito ressonante de Q baixo , mas que caia rapidamente em resposta (muito mais rápido do que 6 dB / oitava) na transição da banda passante para a banda parada, como um circuito ressonante de Q alto. Obviamente, esses são requisitos contraditórios a serem atendidos com um único circuito ressonante. A solução para essas necessidades foi fundamentada na teoria das linhas de transmissão e, consequentemente, os filtros necessários não foram disponibilizados até que essa teoria fosse totalmente desenvolvida. Nesse estágio inicial, a ideia da largura de banda do sinal e, portanto, a necessidade de filtros para corresponder a ela, não foi totalmente compreendida; na verdade, só em 1920 o conceito de largura de banda foi totalmente estabelecido. Para os primeiros rádios, os conceitos de fator Q, seletividade e sintonia eram suficientes. Tudo isso mudou com o desenvolvimento da teoria das linhas de transmissão nas quais os filtros de imagem são baseados, conforme explicado na próxima seção.

Na virada do século, quando as linhas telefônicas se tornaram disponíveis, tornou-se popular adicionar o telégrafo às linhas telefônicas com um circuito fantasma de retorno à terra . Um filtro LC foi necessário para evitar que cliques telegráficos fossem ouvidos na linha telefônica. A partir da década de 1920, as linhas telefônicas, ou linhas balanceadas dedicadas a esse propósito, foram usadas para o telégrafo FDM em frequências de áudio. O primeiro desses sistemas no Reino Unido foi uma instalação Siemens e Halske entre Londres e Manchester. GEC e AT&T também tinham sistemas FDM. Pares separados foram usados ​​para enviar e receber sinais. Os sistemas Siemens e GEC tinham seis canais de telégrafo em cada direção, o sistema AT&T tinha doze. Todos esses sistemas usavam osciladores eletrônicos para gerar uma portadora diferente para cada sinal telegráfico e exigiam um banco de filtros passa-faixa para separar o sinal multiplexado na extremidade receptora.

Teoria da linha de transmissão

O modelo da linha de transmissão de Ohm era simplesmente resistência.
O modelo da linha de transmissão de Lord Kelvin levou em consideração a capacitância e a dispersão que ela causou. O diagrama representa o modelo de Kelvin traduzido em termos modernos usando elementos infinitesimais , mas esta não foi a abordagem real usada por Kelvin.
Modelo de linha de transmissão de Heaviside. L, R, C e G em todos os três diagramas são as constantes de linha primárias. Os infinitesimais δL, δR, δC e δG devem ser entendidos como Lδ x , Rδ x , Cδ x e Gδ x, respectivamente.

O modelo mais antigo de linha de transmissão foi provavelmente descrito por Georg Ohm (1827), que estabeleceu que a resistência em um fio é proporcional ao seu comprimento. O modelo Ohm, portanto, incluía apenas resistência. Latimer Clark observou que os sinais eram atrasados ​​e alongados ao longo de um cabo, uma forma indesejável de distorção agora chamada de dispersão, mas então chamada de retardo, e Michael Faraday (1853) estabeleceu que isso era devido à capacitância presente na linha de transmissão. Lord Kelvin (1854) encontrou a descrição matemática correta necessária em seu trabalho sobre os primeiros cabos transatlânticos; ele chegou a uma equação idêntica à condução de um pulso de calor ao longo de uma barra de metal. Este modelo incorpora apenas resistência e capacitância, mas isso é tudo o que era necessário em cabos submarinos dominados por efeitos de capacitância. O modelo de Kelvin prevê um limite na velocidade de sinalização telegráfica de um cabo, mas Kelvin ainda não usa o conceito de largura de banda, o limite foi inteiramente explicado em termos da dispersão dos símbolos telegráficos . O modelo matemático da linha de transmissão atingiu seu desenvolvimento máximo com Oliver Heaviside . Heaviside (1881) introduziu indutância em série e condutância shunt no modelo, formando quatro elementos distribuídos ao todo. Este modelo agora é conhecido como a equação do telégrafo e os parâmetros dos elementos distribuídos são chamados de constantes de linha primária .

A partir do trabalho de Heaviside (1887), ficou claro que o desempenho das linhas telegráficas, e mais especialmente das linhas telefônicas, poderia ser melhorado pela adição de indutância à linha. George Campbell, da AT&T, implementou essa ideia (1899) inserindo bobinas de carregamento em intervalos ao longo da linha. Campbell descobriu que, além das melhorias desejadas nas características da linha na banda passante, havia também uma frequência definida, além da qual os sinais não podiam ser transmitidos sem grande atenuação . Isso foi resultado das bobinas de carregamento e da capacitância da linha formarem um filtro passa-baixa , um efeito que só é aparente em linhas que incorporam componentes concentrados , como as bobinas de carregamento. Isso naturalmente levou Campbell (1910) a produzir um filtro com topologia em escada , basta uma olhada no diagrama de circuito desse filtro para ver sua relação com uma linha de transmissão carregada. O fenômeno de corte é um efeito colateral indesejável no que diz respeito às linhas carregadas, mas para filtros FDM de telefone é exatamente o que é necessário. Para esta aplicação, Campbell produziu filtros passa-banda para a mesma topologia de escada, substituindo os indutores e capacitores por ressonadores e anti-ressonadores, respectivamente. Tanto a linha carregada quanto o FDM foram de grande benefício econômico para a AT&T e isso levou ao rápido desenvolvimento da filtragem a partir desse ponto.

Filtros de imagem

O esboço de Campbell da versão passa-baixo de seu filtro de sua patente de 1915 mostrando a agora onipresente topologia de escada com capacitores para os degraus da escada e indutores para os degraus. Filtros de design mais moderno também costumam adotar a mesma topologia de escada usada por Campbell. Deve ser entendido que, embora superficialmente semelhantes, eles são realmente muito diferentes. A construção da escada é essencial para o filtro Campbell e todas as seções têm valores de elemento idênticos. Projetos modernos podem ser realizados em qualquer número de topologias, a escolha da topologia de escada é meramente uma questão de conveniência. A resposta deles é bem diferente (melhor) do que a de Campbell e os valores dos elementos, em geral, serão todos diferentes.

Os filtros projetados por Campbell foram chamados de filtros de onda por causa de sua propriedade de passar algumas ondas e rejeitar fortemente outras. O método pelo qual eles foram projetados foi chamado de método de parâmetro de imagem e os filtros projetados para este método são chamados de filtros de imagem. O método de imagem consiste essencialmente em desenvolver as constantes de transmissão de uma cadeia infinita de seções de filtro idênticas e, em seguida, terminar o número finito desejado de seções de filtro na impedância da imagem . Isso corresponde exatamente à maneira como as propriedades de um comprimento finito de linha de transmissão são derivadas das propriedades teóricas de uma linha infinita, a impedância da imagem correspondendo à impedância característica da linha.

A partir de 1920, John Carson , também trabalhando para a AT&T, começou a desenvolver uma nova maneira de olhar para os sinais usando o cálculo operacional de Heaviside, que basicamente trabalha no domínio da frequência . Isso deu aos engenheiros da AT&T uma nova visão de como seus filtros funcionavam e levou Otto Zobel a inventar muitas formas aprimoradas. Carson e Zobel destruíram continuamente muitas das velhas ideias. Por exemplo, os antigos engenheiros do telégrafo pensavam no sinal como sendo uma única frequência e essa ideia persistiu na era do rádio com alguns ainda acreditando que a transmissão de modulação de frequência (FM) poderia ser alcançada com uma largura de banda menor do que o sinal de banda base até o publicação do artigo de Carson de 1922. Outro avanço dizia respeito à natureza do ruído, Carson e Zobel (1923) tratavam o ruído como um processo aleatório com uma largura de banda contínua, uma ideia bem à frente de seu tempo, e assim limitava a quantidade de ruído que era possível remover por filtragem. para a parte do espectro de ruído que ficou fora da banda passante. Isso também não foi geralmente aceito no início, notavelmente tendo a oposição de Edwin Armstrong (que ironicamente, na verdade conseguiu reduzir o ruído com FM de banda larga ) e só foi finalmente resolvido com o trabalho de Harry Nyquist, cuja fórmula de potência de ruído térmico é bem conhecida hoje.

Várias melhorias foram feitas para filtros de imagem e sua teoria de operação por Otto Zobel . Zobel cunhou o termo filtro k constante (ou filtro do tipo k) para distinguir o filtro de Campbell de tipos posteriores, notavelmente o filtro derivado de Zobel (ou filtro do tipo m). Os problemas específicos que Zobel estava tentando resolver com esses novos formulários eram o casamento de impedância nas terminações e a inclinação aprimorada de roll-off. Isso foi alcançado ao custo de um aumento na complexidade do circuito do filtro.

Um método mais sistemático de produção de filtros de imagem foi introduzido por Hendrik Bode (1930) e posteriormente desenvolvido por vários outros investigadores, incluindo Piloty (1937-1939) e Wilhelm Cauer (1934-1937). Em vez de enumerar o comportamento (função de transferência, função de atenuação, função de atraso e assim por diante) de um circuito específico, foi desenvolvido um requisito para a própria impedância da imagem. A impedância da imagem pode ser expressa em termos de impedâncias de circuito aberto e de curto-circuito do filtro como . Uma vez que a impedância da imagem deve ser real nas bandas passantes e imaginária nas bandas de parada de acordo com a teoria da imagem, há uma exigência que os pólos e zeros de Z o e Z s cancelem na banda passante e correspondam à banda. O comportamento do filtro pode ser inteiramente definido em termos das posições no plano complexo desses pares de pólos e zeros. Qualquer circuito que tenha os pólos e zeros necessários também terá a resposta necessária. Cauer buscou duas questões relacionadas decorrentes dessa técnica: quais especificações de pólos e zeros são realizáveis ​​como filtros passivos; e quais realizações são equivalentes entre si. Os resultados desse trabalho levaram Cauer a desenvolver uma nova abordagem, agora chamada de síntese de rede.

Essa visão de "pólos e zeros" do projeto do filtro foi particularmente útil onde um banco de filtros, cada um operando em frequências diferentes, estão todos conectados na mesma linha de transmissão. A abordagem anterior foi incapaz de lidar adequadamente com esta situação, mas a abordagem de pólos e zeros poderia abraçá-la especificando uma impedância constante para o filtro combinado. Esse problema estava originalmente relacionado à telefonia FDM, mas agora surge freqüentemente em filtros de crossover de alto-falantes .

Filtros de síntese de rede

A essência da síntese de rede é começar com uma resposta de filtro necessária e produzir uma rede que forneça essa resposta ou se aproxime dela dentro de um limite especificado. Este é o inverso da análise de rede que começa com uma dada rede e, aplicando os vários teoremas do circuito elétrico, prevê a resposta da rede. O termo foi usado pela primeira vez com este significado na tese de doutorado de Yuk-Wing Lee (1930) e aparentemente surgiu de uma conversa com Vannevar Bush . A vantagem da síntese de rede sobre os métodos anteriores é que ela fornece uma solução que atende precisamente às especificações do projeto. Este não é o caso com filtros de imagem, um grau de experiência é necessário em seu design, uma vez que o filtro de imagem apenas atende às especificações de design no caso irreal de ser encerrado em sua própria impedância de imagem, para produzir o que exigiria o circuito exato que está sendo procurado . A síntese de rede, por outro lado, cuida das impedâncias de terminação simplesmente incorporando-as à rede que está sendo projetada.

O desenvolvimento da análise de rede precisava ocorrer antes que a síntese da rede fosse possível. Os teoremas de Gustav Kirchhoff e outros e as idéias de Charles Steinmetz ( fasores ) e Arthur Kennelly ( impedância complexa ) estabeleceram as bases. O conceito de porto também desempenhou um papel no desenvolvimento da teoria e provou ser uma ideia mais útil do que os terminais de rede. O primeiro marco no caminho para a síntese de rede foi um importante artigo de Ronald M. Foster (1924), A Reactance Theorem , em que Foster introduz a ideia de uma impedância de ponto de acionamento , ou seja, a impedância que está conectada ao gerador. A expressão para esta impedância determina a resposta do filtro e vice-versa, e uma realização do filtro pode ser obtida pela expansão desta expressão. Não é possível realizar qualquer expressão de impedância arbitrária como uma rede. O teorema da reatância de Foster estipula condições necessárias e suficientes para a possibilidade de realização: que a reatância deve ser algebricamente crescente com a frequência e os pólos e zeros devem alternar.

Wilhelm Cauer expandiu o trabalho de Foster (1926) e foi o primeiro a falar da realização de uma impedância de uma porta com uma função de frequência prescrita. O trabalho de Foster considerou apenas reatâncias (ou seja, apenas circuitos do tipo LC). Cauer generalizou isso para qualquer rede de uma porta do tipo 2 elementos, descobrindo que havia um isomorfismo entre eles. Ele também encontrou realizações de escada da rede usando a expansão de fração contínua de Thomas Stieltjes . Este trabalho foi a base sobre a qual a síntese de rede foi construída, embora o trabalho de Cauer não tenha sido muito usado por engenheiros no início, em parte devido à intervenção da Segunda Guerra Mundial, em parte por razões explicadas na próxima seção e em parte porque Cauer apresentou seus resultados usando topologias que exigiam indutores mutuamente acoplados e transformadores ideais. Os projetistas tendem a evitar a complicação de indutâncias mútuas e transformadores sempre que possível, embora os amplificadores de dupla sintonia acoplados a transformador sejam uma forma comum de aumentar a largura de banda sem sacrificar a seletividade.

Método de imagem versus síntese

Os filtros de imagem continuaram a ser usados ​​pelos designers muito depois que as técnicas superiores de síntese de rede estavam disponíveis. Parte da razão para isso pode ter sido simplesmente inércia, mas foi em grande parte devido à maior computação necessária para filtros de síntese de rede, muitas vezes necessitando de um processo iterativo matemático. Os filtros de imagem, em sua forma mais simples, consistem em uma cadeia de seções idênticas repetidas. O design pode ser melhorado simplesmente adicionando mais seções e o cálculo necessário para produzir a seção inicial está no nível de design do "verso de um envelope". No caso de filtros de síntese de rede, por outro lado, o filtro é projetado como um todo, entidade única e para adicionar mais seções (ou seja, aumentar a ordem), o designer não teria outra opção a não ser voltar ao início e começar sobre. As vantagens dos designs sintetizados são reais, mas não são esmagadoras em comparação com o que um designer de imagem habilidoso poderia alcançar e, em muitos casos, era mais econômico dispensar cálculos demorados. Isso simplesmente não é um problema com a disponibilidade moderna de poder de computação, mas na década de 1950 era inexistente, nas décadas de 1960 e 1970 disponível apenas a custo e não se tornando amplamente disponível para todos os designers até a década de 1980 com o advento de o computador pessoal de mesa. Os filtros de imagem continuaram a ser projetados até aquele ponto e muitos permaneceram em serviço até o século XXI.

A dificuldade computacional do método de síntese de rede foi abordada tabulando os valores dos componentes de um filtro de protótipo e, em seguida, escalando a frequência e impedância e transformando a forma de banda para aqueles realmente necessários. Esse tipo de abordagem, ou semelhante, já estava em uso com filtros de imagem, por exemplo, por Zobel, mas o conceito de "filtro de referência" é devido a Sidney Darlington . Darlington (1939) também foi o primeiro a tabular valores para filtros de protótipo de síntese de rede; no entanto, teve que esperar até a década de 1950 para que o filtro elíptico Cauer-Darlington entrasse em uso.

Uma vez que o poder computacional estava prontamente disponível, tornou-se possível projetar filtros facilmente para minimizar qualquer parâmetro arbitrário, por exemplo, atraso de tempo ou tolerância à variação do componente. As dificuldades do método de imagem foram colocadas firmemente no passado, e até mesmo a necessidade de protótipos tornou-se amplamente supérflua. Além disso, o advento dos filtros ativos facilitou a dificuldade de computação porque as seções podiam ser isoladas e os processos iterativos geralmente não eram necessários.

Realizabilidade e equivalência

A capacidade de realização (ou seja, quais funções são realizáveis ​​como redes de impedância real) e a equivalência (quais redes têm equivalentemente a mesma função) são duas questões importantes na síntese de redes. Seguindo uma analogia com a mecânica Lagrangiana , Cauer formou a equação da matriz,

em que [ Z ], [ R ], [ G ] e [ D ] são o n x n matrizes de, respectivamente, a impedância , a resistência , da indutância e Elastância de um n - malha de rede e s é a frequência complexo operador . Aqui [ R ], [ L ] e [ D ] têm energias associadas correspondentes às energias cinética, potencial e dissipativa do calor, respectivamente, em um sistema mecânico e os resultados já conhecidos da mecânica podem ser aplicados aqui. Cauer determinou a impedância do ponto de direção pelo método dos multiplicadores de Lagrange ;

onde a 11 é o complemento do elemento A 11 ao qual a porta única deve ser conectada. Da teoria da estabilidade, Cauer descobriu que [ R ], [ L ] e [ D ] devem ser matrizes definidas positivas para que Z p ( s ) seja realizável se os transformadores ideais não forem excluídos. A possibilidade de realização é restrita de outra forma por limitações práticas na topologia. Este trabalho também se deve em parte a Otto Brune (1931), que trabalhou com Cauer nos Estados Unidos antes de Cauer retornar à Alemanha. Uma condição bem conhecida para a possibilidade de realização de uma impedância racional de uma porta devido a Cauer (1929) é que ela deve ser uma função de s que é analítica no semiplano direito (σ> 0), ter uma parte real positiva no semiplano direito e assumir valores reais no eixo real. Isso segue da representação integral de Poisson dessas funções. Brune cunhou o termo real-positivo para esta classe de função e provou que era uma condição necessária e suficiente (Cauer apenas provou que era necessário) e eles estenderam o trabalho para multiportas LC. Um teorema devido a Sidney Darlington afirma que qualquer função real positiva Z ( s ) pode ser realizada como duas portas sem perdas terminadas em um resistor positivo R. Nenhum resistor na rede é necessário para realizar a resposta especificada.

Quanto à equivalência, Cauer descobriu que o grupo de transformações afins reais ,

Onde,

é invariante em Z p ( s ), ou seja, todas as redes transformadas são equivalentes da original.

Aproximação

O problema de aproximação na síntese de rede é encontrar funções que irão produzir redes realizáveis ​​aproximando-se de uma função de freqüência prescrita dentro de limites arbitrariamente definidos. O problema de aproximação é uma questão importante, uma vez que a função ideal de frequência necessária normalmente será inatingível com redes racionais. Por exemplo, a função prescrita ideal é freqüentemente considerada como sendo a transmissão sem perdas inalcançável na faixa de passagem, atenuação infinita na faixa de parada e uma transição vertical entre as duas. No entanto, a função ideal pode ser aproximada com uma função racional , tornando-se cada vez mais próxima do ideal quanto maior for a ordem do polinômio. O primeiro a resolver esse problema foi Stephen Butterworth (1930) usando seus polinômios Butterworth . De forma independente, Cauer (1931) usou polinômios de Chebyshev , inicialmente aplicados a filtros de imagem, e não à agora conhecida realização em escada desse filtro.

Filtro Butterworth

Os filtros Butterworth são uma classe importante de filtros devido a Stephen Butterworth (1930), que agora são reconhecidos como um caso especial de filtros elípticos de Cauer . Butterworth descobriu este filtro independentemente do trabalho de Cauer e o implementou em sua versão com cada seção isolada da seguinte com um amplificador de válvula que tornava o cálculo dos valores dos componentes fácil, uma vez que as seções do filtro não podiam interagir umas com as outras e cada seção representava um termo no Polinômios de Butterworth . Isso dá a Butterworth o crédito por ser o primeiro a se desviar da teoria dos parâmetros de imagem e o primeiro a projetar filtros ativos. Posteriormente, foi mostrado que os filtros Butterworth podem ser implementados em topologia em escada sem a necessidade de amplificadores. Possivelmente o primeiro a fazê-lo foi William Bennett (1932) em uma patente que apresenta fórmulas para valores de componentes idênticos aos modernos. Bennett, neste estágio, porém, ainda está discutindo o projeto como uma linha de transmissão artificial e, portanto, está adotando uma abordagem de parâmetro de imagem, apesar de ter produzido o que agora seria considerado um projeto de síntese de rede. Ele também não parece estar ciente do trabalho de Butterworth ou da conexão entre eles.

Método de perda de inserção

O método de perda de inserção para projetar filtros é, em essência, prescrever uma função de frequência desejada para o filtro como uma atenuação do sinal quando o filtro é inserido entre as terminações em relação ao nível que teria sido recebido se as terminações estivessem conectadas entre si através de um transformador ideal que os combina perfeitamente. Versões dessa teoria são devidas a Sidney Darlington , Wilhelm Cauer e outros, todos trabalhando mais ou menos independentemente e muitas vezes é considerada sinônimo de síntese de rede. A implementação do filtro de Butterworth é, nesses termos, um filtro de perda de inserção, mas é relativamente trivial matematicamente, uma vez que os amplificadores ativos usados ​​por Butterworth garantiram que cada estágio funcionasse individualmente em uma carga resistiva. O filtro de Butterworth se torna um exemplo não trivial quando é implementado inteiramente com componentes passivos. Um filtro ainda anterior que influenciou o método de perda de inserção foi o filtro de banda dupla do Norton, onde a entrada de dois filtros são conectadas em paralelo e projetadas para que a entrada combinada apresente uma resistência constante. O método de projeto de Norton, junto com as redes LC canônicas de Cauer e o teorema de Darlington de que apenas os componentes LC eram necessários no corpo do filtro resultou no método de perda por inserção. No entanto, a topologia em escada provou ser mais prática do que as formas canônicas de Cauer.

O método de perda por inserção de Darlington é uma generalização do procedimento usado por Norton. No filtro de Norton, pode ser mostrado que cada filtro é equivalente a um filtro separado não terminado na extremidade comum. O método de Darlington se aplica ao caso mais direto e geral de uma rede LC de 2 portas terminada em ambas as extremidades. O procedimento consiste nas seguintes etapas:

  1. determinar os pólos da função de perda de inserção prescrita,
  2. a partir daí, encontre a complexa função de transmissão,
  3. a partir disso, encontre os coeficientes de reflexão complexos nos resistores de terminação,
  4. encontrar a impedância do ponto de acionamento a partir das impedâncias de curto-circuito e de circuito aberto,
  5. expandir a impedância do ponto de acionamento em uma rede LC (geralmente escada).

Darlington utilizada adicionalmente uma transformação encontrado por Hendrik Bode que previu a resposta de um filtro utilizando componentes não ideais, mas todas com o mesmo Q . Darlington usou essa transformação ao contrário para produzir filtros com uma perda de inserção prescrita com componentes não ideais. Esses filtros têm a resposta de perda de inserção ideal mais uma atenuação plana em todas as frequências.

Filtros elípticos

Filtros elípticos são filtros produzidos pelo método de perda por inserção que usam funções racionais elípticas em sua função de transferência como uma aproximação para a resposta do filtro ideal e o resultado é chamado de aproximação de Chebyshev. Esta é a mesma técnica de aproximação de Chebyshev usada por Cauer em filtros de imagem, mas segue o método de design de perda de inserção de Darlington e usa funções elípticas ligeiramente diferentes. Cauer teve algum contato com Darlington and Bell Labs antes da Segunda Guerra Mundial (por um tempo ele trabalhou nos Estados Unidos), mas durante a guerra eles trabalharam de forma independente, em alguns casos fazendo as mesmas descobertas. Cauer revelou a aproximação de Chebyshev à Bell Labs, mas não os deixou com a prova. Sergei Schelkunoff forneceu isso e uma generalização para todos os problemas de ondulação iguais. Os filtros elípticos são uma classe geral de filtro que incorpora várias outras classes importantes como casos especiais: filtro Cauer ( ondulação igual na banda passante e na banda de parada ), filtro Chebyshev (ondulação somente na banda passante), filtro Chebyshev reverso (ondulação somente na banda de parada) e filtro Butterworth (sem ondulação em nenhuma banda).

Geralmente, para filtros de perda de inserção onde os zeros de transmissão e perdas infinitas estão todos no eixo real do plano de frequência complexo (o que eles geralmente são para a contagem mínima de componentes), a função de perda de inserção pode ser escrita como;

onde F é uma função de frequência par (resultando em um filtro antimétrico ) ou ímpar (resultando em um filtro simétrico). Os zeros de F correspondem à perda zero e os pólos de F correspondem aos zeros de transmissão. J define a altura da ondulação da banda passante e a perda da banda de bloqueio e esses dois requisitos de projeto podem ser trocados. Os zeros e pólos de F e J podem ser definidos arbitrariamente. A natureza de F determina a classe do filtro;

  • se F é uma aproximação de Chebyshev, o resultado é um filtro de Chebyshev,
  • se F é uma aproximação maximamente plana, o resultado é um filtro de banda passante maximamente plano,
  • se 1 / F é uma aproximação de Chebyshev, o resultado é um filtro Chebyshev reverso,
  • se 1 / F é uma aproximação maximamente plana, o resultado é um filtro de banda de interrupção maximamente plano,

Uma resposta Chebyshev simultaneamente na banda passante e na banda de interrupção é possível, como o filtro elíptico de ondulação igual de Cauer.

Darlington relata que encontrou na biblioteca da cidade de Nova York o artigo original de Carl Jacobi sobre funções elípticas, publicado em latim em 1829. Neste artigo, Darlington ficou surpreso ao encontrar tabelas desdobráveis ​​das transformações de função elíptica exatas necessárias para aproximações de Chebyshev de ambos os de Cauer parâmetro de imagem e filtros de perda de inserção de Darlington.

Outros métodos

Darlington considera a topologia de circuitos sintonizados acoplados para envolver uma técnica de aproximação separada para o método de perda de inserção, mas também produz bandas de passagem nominalmente planas e bandas de parada de alta atenuação. A topologia mais comum para estes são os anti-ressonadores shunt acoplados por capacitores em série, menos comumente, por indutores, ou no caso de um filtro de duas seções, por indutância mútua. Eles são mais úteis onde o requisito de design não é muito rigoroso, ou seja, largura de banda moderada, roll-off e ondulação de banda passante.

Outros desenvolvimentos e aplicações notáveis

Filtros mecânicos

Filtro mecânico de Norton junto com seu circuito elétrico equivalente. Dois equivalentes são mostrados, "Fig.3" corresponde diretamente à relação física dos componentes mecânicos; A "Fig.4" é um circuito transformado equivalente obtido pela aplicação repetida de uma transformada bem conhecida , com o propósito de remover o circuito ressonante em série do corpo do filtro deixando uma rede simples LC em escada.

Edward Norton , por volta de 1930, projetou um filtro mecânico para uso em gravadores e tocadores de fonógrafo . Norton projetou o filtro no domínio elétrico e então usou a correspondência de grandezas mecânicas com grandezas elétricas para realizar o filtro usando componentes mecânicos. A massa corresponde à indutância , a rigidez à elastância e o amortecimento à resistência . O filtro foi projetado para ter uma resposta de frequência plana no máximo .

Em designs modernos, é comum usar filtros de cristal de quartzo , especialmente para aplicações de filtragem de banda estreita. O sinal existe como uma onda acústica mecânica enquanto está no cristal e é convertido por transdutores entre os domínios elétrico e mecânico nos terminais do cristal.

Filtros de elemento distribuído

Filtros de elemento distribuído são compostos de comprimentos de linha de transmissão que são pelo menos uma fração significativa de um comprimento de onda. Os primeiros filtros não elétricos eram todos desse tipo. William Herschel (1738-1822), por exemplo, construiu um aparelho com dois tubos de comprimentos diferentes que atenuaram algumas frequências, mas não outras. Joseph-Louis Lagrange (1736-1813) estudou ondas em uma corda carregada periodicamente com pesos. O dispositivo nunca foi estudado ou usado como filtro por Lagrange ou investigadores posteriores, como Charles Godfrey. No entanto, Campbell usou os resultados de Godfrey por analogia para calcular o número de bobinas de carga necessárias em suas linhas carregadas, o dispositivo que levou ao desenvolvimento de seu filtro elétrico. Lagrange, Godfrey e Campbell fizeram suposições simplificadoras em seus cálculos que ignoraram a natureza distribuída de seus aparelhos. Conseqüentemente, seus modelos não mostraram as várias bandas de passagem que são uma característica de todos os filtros de elementos distribuídos. Os primeiros filtros elétricos que foram verdadeiramente projetados por princípios de elementos distribuídos são devidos a Warren P. Mason a partir de 1927.

Filtros transversais

Filtros transversais não são geralmente associados a implementações passivas, mas o conceito pode ser encontrado em uma patente de Wiener e Lee de 1935, que descreve um filtro que consiste em uma cascata de seções de passagem total . As saídas das várias seções são somadas nas proporções necessárias para resultar na função de frequência exigida. Isso funciona pelo princípio de que certas frequências estarão em, ou perto da antifase, em seções diferentes e tenderão a cancelar quando adicionadas. Essas são as frequências rejeitadas pelo filtro e podem produzir filtros com cortes muito nítidos. Essa abordagem não encontrou nenhuma aplicação imediata e não é comum em filtros passivos. No entanto, o princípio encontra muitas aplicações como uma implementação de linha de atraso ativa para aplicações de filtro de tempo discreto de banda larga , como televisão, radar e transmissão de dados em alta velocidade.

Filtro correspondente

O objetivo dos filtros combinados é maximizar a relação sinal-ruído (S / N) em detrimento da forma do pulso. A forma do pulso, ao contrário de muitas outras aplicações, não é importante no radar, enquanto S / N é a principal limitação de desempenho. Os filtros foram introduzidos durante a Segunda Guerra Mundial (descritos em 1943) por Dwight North e são freqüentemente chamados de " Filtros do Norte ".

Filtros para sistemas de controle

Os sistemas de controle precisam de filtros de suavização em seus loops de feedback com critérios para maximizar a velocidade de movimento de um sistema mecânico até a marca prescrita e, ao mesmo tempo, minimizar os movimentos de overshoot e induzidos por ruído. Um problema chave aqui é a extração de sinais gaussianos de um fundo ruidoso. Um artigo anterior sobre isso foi publicado durante a Segunda Guerra Mundial por Norbert Wiener com a aplicação específica para computadores analógicos de controle de fogo antiaéreo. Rudy Kalman ( filtro de Kalman ) mais tarde reformulou isso em termos de suavização e previsão do espaço de estado, onde é conhecido como o problema de controle linear-quadrático-Gaussiano . Kalman começou a se interessar por soluções de espaço de estado, mas de acordo com Darlington esta abordagem também pode ser encontrada no trabalho de Heaviside e anteriores.

Prática moderna

Filtros LC em baixas frequências tornam-se estranhos; os componentes, especialmente os indutores, tornam-se caros, volumosos, pesados ​​e não ideais. Os indutores 1 H práticos requerem muitas voltas em um núcleo de alta permeabilidade; esse material terá grandes perdas e problemas de estabilidade (por exemplo, um grande coeficiente de temperatura). Para aplicações como filtros de rede, a estranheza deve ser tolerada. Para aplicações de baixo nível e baixa frequência, os filtros RC são possíveis, mas não podem implementar filtros com pólos ou zeros complexos. Se a aplicação puder usar energia, os amplificadores podem ser usados ​​para fazer filtros RC ativos que podem ter pólos e zeros complexos. Na década de 1950, Sallen-chave filtros RC activo foram feitas com tubo de vácuo amplificadores; esses filtros substituíram os indutores volumosos por tubos de vácuo quentes e volumosos. Os transistores oferecem designs de filtros ativos mais eficientes em termos de energia. Posteriormente, amplificadores operacionais baratos permitiram outras topologias de projeto de filtro RC ativo. Embora os projetos de filtro ativo fossem comuns em frequências baixas, eles eram impraticáveis ​​em frequências altas, onde os amplificadores não eram ideais; Filtros LC (e linha de transmissão) ainda eram usados ​​em frequências de rádio.

Gradualmente, o filtro RC ativo de baixa frequência foi suplantado pelo filtro de capacitor chaveado que operava no domínio do tempo discreto ao invés do domínio do tempo contínuo. Todas essas tecnologias de filtro requerem componentes de precisão para filtragem de alto desempenho e isso geralmente requer que os filtros sejam ajustados. Os componentes ajustáveis ​​são caros e o trabalho para fazer o ajuste pode ser significativo. Ajustar os pólos e zeros de um filtro elíptico de 7ª ordem não é um exercício simples. Os circuitos integrados tornaram a computação digital barata, então agora a filtragem de baixa frequência é feita com processadores de sinal digital. Esses filtros digitais não têm problemas para implementar valores ultraprecisos (e estáveis), portanto, nenhum ajuste ou ajuste é necessário. Os filtros digitais também não precisam se preocupar com caminhos de acoplamento perdidos e com a proteção das seções de filtro individuais umas das outras. Uma desvantagem é que o processamento do sinal digital pode consumir muito mais energia do que um filtro LC equivalente. A tecnologia digital barata suplantou amplamente as implementações analógicas de filtros. No entanto, ainda há um lugar ocasional para eles nas aplicações mais simples, como acoplamento, onde funções sofisticadas de frequência não são necessárias. Os filtros passivos ainda são a tecnologia escolhida para frequências de micro-ondas.

Veja também

Notas de rodapé

Referências

Bibliografia

Leitura adicional