Teorema de codificação de canal ruidoso - Noisy-channel coding theorem

Na teoria da informação , o teorema de codificação de canal ruidoso (às vezes teorema de Shannon ou limite de Shannon ), estabelece que para qualquer determinado grau de contaminação de ruído de um canal de comunicação , é possível comunicar dados discretos ( informação digital ) quase sem erros até uma taxa máxima computável através do canal. Este resultado foi apresentado por Claude Shannon em 1948 e foi baseado em parte no trabalho anterior e nas idéias de Harry Nyquist e Ralph Hartley .

O limite de Shannon ou capacidade de Shannon de um canal de comunicação refere-se à taxa máxima de dados sem erros que podem teoricamente ser transferidos pelo canal se o link estiver sujeito a erros de transmissão de dados aleatórios, para um determinado nível de ruído. Foi descrito pela primeira vez por Shannon (1948) e, pouco depois, publicado em um livro de Shannon e Warren Weaver intitulado The Mathematical Theory of Communication (1949). Isso fundou a disciplina moderna da teoria da informação .

Visão geral

Declarado por Claude Shannon em 1948, o teorema descreve a máxima eficiência possível dos métodos de correção de erros versus níveis de interferência de ruído e corrupção de dados. O teorema de Shannon tem aplicações abrangentes em comunicações e armazenamento de dados . Este teorema é de importância fundamental para o campo moderno da teoria da informação . Shannon deu apenas um esboço da prova. A primeira prova rigorosa para o caso discreto deve-se a Amiel Feinstein em 1954.

O teorema de Shannon afirma que, dado um canal ruidoso com capacidade de canal C e informação transmitida a uma taxa R , então, se existem códigos que permitem que a probabilidade de erro no receptor seja arbitrariamente pequena. Isto significa que, teoricamente, é possível transmitir informações quase sem erro em qualquer taxa inferior a uma limitação de velocidade, C .

O inverso também é importante. Se , uma probabilidade de erro arbitrariamente pequena não é alcançável. Todos os códigos terão uma probabilidade de erro maior do que um certo nível mínimo positivo, e esse nível aumenta à medida que a taxa aumenta. Portanto, não é possível garantir que as informações sejam transmitidas de forma confiável através de um canal a taxas além da capacidade do canal. O teorema não aborda a rara situação em que a taxa e a capacidade são iguais.

A capacidade do canal pode ser calculada a partir das propriedades físicas de um canal; para um canal de banda limitada com ruído gaussiano, usando o teorema de Shannon-Hartley .

Esquemas simples como "enviar a mensagem 3 vezes e usar o melhor esquema de votação 2 de 3 se as cópias forem diferentes" são métodos de correção de erros ineficientes, incapazes de garantir assintoticamente que um bloco de dados pode ser comunicado sem erros. Técnicas avançadas, como códigos Reed-Solomon e, mais recentemente, códigos de verificação de paridade de baixa densidade (LDPC) e códigos turbo , chegam muito mais perto de atingir o limite teórico de Shannon, mas a um custo de alta complexidade computacional. Usando esses códigos altamente eficientes e com o poder de computação dos processadores de sinais digitais de hoje , agora é possível chegar muito perto do limite de Shannon. Na verdade, foi mostrado que os códigos LDPC podem atingir 0,0045 dB do limite de Shannon (para canais binários de ruído gaussiano branco aditivo (AWGN), com comprimentos de bloco muito longos).

Declaração matemática

O modelo matemático básico para um sistema de comunicação é o seguinte:

Uma mensagem W é transmitida através de um canal ruidoso usando funções de codificação e decodificação. Um codificador mapeia W em uma sequência predefinida de símbolos de canal de comprimento n . Em seu modelo mais básico, o canal distorce cada um desses símbolos independentemente dos outros. A saída do canal –a sequência recebida– é alimentada em um decodificador que mapeia a sequência em uma estimativa da mensagem. Nesta configuração, a probabilidade de erro é definida como:

Teorema (Shannon, 1948):

1. Para cada canal discreto sem memória, a capacidade do canal é definida em termos de informação mútua ,
tem a seguinte propriedade. Para qualquer e , para grande o suficiente , existe um código de comprimento e taxa e um algoritmo de decodificação, de modo que a probabilidade máxima de erro de bloco seja .
2. Se uma probabilidade de erro de bit for aceitável, taxas de até são alcançáveis, onde
e é a função de entropia binária
3. Para qualquer um , taxas maiores que não são alcançáveis.

(MacKay (2003), p. 162; cf Gallager (1968), ch.5; Cover e Thomas (1991), p. 198; Shannon (1948) thm. 11)

Esboço da prova

Tal como acontece com os vários outros resultados importantes na teoria da informação, a prova do teorema da codificação do canal ruidoso inclui um resultado de realizabilidade e um resultado inverso correspondente. Esses dois componentes servem para limitar, neste caso, o conjunto de taxas possíveis nas quais alguém pode se comunicar através de um canal ruidoso, e a correspondência serve para mostrar que esses limites são estreitos.

Os esboços a seguir são apenas um conjunto de muitos estilos diferentes disponíveis para estudo em textos de teoria da informação.

Capacidade de realização para canais discretos sem memória

Esta prova particular de realizabilidade segue o estilo de provas que fazem uso da propriedade de equipartição assintótica (AEP). Outro estilo pode ser encontrado em textos de teoria da informação usando expoentes de erro .

Ambos os tipos de provas fazem uso de um argumento de codificação aleatório onde o livro de código usado através de um canal é construído aleatoriamente - isso serve para tornar a análise mais simples, enquanto ainda prova a existência de um código que satisfaça uma baixa probabilidade de erro desejada em qualquer taxa de dados abaixo do capacidade do canal .

Por um argumento relacionado ao AEP, dado um canal, strings de comprimento de símbolos de origem e strings de comprimento de saídas de canal , podemos definir um conjunto típico conjuntamente da seguinte maneira:

Dizemos que duas sequências e são conjuntamente típicas se estiverem no conjunto conjuntamente típico definido acima.

Passos

  1. No estilo do argumento da codificação aleatória, geramos palavras-código aleatoriamente de comprimento n a partir de uma distribuição de probabilidade Q.
  2. Este código é revelado ao remetente e ao destinatário. Também é assumido que se conhece a matriz de transição para o canal que está sendo usado.
  3. Uma mensagem W é escolhida de acordo com a distribuição uniforme no conjunto de palavras-código. Ou seja ,.
  4. A mensagem W é enviada através do canal.
  5. O receptor recebe uma sequência de acordo com
  6. Enviando essas palavras-código pelo canal, recebemos e decodificamos para alguma sequência de origem se houver exatamente 1 palavra-código que seja típica em conjunto com Y. Se não houver palavras-código comuns em conjunto, ou se houver mais de uma, um erro será declarado. Também ocorre um erro se uma palavra-código decodificada não corresponder à palavra-código original. Isso é chamado de decodificação de conjunto típica .

A probabilidade de erro deste esquema é dividida em duas partes:

  1. Primeiro, o erro pode ocorrer se nenhuma sequência X típica em conjunto for encontrada para uma sequência Y recebida
  2. Em segundo lugar, o erro pode ocorrer se uma sequência X incorreta for conjuntamente típica com uma sequência Y recebida.
  • Pela aleatoriedade da construção do código, podemos assumir que a probabilidade média de erro calculada sobre todos os códigos não depende do índice enviado. Assim, sem perda de generalidade, podemos assumir W = 1.
  • A partir do AEP conjunto, sabemos que a probabilidade de que nenhum X típico em conjunto exista vai para 0 à medida que n aumenta. Podemos limitar essa probabilidade de erro por .
  • Também a partir do AEP conjunto, sabemos a probabilidade de que um particular e o resultante de W = 1 sejam conjuntamente típicos é .

Definir:

como o evento em que a mensagem i é típica em conjunto com a sequência recebida quando a mensagem 1 é enviada.

Podemos observar que à medida que vai para o infinito, se para o canal, a probabilidade de erro irá para 0.

Finalmente, dado que o livro de código médio é mostrado como "bom", sabemos que existe um livro de código cujo desempenho é melhor do que a média e, portanto, satisfaz nossa necessidade de comunicação de probabilidade de erro arbitrariamente baixa através do canal ruidoso.

Converso fraco para canais discretos sem memória

Suponha um código de palavras-código. Seja W desenhado uniformemente sobre este conjunto como um índice. Deixe e ser as palavras-código transmitidas e as palavras-código recebidas, respectivamente.

  1. usando identidades envolvendo entropia e informação mútua
  2. uma vez que X é uma função de W
  3. pelo uso da Desigualdade de Fano
  4. pelo fato de que a capacidade é maximizada de informação mútua.

O resultado dessas etapas é isso . À medida que o comprimento do bloco vai ao infinito, obtemos que é limitado a 10 se R for maior que C - podemos obter taxas de erro arbitrariamente baixas apenas se R for menor que C.

Converso forte para canais discretos sem memória

Um forte teorema inverso, provado por Wolfowitz em 1957, afirma que,

para alguma constante positiva finita . Enquanto o inverso fraco afirma que a probabilidade de erro é limitada a zero conforme vai para o infinito, o inverso forte afirma que o erro vai a 1. Portanto, é um limite agudo entre comunicação perfeitamente confiável e completamente não confiável.

Teorema de codificação de canal para canais sem memória não estacionários

Assumimos que o canal não tem memória, mas suas probabilidades de transição mudam com o tempo, de uma forma conhecida tanto no transmissor quanto no receptor.

Então, a capacidade do canal é dada por

O máximo é atingido na capacidade de atingir distribuições para cada canal respectivo. Ou seja, onde está a capacidade do i ésimo canal.

Esboço da prova

A prova é executada quase da mesma maneira que a do teorema da codificação de canal. A capacidade de realização decorre da codificação aleatória com cada símbolo escolhido aleatoriamente da distribuição de alcance de capacidade para aquele canal específico. Argumentos de tipicidade usam a definição de conjuntos típicos para fontes não estacionárias definidas no artigo de propriedade de equipartição assintótica .

O tecnicismo de lim inf entra em jogo quando não converge.

Taxa de codificação de canal no regime de comprimento de bloco finito

A teoria da informação de comprimento de bloco finito investiga a taxa máxima de codificação de canal alcançável em um determinado comprimento de bloco e probabilidade de erro no regime de comprimento de bloco finito (regime não assintótico). A taxa de codificação de canal máxima alcançável com dada probabilidade de erro de bloco e comprimento de bloco (para canais binários de ruído gaussiano branco aditivo (AWGN), com comprimentos de bloco curtos), aproximada por Polyanskiy , Poor e Verdú (PPV) em 2010, é dada por

onde é o inverso da função de distribuição cumulativa gaussiana complementar , é a capacidade do canal e é uma característica do canal referida como dispersão do canal.

Veja também


Notas

Referências

links externos