nat (unidade) - nat (unit)

A unidade natural de informação (símbolo: nat), às vezes também nit ou nepit , é uma unidade de informação , baseada em logaritmos naturais e potências de e , ao invés das potências de 2 e logaritmos de base 2 , que definem o Shannon . Esta unidade também é conhecida por seu símbolo de unidade, o nat. Um nat é o conteúdo de informação de um evento quando a probabilidade desse evento ocorrer é 1 / e .

Um nat é igual a 1/em 2 Shannons ≈ 1,44 Sh ou, equivalentemente,1/em 10 hartleys0,434 Hart.

História

Boulton e Wallace usaram o termo nit em conjunto com o comprimento mínimo da mensagem, que foi posteriormente alterado pela comunidade de comprimento mínimo de descrição para nat para evitar confusão com o nit usado como unidade de luminância .

Alan Turing usou a proibição natural .

Entropia

A entropia de Shannon ( entropia da informação), sendo o valor esperado da informação de um evento, é uma quantidade do mesmo tipo e com as mesmas unidades da informação. O Sistema Internacional de Unidades , ao atribuir as mesmas unidades ( joule por kelvin ) tanto à capacidade térmica quanto à entropia termodinâmica, trata implicitamente a entropia da informação como uma quantidade de dimensão um , com 1 nat = 1 . Os sistemas físicos de unidades naturais que normalizam a constante de Boltzmann para 1 estão medindo efetivamente a entropia termodinâmica em nats.

Quando a entropia de Shannon é escrita usando um logaritmo natural,

está implicitamente dando um número medido em nats.

Notas

Referências

Leitura adicional

  • Reza, Fazlollah M. (1994). Uma introdução à teoria da informação . Nova York: Dover. ISBN 0-486-68210-2.