nat (unidade) - nat (unit)
Unidades de informação |
Teórico da Informação |
---|
Armazenamento de dados |
Informação quântica |
A unidade natural de informação (símbolo: nat), às vezes também nit ou nepit , é uma unidade de informação , baseada em logaritmos naturais e potências de e , ao invés das potências de 2 e logaritmos de base 2 , que definem o Shannon . Esta unidade também é conhecida por seu símbolo de unidade, o nat. Um nat é o conteúdo de informação de um evento quando a probabilidade desse evento ocorrer é 1 / e .
Um nat é igual a 1/em 2 Shannons ≈ 1,44 Sh ou, equivalentemente,1/em 10 hartleys ≈ 0,434 Hart.
História
Boulton e Wallace usaram o termo nit em conjunto com o comprimento mínimo da mensagem, que foi posteriormente alterado pela comunidade de comprimento mínimo de descrição para nat para evitar confusão com o nit usado como unidade de luminância .
Alan Turing usou a proibição natural .
Entropia
A entropia de Shannon ( entropia da informação), sendo o valor esperado da informação de um evento, é uma quantidade do mesmo tipo e com as mesmas unidades da informação. O Sistema Internacional de Unidades , ao atribuir as mesmas unidades ( joule por kelvin ) tanto à capacidade térmica quanto à entropia termodinâmica, trata implicitamente a entropia da informação como uma quantidade de dimensão um , com 1 nat = 1 . Os sistemas físicos de unidades naturais que normalizam a constante de Boltzmann para 1 estão medindo efetivamente a entropia termodinâmica em nats.
Quando a entropia de Shannon é escrita usando um logaritmo natural,
Notas
Referências
Leitura adicional
- Reza, Fazlollah M. (1994). Uma introdução à teoria da informação . Nova York: Dover. ISBN 0-486-68210-2.