Hartley (unidade) - Hartley (unit)
Unidades de informação |
Teórico da Informação |
---|
Armazenamento de dados |
Informação quântica |
O hartley (símbolo Hart ), também chamado de ban , ou dit (abreviação de d ecimal dig it ), é uma unidade logarítmica que mede informações ou entropia , com base em logaritmos de base 10 e poderes de 10. Um hartley é o conteúdo da informação de um evento se a probabilidade desse evento ocorrer é 1 ⁄ 10 . É, portanto, igual à informação contida em um dígito decimal (ou dit), assumindo a equiprobabilidade a priori de cada valor possível. Tem o nome de Ralph Hartley .
Se , em vez disso, forem usados logaritmos de base 2 e potências de 2, então a unidade de informação é o bit , ou shannon , que é o conteúdo de informação de um evento se a probabilidade desse evento ocorrer é 1 ⁄ 2 . Logaritmos naturais e potências de e definem o nat .
Uma proibição corresponde a ln (10) nat = log 2 (10) bit ou Sh , ou aproximadamente 2.303 nat , ou 3.322 bit. Um decibã é um décimo de uma proibição (ou cerca de 0,332 bit); o nome é formado a partir de ban pelo prefixo SI deci- .
Embora não haja uma unidade SI associada , a entropia da informação faz parte do Sistema Internacional de Quantidades , definido pela Norma Internacional IEC 80000-13 da Comissão Eletrotécnica Internacional .
História
O termo hartley é nomeado após Ralph Hartley , que sugeriu em 1928 medir a informação usando uma base logarítmica igual ao número de estados distinguíveis em sua representação, que seria a base 10 para um dígito decimal.
A proibição e o decibã foram inventados por Alan Turing com Irving John "Jack" Good em 1940, para medir a quantidade de informação que poderia ser deduzida pelos decifradores de Bletchley Park usando o procedimento de Banburismus , para determinar a configuração desconhecida de cada dia do alemão máquina de cifragem naval Enigma . O nome foi inspirado nas enormes folhas de cartão, impressas na cidade de Banbury, a cerca de 30 milhas de distância, que foram usadas no processo.
Good argumentou que a soma sequencial de decibãs para construir uma medida do peso da evidência a favor de uma hipótese é essencialmente inferência bayesiana . Donald A. Gillies , no entanto, argumentou que a proibição é, na verdade, o mesmo que a medida de Karl Popper da gravidade de um teste.
Uso como uma unidade de probabilidade
O decibã é uma unidade particularmente útil para log-odds , notadamente como uma medida de informação em fatores de Bayes , odds ratios (proporção de odds, então log é a diferença de log-odds) ou pesos de evidência. 10 decibãs correspondem a chances de 10: 1; 20 decibãs para chances de 100: 1, etc. De acordo com Good, uma mudança no peso da evidência de 1 decibã (ou seja, uma mudança nas chances de pares para cerca de 5: 4) é tão fina quanto os humanos podem razoavelmente ser esperados para quantificar seu grau de crença em uma hipótese.
As probabilidades correspondentes a decibanos inteiros podem frequentemente ser bem aproximadas por razões de inteiros simples; estes são agrupados abaixo. Valor para duas casas decimais, aproximação simples (dentro de cerca de 5%), com aproximação mais precisa (dentro de 1%) se um simples for impreciso:
decibãs | valor exato |
Aproximadamente. valor |
Aproximadamente. Razão |
proporção exata |
probabilidade |
---|---|---|---|---|---|
0 | 10 0/10 | 1 | 1: 1 | 50% | |
1 | 10 1/10 | 1,26 | 5: 4 | 56% | |
2 | 10 2/10 | 1,58 | 3: 2 | 8: 5 | 61% |
3 | 10 3/10 | 2,00 | 2: 1 | 67% | |
4 | 10 4/10 | 2,51 | 5: 2 | 71,5% | |
5 | 10 5/10 | 3,16 | 3: 1 | 19: 6, 16: 5 | 76% |
6 | 10 6/10 | 3,98 | 4: 1 | 80% | |
7 | 10 7/10 | 5.01 | 5: 1 | 83% | |
8 | 10 8/10 | 6,31 | 6: 1 | 19: 3, 25: 4 | 86% |
9 | 10 9/10 | 7,94 | 8: 1 | 89% | |
10 | 10 10/10 | 10 | 10: 1 | 91% |