Pedaço - Bit

O bit é a unidade de informação mais básica em computação e comunicações digitais . O nome é uma contração do dígito binário . O bit representa um estado lógico com um dos dois valores possíveis . Esses valores são mais comumente representados como " 1 " ou " 0 " , mas outras representações como verdadeiro / falso , sim / não , + / - ou ativado / desativado são comumente usadas.

A correspondência entre esses valores e os estados físicos do armazenamento ou dispositivo subjacente é uma questão de convenção e diferentes atribuições podem ser usadas até mesmo dentro do mesmo dispositivo ou programa . Pode ser implementado fisicamente com um dispositivo de dois estados.

O símbolo para o dígito binário é 'bit' por recomendação do padrão IEC 80000-13 : 2008 ou o caractere minúsculo 'b', conforme recomendado pelo padrão IEEE 1541-2002 .

Um grupo contíguo de dígitos binários é comumente chamado de sequência de bits , vetor de bits ou matriz de bits unidimensional (ou multidimensional) . Um grupo de oito dígitos binários é chamado de um  byte , mas historicamente o tamanho do byte não é estritamente definido. Freqüentemente, as palavras meio, cheio, duplo e quádruplo consistem em um número de bytes que é uma potência baixa de dois.

Na teoria da informação , um bit é a entropia de informação de uma variável aleatória binária que é 0 ou 1 com igual probabilidade, ou a informação que é obtida quando o valor de tal variável se torna conhecido. Como unidade de informação , o bit também é conhecido como shannon , em homenagem a Claude E. Shannon .

História

A codificação de dados por bits discretos foi usada nos cartões perfurados inventados por Basile Bouchon e Jean-Baptiste Falcon (1732), desenvolvidos por Joseph Marie Jacquard (1804) e posteriormente adotados por Semyon Korsakov , Charles Babbage , Hermann Hollerith e primeiros fabricantes de computadores como a IBM . Uma variante dessa ideia era a fita de papel perfurada . Em todos esses sistemas, o meio (cartão ou fita) carregava conceitualmente uma série de posições de orifícios; cada posição pode ser perfurada ou não, transportando assim um bit de informação. A codificação de texto por bits também foi usada no código Morse (1844) e nas primeiras máquinas de comunicação digital, como teletipos e máquinas de cotações da bolsa (1870).

Ralph Hartley sugeriu o uso de uma medida logarítmica de informação em 1928. Claude E. Shannon usou pela primeira vez a palavra "bit" em seu artigo seminal de 1948 " A Mathematical Theory of Communication ". Ele atribuiu sua origem a John W. Tukey , que escreveu um memorando do Bell Labs em 9 de janeiro de 1947, no qual contraiu "dígito de informação binária" para simplesmente "bit". Vannevar Bush havia escrito em 1936 sobre "bits de informação" que podiam ser armazenados nos cartões perfurados usados ​​nos computadores mecânicos da época. O primeiro computador programável, construído por Konrad Zuse , usava notação binária para números.

Representação física

Um bit pode ser armazenado por um dispositivo digital ou outro sistema físico que exista em qualquer um dos dois estados distintos possíveis . Estes podem ser os dois estados estáveis ​​de um flip-flop, duas posições de um interruptor elétrico , dois níveis distintos de tensão ou corrente permitidos por um circuito , dois níveis distintos de intensidade de luz , duas direções de magnetização ou polarização , a orientação de dupla reversível DNA em cadeia , etc.

Os bits podem ser implementados de várias formas. Na maioria dos dispositivos de computação modernos, um bit geralmente é representado por uma tensão elétrica ou pulso de corrente , ou pelo estado elétrico de um circuito flip-flop.

Para dispositivos que usam lógica positiva , um valor de dígito de 1 (ou um valor lógico de verdadeiro) é representado por uma tensão mais positiva em relação à representação de 0 . As tensões específicas são diferentes para diferentes famílias lógicas e variações são permitidas para permitir o envelhecimento do componente e imunidade a ruído. Por exemplo, na lógica do transistor-transistor (TTL) e em circuitos compatíveis, os valores dos dígitos 0 e 1 na saída de um dispositivo são representados por não mais que 0,4 volts e não menos que 2,6 volts, respectivamente; enquanto as entradas TTL são especificadas para reconhecer 0,8 volts ou abaixo como 0 e 2,2 volts ou acima como 1 .

Transmissão e processamento

Os bits são transmitidos um de cada vez na transmissão serial e por um número múltiplo de bits na transmissão paralela . Uma operação bit a bit processa opcionalmente os bits um de cada vez. As taxas de transferência de dados são geralmente medidas em múltiplos decimais do SI da unidade de bit por segundo (bit / s), como kbit / s.

Armazenar

Nos primeiros dispositivos não eletrônicos de processamento de informações, como o tear de Jacquard ou a máquina analítica de Babbage , um bit era frequentemente armazenado como a posição de uma alavanca ou engrenagem mecânica, ou a presença ou ausência de um orifício em um ponto específico de um cartão de papel ou fita . Os primeiros dispositivos elétricos para lógica discreta (como circuitos de controle de elevador e semáforo , interruptores telefônicos e o computador de Konrad Zuse) representavam bits como os estados de relés elétricos que podiam ser "abertos" ou "fechados". Quando os relés foram substituídos por tubos de vácuo , começando na década de 1940, os fabricantes de computadores experimentaram uma variedade de métodos de armazenamento, como pulsos de pressão viajando por uma linha de retardo de mercúrio , cargas armazenadas na superfície interna de um tubo de raios catódicos ou pontos opacos impresso em discos de vidro por técnicas fotolitográficas .

Nas décadas de 1950 e 1960, esses métodos foram amplamente suplantados por dispositivos de armazenamento magnético , como memória de núcleo magnético , fitas magnéticas , tambores e discos , onde um bit era representado pela polaridade de magnetização de uma determinada área de um filme ferromagnético , ou por uma mudança na polaridade de uma direção para outra. O mesmo princípio foi usado mais tarde na memória de bolha magnética desenvolvida na década de 1980 e ainda é encontrado em vários itens de tarja magnética , como passagens de metrô e alguns cartões de crédito .

Na memória semicondutora moderna , como a memória dinâmica de acesso aleatório , os dois valores de um bit podem ser representados por dois níveis de carga elétrica armazenados em um capacitor . Em certos tipos de matrizes lógicas programáveis e memória somente leitura , um bit pode ser representado pela presença ou ausência de um caminho condutor em um determinado ponto de um circuito. Em discos ópticos , um bit é codificado como a presença ou ausência de uma depressão microscópica em uma superfície reflexiva. Em códigos de barras unidimensionais , os bits são codificados como a espessura de linhas pretas e brancas alternadas.

Unidade e símbolo

O bit não é definido no Sistema Internacional de Unidades (SI). No entanto, a Comissão Eletrotécnica Internacional emitiu a norma IEC 60027 , que especifica que o símbolo para dígito binário deve ser 'bit', e isso deve ser usado em todos os múltiplos, como 'kbit', para kilobit. No entanto, a letra minúscula 'b' também é amplamente utilizada e foi recomendada pelo padrão IEEE 1541 (2002) . Em contraste, a letra maiúscula 'B' é o símbolo padrão e usual para o byte.

Decimal
Valor  Métrica 
1000 kbit kilobit
1000 2 Mbit megabit
1000 3 Gbit gigabit
1000 4 Tbit terabit
1000 5 Pbit petabit
1000 6 Ebit exabit
1000 7 Zbit zetabit
1000 8 Ybit yottabit
Binário
Valor  IEC  Tradicional 
1024 Kibit kibibit Kbit Kb kilobit
1024 2 Mibit mebibit Mbit Mb megabit
1024 3 Gibit gibibit Gbit Gb gigabit
1024 4 Tibit tebibit Tbit Tb terabit
1024 5 Pibit seixo -
1024 6 Eibit exbibit -
1024 7 Zibit zebibit -
1024 8 Yibit yobibit -

Múltiplos bits

Vários bits podem ser expressos e representados de várias maneiras. Por conveniência de representar grupos de bits comumente recorrentes na tecnologia da informação, várias unidades de informação têm sido tradicionalmente usadas. O mais comum é o byte unitário , cunhado por Werner Buchholz em junho de 1956, que historicamente foi usado para representar o grupo de bits usado para codificar um único caractere de texto (até que a codificação multibyte UTF-8 assumisse) em um computador e para isso razão pela qual foi usado como o elemento endereçável básico em muitas arquiteturas de computador . A tendência no design de hardware convergiu para a implementação mais comum de usar oito bits por byte, como é amplamente usado hoje. No entanto, devido à ambigüidade de confiar no design de hardware subjacente, o octeto de unidade foi definido para denotar explicitamente uma sequência de oito bits.

Os computadores geralmente manipulam bits em grupos de tamanho fixo, convencionalmente chamados de " palavras ". Como o byte, o número de bits em uma palavra também varia com o design do hardware e é normalmente entre 8 e 80 bits, ou até mais em alguns computadores especializados. No século 21, os computadores pessoais ou servidores de varejo têm um tamanho de palavra de 32 ou 64 bits.

O Sistema Internacional de Unidades define uma série de prefixos decimais para múltiplos de unidades padronizadas que são comumente usados ​​com o bit e o byte. Os prefixos kilo (10 3 ) a yotta (10 24 ) aumentam em múltiplos de mil, e as unidades correspondentes são o kilobit (kbit) até o yottabit (Ybit).

Capacidade de informação e compressão de informação

Quando a capacidade de informação de um sistema de armazenamento ou canal de comunicação é apresentada em bits ou bits por segundo , isso geralmente se refere a dígitos binários, que é uma capacidade de hardware de computador para armazenar dados binários ( 0 ou 1 , para cima ou para baixo, atual ou não , etc.). A capacidade de informação de um sistema de armazenamento é apenas um limite superior para a quantidade de informação armazenada nele. Se os dois valores possíveis de um bit de armazenamento não forem igualmente prováveis, esse bit de armazenamento conterá menos de um bit de informação. Se o valor for completamente previsível, então a leitura desse valor não fornece nenhuma informação (zero bits entrópicos, porque nenhuma resolução de incerteza ocorre e, portanto, nenhuma informação está disponível). Se um arquivo de computador que usa n  bits de armazenamento contém apenas m  <  n  bits de informação, então essa informação pode, em princípio, ser codificada em cerca de m  bits, pelo menos na média. Este princípio é a base da tecnologia de compressão de dados . Usando uma analogia, os dígitos binários do hardware referem-se à quantidade de espaço de armazenamento disponível (como o número de baldes disponíveis para armazenar coisas) e ao conteúdo de informação do enchimento, que vem em diferentes níveis de granularidade (fino ou grosso, isto é, informação comprimida ou não comprimida). Quando a granularidade é mais precisa - quando as informações são mais compactadas - o mesmo balde pode conter mais.

Por exemplo, estima-se que a capacidade tecnológica mundial combinada de armazenar informações forneça 1.300 exabytes de dígitos de hardware. No entanto, quando esse espaço de armazenamento é preenchido e o conteúdo correspondente compactado de maneira ideal, isso representa apenas 295 exabytes de informações. Quando compactada de forma otimizada, a capacidade de suporte resultante se aproxima da informação de Shannon ou da entropia da informação .

Computação baseada em bits

Certas instruções de processador de computador bit a bit (como conjunto de bits ) operam no nível de manipulação de bits, em vez de manipulação de dados interpretados como um agregado de bits.

Na década de 1980, quando as telas de computador com bitmap se tornaram populares, alguns computadores forneceram instruções especializadas de transferência de bloco de bits para definir ou copiar os bits que correspondiam a uma determinada área retangular na tela.

Na maioria dos computadores e linguagens de programação, quando um bit dentro de um grupo de bits, como um byte ou palavra, é referido, ele geralmente é especificado por um número de 0 para cima, correspondendo à sua posição dentro do byte ou palavra. No entanto, 0 pode se referir ao bit mais ou menos significativo, dependendo do contexto.

Outras unidades de informação

Semelhante a torque e energia na física; a informação teórica da informação e o tamanho do armazenamento de dados têm a mesma dimensionalidade das unidades de medida , mas em geral não há sentido em adicionar, subtrair ou combinar as unidades matematicamente, embora uma possa atuar como um limite para a outra.

As unidades de informação usadas na teoria da informação incluem o shannon (Sh), a unidade natural de informação (nat) e o hartley (Hart). Um shannon é o valor máximo esperado para as informações necessárias para especificar o estado de um bit de armazenamento. Estes são relacionados por 1 Sh ≈ 0,693 nat ≈ 0,301 Hart.

Alguns autores também definem um binit como uma unidade de informação arbitrária equivalente a algum número fixo de bits, mas não especificado.

Veja também

Referências

links externos

  • Calculadora de bits - uma ferramenta que fornece conversões entre bit, byte, kilobit, kilobyte, megabit, megabyte, gigabit, gigabyte
  • BitXByteConverter - uma ferramenta para calcular tamanhos de arquivos, capacidade de armazenamento e informações digitais em várias unidades