Pedaço

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Unidade de informação

O bit é a unidade de informação mais básica em computação e comunicação digital. O bit também significa armazenamento binário em computação ou um símbolo binário (dados) em comunicações digitais em que um bit, como uma unidade, de informação podem ser armazenados ou codificados.

O nome é um portmanteau de dígito binário. O bit representa um estado lógico com um dos dois valores possíveis. Esses valores são mais comumente representados como "1" ou "0", mas outras representações como true/false, sim/não, ligado/desligado ou +/ também são comumente usados.

A relação entre esses valores e os estados físicos do armazenamento ou dispositivo subjacente é uma questão de convenção, e atribuições diferentes podem ser usadas até mesmo dentro do mesmo dispositivo ou programa. Pode ser implementado fisicamente com um dispositivo de dois estados.

Um grupo contíguo de dígitos binários é comumente chamado de cadeia de bits, vetor de bits ou matriz de bits unidimensional (ou multidimensional). Um grupo de oito bits é chamado de byte, mas historicamente o tamanho do byte não é estritamente definido. Frequentemente, as palavras meia, cheia, dupla e quádrupla consistem em um número de bytes que é uma pequena potência de dois. Uma string de quatro bits é um nibble.

Na teoria da informação, um bit é a entropia de informação de uma variável binária aleatória que é 0 ou 1 com igual probabilidade, ou a informação que é obtida quando o valor de tal variável se torna conhecido. Como unidade de informação, o bit também é conhecido como shannon, em homenagem a Claude E. Shannon.

O símbolo (sistema métrico) para o dígito binário é "bit" conforme o padrão IEC 80000-13:2008, ou o caractere minúsculo "b", conforme o padrão IEEE 1541-2002. O uso deste último pode criar confusão com o "B" que é usado para o byte.

História

A codificação de dados por bits discretos foi usada nos cartões perfurados inventados por Basile Bouchon e Jean-Baptiste Falcon (1732), desenvolvidos por Joseph Marie Jacquard (1804) e posteriormente adotados por Semyon Korsakov, Charles Babbage, Hermann Hollerith, e os primeiros fabricantes de computadores como a IBM. Uma variante dessa ideia foi a fita de papel perfurada. Em todos esses sistemas, o meio (cartão ou fita) carregava conceitualmente uma série de posições de furos; cada posição pode ser perfurada ou não, carregando assim um bit de informação. A codificação de texto por bits também foi usada no código Morse (1844) e nas primeiras máquinas de comunicação digital, como teletipos e máquinas de cotações de ações (1870).

Ralph Hartley sugeriu o uso de uma medida logarítmica de informação em 1928. Claude E. Shannon usou pela primeira vez a palavra "bit" em seu artigo seminal de 1948, "A Mathematical Theory of Communication". Ele atribuiu sua origem a John W. Tukey, que havia escrito um memorando da Bell Labs em 9 de janeiro de 1947, no qual contratava "dígito de informação binária" para simplesmente "bit". Vannevar Bush havia escrito em 1936 sobre "bits de informação" que podiam ser armazenados nos cartões perfurados usados nos computadores mecânicos da época. O primeiro computador programável, construído por Konrad Zuse, usava notação binária para números.

Representação física

Um bit pode ser armazenado por um dispositivo digital ou outro sistema físico que exista em qualquer um dos dois estados distintos possíveis. Estes podem ser os dois estados estáveis de um flip-flop, duas posições de um interruptor elétrico, dois níveis distintos de tensão ou corrente permitidos por um circuito, dois níveis distintos de intensidade de luz, duas direções de magnetização ou polarização, a orientação de duplo reversível DNA encalhado, etc.

Os bits podem ser implementados de várias formas. Na maioria dos dispositivos de computação modernos, um bit é geralmente representado por uma tensão elétrica ou pulso de corrente, ou pelo estado elétrico de um circuito flip-flop.

Para dispositivos que usam lógica positiva, um valor de dígito de 1 (ou um valor lógico verdadeiro) é representado por uma tensão mais positiva em relação à representação de 0. Diferentes famílias lógicas requerem diferentes tensões, e as variações são permitidas para levar em consideração o envelhecimento do componente e a imunidade a ruídos. Por exemplo, na lógica transistor-transistor (TTL) e circuitos compatíveis, valores de dígitos 0 e 1 na saída de um dispositivo são representados por não mais que 0,4 volts e não menos que 2,6 volts, respectivamente; enquanto as entradas TTL são especificadas para reconhecer 0,8 volts ou menos como 0 e 2,2 volts ou acima como 1.

Transmissão e processamento

Os bits são transmitidos um de cada vez na transmissão serial e por um número múltiplo de bits na transmissão paralela. Uma operação bit a bit opcionalmente processa os bits um de cada vez. As taxas de transferência de dados geralmente são medidas em múltiplos SI decimais da unidade bit por segundo (bit/s), como kbit/s.

Armazenamento

Nos primeiros dispositivos de processamento de informações não eletrônicos, como o tear de Jacquard ou o mecanismo analítico de Babbage, um bit era frequentemente armazenado como a posição de uma alavanca ou engrenagem mecânica, ou a presença ou ausência de um furo em um ponto específico de um cartão de papel ou fita. Os primeiros dispositivos elétricos para lógica discreta (como elevadores e circuitos de controle de semáforos, interruptores telefônicos e o computador de Konrad Zuse) representavam bits como os estados de relés elétricos que podiam ser "abertos" ou "fechado". Quando os relés foram substituídos por tubos de vácuo, a partir da década de 1940, os fabricantes de computadores experimentaram vários métodos de armazenamento, como pulsos de pressão viajando por uma linha de atraso de mercúrio, cargas armazenadas na superfície interna de um tubo de raios catódicos ou pontos opacos. impressos em discos de vidro por técnicas fotolitográficas.

Nas décadas de 1950 e 1960, esses métodos foram amplamente suplantados por dispositivos de armazenamento magnético, como memória de núcleo magnético, fitas magnéticas, tambores e discos, onde um bit era representado pela polaridade da magnetização de uma determinada área de um ferromagnético filme, ou por uma mudança na polaridade de uma direção para a outra. O mesmo princípio foi usado posteriormente na memória de bolha magnética desenvolvida na década de 1980 e ainda é encontrado em vários itens de fita magnética, como bilhetes de metrô e alguns cartões de crédito.

Na memória semicondutora moderna, como a memória dinâmica de acesso aleatório, os dois valores de um bit podem ser representados por dois níveis de carga elétrica armazenada em um capacitor. Em certos tipos de matrizes lógicas programáveis e memória somente leitura, um bit pode ser representado pela presença ou ausência de um caminho condutor em um determinado ponto de um circuito. Nos discos ópticos, um bit é codificado como a presença ou ausência de um poço microscópico em uma superfície reflexiva. Em códigos de barras unidimensionais, os bits são codificados como a espessura de linhas pretas e brancas alternadas.

Unidade e símbolo

O bit não está definido no Sistema Internacional de Unidades (SI). No entanto, a Comissão Eletrotécnica Internacional emitiu o padrão IEC 60027, que especifica que o símbolo para dígito binário deve ser 'bit', e isso deve ser usado em todos os múltiplos, como 'kbit', por kilobit. No entanto, a letra minúscula 'b' também é amplamente utilizado e foi recomendado pelo padrão IEEE 1541 (2002). Em contraste, a letra maiúscula 'B' é o símbolo padrão e usual para byte.

Decimal
ValorMetricidade
1000 kbitkg
10002Mbitmegabito
10003Gbitgigabit
10004TbitTerabit
10005PBpetabit
10006Ebitexposição
10007Zbit- Não.
10008YbitO que é?
10009RbitNão.
100010.QbitQue lindo!
Binário
ValorICEJEDEC
1024 KibitKibibit KbitKbkg
10242MibitMebibit MbitMbmegabito
10243Gibitgibibit GbitG.gigabit
10244TibitO que é?
10245PibitPebibit
10246EibitExbito
10247ZibitZebibit
10248YibitO que é?
Ordens de magnitude dos dados

Múltiplos bits

Múltiplos bits podem ser expressos e representados de várias maneiras. Para a conveniência de representar grupos de bits comumente recorrentes na tecnologia da informação, várias unidades de informação têm sido tradicionalmente usadas. O mais comum é o byte unitário, cunhado por Werner Buchholz em junho de 1956, que historicamente foi usado para representar o grupo de bits usado para codificar um único caractere de texto (até que a codificação multibyte UTF-8 assumiu) em um computador e para isso razão pela qual ele foi usado como o elemento endereçável básico em muitas arquiteturas de computador. A tendência no design de hardware convergiu para a implementação mais comum de usar oito bits por byte, como é amplamente utilizado hoje. No entanto, devido à ambiguidade de depender do design de hardware subjacente, o octeto de unidade foi definido para denotar explicitamente uma sequência de oito bits.

Os computadores geralmente manipulam bits em grupos de tamanho fixo, convencionalmente chamados de "palavras". Assim como o byte, o número de bits em uma palavra também varia de acordo com o design do hardware e geralmente varia entre 8 e 80 bits, ou até mais em alguns computadores especializados. No século 21, computadores pessoais ou servidores de varejo têm um tamanho de palavra de 32 ou 64 bits.

O Sistema Internacional de Unidades define uma série de prefixos decimais para múltiplos de unidades padronizadas que também são comumente usadas com o bit e o byte. Os prefixos kilo (103) até yotta (1024) incrementam em múltiplos de mil, e as unidades correspondentes são o kilobit (kbit) até o yottabit (Ybit).

Capacidade de informação e compressão de informação

Quando a capacidade de informação de um sistema de armazenamento ou canal de comunicação é apresentada em bits ou bits por segundo, isso geralmente se refere a dígitos binários, que é um hardware de computador capacidade de armazenar dados binários (0 ou 1, up ou down, atual ou não, etc.). A capacidade de informação de um sistema de armazenamento é apenas um limite superior para a quantidade de informação armazenada nele. Se os dois valores possíveis de um bit de armazenamento não forem igualmente prováveis, esse bit de armazenamento contém menos de um bit de informação. Se o valor for completamente previsível, a leitura desse valor não fornece nenhuma informação (zero bits entrópicos, porque nenhuma resolução de incerteza ocorre e, portanto, nenhuma informação está disponível). Se um arquivo de computador que usa n bits de armazenamento contiver apenas m < n bits de informação, então essas informações podem, em princípio, ser codificadas em cerca de m bits, pelo menos em média. Este princípio é a base da tecnologia de compressão de dados. Usando uma analogia, os dígitos binários do hardware referem-se à quantidade de espaço de armazenamento disponível (como o número de baldes disponíveis para armazenar coisas) e ao conteúdo da informação do preenchimento, que vem em diferentes níveis de granularidade (fino ou grosso, ou seja, informação comprimida ou não comprimida). Quando a granularidade é mais fina – quando as informações são mais comprimidas – o mesmo balde pode conter mais.

Por exemplo, estima-se que a capacidade tecnológica combinada do mundo para armazenar informações fornece 1.300 exabytes de dígitos de hardware. No entanto, quando esse espaço de armazenamento é preenchido e o conteúdo correspondente é compactado de maneira ideal, isso representa apenas 295 exabytes de informação. Quando compactado de maneira ideal, a capacidade de carga resultante se aproxima da informação de Shannon ou da entropia da informação.

Computação baseada em bits

Certas instruções bit a bit do processador de computador (como conjunto de bits) operam no nível de manipulação de bits em vez de manipulação de dados interpretados como um agregado de bits.

Na década de 1980, quando os monitores de computador com bitmap se tornaram populares, alguns computadores forneciam instruções especializadas de transferência de bloco de bits para definir ou copiar os bits que correspondiam a uma determinada área retangular na tela.

Na maioria dos computadores e linguagens de programação, quando um bit dentro de um grupo de bits, como um byte ou palavra, é referido, geralmente é especificado por um número de 0 para cima correspondente à sua posição dentro do byte ou palavra. No entanto, 0 pode se referir ao bit mais ou menos significativo, dependendo do contexto.

Outras unidades de informação

Semelhante ao torque e energia na física; as informações teóricas da informação e o tamanho do armazenamento de dados têm a mesma dimensionalidade das unidades de medida, mas em geral não há sentido em adicionar, subtrair ou combinar as unidades matematicamente, embora uma possa atuar como um limite sobre a outra.

As unidades de informação usadas na teoria da informação incluem o shannon (Sh), a unidade natural de informação (nat) e o hartley (Hart). Um shannon é a quantidade máxima de informação necessária para especificar o estado de um bit de armazenamento. Eles estão relacionados por 1 Sh ≈ 0,693 nat ≈ 0,301 Hart.

Alguns autores também definem um binit como uma unidade de informação arbitrária equivalente a um número fixo, mas não especificado, de bits.

Contenido relacionado

Sistema Digital de Sinalização de Acesso 2

Digital Access Signaling System 2 é um protocolo obsoleto definido pela British Telecom para links digitais para PSTN baseados em ISDN. Embora ainda...

Padrão de design

Um padrão de design é a forma reutilizável de uma solução para um problema de design. A ideia foi apresentada pelo arquitecto Christopher Alexander e foi...

ASIC (desambiguação)

No campo da tecnologia eletrônica, ASIC significa circuito integrado de aplicação específica, um circuito integrado personalizado para uma tarefa...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save