Bit

ImprimirCitar
Dependencia de información

El bit es la unidad de información más básica en informática y comunicaciones digitales. El nombre es un acrónimo de dígito binario. El bit representa un estado lógico con uno de dos valores posibles. Estos valores se representan más comúnmente como "1" o "0", pero otras representaciones como verdadero/falso, /no, encendido/apagado o +/ también se usan comúnmente.

La relación entre estos valores y los estados físicos del almacenamiento o dispositivo subyacente es una cuestión de convención, y se pueden usar diferentes asignaciones incluso dentro del mismo dispositivo o programa. Puede implementarse físicamente con un dispositivo de dos estados.

El símbolo del dígito binario es "bit" por recomendación de la norma IEC 80000-13:2008, o el carácter "b" en minúsculas, según lo recomendado por la norma IEEE 1541-2002.

Un grupo contiguo de dígitos binarios se denomina comúnmente cadena de bits, vector de bits o matriz de bits unidimensional (o multidimensional). Un grupo de ocho bits se llama un byte, pero históricamente el tamaño del byte no está estrictamente definido. Con frecuencia, las palabras medias, completas, dobles y cuádruples consisten en un número de bytes que es una potencia baja de dos. Una cadena de cuatro bits es un nibble.

En la teoría de la información, un bit es la entropía de información de una variable binaria aleatoria que es 0 o 1 con igual probabilidad, o la información que se obtiene cuando se conoce el valor de dicha variable. Como unidad de información, el bit también se conoce como shannon, en honor a Claude E. Shannon.

Historia

La codificación de datos por bits discretos se utilizó en las tarjetas perforadas inventadas por Basile Bouchon y Jean-Baptiste Falcon (1732), desarrolladas por Joseph Marie Jacquard (1804) y posteriormente adoptadas por Semyon Korsakov, Charles Babbage, Hermann Hollerith y los primeros fabricantes de computadoras como IBM. Una variante de esa idea fue la cinta de papel perforado. En todos esos sistemas, el medio (tarjeta o cinta) llevaba conceptualmente una serie de posiciones de agujeros; cada posición podría ser perforada o no, por lo que llevaría un bit de información. La codificación de texto por bits también se usó en el código Morse (1844) y en las primeras máquinas de comunicaciones digitales, como los teletipos y las máquinas de cotizaciones bursátiles (1870).

Ralph Hartley sugirió el uso de una medida logarítmica de información en 1928. Claude E. Shannon utilizó por primera vez la palabra "bit" en su artículo seminal de 1948 'Una teoría matemática de la comunicación'. Atribuyó su origen a John W. Tukey, quien había escrito un memorando de Bell Labs el 9 de enero de 1947 en el que contrató "dígito de información binaria" para simplemente "bit". Vannevar Bush había escrito en 1936 sobre "bits of information" que podía almacenarse en las tarjetas perforadas que se usaban en las computadoras mecánicas de la época. La primera computadora programable, construida por Konrad Zuse, usaba notación binaria para los números.

Representación física

Un dispositivo digital u otro sistema físico puede almacenar un bit que existe en cualquiera de dos posibles estados distintos. Estos pueden ser los dos estados estables de un flip-flop, dos posiciones de un interruptor eléctrico, dos niveles distintos de voltaje o corriente permitidos por un circuito, dos niveles distintos de intensidad de luz, dos direcciones de magnetización o polarización, la orientación de dobles reversibles. ADN de cadena, etc.

Los bits se pueden implementar de varias formas. En la mayoría de los dispositivos informáticos modernos, un bit suele representarse mediante un voltaje eléctrico o un pulso de corriente, o mediante el estado eléctrico de un circuito flip-flop.

Para dispositivos que utilizan lógica positiva, un valor de dígito de 1 (o un valor lógico de verdadero) se representa mediante un voltaje más positivo en relación con la representación de 0. Los voltajes específicos son diferentes para diferentes familias lógicas y se permiten variaciones para permitir el envejecimiento de los componentes y la inmunidad al ruido. Por ejemplo, en lógica transistor-transistor (TTL) y circuitos compatibles, los valores de dígitos 0 y 1 en la salida de un dispositivo están representados por no más de 0,4 voltios y no menos de 2,6 voltios, respectivamente; mientras que las entradas TTL están especificadas para reconocer 0,8 voltios o menos como 0 y 2,2 voltios o más como 1.

Transmisión y procesamiento

Los bits se transmiten uno a la vez en la transmisión en serie y por un número múltiple de bits en la transmisión en paralelo. Una operación bit a bit opcionalmente procesa los bits uno a la vez. Las tasas de transferencia de datos generalmente se miden en múltiplos SI decimales de la unidad bit por segundo (bit/s), como kbit/s.

Almacenamiento

En los primeros dispositivos de procesamiento de información no electrónicos, como el telar de Jacquard o el motor analítico de Babbage, a menudo se almacenaba un bit como la posición de una palanca o engranaje mecánico, o la presencia o ausencia de un agujero en un punto específico de una tarjeta de papel o cinta. Los primeros dispositivos eléctricos para la lógica discreta (como los circuitos de control de ascensores y semáforos, interruptores telefónicos y la computadora de Konrad Zuse) representaban bits como los estados de los relés eléctricos que podían ser 'abiertos' o 'abiertos'. o "cerrado". Cuando los relés fueron reemplazados por tubos de vacío, a partir de la década de 1940, los fabricantes de computadoras experimentaron con una variedad de métodos de almacenamiento, como pulsos de presión que viajaban por una línea de retardo de mercurio, cargas almacenadas en la superficie interior de un tubo de rayos catódicos o puntos opacos. impreso en discos de vidrio mediante técnicas fotolitográficas.

En las décadas de 1950 y 1960, estos métodos fueron reemplazados en gran medida por dispositivos de almacenamiento magnético como memoria de núcleo magnético, cintas magnéticas, tambores y discos, donde un bit estaba representado por la polaridad de magnetización de un área determinada de un ferromagnético. película, o por un cambio de polaridad de una dirección a la otra. El mismo principio se usó más tarde en la memoria de burbuja magnética desarrollada en la década de 1980, y todavía se encuentra en varios elementos de banda magnética, como boletos de metro y algunas tarjetas de crédito.

En la memoria de semiconductores moderna, como la memoria dinámica de acceso aleatorio, los dos valores de un bit pueden representarse mediante dos niveles de carga eléctrica almacenados en un capacitor. En ciertos tipos de arreglos lógicos programables y memoria de solo lectura, un bit puede estar representado por la presencia o ausencia de una ruta conductora en un punto determinado de un circuito. En los discos ópticos, un bit se codifica como la presencia o ausencia de un hoyo microscópico en una superficie reflectante. En los códigos de barras unidimensionales, los bits se codifican como el grosor de líneas alternas en blanco y negro.

Unidad y símbolo

El bit no está definido en el Sistema Internacional de Unidades (SI). Sin embargo, la Comisión Electrotécnica Internacional emitió la norma IEC 60027, que especifica que el símbolo del dígito binario debe ser 'bit', y debe usarse en todos los múltiplos, como 'kbit', por kilobit. Sin embargo, la letra minúscula 'b' también se usa ampliamente y fue recomendado por el estándar IEEE 1541 (2002). Por el contrario, la letra mayúscula 'B' es el símbolo estándar y habitual para byte.

Decimal
Valormétrica
1000 kbitkilobito
10002Mbitmegabit
10003Gbitgigabit
10004Tbitterabit
10005Pbitpetabit
10006Ebitexabit
10007Zbitzettabit
10008YbitYottabit
10009Rbitronnabit
100010Qbitquettabit
binario
ValorIECJEDEC
1024 Kibitkibibit KbitKbkilobito
10242Mibitmebibit MbitMbmegabit
10243Gibitgibibit GbitGbgigabit
10244Tibittebibit
10245Pibitpebibit
10246Eibitexbibit
10247Zibitzebibit
10248Yibityobibit
Órdenes de magnitud de los datos

Múltiples bits

Los bits múltiples se pueden expresar y representar de varias maneras. Para facilitar la representación de grupos de bits recurrentes en la tecnología de la información, tradicionalmente se han utilizado varias unidades de información. El más común es el byte unitario, acuñado por Werner Buchholz en junio de 1956, que históricamente se usaba para representar el grupo de bits usados para codificar un solo carácter de texto (hasta que se hizo cargo la codificación multibyte UTF-8) en una computadora y para esto razón por la que se utilizó como el elemento direccionable básico en muchas arquitecturas informáticas. La tendencia en el diseño de hardware convergió en la implementación más común de usar ocho bits por byte, como se usa ampliamente en la actualidad. Sin embargo, debido a la ambigüedad de confiar en el diseño de hardware subyacente, el octeto de unidad se definió para denotar explícitamente una secuencia de ocho bits.

Las computadoras suelen manipular bits en grupos de un tamaño fijo, llamados convencionalmente "palabras". Al igual que el byte, la cantidad de bits en una palabra también varía según el diseño del hardware y, por lo general, oscila entre 8 y 80 bits, o incluso más en algunas computadoras especializadas. En el siglo XXI, las computadoras personales o de servidor minoristas tienen un tamaño de palabra de 32 o 64 bits.

El Sistema Internacional de Unidades define una serie de prefijos decimales para múltiplos de unidades estandarizadas que también se usan comúnmente con el bit y el byte. Los prefijos kilo (103) a yotta (1024) se incrementan en múltiplos de mil, y las unidades correspondientes son el kilobit (kbit) al yottabit (Ybit).

Capacidad de información y compresión de información

Cuando la capacidad de información de un sistema de almacenamiento o un canal de comunicación se presenta en bits o bits por segundo, esto a menudo se refiere a dígitos binarios, que es un hardware de computadora capacidad para almacenar datos binarios (0 o 1, arriba o abajo, actual o no, etc.). La capacidad de información de un sistema de almacenamiento es solo un límite superior a la cantidad de información almacenada en él. Si los dos valores posibles de un bit de almacenamiento no son igualmente probables, ese bit de almacenamiento contiene menos de un bit de información. Si el valor es completamente predecible, entonces la lectura de ese valor no proporciona ninguna información (cero bits entrópicos, porque no se resuelve la incertidumbre y, por lo tanto, no hay información disponible). Si un archivo de computadora que usa n bits de almacenamiento contiene solo m < n bits de información, entonces esa información se puede codificar en principio en aproximadamente m bits, al menos en promedio. Este principio es la base de la tecnología de compresión de datos. Usando una analogía, los dígitos binarios del hardware se refieren a la cantidad de espacio de almacenamiento disponible (como la cantidad de cubos disponibles para almacenar cosas) y el contenido de información del relleno, que viene en diferentes niveles de granularidad (fino o grueso, es decir, información comprimida o sin comprimir). Cuando la granularidad es más fina, cuando la información está más comprimida, el mismo cubo puede contener más.

Por ejemplo, se estima que la capacidad tecnológica combinada del mundo para almacenar información proporciona 1.300 exabytes de dígitos de hardware. Sin embargo, cuando se llena este espacio de almacenamiento y se comprime de manera óptima el contenido correspondiente, esto solo representa 295 exabytes de información. Cuando se comprime de manera óptima, la capacidad de carga resultante se aproxima a la información de Shannon oa la entropía de la información.

Informática basada en bits

Ciertas instrucciones de procesador de computadora bit a bit (como conjunto de bits) operan al nivel de manipulación de bits en lugar de manipular datos interpretados como un agregado de bits.

En la década de 1980, cuando las pantallas de computadora con mapas de bits se hicieron populares, algunas computadoras proporcionaban instrucciones de transferencia de bloques de bits especializadas para configurar o copiar los bits que correspondían a un área rectangular determinada en la pantalla.

En la mayoría de las computadoras y lenguajes de programación, cuando se hace referencia a un bit dentro de un grupo de bits, como un byte o una palabra, generalmente se especifica mediante un número del 0 en adelante correspondiente a su posición dentro del byte o la palabra. Sin embargo, 0 puede referirse al bit más o menos significativo según el contexto.

Otras unidades de información

Similar a torque y energía en física; la información teórica de la información y el tamaño de almacenamiento de datos tienen la misma dimensionalidad de las unidades de medida, pero en general no tiene sentido sumar, restar o combinar las unidades matemáticamente, aunque una puede actuar como un límite en la otra.

Las unidades de información utilizadas en la teoría de la información incluyen el shannon (Sh), la unidad natural de información (nat) y el hartley (Ciervo). Un shannon es la cantidad máxima de información necesaria para especificar el estado de un bit de almacenamiento. Estos están relacionados por 1 Sh ≈ 0.693 nat ≈ 0.301 Hart.

Algunos autores también definen un binit como una unidad de información arbitraria equivalente a un número fijo pero no especificado de bits.

Contenido relacionado

Kista

Kista es un distrito en el municipio de Rinkeby-Kista, Estocolmo, Suecia. Tiene una posición estratégica entre el aeropuerto principal de Suecia, el...

Telecomunicaciones en Grecia

El mercado de telecomunicaciones y servicios postales en Grecia está regulado por la Comisión Helénica de Telecomunicaciones y Correos...

Generación eléctrica

Generación de electricidad es el proceso de generación de energía eléctrica a partir de fuentes de energía primaria. Para las utilities del sector de la...
Más resultados...
Tamaño del texto:
Editar