Gigabyte

Ajustar Compartir Imprimir Citar
Unidades de múltiples bytes
Decimal
Valor métrica
1000 kBkilobyte
10002MBmegabyte
10003GBgigabyte
10004TBterabyte
10005PBpetabyte
10006EBexabyte
10007ZBzettabyte
10008YBYottabyte
10009RBronnabyte
100010QBquettabyte
binario
Valor IEC Memoria
1024 KiBkibibyte KBkilobyte
10242MiBmebibyte MBmegabyte
10243GiBgibibyte GBgigabyte
10244TiBtebibyte TBterabyte
10245PiBpebibyte
10246EiBexbibyte
10247ZiBzebibyte
10248YiBYobibyte
Órdenes de magnitud de los datos

El gigabyte () es un múltiplo del byte unitario de información digital. El prefijo giga significa 109 en el Sistema Internacional de Unidades (SI). Por lo tanto, un gigabyte son mil millones de bytes. El símbolo de unidad para el gigabyte es GB.

Esta definición se usa en todos los contextos de la ciencia (especialmente la ciencia de datos), la ingeniería, los negocios y muchas áreas de la informática, incluidas las capacidades de almacenamiento de discos duros, unidades de estado sólido y cintas, así como las velocidades de transmisión de datos. Sin embargo, el término también se usa en algunos campos de la informática y la tecnología de la información para denotar 1073< span style="margin-left:0.25em">741824 (10243 o 230) bytes, particularmente para tamaños de RAM. Por lo tanto, antes de 1998, algunos usos de gigabyte han sido ambiguos. Para resolver esta dificultad, IEC 80000-13 aclara que un gigabyte (GB) son 109 bytes y especifica el término gibibyte (GiB) para denote 230 bytes. Estas diferencias todavía se ven fácilmente, por ejemplo, cuando Microsoft Windows muestra la capacidad de una unidad de 400 GB como 372 GB en lugar de 372 GiB. De manera análoga, un módulo de memoria que está etiquetado con un tamaño de "1GB" tiene un gibibyte (1GiB) de capacidad de almacenamiento.

En respuesta al litigio sobre si los fabricantes de dispositivos de almacenamiento electrónico deben cumplir con Microsoft Windows' uso de una definición binaria de "GB" en lugar de la definición métrica/decimal, el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California rechazó ese argumento y dictaminó que "el Congreso de los Estados Unidos ha considerado que la definición decimal de gigabyte es la definición 'preferida' uno a los efectos de 'U.S. comercio y comercio.'"

Definición

Este disco duro de 2,5 pulgadas puede contener 500 GB (es decir, 500 billones de bytes) de datos.

El término gigabyte tiene una definición estándar de 10003 bytes, así como un significado desaconsejado de 10243 bytes. El último uso binario se originó como una jerga técnica de compromiso para los múltiplos de bytes que debían expresarse en una potencia de 2, pero carecían de un nombre conveniente. Como 1024 (210) es aproximadamente 1000 (103), lo que corresponde aproximadamente a múltiplos SI, también se usó para múltiplos binarios.

En 1998, la Comisión Electrotécnica Internacional (IEC, por sus siglas en inglés) publicó estándares para prefijos binarios, que exigen que el gigabyte sea estrictamente 10003 bytes y el gibibyte sea 10243 bytes. A fines de 2007, el estándar IEC había sido adoptado por IEEE, EU y NIST, y en 2009 se incorporó al Sistema Internacional de Cantidades. Sin embargo, el término gigabyte continúa siendo ampliamente utilizado con los siguientes dos significados diferentes:

Base 10 (decimal)

Basada en potencias de 10, esta definición usa el prefijo giga- como se define en el Sistema Internacional de Unidades (SI). Esta es la definición recomendada por la Comisión Electrotécnica Internacional (IEC). Esta definición se usa en contextos de redes y en la mayoría de los medios de almacenamiento, particularmente discos duros, almacenamiento basado en flash y DVD, y también es consistente con los otros usos del prefijo SI en informática, como velocidades de reloj de CPU o medidas de rendimiento. El administrador de archivos de Mac OS X versión 10.6 y versiones posteriores son un ejemplo notable de este uso en el software, que informa sobre el tamaño de los archivos en unidades decimales.

Base 2 (binario)

La definición binaria utiliza potencias de base 2, al igual que el principio arquitectónico de las computadoras binarias. Este uso está ampliamente promulgado por algunos sistemas operativos, como Microsoft Windows, en referencia a la memoria de la computadora (por ejemplo, RAM). Esta definición es sinónimo de la unidad inequívoca gibibyte.

Confusión del consumidor

Desde la primera unidad de disco, la IBM 350, los fabricantes de unidades de disco expresaron las capacidades de las unidades de disco duro mediante prefijos decimales. Con la llegada de las capacidades de disco de rango de gigabytes, los fabricantes basaron la mayoría de las capacidades de disco duro de los consumidores en ciertas clases de tamaño expresadas en gigabytes decimales, como "500 GB". La capacidad exacta de un modelo de unidad determinado suele ser un poco mayor que la designación de clase. Prácticamente todos los fabricantes de unidades de disco duro y dispositivos de memoria flash continúan definiendo un gigabyte como 1000 000000bytes , que se muestra en el empaque. Algunos sistemas operativos, como OS X, expresan la capacidad del disco duro o el tamaño del archivo mediante multiplicadores decimales, mientras que otros, como Microsoft Windows, informan el tamaño mediante multiplicadores binarios. Esta discrepancia genera confusión, ya que un disco con una capacidad anunciada de, por ejemplo, 400 GB (lo que significa 400000000000 bytes, igual a 372 GiB) podría ser informado por el sistema operativo como "372 GB ".

Los estándares de memoria JEDEC usan la nomenclatura IEEE 100 que cita el gigabyte como 1073 741824bytes (230 bytes).

La diferencia entre unidades basadas en prefijos decimales y binarios aumenta como una función semilogarítmica (logaritmo lineal); por ejemplo, el valor de kilobyte decimal es casi el 98 % del kibibyte, un megabyte es menos del 96 % de un mebibyte., y un gigabyte es poco más del 93 % del valor de un gibibyte. Esto significa que un disco duro de 300 GB (279 GiB) puede indicarse de diversas formas como "300 GB", "279 GB" o "279 GiB", según el sistema operativo. A medida que aumentan los tamaños de almacenamiento y se utilizan unidades más grandes, estas diferencias se vuelven más pronunciadas.

Demandas en Estados Unidos

Una demanda decidida en 2019 que surgió de un presunto incumplimiento de contrato y otras reclamaciones sobre las definiciones binarias y decimales utilizadas para "gigabyte" han terminado a favor de los fabricantes, y los tribunales han sostenido que la definición legal de gigabyte o GB es 1 GB = 1 000 000 000 (109) bytes (la definición decimal). Específicamente, los tribunales sostuvieron que "el Congreso de los EE. UU. ha considerado que la definición decimal de gigabyte es la 'preferida' uno a los efectos de 'U.S. comercio y comercio'.... La Legislatura de California también ha adoptado el sistema decimal para todas las 'transacciones en este estado'."

Las demandas anteriores terminaron en un acuerdo sin ningún fallo judicial sobre la cuestión, como una demanda contra el fabricante de unidades Western Digital. Western Digital resolvió el desafío y agregó exenciones de responsabilidad explícitas a los productos de que la capacidad utilizable puede diferir de la capacidad anunciada. Seagate fue demandado por motivos similares y también llegó a un acuerdo.

Otros contextos

Debido a su diseño físico, la capacidad de los dispositivos modernos de memoria de acceso aleatorio para computadoras, como los módulos DIMM, es siempre un múltiplo de una potencia de 1024. Por lo tanto, es conveniente usar prefijos que denoten potencias de 1024, conocidos como prefijos binarios., al describirlos. Por ejemplo, una capacidad de memoria de 1073741824bytes se expresa convenientemente como 1 GiB en lugar de 1,074 GB. Sin embargo, la especificación anterior se cita a menudo como "1 GB" cuando se aplica a la memoria de acceso aleatorio.

El software asigna memoria en diversos grados de granularidad según sea necesario para cumplir con los requisitos de la estructura de datos y, por lo general, no se requieren múltiplos binarios. Otras capacidades y velocidades de la computadora, como el tamaño del hardware de almacenamiento, las velocidades de transferencia de datos, las velocidades de reloj, las operaciones por segundo, etc., no dependen de una base inherente y, por lo general, se presentan en unidades decimales. Por ejemplo, el fabricante de un dispositivo de "300 GB" el disco duro reclama una capacidad de 300000000000bytes, no 300 × 10243 (que sería 322122547200) bytes.

Ejemplos de almacenamiento del tamaño de un gigabyte

Carácter Unicode

El "gigabyte" el símbolo está codificado por Unicode en el punto de código U+3387 GB CUADRADOS.