Corte de bits

ImprimirCitar

El bit slicing es una técnica para construir un procesador a partir de módulos de procesadores de menor ancho de bits, con el fin de aumentar la longitud de la palabra; en teoría para crear una unidad central de procesamiento (CPU) de n bits arbitraria. Cada uno de estos módulos componentes procesa un campo de bits o un "segmento" de un operando. Los componentes de procesamiento agrupados tendrían entonces la capacidad de procesar la longitud completa de palabra elegida de un diseño de software determinado.

El corte de bits prácticamente desapareció debido a la llegada del microprocesador. Recientemente se ha utilizado en unidades lógicas aritméticas (ALU) para computadoras cuánticas y como técnica de software, p. para criptografía en CPU x86.

Detalles operativos

Los procesadores de segmento de bits (BSP) generalmente incluyen unidades lógicas aritméticas (ALU) de 1, 2, 4, 8 o 16 bits y líneas de control (incluidas señales de acarreo o desbordamiento que son internas al procesador en sistemas no integrados). -diseños de CPU en bits).

Por ejemplo, dos chips ALU de 4 bits podrían disponerse uno al lado del otro, con líneas de control entre ellos, para formar una ALU de 8 bits (el resultado no necesita ser una potencia de dos, por ejemplo, tres unidades de 1 bit pueden formar una ALU de 3 bits, por lo tanto CPU de 3 bits (o n bits), mientras que la CPU de 3 bits, o cualquier CPU con mayor número impar de bits, no se ha fabricado ni vendido en volumen. ). Se podrían utilizar cuatro chips ALU de 4 bits para construir una ALU de 16 bits. Se necesitarían ocho chips para construir una palabra ALU de 32 bits. El diseñador podría agregar tantas porciones como fuera necesario para manipular palabras de mayor longitud.

Se utilizaría un microsecuenciador o ROM de control para ejecutar lógica para proporcionar datos y señales de control para regular la función de las ALU componentes.

Microprocesadores bit-slice conocidos:

  • Rebanada de 2 bits:
    • Intel 3000 family (1974, now discontinued), p. ej. Intel 3002 con Intel 3001, segunda fuente por Signetics e Intersil
    • Signetics 8X02 family (1977, now discontinued)
  • Rebanada de 4 bits:
    • Familia IMP nacional, compuesta principalmente por el IMP-00A/520 RALU (también conocido como MM5750) y varios microcódigos y chips de control ROM enmascarados (CROM, también conocido como MM5751)
      • National GPC/P / IMP-4 (1973), second-sourced by Rockwell
      • IMP-8 nacional, un procesador de 8 bits basado en el chipset IMP, utilizando dos chips RALU y un chip CROM
      • National IMP-16, un procesador de 16 bits basado en el chipset IMP, por ejemplo, cuatro chips RALU con uno cada chips IMP16A/521D e IMP16A/522D CROM (los chips opcionales adicionales de CROM adicionales pueden proporcionar instrucciones set additionis)
    • AMD Am2900 family (1975), p. ej. AM2901, AM2901A, AM2903
    • Monolithic Memories 5700/6700 family (1974) e.g. MMI 5701 / MMI 6701, segunda fuente de los semiconductores ITT
    • Texas Instruments SBP0400 (1975) y SBP0401, adaptables hasta 16 bits
    • Texas Instruments SN74181 (1970)
    • Texas Instruments SN74S281 con SN74S282
    • Texas Instruments SN74S481 con SN74S482 (1976)
    • Fairchild 33705
    • Fairchild 9400 (MACROLOGIC), 4700
    • Motorola M10800 familia (1979), por ejemplo MC10800
    • Raytheon RP-16, un procesador de 16 bits compuesto por siete circuitos integrados, utilizando cuatro chips RALU y tres chips CROM.
  • Rebanada de 8 bits:
U830C
    • Four-Phase Systems AL1 (1969, considerado como el primer microprocesador utilizado en un producto comercial, ahora descontinuado)
    • Texas Instruments SN54AS888 / SN74AS888
    • Fairchild 100K
    • ZMD U830C [de] (1978/1981), hasta 32 bits
  • Rebanada de 16 bits:
    • Familia AMD Am29100
    • Sinopias 49C402
    • ZFT Robotron/ZFTM Dresden U840 [de] (1979/1982), sin libertad

Necesidad histórica

El corte de bits, aunque no se llamaba así en ese momento, también se usaba en computadoras antes de los circuitos integrados a gran escala (LSI, el predecesor de los VLSI actuales, o circuitos de integración a muy gran escala). La primera máquina de corte de bits fue la EDSAC 2, construida en el Laboratorio de Matemáticas de la Universidad de Cambridge en 1956-1958.

Antes de mediados de los años 1970 y finales de los años 1980 hubo cierto debate sobre cuánto ancho de autobús era necesario en un sistema informático determinado para que funcionara. La tecnología y las piezas de chips de silicio eran mucho más caras que hoy. El uso de varias ALU más simples y, por lo tanto, menos costosas se consideró una forma de aumentar la potencia informática de una manera rentable. Si bien en ese momento se hablaba de microprocesadores de 32 bits, pocos estaban en producción.

Los mainframes de la serie UNIVAC 1100 (una de las series más antiguas, originada en la década de 1950) tienen una arquitectura de 36 bits, y el 1100/60 introducido en 1979 utilizó nueve chips Motorola MC10800 ALU de 4 bits para implementar el ancho de palabra necesario. utilizando circuitos integrados modernos.

En aquella época, los procesadores de 16 bits eran comunes pero caros, y los procesadores de 8 bits, como el Z80, se utilizaban ampliamente en el naciente mercado de ordenadores domésticos.

La combinación de componentes para producir productos de bits permitió a los ingenieros y estudiantes crear computadoras más potentes y complejas a un costo más razonable, utilizando componentes disponibles en el mercado que podían configurarse a medida. Las complejidades de crear una nueva arquitectura informática se redujeron en gran medida cuando los detalles de la ALU ya estaban especificados (y depurados).

La principal ventaja fue que la división de bits hizo posible económicamente en procesadores más pequeños el uso de transistores bipolares, que conmutan mucho más rápido que los transistores NMOS o CMOS. Esto permitió velocidades de reloj mucho más altas, donde se necesitaba velocidad (por ejemplo, para funciones DSP o transformación de matrices) o, como en Xerox Alto, la combinación de flexibilidad y velocidad, antes de que las CPU discretas pudieran ofrecer eso.

Uso moderno

Uso de software en hardware que no es de bits

En tiempos más recientes, Matthew Kwan reutilizó el término corte de bits para referirse a la técnica de utilizar una CPU de propósito general para implementar múltiples máquinas virtuales simples paralelas utilizando instrucciones lógicas generales para realizar una sola instrucción de datos múltiples (SIMD). ) operaciones. Esta técnica también se conoce como SIMD dentro de un registro (SWAR).

Esto fue inicialmente en referencia al artículo de 1997 de Eli Biham Una nueva y rápida implementación de DES en software, que logró mejoras significativas en el rendimiento de DES mediante el uso de este método.

Computadoras cuánticas cortadas en bits

Para simplificar la estructura del circuito y reducir el costo de hardware de las computadoras cuánticas (propuestas para ejecutar el conjunto de instrucciones MIPS32), se utilizó una unidad lógica aritmética (ALU) de segmento de bits (ALU) superconductora de 50 GHz y "4 bits para procesamiento rápido de 32 bits. Se demostraron microprocesadores cuánticos de flujo único".

Más resultados...
Tamaño del texto:
Copiar