Integración a muy gran escala
La integración a muy gran escala (VLSI) es el proceso de creación de un circuito integrado (IC) mediante la combinación de millones o miles de millones de transistores MOS en un solo chip. VLSI comenzó en la década de 1970 cuando se desarrollaron chips de circuito integrado MOS (Metal Oxide Semiconductor) y luego se adoptaron ampliamente, lo que permitió tecnologías complejas de semiconductores y telecomunicaciones. El microprocesador y los chips de memoria son dispositivos VLSI.
Antes de la introducción de la tecnología VLSI, la mayoría de los circuitos integrados tenían un conjunto limitado de funciones que podían realizar. Un circuito electrónico puede consistir en una CPU, ROM, RAM y otra lógica de unión. VLSI permite a los diseñadores de circuitos integrados agregar todo esto en un solo chip.
Historia
Antecedentes
La historia del transistor se remonta a la década de 1920, cuando varios inventores intentaron dispositivos destinados a controlar la corriente en diodos de estado sólido y convertirlos en triodos. El éxito llegó después de la Segunda Guerra Mundial, cuando el uso de cristales de silicio y germanio como detectores de radar condujo a mejoras en la fabricación y la teoría. Los científicos que habían trabajado en el radar volvieron al desarrollo de dispositivos de estado sólido. Con la invención del primer transistor en Bell Labs en 1947, el campo de la electrónica pasó de los tubos de vacío a los dispositivos de estado sólido.
Con el pequeño transistor en sus manos, los ingenieros eléctricos de la década de 1950 vieron las posibilidades de construir circuitos mucho más avanzados. Sin embargo, a medida que crecía la complejidad de los circuitos, surgieron problemas. Un problema era el tamaño del circuito. Un circuito complejo como una computadora dependía de la velocidad. Si los componentes fueran grandes, los cables que los interconectan deben ser largos. Las señales eléctricas tardaron en pasar por el circuito, lo que ralentizó la computadora.
La invención del circuito integrado por Jack Kilby y Robert Noyce resolvió este problema al fabricar todos los componentes y el chip del mismo bloque (monolito) de material semiconductor. Los circuitos podrían hacerse más pequeños y el proceso de fabricación podría automatizarse. Esto condujo a la idea de integrar todos los componentes en una oblea de silicio monocristalino, lo que condujo a la integración a pequeña escala (SSI) a principios de la década de 1960 y luego a la integración a mediana escala (MSI) a fines de la década de 1960.
VLSI
General Microelectronics introdujo el primer circuito integrado MOS comercial en 1964. A principios de la década de 1970, la tecnología de circuito integrado MOS permitió la integración de más de 10 000 transistores en un solo chip. Esto allanó el camino para VLSI en las décadas de 1970 y 1980, con decenas de miles de transistores MOS en un solo chip (luego cientos de miles, luego millones y ahora miles de millones).
Los primeros chips semiconductores tenían dos transistores cada uno. Los avances posteriores agregaron más transistores y, como consecuencia, se integraron más funciones o sistemas individuales con el tiempo. Los primeros circuitos integrados contenían solo unos pocos dispositivos, tal vez hasta diez diodos, transistores, resistencias y capacitores, lo que hacía posible fabricar una o más puertas lógicas en un solo dispositivo. Ahora conocido retrospectivamente como integración a pequeña escala (SSI), las mejoras en la técnica condujeron a dispositivos con cientos de puertas lógicas, conocidas como integración a mediana escala (MSI). Otras mejoras llevaron a la integración a gran escala (LSI), es decir, sistemas con al menos mil puertas lógicas. La tecnología actual ha superado con creces esta marca y los microprocesadores actuales tienen muchos millones de puertas y miles de millones de transistores individuales.
En un momento, hubo un esfuerzo por nombrar y calibrar varios niveles de integración a gran escala por encima de VLSI. Se utilizaron términos como integración a gran escala (ULSI). Pero la enorme cantidad de compuertas y transistores disponibles en los dispositivos comunes ha hecho que esas sutiles distinciones sean discutibles. Los términos que sugieren niveles de integración superiores a VLSI ya no se utilizan de forma generalizada.
En 2008, se comercializaron procesadores de mil millones de transistores. Esto se volvió más común a medida que la fabricación de semiconductores avanzó desde la generación actual de procesos de 65 nm. Los diseños actuales, a diferencia de los primeros dispositivos, utilizan una amplia automatización de diseño y síntesis lógica automatizada para diseñar los transistores, lo que permite niveles más altos de complejidad en la funcionalidad lógica resultante. Ciertos bloques lógicos de alto rendimiento, como la celda SRAM (memoria estática de acceso aleatorio), aún se diseñan a mano para garantizar la máxima eficiencia.
Diseño estructurado
El diseño VLSI estructurado es una metodología modular originada por Carver Mead y Lynn Conway para ahorrar área de microchip al minimizar el área de tejido de interconexión. Esto se obtiene mediante la disposición repetitiva de macrobloques rectangulares que se pueden interconectar mediante cableado por tope. Un ejemplo es dividir el diseño de un sumador en una fila de celdas de segmentos de bits iguales. En diseños complejos, esta estructuración puede lograrse mediante el anidamiento jerárquico.
El diseño de VLSI estructurado había sido popular a principios de la década de 1980, pero perdió su popularidad más tarde debido a la llegada de las herramientas de ubicación y enrutamiento que desperdician una gran cantidad de área por enrutamiento, lo cual se tolera debido al progreso de la Ley de Moore.. Cuando introdujo el lenguaje de descripción de hardware KARL a mediados de la década de 1970, Reiner Hartenstein acuñó el término "diseño VLSI estructurado" (originalmente como "diseño LSI estructurado"), haciéndose eco del enfoque de programación estructurada de Edsger Dijkstra mediante el anidamiento de procedimientos para evitar programas caóticos estructurados en espagueti.
Dificultades
A medida que los microprocesadores se vuelven más complejos debido al escalamiento de la tecnología, los diseñadores de microprocesadores se han enfrentado a varios desafíos que los obligan a pensar más allá del plano de diseño y mirar hacia el futuro después del silicio:
- Variación del proceso – A medida que las técnicas de fotolitografía se acercan a las leyes fundamentales de la óptica, lograr una alta precisión en las concentraciones de dopaje y alambres grabados se está volviendo más difícil y proclive a errores debido a la variación. Los diseñadores ahora deben simular a través de múltiples esquinas del proceso de fabricación antes de que un chip esté listo para la producción, o utilizar técnicas de nivel de sistema para tratar los efectos de la variación.
- Reglas de diseño más estrictas – Debido a problemas de litografía y etch con escalado, la comprobación de reglas de diseño para el diseño se ha vuelto cada vez más estricta. Los diseñadores deben tener en cuenta una lista cada vez mayor de reglas al establecer circuitos personalizados. La sobrecarga para el diseño personalizado está llegando a un punto de inflexión, con muchas casas de diseño que optan por cambiar a las herramientas de automatización de diseño electrónico (EDA) para automatizar su proceso de diseño.
- Cierre del diseño – A medida que las frecuencias del reloj tienden a escalar, los diseñadores están encontrando más difícil distribuir y mantener el reloj bajo entre estos relojes de alta frecuencia en todo el chip. Esto ha llevado a un creciente interés en las arquitecturas multicore y multiprocesador, ya que se puede obtener una velocidad global incluso con menor frecuencia de reloj mediante el uso de la potencia computacional de todos los núcleos.
- Primer éxito – Como los tamaños de la matriz se reducen (debido a la escalada), y los tamaños de la ola suben (debido a los costos de fabricación más bajos), el número de dies per wafer aumenta, y la complejidad de hacer fotomasks adecuados aumenta rápidamente. Un juego de máscaras para una tecnología moderna puede costar varios millones de dólares. Este gasto no recurrente disuade a la antigua filosofía iterativa que implica varios "ciclos de punta" para encontrar errores en silicio, y alienta el éxito de silicio de primer paso. Se han desarrollado varias filosofías de diseño para ayudar a este nuevo flujo de diseño, incluyendo el diseño para la fabricación (DFM), el diseño para la prueba (DFT) y el diseño para X.
- Electromigración
Contenido relacionado
Estructura e Interpretación de Programas de Computador
Gary Kildall
Shawn fanning