Ley de Moore

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La ley de Moore es la observación de que el número de transistores en un circuito integrado denso (IC) se duplica aproximadamente cada dos años. La ley de Moore es una observación y proyección de una tendencia histórica. Más que una ley de la física, es una relación empírica vinculada a las ganancias de la experiencia en la producción.

La observación lleva el nombre de Gordon Moore, cofundador de Fairchild Semiconductor e Intel (y ex director ejecutivo de esta última), quien en 1965 postuló una duplicación cada año en la cantidad de componentes por circuito integrado y proyectó que esta tasa de crecimiento sería continuar durante al menos otra década. En 1975, mirando hacia la próxima década, revisó el pronóstico para duplicarlo cada dos años, una tasa de crecimiento anual compuesta (CAGR) del 41%. Si bien Moore no utilizó evidencia empírica para pronosticar que la tendencia histórica continuaría, su predicción se mantuvo desde 1975 y desde entonces se conoce como una "ley".

La predicción de Moore se ha utilizado en la industria de los semiconductores para guiar la planificación a largo plazo y establecer objetivos para la investigación y el desarrollo, funcionando así hasta cierto punto como una profecía autocumplida. Los avances en la electrónica digital, como la reducción de los precios de los microprocesadores ajustados por calidad, el aumento de la capacidad de la memoria (RAM y flash), la mejora de los sensores e incluso la cantidad y el tamaño de los píxeles en las cámaras digitales, están fuertemente vinculados a la ley de Moore.. Estos cambios en curso en la electrónica digital han sido una fuerza impulsora del cambio tecnológico y social, la productividad y el crecimiento económico.

Los expertos de la industria no han llegado a un consenso sobre exactamente cuándo dejará de aplicarse la ley de Moore. Los arquitectos de microprocesadores informan que el avance de los semiconductores se ha ralentizado en toda la industria desde alrededor de 2010, ligeramente por debajo del ritmo previsto por la ley de Moore.

Historia

En 1959, Douglas Engelbart estudió la reducción proyectada del tamaño del circuito integrado (CI), y publicó sus resultados en el artículo "Microelectrónica y el arte de la similitud". Engelbart presentó sus hallazgos en la Conferencia Internacional de Circuitos de Estado Sólido de 1960, donde Moore estuvo presente entre la audiencia.

Ese mismo año, Mohamed Atalla y Dawon Kahng inventaron el MOSFET (transistor de efecto de campo semiconductor de óxido de metal), también conocido como transistor MOS, en Bell Labs. El MOSFET fue el primer transistor verdaderamente compacto que podía miniaturizarse y producirse en masa para una amplia gama de usos, con su alta escalabilidad y bajo consumo de energía que daba como resultado una mayor densidad de transistores y posibilitaba la construcción de chips IC de alta densidad. A principios de la década de 1960, Gordon E. Moore reconoció que las características eléctricas y de escalado ideales de los dispositivos MOSFET conducirían a niveles de integración rápidamente crecientes y un crecimiento sin precedentes en las aplicaciones electrónicas.

En 1965, se le pidió a Gordon Moore, quien en ese momento trabajaba como director de investigación y desarrollo en Fairchild Semiconductor, que contribuyera a la edición del trigésimo quinto aniversario de la revista Electronics con una predicción sobre el futuro de la industria de componentes de semiconductores durante el próximos diez años. Su respuesta fue un breve artículo titulado "Abarrotar más componentes en circuitos integrados". Dentro de su editorial, especuló que para 1975 sería posible contener hasta 65.000 componentes en un solo semiconductor de un cuarto de pulgada cuadrada.

La complejidad de los costos mínimos de los componentes ha aumentado a un ritmo de aproximadamente un factor de dos por año. Ciertamente, en el corto plazo se puede esperar que esta tasa continúe, si no que aumente. A más largo plazo, la tasa de aumento es un poco más incierta, aunque no hay razón para creer que no se mantendrá casi constante durante al menos 10 años.

Moore postuló una relación logarítmica lineal entre la complejidad del dispositivo (mayor densidad de circuitos a un costo reducido) y el tiempo. En una entrevista de 2015, Moore señaló sobre el artículo de 1965: "... Acabo de hacer una extrapolación descabellada diciendo que seguirá duplicándose cada año durante los próximos 10 años". Un historiador de la ley cita la ley de eponimia de Stigler, para presentar el hecho de que muchos de los que trabajaban en el campo conocían la duplicación regular de componentes.

En 1974, Robert H. Dennard de IBM reconoció la tecnología de escalado rápido de MOSFET y formuló lo que se conoció como escalado de Dennard, que describe que a medida que los transistores MOS se hacen más pequeños, su densidad de potencia permanece constante de modo que el uso de energía permanece en proporción con el área. El escalado y la miniaturización de MOSFET han sido las fuerzas impulsoras clave detrás de la ley de Moore. La evidencia de la industria de los semiconductores muestra que esta relación inversa entre la densidad de potencia y la densidad de área se rompió a mediados de la década de 2000.

En la Reunión Internacional de Dispositivos de Electrones de IEEE de 1975, Moore revisó su tasa de pronóstico y predijo que la complejidad de los semiconductores continuaría duplicándose anualmente hasta alrededor de 1980, después de lo cual disminuiría a una tasa de duplicación aproximadamente cada dos años. Describió varios factores que contribuyen a este comportamiento exponencial:

  • El advenimiento de la tecnología de semiconductores de óxido de metal (MOS)
  • La tasa exponencial de aumento en los tamaños de troquel, junto con una disminución en las densidades defectuosas, con el resultado de que los fabricantes de semiconductores podrían trabajar con áreas más grandes sin perder rendimientos de reducción.
  • Dimensiones mínimas más finas
  • Lo que Moore llamó "inteligencia de circuitos y dispositivos"

Poco después de 1975, el profesor de Caltech Carver Mead popularizó el término "ley de Moore". La ley de Moore finalmente llegó a ser ampliamente aceptada como un objetivo para la industria de los semiconductores, y fue citada por los fabricantes de semiconductores de la competencia en su esfuerzo por aumentar la potencia de procesamiento. Moore vio su ley epónima como sorprendente y optimista: "La ley de Moore es una violación de la ley de Murphy. Todo mejora cada vez más". La observación incluso fue vista como una profecía autocumplida.

El período de duplicación a menudo se cita erróneamente como 18 meses debido a una predicción del colega de Moore, el ejecutivo de Intel, David House. En 1975, House notó que la ley revisada de Moore de duplicar el número de transistores cada 2 años implicaba que el rendimiento del chip de computadora se duplicaría aproximadamente cada 18 meses (sin aumento en el consumo de energía). La ley de Moore está estrechamente relacionada con el escalado de MOSFET, ya que el escalado rápido y la miniaturización de los MOSFET son la fuerza impulsora clave detrás de la ley de Moore.Matemáticamente, la Ley de Moore predijo que la cantidad de transistores se duplicaría cada 2 años debido a la reducción de las dimensiones de los transistores y otras mejoras. Como consecuencia de la reducción de las dimensiones, la escala de Dennard predijo que el consumo de energía por unidad de área se mantendría constante. Combinando estos efectos, David House dedujo que el rendimiento del chip de computadora se duplicaría aproximadamente cada 18 meses. También debido a la escala de Dennard, este mayor rendimiento no estaría acompañado por una mayor potencia, es decir, la eficiencia energética de los chips de computadora basados ​​en silicio se duplica aproximadamente cada 18 meses. La escala de Dennard terminó en la década de 2000. Koomey mostró más tarde que una tasa similar de mejora de la eficiencia precedió a los chips de silicio y la Ley de Moore, para tecnologías como los tubos de vacío.

Los arquitectos de microprocesadores informan que desde alrededor de 2010, el avance de los semiconductores se ha desacelerado en toda la industria por debajo del ritmo previsto por la ley de Moore. Brian Krzanich, ex director ejecutivo de Intel, citó la revisión de Moore de 1975 como precedente de la desaceleración actual, que es el resultado de desafíos técnicos y es "una parte natural de la historia de la ley de Moore". La tasa de mejora en las dimensiones físicas conocida como escala Dennard también terminó a mediados de la década de 2000. Como resultado, gran parte de la industria de los semiconductores ha cambiado su enfoque hacia las necesidades de las principales aplicaciones informáticas en lugar del escalado de semiconductores. Sin embargo, los principales fabricantes de semiconductores, TSMC y Samsung Electronics, afirman seguir el ritmo de la ley de Moore con nodos de 10 nm y 7 nm en producción en masa.y nodos de 5 nm en producción de riesgo a partir de 2019.

Segunda ley de moore

A medida que cae el costo de la potencia de la computadora para el consumidor, el costo para que los productores cumplan con la ley de Moore sigue una tendencia opuesta: los costos de investigación y desarrollo, fabricación y prueba han aumentado constantemente con cada nueva generación de chips. El aumento de los costos de fabricación es una consideración importante para el mantenimiento de la ley de Moore. Esto condujo a la formulación de la segunda ley de Moore, también llamada ley de Rock, según la cual el costo de capital de una fábrica de semiconductores también aumenta exponencialmente con el tiempo.

Principales factores facilitadores

Numerosas innovaciones de científicos e ingenieros han sostenido la ley de Moore desde el comienzo de la era IC. Algunas de las innovaciones clave se enumeran a continuación, como ejemplos de avances que han avanzado en la tecnología de fabricación de dispositivos de semiconductores y circuitos integrados, lo que ha permitido que la cantidad de transistores aumente en más de siete órdenes de magnitud en menos de cinco décadas.

  • Circuito integrado (IC): la razón de ser de la ley de Moore. El IC híbrido de germanio fue inventado por Jack Kilby en Texas Instruments en 1958, seguido por la invención del chip IC monolítico de silicio por Robert Noyce en Fairchild Semiconductor en 1959.
  • Transistor de efecto de campo de semiconductor de óxido de metal (MOSFET): inventado por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959, fue el primer transistor que se pudo miniaturizar y producir en masa, debido a su alta escalabilidad.
    • Semiconductor de óxido de metal complementario (CMOS): el proceso CMOS fue inventado por Chih-Tang Sah y Frank Wanlass en Fairchild Semiconductor en 1963.
    • Memoria dinámica de acceso aleatorio (DRAM): Bipolar DRAM fue desarrollada por Toshiba en 1965, y luego MOS DRAM fue desarrollada de forma independiente por Robert H. Dennard en IBM en 1967. MOS DRAM hizo posible fabricar celdas de memoria de un solo transistor en chips IC.
  • Fotoprotector amplificado químicamente: inventado por Hiroshi Ito, C. Grant Willson y JMJ Fréchet en IBM alrededor de 1980, que era de 5 a 10 veces más sensible a la luz ultravioleta. IBM introdujo la fotoprotección amplificada químicamente para la producción de DRAM a mediados de la década de 1980.
  • Fotolitografía de láser excimer ultravioleta profundo: inventada por Kanti Jain en IBM alrededor de 1980. Antes de esto, los láseres excimer se habían utilizado principalmente como dispositivos de investigación desde su desarrollo en la década de 1970. Desde una perspectiva científica más amplia, la invención de la litografía por láser excimer se ha destacado como uno de los principales hitos en los 50 años de historia del láser.
  • Innovaciones de interconexión: las innovaciones de interconexión de finales de la década de 1990, incluido el pulido químico-mecánico o la planarización químico-mecánica (CMP), el aislamiento de zanjas y las interconexiones de cobre, aunque no son un factor directo en la creación de transistores más pequeños, han permitido mejorar el rendimiento de las obleas, capas adicionales de metal cables, menor espaciamiento de los dispositivos y menor resistencia eléctrica.

Los mapas de ruta de la tecnología de la industria informática predijeron en 2001 que la ley de Moore continuaría durante varias generaciones de chips semiconductores.

Tendencias recientes

Uno de los desafíos clave de la ingeniería de futuros transistores a nanoescala es el diseño de puertas. A medida que se reduce la dimensión del dispositivo, se vuelve más difícil controlar el flujo de corriente en el canal delgado. Los transistores a nanoescala modernos suelen adoptar la forma de MOSFET de múltiples puertas, siendo el FinFET el transistor a nanoescala más común. El FinFET tiene puerta dieléctrica en tres lados del canal. En comparación, la estructura de MOSFET de compuerta integral (GAAFET) tiene un control de compuerta aún mejor.

  • Un MOSFET de puerta alrededor (GAAFET) fue demostrado por primera vez en 1988, por un equipo de investigación de Toshiba dirigido por Fujio Masuoka, quien demostró un GAAFET de nanocables vertical al que llamó "transistor de puerta circundante" (SGT). Masuoka, mejor conocido como el inventor de la memoria flash, más tarde dejó Toshiba y fundó Unisantis Electronics en 2004 para investigar la tecnología de puertas envolventes junto con la Universidad de Tohoku.
  • En 2006, un equipo de investigadores coreanos del Instituto Avanzado de Ciencia y Tecnología de Corea (KAIST) y el Centro Nacional Nano Fab desarrollaron un transistor de 3 nm, el dispositivo nanoelectrónico más pequeño del mundo en ese momento, basado en la tecnología FinFET.
  • En 2010, investigadores del Instituto Nacional Tyndall en Cork, Irlanda, anunciaron un transistor sin unión. Una puerta de control envuelta alrededor de un nanocable de silicio puede controlar el paso de electrones sin el uso de uniones o dopaje. Afirman que estos pueden producirse a una escala de 10 nanómetros utilizando técnicas de fabricación existentes.
  • En 2011, investigadores de la Universidad de Pittsburgh anunciaron el desarrollo de un transistor de un solo electrón, de 1,5 nanómetros de diámetro, fabricado con materiales a base de óxido. Tres "hilos" convergen en una "isla" central que puede albergar uno o dos electrones. Los electrones hacen un túnel de un cable a otro a través de la isla. Las condiciones en el tercer cable dan como resultado distintas propiedades conductivas, incluida la capacidad del transistor para actuar como una memoria de estado sólido. Los transistores de nanocables podrían estimular la creación de computadoras microscópicas.
  • En 2012, un equipo de investigación de la Universidad de Nueva Gales del Sur anunció el desarrollo del primer transistor en funcionamiento que consiste en un solo átomo colocado con precisión en un cristal de silicio (no solo seleccionado de una gran muestra de transistores aleatorios). La ley de Moore predijo que se alcanzaría este hito para los circuitos integrados en el laboratorio para 2020.
  • En 2015, IBM demostró chips de nodo de 7 nm con transistores de germanio y silicio producidos con EUVL. La compañía cree que esta densidad de transistores sería cuatro veces mayor que la de los chips actuales de 14 nm.
  • Samsung y TSMC planean fabricar nodos GAAFET de 3 nm para 2021–2022. Tenga en cuenta que los nombres de los nodos, como 3 nm, no tienen relación con el tamaño físico de los elementos del dispositivo (transistores).
  • Un equipo de investigación de Toshiba que incluye a T. Imoto, M. Matsui y C. Takubo desarrolló un proceso de unión de obleas de "Módulo de bloques del sistema" para fabricar paquetes de circuitos integrados tridimensionales (3D IC) en 2001. En abril de 2007, Toshiba presentó un capa 3D IC, el chip de memoria flash NAND integrado THGAM de 16 GB que se fabricó con ocho chips flash NAND de 2 GB apilados. En septiembre de 2007, Hynix presentó IC 3D de 24 capas, un chip de memoria flash de 16 GB que se fabricó con 24 chips flash NAND apilados mediante un proceso de unión de obleas.
  • V-NAND, también conocido como 3D NAND, permite que las celdas de memoria flash se apilen verticalmente utilizando la tecnología flash de trampa de carga presentada originalmente por John Szedon en 1967, lo que aumenta significativamente la cantidad de transistores en un chip de memoria flash. 3D NAND fue anunciado por primera vez por Toshiba en 2007. V-NAND fue fabricado comercialmente por primera vez por Samsung Electronics en 2013.
  • En 2008, los investigadores de HP Labs anunciaron un memristor en funcionamiento, un cuarto elemento básico de circuito pasivo cuya existencia solo se había teorizado anteriormente. Las propiedades únicas del memristor permiten la creación de dispositivos electrónicos más pequeños y de mejor rendimiento.
  • En 2014, bioingenieros de la Universidad de Stanford desarrollaron un circuito inspirado en el cerebro humano. Dieciséis chips "Neurocore" simulan un millón de neuronas y miles de millones de conexiones sinápticas, que se dice que son 9.000 veces más rápidos y más eficientes energéticamente que una PC típica.
  • En 2015, Intel y Micron anunciaron 3D XPoint, una memoria no volátil que afirmaba ser significativamente más rápida con una densidad similar en comparación con NAND. La producción programada para comenzar en 2016 se retrasó hasta la segunda mitad de 2017.
  • En 2017, Samsung combinó su tecnología V-NAND con el apilamiento eUFS 3D IC para producir un chip de memoria flash de 512 GB, con ocho matrices V-NAND de 64 capas apiladas. En 2019, Samsung produjo un chip flash de 1 TB con ocho matrices V-NAND de 96 capas apiladas, junto con tecnología de celda de nivel cuádruple (QLC) (4 bits por transistor), equivalente a 2 billones de transistores, el recuento de transistores más alto de cualquier chip IC.
  • En 2020, Samsung Electronics planea producir el nodo de 5 nm utilizando tecnología FinFET y EUV.
  • En mayo de 2021, IBM anuncia la creación del primer chip de computadora de 2 nm, con partes supuestamente más pequeñas que el ADN humano.

Los arquitectos de microprocesadores informan que el avance de los semiconductores se ha desacelerado en toda la industria desde alrededor de 2010, por debajo del ritmo previsto por la ley de Moore. Brian Krzanich, ex director ejecutivo de Intel, anunció: "Nuestra cadencia actual está más cerca de dos años y medio que de dos". Intel declaró en 2015 que las mejoras en los dispositivos MOSFET se han ralentizado, comenzando en el ancho de característica de 22 nm alrededor de 2012 y continuando en 14 nm.

Se han alcanzado los límites físicos para escalar transistores debido a fugas de fuente a drenaje, metales de compuerta limitados y opciones limitadas para el material del canal. Se están investigando otros enfoques que no se basan en el escalado físico. Estos incluyen el estado de giro de la espintrónica de electrones, las uniones de túnel y el confinamiento avanzado de materiales de canal a través de la geometría de nanocables. Las opciones de lógica y memoria basadas en giros se están desarrollando activamente en los laboratorios.

Investigación de materiales alternativos

La gran mayoría de los transistores actuales en circuitos integrados están compuestos principalmente de silicio dopado y sus aleaciones. A medida que el silicio se fabrica en transistores de un solo nanómetro, los efectos de canal corto modifican negativamente las propiedades materiales deseadas del silicio como transistor funcional. A continuación se muestran varios sustitutos que no son de silicio en la fabricación de transistores de nanómetros pequeños.

Un material propuesto es el arseniuro de indio y galio, o InGaAs. En comparación con sus homólogos de silicio y germanio, los transistores InGaAs son más prometedores para futuras aplicaciones lógicas de baja potencia y alta velocidad. Debido a las características intrínsecas de los semiconductores compuestos III-V, los transistores de efecto túnel y de pozo cuántico basados ​​en InGaAs se han propuesto como alternativas a los diseños de MOSFET más tradicionales.

  • A principios de la década de 2000, Gurtej Singh Sandhu en Micron Technology inventó los procesos de doble patrón de tono y película de alto κ de deposición de capa atómica, extendiendo la ley de Moore para la tecnología CMOS planar a una clase de 30 nm y más pequeña.
  • En 2009, Intel anunció el desarrollo de transistores de pozo cuántico InGaAs de 80 nanómetros. Los dispositivos de pozos cuánticos contienen un material intercalado entre dos capas de material con una banda prohibida más ancha. A pesar de tener el doble del tamaño de los transistores de silicio puro líderes en ese momento, la compañía informó que funcionaban igual de bien y consumían menos energía.
  • En 2011, los investigadores de Intel demostraron transistores InGaAs tri-gate 3-D con características de fuga mejoradas en comparación con los diseños planos tradicionales. La compañía afirma que su diseño logró la mejor electrostática de cualquier transistor semiconductor compuesto III-V. En la Conferencia Internacional de Circuitos de Estado Sólido de 2015, Intel mencionó el uso de compuestos III-V basados ​​en dicha arquitectura para su nodo de 7 nanómetros.
  • En 2011, investigadores de la Universidad de Texas en Austin desarrollaron transistores de efecto de campo de efecto túnel InGaAs capaces de corrientes operativas más altas que los diseños anteriores. Los primeros diseños III-V TFET fueron demostrados en 2009 por un equipo conjunto de la Universidad de Cornell y la Universidad Estatal de Pensilvania.
  • En 2012, un equipo de los Laboratorios de Tecnología de Microsistemas del MIT desarrolló un transistor de 22 nm basado en InGaAs que, en ese momento, era el transistor sin silicio más pequeño jamás construido. El equipo utilizó técnicas utilizadas actualmente en la fabricación de dispositivos de silicio y tiene como objetivo un mejor rendimiento eléctrico y una reducción a la escala de 10 nanómetros.

La investigación en computación biológica muestra que el material biológico tiene una densidad de información y una eficiencia energética superiores en comparación con la computación basada en silicio.

Se están estudiando varias formas de grafeno para la electrónica de grafeno, por ejemplo, los transistores de nanocintas de grafeno se han mostrado muy prometedores desde su aparición en publicaciones en 2008. (El grafeno a granel tiene una banda prohibida de cero y, por lo tanto, no se puede usar en transistores debido a su conductividad constante, un incapacidad para apagar. Los bordes en zigzag de las nanocintas introducen estados de energía localizados en las bandas de conducción y valencia y, por lo tanto, una banda prohibida que permite la conmutación cuando se fabrica como un transistor. Como ejemplo, un GNR típico de ancho de 10 nm tiene una banda prohibida deseable energía de 0.4eV.) Sin embargo, será necesario realizar más investigaciones en capas de grafeno de menos de 50 nm, ya que su valor de resistividad aumenta y, por lo tanto, la movilidad de los electrones disminuye.

Pronósticos y hojas de ruta

En abril de 2005, Gordon Moore declaró en una entrevista que la proyección no puede sostenerse indefinidamente: "No puede continuar para siempre. La naturaleza de los exponenciales es que los expulsas y, finalmente, ocurre un desastre". También señaló que los transistores eventualmente alcanzarían los límites de la miniaturización a niveles atómicos:

En términos de tamaño [de los transistores], puede ver que nos estamos acercando al tamaño de los átomos, lo cual es una barrera fundamental, pero pasarán dos o tres generaciones antes de que lleguemos tan lejos, pero eso es lo más lejos que hemos llegado. nunca he podido ver. Tenemos otros 10 a 20 años antes de llegar a un límite fundamental. Para entonces, podrán fabricar chips más grandes y tener presupuestos de transistores de miles de millones.

En 2016, la Hoja de ruta tecnológica internacional para semiconductores, después de utilizar la Ley de Moore para impulsar la industria desde 1998, produjo su hoja de ruta final. Ya no centró su plan de investigación y desarrollo en la ley de Moore. En cambio, describió lo que podría llamarse la estrategia Más que Moore en la que las necesidades de las aplicaciones impulsan el desarrollo de chips, en lugar de centrarse en la escala de semiconductores. Los controladores de aplicaciones van desde teléfonos inteligentes hasta IA y centros de datos.

IEEE comenzó una iniciativa de mapeo de ruta en 2016, "Reiniciar la informática", denominada Hoja de ruta internacional para dispositivos y sistemas (IRDS).

La mayoría de los pronosticadores, incluido Gordon Moore, esperan que la ley de Moore termine alrededor de 2025. Aunque la Ley de Moore alcanzará una limitación física, algunos pronosticadores son optimistas sobre la continuación del progreso tecnológico en una variedad de otras áreas, incluidas las nuevas arquitecturas de chips, computación cuántica, e IA y aprendizaje automático.

Consecuencias

La electrónica digital ha contribuido al crecimiento económico mundial a finales del siglo XX y principios del XXI. La principal fuerza impulsora del crecimiento económico es el crecimiento de la productividad, y la ley de Moore influye en la productividad. Moore (1995) esperaba que "la tasa de progreso tecnológico se controlará a partir de las realidades financieras". Sin embargo, lo contrario podría ocurrir y ocurrió a fines de la década de 1990, cuando los economistas informaron que "el crecimiento de la productividad es el indicador económico clave de la innovación". La ley de Moore describe una fuerza impulsora del cambio tecnológico y social, la productividad y el crecimiento económico.

Una aceleración en la tasa de progreso de los semiconductores contribuyó a un aumento en el crecimiento de la productividad de EE. UU., que alcanzó el 3,4% anual en 1997-2004, superando el 1,6% anual durante 1972-1996 y 2005-2013. Como señala el economista Richard G. Anderson, "numerosos estudios han atribuido la causa de la aceleración de la productividad a las innovaciones tecnológicas en la producción de semiconductores que redujeron drásticamente los precios de dichos componentes y de los productos que los contienen (además de expandir las capacidades de tales productos)".

La principal implicación negativa de la ley de Moore es que la obsolescencia empuja a la sociedad contra los límites del crecimiento. A medida que las tecnologías continúan "mejorando" rápidamente, vuelven obsoletas las tecnologías predecesoras. En situaciones en las que la seguridad y la capacidad de supervivencia del hardware o los datos son primordiales, o en las que los recursos son limitados, la obsolescencia rápida a menudo plantea obstáculos para que las operaciones continúen sin problemas.

Debido a la huella intensiva de recursos y los materiales tóxicos utilizados en la producción de computadoras, la obsolescencia genera graves impactos ambientales dañinos. Los estadounidenses tiran 400 000 teléfonos celulares todos los días, pero este alto nivel de obsolescencia les parece a las empresas una oportunidad para generar ventas regulares de costosos equipos nuevos, en lugar de retener un dispositivo por un período de tiempo más largo, lo que lleva a la industria a utilizar la obsolescencia programada como centro de ganancias.

Una fuente alternativa de rendimiento mejorado se encuentra en las técnicas de microarquitectura que explotan el crecimiento del número de transistores disponibles. La ejecución desordenada y el almacenamiento en caché y la búsqueda previa en el chip reducen el cuello de botella de la latencia de la memoria a expensas de usar más transistores y aumentar la complejidad del procesador. Estos aumentos se describen empíricamente por la regla de Pollack, que establece que los aumentos de rendimiento debido a las técnicas de microarquitectura se aproximan a la raíz cuadrada de la complejidad (número de transistores o el área) de un procesador.

Durante años, los fabricantes de procesadores ofrecieron aumentos en las velocidades de reloj y el paralelismo de nivel de instrucción, de modo que el código de un solo subproceso se ejecutaba más rápido en los procesadores más nuevos sin modificaciones. Ahora, para administrar la disipación de energía de la CPU, los fabricantes de procesadores favorecen los diseños de chips de múltiples núcleos, y el software debe escribirse en una forma de subprocesos múltiples para aprovechar al máximo el hardware. Muchos paradigmas de desarrollo de subprocesos múltiples introducen una sobrecarga y no verán un aumento lineal en la velocidad frente a la cantidad de procesadores. Esto es particularmente cierto al acceder a recursos compartidos o dependientes, debido a la contención de bloqueo. Este efecto se vuelve más notorio a medida que aumenta el número de procesadores. Hay casos en los que un aumento de aproximadamente el 45 % en los transistores del procesador se ha traducido en un aumento de aproximadamente el 10-20 % en la potencia de procesamiento.

Por otro lado, los fabricantes están agregando unidades de procesamiento especializadas para manejar funciones como gráficos, video y criptografía. Por ejemplo, la extensión Parallel JavaScript de Intel no solo agrega soporte para múltiples núcleos, sino también para otras características de procesamiento no generales de sus chips, como parte de la migración de secuencias de comandos del lado del cliente hacia HTML5.

La ley de Moore ha afectado significativamente el rendimiento de otras tecnologías: Michael S. Malone escribió sobre la guerra de Moore tras el aparente éxito de la conmoción y el asombro en los primeros días de la guerra de Irak. El progreso en el desarrollo de armas guiadas depende de la tecnología electrónica. Las mejoras en la densidad del circuito y la operación de baja potencia asociadas con la ley de Moore también han contribuido al desarrollo de tecnologías que incluyen teléfonos móviles e impresión 3D.

Otras formulaciones y observaciones similares

Varias medidas de la tecnología digital están mejorando a tasas exponenciales relacionadas con la ley de Moore, incluidos el tamaño, el costo, la densidad y la velocidad de los componentes. Moore escribió solo sobre la densidad de los componentes, "un componente es un transistor, una resistencia, un diodo o un condensador", a un costo mínimo.

Transistores por circuito integrado: la formulación más popular es la de duplicar la cantidad de transistores en los circuitos integrados cada dos años. A fines de la década de 1970, la ley de Moore se conoció como el límite para el número de transistores en los chips más complejos. El gráfico en la parte superior muestra que esta tendencia se mantiene hoy. A partir de 2017, el procesador disponible comercialmente que posee la mayor cantidad de transistores es el Centriq de 48 núcleos con más de 18 mil millones de transistores.

Densidad al costo mínimo por transistor

Esta es la formulación dada en el artículo de Moore de 1965. No se trata solo de la densidad de transistores que se puede lograr, sino de la densidad de transistores en la que el costo por transistor es el más bajo. A medida que se colocan más transistores en un chip, el costo de fabricar cada transistor disminuye, pero aumenta la posibilidad de que el chip no funcione debido a un defecto. En 1965, Moore examinó la densidad de transistores a la que se minimiza el costo y observó que, a medida que los transistores se hacían más pequeños gracias a los avances en fotolitografía, este número aumentaría a "una tasa de aproximadamente un factor de dos por año".

Escala Dennard: esto postula que el uso de energía disminuiría en proporción al área (tanto el voltaje como la corriente son proporcionales a la longitud) de los transistores. En combinación con la ley de Moore, el rendimiento por vatio crecería aproximadamente al mismo ritmo que la densidad del transistor, duplicándose cada 1 o 2 años. Según Dennard, las dimensiones del transistor de escala se escalarían en un 30% (0,7x) cada generación de tecnología, reduciendo así su área en un 50%. Esto reduciría el retraso en un 30 % (0,7x) y, por lo tanto, aumentaría la frecuencia de funcionamiento en aproximadamente un 40 % (1,4x). Finalmente, para mantener el campo eléctrico constante, el voltaje se reduciría en un 30 %, reduciendo la energía en un 65 % y la potencia (a 1,4x de frecuencia) en un 50 %.Por lo tanto, en cada generación de tecnología, la densidad de transistores se duplicaría, el circuito se volvería un 40% más rápido, mientras que el consumo de energía (con el doble de transistores) se mantendría igual. La escala de Dennard terminó en 2005-2010, debido a las corrientes de fuga.

El crecimiento exponencial del transistor del procesador predicho por Moore no siempre se traduce en un rendimiento práctico exponencialmente mayor de la CPU. Desde alrededor de 2005-2007, la escala de Dennard ha terminado, por lo que, aunque la ley de Moore continuó durante varios años después de eso, no ha producido dividendos en la mejora del rendimiento. La razón principal citada para la falla es que en tamaños pequeños, la fuga de corriente plantea mayores desafíos y también hace que el chip se caliente, lo que crea una amenaza de fuga térmica y, por lo tanto, aumenta aún más los costos de energía.

El desglose del escalado de Dennard provocó un mayor enfoque en los procesadores multinúcleo, pero las ganancias que ofrece el cambio a más núcleos son menores que las ganancias que se lograrían si el escalamiento de Dennard continuara. En otra desviación de la escala de Dennard, los microprocesadores Intel adoptaron un FinFET tri-gate no planar a 22 nm en 2012 que es más rápido y consume menos energía que un transistor planar convencional. La tasa de mejora del rendimiento de los microprocesadores de un solo núcleo se ha ralentizado significativamente. El rendimiento de un solo núcleo mejoró un 52 % por año entre 1986 y 2003 y un 23 % por año entre 2003 y 2011, pero disminuyó a solo un siete por ciento por año entre 2011 y 2018.

Precio ajustado por calidad de los equipos de TI: el precio de la tecnología de la información (TI), las computadoras y los equipos periféricos, ajustados por calidad e inflación, disminuyó un 16% anual en promedio durante las cinco décadas desde 1959 hasta 2009. Sin embargo, el ritmo se aceleró a 23 % por año en 1995–1999 provocado por una innovación de TI más rápida y, más tarde, se redujo a 2 % por año en 2010–2013.

Si bien continúa la mejora del precio del microprocesador ajustado por calidad, la tasa de mejora también varía y no es lineal en una escala logarítmica. La mejora del precio de los microprocesadores se aceleró a finales de la década de 1990, alcanzando el 60 % anual (reduciéndose a la mitad cada nueve meses) frente a la típica tasa de mejora del 30 % (reduciendo a la mitad cada dos años) durante los años anteriores y posteriores. Los microprocesadores de las computadoras portátiles, en particular, mejoraron entre un 25% y un 35% por año entre 2004 y 2010 y se redujeron a entre un 15% y un 25% por año entre 2010 y 2013.

El número de transistores por chip no puede explicar por completo los precios de los microprocesadores ajustados por calidad. El artículo de Moore de 1995 no limita la ley de Moore a la linealidad estricta o al conteo de transistores, "La definición de 'Ley de Moore' ha llegado a referirse a casi cualquier cosa relacionada con la industria de los semiconductores que en un diagrama semi-logarítmico se aproxima a una línea recta. Dudo revisar sus orígenes y, al hacerlo, restringir su definición".

Densidad de área de la unidad de disco duro: en 2005 se realizó una predicción similar (a veces denominada ley de Kryder) para la densidad de área de la unidad de disco duro. La predicción fue vista más tarde como demasiado optimista. Varias décadas de rápido progreso en la densidad de área se ralentizaron alrededor de 2010, de 30 a 100 % por año a 10 a 15 % por año, debido al ruido relacionado con el tamaño de grano más pequeño del medio del disco, la estabilidad térmica y la capacidad de escritura con los campos magnéticos disponibles.

Capacidad de fibra óptica: la cantidad de bits por segundo que se pueden enviar por una fibra óptica aumenta exponencialmente, más rápido que la ley de Moore. Ley de Keck, en honor a Donald Keck.

Capacidad de red: según Gerry/Gerald Butters, exjefe del Grupo de redes ópticas de Lucent en Bell Labs, existe otra versión, llamada Ley de fotónica de Butters, una formulación que deliberadamente es paralela a la ley de Moore. La ley de Butters dice que la cantidad de datos que salen de una fibra óptica se duplica cada nueve meses.Así, el costo de transmitir un bit a través de una red óptica se reduce a la mitad cada nueve meses. La disponibilidad de la multiplexación por división de longitud de onda (a veces llamada WDM) aumentó la capacidad que se podía colocar en una sola fibra hasta en un factor de 100. Las redes ópticas y la multiplexación por división de longitud de onda densa (DWDM) están reduciendo rápidamente el costo de trabajo en red, y parece asegurado un mayor progreso. Como resultado, el precio mayorista del tráfico de datos colapsó en la burbuja de las puntocom. La Ley de Nielsen dice que el ancho de banda disponible para los usuarios aumenta en un 50% anual.

Píxeles por dólar: de manera similar, Barry Hendy de Kodak Australia ha trazado píxeles por dólar como una medida básica de valor para una cámara digital, lo que demuestra la linealidad histórica (en una escala logarítmica) de este mercado y la oportunidad de predecir la tendencia futura de digital. precio de la cámara, pantallas LCD y LED, y resolución.

El gran compensador de la ley de Moore (TGMLC), también conocido como ley de Wirth, generalmente se conoce como software hinchado y es el principio de que las generaciones sucesivas de software de computadora aumentan en tamaño y complejidad, compensando así las ganancias de rendimiento predichas por la ley de Moore. En un artículo de 2008 en InfoWorld, Randall C. Kennedy, antes de Intel, introduce este término utilizando versiones sucesivas de Microsoft Office entre el año 2000 y 2007 como premisa. A pesar de las mejoras en el rendimiento computacional durante este período de tiempo según la ley de Moore, Office 2007 realizó la misma tarea a la mitad de la velocidad en una computadora prototípica del año 2007 en comparación con Office 2000 en una computadora del año 2000.

Expansión de la biblioteca: Fremont Rider calculó en 1945 que se duplicaría la capacidad cada 16 años, si hubiera suficiente espacio disponible. Abogó por reemplazar las obras impresas voluminosas y en descomposición con fotografías analógicas en microformas miniaturizadas, que podrían duplicarse a pedido para los usuarios de bibliotecas u otras instituciones. No previó la tecnología digital que seguiría décadas más tarde para reemplazar la microforma analógica con medios digitales de imágenes, almacenamiento y transmisión. Las tecnologías digitales automatizadas y potencialmente sin pérdidas permitieron grandes aumentos en la rapidez del crecimiento de la información en una era que ahora a veces se denomina la era de la información.

Curva de Carlson: es un término acuñado por The Economist para describir el equivalente biotecnológico de la ley de Moore, y lleva el nombre del autor Rob Carlson. Carlson predijo con precisión que el tiempo de duplicación de las tecnologías de secuenciación de ADN (medido por el costo y el rendimiento) sería al menos tan rápido como la ley de Moore. Las curvas de Carlson ilustran las reducciones rápidas (en algunos casos hiperexponenciales) en el costo y los aumentos en el rendimiento de una variedad de tecnologías, incluida la secuenciación de ADN, la síntesis de ADN y una variedad de herramientas físicas y computacionales utilizadas en la expresión de proteínas y en la determinación de estructuras de proteínas..

Ley de Eroom: es una observación del desarrollo de fármacos farmacéuticos que se escribió deliberadamente como la Ley de Moore escrita al revés para contrastarla con los avances exponenciales de otras formas de tecnología (como los transistores) a lo largo del tiempo. Establece que el costo de desarrollar un nuevo fármaco se duplica aproximadamente cada nueve años.

Los efectos de la curva de experiencia dicen que cada duplicación de la producción acumulada de prácticamente cualquier producto o servicio va acompañada de una reducción porcentual constante aproximada en el costo unitario. La primera descripción cualitativa documentada reconocida de esto data de 1885. Se utilizó una curva de potencia para describir este fenómeno en una discusión de 1936 sobre el costo de los aviones.

Ley de Edholm: Phil Edholm observó que el ancho de banda de las redes de telecomunicaciones (incluida Internet) se duplica cada 18 meses. Los anchos de banda de las redes de comunicación en línea han aumentado de bits por segundo a terabits por segundo. El rápido aumento del ancho de banda en línea se debe en gran medida al mismo escalado de MOSFET que permite la ley de Moore, ya que las redes de telecomunicaciones se construyen a partir de MOSFET.

La ley de Haitz predice que el brillo de los LED aumenta a medida que disminuye su costo de fabricación.

La ley de Swanson es la observación de que el precio de los módulos solares fotovoltaicos tiende a caer un 20 por ciento por cada duplicación del volumen acumulado enviado. Al ritmo actual, los costos bajan un 75% aproximadamente cada 10 años.

Contenido relacionado

Bomba no guiada

Una bomba no guiada, también conocida como bomba de caída libre, bomba de gravedad, bomba tonta, o bomba de hierro, es una bomba lanzada desde un avión que...

Transporte ferroviario en Alemania

A partir de 2021, Alemania tenía una red ferroviaria de 33 399 kilómetros de los cuales 20 540 kilómetros estaban electrificados y 18 556 kilómetros eran...

Extensiones de BIOS VESA

Extensiones BIOS VESA es un estándar VESA, actualmente en la versión 3, que define la interfaz que puede usar el software para acceder a placas de video...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save