Ley de Moore

Compartir Imprimir Citar

La ley de Moore es la observación de que el número de transistores en un circuito integrado denso (IC) se duplica aproximadamente cada dos años. La ley de Moore es una observación y proyección de una tendencia histórica. Más que una ley de la física, es una relación empírica vinculada a las ganancias de la experiencia en la producción.

La observación lleva el nombre de Gordon Moore, cofundador de Fairchild Semiconductor e Intel (y ex director ejecutivo de esta última), quien en 1965 postuló una duplicación cada año en la cantidad de componentes por circuito integrado y proyectó que esta tasa de crecimiento sería continuar durante al menos otra década. En 1975, mirando hacia la próxima década, revisó el pronóstico para duplicarlo cada dos años, una tasa de crecimiento anual compuesta (CAGR) del 41%. Si bien Moore no utilizó evidencia empírica para pronosticar que la tendencia histórica continuaría, su predicción se mantuvo desde 1975 y desde entonces se conoce como una "ley".

La predicción de Moore se ha utilizado en la industria de los semiconductores para guiar la planificación a largo plazo y establecer objetivos para la investigación y el desarrollo, funcionando así hasta cierto punto como una profecía autocumplida. Los avances en la electrónica digital, como la reducción de los precios de los microprocesadores ajustados por calidad, el aumento de la capacidad de la memoria (RAM y flash), la mejora de los sensores e incluso la cantidad y el tamaño de los píxeles en las cámaras digitales, están fuertemente vinculados a la ley de Moore.. Estos cambios en curso en la electrónica digital han sido una fuerza impulsora del cambio tecnológico y social, la productividad y el crecimiento económico.

Los expertos de la industria no han llegado a un consenso sobre exactamente cuándo dejará de aplicarse la ley de Moore. Los arquitectos de microprocesadores informan que el avance de los semiconductores se ha ralentizado en toda la industria desde alrededor de 2010, ligeramente por debajo del ritmo previsto por la ley de Moore.

Historia

En 1959, Douglas Engelbart estudió la reducción proyectada del tamaño del circuito integrado (CI), y publicó sus resultados en el artículo "Microelectrónica y el arte de la similitud". Engelbart presentó sus hallazgos en la Conferencia Internacional de Circuitos de Estado Sólido de 1960, donde Moore estuvo presente entre la audiencia.

Ese mismo año, Mohamed Atalla y Dawon Kahng inventaron el MOSFET (transistor de efecto de campo semiconductor de óxido de metal), también conocido como transistor MOS, en Bell Labs. El MOSFET fue el primer transistor verdaderamente compacto que podía miniaturizarse y producirse en masa para una amplia gama de usos, con su alta escalabilidad y bajo consumo de energía que daba como resultado una mayor densidad de transistores y posibilitaba la construcción de chips IC de alta densidad. A principios de la década de 1960, Gordon E. Moore reconoció que las características eléctricas y de escalado ideales de los dispositivos MOSFET conducirían a niveles de integración rápidamente crecientes y un crecimiento sin precedentes en las aplicaciones electrónicas.

En 1965, se le pidió a Gordon Moore, quien en ese momento trabajaba como director de investigación y desarrollo en Fairchild Semiconductor, que contribuyera a la edición del trigésimo quinto aniversario de la revista Electronics con una predicción sobre el futuro de la industria de componentes de semiconductores durante el próximos diez años. Su respuesta fue un breve artículo titulado "Abarrotar más componentes en circuitos integrados". Dentro de su editorial, especuló que para 1975 sería posible contener hasta 65.000 componentes en un solo semiconductor de un cuarto de pulgada cuadrada.

La complejidad de los costos mínimos de los componentes ha aumentado a un ritmo de aproximadamente un factor de dos por año. Ciertamente, en el corto plazo se puede esperar que esta tasa continúe, si no que aumente. A más largo plazo, la tasa de aumento es un poco más incierta, aunque no hay razón para creer que no se mantendrá casi constante durante al menos 10 años.

Moore postuló una relación logarítmica lineal entre la complejidad del dispositivo (mayor densidad de circuitos a un costo reducido) y el tiempo. En una entrevista de 2015, Moore señaló sobre el artículo de 1965: "... Acabo de hacer una extrapolación descabellada diciendo que seguirá duplicándose cada año durante los próximos 10 años". Un historiador de la ley cita la ley de eponimia de Stigler, para presentar el hecho de que muchos de los que trabajaban en el campo conocían la duplicación regular de componentes.

En 1974, Robert H. Dennard de IBM reconoció la tecnología de escalado rápido de MOSFET y formuló lo que se conoció como escalado de Dennard, que describe que a medida que los transistores MOS se hacen más pequeños, su densidad de potencia permanece constante de modo que el uso de energía permanece en proporción con el área. El escalado y la miniaturización de MOSFET han sido las fuerzas impulsoras clave detrás de la ley de Moore. La evidencia de la industria de los semiconductores muestra que esta relación inversa entre la densidad de potencia y la densidad de área se rompió a mediados de la década de 2000.

En la Reunión Internacional de Dispositivos de Electrones de IEEE de 1975, Moore revisó su tasa de pronóstico y predijo que la complejidad de los semiconductores continuaría duplicándose anualmente hasta alrededor de 1980, después de lo cual disminuiría a una tasa de duplicación aproximadamente cada dos años. Describió varios factores que contribuyen a este comportamiento exponencial:

Poco después de 1975, el profesor de Caltech Carver Mead popularizó el término "ley de Moore". La ley de Moore finalmente llegó a ser ampliamente aceptada como un objetivo para la industria de los semiconductores, y fue citada por los fabricantes de semiconductores de la competencia en su esfuerzo por aumentar la potencia de procesamiento. Moore vio su ley epónima como sorprendente y optimista: "La ley de Moore es una violación de la ley de Murphy. Todo mejora cada vez más". La observación incluso fue vista como una profecía autocumplida.

El período de duplicación a menudo se cita erróneamente como 18 meses debido a una predicción del colega de Moore, el ejecutivo de Intel, David House. En 1975, House notó que la ley revisada de Moore de duplicar el número de transistores cada 2 años implicaba que el rendimiento del chip de computadora se duplicaría aproximadamente cada 18 meses (sin aumento en el consumo de energía). La ley de Moore está estrechamente relacionada con el escalado de MOSFET, ya que el escalado rápido y la miniaturización de los MOSFET son la fuerza impulsora clave detrás de la ley de Moore.Matemáticamente, la Ley de Moore predijo que la cantidad de transistores se duplicaría cada 2 años debido a la reducción de las dimensiones de los transistores y otras mejoras. Como consecuencia de la reducción de las dimensiones, la escala de Dennard predijo que el consumo de energía por unidad de área se mantendría constante. Combinando estos efectos, David House dedujo que el rendimiento del chip de computadora se duplicaría aproximadamente cada 18 meses. También debido a la escala de Dennard, este mayor rendimiento no estaría acompañado por una mayor potencia, es decir, la eficiencia energética de los chips de computadora basados ​​en silicio se duplica aproximadamente cada 18 meses. La escala de Dennard terminó en la década de 2000. Koomey mostró más tarde que una tasa similar de mejora de la eficiencia precedió a los chips de silicio y la Ley de Moore, para tecnologías como los tubos de vacío.

Los arquitectos de microprocesadores informan que desde alrededor de 2010, el avance de los semiconductores se ha desacelerado en toda la industria por debajo del ritmo previsto por la ley de Moore. Brian Krzanich, ex director ejecutivo de Intel, citó la revisión de Moore de 1975 como precedente de la desaceleración actual, que es el resultado de desafíos técnicos y es "una parte natural de la historia de la ley de Moore". La tasa de mejora en las dimensiones físicas conocida como escala Dennard también terminó a mediados de la década de 2000. Como resultado, gran parte de la industria de los semiconductores ha cambiado su enfoque hacia las necesidades de las principales aplicaciones informáticas en lugar del escalado de semiconductores. Sin embargo, los principales fabricantes de semiconductores, TSMC y Samsung Electronics, afirman seguir el ritmo de la ley de Moore con nodos de 10 nm y 7 nm en producción en masa.y nodos de 5 nm en producción de riesgo a partir de 2019.

Segunda ley de moore

A medida que cae el costo de la potencia de la computadora para el consumidor, el costo para que los productores cumplan con la ley de Moore sigue una tendencia opuesta: los costos de investigación y desarrollo, fabricación y prueba han aumentado constantemente con cada nueva generación de chips. El aumento de los costos de fabricación es una consideración importante para el mantenimiento de la ley de Moore. Esto condujo a la formulación de la segunda ley de Moore, también llamada ley de Rock, según la cual el costo de capital de una fábrica de semiconductores también aumenta exponencialmente con el tiempo.

Principales factores facilitadores

Numerosas innovaciones de científicos e ingenieros han sostenido la ley de Moore desde el comienzo de la era IC. Algunas de las innovaciones clave se enumeran a continuación, como ejemplos de avances que han avanzado en la tecnología de fabricación de dispositivos de semiconductores y circuitos integrados, lo que ha permitido que la cantidad de transistores aumente en más de siete órdenes de magnitud en menos de cinco décadas.

Los mapas de ruta de la tecnología de la industria informática predijeron en 2001 que la ley de Moore continuaría durante varias generaciones de chips semiconductores.

Tendencias recientes

Uno de los desafíos clave de la ingeniería de futuros transistores a nanoescala es el diseño de puertas. A medida que se reduce la dimensión del dispositivo, se vuelve más difícil controlar el flujo de corriente en el canal delgado. Los transistores a nanoescala modernos suelen adoptar la forma de MOSFET de múltiples puertas, siendo el FinFET el transistor a nanoescala más común. El FinFET tiene puerta dieléctrica en tres lados del canal. En comparación, la estructura de MOSFET de compuerta integral (GAAFET) tiene un control de compuerta aún mejor.

Los arquitectos de microprocesadores informan que el avance de los semiconductores se ha desacelerado en toda la industria desde alrededor de 2010, por debajo del ritmo previsto por la ley de Moore. Brian Krzanich, ex director ejecutivo de Intel, anunció: "Nuestra cadencia actual está más cerca de dos años y medio que de dos". Intel declaró en 2015 que las mejoras en los dispositivos MOSFET se han ralentizado, comenzando en el ancho de característica de 22 nm alrededor de 2012 y continuando en 14 nm.

Se han alcanzado los límites físicos para escalar transistores debido a fugas de fuente a drenaje, metales de compuerta limitados y opciones limitadas para el material del canal. Se están investigando otros enfoques que no se basan en el escalado físico. Estos incluyen el estado de giro de la espintrónica de electrones, las uniones de túnel y el confinamiento avanzado de materiales de canal a través de la geometría de nanocables. Las opciones de lógica y memoria basadas en giros se están desarrollando activamente en los laboratorios.

Investigación de materiales alternativos

La gran mayoría de los transistores actuales en circuitos integrados están compuestos principalmente de silicio dopado y sus aleaciones. A medida que el silicio se fabrica en transistores de un solo nanómetro, los efectos de canal corto modifican negativamente las propiedades materiales deseadas del silicio como transistor funcional. A continuación se muestran varios sustitutos que no son de silicio en la fabricación de transistores de nanómetros pequeños.

Un material propuesto es el arseniuro de indio y galio, o InGaAs. En comparación con sus homólogos de silicio y germanio, los transistores InGaAs son más prometedores para futuras aplicaciones lógicas de baja potencia y alta velocidad. Debido a las características intrínsecas de los semiconductores compuestos III-V, los transistores de efecto túnel y de pozo cuántico basados ​​en InGaAs se han propuesto como alternativas a los diseños de MOSFET más tradicionales.

La investigación en computación biológica muestra que el material biológico tiene una densidad de información y una eficiencia energética superiores en comparación con la computación basada en silicio.

Se están estudiando varias formas de grafeno para la electrónica de grafeno, por ejemplo, los transistores de nanocintas de grafeno se han mostrado muy prometedores desde su aparición en publicaciones en 2008. (El grafeno a granel tiene una banda prohibida de cero y, por lo tanto, no se puede usar en transistores debido a su conductividad constante, un incapacidad para apagar. Los bordes en zigzag de las nanocintas introducen estados de energía localizados en las bandas de conducción y valencia y, por lo tanto, una banda prohibida que permite la conmutación cuando se fabrica como un transistor. Como ejemplo, un GNR típico de ancho de 10 nm tiene una banda prohibida deseable energía de 0.4eV.) Sin embargo, será necesario realizar más investigaciones en capas de grafeno de menos de 50 nm, ya que su valor de resistividad aumenta y, por lo tanto, la movilidad de los electrones disminuye.

Pronósticos y hojas de ruta

En abril de 2005, Gordon Moore declaró en una entrevista que la proyección no puede sostenerse indefinidamente: "No puede continuar para siempre. La naturaleza de los exponenciales es que los expulsas y, finalmente, ocurre un desastre". También señaló que los transistores eventualmente alcanzarían los límites de la miniaturización a niveles atómicos:

En términos de tamaño [de los transistores], puede ver que nos estamos acercando al tamaño de los átomos, lo cual es una barrera fundamental, pero pasarán dos o tres generaciones antes de que lleguemos tan lejos, pero eso es lo más lejos que hemos llegado. nunca he podido ver. Tenemos otros 10 a 20 años antes de llegar a un límite fundamental. Para entonces, podrán fabricar chips más grandes y tener presupuestos de transistores de miles de millones.

En 2016, la Hoja de ruta tecnológica internacional para semiconductores, después de utilizar la Ley de Moore para impulsar la industria desde 1998, produjo su hoja de ruta final. Ya no centró su plan de investigación y desarrollo en la ley de Moore. En cambio, describió lo que podría llamarse la estrategia Más que Moore en la que las necesidades de las aplicaciones impulsan el desarrollo de chips, en lugar de centrarse en la escala de semiconductores. Los controladores de aplicaciones van desde teléfonos inteligentes hasta IA y centros de datos.

IEEE comenzó una iniciativa de mapeo de ruta en 2016, "Reiniciar la informática", denominada Hoja de ruta internacional para dispositivos y sistemas (IRDS).

La mayoría de los pronosticadores, incluido Gordon Moore, esperan que la ley de Moore termine alrededor de 2025. Aunque la Ley de Moore alcanzará una limitación física, algunos pronosticadores son optimistas sobre la continuación del progreso tecnológico en una variedad de otras áreas, incluidas las nuevas arquitecturas de chips, computación cuántica, e IA y aprendizaje automático.

Consecuencias

La electrónica digital ha contribuido al crecimiento económico mundial a finales del siglo XX y principios del XXI. La principal fuerza impulsora del crecimiento económico es el crecimiento de la productividad, y la ley de Moore influye en la productividad. Moore (1995) esperaba que "la tasa de progreso tecnológico se controlará a partir de las realidades financieras". Sin embargo, lo contrario podría ocurrir y ocurrió a fines de la década de 1990, cuando los economistas informaron que "el crecimiento de la productividad es el indicador económico clave de la innovación". La ley de Moore describe una fuerza impulsora del cambio tecnológico y social, la productividad y el crecimiento económico.

Una aceleración en la tasa de progreso de los semiconductores contribuyó a un aumento en el crecimiento de la productividad de EE. UU., que alcanzó el 3,4% anual en 1997-2004, superando el 1,6% anual durante 1972-1996 y 2005-2013. Como señala el economista Richard G. Anderson, "numerosos estudios han atribuido la causa de la aceleración de la productividad a las innovaciones tecnológicas en la producción de semiconductores que redujeron drásticamente los precios de dichos componentes y de los productos que los contienen (además de expandir las capacidades de tales productos)".

La principal implicación negativa de la ley de Moore es que la obsolescencia empuja a la sociedad contra los límites del crecimiento. A medida que las tecnologías continúan "mejorando" rápidamente, vuelven obsoletas las tecnologías predecesoras. En situaciones en las que la seguridad y la capacidad de supervivencia del hardware o los datos son primordiales, o en las que los recursos son limitados, la obsolescencia rápida a menudo plantea obstáculos para que las operaciones continúen sin problemas.

Debido a la huella intensiva de recursos y los materiales tóxicos utilizados en la producción de computadoras, la obsolescencia genera graves impactos ambientales dañinos. Los estadounidenses tiran 400 000 teléfonos celulares todos los días, pero este alto nivel de obsolescencia les parece a las empresas una oportunidad para generar ventas regulares de costosos equipos nuevos, en lugar de retener un dispositivo por un período de tiempo más largo, lo que lleva a la industria a utilizar la obsolescencia programada como centro de ganancias.

Una fuente alternativa de rendimiento mejorado se encuentra en las técnicas de microarquitectura que explotan el crecimiento del número de transistores disponibles. La ejecución desordenada y el almacenamiento en caché y la búsqueda previa en el chip reducen el cuello de botella de la latencia de la memoria a expensas de usar más transistores y aumentar la complejidad del procesador. Estos aumentos se describen empíricamente por la regla de Pollack, que establece que los aumentos de rendimiento debido a las técnicas de microarquitectura se aproximan a la raíz cuadrada de la complejidad (número de transistores o el área) de un procesador.

Durante años, los fabricantes de procesadores ofrecieron aumentos en las velocidades de reloj y el paralelismo de nivel de instrucción, de modo que el código de un solo subproceso se ejecutaba más rápido en los procesadores más nuevos sin modificaciones. Ahora, para administrar la disipación de energía de la CPU, los fabricantes de procesadores favorecen los diseños de chips de múltiples núcleos, y el software debe escribirse en una forma de subprocesos múltiples para aprovechar al máximo el hardware. Muchos paradigmas de desarrollo de subprocesos múltiples introducen una sobrecarga y no verán un aumento lineal en la velocidad frente a la cantidad de procesadores. Esto es particularmente cierto al acceder a recursos compartidos o dependientes, debido a la contención de bloqueo. Este efecto se vuelve más notorio a medida que aumenta el número de procesadores. Hay casos en los que un aumento de aproximadamente el 45 % en los transistores del procesador se ha traducido en un aumento de aproximadamente el 10-20 % en la potencia de procesamiento.

Por otro lado, los fabricantes están agregando unidades de procesamiento especializadas para manejar funciones como gráficos, video y criptografía. Por ejemplo, la extensión Parallel JavaScript de Intel no solo agrega soporte para múltiples núcleos, sino también para otras características de procesamiento no generales de sus chips, como parte de la migración de secuencias de comandos del lado del cliente hacia HTML5.

La ley de Moore ha afectado significativamente el rendimiento de otras tecnologías: Michael S. Malone escribió sobre la guerra de Moore tras el aparente éxito de la conmoción y el asombro en los primeros días de la guerra de Irak. El progreso en el desarrollo de armas guiadas depende de la tecnología electrónica. Las mejoras en la densidad del circuito y la operación de baja potencia asociadas con la ley de Moore también han contribuido al desarrollo de tecnologías que incluyen teléfonos móviles e impresión 3D.

Otras formulaciones y observaciones similares

Varias medidas de la tecnología digital están mejorando a tasas exponenciales relacionadas con la ley de Moore, incluidos el tamaño, el costo, la densidad y la velocidad de los componentes. Moore escribió solo sobre la densidad de los componentes, "un componente es un transistor, una resistencia, un diodo o un condensador", a un costo mínimo.

Transistores por circuito integrado: la formulación más popular es la de duplicar la cantidad de transistores en los circuitos integrados cada dos años. A fines de la década de 1970, la ley de Moore se conoció como el límite para el número de transistores en los chips más complejos. El gráfico en la parte superior muestra que esta tendencia se mantiene hoy. A partir de 2017, el procesador disponible comercialmente que posee la mayor cantidad de transistores es el Centriq de 48 núcleos con más de 18 mil millones de transistores.

Densidad al costo mínimo por transistor

Esta es la formulación dada en el artículo de Moore de 1965. No se trata solo de la densidad de transistores que se puede lograr, sino de la densidad de transistores en la que el costo por transistor es el más bajo. A medida que se colocan más transistores en un chip, el costo de fabricar cada transistor disminuye, pero aumenta la posibilidad de que el chip no funcione debido a un defecto. En 1965, Moore examinó la densidad de transistores a la que se minimiza el costo y observó que, a medida que los transistores se hacían más pequeños gracias a los avances en fotolitografía, este número aumentaría a "una tasa de aproximadamente un factor de dos por año".

Escala Dennard: esto postula que el uso de energía disminuiría en proporción al área (tanto el voltaje como la corriente son proporcionales a la longitud) de los transistores. En combinación con la ley de Moore, el rendimiento por vatio crecería aproximadamente al mismo ritmo que la densidad del transistor, duplicándose cada 1 o 2 años. Según Dennard, las dimensiones del transistor de escala se escalarían en un 30% (0,7x) cada generación de tecnología, reduciendo así su área en un 50%. Esto reduciría el retraso en un 30 % (0,7x) y, por lo tanto, aumentaría la frecuencia de funcionamiento en aproximadamente un 40 % (1,4x). Finalmente, para mantener el campo eléctrico constante, el voltaje se reduciría en un 30 %, reduciendo la energía en un 65 % y la potencia (a 1,4x de frecuencia) en un 50 %.Por lo tanto, en cada generación de tecnología, la densidad de transistores se duplicaría, el circuito se volvería un 40% más rápido, mientras que el consumo de energía (con el doble de transistores) se mantendría igual. La escala de Dennard terminó en 2005-2010, debido a las corrientes de fuga.

El crecimiento exponencial del transistor del procesador predicho por Moore no siempre se traduce en un rendimiento práctico exponencialmente mayor de la CPU. Desde alrededor de 2005-2007, la escala de Dennard ha terminado, por lo que, aunque la ley de Moore continuó durante varios años después de eso, no ha producido dividendos en la mejora del rendimiento. La razón principal citada para la falla es que en tamaños pequeños, la fuga de corriente plantea mayores desafíos y también hace que el chip se caliente, lo que crea una amenaza de fuga térmica y, por lo tanto, aumenta aún más los costos de energía.

El desglose del escalado de Dennard provocó un mayor enfoque en los procesadores multinúcleo, pero las ganancias que ofrece el cambio a más núcleos son menores que las ganancias que se lograrían si el escalamiento de Dennard continuara. En otra desviación de la escala de Dennard, los microprocesadores Intel adoptaron un FinFET tri-gate no planar a 22 nm en 2012 que es más rápido y consume menos energía que un transistor planar convencional. La tasa de mejora del rendimiento de los microprocesadores de un solo núcleo se ha ralentizado significativamente. El rendimiento de un solo núcleo mejoró un 52 % por año entre 1986 y 2003 y un 23 % por año entre 2003 y 2011, pero disminuyó a solo un siete por ciento por año entre 2011 y 2018.

Precio ajustado por calidad de los equipos de TI: el precio de la tecnología de la información (TI), las computadoras y los equipos periféricos, ajustados por calidad e inflación, disminuyó un 16% anual en promedio durante las cinco décadas desde 1959 hasta 2009. Sin embargo, el ritmo se aceleró a 23 % por año en 1995–1999 provocado por una innovación de TI más rápida y, más tarde, se redujo a 2 % por año en 2010–2013.

Si bien continúa la mejora del precio del microprocesador ajustado por calidad, la tasa de mejora también varía y no es lineal en una escala logarítmica. La mejora del precio de los microprocesadores se aceleró a finales de la década de 1990, alcanzando el 60 % anual (reduciéndose a la mitad cada nueve meses) frente a la típica tasa de mejora del 30 % (reduciendo a la mitad cada dos años) durante los años anteriores y posteriores. Los microprocesadores de las computadoras portátiles, en particular, mejoraron entre un 25% y un 35% por año entre 2004 y 2010 y se redujeron a entre un 15% y un 25% por año entre 2010 y 2013.

El número de transistores por chip no puede explicar por completo los precios de los microprocesadores ajustados por calidad. El artículo de Moore de 1995 no limita la ley de Moore a la linealidad estricta o al conteo de transistores, "La definición de 'Ley de Moore' ha llegado a referirse a casi cualquier cosa relacionada con la industria de los semiconductores que en un diagrama semi-logarítmico se aproxima a una línea recta. Dudo revisar sus orígenes y, al hacerlo, restringir su definición".

Densidad de área de la unidad de disco duro: en 2005 se realizó una predicción similar (a veces denominada ley de Kryder) para la densidad de área de la unidad de disco duro. La predicción fue vista más tarde como demasiado optimista. Varias décadas de rápido progreso en la densidad de área se ralentizaron alrededor de 2010, de 30 a 100 % por año a 10 a 15 % por año, debido al ruido relacionado con el tamaño de grano más pequeño del medio del disco, la estabilidad térmica y la capacidad de escritura con los campos magnéticos disponibles.

Capacidad de fibra óptica: la cantidad de bits por segundo que se pueden enviar por una fibra óptica aumenta exponencialmente, más rápido que la ley de Moore. Ley de Keck, en honor a Donald Keck.

Capacidad de red: según Gerry/Gerald Butters, exjefe del Grupo de redes ópticas de Lucent en Bell Labs, existe otra versión, llamada Ley de fotónica de Butters, una formulación que deliberadamente es paralela a la ley de Moore. La ley de Butters dice que la cantidad de datos que salen de una fibra óptica se duplica cada nueve meses.Así, el costo de transmitir un bit a través de una red óptica se reduce a la mitad cada nueve meses. La disponibilidad de la multiplexación por división de longitud de onda (a veces llamada WDM) aumentó la capacidad que se podía colocar en una sola fibra hasta en un factor de 100. Las redes ópticas y la multiplexación por división de longitud de onda densa (DWDM) están reduciendo rápidamente el costo de trabajo en red, y parece asegurado un mayor progreso. Como resultado, el precio mayorista del tráfico de datos colapsó en la burbuja de las puntocom. La Ley de Nielsen dice que el ancho de banda disponible para los usuarios aumenta en un 50% anual.

Píxeles por dólar: de manera similar, Barry Hendy de Kodak Australia ha trazado píxeles por dólar como una medida básica de valor para una cámara digital, lo que demuestra la linealidad histórica (en una escala logarítmica) de este mercado y la oportunidad de predecir la tendencia futura de digital. precio de la cámara, pantallas LCD y LED, y resolución.

El gran compensador de la ley de Moore (TGMLC), también conocido como ley de Wirth, generalmente se conoce como software hinchado y es el principio de que las generaciones sucesivas de software de computadora aumentan en tamaño y complejidad, compensando así las ganancias de rendimiento predichas por la ley de Moore. En un artículo de 2008 en InfoWorld, Randall C. Kennedy, antes de Intel, introduce este término utilizando versiones sucesivas de Microsoft Office entre el año 2000 y 2007 como premisa. A pesar de las mejoras en el rendimiento computacional durante este período de tiempo según la ley de Moore, Office 2007 realizó la misma tarea a la mitad de la velocidad en una computadora prototípica del año 2007 en comparación con Office 2000 en una computadora del año 2000.

Expansión de la biblioteca: Fremont Rider calculó en 1945 que se duplicaría la capacidad cada 16 años, si hubiera suficiente espacio disponible. Abogó por reemplazar las obras impresas voluminosas y en descomposición con fotografías analógicas en microformas miniaturizadas, que podrían duplicarse a pedido para los usuarios de bibliotecas u otras instituciones. No previó la tecnología digital que seguiría décadas más tarde para reemplazar la microforma analógica con medios digitales de imágenes, almacenamiento y transmisión. Las tecnologías digitales automatizadas y potencialmente sin pérdidas permitieron grandes aumentos en la rapidez del crecimiento de la información en una era que ahora a veces se denomina la era de la información.

Curva de Carlson: es un término acuñado por The Economist para describir el equivalente biotecnológico de la ley de Moore, y lleva el nombre del autor Rob Carlson. Carlson predijo con precisión que el tiempo de duplicación de las tecnologías de secuenciación de ADN (medido por el costo y el rendimiento) sería al menos tan rápido como la ley de Moore. Las curvas de Carlson ilustran las reducciones rápidas (en algunos casos hiperexponenciales) en el costo y los aumentos en el rendimiento de una variedad de tecnologías, incluida la secuenciación de ADN, la síntesis de ADN y una variedad de herramientas físicas y computacionales utilizadas en la expresión de proteínas y en la determinación de estructuras de proteínas..

Ley de Eroom: es una observación del desarrollo de fármacos farmacéuticos que se escribió deliberadamente como la Ley de Moore escrita al revés para contrastarla con los avances exponenciales de otras formas de tecnología (como los transistores) a lo largo del tiempo. Establece que el costo de desarrollar un nuevo fármaco se duplica aproximadamente cada nueve años.

Los efectos de la curva de experiencia dicen que cada duplicación de la producción acumulada de prácticamente cualquier producto o servicio va acompañada de una reducción porcentual constante aproximada en el costo unitario. La primera descripción cualitativa documentada reconocida de esto data de 1885. Se utilizó una curva de potencia para describir este fenómeno en una discusión de 1936 sobre el costo de los aviones.

Ley de Edholm: Phil Edholm observó que el ancho de banda de las redes de telecomunicaciones (incluida Internet) se duplica cada 18 meses. Los anchos de banda de las redes de comunicación en línea han aumentado de bits por segundo a terabits por segundo. El rápido aumento del ancho de banda en línea se debe en gran medida al mismo escalado de MOSFET que permite la ley de Moore, ya que las redes de telecomunicaciones se construyen a partir de MOSFET.

La ley de Haitz predice que el brillo de los LED aumenta a medida que disminuye su costo de fabricación.

La ley de Swanson es la observación de que el precio de los módulos solares fotovoltaicos tiende a caer un 20 por ciento por cada duplicación del volumen acumulado enviado. Al ritmo actual, los costos bajan un 75% aproximadamente cada 10 años.