GeForce
GeForce es una marca de unidades de procesamiento de gráficos (GPU) diseñadas por Nvidia. A partir de la serie GeForce 40, ha habido dieciocho iteraciones del diseño. Los primeros productos GeForce fueron GPU discretas diseñadas para tarjetas gráficas complementarias, pensadas para el mercado de juegos de PC de alto margen, y la diversificación posterior de la línea de productos cubrió todos los niveles del mercado de gráficos para PC, desde GPU sensibles al costo integradas en placas base, para incorporar tableros minoristas complementarios. Más recientemente, la tecnología GeForce se introdujo en la línea de procesadores de aplicaciones integrados de Nvidia, diseñados para dispositivos portátiles electrónicos y dispositivos móviles.
Con respecto a las GPU discretas, que se encuentran en las tarjetas gráficas complementarias, las GPU GeForce de Nvidia y Radeon de AMD son los únicos competidores que quedan en el mercado de gama alta. Las GPU GeForce son muy dominantes en el mercado de unidades de procesadores gráficos de uso general (GPGPU) gracias a su arquitectura patentada CUDA. Se espera que GPGPU amplíe la funcionalidad de GPU más allá de la rasterización tradicional de gráficos 3D, para convertirlo en un dispositivo informático de alto rendimiento capaz de ejecutar código de programación arbitrario de la misma manera que lo hace una CPU, pero con diferentes puntos fuertes (ejecución altamente paralela de cálculos sencillos) y debilidades (peor rendimiento para código de bifurcación complejo).
Origen del nombre
El "GeForce" El nombre se originó a partir de un concurso realizado por Nvidia a principios de 1999 llamado "Dale un nombre a ese chip". La empresa hizo un llamado al público para nombrar al sucesor de la línea de tarjetas gráficas RIVA TNT2. Se recibieron más de 12 000 participaciones y 7 ganadores recibieron una tarjeta gráfica RIVA TNT2 Ultra como recompensa. Brian Burke, gerente senior de relaciones públicas de Nvidia, le dijo a Maximum PC en 2002 que "GeForce" originalmente significaba "Geometry Force" ya que GeForce 256 fue la primera GPU para computadoras personales en calcular la geometría de transformación e iluminación, descargando esa función de la CPU.
Generaciones de procesadores gráficos
1999 | GeForce 256 |
---|---|
2000 | GeForce 2 series |
2001 | GeForce 3 series |
2002 | GeForce 4 series |
2003 | GeForce FX series |
2004 | GeForce 6 series |
2005 | GeForce 7 series |
2006 | GeForce 8 series |
2007 | |
2008 | GeForce 9 series |
GeForce 200 series | |
2009 | GeForce 100 series |
GeForce 300 series | |
2010 | GeForce 400 series |
GeForce 500 series | |
2011 | |
2012 | GeForce 600 series |
2013 | GeForce 700 series |
2014 | GeForce 800M series |
GeForce 900 series | |
2015 | |
2016 | GeForce 10 series |
2017 | |
2018 | GeForce 20 series |
2019 | GeForce 16 series |
2020 | GeForce 30 series |
2021 | |
2022 | GeForce 40 series |
GeForce 256
Serie GeForce 2
Lanzada en abril de 2000, la primera GeForce2 (NV15) fue otro chip gráfico de alto rendimiento. Nvidia pasó a un diseño de procesador de textura doble por tubería (4x2), duplicando la tasa de relleno de textura por reloj en comparación con GeForce 256. Más tarde, Nvidia lanzó GeForce2 MX (NV11), que ofrecía un rendimiento similar al de GeForce 256 pero a una fracción del costo.. El MX fue un valor convincente en los segmentos de mercado de rango bajo/medio y fue popular entre los fabricantes y usuarios de PC OEM por igual. La GeForce 2 Ultra fue el modelo de gama alta de esta serie.
Serie GeForce 3
Lanzada en febrero de 2001, la GeForce3 (NV20) introdujo sombreadores de píxeles y vértices programables en la familia GeForce y en los aceleradores de gráficos de consumo. Tenía un buen rendimiento general y compatibilidad con sombreadores, lo que lo hizo popular entre los entusiastas, aunque nunca alcanzó el precio medio. El NV2A desarrollado para la consola de juegos Microsoft Xbox es un derivado de GeForce 3.
Serie GeForce 4
Lanzada en febrero de 2002, la entonces gama alta GeForce4 Ti (NV25) era principalmente una mejora de la GeForce3. Los mayores avances incluyeron mejoras en las capacidades de suavizado, un controlador de memoria mejorado, un segundo sombreador de vértices y una reducción del tamaño del proceso de fabricación para aumentar la velocidad del reloj. Otro miembro de la familia GeForce 4, la económica GeForce4 MX se basó en la GeForce2, con la adición de algunas características de la GeForce4 Ti. Apuntó al segmento de valor del mercado y carecía de sombreadores de píxeles. La mayoría de estos modelos usaban la interfaz AGP 4×, pero algunos comenzaron la transición a AGP 8×.
Serie GeForce FX
Lanzada en 2003, la GeForce FX (NV30) supuso un gran cambio en la arquitectura en comparación con sus predecesoras. La GPU se diseñó no solo para admitir la nueva especificación Shader Model 2, sino también para funcionar bien en títulos más antiguos. Sin embargo, los modelos iniciales como la GeForce FX 5800 Ultra sufrían de un débil rendimiento del sombreador de punto flotante y un calor excesivo que requería soluciones de refrigeración de dos ranuras infamemente ruidosas. Los productos de esta serie llevan el número de modelo 5000, ya que es la quinta generación de GeForce, aunque Nvidia comercializó las tarjetas como GeForce FX en lugar de GeForce 5 para mostrar 'los albores del renderizado cinematográfico'.
Serie GeForce 6
Lanzada en abril de 2004, la GeForce 6 (NV40) agregó compatibilidad con Shader Model 3.0 a la familia GeForce, al tiempo que corrigió el débil rendimiento del sombreador de punto flotante de su predecesor. También implementó imágenes de alto rango dinámico e introdujo SLI (interfaz de enlace escalable) y capacidad PureVideo (hardware parcial integrado MPEG-2, VC-1, Windows Media Video y decodificación H.264 y posprocesamiento de video completamente acelerado).
Serie GeForce 7
La GeForce de séptima generación (G70/NV47) se lanzó en junio de 2005 y fue la última serie de tarjetas de video de Nvidia que admitía el bus AGP. El diseño era una versión refinada de GeForce 6, con las principales mejoras como una tubería ampliada y un aumento en la velocidad del reloj. La GeForce 7 también ofrece nuevos modos de supermuestreo de transparencia y antialiasing de multimuestreo de transparencia (TSAA y TMAA). Estos nuevos modos de suavizado también se habilitaron más tarde para la serie GeForce 6. La GeForce 7950GT presentó la GPU de mayor rendimiento con una interfaz AGP en la línea Nvidia. Esta era comenzó la transición a la interfaz PCI-Express.
Una variante de 128 bits y 8 ROP de la 7800 GTX, llamada RSX 'Reality Synthesizer', se usa como GPU principal en Sony PlayStation 3.
Serie GeForce 8
Lanzada el 8 de noviembre de 2006, la GeForce de octava generación (originalmente llamada G80) fue la primera GPU en ser totalmente compatible con Direct3D 10. Fabricada con un proceso de 90 nm y basada en la nueva microarquitectura de Tesla, implementó el sombreador unificado modelo. Inicialmente, solo se lanzó el modelo 8800GTX, mientras que la variante GTS se lanzó meses después de la vida útil de la línea de productos, y las tarjetas de gama media y OEM/mainstream tardaron casi seis meses en integrarse en la serie 8. La reducción del troquel a 65 nm y una revisión del diseño del G80, cuyo nombre en código es G92, se implementaron en la serie 8 con los modelos 8800GS, 8800GT y 8800GTS-512, lanzados por primera vez el 29 de octubre de 2007, casi un año después del G80 inicial. liberar.
GeForce serie 9 y serie 100
El primer producto se lanzó el 21 de febrero de 2008. Ni siquiera cuatro meses después del lanzamiento inicial de G92, todos los diseños de la serie 9 son simplemente revisiones de los últimos productos de la serie 8 existentes. El 9800GX2 usa dos GPU G92, como se usa en las tarjetas 8800 posteriores, en una configuración de PCB dual y solo requiere una única ranura PCI-Express 16x. El 9800GX2 utiliza dos buses de memoria separados de 256 bits, uno para cada GPU y sus respectivos 512 MB de memoria, lo que equivale a un total de 1 GB de memoria en la tarjeta (aunque la configuración SLI de los chips requiere duplicar el búfer de cuadro entre los dos chips, lo que reduce a la mitad el rendimiento de la memoria de una configuración de 256 bits/512 MB). El último 9800GTX cuenta con una sola GPU G92, bus de datos de 256 bits y 512 MB de memoria GDDR3.
Antes del lanzamiento, no se conocía información concreta, excepto que los funcionarios afirmaron que los productos de próxima generación tenían una potencia de procesamiento cercana a 1 TFLOPS y que los núcleos de la GPU aún se fabricaban en el proceso de 65 nm, e informes sobre Nvidia que minimizaban la importancia de Direct3D 10.1. En marzo de 2009, varias fuentes informaron que Nvidia había lanzado silenciosamente una nueva serie de productos GeForce, a saber, la serie GeForce 100, que consta de piezas de la serie 9 rebautizadas. Los productos de la serie GeForce 100 no estaban disponibles para compra individual.
GeForce serie 200 y serie 300
Basada en el procesador de gráficos GT200 que consta de 1400 millones de transistores, cuyo nombre en código es Tesla, la serie 200 se lanzó el 16 de junio de 2008. La próxima generación de la serie GeForce lleva el esquema de nombres de tarjetas en una nueva dirección, al reemplazar el número de serie (como 8800 para tarjetas de la serie 8) con el sufijo GTX o GTS (que solía ir al final de los nombres de las tarjetas, indicando su "rango" entre otros modelos similares), y luego agregar el modelo -Números como 260 y 280 después de eso. La serie presenta el nuevo núcleo GT200 en un dado de 65nm. Los primeros productos fueron la GeForce GTX 260 y la GeForce GTX 280, más cara. La GeForce 310 se lanzó el 27 de noviembre de 2009, que es un cambio de marca de GeForce 210. Las tarjetas de la serie 300 son GPU compatibles con DirectX 10.1 de la serie 200. que no estaban disponibles para la compra individual.
GeForce serie 400 y serie 500
El 7 de abril de 2010, Nvidia lanzó GeForce GTX 470 y GTX 480, las primeras tarjetas basadas en la nueva arquitectura Fermi, cuyo nombre en código es GF100; fueron las primeras GPU de Nvidia en utilizar 1 GB o más de memoria GDDR5. La GTX 470 y la GTX 480 fueron muy criticadas debido al alto uso de energía, las altas temperaturas y el ruido muy alto que no se equilibraron con el rendimiento ofrecido, a pesar de que la GTX 480 fue la tarjeta DirectX 11 más rápida en su presentación.
En noviembre de 2010, Nvidia lanzó una nueva GPU emblemática basada en una arquitectura GF100 mejorada (GF110) llamada GTX 580. Presentaba un mayor rendimiento, menos uso de energía, calor y ruido que la GTX 480 anterior. Esta GPU recibió una mejor revisiones que la GTX 480. Más tarde, Nvidia también lanzó la GTX 590, que incluye dos GPU GF110 en una sola tarjeta.
GeForce serie 600, serie 700 y serie 800M
En septiembre de 2010, Nvidia anunció que la sucesora de la microarquitectura Fermi sería la microarquitectura Kepler, fabricada con el proceso de fabricación TSMC de 28 nm. Anteriormente, Nvidia había sido contratada para suministrar sus núcleos GK110 de gama alta para su uso en el Laboratorio Nacional de Oak Ridge 'Titan'. supercomputadora, lo que lleva a una escasez de núcleos GK110. Después de que AMD lanzara su propia actualización anual a principios de 2012, la serie Radeon HD 7000, Nvidia comenzó el lanzamiento de la serie GeForce 600 en marzo de 2012. El núcleo GK104, originalmente destinado a su segmento de rango medio de su línea, se convirtió en el buque insignia GTX 680. Introdujo mejoras significativas en el rendimiento, el calor y la eficiencia energética en comparación con la arquitectura Fermi y se acercó mucho a la Radeon HD 7970 insignia de AMD. Le siguieron rápidamente la GK104 GTX 690 dual y la GTX 670, que presentaban solo un núcleo GK104 ligeramente reducido y tenía un rendimiento muy similar al de la GTX 680.
Con la GTX Titan, Nvidia también lanzó GPU Boost 2.0, que permitiría que la velocidad del reloj de la GPU aumentara indefinidamente hasta alcanzar un límite de temperatura establecido por el usuario sin superar la velocidad máxima del ventilador especificada por el usuario. El lanzamiento final de la serie GeForce 600 fue la GTX 650 Ti BOOST basada en el núcleo GK106, en respuesta al lanzamiento de Radeon HD 7790 de AMD. A fines de mayo de 2013, Nvidia anunció la serie 700, que todavía se basaba en la arquitectura Kepler, sin embargo, presentaba una tarjeta basada en GK110 en la parte superior de la línea. La GTX 780 era una Titan ligeramente reducida que logró casi el mismo rendimiento por dos tercios del precio. Presentaba el mismo diseño de enfriador de referencia avanzado, pero no tenía los núcleos de doble precisión desbloqueados y estaba equipado con 3 GB de memoria.
Al mismo tiempo, Nvidia anunció ShadowPlay, una solución de captura de pantalla que utilizaba un codificador H.264 integrado en la arquitectura Kepler que Nvidia no había revelado anteriormente. Podría usarse para grabar juegos sin una tarjeta de captura y con una disminución insignificante del rendimiento en comparación con las soluciones de grabación de software, y estaba disponible incluso en las tarjetas de la serie GeForce 600 de la generación anterior. Sin embargo, la versión beta del software para ShadowPlay experimentó varios retrasos y no se lanzaría hasta finales de octubre de 2013. Una semana después del lanzamiento de la GTX 780, Nvidia anunció que la GTX 770 sería un cambio de marca de la GTX 680. Se siguió por la GTX 760 poco después, que también estaba basada en el núcleo GK104 y era similar a la GTX 660 Ti. No se programaron más tarjetas de la serie 700 para su lanzamiento en 2013, aunque Nvidia anunció G-Sync, otra característica de la arquitectura Kepler que Nvidia no había mencionado, que permitía a la GPU controlar dinámicamente la frecuencia de actualización de los monitores compatibles con G-Sync que Lanzamiento en 2014, para combatir el desgarro y la vibración. Sin embargo, en octubre, AMD lanzó la R9 290X, que costaba $100 menos que la GTX 780. En respuesta, Nvidia redujo el precio de la GTX 780 en $150 y lanzó la GTX 780 Ti, que presentaba una GK110 completa de 2880 núcleos. núcleo aún más poderoso que el GTX Titan, junto con mejoras en el sistema de suministro de energía que mejoraron el overclocking y lograron adelantarse al nuevo lanzamiento de AMD.
La serie GeForce 800M consta de partes de la serie 700M renombradas basadas en la arquitectura Kepler y algunas partes de gama baja basadas en la arquitectura Maxwell más nueva.
Serie GeForce 900
En marzo de 2013, Nvidia anunció que la sucesora de Kepler sería la microarquitectura Maxwell. Fue lanzado en septiembre de 2014, con los chips de la serie GM10x, enfatizando las nuevas mejoras arquitectónicas de eficiencia energética en OEM y productos de bajo TDP en GTX 750/750 ti de escritorio y GTX 850M/860M móvil. Más tarde ese año, Nvidia impulsó el TDP con los chips GM20x para usuarios avanzados, omitiendo por completo la serie 800 para escritorio, con la serie 900 de GPU.
Esta fue la última serie GeForce que admitió salida de video analógico a través de DVI-I. Aunque existen adaptadores de pantalla analógica y pueden convertir un puerto de pantalla digital, HDMI o DVI-D (digital).
Serie GeForce 10
En marzo de 2014, Nvidia anunció que la sucesora de Maxwell sería la microarquitectura Pascal; anunciado el 6 de mayo de 2016 y lanzado el 27 de mayo de 2016. Las mejoras arquitectónicas incluyen lo siguiente:
- En Pascal, un SM (incorporación multiprocesador) consta de 128 núcleos CUDA. Kepler empacó 192, Fermi 32 y Tesla sólo 8 núcleos CUDA en una SM; el GP100 SM se divide en dos bloques de procesamiento, cada uno con 32 núcleos CUDA de una sola precisión, un búfer de instrucciones, un programador de warp, 2 unidades de cartografía de textura y 2 unidades de despacho.
- GDDR5X – Nuevo estándar de memoria que soporta las tasas de datos 10Gbit/s y un controlador de memoria actualizado. Sólo el Nvidia Titan X (y Titan Xp), GTX 1080, GTX 1080 Ti y GTX 1060 (6 GB versión) soportan GDDR5X. El GTX 1070 Ti, GTX 1070, GTX 1060 (3GB versión), GTX 1050 Ti y GTX 1050 usan GDDR5.
- Memoria unificada – Una arquitectura de memoria, donde la CPU y GPU pueden acceder tanto a la memoria del sistema principal como a la memoria en la tarjeta gráfica con la ayuda de una tecnología llamada "Page Migration Engine".
- NVLink – Un autobús de alta ancho de banda entre la CPU y GPU, y entre múltiples GPU. Permite velocidades de transferencia mucho más altas que las alcanzables utilizando PCI Express; estimadas para proporcionar entre 80 y 200 GB/s.
- Las operaciones de 16 bits (FP16) de punto flotante pueden ejecutarse dos veces la tasa de operaciones de 32 bits de punto flotante ("precisión total") y operaciones de 64 bits de punto flotante ("doble precisión") ejecutadas a la mitad de la tasa de operaciones de 32 bits de punto flotante (tasa Máxwell 1/32).
- Nodo de proceso más avanzado, TSMC 12 nm en lugar del TSMC 28 nm más antiguo
GeForce serie 20 y serie 16
En agosto de 2018, Nvidia anunció la sucesora GeForce de Pascal. El nombre de la nueva microarquitectura se reveló como "Turing" en la conferencia Siggraph 2018. Esta nueva microarquitectura de GPU tiene como objetivo acelerar el soporte de trazado de rayos en tiempo real y la inferencia de IA. Cuenta con una nueva unidad de trazado de rayos (RT Core) que puede dedicar procesadores al trazado de rayos en el hardware. Admite la extensión DXR en Microsoft DirectX 12. Nvidia afirma que la nueva arquitectura es hasta 6 veces más rápida que la antigua arquitectura Pascal. Un diseño de núcleo Tensor completamente nuevo desde que Volta presenta la aceleración de aprendizaje profundo de IA, que permite la utilización de DLSS (Super Sampling de aprendizaje profundo), una nueva forma de suavizado que utiliza IA para proporcionar imágenes más nítidas con menos impacto en el rendimiento. También cambia su unidad de ejecución de enteros que puede ejecutarse en paralelo con la ruta de datos de coma flotante. También se anunció una nueva arquitectura de caché unificada que duplica su ancho de banda en comparación con las generaciones anteriores.
Las nuevas GPU se revelaron como Quadro RTX 8000, Quadro RTX 6000 y Quadro RTX 5000. La Quadro RTX 8000 de gama alta cuenta con 4608 núcleos CUDA y 576 núcleos Tensor con 48 GB de VRAM. Más tarde, durante la conferencia de prensa de Gamescom, el CEO de Nvidia, Jensen Huang, presentó la nueva serie GeForce RTX con RTX 2080 Ti, 2080 y 2070 que utilizará la arquitectura Turing. Las primeras tarjetas Turing estaban programadas para enviarse a los consumidores el 20 de septiembre de 2018. Nvidia anunció el RTX 2060 el 6 de enero de 2019 en CES 2019.
El 2 de julio de 2019, Nvidia anunció la línea de tarjetas GeForce RTX Super, una actualización de la serie 20 que comprende versiones de mayor especificación de las RTX 2060, 2070 y 2080. Las RTX 2070 y 2080 se descontinuaron.
En febrero de 2019, Nvidia anunció la serie GeForce 16. Se basa en la misma arquitectura de Turing utilizada en la serie GeForce 20, pero deshabilita los núcleos Tensor (AI) y RT (trazado de rayos) para proporcionar tarjetas gráficas más asequibles para los jugadores y al mismo tiempo lograr un mayor rendimiento en comparación con las tarjetas respectivas de la anterior. Generaciones GeForce.
Al igual que la actualización RTX Super, Nvidia anunció el 29 de octubre de 2019 las tarjetas GTX 1650 Super y 1660 Super, que reemplazaron a sus contrapartes que no son Super.
El 28 de junio de 2022, Nvidia lanzó silenciosamente su tarjeta GTX 1630, que estaba destinada a jugadores de gama baja.
Serie GeForce 30
Nvidia anunció oficialmente en el evento especial de GeForce que la sucesora de la serie GeForce 20 será la serie 30, que se basa en la microarquitectura Ampere. El evento especial de GeForce presentado tuvo lugar el 1 de septiembre de 2020 y fijó el 17 de septiembre como fecha de lanzamiento oficial para la GPU RTX 3080, el 24 de septiembre para la GPU RTX 3090 y el 29 de octubre para la GPU RTX 3070. El último lanzamiento de GPU es el RTX 3090 Ti. La RTX 3090 Ti es la GPU Nvidia de gama más alta en la microarquitectura Ampere, cuenta con un troquel GA102 completamente desbloqueado integrado en el nodo Samsung de 8 nm debido a la escasez de suministro con TSMC. El RTX 3090 Ti tiene 10,752 núcleos CUDA, 336 núcleos Tensor y unidades de mapeo de texturas, 112 ROP, 84 núcleos RT y 24 gigabytes de memoria GDDR6X con un bus de 384 bits. En comparación con la RTX 2080 Ti, la 3090 Ti tiene 6400 núcleos CUDA más. Debido a la escasez mundial de chips, la serie 30 fue controvertida como revendedores y la alta demanda hizo que los precios de las GPU se dispararan para la serie 30 y la serie AMD RX 6000.
Serie GeForce 40 (actual)
El 20 de septiembre de 2022, NVIDIA anunció sus tarjetas gráficas de la serie GeForce 40. Estos salieron como RTX 4090, el 12 de octubre de 2022, RTX 4080 el 16 de noviembre de 2022, RTX 4070 Ti el 3 de enero de 2023 y se estima que el RTX 4070 se lanzará en el primer trimestre de este año (2023). Este año se esperan más series 40. Estos se basan en la arquitectura de Ada Lovelace, y los números de pieza actuales son "AD102," y "AD103". El RTX 4090 es actualmente el chip más rápido para el mercado principal que ha lanzado una empresa importante, que consta de alrededor de 16 384 núcleos CUDA, relojes boost de 2,2/2,5 GHz, 24 GB de GDDR6X, un bus de memoria de 384 bits, 128 3. gen RT cores, 512 4th gen Tensor cores, DLSS 3.0 y un TDP de 450W. Se espera que NVIDIA lance una nueva TITAN RTX, o una RTX 4090 Ti, en algún momento alrededor de 2023-4.
GeForce serie 50 (planificado)
La serie GeForce 50 (RTX 50XX) está prevista para su lanzamiento alrededor de 2024-2025. Se basará en la Arquitectura Blackwell más nueva e inédita. Será fabricado por TSMC o Samsung, y las piezas tendrán el nombre en código "GB100" y "GB102". Consistirá en memoria GDDR6 o GDDR7.
Variantes
GPU móviles
Desde la serie GeForce 2, Nvidia ha producido una serie de conjuntos de chips gráficos para computadoras portátiles bajo la marca GeForce Go. La mayoría de las características presentes en las contrapartes de escritorio están presentes en las móviles. Estas GPU generalmente están optimizadas para un menor consumo de energía y menos salida de calor para usarse en computadoras portátiles y computadoras de escritorio pequeñas.
A partir de la serie GeForce 8, la marca GeForce Go se suspendió y las GPU móviles se integraron con la línea principal de GPU GeForce, pero su nombre tenía el sufijo M. Esto terminó en 2016 con el lanzamiento de la serie GeForce 10 para portátiles: Nvidia eliminó el sufijo M y optó por unificar la marca entre sus ofertas de GPU para computadoras de escritorio y portátiles, ya que las GPU Pascal para portátiles son casi tan poderosas como sus contrapartes de escritorio (algo que Nvidia probó con su GPU GTX 980 para portátiles de "clase de escritorio" en 2015).
La marca GeForce MX, utilizada anteriormente por Nvidia para sus GPU de escritorio de nivel de entrada, revivió en 2017 con la lanzamiento de la GeForce MX150 para portátiles. El MX150 se basa en la misma GPU Pascal GP108 que se usa en el escritorio GT 1030 y se lanzó silenciosamente en junio de 2017.
GPU de factor de forma pequeño
Al igual que las GPU móviles, Nvidia también lanzó algunas GPU en "factor de forma pequeño" Formato, para uso en escritorios todo en uno. Estas GPU tienen el sufijo S, similar a la M utilizada para productos móviles.
GPU de placa base de escritorio integrada
A partir de nForce 4, Nvidia comenzó a incluir soluciones gráficas integradas en sus conjuntos de chips de placa base. Estas soluciones gráficas integradas se denominaron mGPU (GPU de placa base). Nvidia suspendió la gama nForce, incluidas estas mGPU, en 2009.
Después de que se descontinuó la gama nForce, Nvidia lanzó su línea Ion en 2009, que consistía en una CPU Intel Atom asociada con una GPU de la serie GeForce 9 de gama baja, fijada en la placa base. Nvidia lanzó un Ion 2 actualizado en 2010, esta vez con una GPU de la serie GeForce 300 de gama baja.
Nomenclatura
Desde la serie GeForce 4 hasta la serie GeForce 9, se utiliza el siguiente esquema de nombres.
Categoría de tarjeta gráfica | Número rango | Suffix | Gama de precios (USD) | Shader Monto | Memoria | Productos de ejemplo | ||
---|---|---|---|---|---|---|---|---|
Tipo | Ancho de autobús | Tamaño | ||||||
Nivel de entrada | 000-550 | SE, LE, no sufijo, GS, GT, Ultra | - 100 dólares | , 25% | DDR, DDR2 | 25-50% | ~25% | GeForce 9400 GT, GeForce 9500 GT |
Mid-range | 600–750 | VE, LE, XT, no sufijo, GS, GSO, GT, GTS, Ultra | $100 a 175 | 25-50% | DDR2, GDDR3 | 50-75% | 50-75% | GeForce 9600 GT, GeForce 9600 GSO |
High-end | 800–950 | VE, LE, ZT, XT, no suffix, GS, GSO, GT, GTO, GTS, GTX, GTX+, Ultra, Ultra Extreme, GX2 | ■ $175 | 50-100% | GDDR3 | 75-100% | 50-100% | GeForce 9800 GT, GeForce 9800 GTX |
Desde el lanzamiento de la serie de GPU GeForce 100, Nvidia cambió el esquema de nombres de sus productos al siguiente.
Categoría de tarjeta gráfica | Prefijo | Número de rango (últimos 2 dígitos) | Gama de precios (USD) | Shader Monto | Memoria | Productos de ejemplo | ||
---|---|---|---|---|---|---|---|---|
Tipo | Ancho de autobús | Tamaño | ||||||
Nivel de entrada | sin prefijo, G, GT, GTX | 00-45 | - 100 dólares | , 25% | DDR2, GDDR3, GDDR5, DDR4 | 25-50% | ~25% | GeForce GT 430, GeForce GT 730, GeForce GT 1030 |
Mid-range | GTS, GTX, RTX | 50 a 65 | $100 a 300 | 25-50% | GDDR3, GDDR5(X), GDDR6 | 50-75% | 50-100% | GeForce GTX 760, GeForce GTX 960, GeForce GTX 1060 (6GB) |
High-end | GTX, RTX | 70 a 95 | ■ $300 | 50-100% | GDDR5, GDDR5X, GDDR6, GDDR6X | 75-100% | 75-100% | GeForce GTX 980 Ti, GeForce GTX 1080 Ti, GeForce RTX 2080 Ti |
- ^ Los sufijos indican su capa de rendimiento, y los enumerados están en orden de los más débiles a los más poderosos. Los sufijos de categorías inferiores todavía se pueden utilizar en tarjetas de mayor rendimiento, ejemplo: GeForce 8800 GT.
- ^ a b El rango de precios sólo se aplica a la generación más reciente y es una generalización basada en patrones de precios.
- ^ a b La cantidad Shader compara el número de oleoductos o unidades de sombreado en ese rango de modelo particular con el modelo más alto posible en la generación.
- Las tarjetas anteriores como GeForce4 siguen un patrón similar.
- cf. Nvidia's Performance Graph aquí.
Controladores de dispositivos gráficos
Propiedad oficial
Nvidia desarrolla y publica controladores GeForce para Windows 10 x86/x86-64 y posteriores, Linux x86/x86-64/ARMv7-A, OS X 10.5 y posteriores, Solaris x86/x86-64 y FreeBSD x86/x86-64. Se puede descargar una versión actual de Nvidia y la mayoría de las distribuciones de Linux la contienen en sus propios repositorios. El controlador Nvidia GeForce 340.24 del 8 de julio de 2014 es compatible con la interfaz EGL que permite la compatibilidad con Wayland junto con este controlador. Esto puede ser diferente para la marca Nvidia Quadro, que se basa en hardware idéntico pero cuenta con controladores de dispositivos gráficos con certificación OpenGL. El mismo día que se lanzó públicamente la API de gráficos Vulkan, Nvidia lanzó controladores que la admitían por completo. Nvidia ha lanzado controladores con optimizaciones para videojuegos específicos al mismo tiempo que su lanzamiento desde 2014, habiendo lanzado 150 controladores compatibles con 400 juegos en abril de 2022.
El soporte básico para la interfaz de configuración de modo DRM en forma de un nuevo módulo de kernel llamado nvidia-modeset.ko
está disponible desde la versión 358.09 beta.
La compatibilidad con el controlador de pantalla de Nvidia en las GPU compatibles está centralizada en nvidia-modeset.ko
. Las interacciones de visualización tradicionales (conjuntos de modos X11, OpenGL SwapBuffers, presentación VDPAU, SLI, estéreo, framelock, G-Sync, etc.) se inician desde los diversos componentes del controlador de modo de usuario y fluyen a nvidia-modeset.ko
.
En mayo de 2022, Nvidia anunció que lanzaría un controlador de código abierto parcialmente para la arquitectura Turing y más reciente, con el fin de mejorar la capacidad de empaquetarlo como parte de las distribuciones de Linux. En el lanzamiento, Nvidia consideró que el controlador era de calidad alfa para GPU de consumo y listo para producción para GPU de centro de datos. Actualmente, los componentes del espacio de usuario del controlador (incluidos OpenGL, Vulkan y CUDA) siguen siendo propietarios. Además, los componentes de código abierto del controlador son un envoltorio para el firmware del procesador del sistema GPU (GSP), un blob binario.
Libre de terceros y de código abierto
Existen controladores gratuitos, de código abierto y creados por la comunidad como alternativa a los controladores publicados por Nvidia. Los controladores de código abierto se desarrollan principalmente para Linux; sin embargo, puede haber puertos para otros sistemas operativos. El controlador alternativo más destacado es el controlador de dispositivo de gráficos nouveau gratuito y de código abierto de ingeniería inversa. Nvidia ha anunciado públicamente que no proporcionará ningún soporte para dichos controladores de dispositivos adicionales para sus productos, aunque Nvidia ha contribuido con el código del controlador Nouveau.
Los controladores gratuitos y de código abierto admiten una gran parte (pero no todas) de las funciones disponibles en las tarjetas de la marca GeForce. Por ejemplo, a partir de enero de 2014, el controlador nouveau no es compatible con los ajustes de frecuencia de reloj de memoria y GPU, ni con la administración de energía dinámica asociada. Además, los controladores patentados de Nvidia funcionan mejor que nouveau en varios puntos de referencia. Sin embargo, a partir de agosto de 2014 y la versión 3.16 de la línea principal del kernel de Linux, las contribuciones de Nvidia permitieron implementar soporte parcial para GPU y ajustes de frecuencia de reloj de memoria.
Problemas de licencia y privacidad
La licencia tiene términos comunes contra la ingeniería inversa y la copia, y renuncia a garantías y responsabilidades.
A partir de 2016, la licencia de GeFORCE establece que el SOFTWARE de Nvidia puede acceder, recopilar información de identificación no personal, actualizar y configurar el sistema del Cliente para optimizar dicho sistema de manera adecuada para su uso con el SOFTWARE. " El aviso de privacidad continúa diciendo: "No podemos responder a "Do Not Track" señales establecidas por un navegador en este momento. También permitimos que las redes de publicidad en línea de terceros y las empresas de redes sociales recopilen información... Podemos combinar la información personal que recopilamos sobre usted con la información de navegación y seguimiento recopilada por estas tecnologías [cookies y balizas]."
El software configura el sistema del usuario para optimizar su uso, y la licencia dice: "NVIDIA no será responsable de ningún daño o pérdida en dicho sistema (incluida la pérdida de datos o acceso) que surja de o en relación con (a) cualquier cambio en la configuración, ajustes de la aplicación, variables de entorno, registro, controladores, BIOS u otros atributos del sistema (o cualquier parte de dicho sistema) iniciado a través del SOFTWARE".
Experiencia GeForce
GeForce Experience es un programa que contiene varias herramientas, incluida Nvidia ShadowPlay.
Debido a una vulnerabilidad de seguridad grave, antes de la actualización de seguridad del 26 de marzo de 2019, los usuarios de GeForce Experience eran vulnerables a ataques de ejecución remota de código, denegación de servicio y escalada de privilegios. Al instalar nuevos controladores, GeForce Experience puede forzar el reinicio del sistema después de una cuenta regresiva de 60 segundos, sin darle ninguna opción al usuario.
Contenido relacionado
FileMan
Sistema de señalización de acceso digital 1
Bola de dragón de escala libre