Computadora

Ajustar Compartir Imprimir Citar

Una computadora es una máquina electrónica digital que se puede programar para realizar secuencias de operaciones aritméticas o lógicas (computación) automáticamente. Las computadoras modernas pueden realizar conjuntos genéricos de operaciones conocidas como programas. Estos programas permiten que las computadoras realicen una amplia gama de tareas. Un sistema informático es una computadora "completa" que incluye el hardware, el sistema operativo (software principal) y el equipo periférico necesario y utilizado para una operación "completa". Este término también puede referirse a un grupo de computadoras que están conectadas y funcionan juntas, como una red de computadoras o un clúster de computadoras.

Una amplia gama de productos industriales y de consumo utilizan computadoras como sistemas de control. Se incluyen dispositivos simples para fines especiales, como hornos de microondas y controles remotos, así como dispositivos de fábrica, como robots industriales y diseño asistido por computadora, así como dispositivos de uso general, como computadoras personales y dispositivos móviles, como teléfonos inteligentes. Las computadoras impulsan Internet, que vincula a miles de millones de otras computadoras y usuarios.

Las primeras computadoras estaban destinadas a usarse solo para cálculos. Los instrumentos manuales simples como el ábaco han ayudado a las personas a realizar cálculos desde la antigüedad. A principios de la Revolución Industrial, se construyeron algunos dispositivos mecánicos para automatizar tareas largas y tediosas, como patrones de guía para telares. Máquinas eléctricas más sofisticadas hacían cálculos analógicos especializados a principios del siglo XX. Las primeras máquinas calculadoras electrónicas digitales se desarrollaron durante la Segunda Guerra Mundial. Los primeros transistores semiconductores a fines de la década de 1940 fueron seguidos por el MOSFET (transistor MOS) basado en silicio y las tecnologías de chip de circuito integrado monolítico (IC) a fines de la década de 1950, lo que condujo a la revolución de los microprocesadores y las microcomputadoras en la década de 1970. La velocidad, el poder y la versatilidad de las computadoras han aumentado dramáticamente desde entonces,

Convencionalmente, una computadora moderna consta de al menos un elemento de procesamiento, generalmente una unidad central de procesamiento (CPU) en forma de microprocesador, junto con algún tipo de memoria de computadora, generalmente chips de memoria semiconductores. El elemento de procesamiento lleva a cabo operaciones aritméticas y lógicas, y una unidad de secuenciación y control puede cambiar el orden de las operaciones en respuesta a la información almacenada. Los dispositivos periféricos incluyen dispositivos de entrada (teclados, ratones, joystick, etc.), dispositivos de salida (pantallas de monitor, impresoras, etc.) y dispositivos de entrada/salida que realizan ambas funciones (por ejemplo, la pantalla táctil de la década de 2000). Los dispositivos periféricos permiten recuperar información de una fuente externa y permiten guardar y recuperar el resultado de las operaciones.

Etimología

Según el Oxford English Dictionary, el primer uso conocido de la computadora fue en un libro de 1613 llamado The Yong Mans Gleanings del escritor inglés Richard Brathwait: "He leído [ sic ] la computadora más verdadera de Times, y el mejor aritmético que nunca [ sic] sopló, y él reduce tus días a un número corto". Este uso del término se refería a una computadora humana, una persona que realizaba cálculos o cómputos. La palabra continuó con el mismo significado hasta mediados del siglo XX. Durante la última parte de este período, a menudo se contrataba a mujeres como computadoras porque se les podía pagar menos que a sus contrapartes masculinas. Para 1943, la mayoría de las computadoras humanas eran mujeres.

El Diccionario de etimología en línea da el primer uso certificado de la computadora en la década de 1640, que significa 'el que calcula'; este es un "sustantivo de agente de computar (v.)". El Diccionario de etimología en línea establece que el uso del término para significar " 'máquina calculadora' (de cualquier tipo) es de 1897". El Online Etymology Dictionary indica que el "uso moderno" del término, para significar 'computadora electrónica digital programable' data de "1945 bajo este nombre; [en un] teórico [sentido] desde 1937, como máquina de Turing ".

Historia

Antes del siglo XX

Los dispositivos se han utilizado para ayudar en el cálculo durante miles de años, en su mayoría utilizando correspondencia uno a uno con los dedos. El dispositivo de conteo más antiguo fue probablemente una forma de palo de conteo. Las ayudas posteriores para el mantenimiento de registros en todo el Creciente Fértil incluyeron cálculos (esferas de arcilla, conos, etc.) que representaban recuentos de artículos, probablemente ganado o granos, sellados en recipientes huecos de arcilla sin cocer. El uso de varillas de conteo es un ejemplo.

El ábaco se utilizó inicialmente para tareas aritméticas. El ábaco romano se desarrolló a partir de dispositivos utilizados en Babilonia desde el año 2400 a. Desde entonces, se han inventado muchas otras formas de tableros o tablas de cómputo. En una casa de contabilidad europea medieval, se colocaba un paño a cuadros sobre una mesa y se movían marcadores sobre él de acuerdo con ciertas reglas, como ayuda para calcular sumas de dinero.

Se cree que el mecanismo de Antikythera es la primera computadora analógica mecánica conocida, según Derek J. de Solla Price. Fue diseñado para calcular posiciones astronómicas. Fue descubierto en 1901 en el naufragio de Antikythera frente a la isla griega de Antikythera, entre Kythera y Creta, y data de aproximadamente c. 100  aC Dispositivos de complejidad comparable al mecanismo de Anticitera no reaparecerían hasta el siglo XIV.

Se construyeron muchas ayudas mecánicas para el cálculo y la medición para uso astronómico y de navegación. El planisferio era un mapa estelar inventado por Abū Rayhān al-Bīrūnī a principios del siglo XI. El astrolabio se inventó en el mundo helenístico en el siglo I o II a. C. y a menudo se atribuye a Hiparco. Una combinación del planisferio y la dioptría, el astrolabio era efectivamente una computadora analógica capaz de resolver varios tipos diferentes de problemas en astronomía esférica. Un astrolabio que incorpora una computadora de calendario mecánico y ruedas dentadas fue inventado por Abi Bakr de Isfahan, Persia en 1235. Abū Rayhān al-Bīrūnī inventó el primer astrolabio de calendario lunisolar con engranaje mecánico,una de las primeras máquinas de procesamiento de conocimiento de cableado fijo con un tren de engranajes y ruedas dentadas, c. 1000  d.C.

El sector, un instrumento de cálculo utilizado para resolver problemas de proporción, trigonometría, multiplicación y división, y para varias funciones, como cuadrados y raíces cúbicas, se desarrolló a fines del siglo XVI y encontró aplicación en artillería, topografía y navegación.

El planímetro era un instrumento manual para calcular el área de una figura cerrada al trazarla con un enlace mecánico.

La regla de cálculo fue inventada alrededor de 1620-1630 por el clérigo inglés William Oughtred, poco después de la publicación del concepto de logaritmo. Es una computadora analógica manual para hacer multiplicaciones y divisiones. A medida que avanzaba el desarrollo de la regla de cálculo, las escalas agregadas proporcionaron recíprocos, cuadrados y raíces cuadradas, cubos y raíces cúbicas, así como funciones trascendentales como logaritmos y exponenciales, trigonometría circular e hiperbólica y otras funciones. Las reglas de cálculo con escalas especiales todavía se utilizan para la realización rápida de cálculos de rutina, como la regla de cálculo circular E6B que se utiliza para los cálculos de tiempo y distancia en aviones ligeros.

En la década de 1770, Pierre Jaquet-Droz, un relojero suizo, construyó una muñeca mecánica (autómata) que podía escribir sosteniendo una pluma. Al cambiar el número y el orden de sus ruedas internas, se podrían producir diferentes letras y, por lo tanto, diferentes mensajes. En efecto, podría "programarse" mecánicamente para leer instrucciones. Junto con otras dos máquinas complejas, la muñeca se encuentra en el Musée d'Art et d'Histoire de Neuchâtel, Suiza, y todavía funciona.

En 1831-1835, el matemático e ingeniero Giovanni Plana ideó una máquina de calendario perpetuo que, a través de un sistema de poleas y cilindros y más, podía predecir el calendario perpetuo para cada año desde el 0 d. C. (es decir, el 1 a. C.) hasta el 4000 d. C. hacer un seguimiento de los años bisiestos y la variación de la duración del día. La máquina de predicción de mareas inventada por el científico escocés Sir William Thomson en 1872 fue de gran utilidad para la navegación en aguas poco profundas. Usó un sistema de poleas y cables para calcular automáticamente los niveles de marea pronosticados para un período determinado en un lugar en particular.

El analizador diferencial, una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales por integración, utilizaba mecanismos de rueda y disco para realizar la integración. En 1876, Sir William Thomson ya había discutido la posible construcción de tales calculadoras, pero se había visto obstaculizado por el par de salida limitado de los integradores de bola y disco. En un analizador diferencial, la salida de un integrador impulsó la entrada del siguiente integrador, o una salida gráfica. El amplificador de torque fue el avance que permitió que estas máquinas funcionaran. A partir de la década de 1920, Vannevar Bush y otros desarrollaron analizadores diferenciales mecánicos.

Primera computadora

Charles Babbage, un ingeniero mecánico y erudito inglés, originó el concepto de una computadora programable. Considerado el "padre de la computadora",conceptualizó e inventó la primera computadora mecánica a principios del siglo XIX. Después de trabajar en su revolucionario motor diferencial, diseñado para ayudar en los cálculos de navegación, en 1833 se dio cuenta de que era posible un diseño mucho más general, un motor analítico. La entrada de programas y datos debía proporcionarse a la máquina a través de tarjetas perforadas, un método que se usaba en ese momento para dirigir telares mecánicos como el telar Jacquard. Para la salida, la máquina tendría una impresora, un trazador de curvas y una campana. La máquina también podría perforar números en las tarjetas para leerlos más tarde. El motor incorporó una unidad lógica aritmética, flujo de control en forma de bifurcaciones y bucles condicionales y memoria integrada, lo que lo convirtió en el primer diseño de una computadora de propósito general que podría describirse en términos modernos como Turing-completo.

La máquina estaba un siglo adelantada a su tiempo. Todas las piezas de su máquina tenían que fabricarse a mano; este era un gran problema para un dispositivo con miles de piezas. Finalmente, el proyecto se disolvió con la decisión del gobierno británico de dejar de financiarlo. El fracaso de Babbage para completar el motor analítico se puede atribuir principalmente a las dificultades políticas y financieras, así como a su deseo de desarrollar una computadora cada vez más sofisticada y avanzar más rápido de lo que nadie podría seguir. Sin embargo, su hijo, Henry Babbage, completó una versión simplificada de la unidad de cálculo del motor analítico (el molino) en 1888. Hizo una demostración exitosa de su uso en tablas de cálculo en 1906.

Computadoras analógicas

Durante la primera mitad del siglo XX, muchas necesidades informáticas científicas fueron satisfechas por computadoras analógicas cada vez más sofisticadas, que utilizaban un modelo mecánico o eléctrico directo del problema como base para el cálculo. Sin embargo, estos no eran programables y generalmente carecían de la versatilidad y precisión de las computadoras digitales modernas. La primera computadora analógica moderna fue una máquina de predicción de mareas, inventada por Sir William Thomson (que más tarde se convertiría en Lord Kelvin) en 1872. El analizador diferencial, una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales por integración usando mecanismos de rueda y disco, fue conceptualizado en 1876 por James Thomson, el hermano mayor del más famoso Sir William Thomson.

El arte de la computación analógica mecánica alcanzó su cénit con el analizador diferencial, construido por HL Hazen y Vannevar Bush en el MIT a partir de 1927. Este se basó en los integradores mecánicos de James Thomson y los amplificadores de par inventados por HW Nieman. Una docena de estos dispositivos se construyeron antes de que su obsolescencia fuera evidente. En la década de 1950, el éxito de las computadoras electrónicas digitales había significado el fin de la mayoría de las máquinas de cómputo analógicas, pero las computadoras analógicas se mantuvieron en uso durante la década de 1950 en algunas aplicaciones especializadas, como la educación (regla de cálculo) y las aeronaves (sistemas de control).

Computadoras digitales

Electromecánica

Para 1938, la Marina de los Estados Unidos había desarrollado una computadora analógica electromecánica lo suficientemente pequeña como para usarla a bordo de un submarino. Esta fue la computadora de datos de torpedos, que usó trigonometría para resolver el problema de disparar un torpedo a un objetivo en movimiento. Durante la Segunda Guerra Mundial, también se desarrollaron dispositivos similares en otros países.

Las primeras computadoras digitales eran electromecánicas; interruptores eléctricos accionaron relés mecánicos para realizar el cálculo. Estos dispositivos tenían una baja velocidad de operación y finalmente fueron reemplazados por computadoras totalmente eléctricas mucho más rápidas, que originalmente usaban tubos de vacío. El Z2, creado por el ingeniero alemán Konrad Zuse en 1939, fue uno de los primeros ejemplos de una computadora de relés electromecánicos.

En 1941, Zuse siguió a su máquina anterior con la Z3, la primera computadora digital completamente automática, electromecánica, programable y en funcionamiento del mundo. El Z3 se construyó con 2000 relés, implementando una longitud de palabra de 22 bits que operaba a una frecuencia de reloj de aproximadamente 5 a 10 Hz. El código del programa se proporcionó en una película perforada, mientras que los datos se podían almacenar en 64 palabras de memoria o se podían proporcionar desde el teclado. Era bastante similar a las máquinas modernas en algunos aspectos, y fue pionera en numerosos avances, como los números de punto flotante. En lugar del sistema decimal más difícil de implementar (usado en el diseño anterior de Charles Babbage), el uso de un sistema binario significaba que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en ese momento.El Z3 no era en sí mismo un ordenador universal, pero podía ampliarse para ser Turing completo.

La siguiente computadora de Zuse, la Z4, se convirtió en la primera computadora comercial del mundo; después de un retraso inicial debido a la Segunda Guerra Mundial, se completó en 1950 y se entregó a ETH Zurich. La computadora fue fabricada por la propia empresa de Zuse, Zuse KG [ de ], que fue fundada en 1941 como la primera empresa con el único propósito de desarrollar computadoras.

Tubos de vacío y circuitos electrónicos digitales

Los elementos de circuitos puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos, al mismo tiempo que el cálculo digital reemplazó al analógico. El ingeniero Tommy Flowers, que trabajaba en la Post Office Research Station de Londres en la década de 1930, comenzó a explorar el posible uso de la electrónica para la central telefónica. El equipo experimental que construyó en 1934 entró en funcionamiento cinco años después, convirtiendo una parte de la red de intercambio telefónico en un sistema electrónico de procesamiento de datos, utilizando miles de tubos de vacío. En los EE. UU., John Vincent Atanasoff y Clifford E. Berry de la Universidad Estatal de Iowa desarrollaron y probaron Atanasoff-Berry Computer (ABC) en 1942, la primera "computadora digital electrónica automática".Este diseño también era completamente electrónico y usaba alrededor de 300 tubos de vacío, con capacitores fijados en un tambor giratorio mecánicamente para la memoria.

Durante la Segunda Guerra Mundial, los descifradores de códigos británicos en Bletchley Park lograron una serie de éxitos al descifrar las comunicaciones militares alemanas encriptadas. La máquina de encriptación alemana, Enigma, fue atacada por primera vez con la ayuda de bombas electromecánicas que a menudo eran manejadas por mujeres. Para descifrar la máquina alemana Lorenz SZ 40/42 más sofisticada, utilizada para las comunicaciones del Ejército de alto nivel, Max Newman y sus colegas encargaron a Flowers que construyera el Colossus. Pasó once meses desde principios de febrero de 1943 diseñando y construyendo el primer Colossus. Después de una prueba funcional en diciembre de 1943, Colossus fue enviado a Bletchley Park, donde fue entregado el 18 de enero de 1944 y atacó su primer mensaje el 5 de febrero.

Colossus fue la primera computadora programable digital electrónica del mundo. Utilizaba una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y podía configurarse para realizar una variedad de operaciones lógicas booleanas en sus datos, pero no era Turing completo. Se construyeron nueve Mk II Colossi (el Mk I se convirtió en un Mk II haciendo diez máquinas en total). Colossus Mark I contenía 1.500 válvulas termoiónicas (tubos), pero Mark II con 2.400 válvulas, era cinco veces más rápido y más fácil de operar que Mark I, lo que aceleró enormemente el proceso de decodificación.

La ENIAC (Computadora e Integrador Numérico Electrónico) fue la primera computadora programable electrónica construida en los EE. UU. Aunque la ENIAC era similar a la Colossus, era mucho más rápida, más flexible y completa de Turing. Al igual que el Colossus, un "programa" en el ENIAC se definía por los estados de sus cables de conexión e interruptores, muy lejos de las máquinas electrónicas de programas almacenados que vinieron más tarde. Una vez que se escribía un programa, tenía que configurarse mecánicamente en la máquina con el restablecimiento manual de enchufes e interruptores. Las programadoras de ENIAC fueron seis mujeres, a menudo conocidas colectivamente como las "niñas ENIAC".

Combinaba la alta velocidad de la electrónica con la capacidad de programarse para muchos problemas complejos. Podía sumar o restar 5000 veces por segundo, mil veces más rápido que cualquier otra máquina. También tenía módulos para multiplicar, dividir y raíz cuadrada. La memoria de alta velocidad estaba limitada a 20 palabras (alrededor de 80 bytes). Construido bajo la dirección de John Mauchly y J. Presper Eckert en la Universidad de Pensilvania, el desarrollo y la construcción de ENIAC duró desde 1943 hasta su plena operación a fines de 1945. La máquina era enorme, pesaba 30 toneladas, usaba 200 kilovatios de energía eléctrica y contenía más de 18.000 tubos de vacío, 1.500 relés y cientos de miles de resistencias, condensadores e inductores.

Computadoras modernas

Concepto de computadora moderna

El principio de la computadora moderna fue propuesto por Alan Turing en su artículo seminal de 1936, Sobre números computables. Turing propuso un dispositivo simple que llamó "máquina de computación universal" y que ahora se conoce como máquina universal de Turing. Demostró que una máquina de este tipo es capaz de calcular cualquier cosa que sea computable mediante la ejecución de instrucciones (programa) almacenadas en cinta, lo que permite que la máquina sea programable. El concepto fundamental del diseño de Turing es el programa almacenado, donde todas las instrucciones para la computación se almacenan en la memoria. Von Neumann reconoció que el concepto central de la computadora moderna se debía a este artículo. Las máquinas de Turing son hasta el día de hoy un objeto central de estudio en la teoría de la computación. Excepto por las limitaciones impuestas por sus almacenes de memoria finitos, se dice que las computadoras modernas son completas de Turing, es decir, tienen una capacidad de ejecución de algoritmos equivalente a una máquina de Turing universal.

Programas almacenados

Las primeras máquinas informáticas tenían programas fijos. Cambiar su función requirió volver a cablear y reestructurar la máquina. Con la propuesta de la computadora de programa almacenado esto cambió. Una computadora con programa almacenado incluye por diseño un conjunto de instrucciones y puede almacenar en la memoria un conjunto de instrucciones (un programa) que detalla el cálculo. La base teórica para la computadora de programa almacenado fue establecida por Alan Turing en su artículo de 1936. En 1945, Turing se unió al Laboratorio Nacional de Física y comenzó a trabajar en el desarrollo de una computadora digital electrónica con programa almacenado. Su informe de 1945 "Calculadora electrónica propuesta" fue la primera especificación para un dispositivo de este tipo. John von Neumann de la Universidad de Pensilvania también hizo circular su primer borrador de un informe sobre el EDVAC en 1945.

Manchester Baby fue la primera computadora con programa almacenado del mundo. Fue construido en la Universidad de Manchester en Inglaterra por Frederic C. Williams, Tom Kilburn y Geoff Tootill, y ejecutó su primer programa el 21 de junio de 1948. Fue diseñado como un banco de pruebas para el tubo de Williams, el primer dispositivo de almacenamiento digital de acceso aleatorio. dispositivo. Aunque la computadora fue descrita como "pequeña y primitiva" en una retrospectiva de 1998, fue la primera máquina en funcionamiento que contenía todos los elementos esenciales para una computadora electrónica moderna. Tan pronto como el Baby demostró la viabilidad de su diseño, se inició un proyecto en la universidad para convertirlo en un ordenador útil en la práctica, el Manchester Mark 1.

La Mark 1, a su vez, se convirtió rápidamente en el prototipo de la Ferranti Mark 1, la primera computadora de propósito general disponible comercialmente en el mundo. Construido por Ferranti, fue entregado a la Universidad de Manchester en febrero de 1951. Al menos siete de estas últimas máquinas fueron entregadas entre 1953 y 1957, una de ellas a los laboratorios de Shell en Amsterdam. En octubre de 1947, los directores de la empresa de catering británica J. Lyons & Company decidieron tomar un papel activo en la promoción del desarrollo comercial de las computadoras. La computadora LEO I de Lyons, inspirada en la Cambridge EDSAC de 1949, entró en funcionamiento en abril de 1951 y ejecutó el primer trabajo informático de oficina de rutina del mundo.

Grace Hopper fue la primera en desarrollar un compilador para un lenguaje de programación.

Transistores

El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban con William Shockley en Bell Labs, construyeron el primer transistor en funcionamiento, el transistor de contacto puntual, en 1947, que fue seguido por el transistor de unión bipolar de Shockley en 1948.A partir de 1955, los transistores reemplazaron a los tubos de vacío en los diseños de computadoras, dando lugar a la "segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeños y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de unión eran mucho más confiables que los tubos de vacío y tenían una vida útil más larga e indefinida. Las computadoras con transistores podrían contener decenas de miles de circuitos lógicos binarios en un espacio relativamente compacto. Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos que eran difíciles de fabricar en masa, lo que los limitaba a una serie de aplicaciones especializadas.

En la Universidad de Manchester, un equipo bajo la dirección de Tom Kilburn diseñó y construyó una máquina utilizando transistores recientemente desarrollados en lugar de válvulas. Su primera computadora transistorizada y la primera en el mundo, estuvo operativa en 1953, y una segunda versión se completó allí en abril de 1955. Sin embargo, la máquina hizo uso de válvulas para generar sus formas de onda de reloj de 125 kHz y en el circuito para leer y escribir en su memoria de tambor magnético, por lo que no fue la primera computadora completamente transistorizada. Esa distinción va para el Harwell CADET de 1955, construido por la división de electrónica del Establecimiento de Investigación de Energía Atómica en Harwell.

El transistor de efecto de campo de óxido de metal y silicio (MOSFET), también conocido como transistor MOS, fue inventado por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. Fue el primer transistor verdaderamente compacto que podía miniaturizarse y transformarse en masa. -Producido para una amplia gama de usos. Con su alta escalabilidad, un consumo de energía mucho menor y una mayor densidad que los transistores de unión bipolar, el MOSFET hizo posible construir circuitos integrados de alta densidad. Además del procesamiento de datos, también permitió el uso práctico de los transistores MOS como elementos de almacenamiento de celdas de memoria, lo que condujo al desarrollo de la memoria de semiconductores MOS, que reemplazó a la anterior memoria de núcleo magnético en las computadoras. El MOSFET condujo a la revolución de las microcomputadoras,y se convirtió en la fuerza impulsora detrás de la revolución informática. El MOSFET es el transistor más utilizado en las computadoras y es el bloque de construcción fundamental de la electrónica digital.

Circuitos integrados

El próximo gran avance en el poder de cómputo vino con el advenimiento del circuito integrado (IC). La idea del circuito integrado fue concebida por primera vez por un científico de radar que trabajaba para el Establecimiento Real de Radar del Ministerio de Defensa, Geoffrey WA Dummer. Dummer presentó la primera descripción pública de un circuito integrado en el Simposio sobre el progreso en componentes electrónicos de calidad en Washington, DC el 7 de mayo de 1952.

Los primeros circuitos integrados en funcionamiento fueron inventados por Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor. Kilby registró sus ideas iniciales sobre el circuito integrado en julio de 1958, demostrando con éxito el primer ejemplo integrado funcional el 12 de septiembre de 1958. En su solicitud de patente del 6 de febrero de 1959, Kilby describió su nuevo dispositivo como "un cuerpo de material semiconductor... en el que todos los componentes del circuito electrónico están completamente integrados". Sin embargo, la invención de Kilby fue un circuito integrado híbrido (IC híbrido), en lugar de un chip de circuito integrado (IC) monolítico. El circuito integrado de Kilby tenía conexiones de cables externas, lo que dificultaba su producción en masa.

A Noyce también se le ocurrió su propia idea de un circuito integrado medio año después que Kilby. La invención de Noyce fue el primer chip IC monolítico verdadero. Su chip resolvió muchos problemas prácticos que Kilby's no tenía. Producido en Fairchild Semiconductor, estaba hecho de silicio, mientras que el chip de Kilby estaba hecho de germanio. El IC monolítico de Noyce se fabricó utilizando el proceso planar, desarrollado por su colega Jean Hoerni a principios de 1959. A su vez, el proceso planar se basó en el trabajo de Mohamed M. Atalla sobre la pasivación de superficies de semiconductores con dióxido de silicio a fines de la década de 1950.

Los circuitos integrados monolíticos modernos son predominantemente circuitos integrados MOS (metal-óxido-semiconductor), construidos a partir de MOSFET (transistores MOS). El primer MOS IC experimental que se fabricó fue un chip de 16 transistores construido por Fred Heiman y Steven Hofstein en RCA en 1962. General Microelectronics introdujo más tarde el primer MOS IC comercial en 1964, desarrollado por Robert Norman. Tras el desarrollo del transistor MOS de puerta autoalineada (puerta de silicio) por Robert Kerwin, Donald Klein y John Sarace en Bell Labs en 1967, Federico Faggin en Fairchild desarrolló el primer circuito integrado MOS de puerta de silicio con puertas autoalineadas. Semiconductor en 1968. Desde entonces, el MOSFET se ha convertido en el componente de dispositivo más crítico en los circuitos integrados modernos.

El desarrollo del circuito integrado MOS condujo a la invención del microprocesador y anunció una explosión en el uso comercial y personal de las computadoras. Si bien el tema de exactamente qué dispositivo fue el primer microprocesador es polémico, en parte debido a la falta de acuerdo sobre la definición exacta del término "microprocesador", en gran parte no se discute que el primer microprocesador de un solo chip fue el Intel 4004, diseñado y realizado. por Federico Faggin con su tecnología MOS IC de puerta de silicio, junto con Ted Hoff, Masatoshi Shima y Stanley Mazor en Intel. A principios de la década de 1970, la tecnología MOS IC permitió la integración de más de 10 000 transistores en un solo chip.

Los sistemas en un chip (SoC) son computadoras completas en un microchip (o chip) del tamaño de una moneda. Pueden o no tener RAM y memoria flash integradas. Si no está integrada, la RAM generalmente se coloca directamente encima (conocido como paquete en paquete) o debajo (en el lado opuesto de la placa de circuito) del SoC, y la memoria flash generalmente se coloca justo al lado del SoC, todo esto hecho para mejorar las velocidades de transferencia de datos, ya que las señales de datos no tienen que viajar largas distancias. Desde ENIAC en 1945, las computadoras han avanzado enormemente, con SoC modernos (como el Snapdragon 865) del tamaño de una moneda y cientos de miles de veces más potentes que ENIAC, integrando miles de millones de transistores y consumiendo solo unos pocos vatios. de poder.

Computadoras móviles

Las primeras computadoras móviles eran pesadas y funcionaban con energía eléctrica. El IBM 5100 de 23 kg (50 lb) fue un ejemplo temprano. Los portátiles posteriores, como el Osborne 1 y el Compaq Portable, eran considerablemente más livianos, pero aún así necesitaban ser enchufados. Los primeros portátiles, como el Grid Compass, eliminaron este requisito al incorporar baterías, y con la continua miniaturización de los recursos informáticos y los avances en portátiles. duración de la batería, las computadoras portátiles crecieron en popularidad en la década de 2000. Los mismos desarrollos permitieron a los fabricantes integrar recursos informáticos en los teléfonos móviles celulares a principios de la década de 2000.

Estos teléfonos inteligentes y tabletas se ejecutan en una variedad de sistemas operativos y recientemente se convirtieron en el dispositivo informático dominante en el mercado. Estos funcionan con System on a Chip (SoC), que son computadoras completas en un microchip del tamaño de una moneda.

Tipos

Las computadoras se pueden clasificar de varias maneras diferentes, que incluyen:

Por arquitectura

Por tamaño, factor de forma y propósito

Hardware

El término hardware cubre todas aquellas partes de una computadora que son objetos físicos tangibles. Los circuitos, los chips de computadora, las tarjetas gráficas, las tarjetas de sonido, la memoria (RAM), la placa base, las pantallas, las fuentes de alimentación, los cables, los teclados, las impresoras y los dispositivos de entrada de "ratones" son todos hardware.

Historia del hardware de computación

Primera generación(mecánica/electromecánica)CalculadorasCalculadora de Pascal, Aritmómetro, Máquina diferencial, Máquinas analíticas de Quevedo
Dispositivos programablesTelar Jacquard, motor analítico, IBM ASCC/Harvard Mark I, Harvard Mark II, IBM SSEC, Z1, Z2, Z3
Segunda generación(tubos de vacío)CalculadorasComputadora Atanasoff–Berry, IBM 604, UNIVAC 60, UNIVAC 120
Dispositivos programablesColossus, ENIAC, Manchester Baby, EDSAC, Manchester Mark 1, Ferranti Pegasus, Ferranti Mercury, CSIRAC, EDVAC, UNIVAC I, IBM 701, IBM 702, IBM 650, Z22
Tercera generación(transistores discretos y circuitos integrados SSI, MSI, LSI)MainframesIBM 7090, IBM 7080, IBM System/360, MANOJO
MiniordenadorHP 2116A, Sistema IBM/32, Sistema IBM/36, LINC, PDP-8, PDP-11
computadora de escritorioHP 9100
Cuarta generación(circuitos integrados VLSI)MiniordenadorVAX, IBM AS/400
microcomputadora de 4 bitsIntel 4004, Intel 4040
microcomputadora de 8 bitsIntel 8008, Intel 8080, Motorola 6800, Motorola 6809, tecnología MOS 6502, Zilog Z80
microordenador de 16 bitsIntel 8088, Zilog Z8000, WDC 65816/65802
microcomputadora de 32 bitsIntel 80386, Pentium, Motorola 68000, BRAZO
microcomputadora de 64 bitsAlfa, MIPS, PA-RISC, PowerPC, SPARC, x86-64, ARMv8-A
computadora integradaIntel 8048, Intel 8051
Computadora personalComputadora de escritorio, Computadora doméstica, Computadora portátil, Asistente digital personal (PDA), Computadora portátil, Tablet PC, Computadora portátil
Teórico/experimentalComputadora cuánticaIBM Q Sistema Uno
computadora química
Computación de ADN
computadora óptica
Computadora basada en espintrónica
Wetware/Computadora orgánica

Otros temas de hardware

Dispositivo periférico (entrada/salida)AporteRatón, teclado, joystick, escáner de imágenes, cámara web, tableta gráfica, micrófono
ProducciónMonitor, impresora, altavoz
Ambas cosasUnidad de disquete, unidad de disco duro, unidad de disco óptico, teleimpresora
Autobuses de computadoraCorto alcanceRS-232, SCSI, PCI, USB
Largo alcance (redes de computadoras)Ethernet, cajero automático, FDDI

Una computadora de uso general tiene cuatro componentes principales: la unidad lógica aritmética (ALU), la unidad de control, la memoria y los dispositivos de entrada y salida (denominados colectivamente E/S). Estas partes están interconectadas por buses, a menudo hechos de grupos de cables. Dentro de cada una de estas partes hay miles o billones de pequeños circuitos eléctricos que se pueden apagar o encender por medio de un interruptor electrónico. Cada circuito representa un bit (dígito binario) de información de modo que cuando el circuito está encendido representa un "1", y cuando está apagado representa un "0" (en representación lógica positiva). Los circuitos están dispuestos en puertas lógicas de modo que uno o más de los circuitos puedan controlar el estado de uno o más de los otros circuitos.

Los dispositivos de entrada

Cuando los datos sin procesar se envían a la computadora con la ayuda de dispositivos de entrada, los datos se procesan y se envían a los dispositivos de salida. Los dispositivos de entrada pueden ser manuales o automatizados. El acto de procesamiento está regulado principalmente por la CPU. Algunos ejemplos de dispositivos de entrada son:

Dispositivos de salida

Los medios a través de los cuales la computadora da salida se conocen como dispositivos de salida. Algunos ejemplos de dispositivos de salida son:

Unidad de control

La unidad de control (a menudo llamada sistema de control o controlador central) administra los diversos componentes de la computadora; lee e interpreta (decodifica) las instrucciones del programa, transformándolas en señales de control que activan otras partes de la computadora. Los sistemas de control en computadoras avanzadas pueden cambiar el orden de ejecución de algunas instrucciones para mejorar el rendimiento.

Un componente clave común a todas las CPU es el contador de programa, una celda de memoria especial (un registro) que realiza un seguimiento de la ubicación de la memoria desde la que se leerá la siguiente instrucción.

La función del sistema de control es la siguiente: esta es una descripción simplificada y algunos de estos pasos se pueden realizar simultáneamente o en un orden diferente según el tipo de CPU:

  1. Lea el código de la siguiente instrucción de la celda indicada por el contador del programa.
  2. Decodificar el código numérico de la instrucción en un conjunto de comandos o señales para cada uno de los otros sistemas.
  3. Incrementa el contador del programa para que apunte a la siguiente instrucción.
  4. Lea cualquier dato que requiera la instrucción de las celdas en la memoria (o quizás de un dispositivo de entrada). La ubicación de estos datos requeridos generalmente se almacena dentro del código de instrucción.
  5. Proporcionar los datos necesarios a una ALU o registro.
  6. Si la instrucción requiere una ALU o hardware especializado para completarse, indique al hardware que realice la operación solicitada.
  7. Escriba el resultado de la ALU en una ubicación de memoria o en un registro o quizás en un dispositivo de salida.
  8. Vuelva al paso (1).

Dado que el contador del programa es (conceptualmente) solo otro conjunto de celdas de memoria, se puede cambiar mediante cálculos realizados en la ALU. Agregar 100 al contador del programa haría que la siguiente instrucción se leyera desde un lugar 100 ubicaciones más abajo en el programa. Las instrucciones que modifican el contador del programa a menudo se conocen como "saltos" y permiten bucles (instrucciones que la computadora repite) y, a menudo, ejecución de instrucciones condicionales (ambos ejemplos de flujo de control).

La secuencia de operaciones por la que pasa la unidad de control para procesar una instrucción es en sí misma como un programa de computadora corto y, de hecho, en algunos diseños de CPU más complejos, hay otra computadora aún más pequeña llamada microsecuenciador, que ejecuta un programa de microcódigo que provoca todos estos eventos a suceder.

Unidad Central de Procesamiento (CPU)

La unidad de control, la ALU y los registros se conocen colectivamente como una unidad central de procesamiento (CPU). Las primeras CPU estaban compuestas por muchos componentes separados. Desde la década de 1970, las CPU generalmente se han construido en un solo chip de circuito integrado MOS llamado microprocesador.

Unidad lógica aritmética (ALU)

La ALU es capaz de realizar dos clases de operaciones: aritméticas y lógicas.El conjunto de operaciones aritméticas que admite una ALU particular puede limitarse a la suma y la resta, o puede incluir multiplicación, división, funciones trigonométricas como seno, coseno, etc., y raíces cuadradas. Algunos pueden operar solo con números enteros (enteros), mientras que otros usan coma flotante para representar números reales, aunque con precisión limitada. Sin embargo, cualquier computadora que sea capaz de realizar solo las operaciones más simples puede programarse para dividir las operaciones más complejas en pasos simples que pueda realizar. Por lo tanto, cualquier computadora puede programarse para realizar cualquier operación aritmética, aunque llevará más tiempo hacerlo si su ALU no admite directamente la operación. Una ALU también puede comparar números y devolver valores de verdad booleanos (verdadero o falso) dependiendo de si uno es igual a, mayor o menor que el otro ("¿64 es mayor que 65?"). Las operaciones lógicas implican lógica booleana: AND, OR, XOR y NOT. Estos pueden ser útiles para crear sentencias condicionales complicadas y procesar lógica booleana.

Las computadoras superescalares pueden contener múltiples ALU, lo que les permite procesar varias instrucciones simultáneamente. Los procesadores de gráficos y las computadoras con funciones SIMD y MIMD a menudo contienen ALU que pueden realizar operaciones aritméticas en vectores y matrices.

Memoria

La memoria de una computadora se puede ver como una lista de celdas en las que se pueden colocar o leer números. Cada celda tiene una "dirección" numerada y puede almacenar un solo número. Se le puede indicar a la computadora que "ponga el número 123 en la celda 1357" o que "suma el número que está en la celda 1357 al número que está en la celda 2468 y coloque la respuesta en la celda 1595". La información almacenada en la memoria puede representar prácticamente cualquier cosa. Las letras, los números e incluso las instrucciones de la computadora se pueden almacenar en la memoria con la misma facilidad. Dado que la CPU no diferencia entre diferentes tipos de información, es responsabilidad del software dar significado a lo que la memoria ve como nada más que una serie de números.

En casi todas las computadoras modernas, cada celda de memoria está configurada para almacenar números binarios en grupos de ocho bits (llamados bytes). Cada byte puede representar 256 números diferentes (2 = 256); ya sea de 0 a 255 o de −128 a +127. Para almacenar números más grandes, se pueden utilizar varios bytes consecutivos (normalmente, dos, cuatro u ocho). Cuando se requieren números negativos, generalmente se almacenan en notación de complemento a dos. Son posibles otros arreglos, pero generalmente no se ven fuera de aplicaciones especializadas o contextos históricos. Una computadora puede almacenar cualquier tipo de información en la memoria si se puede representar numéricamente. Las computadoras modernas tienen miles de millones o incluso billones de bytes de memoria.

La CPU contiene un conjunto especial de celdas de memoria llamadas registros que se pueden leer y escribir mucho más rápido que el área de la memoria principal. Por lo general, hay entre dos y cien registros según el tipo de CPU. Los registros se utilizan para los elementos de datos que se necesitan con más frecuencia para evitar tener que acceder a la memoria principal cada vez que se necesitan datos. Como los datos se trabajan constantemente, la reducción de la necesidad de acceder a la memoria principal (que suele ser lenta en comparación con la ALU y las unidades de control) aumenta considerablemente la velocidad de la computadora.

La memoria principal de la computadora viene en dos variedades principales:

La RAM se puede leer y escribir en cualquier momento que la CPU lo ordene, pero la ROM está precargada con datos y software que nunca cambian, por lo tanto, la CPU solo puede leer de ella. La ROM generalmente se usa para almacenar las instrucciones de inicio de la computadora. En general, el contenido de la RAM se borra cuando se apaga la computadora, pero la ROM retiene sus datos indefinidamente. En una PC, la ROM contiene un programa especializado llamado BIOS que organiza la carga del sistema operativo de la computadora desde el disco duro a la RAM cada vez que la computadora se enciende o se reinicia. En las computadoras integradas, que con frecuencia no tienen unidades de disco, todo el software necesario puede almacenarse en la ROM. El software almacenado en ROM a menudo se denomina firmware, porque teóricamente se parece más al hardware que al software. La memoria flash borra la distinción entre ROM y RAM, ya que conserva sus datos cuando está apagado pero también es regrabable. Sin embargo, suele ser mucho más lento que la ROM y la RAM convencionales, por lo que su uso está restringido a aplicaciones en las que no es necesaria una alta velocidad.

En computadoras más sofisticadas puede haber una o más memorias caché RAM, que son más lentas que los registros pero más rápidas que la memoria principal. Por lo general, las computadoras con este tipo de caché están diseñadas para mover automáticamente los datos que se necesitan con frecuencia a la memoria caché, a menudo sin necesidad de ninguna intervención por parte del programador.

Entrada/salida (E/S)

I/O es el medio por el cual una computadora intercambia información con el mundo exterior. Los dispositivos que proporcionan entrada o salida a la computadora se denominan periféricos. En una computadora personal típica, los periféricos incluyen dispositivos de entrada como el teclado y el mouse, y dispositivos de salida como la pantalla y la impresora. Las unidades de disco duro, las unidades de disquete y las unidades de disco óptico sirven como dispositivos de entrada y salida. Las redes informáticas son otra forma de E/S. Los dispositivos de E/S a menudo son computadoras complejas por derecho propio, con su propia CPU y memoria. Una unidad de procesamiento de gráficos puede contener cincuenta o más computadoras diminutas que realizan los cálculos necesarios para mostrar gráficos en 3D.Las computadoras de escritorio modernas contienen muchas computadoras más pequeñas que ayudan a la CPU principal a realizar operaciones de E/S. Una pantalla plana de la era de 2016 contiene su propio circuito de computadora.

Multitarea

Si bien se puede considerar que una computadora ejecuta un programa gigantesco almacenado en su memoria principal, en algunos sistemas es necesario dar la apariencia de ejecutar varios programas simultáneamente. Esto se logra mediante la multitarea, es decir, haciendo que la computadora cambie rápidamente entre ejecutar cada programa por turno.Un medio por el cual esto se hace es con una señal especial llamada interrupción, que periódicamente puede hacer que la computadora deje de ejecutar instrucciones donde estaba y haga otra cosa en su lugar. Al recordar dónde se estaba ejecutando antes de la interrupción, la computadora puede volver a esa tarea más tarde. Si varios programas se están ejecutando "al mismo tiempo". entonces el generador de interrupciones podría estar causando varios cientos de interrupciones por segundo, provocando un cambio de programa cada vez. Dado que las computadoras modernas normalmente ejecutan instrucciones varios órdenes de magnitud más rápido que la percepción humana, puede parecer que muchos programas se ejecutan al mismo tiempo, aunque solo uno se ejecuta en un instante dado. Este método de multitarea a veces se denomina "tiempo compartido" ya que a cada programa se le asigna una "porción"

Antes de la era de las computadoras económicas, el principal uso de la multitarea era permitir que muchas personas compartieran la misma computadora. Aparentemente, la multitarea haría que una computadora que está cambiando entre varios programas se ejecute más lentamente, en proporción directa a la cantidad de programas que está ejecutando, pero la mayoría de los programas pasan gran parte de su tiempo esperando que los dispositivos de entrada/salida lentos completen sus tareas. Si un programa está esperando que el usuario haga clic con el mouse o presione una tecla en el teclado, entonces no tomará un "período de tiempo" hasta que ocurra el evento que está esperando. Esto libera tiempo para que se ejecuten otros programas, de modo que muchos programas se pueden ejecutar simultáneamente sin una pérdida de velocidad inaceptable.

Multiprocesamiento

Algunas computadoras están diseñadas para distribuir su trabajo entre varias CPU en una configuración de multiprocesamiento, una técnica que alguna vez se empleó solo en máquinas grandes y potentes, como supercomputadoras, computadoras centrales y servidores. Las computadoras portátiles y personales multiprocesador y multinúcleo (múltiples CPU en un solo circuito integrado) ahora están ampliamente disponibles y, como resultado, se utilizan cada vez más en los mercados de gama baja.

Las supercomputadoras en particular a menudo tienen arquitecturas muy singulares que difieren significativamente de la arquitectura básica del programa almacenado y de las computadoras de propósito general. A menudo cuentan con miles de CPU, interconexiones personalizadas de alta velocidad y hardware informático especializado. Dichos diseños tienden a ser útiles solo para tareas especializadas debido a la gran escala de organización del programa requerida para utilizar con éxito la mayoría de los recursos disponibles a la vez. Las supercomputadoras generalmente se usan en aplicaciones de simulación a gran escala, renderizado de gráficos y criptografía, así como con otras llamadas tareas "vergonzosamente paralelas".

Software

El software se refiere a partes de la computadora que no tienen una forma material, como programas, datos, protocolos, etc. El software es la parte de un sistema informático que consiste en información codificada o instrucciones informáticas, en contraste con el hardware físico del que se construye el sistema. El software de computadora incluye programas de computadora, bibliotecas y datos no ejecutables relacionados, como documentación en línea o medios digitales. A menudo se divide en software de sistema y software de aplicación. El hardware y el software de la computadora se requieren mutuamente y ninguno puede usarse de manera realista por sí solo. Cuando el software se almacena en hardware que no se puede modificar fácilmente, como con la BIOS ROM en una computadora compatible con IBM PC, a veces se le llama "firmware".

Sistema operativo/software del sistemaUnix y BSDUNIX System V, IBM AIX, HP-UX, Solaris (SunOS), IRIX, Lista de sistemas operativos BSD
linuxLista de distribuciones de Linux, Comparación de distribuciones de Linux
Microsoft WindowsWindows 95, Windows 98, Windows NT, Windows 2000, Windows ME, Windows XP, Windows Vista, Windows 7, Windows 8, Windows 8.1, Windows 10, Windows 11
DOS86-DOS (QDOS), IBM PC DOS, MS-DOS, DR-DOS, FreeDOS
sistemas operativos macintoshMac OS clásico, macOS (anteriormente OS X y Mac OS X)
Integrado y en tiempo realLista de sistemas operativos integrados
ExperimentalAmoeba, Oberon–AOS, Bluebottle, A2, Plan 9 de Bell Labs
BibliotecaMultimediaDirectX, OpenGL, OpenAL, Vulkan (API)
biblioteca de programaciónBiblioteca estándar de C, Biblioteca de plantillas estándar
DatosProtocoloTCP/IP Kermit FTP HTTP SMTP
Formato de archivoHTML, XML, JPEG, MPEG, PNG
Interfaz de usuarioInterfaz gráfica de usuario (WIMP)Microsoft Windows, GNOME, KDE, QNX Photon, CDE, GEM, Aqua
Interfaz de usuario basada en textoInterfaz de línea de comandos, interfaz de usuario de texto
Software de la aplicacionSala de oficinaProcesamiento de textos, autoedición, programa de presentación, sistema de gestión de base de datos, programación y gestión del tiempo, hoja de cálculo, software de contabilidad
Acceso a InternetNavegador, cliente de correo electrónico, servidor web, agente de transferencia de correo, mensajería instantánea
Diseño y fabricaciónDiseño asistido por computadora, Fabricación asistida por computadora, Gestión de planta, Fabricación robótica, Gestión de la cadena de suministro
GráficosEditor de gráficos rasterizados, Editor de gráficos vectoriales, Modelador 3D, Editor de animaciones, Gráficos 3D por computadora, Edición de video, Procesamiento de imágenes
AudioEditor de audio digital, Reproducción de audio, Mezcla, Síntesis de audio, Música por computadora
Ingeniería de softwareCompilador, ensamblador, intérprete, depurador, editor de texto, entorno de desarrollo integrado, análisis de rendimiento de software, control de revisión, gestión de configuración de software
EducativoEntretenimiento educativo, juego educativo, juego serio, simulador de vuelo
JuegosEstrategia, Arcade, Puzles, Simulación, Disparos en primera persona, Plataformas, Multijugador masivo, Ficción interactiva
VariosInteligencia artificial, software antivirus, escáner de malware, instalador/sistemas de gestión de paquetes, administrador de archivos

Idiomas

Hay miles de lenguajes de programación diferentes, algunos destinados a fines generales, otros útiles solo para aplicaciones altamente especializadas.

Listas de lenguajes de programaciónCronología de lenguajes de programación, Lista de lenguajes de programación por categoría, Lista generacional de lenguajes de programación, Lista de lenguajes de programación, Lenguajes de programación no basados ​​en inglés
Lenguajes ensambladores de uso comúnBRAZO, MIPS, x86
Lenguajes de programación de alto nivel de uso comúnAda, BASIC, C, C++, C#, COBOL, Fortran, PL/I, REXX, Java, Lisp, Pascal, Object Pascal
Lenguajes de secuencias de comandos de uso comúnGuión Bourne, JavaScript, Python, Ruby, PHP, Perl

Programas

La característica definitoria de las computadoras modernas que las distingue de todas las demás máquinas es que pueden programarse. Es decir que se le puede dar algún tipo de instrucciones (el programa) a la computadora, y las procesará. Las computadoras modernas basadas en la arquitectura de von Neumann a menudo tienen código de máquina en forma de lenguaje de programación imperativo. En términos prácticos, un programa de computadora puede ser solo unas pocas instrucciones o extenderse a muchos millones de instrucciones, como lo hacen los programas para procesadores de texto y navegadores web, por ejemplo. Una computadora moderna típica puede ejecutar miles de millones de instrucciones por segundo (gigaflops) y rara vez comete un error durante muchos años de funcionamiento. Los grandes programas de computadora que constan de varios millones de instrucciones pueden llevar años a los equipos de programadores para escribirlos.

Arquitectura del programa almacenado

Esta sección se aplica a las computadoras basadas en máquinas RAM más comunes.

En la mayoría de los casos, las instrucciones de la computadora son simples: sumar un número a otro, mover algunos datos de un lugar a otro, enviar un mensaje a algún dispositivo externo, etc. Estas instrucciones se leen de la memoria de la computadora y generalmente se llevan a cabo (ejecutan). en el orden en que fueron dadas. Sin embargo, por lo general hay instrucciones especializadas para decirle a la computadora que salte hacia adelante o hacia atrás a algún otro lugar en el programa y que continúe con la ejecución desde allí. Estas se llaman instrucciones de "salto" (o ramas). Además, las instrucciones de salto se pueden hacer para que sucedan condicionalmente, de modo que se puedan usar diferentes secuencias de instrucciones dependiendo del resultado de algún cálculo previo o algún evento externo. Muchas computadoras soportan directamente las subrutinas proporcionando un tipo de salto que "recuerda"

La ejecución de un programa podría compararse con la lectura de un libro. Si bien una persona normalmente lee cada palabra y línea en secuencia, a veces puede volver a un lugar anterior del texto o saltarse secciones que no son de su interés. De manera similar, una computadora a veces puede regresar y repetir las instrucciones en alguna sección del programa una y otra vez hasta que se cumpla alguna condición interna. Esto se denomina flujo de control dentro del programa y es lo que permite que la computadora realice tareas repetidamente sin intervención humana.

Comparativamente, una persona que usa una calculadora de bolsillo puede realizar una operación aritmética básica, como sumar dos números, con solo presionar unos pocos botones. Pero sumar todos los números del 1 al 1000 requeriría miles de pulsaciones de botones y mucho tiempo, con casi la certeza de cometer un error. Por otro lado, una computadora puede programarse para hacer esto con solo unas pocas instrucciones simples. El siguiente ejemplo está escrito en lenguaje ensamblador MIPS:

  begin: 
  addi  $8,  $0,  0            # inicializa la suma a 0 
  addi  $9,  $0,  1            # configura el primer número para agregar = 1 
  loop: 
  slti  $10,  $9,  1000        # verifica si el número es menor que 1000 
  beq  $10,  $0,  finish       # si el número impar es mayor que n, entonces salga, 
  agregue  $8,  $8,  $9            # actualice la suma, 
  agregue  $9,  $9,  1            # obtenga el siguiente número 
  j  loop                   # repetir el proceso de suma 
  terminar: 
  agregar  $2,  $8,  $0            # poner la suma en el registro de salida

Una vez que se le indique que ejecute este programa, la computadora realizará la tarea de suma repetitiva sin más intervención humana. Casi nunca cometerá un error y una PC moderna puede completar la tarea en una fracción de segundo.

Codigo de maquina

En la mayoría de las computadoras, las instrucciones individuales se almacenan como código de máquina y a cada instrucción se le asigna un número único (su código de operación o código de operación para abreviar). El comando para sumar dos números tendría un código de operación; el comando para multiplicarlos tendría un código de operación diferente, y así sucesivamente. Las computadoras más simples pueden realizar cualquiera de un puñado de instrucciones diferentes; las computadoras más complejas tienen varios cientos para elegir, cada una con un código numérico único. Dado que la memoria de la computadora puede almacenar números, también puede almacenar los códigos de instrucción. Esto lleva al hecho importante de que los programas completos (que son solo listas de estas instrucciones) pueden representarse como listas de números y pueden manipularse dentro de la computadora de la misma manera que los datos numéricos.En algunos casos, una computadora puede almacenar parte o la totalidad de su programa en la memoria que se mantiene separada de los datos con los que opera. Esto se llama la arquitectura de Harvard después de la computadora Harvard Mark I. Las computadoras modernas de von Neumann muestran algunos rasgos de la arquitectura de Harvard en sus diseños, como en los cachés de la CPU.

Si bien es posible escribir programas de computadora como largas listas de números (lenguaje de máquina) y si bien esta técnica se usó con muchas de las primeras computadoras, en la práctica es extremadamente tedioso y potencialmente propenso a errores, especialmente para programas complicados. En su lugar, a cada instrucción básica se le puede dar un nombre corto que sea indicativo de su función y fácil de recordar: un mnemotécnico como ADD, SUB, MULT o JUMP. Estos mnemotécnicos se conocen colectivamente como el lenguaje ensamblador de una computadora. La conversión de programas escritos en lenguaje ensamblador en algo que la computadora realmente pueda entender (lenguaje de máquina) generalmente se realiza mediante un programa de computadora llamado ensamblador.

Lenguaje de programación

Los lenguajes de programación proporcionan varias formas de especificar programas para que las computadoras los ejecuten. A diferencia de los lenguajes naturales, los lenguajes de programación están diseñados para no permitir ambigüedades y ser concisos. Son idiomas puramente escritos y, a menudo, difíciles de leer en voz alta. Por lo general, un compilador o un ensamblador los traduce a código de máquina antes de ejecutarlos, o un intérprete los traduce directamente en tiempo de ejecución. A veces, los programas se ejecutan mediante un método híbrido de las dos técnicas.

Idiomas de bajo nivel

Los lenguajes de máquina y los lenguajes ensambladores que los representan (denominados colectivamente lenguajes de programación de bajo nivel) generalmente son exclusivos de la arquitectura particular de la unidad central de procesamiento (CPU) de una computadora. Por ejemplo, una CPU de arquitectura ARM (como la que se puede encontrar en un teléfono inteligente o un videojuego portátil) no puede entender el lenguaje de máquina de una CPU x86 que podría estar en una PC. Históricamente, se creó una cantidad significativa de otras arquitecturas de CPU y se usó ampliamente, en particular, incluida la tecnología MOS 6502 y 6510, además de Zilog Z80.

Idiomas de alto nivel

Aunque considerablemente más fácil que en lenguaje de máquina, escribir programas largos en lenguaje ensamblador suele ser difícil y también propenso a errores. Por lo tanto, la mayoría de los programas prácticos están escritos en lenguajes de programación de alto nivel más abstractos que pueden expresar las necesidades del programador de manera más conveniente (y, por lo tanto, ayudan a reducir el error del programador). Los lenguajes de alto nivel generalmente se "compilan" en lenguaje de máquina (o, a veces, en lenguaje ensamblador y luego en lenguaje de máquina) utilizando otro programa de computadora llamado compilador.Los lenguajes de alto nivel están menos relacionados con el funcionamiento de la computadora de destino que el lenguaje ensamblador, y más relacionados con el lenguaje y la estructura de los problemas que resolverá el programa final. Por lo tanto, a menudo es posible usar diferentes compiladores para traducir el mismo programa de lenguaje de alto nivel al lenguaje de máquina de muchos tipos diferentes de computadoras. Esto es parte de los medios por los cuales el software como los videojuegos puede estar disponible para diferentes arquitecturas informáticas, como computadoras personales y varias consolas de videojuegos.

Diseño de programa

El diseño de programas pequeños es relativamente simple e implica el análisis del problema, la recopilación de entradas, el uso de construcciones de programación dentro de los lenguajes, el diseño o el uso de procedimientos y algoritmos establecidos, el suministro de datos para dispositivos de salida y soluciones al problema, según corresponda. A medida que los problemas se vuelven más grandes y complejos, se encuentran características como subprogramas, módulos, documentación formal y nuevos paradigmas como la programación orientada a objetos. Los programas grandes que involucran miles de líneas de código y más requieren metodologías de software formales. La tarea de desarrollar grandes sistemas de software presenta un importante desafío intelectual. Históricamente, ha sido difícil producir software con una confiabilidad aceptablemente alta dentro de un cronograma y presupuesto predecibles;

Insectos

Los errores en los programas de computadora se llaman "bugs". Pueden ser benignos y no afectar la utilidad del programa, o solo tener efectos sutiles. Pero en algunos casos, pueden hacer que el programa o todo el sistema se "bloquee", deje de responder a las entradas, como los clics del mouse o las pulsaciones de teclas, falle por completo o se bloquee. De lo contrario, los errores benignos a veces pueden ser aprovechados con intenciones maliciosas por un usuario sin escrúpulos que escribe un código diseñado para aprovechar un error e interrumpir la ejecución adecuada de una computadora. Los errores generalmente no son culpa de la computadora. Dado que las computadoras simplemente ejecutan las instrucciones que se les dan, los errores casi siempre son el resultado de un error del programador o de un descuido en el diseño del programa.A la almirante Grace Hopper, una científica informática estadounidense y desarrolladora del primer compilador, se le atribuye haber utilizado por primera vez el término "errores" en informática después de que se encontrara una polilla muerta cortando un relé en la computadora Harvard Mark II en septiembre de 1947.

Redes e Internet

Las computadoras se han utilizado para coordinar información entre múltiples ubicaciones desde la década de 1950. El sistema SAGE del ejército de EE. UU. fue el primer ejemplo a gran escala de un sistema de este tipo, lo que condujo a una serie de sistemas comerciales de propósito especial como Sabre. En la década de 1970, los ingenieros informáticos de las instituciones de investigación de los Estados Unidos comenzaron a conectar sus computadoras mediante tecnología de telecomunicaciones. El esfuerzo fue financiado por ARPA (ahora DARPA), y la red informática resultante se llamó ARPANET. Las tecnologías que hicieron posible Arpanet se extendieron y evolucionaron.

Con el tiempo, la red se extendió más allá de las instituciones académicas y militares y se conoció como Internet. El surgimiento de las redes implicó una redefinición de la naturaleza y los límites de la computadora. Los sistemas operativos y las aplicaciones informáticas se modificaron para incluir la capacidad de definir y acceder a los recursos de otras computadoras en la red, como dispositivos periféricos, información almacenada y similares, como extensiones de los recursos de una computadora individual. Inicialmente, estas instalaciones estaban disponibles principalmente para las personas que trabajaban en entornos de alta tecnología, pero en la década de 1990, la difusión de aplicaciones como el correo electrónico y la World Wide Web, combinada con el desarrollo de tecnologías de redes rápidas y baratas como Ethernet y ADSL, vio la creación de redes informáticas. volverse casi omnipresente. En realidad, la cantidad de computadoras que están conectadas en red está creciendo fenomenalmente. Una gran proporción de las computadoras personales se conectan regularmente a Internet para comunicarse y recibir información. Las redes "inalámbricas", que a menudo utilizan redes de telefonía móvil, han significado que las redes se están volviendo cada vez más omnipresentes incluso en entornos informáticos móviles.

Computadoras no convencionales

Una computadora no necesita ser electrónica, ni siquiera tener un procesador, ni memoria RAM, ni siquiera un disco duro. Si bien el uso popular de la palabra "computadora" es sinónimo de una computadora electrónica personal, la definición moderna de una computadora es literalmente: " Un dispositivo que computa, especialmente una máquina electrónica programable [generalmente] que realiza operaciones matemáticas o lógicas de alta velocidad o que reúna, almacene, correlacione o procese información de otro modo”. Cualquier dispositivo que procese información califica como una computadora, especialmente si el procesamiento tiene un propósito.

Futuro

Existe una investigación activa para hacer computadoras a partir de muchos tipos nuevos y prometedores de tecnología, como computadoras ópticas, computadoras de ADN, computadoras neuronales y computadoras cuánticas. La mayoría de las computadoras son universales y pueden calcular cualquier función computable, y están limitadas solo por su capacidad de memoria y velocidad de operación. Sin embargo, diferentes diseños de computadoras pueden dar un rendimiento muy diferente para problemas particulares; por ejemplo, las computadoras cuánticas pueden potencialmente descifrar algunos algoritmos de encriptación modernos (por factorización cuántica) muy rápidamente.

Paradigmas de la arquitectura informática

Existen muchos tipos de arquitecturas informáticas:

De todas estas máquinas abstractas, una computadora cuántica es la más prometedora para revolucionar la informática. Las puertas lógicas son una abstracción común que se puede aplicar a la mayoría de los paradigmas digitales o analógicos anteriores. La capacidad de almacenar y ejecutar listas de instrucciones llamadas programas hace que las computadoras sean extremadamente versátiles, lo que las distingue de las calculadoras. La tesis de Church-Turing es una declaración matemática de esta versatilidad: cualquier computadora con una capacidad mínima (que sea completa de Turing) es, en principio, capaz de realizar las mismas tareas que puede realizar cualquier otra computadora. Por lo tanto, cualquier tipo de computadora (netbook, supercomputadora, autómata celular, etc.) es capaz de realizar las mismas tareas computacionales, con suficiente tiempo y capacidad de almacenamiento.

Inteligencia artificial

Una computadora resolverá los problemas exactamente de la forma en que está programada, sin tener en cuenta la eficiencia, las soluciones alternativas, los posibles atajos o los posibles errores en el código. Los programas informáticos que aprenden y se adaptan forman parte del campo emergente de la inteligencia artificial y el aprendizaje automático. Los productos basados ​​en inteligencia artificial generalmente se dividen en dos categorías principales: sistemas basados ​​en reglas y sistemas de reconocimiento de patrones. Los sistemas basados ​​en reglas intentan representar las reglas utilizadas por expertos humanos y tienden a ser costosos de desarrollar. Los sistemas basados ​​en patrones utilizan datos sobre un problema para generar conclusiones. Los ejemplos de sistemas basados ​​en patrones incluyen el reconocimiento de voz, el reconocimiento de fuentes, la traducción y el campo emergente del marketing en línea.

Profesiones y organizaciones

A medida que el uso de las computadoras se ha extendido por toda la sociedad, hay un número creciente de carreras relacionadas con las computadoras.

relacionados con el hardwareIngeniería eléctrica, Ingeniería electrónica, Ingeniería informática, Ingeniería de telecomunicaciones, Ingeniería óptica, Nanoingeniería
relacionados con el softwareCiencias de la computación, Ingeniería informática, Autoedición, Interacción humano-computadora, Tecnología de la información, Sistemas de información, Ciencias computacionales, Ingeniería de software, Industria de los videojuegos, Diseño web

La necesidad de que las computadoras funcionen bien juntas y puedan intercambiar información ha generado la necesidad de muchas organizaciones, clubes y sociedades de estándares, tanto de naturaleza formal como informal.

Grupos de normasANSI, CEI, IEEE, IETF, ISO, W3C
Sociedades profesionalesACM, AIS, IET, IFIP, BCS
Grupos de software libre/de código abiertoFundación de Software Libre, Fundación Mozilla, Fundación de Software Apache