Sistema operativo

Compartir Imprimir Citar

Un sistema operativo (OS) es un software de sistema que administra el hardware de la computadora, los recursos de software y proporciona servicios comunes para los programas de la computadora.

Los sistemas operativos de tiempo compartido programan tareas para un uso eficiente del sistema y también pueden incluir software de contabilidad para la asignación de costos de tiempo de procesador, almacenamiento masivo, impresión y otros recursos.

Para funciones de hardware tales como entrada y salida y asignación de memoria, el sistema operativo actúa como intermediario entre los programas y el hardware de la computadora, aunque el código de la aplicación generalmente lo ejecuta directamente el hardware y con frecuencia realiza llamadas al sistema a una función del sistema operativo o es interrumpido por eso. Los sistemas operativos se encuentran en muchos dispositivos que contienen una computadora, desde teléfonos celulares y consolas de videojuegos hasta servidores web y supercomputadoras.

El sistema operativo dominante para computadoras personales de uso general es Microsoft Windows, con una participación de mercado de alrededor del 76,45%. macOS de Apple Inc. ocupa el segundo lugar (17,72 %) y las variedades de Linux ocupan colectivamente el tercer lugar (1,73 %). En el sector móvil (incluidos los teléfonos inteligentes y las tabletas), la participación de Android es de hasta el 72 % en el año 2020. Según los datos del tercer trimestre de 2016, la participación de Android en los teléfonos inteligentes es dominante con un 87,5 % con una tasa de crecimiento del 10,3 % anual, seguida por el iOS de Apple con un 12,1 por ciento con una disminución anual de la cuota de mercado del 5,2 por ciento, mientras que otros sistemas operativos ascienden a sólo el 0,3 por ciento.Las distribuciones de Linux son dominantes en los sectores de servidores y supercomputación. Existen otras clases especializadas de sistemas operativos (sistemas operativos de propósito especial), como los sistemas integrados y en tiempo real, para muchas aplicaciones. También existen sistemas operativos centrados en la seguridad. Algunos sistemas operativos tienen requisitos de sistema bajos (por ejemplo, una distribución ligera de Linux). Otros pueden tener requisitos de sistema más altos.

Algunos sistemas operativos requieren instalación o pueden venir preinstalados con las computadoras compradas (instalación OEM), mientras que otros pueden ejecutarse directamente desde medios (es decir, CD en vivo) o memoria flash (es decir, memoria USB).

Tipos de sistemas operativos

Monotarea y multitarea

Un sistema de una sola tarea solo puede ejecutar un programa a la vez, mientras que un sistema operativo multitarea permite que más de un programa se ejecute al mismo tiempo. Esto se logra mediante el tiempo compartido, donde el tiempo de procesador disponible se divide entre varios procesos. Cada uno de estos procesos es interrumpido repetidamente en intervalos de tiempo por un subsistema de programación de tareas del sistema operativo. La multitarea puede caracterizarse en tipos preventivos y cooperativos. En la multitarea preventiva, el sistema operativo divide el tiempo de la CPU y dedica una ranura a cada uno de los programas. Los sistemas operativos similares a Unix, como Linux, así como los que no son similares a Unix, como AmigaOS, admiten la multitarea preventiva. La multitarea cooperativa se logra confiando en que cada proceso proporcione tiempo a los otros procesos de una manera definida. Las versiones de 16 bits de Microsoft Windows usaban multitarea cooperativa; Las versiones de 32 bits de Windows NT y Win9x usaban multitarea preventiva.

Monousuario y multiusuario

Los sistemas operativos de un solo usuario no tienen funciones para distinguir a los usuarios, pero pueden permitir que varios programas se ejecuten en tándem. Un sistema operativo multiusuario amplía el concepto básico de multitarea con funciones que identifican procesos y recursos, como el espacio en disco, que pertenecen a varios usuarios, y el sistema permite que varios usuarios interactúen con el sistema al mismo tiempo. Los sistemas operativos de tiempo compartido programan tareas para un uso eficiente del sistema y también pueden incluir software de contabilidad para la asignación de costos de tiempo de procesador, almacenamiento masivo, impresión y otros recursos para múltiples usuarios.

Repartido

Un sistema operativo distribuido administra un grupo de computadoras distintas en red y las hace parecer una sola computadora, ya que todos los cálculos están distribuidos (divididos entre las computadoras constituyentes).

Con plantilla

En el contexto de computación distribuida y en la nube de un sistema operativo, la creación de plantillas se refiere a la creación de una sola imagen de máquina virtual como un sistema operativo invitado y luego guardarla como una herramienta para múltiples máquinas virtuales en ejecución. La técnica se utiliza tanto en virtualización como en administración de computación en la nube, y es común en grandes almacenes de servidores.

Incorporado

Los sistemas operativos integrados están diseñados para ser utilizados en sistemas informáticos integrados. Están diseñados para operar en pequeñas máquinas con menor autonomía (por ejemplo, PDA). Son muy compactos y extremadamente eficientes por diseño, y pueden operar con una cantidad limitada de recursos. Windows CE y Minix 3 son algunos ejemplos de sistemas operativos integrados.

Tiempo real

Un sistema operativo en tiempo real es un sistema operativo que garantiza procesar eventos o datos en un momento específico en el tiempo. Un sistema operativo en tiempo real puede ser de una sola tarea o multitarea, pero cuando es multitarea, utiliza algoritmos de programación especializados para lograr una naturaleza determinista del comportamiento. Dicho sistema basado en eventos cambia entre tareas en función de sus prioridades o eventos externos, mientras que los sistemas operativos de tiempo compartido cambian de tareas en función de las interrupciones del reloj.

Biblioteca

Un sistema operativo de biblioteca es aquel en el que los servicios que proporciona un sistema operativo típico, como las redes, se proporcionan en forma de bibliotecas y se componen con la aplicación y el código de configuración para construir un unikernel: un espacio de dirección único especializado, imagen de máquina que se pueden implementar en la nube o en entornos integrados.

Historia

Las primeras computadoras se construyeron para realizar una serie de tareas individuales, como una calculadora. Las funciones básicas del sistema operativo se desarrollaron en la década de 1950, como las funciones de monitor residente que podían ejecutar automáticamente diferentes programas en sucesión para acelerar el procesamiento. Los sistemas operativos no existieron en sus formas modernas y más complejas hasta principios de la década de 1960. Se agregaron características de hardware que permitieron el uso de bibliotecas de tiempo de ejecución, interrupciones y procesamiento paralelo. Cuando las computadoras personales se hicieron populares en la década de 1980, se crearon sistemas operativos para ellas similares en concepto a los utilizados en computadoras más grandes.

En la década de 1940, los primeros sistemas digitales electrónicos no tenían sistemas operativos. Los sistemas electrónicos de esta época se programaban en filas de interruptores mecánicos o mediante cables puente en tableros de conexiones. Estos eran sistemas de propósito especial que, por ejemplo, generaban tablas de balística para el ejército o controlaban la impresión de cheques de nómina a partir de datos en tarjetas de papel perforadas. Después de que se inventaran las computadoras programables de uso general, se introdujeron los lenguajes de máquina (que consisten en cadenas de dígitos binarios 0 y 1 en una cinta de papel perforada) que aceleraron el proceso de programación (Stern, 1981).

A principios de la década de 1950, una computadora solo podía ejecutar un programa a la vez. Cada usuario tenía uso exclusivo de la computadora por un período limitado y llegaba a una hora programada con su programa y datos en tarjetas de papel perforadas o cinta perforada. El programa se cargaría en la máquina y la máquina se configuraría para funcionar hasta que el programa se completara o fallara. Los programas generalmente se pueden depurar a través de un panel frontal usando interruptores de palanca y luces del panel. Se dice que Alan Turing fue un maestro en esto en la primera máquina Manchester Mark 1, y ya estaba derivando la concepción primitiva de un sistema operativo a partir de los principios de la máquina universal de Turing.

Las máquinas posteriores vinieron con bibliotecas de programas, que se vincularían al programa de un usuario para ayudar en operaciones tales como entrada y salida y compilación (generando código de máquina a partir de código simbólico legible por humanos). Esta fue la génesis del sistema operativo moderno. Sin embargo, las máquinas aún ejecutaban un solo trabajo a la vez. En la Universidad de Cambridge en Inglaterra, la cola de trabajos fue en un momento una línea de lavado (tendedero) de la que se colgaban cintas con pinzas de ropa de diferentes colores para indicar la prioridad del trabajo.

Una mejora fue el Atlas Supervisor. Introducido con el Manchester Atlas en 1962, muchos lo consideran el primer sistema operativo moderno reconocible. Brinch Hansen lo describió como "el avance más significativo en la historia de los sistemas operativos".

Mainframes

A lo largo de la década de 1950, muchas características importantes fueron pioneras en el campo de los sistemas operativos en computadoras centrales, incluido el procesamiento por lotes, la interrupción de entrada/salida, el almacenamiento en búfer, la multitarea, la cola de impresión, las bibliotecas de tiempo de ejecución, la carga de enlaces y los programas para clasificar registros en archivos. Estas características se incluyeron o no en el software de aplicación a opción de los programadores de aplicaciones, en lugar de en un sistema operativo separado utilizado por todas las aplicaciones. En 1959, el sistema operativo SHARE se lanzó como una utilidad integrada para IBM 704, y más tarde en los mainframes 709 y 7090, aunque fue reemplazado rápidamente por IBSYS/IBJOB en 709, 7090 y 7094.

Durante la década de 1960, OS/360 de IBM introdujo el concepto de un solo sistema operativo que abarcaba toda una línea de productos, lo cual fue crucial para el éxito de las máquinas System/360. Los actuales sistemas operativos de mainframe de IBM son descendientes lejanos de este sistema original y las máquinas modernas son compatibles con aplicaciones escritas para OS/360.

OS/360 también fue pionero en el concepto de que el sistema operativo realiza un seguimiento de todos los recursos del sistema que se utilizan, incluida la asignación de espacio de datos y programas en la memoria principal y el espacio de archivos en el almacenamiento secundario, y el bloqueo de archivos durante las actualizaciones. Cuando un proceso finaliza por cualquier motivo, el sistema operativo reclama todos estos recursos.

El sistema alternativo CP-67 para el S/360-67 inició toda una línea de sistemas operativos de IBM centrados en el concepto de máquinas virtuales. Otros sistemas operativos utilizados en los mainframes de la serie IBM S/360 incluyeron sistemas desarrollados por IBM: DOS/360 (Sistema operativo de disco), TSS/360 (Sistema de tiempo compartido), TOS/360 (Sistema operativo de cinta), BOS/360 (Sistema operativo básico). System) y ACP (Airline Control Program), así como algunos sistemas que no son de IBM: MTS (Michigan Terminal System), MUSIC (Multi-User System for Interactive Computing) y ORVYL (Stanford Timesharing System).

Control Data Corporation desarrolló el sistema operativo SCOPE en la década de 1960, para el procesamiento por lotes. En cooperación con la Universidad de Minnesota, los sistemas operativos Kronos y más tarde NOS se desarrollaron durante la década de 1970, que admitían el uso simultáneo de lotes y tiempo compartido. Como muchos sistemas comerciales de tiempo compartido, su interfaz era una extensión de los sistemas operativos Dartmouth BASIC, uno de los esfuerzos pioneros en lenguajes de programación y tiempo compartido. A fines de la década de 1970, Control Data y la Universidad de Illinois desarrollaron el sistema operativo PLATO, que utilizaba pantallas de plasma y redes de tiempo compartido de larga distancia. Plato fue notablemente innovador para su época, con chat en tiempo real y juegos gráficos para múltiples usuarios.

En 1961, Burroughs Corporation presentó el B5000 con el sistema operativo MCP (Master Control Program). El B5000 era una máquina de pila diseñada para admitir exclusivamente lenguajes de alto nivel sin ensamblador; de hecho, el MCP fue el primer sistema operativo escrito exclusivamente en un lenguaje de alto nivel (ESPOL, un dialecto de ALGOL). MCP también introdujo muchas otras innovaciones revolucionarias, como ser la primera implementación comercial de memoria virtual. Durante el desarrollo del AS/400, IBM se acercó a Burroughs para obtener la licencia de MCP para ejecutarse en el hardware del AS/400. Esta propuesta fue rechazada por la gerencia de Burroughs para proteger su producción de hardware existente. MCP todavía se usa en la línea de computadoras MCP/ClearPath de la empresa Unisys.

UNIVAC, el primer fabricante comercial de computadoras, produjo una serie de sistemas operativos EXEC. Como todos los primeros sistemas de mainframe, este sistema orientado a lotes administraba tambores magnéticos, discos, lectores de tarjetas e impresoras de línea. En la década de 1970, UNIVAC produjo el sistema Real-Time Basic (RTB) para admitir el tiempo compartido a gran escala, también siguiendo el modelo del sistema Dartmouth BC.

General Electric y el MIT desarrollaron General Electric Comprehensive Operating Supervisor (GECOS), que introdujo el concepto de niveles de privilegio de seguridad en anillos. Después de la adquisición por parte de Honeywell, pasó a llamarse General Comprehensive Operating System (GCOS).

Digital Equipment Corporation desarrolló muchos sistemas operativos para sus diversas líneas de computadoras, incluidos los sistemas de tiempo compartido TOPS-10 y TOPS-20 para los sistemas de clase PDP-10 de 36 bits. Antes del uso generalizado de UNIX, TOPS-10 era un sistema particularmente popular en las universidades y en la primera comunidad de ARPANET. RT-11 era un sistema operativo en tiempo real de un solo usuario para la minicomputadora de clase PDP-11, y RSX-11 era el sistema operativo multiusuario correspondiente.

Desde finales de la década de 1960 hasta finales de la década de 1970, evolucionaron varias capacidades de hardware que permitieron que un software similar o adaptado se ejecutara en más de un sistema. Los primeros sistemas habían utilizado la microprogramación para implementar funciones en sus sistemas a fin de permitir que las diferentes arquitecturas informáticas subyacentes parecieran iguales a otras en una serie. De hecho, la mayoría de los 360 después del 360/40 (excepto el 360/44, 360/75, 360/91, 360/95 y 360/195) fueron implementaciones microprogramadas.

La enorme inversión en software para estos sistemas realizada desde la década de 1960 hizo que la mayoría de los fabricantes de computadoras originales siguieran desarrollando sistemas operativos compatibles junto con el hardware. Los sistemas operativos de mainframe notables compatibles incluyen:

Microcomputadoras

Las primeras microcomputadoras no tenían la capacidad ni la necesidad de los elaborados sistemas operativos que se habían desarrollado para mainframes y minis; Se desarrollaron sistemas operativos minimalistas, a menudo cargados desde ROM y conocidos como monitores. Uno de los primeros sistemas operativos de disco notable fue CP/M, que era compatible con muchas de las primeras microcomputadoras y fue imitado de cerca por MS-DOS de Microsoft, que se hizo muy popular como el sistema operativo elegido para la PC de IBM (la versión de IBM se llamaba IBM DOS). o PC DOS). En la década de 1980, Apple Computer Inc. (ahora Apple Inc.) abandonó su popular serie de microcomputadoras Apple II para introducir la computadora Apple Macintosh con una innovadora interfaz gráfica de usuario (GUI) para Mac OS.

La introducción del chip de CPU Intel 80386 en octubre de 1985, con arquitectura de 32 bits y capacidades de paginación, proporcionó a las computadoras personales la capacidad de ejecutar sistemas operativos multitarea como los de las minicomputadoras y mainframes anteriores. Microsoft respondió a este progreso contratando a Dave Cutler, quien había desarrollado el sistema operativo VMS para Digital Equipment Corporation. Lideraría el desarrollo del sistema operativo Windows NT, que continúa sirviendo como base para la línea de sistemas operativos de Microsoft. Steve Jobs, cofundador de Apple Inc., inició NeXT Computer Inc., que desarrolló el sistema operativo NEXTSTEP. NEXTSTEP luego sería adquirido por Apple Inc. y utilizado, junto con el código de FreeBSD, como el núcleo de Mac OS X (macOS después del último cambio de nombre).

El Proyecto GNU fue iniciado por el activista y programador Richard Stallman con el objetivo de crear un reemplazo completo de software libre para el sistema operativo propietario UNIX. Si bien el proyecto tuvo mucho éxito al duplicar la funcionalidad de varias partes de UNIX, el desarrollo del núcleo GNU Hurd resultó ser improductivo. En 1991, el estudiante finlandés de informática Linus Torvalds, con la cooperación de voluntarios que colaboraban a través de Internet, lanzó la primera versión del kernel de Linux. Pronto se fusionó con los componentes del espacio de usuario de GNU y el software del sistema para formar un sistema operativo completo. Desde entonces, la industria del software se ha referido a la combinación de los dos componentes principales como simplemente "Linux", una convención de nomenclatura a la que Stallman y la Free Software Foundation siguen oponiéndose. prefiriendo el nombre GNU/Linux. Berkeley Software Distribution, conocido como BSD, es el derivado de UNIX distribuido por la Universidad de California, Berkeley, a partir de la década de 1970. Distribuido libremente y portado a muchas minicomputadoras, eventualmente también ganó seguidores para su uso en PC, principalmente como FreeBSD, NetBSD y OpenBSD.

Ejemplos

Sistemas operativos Unix y similares a Unix

Unix fue originalmente escrito en lenguaje ensamblador. Ken Thompson escribió B, principalmente basado en BCPL, basado en su experiencia en el proyecto MULTICS. B fue reemplazada por C, y Unix, reescrito en C, se convirtió en una familia grande y compleja de sistemas operativos interrelacionados que han influido en todos los sistemas operativos modernos (ver Historia).

La familia similar a Unix es un grupo diverso de sistemas operativos, con varias subcategorías importantes que incluyen System V, BSD y Linux. El nombre "UNIX" es una marca comercial de The Open Group que otorga licencia para su uso con cualquier sistema operativo que se haya demostrado que se ajusta a sus definiciones. "similar a UNIX" se usa comúnmente para referirse al gran conjunto de sistemas operativos que se asemejan al UNIX original.

Los sistemas similares a Unix se ejecutan en una amplia variedad de arquitecturas informáticas. Se utilizan mucho para servidores en empresas, así como estaciones de trabajo en entornos académicos y de ingeniería. Las variantes gratuitas de UNIX, como Linux y BSD, son populares en estas áreas.

Cinco sistemas operativos están certificados por The Open Group (titular de la marca Unix) como Unix. Tanto el HP-UX de HP como el AIX de IBM son descendientes del System V Unix original y están diseñados para ejecutarse únicamente en el hardware de sus respectivos proveedores. Por el contrario, Solaris de Sun Microsystems puede ejecutarse en múltiples tipos de hardware, incluidos servidores x86 y Sparc, y PC. El macOS de Apple, un reemplazo del Mac OS anterior (no Unix) de Apple, es una variante BSD híbrida basada en kernel derivada de NeXTSTEP, Mach y FreeBSD. Los servicios del sistema z/OS UNIX de IBM incluyen un shell y utilidades basadas en los productos InterOpen de Mortice Kerns.

Se buscó la interoperabilidad de Unix estableciendo el estándar POSIX. El estándar POSIX se puede aplicar a cualquier sistema operativo, aunque originalmente se creó para varias variantes de Unix.

BSD y sus descendientes

Un subgrupo de la familia Unix es la familia Berkeley Software Distribution, que incluye FreeBSD, NetBSD y OpenBSD. Estos sistemas operativos se encuentran más comúnmente en servidores web, aunque también pueden funcionar como un sistema operativo de computadora personal. Internet debe gran parte de su existencia a BSD, ya que muchos de los protocolos que ahora usan comúnmente las computadoras para conectarse, enviar y recibir datos a través de una red fueron ampliamente implementados y refinados en BSD. La World Wide Web también se demostró por primera vez en varias computadoras que ejecutan un sistema operativo basado en BSD llamado NeXTSTEP.

En 1974, la Universidad de California, Berkeley, instaló su primer sistema Unix. Con el tiempo, los estudiantes y el personal del departamento de informática comenzaron a agregar nuevos programas para facilitar las cosas, como editores de texto. Cuando Berkeley recibió nuevas computadoras VAX en 1978 con Unix instalado, los estudiantes universitarios de la escuela modificaron Unix aún más para aprovechar las posibilidades del hardware de la computadora. La Agencia de Proyectos de Investigación Avanzada de Defensa del Departamento de Defensa de EE. UU. se interesó y decidió financiar el proyecto. Muchas escuelas, corporaciones y organizaciones gubernamentales se dieron cuenta y comenzaron a usar la versión de Unix de Berkeley en lugar de la versión oficial distribuida por AT&T.

Steve Jobs, al dejar Apple Inc. en 1985, formó NeXT Inc., una empresa que fabricaba computadoras de alta gama que se ejecutaban en una variación de BSD llamada NeXTSTEP. Una de estas computadoras fue utilizada por Tim Berners-Lee como el primer servidor web para crear la World Wide Web.

Desarrolladores como Keith Bostic alentaron al proyecto a reemplazar cualquier código no libre que se originó con Bell Labs. Sin embargo, una vez hecho esto, AT&T demandó. Después de dos años de disputas legales, el proyecto BSD generó una serie de derivados gratuitos, como NetBSD y FreeBSD (ambos en 1993) y OpenBSD (de NetBSD en 1995).

Mac OS

macOS (anteriormente "Mac OS X" y más tarde "OS X") es una línea de sistemas operativos gráficos de núcleo abierto desarrollados, comercializados y vendidos por Apple Inc., el último de los cuales está precargado en todas las computadoras Macintosh que se envían actualmente. macOS es el sucesor del Mac OS clásico original, que había sido el sistema operativo principal de Apple desde 1984. A diferencia de su predecesor, macOS es un sistema operativo UNIX basado en tecnología que se había desarrollado en NeXT durante la segunda mitad de la década de 1980 y hasta Apple compró la empresa a principios de 1997. El sistema operativo se lanzó por primera vez en 1999 como Mac OS X Server 1.0, seguido en marzo de 2001 por una versión cliente (Mac OS X v10.0 "Cheetah"). Desde entonces, se han lanzado seis ediciones más distintas de "cliente" y "servidor" de macOS,

Antes de su fusión con macOS, la edición de servidor, macOS Server, tenía una arquitectura idéntica a su contraparte de escritorio y, por lo general, se ejecutaba en la línea de hardware de servidor Macintosh de Apple. macOS Server incluía herramientas de software de gestión y administración de grupos de trabajo que brindan acceso simplificado a servicios de red clave, incluido un agente de transferencia de correo, un servidor Samba, un servidor LDAP, un servidor de nombres de dominio y otros. Con Mac OS X v10.7 Lion, todos los aspectos del servidor de Mac OS X Server se han integrado en la versión del cliente y el producto se renombró como "OS X" (quitando "Mac" del nombre). Las herramientas del servidor ahora se ofrecen como una aplicación.

Servicios del sistema z/OS UNIX

Presentado por primera vez como la actualización de OpenEdition a MVS/ESA System Product Version 4 Release 3, anunciado en febrero de 1993 con soporte para POSIX y otros estándares. z/OS UNIX System Services se basa en los servicios MVS y no puede ejecutarse de forma independiente. Si bien IBM introdujo inicialmente OpenEdition para satisfacer los requisitos de FIPS, varios componentes de z/OS ahora requieren servicios UNIX, por ejemplo, TCP/IP.

Linux

El kernel de Linux se originó en 1991, como un proyecto de Linus Torvalds, cuando era estudiante universitario en Finlandia. Publicó información sobre su proyecto en un grupo de noticias para estudiantes de computación y programadores, y recibió apoyo y asistencia de voluntarios que lograron crear un kernel completo y funcional.

Linux es similar a Unix, pero se desarrolló sin ningún código Unix, a diferencia de BSD y sus variantes. Debido a su modelo de licencia abierta, el código del kernel de Linux está disponible para su estudio y modificación, lo que resultó en su uso en una amplia gama de maquinaria informática, desde supercomputadoras hasta relojes inteligentes. Aunque las estimaciones sugieren que Linux se usa solo en el 1,82% de todas las PC de "escritorio" (o portátiles), se ha adoptado ampliamente para su uso en servidores y sistemas integrados, como teléfonos celulares. Linux ha reemplazado a Unix en muchas plataformas y se usa en la mayoría de las supercomputadoras, incluidas las 385 principales.Muchas de las mismas computadoras también están en Green500 (pero en un orden diferente), y Linux se ejecuta en el top 10. Linux también se usa comúnmente en otras computadoras pequeñas que ahorran energía, como teléfonos inteligentes y relojes inteligentes. El kernel de Linux se usa en algunas distribuciones populares, como Red Hat, Debian, Ubuntu, Linux Mint y Android, Chrome OS y Chromium OS de Google.

Microsoft Windows

Microsoft Windows es una familia de sistemas operativos patentados diseñados por Microsoft Corporation y dirigidos principalmente a computadoras basadas en la arquitectura Intel, con una participación de uso total estimada del 88,9 por ciento en computadoras conectadas a la Web. La última versión es Windows 11.

En 2011, Windows 7 superó a Windows XP como la versión más común en uso.

Microsoft Windows se lanzó por primera vez en 1985, como un entorno operativo que se ejecutaba sobre MS-DOS, que era el sistema operativo estándar que se incluía en la mayoría de las computadoras personales con arquitectura Intel en ese momento. En 1995, se lanzó Windows 95, que solo usaba MS-DOS como arranque. Para compatibilidad con versiones anteriores, Win9x podría ejecutar MS-DOS en modo real y controladores de Windows 3.x de 16 bits. Windows ME, lanzado en 2000, fue la última versión de la familia Win9x. Todas las versiones posteriores se han basado en el kernel de Windows NT. Las versiones de cliente actuales de Windows se ejecutan en microprocesadores IA-32, x86-64 y ARM. Además, Itanium todavía es compatible con la versión anterior del servidor Windows Server 2008 R2. En el pasado, Windows NT admitía arquitecturas adicionales.

Las ediciones de servidor de Windows son ampliamente utilizadas. En los últimos años, Microsoft ha invertido un capital significativo en un esfuerzo por promover el uso de Windows como sistema operativo de servidor. Sin embargo, el uso de Windows en servidores no está tan extendido como en las computadoras personales, ya que Windows compite con Linux y BSD por la participación en el mercado de servidores.

ReactOS es un sistema operativo alternativo a Windows, que se está desarrollando sobre los principios de Windows, sin usar ningún código de Microsoft.

Otro

Ha habido muchos sistemas operativos que fueron significativos en su día pero ya no lo son, como AmigaOS; OS/2 de IBM y Microsoft; Mac OS clásico, el precursor no Unix del macOS de Apple; BeOS; XTS-300; sistema operativo RISC; Morph OS; haiku; Bare Metal y Free Mint. Algunos todavía se utilizan en nichos de mercado y continúan desarrollándose como plataformas minoritarias para comunidades de entusiastas y aplicaciones especializadas. OpenVMS, anteriormente de DEC, todavía está en desarrollo activo por parte de VMS Software Inc. Sin embargo, otros sistemas operativos se usan casi exclusivamente en el mundo académico, para la educación de sistemas operativos o para investigar sobre conceptos de sistemas operativos. Un ejemplo típico de un sistema que cumple ambas funciones es MINIX, mientras que, por ejemplo, Singularity se usa únicamente para investigación. Otro ejemplo es el Sistema Oberon diseñado en ETH Zürich por Niklaus Wirth, Jürg Gutknecht y un grupo de estudiantes del antiguo Instituto de Sistemas Informáticos en la década de 1980. Se utilizó principalmente para la investigación, la docencia y el trabajo diario en el grupo de Wirth.

Otros sistemas operativos no lograron ganar una participación de mercado significativa, pero introdujeron innovaciones que influyeron en los sistemas operativos principales, entre ellos el Plan 9 de Bell Labs.

Componentes

Todos los componentes de un sistema operativo existen para hacer que las diferentes partes de una computadora funcionen juntas. Todo el software del usuario debe pasar por el sistema operativo para usar cualquier parte del hardware, ya sea tan simple como un mouse o teclado o tan complejo como un componente de Internet.

Núcleo

Con la ayuda del firmware y los controladores de dispositivos, el kernel proporciona el nivel más básico de control sobre todos los dispositivos de hardware de la computadora. Administra el acceso a la memoria para los programas en la RAM, determina qué programas obtienen acceso a qué recursos de hardware, configura o restablece los estados operativos de la CPU para un funcionamiento óptimo en todo momento y organiza los datos para almacenamiento no volátil a largo plazo. con sistemas de archivos en medios tales como discos, cintas, memoria flash, etc.

Ejecución del programa

El sistema operativo proporciona una interfaz entre un programa de aplicación y el hardware de la computadora, de modo que un programa de aplicación puede interactuar con el hardware solo obedeciendo las reglas y procedimientos programados en el sistema operativo. El sistema operativo es también un conjunto de servicios que simplifican el desarrollo y ejecución de programas de aplicación. La ejecución de un programa de aplicación generalmente implica la creación de un proceso por parte del kernel del sistema operativo, que asigna espacio de memoria y otros recursos, establece una prioridad para el proceso en sistemas multitarea, carga el código binario del programa en la memoria e inicia la ejecución de la aplicación. programa, que luego interactúa con el usuario y con los dispositivos de hardware. Sin embargo, en algunos sistemas una aplicación puede solicitar que el sistema operativo ejecute otra aplicación dentro del mismo proceso,LINK y ATTACH recursos de OS/360 y sucesores..

Interrupciones

Las interrupciones son fundamentales para la mayoría de los sistemas operativos, ya que proporcionan una forma eficiente de reaccionar ante el entorno. Las interrupciones hacen que la unidad central de procesamiento (CPU) tenga un cambio de flujo de control que se aleje del proceso que se está ejecutando actualmente. Los detalles de cómo una computadora procesa una interrupción varían de una arquitectura a otra, y los detalles de cómo se comportan las rutinas de servicio de interrupción varían de un sistema operativo a otro. Sin embargo, varias funciones de interrupción son comunes. La arquitectura y el sistema operativo deben:

  1. transferir el control a una rutina de servicio de interrupción.
  2. guardar el estado del proceso actualmente en ejecución.
  3. restaurar el estado después de atender la interrupción.
Interrupción de software

Una interrupción de software (también conocida como señal) es una notificación a un proceso de que se ha producido un evento. Mientras que un proceso de usuario puede enviar señales a otros procesos de usuario e incluso a sí mismo, las señales generalmente se envían desde el kernel.

Las interrupciones de software pueden ser eventos que ocurren normalmente. Se espera que ocurra un intervalo de tiempo, por lo que el sistema operativo tendrá que realizar un cambio de contexto. Un programa de computadora puede configurar un temporizador para que se active después de unos segundos en caso de que demasiados datos hagan que un algoritmo tarde demasiado.

Las interrupciones de software pueden ser condiciones de error, como una instrucción de máquina mal formada. Sin embargo, las condiciones de error más comunes son la división por cero y el acceso a una dirección de memoria no válida.

Los usuarios pueden enviar señales al kernel para modificar el comportamiento de un proceso en ejecución. Por ejemplo, si un servidor web tarda demasiado, hacer clic en el ícono X en un navegador puede indicarle al servidor web que envíe el carácter de interrupción (generalmente Control-C) al proceso en ejecución.

Interrupción de hardware

Los dispositivos de entrada/salida (E/S) son más lentos que la señal de reloj de la CPU. Por lo tanto, ralentizaría la computadora si la CPU tuviera que esperar a que finalice cada E/S. En cambio, una computadora puede implementar interrupciones para la finalización de E/S, evitando la necesidad de sondeo o espera ocupada.

Algunas computadoras requieren una interrupción para cada carácter o palabra, lo que consume una cantidad significativa de tiempo de CPU. El acceso directo a la memoria (DMA) es una característica de la arquitectura que permite que los dispositivos pasen por alto la CPU y accedan a la memoria principal directamente. (Separado de la arquitectura, un dispositivo puede realizar acceso directo a la memoria hacia y desde la memoria principal, ya sea directamente o a través de un bus).

Desde Intel 8008 (1972), algunas CPU han recibido interrupciones de hardware a través de pines de interrupción. Para las computadoras pequeñas, generalmente se instala un controlador de interrupción (APIC) en la placa base, entre los pines de la CPU y las líneas de arbitraje del bus. Si un dispositivo quiere interrumpir la CPU, coloca voltaje (generalmente 5 voltios) en su línea de arbitraje de bus y un número en el bus de datos. El número es un índice de la tabla de vectores de interrupción del sistema operativo.

E/S impulsada por interrupciones

Cuando un usuario de computadora escribe una tecla en el teclado, normalmente el carácter aparece inmediatamente en la pantalla. Del mismo modo, cuando un usuario mueve el mouse, el cursor se mueve inmediatamente por la pantalla. Cada pulsación de tecla y movimiento del mouse genera una interrupción llamada E/S impulsada por interrupción. Una E/S impulsada por interrupciones ocurre cuando un proceso provoca una interrupción por cada carácter o palabra transmitida.

Memoria de acceso directo

Una interrupción de E/S de bloque ocurre cuando un proceso quiere enviar o recibir bloques de datos. Si un dispositivo está configurado para ser un dispositivo de bloque, se generará una interrupción después de cada transferencia de bloque de datos. Para cumplir con este servicio, se instala un chip de acceso directo a la memoria (DMA) en la placa base. El chip permite que los dispositivos pasen por alto la CPU y accedan directamente al bus de memoria. Si un programa de computadora ejecuta una llamada al sistema para realizar una operación de escritura de E/S de bloque, entonces la llamada al sistema podría ejecutar las siguientes instrucciones:

Mientras se lleva a cabo la escritura, el sistema operativo cambiará de contexto a otros procesos con normalidad. Cuando el dispositivo termine de escribir, el dispositivo interrumpirá el proceso que se está ejecutando actualmente mediante la afirmación de una solicitud de interrupción. El dispositivo también colocará un número entero en el bus de datos. Al aceptar la solicitud de interrupción, el sistema operativo:

Cuando el proceso de escritura haya expirado, el sistema operativo:

Con el contador del programa ahora reiniciado, el proceso interrumpido reanudará su intervalo de tiempo.

DMA en el dispositivo

Independientemente de la arquitectura, un dispositivo puede tener un chip DMA instalado para realizar un acceso directo a la memoria. Las acciones de dispositivo/memoria se rigen por el protocolo SCSI RDMA.

Modos

Las computadoras modernas admiten múltiples modos de operación. Las CPU con esta capacidad ofrecen al menos dos modos: modo de usuario y modo de supervisor. En términos generales, la operación en modo supervisor permite el acceso sin restricciones a todos los recursos de la máquina, incluidas todas las instrucciones MPU. La operación en modo de usuario establece límites en el uso de instrucciones y, por lo general, no permite el acceso directo a los recursos de la máquina. Las CPU también pueden tener otros modos similares al modo de usuario, como los modos virtuales para emular tipos de procesadores más antiguos, como procesadores de 16 bits en uno de 32 bits o procesadores de 32 bits en uno de 64 bits.

En el encendido o reinicio, el sistema comienza en modo supervisor. Una vez que se ha cargado e iniciado el kernel de un sistema operativo, se puede establecer el límite entre el modo de usuario y el modo de supervisor (también conocido como modo de kernel).

El kernel utiliza el modo supervisor para tareas de bajo nivel que necesitan acceso sin restricciones al hardware, como controlar cómo se accede a la memoria y comunicarse con dispositivos como unidades de disco y dispositivos de visualización de video. El modo de usuario, por el contrario, se utiliza para casi todo lo demás. Los programas de aplicación, como los procesadores de texto y los administradores de bases de datos, funcionan en modo de usuario y solo pueden acceder a los recursos de la máquina entregando el control al kernel, un proceso que provoca un cambio al modo de supervisor. Por lo general, la transferencia de control al kernel se logra mediante la ejecución de una instrucción de interrupción de software, como la TRAPinstrucción Motorola 68000. La interrupción del software hace que el procesador cambie del modo de usuario al modo de supervisor y comience a ejecutar el código que permite que el kernel tome el control.

En el modo de usuario, los programas generalmente tienen acceso a un conjunto restringido de instrucciones del procesador y, en general, no pueden ejecutar ninguna instrucción que pueda causar una interrupción en el funcionamiento del sistema. En el modo supervisor, las restricciones de ejecución de instrucciones generalmente se eliminan, lo que permite que el kernel acceda sin restricciones a todos los recursos de la máquina.

El término "recurso de modo de usuario" generalmente se refiere a uno o más registros de la CPU, que contienen información que el programa en ejecución no puede alterar. Los intentos de alterar estos recursos generalmente provocan un cambio al modo supervisor, donde el sistema operativo puede manejar la operación ilegal que intentaba el programa; por ejemplo, terminando ("matando") por la fuerza el programa.

Gestión de la memoria

Entre otras cosas, el núcleo de un sistema operativo multiprogramador debe ser responsable de administrar toda la memoria del sistema que los programas están utilizando en ese momento. Esto asegura que un programa no interfiera con la memoria que ya está en uso por otro programa. Dado que los programas comparten el tiempo, cada programa debe tener acceso independiente a la memoria.

La administración de memoria cooperativa, utilizada por muchos de los primeros sistemas operativos, asume que todos los programas hacen uso voluntario del administrador de memoria del kernel y no exceden la memoria asignada. Este sistema de administración de memoria ya casi no se ve, ya que los programas a menudo contienen errores que pueden hacer que excedan la memoria asignada. Si un programa falla, puede hacer que la memoria utilizada por uno o más programas se vea afectada o sobrescrita. Los programas maliciosos o los virus pueden alterar deliberadamente la memoria de otro programa o pueden afectar el funcionamiento del propio sistema operativo. Con la administración de memoria cooperativa, solo se necesita un programa que se comporte mal para bloquear el sistema.

La protección de la memoria permite que el kernel limite el acceso de un proceso a la memoria de la computadora. Existen varios métodos de protección de la memoria, incluida la segmentación y la paginación de la memoria. Todos los métodos requieren algún nivel de soporte de hardware (como la MMU 80286), que no existe en todas las computadoras.

Tanto en la segmentación como en la paginación, ciertos registros de modo protegido especifican a la CPU a qué dirección de memoria debe permitir el acceso de un programa en ejecución. Los intentos de acceder a otras direcciones provocan una interrupción, lo que hace que la CPU vuelva a entrar en el modo de supervisor, poniendo al kernel a cargo. Esto se denomina violación de segmentación o Seg-V para abreviar, y dado que es difícil asignar un resultado significativo a dicha operación y debido a que generalmente es una señal de un programa que se está comportando mal, el núcleo generalmente recurre a terminar el programa infractor. y notifica el error.

Las versiones de Windows 3.1 a ME tenían cierto nivel de protección de la memoria, pero los programas podían eludir fácilmente la necesidad de usarlo. Se produciría un fallo de protección general, indicando que se ha producido una violación de segmentación; sin embargo, el sistema a menudo fallaba de todos modos.

Memoria virtual

El uso de direccionamiento de memoria virtual (como paginación o segmentación) significa que el kernel puede elegir qué memoria puede usar cada programa en un momento dado, lo que permite que el sistema operativo use las mismas ubicaciones de memoria para múltiples tareas.

Si un programa intenta acceder a una memoria que no está en su rango actual de memoria accesible, pero que, sin embargo, se le ha asignado, el kernel se interrumpe de la misma manera que lo haría si el programa excediera su memoria asignada. (Consulte la sección sobre administración de memoria). En UNIX, este tipo de interrupción se conoce como falla de página.

Cuando el kernel detecta una falla en la página, generalmente ajusta el rango de memoria virtual del programa que la activó, otorgándole acceso a la memoria solicitada. Esto le da al kernel poder discrecional sobre dónde se almacena la memoria de una aplicación en particular, o incluso si ya se ha asignado o no.

En los sistemas operativos modernos, la memoria a la que se accede con menos frecuencia se puede almacenar temporalmente en un disco u otro medio para que ese espacio esté disponible para que lo utilicen otros programas. Esto se llama intercambio, ya que varios programas pueden usar un área de memoria, y lo que contiene ese área de memoria se puede intercambiar o intercambiar a pedido.

La "memoria virtual" proporciona al programador o al usuario la percepción de que hay una cantidad mucho mayor de RAM en la computadora de la que realmente hay.

Multitarea

La multitarea se refiere a la ejecución de múltiples programas informáticos independientes en la misma computadora, dando la apariencia de que está realizando las tareas al mismo tiempo. Dado que la mayoría de las computadoras pueden hacer como máximo una o dos cosas a la vez, esto generalmente se hace a través del tiempo compartido, lo que significa que cada programa usa una parte del tiempo de la computadora para ejecutarse.

El kernel de un sistema operativo contiene un programa de programación que determina cuánto tiempo pasa ejecutándose cada proceso y en qué orden se debe pasar el control de ejecución a los programas. El kernel pasa el control a un proceso, lo que permite que el programa acceda a la CPU y la memoria. Más tarde, el control se devuelve al kernel a través de algún mecanismo, de modo que se le permita a otro programa usar la CPU. Este llamado paso de control entre el núcleo y las aplicaciones se denomina cambio de contexto.

Un modelo temprano que regía la asignación de tiempo a los programas se denominó multitarea cooperativa. En este modelo, cuando el kernel pasa el control a un programa, puede ejecutarse todo el tiempo que quiera antes de devolver explícitamente el control al kernel. Esto significa que un programa malicioso o que funciona mal no solo puede evitar que otros programas usen la CPU, sino que puede bloquear todo el sistema si entra en un bucle infinito.

Los sistemas operativos modernos amplían los conceptos de preferencia de aplicaciones a los controladores de dispositivos y al código del kernel, de modo que el sistema operativo también tiene un control preventivo sobre los tiempos de ejecución internos.

La filosofía que rige la multitarea preventiva es la de garantizar que todos los programas tengan un tiempo regular en la CPU. Esto implica que todos los programas deben estar limitados en cuánto tiempo pueden pasar en la CPU sin ser interrumpidos. Para lograr esto, los núcleos de los sistemas operativos modernos utilizan una interrupción temporizada. El kernel establece un temporizador de modo protegido que desencadena un regreso al modo de supervisor después de que haya transcurrido el tiempo especificado. (Consulte las secciones anteriores sobre interrupciones y funcionamiento en modo dual).

En muchos sistemas operativos de un solo usuario, la multitarea cooperativa es perfectamente adecuada, ya que las computadoras domésticas generalmente ejecutan una pequeña cantidad de programas bien probados. AmigaOS es una excepción, ya que tiene multitarea preventiva desde su primera versión. Windows NT fue la primera versión de Microsoft Windows que impuso la multitarea preventiva, pero no llegó al mercado de usuarios domésticos hasta Windows XP (ya que Windows NT estaba dirigido a profesionales).

Acceso a disco y sistemas de archivos

El acceso a los datos almacenados en discos es una característica central de todos los sistemas operativos. Las computadoras almacenan datos en discos usando archivos, que están estructurados de maneras específicas para permitir un acceso más rápido, una mayor confiabilidad y hacer un mejor uso del espacio disponible en la unidad. La forma específica en que los archivos se almacenan en un disco se denomina sistema de archivos y permite que los archivos tengan nombres y atributos. También permite que se almacenen en una jerarquía de directorios o carpetas dispuestas en un árbol de directorios.

Los primeros sistemas operativos generalmente admitían un solo tipo de unidad de disco y solo un tipo de sistema de archivos. Los primeros sistemas de archivos estaban limitados en su capacidad, velocidad y en los tipos de nombres de archivos y estructuras de directorios que podían usar. Estas limitaciones a menudo reflejaban limitaciones en los sistemas operativos para los que fueron diseñados, lo que dificulta que un sistema operativo admita más de un sistema de archivos.

Si bien muchos sistemas operativos más simples admiten una gama limitada de opciones para acceder a los sistemas de almacenamiento, los sistemas operativos como UNIX y Linux admiten una tecnología conocida como sistema de archivos virtual o VFS. Un sistema operativo como UNIX admite una amplia gama de dispositivos de almacenamiento, independientemente de su diseño o sistemas de archivos, lo que permite acceder a ellos a través de una interfaz de programación de aplicaciones (API) común. Esto hace innecesario que los programas tengan conocimiento sobre el dispositivo al que acceden. Un VFS permite que el sistema operativo proporcione a los programas acceso a un número ilimitado de dispositivos con una variedad infinita de sistemas de archivos instalados en ellos, mediante el uso de controladores de dispositivos y controladores de sistemas de archivos específicos.

Se accede a un dispositivo de almacenamiento conectado, como un disco duro, a través de un controlador de dispositivo. El controlador del dispositivo comprende el idioma específico de la unidad y puede traducir ese idioma a un idioma estándar utilizado por el sistema operativo para acceder a todas las unidades de disco. En UNIX, este es el lenguaje de los dispositivos de bloque.

Cuando el kernel tiene instalado un controlador de dispositivo adecuado, puede acceder al contenido de la unidad de disco en formato sin formato, que puede contener uno o más sistemas de archivos. Se usa un controlador de sistema de archivos para traducir los comandos usados ​​para acceder a cada sistema de archivos específico en un conjunto estándar de comandos que el sistema operativo puede usar para comunicarse con todos los sistemas de archivos. Luego, los programas pueden manejar estos sistemas de archivos sobre la base de nombres de archivo y directorios/carpetas, contenidos dentro de una estructura jerárquica. Pueden crear, eliminar, abrir y cerrar archivos, así como recopilar información diversa sobre ellos, incluidos los permisos de acceso, el tamaño, el espacio libre y las fechas de creación y modificación.

Varias diferencias entre los sistemas de archivos dificultan la compatibilidad con todos los sistemas de archivos. Los caracteres permitidos en los nombres de archivo, la distinción entre mayúsculas y minúsculas y la presencia de varios tipos de atributos de archivo hacen que la implementación de una única interfaz para cada sistema de archivos sea una tarea abrumadora. Los sistemas operativos tienden a recomendar el uso (y, por lo tanto, admiten de forma nativa) sistemas de archivos diseñados específicamente para ellos; por ejemplo, NTFS en Windows y ReiserFS, Reiser4, ext3, ext4 y Btrfs en Linux. Sin embargo, en la práctica, los controladores de terceros suelen estar disponibles para dar soporte a los sistemas de archivos más utilizados en la mayoría de los sistemas operativos de propósito general (por ejemplo, NTFS está disponible en Linux a través de NTFS-3g, y ext2/3 y ReiserFS están disponibles en Windows a través de software de terceros).

El soporte para sistemas de archivos es muy variado entre los sistemas operativos modernos, aunque hay varios sistemas de archivos comunes para los que casi todos los sistemas operativos incluyen soporte y controladores. Los sistemas operativos varían según la compatibilidad del sistema de archivos y los formatos de disco en los que se pueden instalar. En Windows, la aplicación de cada sistema de archivos suele estar limitada a determinados medios; por ejemplo, los CD deben usar ISO 9660 o UDF y, a partir de Windows Vista, NTFS es el único sistema de archivos en el que se puede instalar el sistema operativo. Es posible instalar Linux en muchos tipos de sistemas de archivos. A diferencia de otros sistemas operativos, Linux y UNIX permiten utilizar cualquier sistema de archivos independientemente del soporte en el que se encuentre, ya sea un disco duro, un disco (CD, DVD...), una unidad flash USB o incluso contenido. dentro de un archivo ubicado en otro sistema de archivos.

Controladores de dispositivo

Un controlador de dispositivo es un tipo específico de software informático desarrollado para permitir la interacción con dispositivos de hardware. Por lo general, esto constituye una interfaz para comunicarse con el dispositivo, a través del bus de computadora específico o el subsistema de comunicaciones al que está conectado el hardware, proporcionando comandos y/o recibiendo datos del dispositivo, y en el otro extremo, las interfaces necesarias para el sistema operativo. sistemas y aplicaciones de software. Es un programa informático especializado dependiente del hardware que también es específico del sistema operativo y que permite que otro programa, normalmente un sistema operativo o un paquete de software de aplicaciones o un programa informático que se ejecuta bajo el kernel del sistema operativo, interactúe de forma transparente con un dispositivo de hardware.

El objetivo clave del diseño de los controladores de dispositivos es la abstracción. Cada modelo de hardware (incluso dentro de la misma clase de dispositivo) es diferente. Los fabricantes también lanzan modelos más nuevos que brindan un rendimiento más confiable o mejor y estos modelos más nuevos a menudo se controlan de manera diferente. No se puede esperar que las computadoras y sus sistemas operativos sepan cómo controlar cada dispositivo, tanto ahora como en el futuro. Para resolver este problema, los sistemas operativos esencialmente dictan cómo se debe controlar cada tipo de dispositivo. La función del controlador del dispositivo es entonces traducir estas llamadas de funciones obligatorias del sistema operativo en llamadas específicas del dispositivo. En teoría, un nuevo dispositivo, que se controla de una manera nueva, debería funcionar correctamente si se dispone de un controlador adecuado.

En las versiones de Windows anteriores a Vista y las versiones de Linux anteriores a la 2.6, toda la ejecución del controlador era cooperativa, lo que significa que si un controlador entraba en un ciclo infinito, congelaría el sistema. Las revisiones más recientes de estos sistemas operativos incorporan la preferencia del kernel, donde el kernel interrumpe al controlador para asignarle tareas y luego se separa del proceso hasta que recibe una respuesta del controlador del dispositivo o le asigna más tareas.

Redes

Actualmente, la mayoría de los sistemas operativos admiten una variedad de protocolos de red, hardware y aplicaciones para usarlos. Esto significa que las computadoras que ejecutan sistemas operativos diferentes pueden participar en una red común para compartir recursos tales como computadoras, archivos, impresoras y escáneres mediante conexiones por cable o inalámbricas. Las redes esencialmente pueden permitir que el sistema operativo de una computadora acceda a los recursos de una computadora remota para admitir las mismas funciones que si esos recursos estuvieran conectados directamente a la computadora local. Esto incluye todo, desde la simple comunicación hasta el uso de sistemas de archivos en red o incluso compartir el hardware de gráficos o sonido de otra computadora. Algunos servicios de red permiten acceder de forma transparente a los recursos de un ordenador,

La red cliente/servidor permite que un programa en una computadora, llamado cliente, se conecte a través de una red a otra computadora, llamada servidor. Los servidores ofrecen (o alojan) varios servicios a otras computadoras y usuarios de la red. Estos servicios generalmente se brindan a través de puertos o puntos de acceso numerados más allá de la dirección IP del servidor. Cada número de puerto generalmente está asociado con un máximo de un programa en ejecución, que es responsable de manejar las solicitudes a ese puerto. Un daemon, al ser un programa de usuario, puede a su vez acceder a los recursos de hardware locales de esa computadora pasando solicitudes al kernel del sistema operativo.

Muchos sistemas operativos también admiten uno o más protocolos de red abiertos o específicos del proveedor, por ejemplo, SNA en sistemas IBM, DECnet en sistemas de Digital Equipment Corporation y protocolos específicos de Microsoft (SMB) en Windows. También se pueden admitir protocolos específicos para tareas específicas, como NFS para el acceso a archivos. Los protocolos como ESound o esd se pueden extender fácilmente a través de la red para proporcionar sonido desde aplicaciones locales, en el hardware de sonido de un sistema remoto.

Seguridad

La seguridad de una computadora depende de que una serie de tecnologías funcionen correctamente. Un sistema operativo moderno brinda acceso a una cantidad de recursos, que están disponibles para el software que se ejecuta en el sistema y para dispositivos externos como redes a través del kernel.

El sistema operativo debe ser capaz de distinguir entre las solicitudes que deben permitirse procesar y otras que no deben procesarse. Si bien algunos sistemas pueden simplemente distinguir entre "privilegiados" y "no privilegiados", los sistemas suelen tener una forma de identidad del solicitante, como un nombre de usuario. Para establecer la identidad puede haber un proceso de autenticación. A menudo, se debe citar un nombre de usuario y cada nombre de usuario puede tener una contraseña. En su lugar, se pueden utilizar otros métodos de autenticación, como tarjetas magnéticas o datos biométricos. En algunos casos, especialmente en las conexiones desde la red, se puede acceder a los recursos sin ninguna autenticación (como leer archivos a través de un recurso compartido de red). También está cubierto por el concepto de identidad del solicitanteautorización; los servicios y recursos particulares a los que puede acceder el solicitante una vez que ha iniciado sesión en un sistema están vinculados a la cuenta de usuario del solicitante oa los grupos de usuarios configurados de diversas formas a los que pertenece el solicitante.

Además del modelo de seguridad permitido o no permitido, un sistema con un alto nivel de seguridad también ofrece opciones de auditoría. Estos permitirían el seguimiento de las solicitudes de acceso a los recursos (como "¿quién ha estado leyendo este archivo?"). La seguridad interna, o la seguridad de un programa que ya se está ejecutando, solo es posible si todas las solicitudes potencialmente dañinas se deben realizar a través de interrupciones en el kernel del sistema operativo. Si los programas pueden acceder directamente al hardware y los recursos, no se pueden proteger.

La seguridad externa implica una solicitud desde fuera de la computadora, como un inicio de sesión en una consola conectada o algún tipo de conexión de red. Las solicitudes externas a menudo pasan a través de controladores de dispositivos al kernel del sistema operativo, donde pueden pasarse a las aplicaciones o llevarse a cabo directamente. La seguridad de los sistemas operativos ha sido durante mucho tiempo una preocupación debido a los datos altamente confidenciales que se guardan en las computadoras, tanto de naturaleza comercial como militar. El Departamento de Defensa del Gobierno de los Estados Unidos (DoD) creó los Criterios de Evaluación del Sistema Informático de Confianza(TCSEC), que es un estándar que establece los requisitos básicos para evaluar la eficacia de la seguridad. Esto se volvió de vital importancia para los fabricantes de sistemas operativos, porque el TCSEC se utilizó para evaluar, clasificar y seleccionar sistemas operativos confiables que se consideraron para el procesamiento, almacenamiento y recuperación de información confidencial o clasificada.

Los servicios de red incluyen ofertas como uso compartido de archivos, servicios de impresión, correo electrónico, sitios web y protocolos de transferencia de archivos (FTP), la mayoría de los cuales pueden comprometer la seguridad. En la primera línea de la seguridad se encuentran los dispositivos de hardware conocidos como cortafuegos o sistemas de detección/prevención de intrusos. A nivel de sistema operativo, hay una serie de cortafuegos de software disponibles, así como sistemas de detección/prevención de intrusos. La mayoría de los sistemas operativos modernos incluyen un firewall de software, que está habilitado de forma predeterminada. Se puede configurar un firewall de software para permitir o denegar el tráfico de red hacia o desde un servicio o aplicación que se ejecuta en el sistema operativo. Por lo tanto, uno puede instalar y ejecutar un servicio inseguro, como Telnet o FTP,

Una estrategia alternativa, y la única estrategia de sandbox disponible en sistemas que no cumplen con los requisitos de virtualización de Popek y Goldberg, es donde el sistema operativo no ejecuta programas de usuario como código nativo, sino que emula un procesador o proporciona un host para un p -Sistema basado en código como Java.

La seguridad interna es especialmente relevante para los sistemas multiusuario; permite que cada usuario del sistema tenga archivos privados que los demás usuarios no pueden manipular ni leer. La seguridad interna también es vital para que la auditoría sea útil, ya que un programa puede eludir el sistema operativo, incluso eludir la auditoría.

Interfaz de usuario

Cada computadora que debe ser operada por un individuo requiere una interfaz de usuario. La interfaz de usuario generalmente se conoce como shell y es esencial si se va a soportar la interacción humana. La interfaz de usuario ve la estructura del directorio y solicita servicios del sistema operativo que adquirirán datos de los dispositivos de hardware de entrada, como un teclado, un mouse o un lector de tarjetas de crédito, y solicita servicios del sistema operativo para mostrar avisos, mensajes de estado y otros en el hardware de salida. dispositivos, como un monitor de video o una impresora. Históricamente, las dos formas más comunes de una interfaz de usuario han sido la interfaz de línea de comandos, donde los comandos de la computadora se escriben línea por línea, y la interfaz gráfica de usuario, donde está presente un entorno visual (más comúnmente un WIMP).

Interfaces gráficas de usuario

La mayoría de los sistemas informáticos modernos admiten interfaces gráficas de usuario (GUI) y, a menudo, las incluyen. En algunos sistemas informáticos, como la implementación original del sistema operativo Mac clásico, la GUI está integrada en el kernel.

Si bien técnicamente una interfaz gráfica de usuario no es un servicio del sistema operativo, la incorporación de soporte para uno en el kernel del sistema operativo puede permitir que la GUI responda mejor al reducir la cantidad de cambios de contexto necesarios para que la GUI realice sus funciones de salida. Otros sistemas operativos son modulares, separando el subsistema de gráficos del núcleo y el sistema operativo. En la década de 1980, UNIX, VMS y muchos otros tenían sistemas operativos construidos de esta manera. Linux y macOS también se construyen de esta manera. Las versiones modernas de Microsoft Windows, como Windows Vista, implementan un subsistema de gráficos que se encuentra principalmente en el espacio del usuario; sin embargo, las rutinas de dibujo de gráficos de las versiones entre Windows NT 4.0 y Windows Server 2003 existen principalmente en el espacio del kernel. Windows 9x tenía muy poca distinción entre la interfaz y el núcleo.

Muchos sistemas operativos de computadora permiten que el usuario instale o cree cualquier interfaz de usuario que desee. El sistema X Window junto con GNOME o KDE Plasma 5 es una configuración que se encuentra comúnmente en la mayoría de los sistemas Unix y similares a Unix (BSD, Linux, Solaris). Se han lanzado varios reemplazos de shell de Windows para Microsoft Windows, que ofrecen alternativas al shell de Windows incluido, pero el shell en sí no se puede separar de Windows.

Numerosas GUI basadas en Unix han existido a lo largo del tiempo, la mayoría derivadas de X11. La competencia entre los diversos proveedores de Unix (HP, IBM, Sun) condujo a una gran fragmentación, aunque un esfuerzo por estandarizar en la década de 1990 a COSE y CDE fracasó por varias razones y finalmente fue eclipsado por la adopción generalizada de GNOME y K Desktop Environment.. Antes de los kits de herramientas y entornos de escritorio basados ​​en software libre, Motif era la combinación predominante de kit de herramientas/escritorio (y fue la base sobre la cual se desarrolló CDE).

Las interfaces gráficas de usuario evolucionan con el tiempo. Por ejemplo, Windows ha modificado su interfaz de usuario casi cada vez que se lanza una nueva versión principal de Windows, y la GUI de Mac OS cambió drásticamente con la introducción de Mac OS X en 1999.

Sistemas operativos en tiempo real

Un sistema operativo en tiempo real (RTOS) es un sistema operativo destinado a aplicaciones con plazos fijos (computación en tiempo real). Tales aplicaciones incluyen algunos pequeños sistemas integrados, controladores de motores de automóviles, robots industriales, naves espaciales, control industrial y algunos sistemas informáticos a gran escala.

Un ejemplo temprano de un sistema operativo en tiempo real a gran escala fue Transaction Processing Facility desarrollado por American Airlines e IBM para Sabre Airline Reservations System.

Los sistemas integrados que tienen plazos fijos utilizan un sistema operativo en tiempo real como VxWorks, PikeOS, eCos, QNX, MontaVista Linux y RTLinux. Windows CE es un sistema operativo en tiempo real que comparte API similares a las de Windows de escritorio, pero no comparte la base de código de Windows de escritorio. Symbian OS también tiene un kernel RTOS (EKA2) a partir de la versión 8.0b.

Algunos sistemas integrados utilizan sistemas operativos como Palm OS, BSD y Linux, aunque dichos sistemas operativos no admiten computación en tiempo real.

Desarrollo de sistemas operativos como hobby

Un sistema operativo de pasatiempo puede clasificarse como aquel cuyo código no se ha derivado directamente de un sistema operativo existente y tiene pocos usuarios y desarrolladores activos.

En algunos casos, el desarrollo de pasatiempos es compatible con un dispositivo informático "casero", por ejemplo, una computadora simple de placa única alimentada por un microprocesador 6502. O bien, el desarrollo puede ser para una arquitectura que ya está en uso generalizado. El desarrollo del sistema operativo puede provenir de conceptos completamente nuevos o puede comenzar modelando un sistema operativo existente. En cualquier caso, el aficionado es su propio desarrollador o puede interactuar con un grupo pequeño y, a veces, no estructurado de personas que tienen intereses similares.

Los ejemplos de un sistema operativo de pasatiempo incluyen Syllable y TempleOS.

Diversidad de sistemas operativos y portabilidad

El software de aplicación generalmente se escribe para su uso en un sistema operativo específico y, a veces, incluso para hardware específico. Al migrar la aplicación para que se ejecute en otro sistema operativo, la funcionalidad requerida por esa aplicación puede implementarse de manera diferente por ese sistema operativo (los nombres de las funciones, el significado de los argumentos, etc.), lo que requiere que la aplicación se adapte, cambie o mantenga de otra manera.

Unix fue el primer sistema operativo no escrito en lenguaje ensamblador, lo que lo hace muy portátil a sistemas diferentes a su nativo PDP-11.

Este costo de admitir la diversidad de sistemas operativos se puede evitar escribiendo aplicaciones en plataformas de software como Java o Qt. Estas abstracciones ya han soportado el costo de la adaptación a sistemas operativos específicos y sus bibliotecas de sistema.

Otro enfoque es que los proveedores de sistemas operativos adopten estándares. Por ejemplo, las capas de abstracción POSIX y OS brindan puntos en común que reducen los costos de portabilidad.