Historia de Internet

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La historia de Internet tiene su origen en la teoría de la información y los esfuerzos para construir e interconectar redes informáticas que surgieron de la investigación y el desarrollo en los Estados Unidos e involucraron la colaboración internacional, particularmente con investigadores del Reino Unido y Francia.

El trabajo teórico fundamental sobre la teoría de la información fue desarrollado por Harry Nyquist y Ralph Hartley en la década de 1920. La teoría de la información, tal como la enunció Claude Shannon en la década de 1940, brindó una sólida base teórica para comprender las compensaciones entre la relación señal-ruido, el ancho de banda y la transmisión sin errores en presencia de ruido en la tecnología de las telecomunicaciones. Este fue uno de los tres desarrollos clave, junto con los avances en tecnología de transistores (específicamente transistores MOS) y tecnología láser, que hicieron posible el rápido crecimiento del ancho de banda de las telecomunicaciones durante el próximo medio siglo.

La informática fue una disciplina emergente a fines de la década de 1950 que comenzó a considerar el tiempo compartido entre usuarios de computadoras y, más tarde, la posibilidad de lograrlo a través de redes de área amplia. Independientemente, Paul Baran propuso una red distribuida basada en datos en bloques de mensajes a principios de la década de 1960, y Donald Davies concibió la conmutación de paquetes en 1965 en el Laboratorio Nacional de Física (NPL), proponiendo una red de datos comercial nacional en el Reino Unido.

La Agencia de Proyectos de Investigación Avanzada (ARPA) del Departamento de Defensa de los Estados Unidos adjudicó contratos en 1969 para el desarrollo del proyecto ARPANET, dirigido por Robert Taylor y gestionado por Lawrence Roberts. ARPANET adoptó la tecnología de conmutación de paquetes propuesta por Davies y Baran, respaldada por el trabajo matemático realizado a principios de la década de 1970 por Leonard Kleinrock en UCLA. La red fue construida por Bolt, Beranek y Newman.

En la década de 1970 surgieron varias de las primeras redes de conmutación de paquetes que investigaban y proporcionaban redes de datos. Los proyectos ARPA y los grupos de trabajo internacionales condujeron al desarrollo de protocolos para interconexión de redes, en los que varias redes separadas se podían unir en una red de redes, lo que produjo varios estándares. Bob Kahn, de ARPA, y Vint Cerf, de la Universidad de Stanford, publicaron una investigación en 1974 que evolucionó hacia el Protocolo de control de transmisión (TCP) y el Protocolo de Internet (IP), los dos protocolos del conjunto de protocolos de Internet. El diseño incluyó conceptos del proyecto francés CYCLADES dirigido por Louis Pouzin.

A principios de la década de 1980, la National Science Foundation (NSF) financió centros nacionales de supercomputación en varias universidades de los Estados Unidos y proporcionó interconectividad en 1986 con el proyecto NSFNET, creando así acceso en red a estos sitios de supercomputadoras para organizaciones académicas y de investigación en los Estados Unidos. estados Las conexiones internacionales a NSFNET, el surgimiento de una arquitectura como el Sistema de Nombres de Dominio y la adopción de TCP/IP a nivel internacional en las redes existentes marcaron los comienzos de Internet. Los proveedores comerciales de servicios de Internet (ISP) surgieron en 1989 en los Estados Unidos y Australia. El ARPANET fue dado de baja en 1990.A fines de 1989 y 1990 surgieron conexiones privadas limitadas a partes de Internet por parte de entidades comerciales oficiales en varias ciudades estadounidenses. el tráfico pasó a redes ópticas administradas por Sprint, MCI y AT&T.

La investigación en el CERN en Suiza realizada por el científico informático británico Tim Berners-Lee en 1989-1990 dio como resultado la World Wide Web, que vincula documentos de hipertexto en un sistema de información, accesible desde cualquier nodo de la red.La espectacular expansión de la capacidad de Internet con la llegada de la multiplexación por división de ondas (WDM) y el despliegue de los cables de fibra óptica a mediados de la década de 1990 tuvo un impacto revolucionario en la cultura, el comercio y la tecnología. Esto hizo posible el surgimiento de la comunicación casi instantánea por correo electrónico, mensajería instantánea, llamadas telefónicas de voz sobre Protocolo de Internet (VoIP), chat de video y la World Wide Web con sus foros de discusión, blogs, servicios de redes sociales y sitios de compras en línea.. Cantidades cada vez mayores de datos se transmiten a velocidades cada vez más altas a través de redes de fibra óptica que operan a 1 Gbit/s, 10 Gbit/s y 800 Gbit/s para 2019.La toma de posesión de Internet del panorama global de la comunicación fue rápida en términos históricos: solo comunicó el 1 % de la información que fluía a través de redes de telecomunicaciones bidireccionales en el año 1993, el 51 % en 2000 y más del 97 % de la información telecomunicada en 2007 Internet continúa creciendo, impulsada por una cantidad cada vez mayor de servicios de información, comercio, entretenimiento y redes sociales en línea. Sin embargo, el futuro de la red global puede estar determinado por las diferencias regionales.

Cimientos

Precursores

Comunicación de datos

El concepto de comunicación de datos, la transmisión de datos entre dos lugares diferentes a través de un medio electromagnético, como una radio o un cable eléctrico, es anterior a la introducción de las primeras computadoras. Dichos sistemas de comunicación se limitaban típicamente a la comunicación punto a punto entre dos dispositivos finales. Las líneas de semáforos, los sistemas de telégrafo y las máquinas de télex pueden considerarse precursores tempranos de este tipo de comunicación. El telégrafo a finales del siglo XIX fue el primer sistema de comunicación totalmente digital.

Teoría de la información

El trabajo teórico fundamental sobre la teoría de la información fue desarrollado por Harry Nyquist y Ralph Hartley en la década de 1920. La teoría de la información, tal como la enunció Claude Shannon en 1948, proporcionó una base teórica firme para comprender las compensaciones entre la relación señal-ruido, el ancho de banda y la transmisión sin errores en presencia de ruido en la tecnología de las telecomunicaciones. Este fue uno de los tres desarrollos clave, junto con los avances en tecnología de transistores (específicamente transistores MOS) y tecnología láser, que hicieron posible el rápido crecimiento del ancho de banda de las telecomunicaciones durante el próximo medio siglo.

Ordenadores

Las primeras computadoras de la década de 1940 tenían una unidad central de procesamiento y terminales de usuario. A medida que la tecnología evolucionó en la década de 1950, se idearon nuevos sistemas para permitir la comunicación a distancias más largas (para terminales) o con mayor velocidad (para la interconexión de dispositivos locales) que eran necesarios para el modelo de computadora central. Estas tecnologías hicieron posible el intercambio de datos (como archivos) entre computadoras remotas. Sin embargo, el modelo de comunicación punto a punto era limitado, ya que no permitía la comunicación directa entre dos sistemas arbitrarios; era necesario un enlace físico. La tecnología también se consideró vulnerable para uso estratégico y militar porque no había caminos alternativos para la comunicación en caso de un enlace roto.

Inspiración para la creación de redes y la interacción con las computadoras

Las primeras computadoras estaban conectadas directamente a terminales utilizados por un usuario individual. Christopher Strachey, quien se convirtió en el primer profesor de computación de la Universidad de Oxford, presentó una solicitud de patente para el tiempo compartido en febrero de 1959. En junio de ese año, presentó una ponencia "Tiempo compartido en grandes computadoras rápidas" en la Conferencia de procesamiento de información de la UNESCO en París, donde pasó el concepto a JCR Licklider. Licklider, vicepresidente de Bolt Beranek and Newman, Inc., propuso una red de computadoras en su artículo de enero de 1960 Simbiosis hombre-computadora:

Una red de tales centros, conectados entre sí por líneas de comunicación de banda ancha [...] las funciones de las bibliotecas actuales junto con los avances anticipados en el almacenamiento y recuperación de información y las funciones simbióticas sugeridas anteriormente en este documento

En agosto de 1962, Licklider y Welden Clark publicaron el artículo "On-Line Man-Computer Communication", que fue una de las primeras descripciones de un futuro en red.

En octubre de 1962, Jack Ruina contrató a Licklider como director de la Oficina de Técnicas de Procesamiento de la Información (IPTO) recién establecida dentro de DARPA, con el mandato de interconectar las computadoras principales del Departamento de Defensa de los Estados Unidos en Cheyenne Mountain, el Pentágono y SAC HQ. Allí formó un grupo informal dentro de DARPA para promover la investigación informática. Comenzó escribiendo memorandos en 1963 describiendo una red distribuida para el personal de IPTO, a quienes llamó "Miembros y Afiliados de la Red Informática Intergaláctica".

Aunque dejó IPTO en 1964, cinco años antes de que ARPANET se pusiera en marcha, fue su visión de una red universal lo que impulsó a uno de sus sucesores, Robert Taylor, a iniciar el desarrollo de ARPANET. Más tarde, Licklider volvió a liderar la IPTO en 1973 durante dos años.

Conmutación de paquetes

El problema de conectar redes físicas separadas para formar una red lógica fue el primero de muchos problemas. Las primeras redes usaban sistemas de conmutación de mensajes que requerían estructuras de enrutamiento rígidas propensas a un punto único de falla. En la década de 1960, Paul Baran, de RAND Corporation, elaboró ​​un estudio de redes de supervivencia para el ejército estadounidense en caso de guerra nuclear. La información transmitida a través de la red de Baran se dividiría en lo que él llamó "bloques de mensajes". Independientemente, Donald Davies (Laboratorio Nacional de Física, Reino Unido), propuso y puso en práctica una red de área local basada en lo que denominó conmutación de paquetes, término que finalmente se adoptaría.

La conmutación de paquetes es un diseño de red de almacenamiento y reenvío rápido que divide los mensajes en paquetes arbitrarios, y las decisiones de enrutamiento se toman por paquete. Proporciona una mejor utilización del ancho de banda y tiempos de respuesta que la tecnología tradicional de conmutación de circuitos utilizada para telefonía, particularmente en enlaces de interconexión con recursos limitados.

Redes que dieron lugar a Internet

Red de morosidad

Tras conversaciones con JCR Licklider en 1965, Donald Davies se interesó en las comunicaciones de datos para redes informáticas. Más tarde ese año, en el Laboratorio Nacional de Física del Reino Unido, Davies diseñó y propuso una red de datos comercial nacional basada en la conmutación de paquetes. Al año siguiente, describió el uso de una "computadora de interfaz" para actuar como un enrutador. La propuesta no fue aceptada a nivel nacional, pero produjo un diseño para una red local para satisfacer las necesidades de NPL y demostrar la viabilidad de la conmutación de paquetes utilizando transmisión de datos de alta velocidad.Para lidiar con las permutaciones de paquetes (debido a las preferencias de ruta actualizadas dinámicamente) y las pérdidas de datagramas (inevitables cuando las fuentes rápidas envían a destinos lentos), asumió que "todos los usuarios de la red se dotarán de algún tipo de control de errores", por lo tanto inventando lo que llegó a conocerse como el principio de extremo a extremo. Él y su equipo fueron de los primeros en utilizar el término "protocolo" en un contexto de conmutación de datos en 1967. El desarrollo de la red se describió en una conferencia de 1968.

En 1968, Davies había comenzado a construir la red de conmutación de paquetes Mark I para satisfacer las necesidades del laboratorio multidisciplinario y probar la tecnología en condiciones operativas. La red local NPL y ARPANET fueron las dos primeras redes del mundo en utilizar la conmutación de paquetes, y la red NPL fue la primera en utilizar enlaces de alta velocidad. Muchas otras redes de conmutación de paquetes construidas en la década de 1970 eran similares "en casi todos los aspectos" al diseño original de 1965 de Davies. El equipo de NPL llevó a cabo trabajos de simulación en redes de paquetes, incluidas redes de datagramas, e investigó sobre redes de trabajo en red y seguridad de redes informáticas. La versión Mark II que funcionó desde 1973 utilizó una arquitectura de protocolo en capas.En 1976, se conectaron 12 computadoras y 75 dispositivos terminales, y se agregaron más hasta que se reemplazó la red en 1986.

ARPANET

Robert Taylor fue ascendido a jefe de la Oficina de Técnicas de Procesamiento de la Información (IPTO) en la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) en 1966. Tenía la intención de realizar las ideas de Licklider de un sistema de red interconectado. Como parte de la función de IPTO, se instalaron tres terminales de red: uno para System Development Corporation en Santa Mónica, uno para Project Genie en University of California, Berkeley, y uno para el proyecto Compatible Time-Sharing System en Massachusetts Institute of Technology (MIT). La necesidad de redes identificada por Taylor se hizo evidente a partir del desperdicio de recursos aparente para él.

Para cada uno de estos tres terminales, tenía tres conjuntos diferentes de comandos de usuario. Entonces, si estaba hablando en línea con alguien en SDC y quería hablar con alguien que conocía en Berkeley o MIT sobre esto, tenía que levantarme de la terminal SDC, ir e iniciar sesión en la otra terminal y ponerme en contacto con ellos.... Dije, oh hombre, es obvio qué hacer: si tienes estas tres terminales, debe haber una terminal que vaya a donde quieras ir donde tengas computación interactiva. Esa idea es ARPAnet.

Trayendo a Larry Roberts del MIT en enero de 1967, inició un proyecto para construir dicha red. Roberts y Thomas Merrill habían estado investigando el tiempo compartido de las computadoras a través de redes de área amplia (WAN). Las redes de área amplia surgieron durante la década de 1950 y se establecieron durante la década de 1960. En el primer Simposio de ACM sobre principios de sistemas operativos en octubre de 1967, Roberts presentó una propuesta para la "red ARPA", basada en la propuesta de Wesley Clark de utilizar procesadores de mensajes de interfaz para crear una red de conmutación de mensajes. En la conferencia, Roger Scantlebury presentó el trabajo de Donald Davies sobre conmutación de paquetes para comunicaciones de datos y mencionó el trabajo de Paul Baran en RAND. Roberts incorporó los conceptos de conmutación de paquetes en el diseño de ARPANET y actualizó la velocidad de comunicaciones propuesta de 2,4 kbps a 50 kbps. Posteriormente, Leonard Kleinrock desarrolló la teoría matemática detrás del rendimiento de esta tecnología basándose en su trabajo anterior sobre la teoría de colas.

ARPA adjudicó el contrato para construir la red a Bolt Beranek & Newman, y se estableció el primer enlace ARPANET entre la Universidad de California, Los Ángeles (UCLA) y el Instituto de Investigación de Stanford a las 22:30 horas del 29 de octubre de 1969.

"Establecimos una conexión telefónica entre nosotros y los muchachos de SRI...", Kleinrock... dijo en una entrevista: "Escribimos la L y preguntamos por teléfono,"¿Ves la L?""Sí, vemos la L", fue la respuesta.Escribimos la O y preguntamos: "¿Ves la O?"."Sí, vemos la O".Luego escribimos la G, y el sistema colapsó...

Sin embargo, había comenzado una revolución"...

Para diciembre de 1969, se conectó una red de cuatro nodos al agregar la Universidad de Utah y la Universidad de California, Santa Bárbara. En el mismo año, Taylor ayudó a financiar ALOHAnet, un sistema diseñado por el profesor Norman Abramson y otros en la Universidad de Hawái en Manoa que transmitía datos por radio entre siete computadoras en cuatro islas de Hawái. El software para establecer enlaces entre sitios de red en ARPANET fue el Programa de control de red (NCP), completado en c. 1970.

El desarrollo de ARPANET se centró en el proceso de Solicitud de Comentarios (RFC), que aún se utiliza hoy en día para proponer y distribuir Protocolos y Sistemas de Internet. RFC 1, titulado "Software host", fue escrito por Steve Crocker de la Universidad de California, Los Ángeles, y publicado el 7 de abril de 1969. Estos primeros años se documentaron en la película Computer Networks: The Heralds of Resource Sharing de 1972.

Las primeras colaboraciones internacionales en ARPANET fueron escasas. En 1973 se realizaron conexiones con Norwegian Seismic Array (NORSAR), a través de un enlace satelital en la estación terrestre Tanum en Suecia, y con el grupo de investigación de Peter Kirstein en el University College London, que proporcionó una puerta de entrada a las redes académicas británicas. Para 1981, la cantidad de hosts había aumentado a 213. ARPANET se convirtió en el núcleo técnico de lo que se convertiría en Internet y en una herramienta principal en el desarrollo de las tecnologías utilizadas.

Red de Mérito

Merit Network se formó en 1966 como la tríada de información de investigación educativa de Michigan para explorar las redes informáticas entre tres de las universidades públicas de Michigan como un medio para ayudar al desarrollo educativo y económico del estado. Con el apoyo inicial del Estado de Michigan y la Fundación Nacional de Ciencias (NSF), la red de conmutación de paquetes se demostró por primera vez en diciembre de 1971 cuando se realizó una conexión interactiva de host a host entre los sistemas informáticos centrales de IBM en la Universidad de Michigan en Ann Arbor and Wayne State University en Detroit.En octubre de 1972, las conexiones al mainframe de CDC en la Universidad Estatal de Michigan en East Lansing completaron la tríada. Durante los siguientes años, además de las conexiones interactivas de host a host, la red se mejoró para admitir conexiones de terminal a host, conexiones por lotes de host a host (envío remoto de trabajos, impresión remota, transferencia de archivos por lotes), transferencia interactiva de archivos, puertas de enlace a Tymnet y redes públicas de datos Telenet, conexiones de host X.25, puertas de enlace a redes de datos X.25, hosts conectados a Ethernet y, finalmente, TCP/IP y universidades públicas adicionales en Michigan se unen a la red. Todo esto sentó las bases para el papel de Merit en el proyecto NSFNET a partir de mediados de la década de 1980.

CICLADAS

La red de conmutación de paquetes CYCLADES fue una red de investigación francesa diseñada y dirigida por Louis Pouzin. Desarrolló la red para explorar alternativas al diseño inicial de ARPANET y para apoyar la investigación de interconexión de redes. Demostrada por primera vez en 1973, fue la primera red en implementar el principio de extremo a extremo concebido por Donald Davies y hacer que los hosts sean responsables de la entrega confiable de datos, en lugar de la red misma, utilizando datagramas poco confiables. Los conceptos implementados en esta red influyeron en la arquitectura TCP/IP.

X.25 y redes públicas de datos

Sobre la base de iniciativas de investigación internacionales, en particular las contribuciones de Rémi Després, el Comité Consultivo Internacional de Telégrafos y Teléfonos (ITU-T) desarrolló estándares de red de conmutación de paquetes en forma de X.25 y estándares relacionados. X.25 se basa en el concepto de circuitos virtuales que emulan las conexiones telefónicas tradicionales. En 1974, X.25 formó la base de la red SERCnet entre sitios académicos y de investigación británicos, que luego se convirtió en JANET. El estándar inicial de la UIT en X.25 se aprobó en marzo de 1976.

La oficina de correos británica, Western Union International y Tymnet colaboraron para crear la primera red internacional de conmutación de paquetes, denominada Servicio internacional de conmutación de paquetes (IPSS), en 1978. Esta red creció desde Europa y EE. UU. para cubrir Canadá, Hong Kong, y Australia en 1981. En la década de 1990 proporcionó una infraestructura de red mundial.

A diferencia de ARPANET, X.25 estaba comúnmente disponible para uso comercial. Telenet ofreció su servicio de correo electrónico Telemail, que también estaba destinado al uso empresarial en lugar del sistema de correo electrónico general de ARPANET.

Las primeras redes públicas de acceso telefónico utilizaban protocolos de terminales TTY asíncronos para llegar a un concentrador operado en la red pública. Algunas redes, como Telenet y CompuServe, usaban X.25 para multiplexar las sesiones de terminal en sus redes troncales conmutadas por paquetes, mientras que otras, como Tymnet, usaban protocolos propietarios. En 1979, CompuServe se convirtió en el primer servicio en ofrecer capacidades de correo electrónico y soporte técnico a los usuarios de computadoras personales. La compañía abrió nuevos caminos nuevamente en 1980 como la primera en ofrecer chat en tiempo real con su CB Simulator. Otras redes importantes de acceso telefónico eran America Online (AOL) y Prodigy, que también proporcionaban funciones de comunicaciones, contenido y entretenimiento.Muchas redes de sistema de tablón de anuncios (BBS) también brindaban acceso en línea, como FidoNet, que era popular entre los usuarios de computadoras aficionados, muchos de ellos piratas informáticos y operadores de radioaficionados.

UUCP y Usenet

En 1979, dos estudiantes de la Universidad de Duke, Tom Truscott y Jim Ellis, originaron la idea de usar scripts de shell Bourne para transferir noticias y mensajes en una conexión UUCP de línea serial con la cercana Universidad de Carolina del Norte en Chapel Hill. Tras el lanzamiento público del software en 1980, la malla de reenvío de hosts UUCP en las noticias de Usenet se expandió rápidamente. UUCPnet, como se llamaría más tarde, también creó puertas de enlace y enlaces entre FidoNet y hosts BBS de acceso telefónico. Las redes UUCP se extendieron rápidamente debido a los menores costos involucrados, la capacidad de usar líneas arrendadas existentes, enlaces X.25 o incluso conexiones ARPANET, y la falta de políticas de uso estrictas en comparación con redes posteriores como CSNET y Bitnet. Todas las conexiones eran locales. Para 1981, el número de hosts UUCP había aumentado a 550, casi duplicándose a 940 en 1984.

Sublink Network, en funcionamiento desde 1987 y fundada oficialmente en Italia en 1989, basó su interconectividad en UUCP para redistribuir mensajes de correo y grupos de noticias a través de sus nodos italianos (alrededor de 100 en ese momento) propiedad tanto de particulares como de pequeñas empresas. Sublink Network representó posiblemente uno de los primeros ejemplos de la tecnología de Internet convirtiéndose en progreso a través de la difusión popular.

1973-1989: fusión de las redes y creación de Internet

TCP/IP

Con tantos métodos de red diferentes, se necesitaba algo para unificarlos. Steve Crocker había formado un "Grupo de trabajo en red" en la Universidad de California, Los Ángeles en 1969. Louis Pouzin inició el proyecto CYCLADES en 1971, basándose en el trabajo de Donald Davies; Pouzin acuñó el término catenet para red concatenada. Un Grupo de Trabajo de Redes Internacionales formado en 1972; los miembros activos incluyeron a Vint Cerf de la Universidad de Stanford, Alex McKenzie de BBN, Donald Davies y Roger Scantlebury de NPL, y Louis Pouzin y Hubert Zimmermann de IRIA.Más tarde ese año, Bob Kahn de DARPA reclutó a Vint Cerf para trabajar con él en el problema. En 1973, estos grupos habían elaborado una reformulación fundamental, en la que las diferencias entre los protocolos de red se ocultaban mediante el uso de un protocolo de trabajo en red común, y en lugar de que la red fuera responsable de la confiabilidad, como en ARPANET, los hosts se convirtieron en responsables.

Kahn y Cerf publicaron sus ideas en mayo de 1974, que incorporaron conceptos implementados por Louis Pouzin y Hubert Zimmermann en la red CYCLADES. La especificación del protocolo resultante, el Programa de control de transmisión, fue publicada como RFC 675 por el Network Working Group en diciembre de 1974. Contiene el primer uso certificado del término internet, como abreviatura de internetwork. Este software tenía un diseño monolítico y utilizaba dos canales de comunicación símplex para cada sesión de usuario.

Con el papel de la red reducido a un núcleo de funcionalidad, se hizo posible intercambiar tráfico con otras redes independientemente de sus características detalladas, resolviendo así los problemas fundamentales de la interconexión de redes. DARPA acordó financiar el desarrollo de prototipos de software. Las pruebas comenzaron en 1975 a través de implementaciones simultáneas en Stanford, BBN y University College London. Después de varios años de trabajo, el Instituto de Investigación de Stanford realizó la primera demostración de una puerta de enlace entre la red Packet Radio (PRNET) en el área de SF Bay y ARPANET. El 22 de noviembre de 1977 se realizó una demostración de tres redes, incluida ARPANET, Packet Radio Van de SRI en Packet Radio Network y Atlantic Packet Satellite Network (SATNET).

El software se rediseñó como una pila de protocolos modulares, utilizando canales dúplex completos; entre 1976 y 1977, Yogen Dalal y Robert Metcalfe, entre otros, propusieron separar las funciones de control de transmisión y enrutamiento de TCP en dos capas discretas, lo que condujo a la división del Programa de control de transmisión en el Protocolo de control de transmisión (TCP) y el protocolo IP (IP) en la versión 3 en 1978. Originalmente denominada IP/TCP, la versión 4 se describió en la publicación IETF RFC 791 (septiembre de 1981), 792 y 793. Se instaló en SATNET en 1982 y en ARPANET en enero de 1983 después de que el Departamento de Defensa hiciera Es estándar para todas las redes informáticas militares.Esto resultó en un modelo de red que se conoció informalmente como TCP/IP. También se lo denominó modelo del Departamento de Defensa (DoD), modelo DARPA o modelo ARPANET. Cerf acredita a sus estudiantes graduados Yogen Dalal, Carl Sunshine, Judy Estrin, Richard Karp y Gérard Le Lann con un importante trabajo en el diseño y las pruebas. DARPA patrocinó o alentó el desarrollo de implementaciones de TCP/IP para muchos sistemas operativos.

No obstante, durante un período a fines de la década de 1980 y principios de la de 1990, los ingenieros, las organizaciones y las naciones estuvieron polarizados sobre la cuestión de qué estándar, el modelo OSI o el conjunto de protocolos de Internet daría como resultado las mejores y más sólidas redes informáticas.

De ARPANET a NSFNET

Después de que ARPANET estuvo en funcionamiento durante varios años, ARPA buscó otra agencia para entregarle la red; La misión principal de ARPA era financiar la investigación y el desarrollo de vanguardia, no ejecutar una utilidad de comunicaciones. Finalmente, en julio de 1975, la red se entregó a la Agencia de Comunicaciones de Defensa, también parte del Departamento de Defensa. En 1983, la porción militar estadounidense de ARPANET se dividió como una red separada, MILNET. MILNET posteriormente se convirtió en el NIPRNET no clasificado pero solo militar, en paralelo con el nivel SECRETO SIPRNET y JWICS para TOP SECRET y superior. NIPRNET tiene puertas de enlace de seguridad controladas a la Internet pública.

Las redes basadas en ARPANET fueron financiadas por el gobierno y, por lo tanto, restringidas a usos no comerciales como la investigación; el uso comercial no relacionado estaba estrictamente prohibido. Esto inicialmente restringió las conexiones a sitios militares y universidades. Durante la década de 1980, las conexiones se expandieron a más instituciones educativas, que comenzaron a formar redes de líneas de fibra óptica. Un número creciente de empresas como Digital Equipment Corporation y Hewlett-Packard, que participaban en proyectos de investigación o prestaban servicios a quienes lo hacían. Las velocidades de transmisión de datos dependían del tipo de conexión, siendo las más lentas las líneas telefónicas analógicas y las más rápidas utilizando la tecnología de redes ópticas.

Varias otras ramas del gobierno de EE. UU., la Administración Nacional de Aeronáutica y del Espacio (NASA), la Fundación Nacional de Ciencias (NSF) y el Departamento de Energía (DOE) se involucraron mucho en la investigación de Internet y comenzaron a desarrollar un sucesor de ARPANET. A mediados de la década de 1980, estas tres sucursales desarrollaron las primeras redes de área amplia basadas en TCP/IP. La NASA desarrolló la Red de Ciencias de la NASA, la NSF desarrolló CSNET y el DOE desarrolló la Red de Ciencias de la Energía o ESNet.

La NASA desarrolló la NASA Science Network (NSN) basada en TCP/IP a mediados de la década de 1980, conectando a los científicos espaciales con datos e información almacenados en cualquier parte del mundo. En 1989, la Red de Análisis de Física Espacial (SPAN) basada en DECnet y la Red de Ciencias de la NASA (NSN) basada en TCP/IP se unieron en el Centro de Investigación Ames de la NASA creando la primera red multiprotocolo de área amplia llamada Internet de la Ciencia de la NASA, o NSI. NSI se estableció para proporcionar una infraestructura de comunicaciones totalmente integrada a la comunidad científica de la NASA para el avance de las ciencias de la tierra, el espacio y la vida. Como una red internacional multiprotocolo de alta velocidad, NSI brindó conectividad a más de 20 000 científicos en los siete continentes.

En 1981, NSF apoyó el desarrollo de Computer Science Network (CSNET). CSNET se conectaba con ARPANET mediante TCP/IP y ejecutaba TCP/IP sobre X.25, pero también admitía departamentos sin conexiones de red sofisticadas mediante el intercambio de correo de acceso telefónico automatizado.

En 1986, la NSF creó NSFNET, una red troncal de 56 kbit/s para dar soporte a los centros de supercomputación patrocinados por la NSF. La NSFNET también brindó apoyo para la creación de redes regionales de investigación y educación en los Estados Unidos, y para la conexión de redes de campus universitarios y universitarios a las redes regionales. El uso de NSFNET y las redes regionales no se limitó a los usuarios de supercomputadoras y la red de 56 kbit/s se sobrecargó rápidamente. NSFNET se actualizó a 1,5 Mbit/s en 1988 en virtud de un acuerdo de cooperación con Merit Network en asociación con IBM, MCI y el estado de Michigan. La existencia de NSFNET y la creación de Federal Internet Exchanges (FIXes) permitieron que ARPANET fuera desmantelado en 1990.

NSFNET se amplió y actualizó a fibra dedicada, láseres ópticos y sistemas de amplificadores ópticos capaces de ofrecer velocidades de arranque T3 o 45 Mbit/s en 1991. Sin embargo, la transición a T3 por parte de MCI tomó más tiempo de lo esperado, lo que permitió a Sprint establecer una conexión de costa a costa. -Servicio de Internet comercial de larga distancia en la costa. Cuando se desmanteló NSFNET en 1995, sus redes troncales de redes ópticas se entregaron a varios proveedores comerciales de servicios de Internet, incluidos MCI, PSI Net y Sprint. Como resultado, cuando se completó la transferencia, Sprint y sus Puntos de acceso a la red de Washington DC comenzaron a transportar tráfico de Internet y, en 1996, Sprint era el operador de tráfico de Internet más grande del mundo.

La comunidad académica y de investigación continúa desarrollando y utilizando redes avanzadas como Internet2 en los Estados Unidos y JANET en el Reino Unido.

Transición hacia Internet

El término "internet" se reflejó en el primer RFC publicado sobre el protocolo TCP (RFC 675: Programa de control de transmisión de Internet, diciembre de 1974) como una forma abreviada de interconexión de redes, cuando los dos términos se usaban indistintamente. En general, Internet era una colección de redes unidas por un protocolo común. En el período de tiempo en que ARPANET se conectó al proyecto NSFNET recién formado a fines de la década de 1980, el término se usó como el nombre de la red, Internet, siendo la red TCP/IP grande y global.

La apertura de Internet y la red troncal de fibra óptica a empresas y consumidores aumentó la demanda de capacidad de red. El costo y la demora de la instalación de nueva fibra llevó a los proveedores a probar una alternativa de expansión del ancho de banda de fibra que Optelecom había iniciado a fines de la década de 1970 utilizando "interacciones entre la luz y la materia, como láseres y dispositivos ópticos utilizados para amplificación óptica y mezcla de ondas". Esta tecnología se conoció como multiplexación por división de onda (WDM). Bell Labs implementó un sistema WDM de 4 canales en 1995. Para desarrollar un sistema WDM de capacidad masiva (denso), Optelecom y su exjefe de Light Systems Research, David R. Huber formaron una nueva empresa, Ciena Corp., que implementó el primer sistema WDM denso en la red de fibra de Sprint en junio de 1996. Esto se denominó el verdadero comienzo de las redes ópticas.

A medida que crecía el interés por las redes debido a las necesidades de colaboración, intercambio de datos y acceso a recursos informáticos remotos, las tecnologías de Internet se extendieron por el resto del mundo. El enfoque agnóstico del hardware en TCP/IP admitía el uso de la infraestructura de red existente, como la red X.25 del Servicio de conmutación de paquetes internacional (IPSS), para transportar el tráfico de Internet.

Muchos sitios que no podían vincularse directamente a Internet crearon pasarelas simples para la transferencia de correo electrónico, la aplicación más importante de la época. Los sitios que solo tenían conexiones intermitentes usaban UUCP o FidoNet y dependían de las puertas de enlace entre estas redes e Internet. Algunos servicios de puerta de enlace iban más allá del simple emparejamiento de correo, como permitir el acceso a sitios del Protocolo de transferencia de archivos (FTP) a través de UUCP o correo.

Finalmente, se desarrollaron tecnologías de enrutamiento para Internet para eliminar los aspectos de enrutamiento centralizados restantes. El Protocolo de puerta de enlace exterior (EGP) fue reemplazado por un nuevo protocolo, el Protocolo de puerta de enlace fronteriza (BGP). Esto proporcionó una topología en malla para Internet y redujo la arquitectura céntrica que había enfatizado ARPANET. En 1994, se introdujo el enrutamiento entre dominios sin clase (CIDR) para respaldar una mejor conservación del espacio de direcciones, lo que permitió el uso de la agregación de rutas para reducir el tamaño de las tablas de enrutamiento.

Redes ópticas

Para hacer frente a la necesidad de una capacidad de transmisión superior a la que proporcionan las líneas telefónicas de cobre analógicas, satelitales y de radio, los ingenieros desarrollaron sistemas de comunicaciones ópticas basados ​​en cables de fibra óptica alimentados por láser y técnicas de amplificación óptica.

El concepto de láser surgió de un artículo de 1917 de Albert Einstein, "Sobre la teoría cuántica de la radiación". Einstein amplió un diálogo con Max Planck sobre cómo los átomos absorben y emiten luz, parte de un proceso de pensamiento que, con el aporte de Erwin Schrödinger, Werner Heisenberg y otros, dio lugar a la Mecánica Cuántica. En concreto, en su teoría cuántica, Einstein determinó matemáticamente que la luz podía generarse no solo por emisión espontánea, como la luz que emite una luz incandescente o el Sol, sino también por emisión estimulada.

Cuarenta años después, el 13 de noviembre de 1957, el estudiante de física de la Universidad de Columbia, Gordon Gould, se dio cuenta por primera vez de cómo producir luz mediante emisión estimulada a través de un proceso de amplificación óptica. Él acuñó el término LASER para esta tecnología: amplificación de luz por emisión estimulada de radiación. Utilizando el método de amplificación de luz de Gould (patentado como "amplificador láser de bombeo óptico") [1], Theodore Maiman fabricó el primer láser funcional el 16 de mayo de 1960.

Gould cofundó Optelecom, Inc. en 1973 para comercializar sus inventos en telecomunicaciones de fibra óptica. justo cuando Corning Glass estaba produciendo el primer cable comercial de fibra óptica en pequeñas cantidades. Optelecom configuró sus propios láseres de fibra y amplificadores ópticos en los primeros sistemas de comunicaciones ópticas comerciales que entregó a Chevron y al Ejército de Defensa de Misiles de los EE. UU. Tres años más tarde, GTE implementó el primer sistema telefónico óptico en 1977 en Long Beach, California. A principios de la década de 1980, universidades seleccionadas y proveedores de telefonía de larga distancia utilizaban redes ópticas alimentadas por láseres, LED y equipos amplificadores ópticos suministrados por Bell Labs, NTT y Perelli.

TCP/IP se globaliza (década de 1980)

CERN, la Internet europea, el enlace con el Pacífico y más allá

A principios de 1982, NORSAR y el grupo de Peter Kirstein en el University College London (UCL) abandonaron ARPANET y comenzaron a utilizar TCP/IP sobre SATNET. UCL proporcionó acceso entre Internet y las redes académicas en el Reino Unido.

Entre 1984 y 1988, el CERN comenzó la instalación y operación de TCP/IP para interconectar sus principales sistemas informáticos internos, estaciones de trabajo, PC y un sistema de control del acelerador. CERN continuó operando un sistema de desarrollo propio limitado (CERNET) internamente y varios protocolos de red incompatibles (típicamente propietarios) externamente. Hubo una resistencia considerable en Europa hacia un uso más generalizado de TCP/IP, y las intranets TCP/IP del CERN permanecieron aisladas de Internet hasta 1989, cuando se estableció una conexión transatlántica con la Universidad de Cornell.

En 1988, INRIA de Francia y Piet Beertema en Centrum Wiskunde & Informatica (CWI) en los Países Bajos establecieron las primeras conexiones internacionales a NSFNET.Daniel Karrenberg, de CWI, visitó a Ben Segal, coordinador de TCP/IP del CERN, en busca de asesoramiento sobre la transición de EUnet, el lado europeo de la red UUCP Usenet (mucha de la cual funcionaba con enlaces X.25), a TCP/IP. El año anterior, Segal se había reunido con Len Bosack de la todavía pequeña empresa Cisco para comprar algunos enrutadores TCP/IP para el CERN, y Segal pudo asesorar a Karrenberg y remitirlo a Cisco para obtener el hardware adecuado. Esto expandió la parte europea de Internet a través de las redes UUCP existentes. La conexión de NORDUnet a NSFNET se estableció poco después, brindando acceso abierto a estudiantes universitarios en Dinamarca, Finlandia, Islandia, Noruega y Suecia. En enero de 1989, el CERN abrió sus primeras conexiones TCP/IP externas.Esto coincidió con la creación de Réseaux IP Européens (RIPE), inicialmente un grupo de administradores de redes IP que se reunían regularmente para llevar a cabo un trabajo de coordinación en conjunto. Más tarde, en 1992, RIPE se registró formalmente como cooperativa en Ámsterdam.

En 1991, JANET, la red nacional de investigación y educación del Reino Unido, adoptó el Protocolo de Internet en la red existente. El mismo año, Dai Davies introdujo la tecnología de Internet en la NREN paneuropea, EuropaNet, que se construyó sobre el protocolo X.25. La Red Académica y de Investigación Europea (EARN) y RARE adoptaron IP casi al mismo tiempo, y la red troncal europea de Internet EBONE entró en funcionamiento en 1992.

Al mismo tiempo que el auge de la interconexión de redes en Europa, se formaron redes ad hoc para ARPA y universidades australianas intermedias, basadas en diversas tecnologías como X.25 y UUCPNet. Estos estaban limitados en su conexión a las redes globales, debido al costo de realizar conexiones telefónicas internacionales individuales UUCP o X.25. En 1989, las universidades australianas se sumaron a la iniciativa de utilizar protocolos IP para unificar sus infraestructuras de red. AARNet fue formada en 1989 por el Comité de Vicecancilleres de Australia y proporcionó una red basada en IP dedicada para Australia. La primera conexión internacional a Internet de Nueva Zelanda se estableció el mismo año.

En mayo de 1982, Corea del Sur instaló una red TCP/IP doméstica de dos nodos y agregó un tercer nodo al año siguiente. Japón, que había construido la red JUNET basada en UUCP en 1984, se conectó a NSFNET en 1989 marcando la expansión de Internet a Asia. Albergó la reunión anual de Internet Society, INET'92, en Kobe. Singapur desarrolló TECHNET en 1990 y Tailandia obtuvo una conexión global a Internet entre la Universidad de Chulalongkorn y UUNET en 1992.

Surge la temprana "brecha digital" mundial

Mientras los países desarrollados con infraestructuras tecnológicas se incorporaban a Internet, los países en desarrollo comenzaron a experimentar una brecha digital que los separaba de Internet. Sobre una base esencialmente continental, están construyendo organizaciones para la administración de recursos de Internet y compartiendo experiencia operativa, a medida que se instalan más y más instalaciones de transmisión.

África

A principios de la década de 1990, los países africanos confiaban en los enlaces X.25 IPSS y UUCP de módem de 2400 baudios para las comunicaciones informáticas internacionales y de red.

En agosto de 1995, InfoMail Uganda, Ltd., una empresa privada de Kampala ahora conocida como InfoCom, y NSN Network Services de Avon, Colorado, vendida en 1997 y ahora conocida como Clear Channel Satellite, establecieron la primera plataforma TCP/IP nativa de África. velocidad de los servicios de Internet por satélite. La conexión de datos fue transportada originalmente por un satélite ruso RSCC de banda C que conectaba las oficinas de Kampala de InfoMail directamente al punto de presencia MAE-West de NSN utilizando una red privada desde la estación terrestre arrendada de NSN en Nueva Jersey. La primera conexión satelital de InfoCom fue de solo 64 kbit/s, sirviendo a una computadora central Sun y doce módems de acceso telefónico de US Robotics.

En 1996, un proyecto financiado por USAID, la Iniciativa Leland, comenzó a trabajar en el desarrollo de una conectividad total a Internet para el continente. Guinea, Mozambique, Madagascar y Rwanda obtuvieron estaciones terrenas de satélite en 1997, seguidas de Costa de Marfil y Benin en 1998.

África está construyendo una infraestructura de Internet. AFRINIC, con sede en Mauricio, gestiona la asignación de direcciones IP para el continente. Al igual que las otras regiones de Internet, existe un foro operativo, la Comunidad de Internet de especialistas en redes operativas.

Hay muchos programas para proporcionar plantas de transmisión de alto rendimiento, y las costas oeste y sur tienen cable óptico submarino. Los cables de alta velocidad unen el norte de África y el Cuerno de África con los sistemas de cables intercontinentales. El desarrollo de cables submarinos es más lento en África Oriental; el esfuerzo conjunto original entre la Nueva Alianza para el Desarrollo de África (NEPAD) y el Sistema Submarino de África Oriental (Eassy) se ha interrumpido y puede convertirse en dos esfuerzos.

Asia y Oceanía

El Centro de información de la red de Asia Pacífico (APNIC), con sede en Australia, administra la asignación de direcciones IP para el continente. APNIC patrocina un foro operativo, la Conferencia Regional de Internet de Asia-Pacífico sobre Tecnologías Operacionales (APRICOT).

El primer sistema de Internet de Corea del Sur, System Development Network (SDN) comenzó a funcionar el 15 de mayo de 1982. SDN se conectó al resto del mundo en agosto de 1983 mediante UUCP (Unixto-Unix-Copy); conectado a CSNET en diciembre de 1984; y se conectó formalmente a Internet de EE. UU. en 1990. VDSL, una tecnología de última milla desarrollada en la década de 1990 por NextLevel Communications, conectó líneas telefónicas corporativas y de consumo basadas en cobre a Internet en Corea del Sur.

En 1991, la República Popular de China vio su primera red universitaria TCP/IP, TUNET de la Universidad de Tsinghua. La República Popular China hizo su primera conexión global a Internet en 1994, entre la Colaboración de Electro-Espectrómetros de Beijing y el Centro Acelerador Lineal de la Universidad de Stanford. Sin embargo, China implementó su propia brecha digital al implementar un filtro de contenido en todo el país.

América Latina

Al igual que en las demás regiones, el Registro de Direcciones de Internet de América Latina y el Caribe (LACNIC) administra el espacio de direcciones IP y otros recursos de su área. LACNIC, con sede en Uruguay, opera DNS raíz, DNS inverso y otros servicios clave.

1989–2004: Auge de Internet global, Web 1.0

Inicialmente, al igual que con sus redes predecesoras, el sistema que se convertiría en Internet era principalmente para uso del gobierno y de los organismos gubernamentales. Aunque el uso comercial estaba prohibido, la definición exacta de uso comercial no estaba clara y era subjetiva. UUCPNet y X.25 IPSS no tenían tales restricciones, lo que eventualmente vería la prohibición oficial del uso de UUCPNet de las conexiones ARPANET y NSFNET. (Sin embargo, algunos enlaces UUCP aún permanecían conectados a estas redes, ya que los administradores hicieron la vista gorda a su operación).

Como resultado, a fines de la década de 1980, se formaron las primeras empresas proveedoras de servicios de Internet (ISP). Se formaron empresas como PSINet, UUNET, Netcom y Portal Software para brindar servicio a las redes de investigación regionales y brindar al público acceso alternativo a la red, correo electrónico basado en UUCP y Usenet News. El primer ISP comercial de acceso telefónico en los Estados Unidos fue The World, que abrió en 1989.

En 1992, el Congreso de los EE. UU. aprobó la Ley de Tecnología Científica y Avanzada, 42 USC § 1862(g), que permitió a la NSF respaldar el acceso de las comunidades de investigación y educación a las redes informáticas que no se usaban exclusivamente con fines de investigación y educación, por lo que permitiendo que NSFNET se interconecte con redes comerciales. Esto causó controversia dentro de la comunidad de investigación y educación, a quienes les preocupaba que el uso comercial de la red pudiera conducir a una Internet que respondiera menos a sus necesidades, y dentro de la comunidad de proveedores de redes comerciales, que sentían que los subsidios gubernamentales estaban dando una ventaja injusta. a algunas organizaciones.

Para 1990, los objetivos de ARPANET se habían cumplido y las nuevas tecnologías de red excedieron el alcance original y el proyecto llegó a su fin. Los nuevos proveedores de servicios de red, incluidos PSINet, Alternet, CERFNet, ANS CO+RE y muchos otros, ofrecían acceso a la red a clientes comerciales. NSFNET ya no era la columna vertebral de facto y el punto de intercambio de Internet. El intercambio de Internet comercial (CIX), los intercambios de área metropolitana (MAE) y, posteriormente, los puntos de acceso a la red (NAP) se estaban convirtiendo en las principales interconexiones entre muchas redes. Las restricciones finales sobre el transporte de tráfico comercial finalizaron el 30 de abril de 1995 cuando la Fundación Nacional de Ciencias finalizó su patrocinio del NSFNET Backbone Service.NSF brindó apoyo inicial para los NAP y apoyo provisional para ayudar a las redes regionales de investigación y educación en la transición a ISP comerciales. NSF también patrocinó el servicio de red troncal de muy alta velocidad (vBNS), que continuó brindando soporte para los centros de supercomputación y la investigación y la educación en los Estados Unidos.

Uso en la sociedad en general

Durante la primera década más o menos de la Internet pública, los inmensos cambios que eventualmente permitiría en la década de 2000 aún eran incipientes. En términos de proporcionar contexto para este período, los dispositivos celulares móviles ("teléfonos inteligentes" y otros dispositivos celulares) que hoy brindan un acceso casi universal, se usaron para negocios y no como un artículo doméstico de rutina propiedad de padres e hijos en todo el mundo. Las redes sociales en el sentido moderno aún no existían, las computadoras portátiles eran voluminosas y la mayoría de los hogares no tenían computadoras. Las velocidades de datos eran lentas y la mayoría de las personas carecían de medios para video o digitalizar video; El almacenamiento de medios estaba pasando lentamente de la cinta analógica a los discos ópticos digitales (DVD y, hasta cierto punto, disquetes a CD). Habilitar tecnologías utilizadas desde principios de la década de 2000, como PHP, JavaScript moderno y Java, tecnologías como AJAX,

Internet se usó ampliamente para listas de correo, correos electrónicos, comercio electrónico y las primeras compras populares en línea (Amazon y eBay, por ejemplo), foros y tablones de anuncios en línea, y sitios web y blogs personales, y el uso estaba creciendo rápidamente, pero con estándares más modernos. los sistemas utilizados eran estáticos y carecían de un compromiso social generalizado. Esperó una serie de eventos a principios de la década de 2000 para pasar de ser una tecnología de comunicaciones a convertirse gradualmente en una parte clave de la infraestructura de la sociedad global.

Los elementos de diseño típicos de estos sitios web de la era "Web 1.0" incluían: Páginas estáticas en lugar de HTML dinámico; contenido servido desde sistemas de archivos en lugar de bases de datos relacionales; páginas construidas usando Server Side Incluye o CGI en lugar de una aplicación web escrita en un lenguaje de programación dinámico; Estructuras de la era HTML 3.2 como marcos y tablas para crear diseños de página; libros de visitas en línea; uso excesivo de botones GIF y gráficos pequeños similares que promocionan artículos particulares; y formularios HTML enviados por correo electrónico. (La compatibilidad con las secuencias de comandos del lado del servidor era poco común en los servidores compartidos, por lo que el mecanismo de retroalimentación habitual era por correo electrónico, utilizando formularios mailto y su programa de correo electrónico.

Durante el período de 1997 a 2001, tuvo lugar la primera burbuja de inversión especulativa relacionada con Internet, en la que las empresas "punto-com" (refiriéndose al dominio de nivel superior ".com" utilizado por las empresas) fueron impulsadas a valoraciones extremadamente altas como inversores. valores bursátiles rápidamente alimentados, seguidos de una caída del mercado; la primera burbuja de las puntocom. Sin embargo, esto solo desaceleró temporalmente el entusiasmo y el crecimiento, que se recuperó rápidamente y siguió creciendo.

Con la llamada a la Web 2.0 poco después, el período de Internet hasta alrededor de 2004-2005 fue nombrado y descrito retrospectivamente por algunos como Web 1.0.

IPv6

IPv4 utiliza direcciones de 32 bits, lo que limita el espacio de direcciones a 2 direcciones, es decir, 4 294 967 296 direcciones. La última dirección IPv4 disponible se asignó en enero de 2011. IPv4 está siendo reemplazada por su sucesora, denominada "IPv6", que utiliza direcciones de 128 bits y proporciona 2 direcciones, es decir, 340 282 366 920 938 463 463 374 607 431 768 211 456. Se trata de un espacio de direcciones muy aumentado. Se espera que el cambio a IPv6 tarde muchos años, décadas o tal vez más en completarse, ya que había cuatro mil millones de máquinas con IPv4 cuando comenzó el cambio.

2005-presente: Web 2.0, ubicuidad global, redes sociales

Los cambios que impulsarían a Internet a su lugar como sistema social tuvieron lugar durante un período relativamente corto de no más de cinco años, desde alrededor de 2005 hasta 2010. Incluyeron:

  • El llamado a la "Web 2.0" en 2004 (sugerido por primera vez en 1999),
  • Acelerar la adopción y la mercantilización entre los hogares y la familiaridad con el hardware necesario (como computadoras).
  • Aceleración de la tecnología de almacenamiento y las velocidades de acceso a los datos: surgieron los discos duros, reemplazaron a los disquetes mucho más pequeños y lentos y crecieron de megabytes a gigabytes (y alrededor de 2010, terabytes), RAM de cientos de kilobytes a gigabytes como cantidades típicas en un sistema, y Ethernet, la tecnología habilitadora para TCP/IP, pasó de velocidades comunes de kilobits a decenas de megabits por segundo, a gigabits por segundo.
  • Internet de alta velocidad y mayor cobertura de conexiones de datos, a precios más bajos, lo que permite mayores tasas de tráfico, tráfico más confiable, más simple y tráfico desde más ubicaciones,
  • La percepción cada vez más acelerada de la capacidad de las computadoras para crear nuevos medios y enfoques de comunicación, el surgimiento de redes sociales y sitios web como Twitter y Facebook para su prominencia posterior, y colaboraciones globales como Wikipedia (que existía antes pero ganó prominencia como resultado),
  • La revolución móvil, que brindó acceso a Internet a gran parte de la sociedad humana de todas las edades, en su vida diaria, y les permitió compartir, discutir y actualizar, preguntar y responder continuamente.
  • La memoria RAM no volátil creció rápidamente en tamaño y confiabilidad, y disminuyó de precio, convirtiéndose en un producto básico capaz de permitir altos niveles de actividad informática en estos pequeños dispositivos portátiles, así como en unidades de estado sólido (SSD).
  • Un énfasis en el diseño de dispositivos y procesadores eficientes en el uso de la energía, en lugar de una potencia de procesamiento puramente alta; uno de los beneficiarios de esto fue ARM, una empresa británica que se había centrado desde la década de 1980 en microprocesadores simples potentes pero de bajo costo. La arquitectura ARM ganó rápidamente el dominio en el mercado de dispositivos móviles e integrados.

El término "Web 2.0" describe sitios web que enfatizan el contenido generado por el usuario (incluida la interacción de usuario a usuario), la facilidad de uso y la interoperabilidad. Apareció por primera vez en un artículo de enero de 1999 llamado "Futuro fragmentado" escrito por Darcy DiNucci, consultora en diseño de información electrónica, donde escribió:"La Web que conocemos ahora, que se carga en una ventana del navegador en pantallas esencialmente estáticas, es solo un embrión de la Web por venir. Los primeros atisbos de la Web 2.0 están comenzando a aparecer, y estamos comenzando a ver cómo ese embrión podría La Web será entendida no como pantallas llenas de texto y gráficos, sino como un mecanismo de transporte, el éter a través del cual sucede la interactividad. Aparecerá en la pantalla de su computadora, [...] en su televisor [...] el tablero de su automóvil [...] su teléfono celular [...] máquinas de juegos portátiles [...] tal vez incluso su horno de microondas".

El término resurgió durante 2002-2004 y ganó prominencia a fines de 2004 luego de las presentaciones de Tim O'Reilly y Dale Dougherty en la primera Conferencia Web 2.0. En sus comentarios de apertura, John Battelle y Tim O'Reilly esbozaron su definición de "Web como plataforma", donde las aplicaciones de software se construyen sobre la Web y no sobre el escritorio. El aspecto único de esta migración, argumentaron, es que "los clientes están construyendo su negocio para usted". Argumentaron que las actividades de los usuarios que generan contenido (en forma de ideas, texto, videos o imágenes) podrían "aprovecharse" para crear valor.

Web 2.0 no se refiere a una actualización de ninguna especificación técnica, sino a cambios acumulativos en la forma en que se crean y utilizan las páginas web. La Web 2.0 describe un enfoque en el que los sitios se enfocan sustancialmente en permitir que los usuarios interactúen y colaboren entre sí en un diálogo de medios sociales como creadores de contenido generado por el usuario en una comunidad virtual, en contraste con los sitios web donde las personas se limitan a lo pasivo. visionado de contenidos. Ejemplos de Web 2.0 incluyen servicios de redes sociales, blogs, wikis, folksonomías, sitios para compartir videos, servicios alojados, aplicaciones web y mashups. Terry Flew, en su tercera edición de New Media, describió lo que él creía que caracterizaba las diferencias entre la Web 1.0 y la Web 2.0:"[El] paso de los sitios web personales a los blogs y la agregación de sitios de blogs, de la publicación a la participación, del contenido web como resultado de una gran inversión inicial a un proceso continuo e interactivo, y de los sistemas de gestión de contenido a los enlaces basados ​​en el etiquetado (folksonomía)".

Esta era vio a varios nombres conocidos ganar prominencia a través de su operación orientada a la comunidad: YouTube, Twitter, Facebook, Reddit y Wikipedia son algunos ejemplos.

La revolución móvil

El proceso de cambio que generalmente coincidió con la "Web 2.0" se vio muy acelerado y transformado poco tiempo después por el creciente crecimiento de los dispositivos móviles. Esta revolución móvil significó que las computadoras en forma de teléfonos inteligentes se convirtieran en algo que muchas personas usaban, se llevaban a todas partes, se comunicaban, se usaban para fotografías y videos que compartían instantáneamente o para comprar o buscar información "en movimiento" y se usaban socialmente, como a diferencia de los artículos en un escritorio en casa o simplemente utilizados para el trabajo.

Los servicios basados ​​en la ubicación, los servicios que utilizan la ubicación y otra información de sensores, y el crowdsourcing (con frecuencia, pero no siempre, basados ​​en la ubicación) se volvieron comunes, con publicaciones etiquetadas por ubicación o sitios web y servicios que se vuelven conscientes de la ubicación. Los sitios web orientados a dispositivos móviles (como "m.website.com") se volvieron comunes, diseñados especialmente para los nuevos dispositivos utilizados. Netbooks, ultrabooks, 4G y Wi-Fi generalizados, y chips móviles capaces o funcionando casi con la potencia de las computadoras de escritorio de no muchos años antes con un uso de energía mucho menor, se convirtieron en habilitadores de esta etapa del desarrollo de Internet, y surgió el término "Aplicación". (abreviatura de "Programa de aplicación" o "Programa") al igual que la "Tienda de aplicaciones".

Esta "revolución móvil" ha permitido que las personas tengan una cantidad de información casi ilimitada al alcance de la mano. Con la capacidad de acceder a Internet desde teléfonos celulares, se produjo un cambio en la forma en que consumimos los medios. De hecho, al observar las estadísticas de consumo de medios, más de la mitad del consumo de medios entre las personas de 18 a 34 años usaba un teléfono inteligente.

Redes en el espacio exterior

El primer enlace de Internet a la órbita terrestre baja se estableció el 22 de enero de 2010 cuando el astronauta TJ Creamer publicó la primera actualización sin asistencia en su cuenta de Twitter desde la Estación Espacial Internacional, lo que marcó la extensión de Internet al espacio. (Los astronautas de la ISS habían usado antes el correo electrónico y Twitter, pero estos mensajes se habían transmitido a tierra a través de un enlace de datos de la NASA antes de ser enviados por un proxy humano). Este acceso web personal, que la NASA llama Crew Support LAN, utiliza el enlace de microondas de banda Ku de alta velocidad de la estación espacial. Para navegar por Internet, los astronautas pueden usar una computadora portátil de la estación para controlar una computadora de escritorio en la Tierra, y pueden hablar con sus familiares y amigos en la Tierra usando equipos de Voz sobre IP.

La comunicación con las naves espaciales más allá de la órbita terrestre se ha realizado tradicionalmente a través de enlaces punto a punto a través de la Red del Espacio Profundo. Cada enlace de datos debe programarse y configurarse manualmente. A fines de la década de 1990, la NASA y Google comenzaron a trabajar en un nuevo protocolo de red, la red tolerante al retraso (DTN), que automatiza este proceso, permite la conexión en red de los nodos de transmisión espaciales y tiene en cuenta que las naves espaciales pueden perder contacto temporalmente porque se mueven detrás. la Luna o los planetas, o porque el clima espacial interrumpe la conexión. Bajo tales condiciones, DTN retransmite paquetes de datos en lugar de descartarlos, como lo hace el Protocolo de Internet TCP/IP estándar. La NASA realizó la primera prueba de campo de lo que llama el "internet del espacio profundo" en noviembre de 2008.Las pruebas de las comunicaciones basadas en DTN entre la Estación Espacial Internacional y la Tierra (ahora llamadas Redes Tolerantes a la Disrupción) han estado en curso desde marzo de 2009 y está previsto que continúen hasta marzo de 2014.

Se supone que esta tecnología de red permitirá en última instancia misiones que involucran múltiples naves espaciales donde la comunicación confiable entre naves podría tener prioridad sobre los enlaces descendentes entre naves y la Tierra. Según una declaración de febrero de 2011 de Vint Cerf de Google, los llamados "protocolos de paquete" se cargaron en la nave espacial de la misión EPOXI de la NASA (que está en órbita alrededor del Sol) y se probó la comunicación con la Tierra a una distancia de aproximadamente 80 luz. segundos.

Gobernanza de Internet

Como una red distribuida globalmente de redes autónomas interconectadas voluntariamente, Internet opera sin un órgano de gobierno central. Cada red constituyente elige las tecnologías y los protocolos que implementa a partir de los estándares técnicos desarrollados por el Grupo de Trabajo de Ingeniería de Internet (IETF). Sin embargo, la interoperación exitosa de muchas redes requiere ciertos parámetros que deben ser comunes en toda la red. Para administrar dichos parámetros, la Autoridad de Números Asignados de Internet (IANA) supervisa la asignación y asignación de varios identificadores técnicos. Además, la Corporación de Internet para la Asignación de Nombres y Números (ICANN) supervisa y coordina los dos principales espacios de nombres en Internet, el espacio de direcciones del Protocolo de Internet y el Sistema de Nombres de Dominio.

NIC, InterNIC, IANA e ICANN

La función de la IANA fue realizada originalmente por el Instituto de Ciencias de la Información (ISI) de la USC, y delegó partes de esta responsabilidad con respecto a la red numérica y los identificadores de sistemas autónomos al Centro de Información de la Red (NIC) en el Instituto de Investigación de Stanford (SRI International) en Menlo Park., California. Jonathan Postel de ISI administró la IANA, se desempeñó como editor de RFC y desempeñó otros roles clave hasta su muerte prematura en 1998.

A medida que crecía la primera ARPANET, se hacía referencia a los hosts por nombres y SRI International distribuía un archivo HOSTS.TXT a cada host de la red. A medida que la red creció, esto se volvió engorroso. Una solución técnica vino en la forma del Sistema de Nombres de Dominio, creado por Paul Mockapetris de ISI en 1983. La Red de Datos de Defensa—Centro de Información de Red (DDN-NIC) en SRI manejó todos los servicios de registro, incluidos los dominios de nivel superior (TLD) de.mil,.gov,.edu,.org,.net,.com y.us, administración de servidores de nombres raíz y asignaciones de números de Internet en virtud de un contrato del Departamento de Defensa de los Estados Unidos.En 1991, la Agencia de Sistemas de Información de Defensa (DISA) adjudicó la administración y el mantenimiento de DDN-NIC (administrado hasta ese momento por SRI) a Government Systems, Inc., quien lo subcontrató a la pequeña empresa privada Network Solutions, Inc.

La creciente diversidad cultural de Internet también planteó desafíos administrativos para la gestión centralizada de las direcciones IP. En octubre de 1992, el Grupo de Trabajo de Ingeniería de Internet (IETF) publicó el RFC 1366,que describió el "crecimiento de Internet y su creciente globalización" y sentó las bases para una evolución del proceso de registro de PI, basado en un modelo de registro distribuido regionalmente. Este documento resaltó la necesidad de que exista un registro único de números de Internet en cada región geográfica del mundo (que sería de "dimensiones continentales"). Los registros serían "imparciales y ampliamente reconocidos por los suscriptores y proveedores de red" dentro de su región. El Centro de Coordinación de Redes RIPE (RIPE NCC) se estableció como el primer RIR en mayo de 1992. El segundo RIR, el Centro de Información de Redes de Asia Pacífico (APNIC), se estableció en Tokio en 1993, como un proyecto piloto del Grupo de Redes de Asia Pacífico..

Dado que en este momento de la historia la mayor parte del crecimiento de Internet procedía de fuentes no militares, se decidió que el Departamento de Defensa ya no financiaría los servicios de registro fuera del TLD.mil. En 1993, la Fundación Nacional de Ciencias de EE. UU., después de un proceso de licitación competitivo en 1992, creó InterNIC para gestionar las asignaciones de direcciones y la gestión de las bases de datos de direcciones, y otorgó el contrato a tres organizaciones. Los servicios de registro serían proporcionados por Network Solutions; Los servicios de directorio y base de datos serían proporcionados por AT&T; y los servicios de información serían proporcionados por General Atomics.

Con el tiempo, luego de consultar con IANA, IETF, RIPE NCC, APNIC y el Consejo Federal de Redes (FNC), se tomó la decisión de separar la administración de nombres de dominio de la administración de números de IP. Siguiendo los ejemplos de RIPE NCC y APNIC, se recomendó que la gestión del espacio de direcciones IP que luego administra InterNIC debería estar bajo el control de quienes lo usan, específicamente los ISP, las organizaciones de usuarios finales, las entidades corporativas, las universidades y las personas.. Como resultado, el Registro Americano de Números de Internet (ARIN) se estableció en diciembre de 1997 como una corporación independiente sin fines de lucro bajo la dirección de la Fundación Nacional de Ciencias y se convirtió en el tercer Registro Regional de Internet.

En 1998, tanto la IANA como las demás funciones de InterNIC relacionadas con el DNS se reorganizaron bajo el control de la ICANN, una corporación sin fines de lucro de California contratada por el Departamento de Comercio de los Estados Unidos para administrar una serie de tareas relacionadas con Internet. Dado que estas tareas involucraron la coordinación técnica de dos espacios principales de nombres de Internet (nombres DNS y direcciones IP) creados por el IETF, la ICANN también firmó un memorando de entendimiento con el IAB para definir el trabajo técnico que llevará a cabo la Autoridad de Números Asignados de Internet. La gestión del espacio de direcciones de Internet permaneció en manos de los registros regionales de Internet, que en conjunto se definieron como una organización de apoyo dentro de la estructura de la ICANN.ICANN proporciona coordinación central para el sistema de DNS, incluida la coordinación de políticas para el sistema de registro/registrador dividido, con competencia entre los proveedores de servicios de registro para atender cada dominio de nivel superior y varios registradores que compiten que ofrecen servicios de DNS a los usuarios finales.

Grupo de Trabajo de Ingeniería de Internet

El Grupo de Trabajo de Ingeniería de Internet (IETF) es el más grande y más visible de varios grupos ad hoc vagamente relacionados que brindan dirección técnica para Internet, incluida la Junta de Arquitectura de Internet (IAB), el Grupo Directivo de Ingeniería de Internet (IESG) y el Grupo de trabajo de investigación de Internet (IRTF).

El IETF es un grupo autoorganizado de voluntarios internacionales que contribuyen a la ingeniería y evolución de las tecnologías de Internet. Es el organismo principal involucrado en el desarrollo de nuevas especificaciones estándar de Internet. Gran parte del trabajo del IETF está organizado en grupos de trabajo. Los esfuerzos de estandarización de los Grupos de Trabajo a menudo son adoptados por la comunidad de Internet, pero el IETF no controla ni vigila Internet.

El IETF surgió de reuniones trimestrales con investigadores financiados por el gobierno de EE. UU., a partir de enero de 1986. La cuarta reunión del IETF en octubre de 1986 invitó a representantes no gubernamentales. El concepto de grupos de trabajo se introdujo en la quinta reunión en febrero de 1987. La séptima reunión en julio de 1987 fue la primera reunión con más de cien asistentes. En 1992, se formó Internet Society, una sociedad de membresía profesional, y el IETF comenzó a operar bajo ella como un organismo internacional independiente de estándares. La primera reunión del IETF fuera de los Estados Unidos se llevó a cabo en Ámsterdam, Países Bajos, en julio de 1993. En la actualidad, el IETF se reúne tres veces al año y la asistencia ha sido tan alta como aprox. 2.000 participantes. Por lo general, una de cada tres reuniones del IETF se lleva a cabo en Europa o Asia. El número de asistentes que no son de EE. UU. suele ser ca. 50%,

El IETF no es una entidad legal, no tiene una junta de gobierno, miembros ni cuotas. El estado más parecido a la membresía es estar en una lista de correo del IETF o del Grupo de Trabajo. Los voluntarios del IETF provienen de todo el mundo y de muchas partes diferentes de la comunidad de Internet. El IETF trabaja en estrecha colaboración y bajo la supervisión del Grupo Directivo de Ingeniería de Internet (IESG) y la Junta de Arquitectura de Internet (IAB). El Grupo de Trabajo de Investigación de Internet (IRTF) y el Grupo Directivo de Investigación de Internet (IRSG), actividades similares al IETF y al IESG bajo la supervisión general del IAB, se enfocan en temas de investigación a más largo plazo.

Solicitud de comentarios

Las solicitudes de comentarios (RFC) son la documentación principal para el trabajo de IAB, IESG, IETF e IRTF. RFC 1, "Software de host", fue escrito por Steve Crocker en UCLA en abril de 1969, mucho antes de que se creara el IETF. Originalmente eran memorandos técnicos que documentaban aspectos del desarrollo de ARPANET y fueron editados por Jon Postel, el primer editor de RFC.

Los RFC cubren una amplia gama de información de estándares propuestos, borradores de estándares, estándares completos, mejores prácticas, protocolos experimentales, historia y otros temas informativos. Los RFC pueden ser escritos por individuos o grupos informales de individuos, pero muchos son el producto de un Grupo de Trabajo más formal. Los borradores son presentados al IESG por individuos o por el Presidente del Grupo de Trabajo. Un editor de RFC, designado por el IAB, independiente de la IANA y que trabaja en conjunto con el IESG, recibe borradores del IESG y los edita, formatea y publica. Una vez que se publica un RFC, nunca se revisa. Si el estándar que describe cambia o su información se vuelve obsoleta, el estándar revisado o la información actualizada se volverán a publicar como un nuevo RFC que "obsoleta" el original.

La Sociedad de Internet

Internet Society (ISOC) es una organización internacional sin fines de lucro fundada en 1992 "para asegurar el desarrollo, la evolución y el uso abierto de Internet en beneficio de todas las personas en todo el mundo". Con oficinas cerca de Washington, DC, EE. UU., y en Ginebra, Suiza, ISOC tiene una base de miembros que comprende más de 80 organizaciones y más de 50 000 miembros individuales. Los miembros también forman "capítulos" basados ​​en una ubicación geográfica común o intereses especiales. Actualmente hay más de 90 capítulos en todo el mundo.

ISOC proporciona apoyo financiero y organizativo y promueve el trabajo de los organismos de establecimiento de estándares para los que es el hogar organizativo: el Grupo de Trabajo de Ingeniería de Internet (IETF), la Junta de Arquitectura de Internet (IAB), el Grupo Directivo de Ingeniería de Internet (IESG), y el Grupo de trabajo de investigación de Internet (IRTF). ISOC también promueve la comprensión y la apreciación del modelo de Internet de procesos abiertos y transparentes y la toma de decisiones basada en el consenso.

Globalización y gobernanza de Internet en el siglo XXI

Desde la década de 1990, la gobernanza y organización de Internet ha sido de importancia mundial para los gobiernos, el comercio, la sociedad civil y las personas. Las organizaciones que tenían el control de ciertos aspectos técnicos de Internet eran las sucesoras de la antigua supervisión de ARPANET y las actuales tomadoras de decisiones en los aspectos técnicos cotidianos de la red. Si bien se les reconoce como administradores de ciertos aspectos de Internet, sus funciones y su autoridad para tomar decisiones son limitadas y están sujetas a un escrutinio internacional cada vez mayor ya objeciones cada vez mayores. Estas objeciones han llevado a la ICANN a retirarse de las relaciones con la Universidad del Sur de California primero en 2000,y en septiembre de 2009, ganando autonomía del gobierno de EE. UU. al finalizar sus acuerdos de larga data, aunque continuaron algunas obligaciones contractuales con el Departamento de Comercio de EE. UU. Finalmente, el 1 de octubre de 2016, la ICANN finalizó su contrato con la Administración Nacional de Telecomunicaciones e Información (NTIA) del Departamento de Comercio de los Estados Unidos, lo que permitió que la supervisión pasara a la comunidad global de Internet.

El IETF, con el apoyo financiero y organizativo de Internet Society, continúa sirviendo como organismo de estándares ad-hoc de Internet y emite solicitudes de comentarios.

En noviembre de 2005, la Cumbre Mundial sobre la Sociedad de la Información, celebrada en Túnez, convocó a un Foro de Gobernanza de Internet (IGF) que sería convocado por el Secretario General de las Naciones Unidas. El IGF abrió una conversación continua y no vinculante entre las partes interesadas que representan a los gobiernos, el sector privado, la sociedad civil y las comunidades técnicas y académicas sobre el futuro de la gobernanza de Internet. La primera reunión del IGF se llevó a cabo en octubre/noviembre de 2006 con reuniones de seguimiento anuales a partir de entonces. Desde la CMSI, el término "gobernanza de Internet" se ha ampliado más allá de las preocupaciones técnicas estrechas para incluir una gama más amplia de cuestiones de política relacionadas con Internet.

Tim Berners-Lee, inventor de la web, estaba cada vez más preocupado por las amenazas al futuro de la web y en noviembre de 2009 en el IGF en Washington DC lanzó la World Wide Web Foundation (WWWF) para hacer una campaña para hacer de la web una herramienta segura y empoderadora para el bien de la humanidad con acceso a todos. En noviembre de 2019, en el IGF de Berlín, Berners-Lee y la WWWF lanzaron el Contrato para la Web, una iniciativa de campaña para persuadir a gobiernos, empresas y ciudadanos a comprometerse con nueve principios para detener el "uso indebido" con la advertencia "Si no actuamos ahora, y actuamos juntos, para evitar que la web sea mal utilizada por aquellos que quieren explotar, dividir y socavar, corremos el riesgo de desperdiciar" (su potencial para el bien).

Politización de Internet

Debido a su prominencia e inmediatez como medio efectivo de comunicación masiva, Internet también se ha politizado más a medida que ha ido creciendo. Esto ha llevado, a su vez, a discursos y actividades que antes se habrían desarrollado de otra manera, migrando a ser mediados por internet.

Los ejemplos incluyen actividades políticas como protestas públicas y captación de apoyo y votos, pero también:

  • La difusión de ideas y opiniones;
  • Reclutamiento de seguidores y "reunión" de miembros del público, para ideas, productos y causas;
  • Proporcionar, distribuir y compartir ampliamente información que podría considerarse delicada o relacionada con la denuncia de irregularidades (y los esfuerzos de países específicos para evitar esto mediante la censura);
  • Actividad delictiva y terrorismo (y el uso resultante de la aplicación de la ley, junto con su facilitación por la vigilancia masiva);
  • Noticias falsas con motivaciones políticas.

Neutralidad de la red

El 23 de abril de 2014, se informó que la Comisión Federal de Comunicaciones (FCC) estaba considerando una nueva regla que permitiría a los proveedores de servicios de Internet ofrecer a los proveedores de contenido una vía más rápida para enviar contenido, revirtiendo así su posición anterior de neutralidad de la red. Una posible solución a los problemas de neutralidad de la red puede ser la banda ancha municipal, según la profesora Susan Crawford, experta legal y tecnológica de la Facultad de Derecho de Harvard. El 15 de mayo de 2014, la FCC decidió considerar dos opciones con respecto a los servicios de Internet: primero, permitir carriles de banda ancha rápidos y lentos, comprometiendo así la neutralidad de la red; y segundo, reclasificar la banda ancha como un servicio de telecomunicaciones, preservando así la neutralidad de la red.El 10 de noviembre de 2014, el presidente Obama recomendó a la FCC reclasificar el servicio de Internet de banda ancha como un servicio de telecomunicaciones para preservar la neutralidad de la red. El 16 de enero de 2015, los republicanos presentaron una legislación, en la forma de un proyecto de ley de discusión de recursos humanos en el Congreso de EE. UU., que hace concesiones a la neutralidad de la red pero prohíbe que la FCC logre el objetivo o promulgue cualquier regulación adicional que afecte a los proveedores de servicios de Internet (ISP). El 31 de enero de 2015, AP News informó que la FCC presentará la noción de aplicar ("con algunas salvedades") el Título II (operador común) de la Ley de Comunicaciones de 1934 a Internet en una votación prevista para el 26 de febrero de 2015.La adopción de esta noción reclasificaría el servicio de Internet de uno de información a uno de telecomunicaciones y, según Tom Wheeler, presidente de la FCC, garantizaría la neutralidad de la red. Se espera que la FCC haga cumplir la neutralidad de la red en su voto, según The New York Times.

El 26 de febrero de 2015, la FCC falló a favor de la neutralidad de la red mediante la aplicación del Título II (operador común) de la Ley de Comunicaciones de 1934 y la Sección 706 de la Ley de Telecomunicaciones de 1996 a Internet. El presidente de la FCC, Tom Wheeler, comentó: "Este no es más un plan para regular Internet que la Primera Enmienda es un plan para regular la libertad de expresión. Ambos representan el mismo concepto".

El 12 de marzo de 2015, la FCC publicó los detalles específicos de las reglas de neutralidad de la red. El 13 de abril de 2015, la FCC publicó la regla final sobre sus nuevas regulaciones de "Neutralidad de la red".

El 14 de diciembre de 2017, la FCC revocó su decisión del 12 de marzo de 2015 por 3 a 2 votos con respecto a las reglas de neutralidad de la red.

Uso y cultura

Correo electrónico y Usenet

El correo electrónico a menudo ha sido llamado la aplicación asesina de Internet. Es anterior a Internet y fue una herramienta crucial en su creación. El correo electrónico comenzó en 1965 como una forma de comunicación para múltiples usuarios de una computadora central de tiempo compartido. Aunque la historia no está documentada, entre los primeros sistemas en tener una instalación de este tipo se encuentran System Development Corporation (SDC) Q32 y Compatible Time-Sharing System (CTSS) en el MIT.

La red informática ARPANET hizo una gran contribución a la evolución del correo electrónico. Un intersistema experimental transfirió correo en ARPANET poco después de su creación. En 1971, Ray Tomlinson creó lo que se convertiría en el formato estándar de direccionamiento de correo electrónico de Internet, utilizando el signo @ para separar los nombres de los buzones de los nombres de host.

Se desarrollaron varios protocolos para entregar mensajes entre grupos de computadoras de tiempo compartido a través de sistemas de transmisión alternativos, como UUCP y el sistema de correo electrónico VNET de IBM. El correo electrónico podría transmitirse de esta manera entre una serie de redes, incluidas ARPANET, BITNET y NSFNET, así como a hosts conectados directamente a otros sitios a través de UUCP. Ver la historia del protocolo SMTP.

Además, UUCP permitió la publicación de archivos de texto que muchos otros podían leer. El software de noticias desarrollado por Steve Daniel y Tom Truscott en 1979 se utilizó para distribuir noticias y mensajes similares a los de un tablón de anuncios. Esto se convirtió rápidamente en grupos de discusión, conocidos como grupos de noticias, sobre una amplia gama de temas. En ARPANET y NSFNET, se formarían grupos de discusión similares a través de listas de correo, discutiendo tanto cuestiones técnicas como temas más centrados en la cultura (como la ciencia ficción, discutida en la lista de correo de sflovers).

Durante los primeros años de Internet, el correo electrónico y mecanismos similares también fueron fundamentales para permitir que las personas accedieran a recursos que no estaban disponibles debido a la ausencia de conectividad en línea. UUCP se usaba a menudo para distribuir archivos usando los grupos 'alt.binary'. Además, las puertas de enlace de correo electrónico FTP permitieron que las personas que vivían fuera de los EE. UU. y Europa descargaran archivos usando comandos ftp escritos dentro de los mensajes de correo electrónico. El archivo fue codificado, fragmentado y enviado por correo electrónico; el receptor tuvo que volver a ensamblarlo y decodificarlo más tarde, y era la única forma en que las personas que vivían en el extranjero podían descargar elementos como las versiones anteriores de Linux utilizando las lentas conexiones de acceso telefónico disponibles en ese momento. Después de la popularización de la Web y el protocolo HTTP, estas herramientas fueron abandonadas lentamente.

Compartición de archivos

El intercambio de recursos o archivos ha sido una actividad importante en las redes informáticas desde mucho antes de que se estableciera Internet y se admitía de diversas formas, incluidos los sistemas de tablones de anuncios (1978), Usenet (1980), Kermit (1981) y muchos otros. El Protocolo de transferencia de archivos (FTP) para uso en Internet se estandarizó en 1985 y todavía se usa en la actualidad. Se desarrolló una variedad de herramientas para facilitar el uso de FTP ayudando a los usuarios a descubrir archivos que podrían querer transferir, incluido el servidor de información de área amplia (WAIS) en 1991, Gopher en 1991, Archie en 1991, Veronica en 1992, Jughead en 1993, Internet Relay Chat (IRC) en 1988 y, finalmente, la World Wide Web (WWW) en 1991 con directorios web y motores de búsqueda web.

En 1999, Napster se convirtió en el primer sistema de intercambio de archivos punto a punto. Napster utilizó un servidor central para la indexación y el descubrimiento de pares, pero el almacenamiento y la transferencia de archivos estaban descentralizados. Siguieron una variedad de programas y servicios para compartir archivos punto a punto con diferentes niveles de descentralización y anonimato, incluidos: Gnutella, eDonkey2000 y Freenet en 2000, FastTrack, Kazaa, Limewire y BitTorrent en 2001, y Poisoned en 2003.

Todas estas herramientas tienen un propósito general y se pueden usar para compartir una amplia variedad de contenido, pero los usos principales son compartir archivos de música, software y películas y videos posteriores. Y aunque parte de este intercambio es legal, grandes porciones no lo son. Las demandas y otras acciones legales hicieron que Napster en 2001, eDonkey2000 en 2005, Kazaa en 2006 y Limewire en 2010 cerraran o reenfocaran sus esfuerzos. The Pirate Bay, fundado en Suecia en 2003, continúa a pesar de un juicio y apelación en 2009 y 2010 que resultó en penas de cárcel y grandes multas para varios de sus fundadores. El intercambio de archivos sigue siendo polémico y controvertido con cargos de robo de propiedad intelectual por un lado y cargos de censura por el otro.

Servicios de alojamiento de archivos

El alojamiento de archivos permitió a las personas expandir los discos duros de sus computadoras y "alojar" sus archivos en un servidor. La mayoría de los servicios de alojamiento de archivos ofrecen almacenamiento gratuito, así como una mayor cantidad de almacenamiento por una tarifa. Estos servicios han ampliado en gran medida Internet para uso comercial y personal.

Google Drive, lanzado el 24 de abril de 2012, se ha convertido en el servicio de alojamiento de archivos más popular. Google Drive permite a los usuarios almacenar, editar y compartir archivos consigo mismos y con otros usuarios. Esta aplicación no solo permite editar, alojar y compartir archivos. También actúa como los propios programas de oficina de acceso gratuito de Google, como Google Docs, Google Slides y Google Sheets. Esta aplicación sirvió como una herramienta útil para profesores y estudiantes universitarios, así como para aquellos que necesitan almacenamiento en la nube.

Dropbox, lanzado en junio de 2007, es un servicio de alojamiento de archivos similar que permite a los usuarios guardar todos sus archivos en una carpeta en su computadora, que está sincronizada con los servidores de Dropbox. Esto difiere de Google Drive en que no está basado en un navegador web. Ahora, Dropbox trabaja para mantener a los trabajadores y los archivos sincronizados y eficientes.

Mega, con más de 200 millones de usuarios, es un sistema de comunicación y almacenamiento encriptado que ofrece a los usuarios almacenamiento gratuito y pago, con énfasis en la privacidad. Siendo tres de los servicios de alojamiento de archivos más grandes, Google Drive, Dropbox y Mega representan las ideas y valores centrales de estos servicios.

Piratería en línea

La primera forma de piratería en línea comenzó con un servicio de intercambio de música P2P (peer to peer) llamado Napster, lanzado en 1999. Sitios como LimeWire, The Pirate Bay y BitTorrent permitieron que cualquier persona participara en la piratería en línea, lo que generó ondas en la industria de los medios.. Con la piratería en línea se produjo un cambio en la industria de los medios en su conjunto.

Teléfonos móviles e Internet

El tráfico global total de datos móviles alcanzó los 588 exabytes durante 2020, un aumento de 150 veces con respecto a los 3,86 exabytes/año de 2010. Más recientemente, los teléfonos inteligentes representaron el 95 % de este tráfico de datos móviles y el video representó el 66 % por tipo de datos. El tráfico móvil viaja por radiofrecuencia a la torre de telefonía celular más cercana y su estación base, donde la señal de radio se convierte en una señal óptica que se transmite a través de sistemas de redes ópticas de alta capacidad que transmiten la información a los centros de datos. Las redes troncales ópticas permiten gran parte de este tráfico, así como una serie de servicios móviles emergentes que incluyen Internet de las cosas, realidad virtual 3D, juegos y vehículos autónomos. La aplicación de telefonía móvil más popular es la de mensajes de texto, de los cuales se registraron 2,1 billones de mensajes en 2020.El fenómeno de los mensajes de texto comenzó el 3 de diciembre de 1992 cuando Neil Papworth envió el primer mensaje de texto de "Feliz Navidad" a través de una red de telefonía celular comercial al director general de Vodafone.

El primer teléfono móvil con conectividad a Internet fue el Nokia 9000 Communicator, lanzado en Finlandia en 1996. La viabilidad del acceso a servicios de Internet en teléfonos móviles fue limitada hasta que los precios de ese modelo bajaron y los proveedores de red comenzaron a desarrollar sistemas y servicios convenientemente accesibles en Los telefonos. NTT DoCoMo en Japón lanzó el primer servicio de Internet móvil, i-mode, en 1999 y esto se considera el nacimiento de los servicios de Internet para teléfonos móviles. En 2001, se lanzó en Estados Unidos el sistema de correo electrónico para teléfonos móviles de Research in Motion (ahora BlackBerry Limited) para su producto BlackBerry. Para hacer un uso eficiente de la pantalla pequeña y el teclado diminuto y la operación con una sola mano típica de los teléfonos móviles, se creó un modelo de red y documento específico para dispositivos móviles, el Protocolo de aplicación inalámbrica (WAP). La mayoría de los servicios de Internet para dispositivos móviles funcionan con WAP. El crecimiento de los servicios de telefonía móvil fue inicialmente un fenómeno principalmente asiático con Japón, Corea del Sur y Taiwán pronto descubriendo que la mayoría de sus usuarios de Internet accedían a los recursos por teléfono en lugar de por PC.Le siguieron los países en desarrollo, India, Sudáfrica, Kenia, Filipinas y Pakistán informaron que la mayoría de sus usuarios domésticos accedían a Internet desde un teléfono móvil en lugar de una PC. El uso de Internet en Europa y América del Norte estuvo influenciado por una gran base instalada de computadoras personales, y el crecimiento del acceso a Internet por teléfono móvil fue más gradual, pero alcanzó niveles de penetración nacional del 20% al 30% en la mayoría de los países occidentales. El cruce se produjo en 2008, cuando más dispositivos de acceso a Internet eran teléfonos móviles que ordenadores personales. En muchas partes del mundo en desarrollo, la proporción es de 10 usuarios de teléfonos móviles por cada usuario de PC.

Crecimiento de la demanda

El tráfico global de Internet continúa creciendo a un ritmo acelerado, aumentando un 23 % entre 2020 y 2021, cuando el número de usuarios activos de Internet alcanzó los 4660 millones de personas, lo que representa la mitad de la población mundial. Se prevé que la demanda adicional de datos y la capacidad para satisfacer esta demanda aumenten a 717 terabits por segundo en 2021. Esta capacidad se deriva de los sistemas de amplificación óptica y WDM que son la base común de prácticamente todas las áreas metropolitanas, regionales, nacionales e internacionales. y redes de telecomunicaciones submarinas. Estos sistemas de redes ópticas se han instalado a lo largo de los 5 mil millones de kilómetros de líneas de fibra óptica desplegadas en todo el mundo.Se espera un crecimiento continuo en el tráfico en el futuro previsible a partir de una combinación de nuevos usuarios, una mayor adopción de teléfonos móviles, conexiones de máquina a máquina, hogares conectados, dispositivos 5G y la creciente necesidad de servicios en la nube e Internet como Amazon, Facebook, Apple Música y YouTube.

Historiografía

Existen problemas casi insuperables al proporcionar una historiografía del desarrollo de Internet. El proceso de digitalización representa un doble desafío tanto para la historiografía en general como, en particular, para la investigación en comunicación histórica. Una idea de la dificultad de documentar los primeros desarrollos que condujeron a Internet se puede extraer de la cita:

"El período de Arpanet está algo bien documentado porque la corporación a cargo, BBN, dejó un registro físico. Al pasar a la era de NSFNET, se convirtió en un proceso extraordinariamente descentralizado. El registro existe en los sótanos de las personas, en los armarios... Gran parte de lo que sucedió se hizo verbalmente y sobre la base de la confianza individual".—Doug  Gale (2007)

Contenido relacionado

Teleimpresora

Un teleprinter es un dispositivo electromecánico que se puede utilizar para enviar y recibir mensajes escritos a través de varios canales de comunicación...

999 (teléfono de emergencia)

999 es un número de teléfono de emergencia oficial en varios países que permite a la persona que llama ponerse en contacto con los servicios de emergencia...

Sentina

La sentina de un barco o embarcación es la parte del casco que descansaría en el suelo si la embarcación no estuviera sostenida por agua. El "giro de...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save