Red de área de internet

Compartir Imprimir Citar

Una red de área de Internet (IAN) es un concepto para una red de comunicaciones que conecta puntos finales de voz y datos dentro de un entorno de nube a través de IP, reemplazando una red de área local (LAN) existente, una red de área amplia (WAN) o la red telefónica pública conmutada (RTPC).

Visión general

Considerado por los proponentes como el modelo de red del futuro, una IAN conecta puntos finales de forma segura a través de la Internet pública, para que puedan comunicarse e intercambiar información y datos sin estar atados a una ubicación física.

A diferencia de una LAN, que interconecta computadoras en un área limitada, como un hogar, una escuela, un laboratorio de computación o un edificio de oficinas, o una WAN, que es una red que cubre un área amplia, como cualquier red de telecomunicaciones que une áreas metropolitanas, regionales, o fronteras nacionales, utilizando transportes de red privados o públicos, la IAN elimina un perfil geográfico para la red por completo porque las aplicaciones y los servicios de comunicaciones se han virtualizado. Los terminales solo deben conectarse a través de una conexión de banda ancha a través de Internet.

Alojada en la nube por un proveedor de servicios administrados, una plataforma IAN ofrece a los usuarios acceso seguro a la información desde cualquier lugar, en cualquier momento, a través de una conexión a Internet. Los usuarios también tienen acceso a los servicios de telefonía, correo de voz, correo electrónico y fax desde cualquier terminal conectado. Para las empresas, el modelo alojado reduce los gastos de TI y comunicaciones, protege contra la pérdida de datos y el tiempo de inactividad por desastres, al tiempo que obtiene un mayor retorno de los recursos invertidos a través de una mayor productividad de los empleados y la reducción de los costos de telecomunicaciones.

Historia

La IAN tiene sus raíces en el auge de la computación en la nube, cuyo concepto subyacente se remonta a la década de 1950; cuando los mainframes a gran escala estuvieron disponibles en la academia y las corporaciones, accesibles a través de clientes ligeros y computadoras terminales. Debido a que era costoso comprar un mainframe, se volvió importante encontrar formas de obtener el mayor retorno de la inversión en ellos, permitiendo que múltiples usuarios compartan tanto el acceso físico a la computadora desde múltiples terminales como el tiempo de CPU. eliminando los períodos de inactividad, lo que se conoció en la industria como tiempo compartido.

La creciente demanda y uso de computadoras en universidades y laboratorios de investigación a fines de la década de 1960 generó la necesidad de proporcionar interconexiones de alta velocidad entre los sistemas informáticos. Un informe de 1970 del Lawrence Radiation Laboratory que detalla el crecimiento de su red "Octopus" dio una buena indicación de la situación.

A medida que las computadoras se hicieron más frecuentes, los científicos y tecnólogos exploraron formas de hacer que la potencia informática a gran escala esté disponible para más usuarios a través del tiempo compartido, experimentando con algoritmos para proporcionar el uso óptimo de la infraestructura, la plataforma y las aplicaciones con acceso prioritario a la CPU y eficiencia para los usuarios finales.

John McCarthy opinó en la década de 1960 que "algún día la computación puede organizarse como una utilidad pública". Se exploraron a fondo casi todas las características modernas de la computación en la nube (provisión elástica, proporcionada como una utilidad, en línea, ilusión de suministro infinito), la comparación con la industria eléctrica y el uso de formas públicas, privadas, gubernamentales y comunitarias. en el libro de Douglas Parkhill de 1966, The Challenge of the Computer Utility. Otros académicos han demostrado que las raíces de la computación en la nube se remontan a la década de 1950 cuando el científico Herb Grosch (el autor de la ley de Grosch) postuló que el mundo entero operaría en terminales tontas alimentadas por alrededor de 15 grandes centros de datos.Debido al costo de estas poderosas computadoras, muchas corporaciones y otras entidades podrían aprovechar la capacidad informática a través del tiempo compartido y varias organizaciones, como GEISCO de GE, la subsidiaria de IBM The Service Bureau Corporation (SBC, fundada en 1957), Tymshare (fundada en 1966), National CSS (fundada en 1967 y comprada por Dun & Bradstreet en 1979), Dial Data (comprada por Tymshare en 1968) y Bolt, Beranek and Newman (BBN) comercializaron el tiempo compartido como una empresa comercial.

El desarrollo de Internet de estar centrado en documentos a través de datos semánticos hacia más y más servicios se describió como "Web dinámica". Esta contribución se centró en particular en la necesidad de mejores metadatos capaces de describir no solo los detalles de implementación sino también los detalles conceptuales de las aplicaciones basadas en modelos.

En la década de 1990, las empresas de telecomunicaciones que anteriormente ofrecían principalmente circuitos de datos punto a punto dedicados, comenzaron a ofrecer servicios de red privada virtual (VPN) con una calidad de servicio comparable pero a un costo mucho menor. Al cambiar el tráfico para equilibrar la utilización como mejor les pareciera, pudieron optimizar el uso general de la red. El símbolo de la nube se utilizó para señalar el punto de demarcación entre lo que era responsabilidad del proveedor y lo que era responsabilidad de los usuarios. La computación en la nube amplía este límite para cubrir los servidores, así como la infraestructura de la red.

Después de la burbuja de las puntocom, Amazon desempeñó un papel clave en el desarrollo de la computación en la nube al modernizar sus centros de datos que, como la mayoría de las redes informáticas, usaban tan solo el 10 % de su capacidad en un momento dado, solo para dejar espacio para picos ocasionales. Después de descubrir que la nueva arquitectura de la nube dio como resultado mejoras significativas en la eficiencia interna por medio de las cuales los "equipos de dos pizzas" pequeños y rápidos (equipos lo suficientemente pequeños como para ser alimentados con dos pizzas) podían agregar nuevas funciones más rápida y fácilmente, Amazon lanzó un nuevo producto. esfuerzo de desarrollo para proporcionar computación en la nube a clientes externos, y lanzó Amazon Web Services (AWS) sobre una base de computación de servicios públicos en 2006.

A principios de 2008, Eucalyptus se convirtió en la primera plataforma de código abierto compatible con la API de AWS para implementar nubes privadas. A principios de 2008, OpenNebula, mejorado en el proyecto financiado por la Comisión Europea RESERVOIR, se convirtió en el primer software de código abierto para implementar nubes privadas e híbridas, y para la federación de nubes. En el mismo año, los esfuerzos se centraron en proporcionar garantías de calidad de servicio (como lo requieren las aplicaciones interactivas en tiempo real) a las infraestructuras basadas en la nube, en el marco del proyecto IRMOS financiado por la Comisión Europea, dando como resultado un entorno de nube en tiempo real..A mediados de 2008, Gartner vio una oportunidad para que la computación en la nube "dara forma a la relación entre los consumidores de servicios de TI, los que usan los servicios de TI y los que los venden" y observó que "las organizaciones están pasando de los activos de hardware y software propiedad de la empresa a modelos basados ​​en servicios por uso" para que el "cambio proyectado a la computación... resulte en un crecimiento dramático en los productos de TI en algunas áreas y reducciones significativas en otras áreas".

En 2011, RESERVOIR se estableció en Europa para crear tecnologías de código abierto que permitieran a los proveedores de la nube crear una nube avanzada con el equilibrio de las cargas de trabajo, la reducción de costos y el traslado de las cargas de trabajo entre ubicaciones geográficas a través de una federación de nubes. También en 2011, IBM anunció el marco de Informática más inteligente para respaldar un planeta más inteligente. Entre los diversos componentes de la base de Smarter Computing, la computación en la nube es una pieza fundamental.

Ahora, la disponibilidad ubicua de redes de alta capacidad, computadoras y dispositivos de almacenamiento de bajo costo, así como la adopción generalizada de virtualización de hardware, arquitectura orientada a servicios, computación autónoma y de utilidades han llevado a un tremendo crecimiento en la computación en la nube. Los mundos virtuales y las arquitecturas peer-to-peer han allanado el camino para el concepto de IAN.

iAreaNet fue fundada en 1999 por el CEO James DeCrescenzo como una empresa llamada Internet Area Network, dedicada a proporcionar almacenamiento de datos fuera del sitio y prevención de desastres antes de que la nube existiera en una forma comercial ampliamente implementada. Fue pionera en la idea de una IAN. Desde entonces, ha fortalecido sus operaciones y ha realizado importantes inversiones en el desarrollo de una infraestructura poderosa para proporcionar a las empresas una variedad de soluciones tecnológicas, incluida la iAreaOffice pendiente de patente, que comercializa el concepto de IAN al eliminar la necesidad de LAN tradicional, WAN o sistema telefónico para comunicaciones comerciales.