Modelo Peer-to-peer (P2P)

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Las redes Peer-to-peer (P2P), literalmente par-con-par, es una arquitectura de aplicación distribuida que divide tareas o cargas de trabajo entre pares. Los pares son participantes igualmente privilegiados y equipotentes en la red. Se dice que forman una red de nodos peer-to-peer.

Los pares ponen una parte de sus recursos, como la potencia de procesamiento, el almacenamiento en disco o el ancho de banda de la red, directamente a disposición de otros participantes de la red, sin necesidad de una coordinación central por parte de servidores o hosts estables. Los pares son tanto proveedores como consumidores de recursos, en contraste con el modelo tradicional cliente-servidor en el que se divide el consumo y el suministro de recursos.

Si bien los sistemas P2P se habían utilizado anteriormente en muchos dominios de aplicaciones, la arquitectura se popularizó con el sistema de intercambio de archivos Napster, lanzado originalmente en 1999. El concepto inspiró nuevas estructuras y filosofías en muchas áreas de la interacción humana. En tales contextos sociales, peer-to-peer como meme se refiere a la red social igualitaria que ha surgido en toda la sociedad, habilitada por las tecnologías de Internet en general.

Desarrollo historico

Si bien los sistemas P2P se habían utilizado anteriormente en muchos dominios de aplicaciones, el concepto fue popularizado por los sistemas de intercambio de archivos, como la aplicación para compartir música Napster (lanzada originalmente en 1999). El movimiento peer-to-peer permitió a millones de usuarios de Internet conectarse "directamente, formando grupos y colaborando para convertirse en motores de búsqueda, supercomputadoras virtuales y sistemas de archivos creados por los usuarios". El concepto básico de la computación peer-to-peer se concibió en debates anteriores sobre sistemas de software y redes, y se remonta a los principios establecidos en la primera Solicitud de comentarios, RFC 1.

La visión de Tim Berners-Lee para la World Wide Web se acercaba a una red P2P en el sentido de que asumía que cada usuario de la web sería un editor y colaborador activo, que crearía y enlazaría contenido para formar una "red" de enlaces interconectados. La Internet temprana era más abierta que la actual, donde dos máquinas conectadas a Internet podían enviarse paquetes entre sí sin firewalls y otras medidas de seguridad. Esto contrasta con la estructura similar a la transmisión de la web que se ha desarrollado a lo largo de los años. Como precursor de Internet, ARPANET fue una exitosa red cliente-servidor donde "cada nodo participante podía solicitar y servir contenido". Sin embargo, ARPANET no estaba autoorganizado y carecía de la capacidad de "proporcionar cualquier medio para el enrutamiento basado en el contenido o el contexto más allá del 'simple'

Por lo tanto, se estableció Usenet, un sistema de mensajería distribuida que a menudo se describe como una de las primeras arquitecturas de igual a igual. Fue desarrollado en 1979 como un sistema que aplica un modelo de control descentralizado. El modelo básico es un modelo cliente-servidor desde la perspectiva del usuario o del cliente que ofrece un enfoque de autoorganización para los servidores de grupos de noticias. Sin embargo, los servidores de noticias se comunican entre sí como pares para propagar los artículos de noticias de Usenet en todo el grupo de servidores de la red. La misma consideración se aplica al correo electrónico SMTP en el sentido de que la red central de transmisión de correo electrónico de los agentes de transferencia de correo tiene un carácter de igual a igual, mientras que la periferia de los clientes de correo electrónico y sus conexiones directas es estrictamente una relación cliente-servidor.

En mayo de 1999, con millones de personas más en Internet, Shawn Fanning presentó la aplicación de música y uso compartido de archivos llamada Napster. Napster fue el comienzo de las redes peer-to-peer, tal como las conocemos hoy, donde "los usuarios participantes establecen una red virtual, completamente independiente de la red física, sin tener que obedecer a ninguna autoridad ni restricción administrativa".

Arquitectura

Una red peer-to-peer está diseñada en torno a la noción de nodos iguales que funcionan simultáneamente como "clientes" y "servidores" para los otros nodos de la red. Este modelo de organización de la red difiere del modelo cliente-servidor en el que la comunicación suele ser hacia y desde un servidor central. Un ejemplo típico de una transferencia de archivos que utiliza el modelo cliente-servidor es el servicio de Protocolo de transferencia de archivos (FTP) en el que los programas del cliente y del servidor son distintos: los clientes inician la transferencia y los servidores satisfacen estas solicitudes.

Enrutamiento y descubrimiento de recursos

Las redes punto a punto generalmente implementan algún tipo de red de superposición virtual además de la topología de la red física, donde los nodos de la superposición forman un subconjunto de los nodos de la red física. Los datos aún se intercambian directamente a través de la red TCP/IP subyacente, pero en la capa de aplicación, los pares pueden comunicarse entre sí directamente, a través de los enlaces lógicos superpuestos (cada uno de los cuales corresponde a una ruta a través de la red física subyacente). Las superposiciones se utilizan para la indexación y el descubrimiento de pares, y hacen que el sistema P2P sea independiente de la topología de la red física. Según cómo se vinculan los nodos entre sí dentro de la red superpuesta y cómo se indexan y ubican los recursos, podemos clasificar las redes como no estructuradas o estructuradas.(o como un híbrido entre los dos).

Redes no estructuradas

Las redes peer-to-peer no estructuradas no imponen una estructura particular en la red superpuesta por diseño, sino que están formadas por nodos que forman conexiones aleatorias entre sí. (Gnutella, Gossip y Kazaa son ejemplos de protocolos P2P no estructurados).

Debido a que no se les impone una estructura global, las redes no estructuradas son fáciles de construir y permiten optimizaciones localizadas en diferentes regiones de la superposición. Además, debido a que el papel de todos los pares en la red es el mismo, las redes no estructuradas son muy sólidas frente a las altas tasas de "abandono", es decir, cuando un gran número de pares se unen y abandonan la red con frecuencia.

Sin embargo, las principales limitaciones de las redes no estructuradas también surgen de esta falta de estructura. En particular, cuando un par quiere encontrar un dato deseado en la red, la consulta de búsqueda debe inundarse a través de la red para encontrar tantos pares como sea posible que compartan los datos. La inundación provoca una cantidad muy alta de tráfico de señalización en la red, usa más CPU/memoria (al requerir que todos los pares procesen todas las consultas de búsqueda) y no garantiza que las consultas de búsqueda siempre se resuelvan. Además, dado que no existe una correlación entre un par y el contenido que gestiona, no hay garantía de que la inundación encuentre un par que tenga los datos deseados. Es probable que el contenido popular esté disponible en varios pares y que cualquier compañero que lo busque encuentre lo mismo.

Redes estructuradas

En las redes punto a punto estructuradas, la superposición se organiza en una topología específica, y el protocolo garantiza que cualquier nodo pueda buscar de manera eficiente un archivo/recurso en la red, incluso si el recurso es extremadamente raro.

El tipo más común de redes P2P estructuradas implementa una tabla hash distribuida (DHT), en la que se usa una variante de hashing consistente para asignar la propiedad de cada archivo a un par en particular. Esto permite que los pares busquen recursos en la red utilizando una tabla hash: es decir, los pares (clave, valor) se almacenan en el DHT, y cualquier nodo participante puede recuperar de manera eficiente el valor asociado con una clave dada.

Sin embargo, para enrutar el tráfico de manera eficiente a través de la red, los nodos en una superposición estructurada deben mantener listas de vecinos que satisfagan criterios específicos. Esto los hace menos robustos en redes con una alta tasa de abandono (es decir, con un gran número de nodos que se unen y abandonan la red con frecuencia). La evaluación más reciente de las soluciones de descubrimiento de recursos P2P bajo cargas de trabajo reales ha señalado varios problemas en las soluciones basadas en DHT, como el alto costo de la publicidad/descubrimiento de recursos y el desequilibrio de carga estática y dinámica.

Las redes distribuidas notables que usan DHT incluyen Tixati, una alternativa al rastreador distribuido de BitTorrent, la red Kad, la botnet Storm y YaCy. Algunos proyectos de investigación destacados incluyen el proyecto Chord, Kademlia, la utilidad de almacenamiento PAST, P-Grid, una red de superposición emergente y autoorganizada, y el sistema de distribución de contenido CoopNet. Las redes basadas en DHT también se han utilizado ampliamente para lograr un descubrimiento de recursos eficiente para los sistemas de computación en cuadrícula, ya que ayudan en la gestión de recursos y la programación de aplicaciones.

Modelos híbridos

Los modelos híbridos son una combinación de modelos peer-to-peer y cliente-servidor. Un modelo híbrido común es tener un servidor central que ayude a los compañeros a encontrarse. Spotify fue un ejemplo de modelo híbrido [hasta 2014]. Hay una variedad de modelos híbridos, todos los cuales hacen concesiones entre la funcionalidad centralizada proporcionada por una red estructurada de servidor/cliente y la igualdad de nodos que brindan las redes no estructuradas puras de igual a igual. Actualmente, los modelos híbridos tienen un mejor rendimiento que las redes no estructuradas puras o las redes estructuradas puras porque ciertas funciones, como la búsqueda, requieren una funcionalidad centralizada pero se benefician de la agregación descentralizada de nodos proporcionada por las redes no estructuradas.

Sistema de distribución de contenido CoopNet

CoopNet (Redes cooperativas) fue un sistema propuesto para descargar servicios a pares que han descargado contenido recientemente, propuesto por los informáticos Venkata N. Padmanabhan y Kunwadee Sripanidkulchai, que trabajan en Microsoft Research y la Universidad Carnegie Mellon.Cuando un servidor experimenta un aumento en la carga, redirige a los pares entrantes a otros pares que han aceptado duplicar el contenido, descargando así el saldo del servidor. Toda la información se conserva en el servidor. Este sistema aprovecha el hecho de que el cuello de botella es más probable en el ancho de banda saliente que en la CPU, de ahí su diseño centrado en el servidor. Asigna pares a otros pares que están 'cercanos en IP' a sus vecinos [mismo rango de prefijo] en un intento de usar la localidad. Si se encuentran varios pares con el mismo archivo, indica que el nodo elige el más rápido de sus vecinos. La transmisión de medios se transmite haciendo que los clientes almacenen en caché la transmisión anterior y luego la transmitan por partes a los nuevos nodos.

Seguridad y confianza

Los sistemas peer-to-peer plantean desafíos únicos desde la perspectiva de la seguridad informática.

Como cualquier otra forma de software, las aplicaciones P2P pueden contener vulnerabilidades. Sin embargo, lo que hace que esto sea particularmente peligroso para el software P2P es que las aplicaciones peer-to-peer actúan como servidores además de clientes, lo que significa que pueden ser más vulnerables a ataques remotos.

Ataques de enrutamiento

Dado que cada nodo desempeña un papel en el enrutamiento del tráfico a través de la red, los usuarios maliciosos pueden realizar una variedad de "ataques de enrutamiento" o ataques de denegación de servicio. Los ejemplos de ataques de enrutamiento comunes incluyen "enrutamiento de búsqueda incorrecto" en el que los nodos maliciosos reenvían deliberadamente las solicitudes incorrectamente o devuelven resultados falsos, "actualizaciones de enrutamiento incorrectas" en las que los nodos maliciosos corrompen las tablas de enrutamiento de los nodos vecinos al enviarles información falsa y "partición de red de enrutamiento incorrecta". "donde cuando se unen nuevos nodos, se inician a través de un nodo malicioso, que coloca el nuevo nodo en una partición de la red que está poblada por otros nodos maliciosos.

Datos corruptos y malware

La prevalencia del malware varía entre los diferentes protocolos de igual a igual. Los estudios que analizan la propagación de malware en redes P2P encontraron, por ejemplo, que el 63 % de las solicitudes de descarga respondidas en la red gnutella contenían algún tipo de malware, mientras que solo el 3 % del contenido de OpenFT contenía malware. En ambos casos, los tres tipos de malware más comunes representaron la gran mayoría de los casos (99 % en gnutella y 65 % en OpenFT). Otro estudio que analizó el tráfico en la red Kazaa encontró que el 15% de la muestra de 500,000 archivos tomados estaban infectados por uno o más de los 365 virus informáticos diferentes que se probaron.

Los datos corruptos también se pueden distribuir en redes P2P modificando archivos que ya se están compartiendo en la red. Por ejemplo, en la red FastTrack, la RIAA logró introducir fragmentos falsos en descargas y archivos descargados (principalmente archivos MP3). Los archivos infectados con el virus RIAA quedaron inutilizables después y contenían código malicioso. También se sabe que la RIAA ha subido música y películas falsas a las redes P2P para impedir el intercambio ilegal de archivos. En consecuencia, las redes P2P de hoy han visto un enorme aumento de sus mecanismos de seguridad y verificación de archivos. El hash moderno, la verificación de fragmentos y los diferentes métodos de encriptación han hecho que la mayoría de las redes sean resistentes a casi cualquier tipo de ataque, incluso cuando partes importantes de la red respectiva han sido reemplazadas por hosts falsificados o no funcionales.

Redes informáticas resilientes y escalables

La naturaleza descentralizada de las redes P2P aumenta la solidez porque elimina el único punto de falla que puede ser inherente a un sistema basado en cliente-servidor. A medida que llegan los nodos y aumenta la demanda del sistema, la capacidad total del sistema también aumenta y la probabilidad de falla disminuye. Si un par en la red no funciona correctamente, toda la red no se ve comprometida ni dañada. Por el contrario, en una arquitectura cliente-servidor típica, los clientes comparten solo sus demandas con el sistema, pero no sus recursos. En este caso, a medida que se unen más clientes al sistema, hay menos recursos disponibles para atender a cada cliente y, si falla el servidor central, se cae toda la red.

Almacenamiento distribuido y búsqueda

Hay ventajas y desventajas en las redes P2P relacionadas con el tema de la copia de seguridad, recuperación y disponibilidad de datos. En una red centralizada, los administradores del sistema son las únicas fuerzas que controlan la disponibilidad de los archivos que se comparten. Si los administradores deciden dejar de distribuir un archivo, simplemente deben eliminarlo de sus servidores y ya no estará disponible para los usuarios. Además de dejar a los usuarios impotentes para decidir qué se distribuye en la comunidad, esto hace que todo el sistema sea vulnerable a amenazas y solicitudes del gobierno y otras fuerzas importantes. Por ejemplo, la RIAA, la MPAA y la industria del entretenimiento han presionado a YouTube para que filtre el contenido protegido por derechos de autor. Aunque las redes servidor-cliente pueden monitorear y administrar la disponibilidad del contenido, pueden tener más estabilidad en la disponibilidad del contenido que eligen alojar. Un cliente no debería tener problemas para acceder a contenido oscuro que se comparte en una red centralizada estable. Las redes P2P, sin embargo, son menos confiables para compartir archivos impopulares porque compartir archivos en una red P2P requiere que al menos un nodo en la red tenga los datos solicitados, y ese nodo debe poder conectarse al nodo que solicita los datos. En ocasiones, este requisito es difícil de cumplir porque los usuarios pueden eliminar o dejar de compartir datos en cualquier momento. son menos confiables para compartir archivos impopulares porque compartir archivos en una red P2P requiere que al menos un nodo en la red tenga los datos solicitados, y ese nodo debe poder conectarse al nodo que solicita los datos. En ocasiones, este requisito es difícil de cumplir porque los usuarios pueden eliminar o dejar de compartir datos en cualquier momento. son menos confiables para compartir archivos impopulares porque compartir archivos en una red P2P requiere que al menos un nodo en la red tenga los datos solicitados, y ese nodo debe poder conectarse al nodo que solicita los datos. En ocasiones, este requisito es difícil de cumplir porque los usuarios pueden eliminar o dejar de compartir datos en cualquier momento.

En este sentido, la comunidad de usuarios de una red P2P es completamente responsable de decidir qué contenido está disponible. Los archivos impopulares eventualmente desaparecerán y dejarán de estar disponibles a medida que más personas dejen de compartirlos. Los archivos populares, sin embargo, se distribuirán mucho y fácilmente. Los archivos populares en una red P2P en realidad tienen más estabilidad y disponibilidad que los archivos en redes centrales. En una red centralizada, una simple pérdida de conexión entre el servidor y los clientes es suficiente para causar una falla, pero en las redes P2P, las conexiones entre cada nodo deben perderse para causar una falla en el intercambio de datos. En un sistema centralizado, los administradores son responsables de todas las copias de seguridad y recuperación de datos, mientras que en los sistemas P2P, cada nodo requiere su propio sistema de copia de seguridad. Debido a la falta de autoridad central en las redes P2P,

Aplicaciones

Entrega de contenido

En las redes P2P, los clientes proporcionan y utilizan recursos. Esto significa que, a diferencia de los sistemas cliente-servidor, la capacidad de servicio de contenido de las redes peer-to-peer puede aumentar a medida que más usuarios comienzan a acceder al contenido (especialmente con protocolos como Bittorrent que requieren que los usuarios compartan, consulte un estudio de medición de rendimiento). Esta propiedad es una de las principales ventajas de usar redes P2P porque hace que los costos de instalación y funcionamiento sean muy pequeños para el distribuidor de contenido original.

Redes de intercambio de archivos

Muchas redes de intercambio de archivos punto a punto, como Gnutella, G2 y la red eDonkey, popularizaron las tecnologías punto a punto.

  • Redes de entrega de contenido punto a punto.
  • Servicios de contenido punto a punto, por ejemplo, cachés para mejorar el rendimiento, como Correli Caches
  • Publicación y distribución de software (distribución de Linux, varios juegos); a través de redes de intercambio de archivos.

Infracciones de derechos de autor

Las redes punto a punto implican la transferencia de datos de un usuario a otro sin utilizar un servidor intermedio. Las empresas que desarrollan aplicaciones P2P han estado involucradas en numerosos casos legales, principalmente en los Estados Unidos, por conflictos con la ley de derechos de autor. Dos casos importantes son Grokster vs RIAA y MGM Studios, Inc. v. Grokster, Ltd.. En el último caso, el Tribunal sostuvo por unanimidad que las empresas demandadas de intercambio de archivos entre pares Grokster y Streamcast podrían ser demandadas por inducir la infracción de derechos de autor.

Multimedia

  • Los protocolos P2PTV y PDTP.
  • Algunas aplicaciones multimedia propietarias utilizan una red de igual a igual junto con servidores de transmisión para transmitir audio y video a sus clientes.
  • Peercasting para flujos de multidifusión.
  • La Universidad Estatal de Pensilvania, el MIT y la Universidad Simon Fraser están llevando a cabo un proyecto llamado LionShare diseñado para facilitar el intercambio de archivos entre instituciones educativas de todo el mundo.
  • Osiris es un programa que permite a sus usuarios crear portales web anónimos y autónomos distribuidos a través de la red P2P.

Otras aplicaciones P2P

  • Bitcoin y otros como Ether, Nxt y Peercoin son criptomonedas digitales basadas en peer-to-peer.
  • Dat, una plataforma de publicación controlada por versiones distribuidas.
  • Filecoin es un sistema de pago digital, de código abierto, público y de criptomonedas destinado a ser un método de recuperación de datos y almacenamiento digital cooperativo basado en blockchain.
  • I2P, una red superpuesta utilizada para navegar por Internet de forma anónima.
  • A diferencia del I2P relacionado, la red Tor no es en sí misma peer-to-peer; sin embargo, puede permitir que se construyan aplicaciones peer-to-peer a través de los servicios de cebolla.
  • El Sistema de Archivos Interplanetarios (IPFS) es un protocolo y una red diseñados para crear un método peer-to-peer de contenido direccionable para almacenar y compartir el protocolo de distribución de hipermedios. Los nodos en la red IPFS forman un sistema de archivos distribuido.
  • Jami, una aplicación SIP y de chat entre pares.
  • JXTA, un protocolo peer-to-peer diseñado para la plataforma Java.
  • Netsukuku, una red comunitaria inalámbrica diseñada para ser independiente de Internet.
  • Open Garden, aplicación para compartir conexiones que comparte el acceso a Internet con otros dispositivos mediante Wi-Fi o Bluetooth.
  • Resilio Sync, una aplicación de sincronización de directorios.
  • Investigaciones como el proyecto Chord, la utilidad de almacenamiento PAST, P-Grid y el sistema de distribución de contenido CoopNet.
  • Syncthing, una aplicación de sincronización de directorios.
  • Aplicaciones Tradepal y M-commerce que potencian los mercados en tiempo real.
  • El Departamento de Defensa de EE. UU. está realizando investigaciones sobre redes P2P como parte de su estrategia moderna de guerra de redes. En mayo de 2003, Anthony Tether, entonces director de DARPA, testificó que el ejército de los Estados Unidos utiliza redes P2P.
  • WebTorrent es un cliente de torrents de transmisión P2P en JavaScript para usar en navegadores web, así como en la versión independiente de WebTorrent Desktop que une las redes sin servidor de WebTorrent y BitTorrent.
  • Microsoft en Windows 10 utiliza una tecnología de igual a igual patentada llamada "Optimización de entrega" para implementar actualizaciones del sistema operativo utilizando las PC de los usuarios finales, ya sea en la red local o en otras PC. Según el Canal 9 de Microsoft, condujo a una reducción del 30% al 50% en el uso del ancho de banda de Internet.
  • LANtastic de Artisoft fue construido como un sistema operativo peer-to-peer. Las máquinas pueden ser servidores y estaciones de trabajo al mismo tiempo.
  • Hotline Communications Hotline Client se creó como servidores descentralizados con software de seguimiento dedicado a cualquier tipo de archivos y todavía funciona hoy

Implicaciones sociales

Incentivar el intercambio de recursos y la cooperación

La cooperación entre una comunidad de participantes es clave para el éxito continuo de los sistemas P2P dirigidos a usuarios humanos ocasionales; estos alcanzan su máximo potencial solo cuando un gran número de nodos aportan recursos. Pero en la práctica actual, las redes P2P a menudo contienen una gran cantidad de usuarios que utilizan recursos compartidos por otros nodos, pero que no comparten nada (a menudo denominado "problema del aprovechado"). La carga gratuita puede tener un profundo impacto en la red y, en algunos casos, puede provocar el colapso de la comunidad. En este tipo de redes "los usuarios tienen desincentivos naturales para cooperar porque la cooperación consume sus propios recursos y puede degradar su propio desempeño".Estudiar los atributos sociales de las redes P2P es un desafío debido a las grandes poblaciones de rotación, la asimetría de interés y la identidad de costo cero. Se han implementado una variedad de mecanismos de incentivos para alentar o incluso obligar a los nodos a contribuir con recursos.

Algunos investigadores han explorado los beneficios de permitir que las comunidades virtuales se auto-organicen e introducir incentivos para el intercambio de recursos y la cooperación, argumentando que el aspecto social que falta en los sistemas P2P de hoy debe verse tanto como una meta como un medio para que las comunidades virtuales autoorganizadas puedan ser construido y fomentado. Los esfuerzos de investigación en curso para diseñar mecanismos de incentivos efectivos en los sistemas P2P, basados ​​en los principios de la teoría de juegos, están comenzando a tomar una dirección más psicológica y de procesamiento de información.

Privacidad y anonimato

Algunas redes peer-to-peer (p. ej., Freenet) ponen un gran énfasis en la privacidad y el anonimato, es decir, aseguran que el contenido de las comunicaciones esté oculto a los espías y que las identidades/ubicaciones de los participantes estén ocultas. La criptografía de clave pública se puede utilizar para proporcionar cifrado, validación de datos, autorización y autenticación de datos/mensajes. El enrutamiento cebolla y otros protocolos de red mixtos (p. ej., Tarzán) se pueden utilizar para proporcionar anonimato.

Los perpetradores de abuso sexual en vivo y otros delitos cibernéticos han utilizado plataformas peer-to-peer para llevar a cabo actividades en el anonimato.

Implicaciones políticas

Ley de propiedad intelectual e intercambio ilegal

Aunque las redes peer-to-peer se pueden utilizar para fines legítimos, los titulares de los derechos se han centrado en las redes peer-to-peer por su participación en el intercambio de material protegido por derechos de autor. Las redes punto a punto implican la transferencia de datos de un usuario a otro sin utilizar un servidor intermedio. Las empresas que desarrollan aplicaciones P2P han estado involucradas en numerosos casos legales, principalmente en los Estados Unidos, principalmente por cuestiones relacionadas con la ley de derechos de autor. Dos casos importantes son Grokster vs RIAA y MGM Studios, Inc. v. Grokster, Ltd.En ambos casos, se dictaminó que la tecnología para compartir archivos era legal siempre que los desarrolladores no tuvieran la capacidad de evitar que se compartiera el material protegido por derechos de autor. Para establecer la responsabilidad penal por la infracción de los derechos de autor en los sistemas de igual a igual, el gobierno debe probar que el acusado infringió los derechos de autor voluntariamente con el fin de obtener una ganancia financiera personal o una ventaja comercial.Las excepciones de uso justo permiten el uso limitado de material protegido por derechos de autor para descargar sin obtener el permiso de los titulares de los derechos. Estos documentos suelen ser informes de noticias o bajo las líneas de investigación y trabajo académico. Se han desarrollado controversias sobre la preocupación por el uso ilegítimo de redes peer-to-peer con respecto a la seguridad pública y la seguridad nacional. Cuando se descarga un archivo a través de una red peer-to-peer, es imposible saber quién creó el archivo o qué usuarios están conectados a la red en un momento dado. La confiabilidad de las fuentes es una amenaza potencial a la seguridad que se puede ver con los sistemas peer-to-peer.

Un estudio ordenado por la Unión Europea encontró que la descarga ilegal puede generar un aumento en las ventas generales de videojuegos porque los juegos más nuevos cobran por funciones o niveles adicionales. El documento concluyó que la piratería tuvo un impacto financiero negativo en las películas, la música y la literatura. El estudio se basó en datos autoinformados sobre compras de juegos y uso de sitios de descarga ilegal. Se tomaron medidas para eliminar los efectos de las respuestas falsas y mal recordadas.

Neutralidad de la red

Las aplicaciones peer-to-peer presentan uno de los temas centrales en la controversia de la neutralidad de la red. Se sabe que los proveedores de servicios de Internet (ISP) aceleran el tráfico de intercambio de archivos P2P debido a su alto uso de ancho de banda.En comparación con la navegación web, el correo electrónico o muchos otros usos de Internet, donde los datos solo se transfieren en intervalos breves y en cantidades relativamente pequeñas, el intercambio de archivos P2P a menudo consiste en un uso de ancho de banda relativamente alto debido a las transferencias continuas de archivos y la coordinación de red/enjambre. paquetes En octubre de 2007, Comcast, uno de los mayores proveedores de Internet de banda ancha de los Estados Unidos, comenzó a bloquear aplicaciones P2P como BitTorrent. Su razón era que P2P se usa principalmente para compartir contenido ilegal y su infraestructura no está diseñada para tráfico continuo de gran ancho de banda. Los críticos señalan que las redes P2P tienen usos legales legítimos y que esta es otra forma en que los grandes proveedores intentan controlar el uso y el contenido en Internet y dirigir a las personas hacia una arquitectura de aplicaciones basada en cliente-servidor. El modelo cliente-servidor proporciona barreras financieras de entrada a pequeños editores e individuos, y puede ser menos eficiente para compartir archivos grandes. Como reacción a esta limitación del ancho de banda, varias aplicaciones P2P comenzaron a implementar la ofuscación del protocolo, como el cifrado del protocolo BitTorrent. Las técnicas para lograr la "ofuscación de protocolos" implican la eliminación de propiedades fácilmente identificables de los protocolos, como secuencias de bytes deterministas y tamaños de paquetes, haciendo que los datos parezcan aleatorios.La solución del ISP al alto ancho de banda es el almacenamiento en caché P2P, donde un ISP almacena la parte de los archivos a los que más acceden los clientes P2P para ahorrar acceso a Internet.

La investigación actual

Los investigadores han utilizado simulaciones por computadora para ayudar a comprender y evaluar los comportamientos complejos de los individuos dentro de la red. "La investigación en red a menudo se basa en la simulación para probar y evaluar nuevas ideas. Un requisito importante de este proceso es que los resultados deben ser reproducibles para que otros investigadores puedan replicar, validar y ampliar el trabajo existente".Si la investigación no se puede reproducir, entonces se obstaculiza la oportunidad de realizar más investigaciones. "Aunque se siguen lanzando nuevos simuladores, la comunidad de investigación tiende a usar solo un puñado de simuladores de código abierto. La demanda de funciones en los simuladores, como lo muestran nuestros criterios y encuesta, es alta. Por lo tanto, la comunidad debe trabajar en conjunto para obtener estas características en software de código abierto. Esto reduciría la necesidad de simuladores personalizados y, por lo tanto, aumentaría la repetibilidad y la reputación de los experimentos".

Además de todos los hechos mencionados anteriormente, se ha trabajado en el simulador de red de código abierto ns-2. Se ha explorado un problema de investigación relacionado con la detección y el castigo de los pasajeros libres utilizando el simulador ns-2 aquí.

Contenido relacionado

Sociocibernética

La sociocibernética es una ciencia interdisciplinaria entre la sociología y la teoría general de sistemas y la cibernética. La Asociación Sociológica...

Ataque con drones

Un ataque con drones es un ataque aéreo realizado por uno o más vehículos aéreos de combate no tripulados o vehículos aéreos no tripulados comerciales...

Pagos móviles

El pago móvil también conocido como transferencia de dinero móvil generalmente se refiere a servicios de pago operados bajo regulación financiera y...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save