Filtro de internet

ImprimirCitar
Software que restringe o controla el contenido que un usuario de Internet es capaz de acceder

Un filtro de Internet es un software que restringe o controla el contenido al que puede acceder un usuario de Internet, especialmente cuando se utiliza para restringir el material enviado a través de Internet a través de Internet, correo electrónico u otros medios. El software de control de contenido determina qué contenido estará disponible o se bloqueará.

Dichas restricciones se pueden aplicar en varios niveles: un gobierno puede intentar aplicarlas en todo el país (consulte Censura de Internet), o pueden, por ejemplo, ser aplicadas por un proveedor de servicios de Internet a sus clientes, por un empleador a su personal, por una escuela a sus estudiantes, por una biblioteca a sus visitantes, por un padre a la computadora de un niño, o por un usuario individual a sus propias computadoras.

A menudo, el motivo es impedir el acceso a contenido que los propietarios de la computadora u otras autoridades pueden considerar objetables. Cuando se impone sin el consentimiento del usuario, el control de contenido puede caracterizarse como una forma de censura en Internet. Algunos software de control de contenido incluyen funciones de control de tiempo que permiten a los padres establecer la cantidad de tiempo que el niño puede pasar accediendo a Internet o jugando juegos u otras actividades informáticas.

En algunos países, dicho software es omnipresente. En Cuba, si un usuario de computadora en un cibercafé controlado por el gobierno escribe ciertas palabras, el procesador de textos o el navegador web se cierran automáticamente y una "seguridad del estado" se da aviso.

Terminología

El término "control de contenido" es utilizado en ocasiones por la CNN, la revista Playboy, el San Francisco Chronicle y The New York Times. Sin embargo, varios otros términos, incluidos "software de filtrado de contenido", "servidores proxy de filtrado", "puertas de enlace web seguras", "censorware", & #34;seguridad y control de contenido", "software de filtrado web", "software de censura de contenido" y "software de bloqueo de contenido", se utilizan con frecuencia. "Nannyware" también ha sido utilizado tanto en la comercialización de productos como por los medios de comunicación. La empresa de investigación de la industria Gartner utiliza "puerta de enlace web segura" (SWG) para describir el segmento de mercado.

Las empresas que fabrican productos que bloquean sitios web de forma selectiva no se refieren a estos productos como software de censura y prefieren términos como "filtro de Internet" o "Filtro de URL"; en el caso especializado del software diseñado específicamente para permitir a los padres controlar y restringir el acceso de sus hijos, el "software de control parental" también se usa Algunos productos registran todos los sitios a los que accede un usuario y los clasifican según el tipo de contenido para informar a un "socio de responsabilidad" de la elección de la persona, y se utiliza el término software de rendición de cuentas. Los filtros de Internet, el software de control parental y/o el software de responsabilidad también pueden combinarse en un solo producto.

Aquellos que critican dicho software, sin embargo, usan el término "censorware" libremente: considere el Proyecto Censorware, por ejemplo. El uso del término "censorware" en los editoriales que critican a los fabricantes de dicho software está muy extendido y cubre muchas variedades y aplicaciones diferentes: Xeni Jardin usó el término en un editorial del 9 de marzo de 2006 en The New York Times al hablar sobre el uso de software de filtrado fabricado en Estados Unidos. suprimir contenido en China; en el mismo mes, un estudiante de secundaria usó el término para hablar sobre la implementación de dicho software en su distrito escolar.

En general, fuera de las páginas editoriales descritas anteriormente, los periódicos tradicionales no utilizan el término "censorware" en sus informes, prefiriendo en su lugar usar términos menos abiertamente controvertidos como "filtro de contenido", "control de contenido" o "filtrado web"; The New York Times y The Wall Street Journal parecen seguir esta práctica. Por otro lado, los periódicos basados en la web como CNET usan el término tanto en contextos editoriales como periodísticos, por ejemplo, "Windows Live to Get Censorware".

Tipos de filtrado

Los filtros se pueden implementar de muchas maneras diferentes: por software en una computadora personal, a través de una infraestructura de red como servidores proxy, servidores DNS o firewalls que brindan acceso a Internet. Ninguna solución brinda una cobertura completa, por lo que la mayoría de las empresas implementan una combinación de tecnologías para lograr el control de contenido adecuado de acuerdo con sus políticas.

Filtros basados en navegadores
La solución de filtrado de contenido basado en navegadores es la solución más ligera para hacer el filtrado de contenido y se implementa mediante una extensión del navegador de terceros.
Filtros de correo electrónico
Los filtros de correo electrónico actúan sobre la información contenida en el cuerpo de correo, en los encabezados de correo como el remitente y el sujeto, y adjuntos de correo electrónico para clasificar, aceptar o rechazar mensajes. Los filtros bayesianos, un tipo de filtro estadístico, se utilizan comúnmente. Tanto los filtros basados en cliente como servidor están disponibles.
Filtros lado cliente
Este tipo de filtro se instala como software en cada ordenador donde se requiere filtrado. Este filtro normalmente puede ser gestionado, desactivado o desinstalado por cualquiera que tenga privilegios de nivel administrativo en el sistema. Un filtro del lado del cliente basado en DNS sería crear un agujero DNS, como Pi-Hole.
ISPs limitadas por contenido (o filtradas)
Contenido limitado (o filtrado) Los ISP son proveedores de servicios de Internet que ofrecen acceso sólo a una porción fija de contenido de Internet sobre una opción de entrada o una base obligatoria. Cualquier persona que se suscriba a este tipo de servicio está sujeta a restricciones. El tipo de filtros se puede utilizar para implementar el control gubernamental, regulatorio o parental sobre los suscriptores.
Filtro basado en redes
Este tipo de filtro se implementa en la capa de transporte como un proxy transparente, o en la capa de aplicación como un proxy web. El software de filtración puede incluir la funcionalidad de prevención de la pérdida de datos para filtrar la información de salida y de entrada. Todos los usuarios están sujetos a la política de acceso definida por la institución. El filtrado se puede personalizar, por lo que la biblioteca secundaria del distrito escolar puede tener un perfil de filtrado diferente a la biblioteca secundaria del distrito.
Filtro basado en DNS
Este tipo de filtrado se implementa en la capa DNS e intenta prevenir las búsquedas de dominios que no encajan en un conjunto de políticas (ya sea control parental o reglas de la empresa). Múltiples servicios públicos gratuitos de DNS ofrecen opciones de filtrado como parte de sus servicios. DNS Sinkholes como Pi-Hole también se pueden utilizar para este propósito, aunque sólo cliente-side.
Filtros Search-engine
Muchos motores de búsqueda, como Google y Bing ofrecen a los usuarios la opción de encender un filtro de seguridad. Cuando se activa este filtro de seguridad, filtra los enlaces inapropiados de todos los resultados de búsqueda. Si los usuarios conocen la URL real de un sitio web que cuenta con contenido explícito o adulto, tienen la capacidad de acceder a ese contenido sin utilizar un motor de búsqueda. Algunos proveedores ofrecen versiones orientadas al niño de sus motores que permiten solamente sitios web amigables con niños.

Razones para filtrar

Internet no proporciona intrínsecamente bloqueo de contenido y, por lo tanto, hay mucho contenido en Internet que se considera inadecuado para niños, dado que gran parte del contenido recibe certificaciones como apto solo para adultos, p. Juegos y películas clasificados para 18.

Los proveedores de servicios de Internet (ISP, por sus siglas en inglés) que bloquean material que contiene pornografía o contenido controvertido religioso, político o relacionado con noticias en el camino suelen ser utilizados por padres que no permiten que sus hijos accedan a contenido que no se ajusta a sus creencias personales. Sin embargo, el software de filtrado de contenido también se puede usar para bloquear malware y otro contenido que sea o contenga material hostil, intrusivo o molesto, incluido adware, spam, virus informáticos, gusanos, caballos de Troya y spyware.

La mayoría del software de control de contenido se comercializa para organizaciones o padres. Sin embargo, en ocasiones también se comercializa para facilitar la autocensura, por ejemplo, por parte de personas que luchan contra las adicciones a la pornografía en línea, los juegos de azar, las salas de chat, etc. Algunas personas también pueden utilizar el software de autocensura para evitar ver contenido que considere inmoral, inapropiado o simplemente una distracción. Varios productos de software de responsabilidad se comercializan como autocensura o software de responsabilidad. Estos son a menudo promovidos por medios religiosos y en reuniones religiosas.

Crítica

Errores de filtrado

Sobrebloqueo

Usar un filtro que es demasiado entusiasta para filtrar contenido o que etiqueta incorrectamente el contenido que no está destinado a ser censurado puede resultar en un bloqueo excesivo o una censura excesiva. El sobrebloqueo puede filtrar material que debería ser aceptable según la política de filtrado vigente, por ejemplo, la información relacionada con la salud puede filtrarse involuntariamente junto con material relacionado con la pornografía debido al problema de Scunthorpe. Los administradores de filtros pueden preferir pecar de precavidos al aceptar el bloqueo excesivo para evitar cualquier riesgo de acceso a sitios que consideren no deseados. Se mencionó que el software de control de contenido bloqueaba el acceso a Beaver College antes de que cambiara su nombre a Arcadia University. Otro ejemplo fue la filtración del Museo Horniman. Además, el bloqueo excesivo puede alentar a los usuarios a omitir el filtro por completo.

Subbloqueo

Cada vez que se sube nueva información a Internet, los filtros pueden bloquear o censurar el contenido si las partes responsables de mantener los filtros no los actualizan de forma rápida y precisa, y se aplica una política de filtrado de listas negras en lugar de listas blancas. sitio.

Moralidad y opinión

Muchos no estarían satisfechos con que el gobierno filtre los puntos de vista sobre cuestiones morales o políticas, y están de acuerdo en que esto podría convertirse en apoyo para la propaganda. A muchos también les parecería inaceptable que un ISP, ya sea por ley o por propia elección del ISP, deba implementar dicho software sin permitir que los usuarios deshabiliten el filtrado para sus propias conexiones. En los Estados Unidos, la Primera Enmienda de la Constitución de los Estados Unidos ha sido citada en llamados a criminalizar la censura forzada en Internet. (Consulte la sección a continuación)

Acciones legales

En 1998, un tribunal de distrito federal de los Estados Unidos en Virginia dictaminó (Loudoun v. Board of Trustees of the Loudoun County Library) que la imposición de filtros obligatorios en una biblioteca pública viola la Primera Enmienda.

En 1996, el Congreso de EE. UU. aprobó la Ley de decencia en las comunicaciones, que prohíbe la indecencia en Internet. Los grupos de libertades civiles desafiaron la ley bajo la Primera Enmienda, y en 1997 la Corte Suprema falló a su favor. Parte del argumento de las libertades civiles, especialmente de grupos como Electronic Frontier Foundation, era que los padres que querían bloquear sitios podían usar su propio software de filtrado de contenido, lo que hacía innecesaria la participación del gobierno.

A fines de la década de 1990, grupos como Censorware Project comenzaron a aplicar ingeniería inversa al software de control de contenido y descifraron las listas negras para determinar qué tipo de sitios bloqueaba el software. Esto condujo a una acción legal alegando la violación de la "Patrulla Cibernética" acuerdo de licencia. Descubrieron que tales herramientas bloqueaban rutinariamente sitios no objetables y tampoco bloqueaban los objetivos previstos.

Algunas empresas de software de control de contenido respondieron afirmando que sus criterios de filtrado estaban respaldados por una verificación manual intensiva. Las empresas' los opositores argumentaron, por otro lado, que realizar la verificación necesaria requeriría recursos superiores a los que poseían las empresas y que, por lo tanto, sus reclamos no eran válidos.

La Motion Picture Association obtuvo con éxito una resolución del Reino Unido que obliga a los proveedores de servicios de Internet a utilizar software de control de contenido para evitar que sus suscriptores infrinjan los derechos de autor.

Censura religiosa, antirreligiosa y política

Se ha demostrado que muchos tipos de software de control de contenido bloquean sitios en función de las inclinaciones religiosas y políticas de los propietarios de la empresa. Los ejemplos incluyen el bloqueo de varios sitios religiosos (incluido el sitio web del Vaticano), muchos sitios políticos y sitios relacionados con la homosexualidad. Se demostró que X-Stop bloquea sitios como el sitio web Quaker, el National Journal of Sexual Orientation Law, The Heritage Foundation y partes de The Ethical Spectacle. CYBERsitter bloquea sitios como la Organización Nacional para la Mujer. Nancy Willard, investigadora académica y abogada, señaló que muchas bibliotecas y escuelas públicas de EE. UU. usan el mismo software de filtrado que usan muchas organizaciones cristianas. Se ha descubierto que Cyber Patrol, un producto desarrollado por The Anti-Defamation League y The Learning Company de Mattel, bloquea no solo los sitios políticos que considera que están involucrados en 'discursos de odio'; pero también sitios web de derechos humanos, como la página web de Amnistía Internacional sobre Israel y sitios web sobre derechos de los homosexuales, como glaad.org.

Etiquetado de contenido

El etiquetado de contenido puede considerarse otra forma de software de control de contenido. En 1994, la Asociación de Clasificación de Contenidos de Internet (ICRA), ahora parte del Instituto de Seguridad Familiar en Línea, desarrolló un sistema de clasificación de contenido para proveedores de contenido en línea. Usando un cuestionario en línea, un webmaster describe la naturaleza de su contenido web. Se genera un pequeño archivo que contiene un resumen condensado y legible por computadora de esta descripción que luego puede ser utilizado por el software de filtrado de contenido para bloquear o permitir ese sitio.

Las etiquetas ICRA vienen en una variedad de formatos. Estos incluyen el Marco de Descripción de Recursos (RDF) del Consorcio World Wide Web, así como las etiquetas de la Plataforma para la Selección de Contenido de Internet (PICS) utilizadas por el Asesor de Contenido de Internet Explorer de Microsoft.

Las etiquetas ICRA son un ejemplo de autoetiquetado. De manera similar, en 2006 la Asociación de Sitios en Defensa de la Protección de la Infancia (ASACP) inició la iniciativa de autoetiquetado Restringido a Adultos. A los miembros de ASACP les preocupaba que varias formas de legislación que se proponían en los Estados Unidos tuvieran el efecto de obligar a las empresas adultas a etiquetar su contenido. La etiqueta RTA, a diferencia de las etiquetas ICRA, no requiere que un webmaster complete un cuestionario o se registre para usarla. Al igual que ICRA, la etiqueta RTA es gratuita. Ambas etiquetas son reconocidas por una amplia variedad de software de control de contenido.

El sistema Voluntary Content Rating (VCR) fue ideado por Solid Oak Software para su software de filtrado CYBERsitter, como una alternativa al sistema PICS, que algunos críticos consideraron demasiado complejo. Emplea etiquetas de metadatos HTML incrustadas en documentos de páginas web para especificar el tipo de contenido contenido en el documento. Solo se especifican dos niveles, maduro y adulto, lo que hace que la especificación sea extremadamente simple.

Uso en bibliotecas públicas

Australia

El organismo asesor de seguridad en Internet de Australia tiene información sobre "consejos prácticos sobre seguridad en Internet, control parental y filtros para la protección de niños, estudiantes y familias" eso también incluye bibliotecas públicas.

NetAlert, el software que el gobierno australiano puso a disposición de forma gratuita, supuestamente fue descifrado por un estudiante de 16 años, Tom Wood, menos de una semana después de su lanzamiento en agosto de 2007. Wood supuestamente pasó por alto el filtro de 84 millones de dólares. en aproximadamente media hora para resaltar los problemas con el enfoque del gobierno para el filtrado de contenido de Internet.

El gobierno australiano ha introducido una legislación que requiere que los ISP "restringan el acceso a contenido restringido por edad (contenido comercial MA15+ y contenido R18+) alojado en Australia o proporcionado desde Australia" que debía comenzar a partir del 20 de enero de 2008, conocido como Cleanfeed.

Cleanfeed es un sistema de filtración de contenido de nivel ISP obligatorio propuesto. Fue propuesto por la oposición del Partido Laborista australiano liderada por Beazley en un comunicado de prensa de 2006, con la intención de proteger a los niños que eran vulnerables debido al supuesto analfabetismo informático de los padres. Se anunció el 31 de diciembre de 2007 como una política que implementará el gobierno de Rudd ALP, y las pruebas iniciales en Tasmania produjeron un informe de 2008. Cleanfeed se financia con el presupuesto actual y se está moviendo hacia una Expresión de interés para pruebas en vivo con ISP en 2008. Han surgido críticas y oposición pública, encabezadas por la EFA y ganando la atención irregular de los principales medios, con una mayoría de australianos, según se informa, &# 34;totalmente en contra de" su implementación. Las críticas incluyen su costo, la inexactitud (será imposible garantizar que solo se bloqueen los sitios ilegales) y el hecho de que será obligatorio, lo que puede verse como una intrusión en los derechos de libertad de expresión. Otro punto de crítica importante ha sido que, aunque se afirma que el filtro detiene ciertos materiales, los anillos subterráneos que tratan con dichos materiales no se verán afectados. El filtro también podría proporcionar una falsa sensación de seguridad para los padres, que podrían supervisar menos a los niños mientras usan Internet, logrando exactamente el efecto contrario. Cleanfeed es una responsabilidad de la cartera del Senador Conroy.

Dinamarca

En Dinamarca, la política establecida es que "evitará que se acceda a sitios de Internet inapropiados desde las bibliotecas infantiles de Dinamarca". "'Es importante que todas las bibliotecas del país tengan la oportunidad de proteger a los niños contra el material pornográfico cuando usan las computadoras de la biblioteca. Para mí, como Ministro de Cultura, es una prioridad principal asegurarme de que los niños puedan navegar por Internet de manera segura en las bibliotecas,' afirma Brian Mikkelsen en un comunicado de prensa del Ministerio de Cultura danés."

Reino Unido

Muchas bibliotecas del Reino Unido, como la Biblioteca Británica y las bibliotecas públicas de las autoridades locales, aplican filtros al acceso a Internet. Según una investigación realizada por Radical Librarians Collective, al menos el 98% de las bibliotecas públicas aplican filtros; incluidas categorías como "interés LGBT", "aborto" y "cuestionable". Algunas bibliotecas públicas bloquean los sitios web de préstamos de día de pago

Estados Unidos

El uso de filtros de Internet o software de control de contenido varía mucho en las bibliotecas públicas de los Estados Unidos, ya que las políticas de uso de Internet las establece la junta bibliotecaria local. Muchas bibliotecas adoptaron filtros de Internet después de que el Congreso condicionó la recepción de descuentos de servicio universal al uso de filtros de Internet a través de la Ley de Protección de Internet para Niños (CIPA). Otras bibliotecas no instalan software de control de contenido, creyendo que las políticas de uso aceptable y los esfuerzos educativos abordan el problema de los niños que acceden a contenido inapropiado para su edad mientras preservan a los usuarios adultos. derecho a acceder libremente a la información. Algunas bibliotecas usan filtros de Internet en las computadoras que usan solo los niños. Algunas bibliotecas que emplean software de control de contenido permiten que el software se desactive caso por caso previa solicitud a un bibliotecario; las bibliotecas que están sujetas a CIPA deben tener una política que permita a los adultos solicitar que se deshabilite el filtro sin tener que explicar el motivo de su solicitud.

Muchos juristas creen que varios casos legales, en particular Reno v. American Civil Liberties Union, establecieron que el uso de software de control de contenido en bibliotecas es una violación de la Primera Enmienda. La Ley de Protección de Niños en Internet [CIPA] y el caso de junio de 2003 Estados Unidos contra la Asociación de Bibliotecas Estadounidenses encontraron que la CIPA es constitucional como una condición impuesta a la recepción de fondos federales, afirmando que la Primera Enmienda se refiere fueron derogadas por la disposición de la ley que permitía a los usuarios adultos de la biblioteca tener deshabilitado el software de filtrado, sin tener que explicar los motivos de su solicitud. La decisión de la pluralidad dejó abierto un futuro "aplicado" Desafío constitucional, sin embargo.

En noviembre de 2006, se presentó una demanda contra el Distrito de Bibliotecas Regionales del Centro Norte (NCRL) en el estado de Washington por su política de negarse a deshabilitar las restricciones a pedido de los usuarios adultos, pero CIPA no fue impugnada en ese asunto. En mayo de 2010, la Corte Suprema del Estado de Washington emitió una opinión después de que se le pidiera que certificara una pregunta remitida por la Corte de Distrito de los Estados Unidos para el Distrito Este de Washington: "Si una biblioteca pública, de acuerdo con el Artículo I, § 5 de la Constitución de Washington, puede filtrar el acceso a Internet para todos los usuarios sin deshabilitar los sitios web que contienen discursos protegidos constitucionalmente a pedido de un usuario adulto de la biblioteca." La Corte Suprema del Estado de Washington dictaminó que la política de filtrado de Internet de NCRL no violó el Artículo I, Sección 5 de la Constitución del Estado de Washington. El Tribunal dijo: "Nos parece que la política de filtrado de NCRL es razonable y está de acuerdo con su misión y estas políticas y es neutral desde el punto de vista. Parece que en este caso no existe ninguna infracción basada en el contenido del artículo I, sección 5. La misión esencial de NCRL es promover la lectura y el aprendizaje permanente. Como sostiene NCRL, es razonable imponer restricciones al acceso a Internet para mantener un entorno propicio para el estudio y el pensamiento contemplativo." El caso volvió a la corte federal.

En marzo de 2007, Virginia aprobó una ley similar a CIPA que exige que las bibliotecas públicas que reciben fondos estatales usen software de control de contenido. Al igual que CIPA, la ley requiere que las bibliotecas deshabiliten los filtros para un usuario adulto de la biblioteca cuando el usuario así lo solicite.

Omitir filtros

El filtrado de contenido en general puede "ser evitado por completo por personas con conocimientos tecnológicos". El bloqueo de contenido en un dispositivo "[no]... garantizará que los usuarios finalmente no puedan encontrar una forma de eludir el filtro."

Algunos programas pueden omitirse con éxito mediante el uso de protocolos alternativos como FTP, telnet o HTTPS, realizando búsquedas en un idioma diferente, utilizando un servidor proxy o un eludidor como Psiphon. Además, las páginas web almacenadas en caché devueltas por Google u otras búsquedas también podrían eludir algunos controles. Los servicios de sindicación web pueden proporcionar rutas alternativas para el contenido. Algunos de los programas peor diseñados pueden cerrarse eliminando sus procesos: por ejemplo, en Microsoft Windows mediante el Administrador de tareas de Windows, o en Mac OS X mediante Forzar salida o Monitor de actividad. Existen numerosas soluciones alternativas y contadores de soluciones alternativas de los creadores de software de control de contenido. Los servicios de Google a menudo están bloqueados por filtros, pero estos pueden omitirse con mayor frecuencia usando https:// en lugar de http:// ya que el software de filtrado de contenido no puede interpretar contenidos bajo conexiones seguras (en este caso SSL).

Se puede usar una VPN encriptada como medio para eludir el software de control de contenido, especialmente si el software de control de contenido está instalado en una puerta de enlace de Internet o un firewall.

Otras formas de eludir un filtro de control de contenido incluyen sitios de traducción y establecer una conexión remota con un dispositivo sin censura.

Productos y servicios

Algunos ISP ofrecen opciones de control parental. Algunos ofrecen software de seguridad que incluye controles parentales. Mac OS X v10.4 ofrece controles parentales para varias aplicaciones (Correo, Finder, iChat, Safari y Diccionario). El sistema operativo Windows Vista de Microsoft también incluye software de control de contenido.

La tecnología de filtrado de contenido existe en dos formas principales: puerta de enlace de aplicaciones o inspección de paquetes. Para el acceso HTTP, la puerta de enlace de aplicaciones se denomina proxy web o simplemente proxy. Dichos servidores proxy web pueden inspeccionar tanto la solicitud inicial como la página web devuelta utilizando reglas arbitrariamente complejas y no devolverán ninguna parte de la página al solicitante hasta que se tome una decisión. Además, pueden realizar sustituciones en su totalidad o por cualquier parte del resultado devuelto. Los filtros de inspección de paquetes no interfieren inicialmente con la conexión al servidor, pero inspeccionan los datos en la conexión a medida que pasa, en algún momento el filtro puede decidir que la conexión debe ser filtrada y luego la desconectará inyectando un TCP- Restablecer o paquete falso similar. Las dos técnicas se pueden usar junto con el filtro de paquetes que supervisa un enlace hasta que detecta una conexión HTTP que se inicia en una dirección IP que tiene contenido que necesita filtrado. Luego, el filtro de paquetes redirige la conexión al proxy web, que puede realizar un filtrado detallado en el sitio web sin tener que pasar por todas las conexiones sin filtrar. Esta combinación es bastante popular porque puede reducir significativamente el costo del sistema.

El software de control de contenido basado en puerta de enlace puede ser más difícil de eludir que el software de escritorio, ya que el usuario no tiene acceso físico al dispositivo de filtrado. Sin embargo, muchas de las técnicas de la sección Omitir filtros todavía funcionan.

Contenido relacionado

Licencia de Ciencias del Diseño

Design Science License es una licencia copyleft para cualquier tipo de contenido libre como texto, imágenes, música. A diferencia de otras licencias de...

Comité de Datos del Consejo Internacional de Ciencias

El Comité de Datos del Consejo Internacional de Ciencias se estableció en 1966 como el Comité de Datos para la Ciencia y la Tecnología, originalmente...

Badtrans

BadTrans es un gusano informático malicioso de Microsoft Windows que se distribuye por correo electrónico. Debido a una vulnerabilidad conocida en versiones...
Más resultados...
Tamaño del texto:
Copiar