Filtro de internet
Um Filtro de Internet é um software que restringe ou controla o conteúdo que um usuário da Internet pode acessar, especialmente quando utilizado para restringir o material distribuído pela Internet via Web, e-mail ou outros meios. O software de controle de conteúdo determina qual conteúdo estará disponível ou será bloqueado.
Tais restrições podem ser aplicadas em vários níveis: um governo pode tentar aplicá-las em todo o país (ver censura na Internet), ou podem, por exemplo, ser aplicadas por um provedor de serviços de Internet a seus clientes, por um empregador a seus funcionários, de uma escola para seus alunos, de uma biblioteca para seus visitantes, de um pai para o computador de uma criança ou de um usuário individual para seus próprios computadores.
O motivo geralmente é impedir o acesso a conteúdo que o(s) proprietário(s) do computador ou outras autoridades possam considerar censurável. Quando imposto sem o consentimento do usuário, o controle de conteúdo pode ser caracterizado como uma forma de censura na internet. Alguns softwares de controle de conteúdo incluem funções de controle de tempo que capacitam os pais a definir a quantidade de tempo que a criança pode passar acessando a Internet, jogando ou outras atividades no computador.
Em alguns países, esse software é onipresente. Em Cuba, se um usuário de computador em um cibercafé controlado pelo governo digitar certas palavras, o processador de texto ou o navegador da Web será fechado automaticamente e uma "segurança do estado" aviso é dado.
Terminologia
O termo "controle de conteúdo" é usado ocasionalmente pela CNN, revista Playboy, San Francisco Chronicle e The New York Times. No entanto, vários outros termos, incluindo "software de filtragem de conteúdo", "filtragem de servidores proxy", "gateways da Web seguros", "censuraware", & #34;segurança e controle de conteúdo", "software de filtragem da web", "software de censura de conteúdo" e "software de bloqueio de conteúdo" são frequentemente usados. "Nannyware" também tem sido usado tanto no marketing de produtos quanto pela mídia. A empresa de pesquisa do setor Gartner usa "gateway da web seguro" (SWG) para descrever o segmento de mercado.
As empresas que fabricam produtos que bloqueiam seletivamente sites da Web não se referem a esses produtos como censorware e preferem termos como "filtro da Internet" ou "Filtro de URL"; no caso especializado de software projetado especificamente para permitir que os pais monitorem e restrinjam o acesso de seus filhos, "software de controle parental" também é usado. Alguns produtos registram todos os sites que um usuário acessa e os classifica com base no tipo de conteúdo para reportar a um "parceiro de responsabilidade" da escolha da pessoa, e o termo software de responsabilidade é usado. Filtros de Internet, software de controle parental e/ou software de responsabilidade também podem ser combinados em um único produto.
Aqueles que criticam esse software, no entanto, usam o termo "censura" livremente: considere o Projeto Censorware, por exemplo. O uso do termo "censura" em editoriais que criticam os fabricantes de tal software é difundido e abrange muitas variedades e aplicações diferentes: Xeni Jardin usou o termo em um editorial de 9 de março de 2006 no The New York Times ao discutir o uso de software de filtragem fabricado nos Estados Unidos suprimir conteúdo na China; no mesmo mês, um aluno do ensino médio usou o termo para discutir a implantação desse software em seu distrito escolar.
Em geral, fora das páginas editoriais descritas acima, os jornais tradicionais não usam o termo "censura" em seus relatórios, preferindo usar termos menos abertamente controversos, como "filtro de conteúdo", "controle de conteúdo" ou "filtragem da web"; O The New York Times e o The Wall Street Journal parecem seguir essa prática. Por outro lado, jornais baseados na Web, como a CNET, usam o termo tanto em contextos editoriais quanto jornalísticos, por exemplo, "Windows Live to Get Censorware."
Tipos de filtragem
Os filtros podem ser implementados de várias maneiras diferentes: por software em um computador pessoal, por meio de infraestrutura de rede, como servidores proxy, servidores DNS ou firewalls que fornecem acesso à Internet. Nenhuma solução fornece cobertura completa, portanto, a maioria das empresas implanta uma combinação de tecnologias para obter o controle de conteúdo adequado de acordo com suas políticas.
- Filtros baseados em navegador
- Solução de filtragem de conteúdo baseada no navegador é a solução mais leve para fazer a filtragem de conteúdo e é implementada através de uma extensão de navegador de terceiros.
- Filtros de e-mail
- Os filtros de e-mail atuam em informações contidas no corpo do correio, nos cabeçalhos do correio, como remetente e sujeito, e anexos de e-mail para classificar, aceitar ou rejeitar mensagens. Os filtros bayesianos, um tipo de filtro estatístico, são comumente usados. Estão disponíveis filtros baseados em cliente e servidor.
- Filtros de lado do cliente
- Este tipo de filtro é instalado como software em cada computador onde a filtragem é necessária. Este filtro normalmente pode ser gerenciado, desativado ou desinstalado por qualquer pessoa que tenha privilégios de nível de administrador no sistema. Um filtro de lado cliente baseado em DNS seria configurar um Sinkhole DNS, como Pi-Hole.
- ISPs (ou filtrados)
- Limitado ao conteúdo (ou filtrado) ISPs são prestadores de serviços de Internet que oferecem acesso a apenas uma parte definida do conteúdo da Internet em um opt-in ou uma base obrigatória. Quem assinar este tipo de serviço está sujeito a restrições. O tipo de filtros pode ser usado para implementar governo, regulação ou controle parental sobre assinantes.
- Filtragem baseada em rede
- Este tipo de filtro é implementado na camada de transporte como um proxy transparente, ou na camada de aplicação como um proxy web. O software de filtragem pode incluir a funcionalidade de prevenção de perda de dados para filtrar a saída, bem como informações de entrada. Todos os usuários estão sujeitos à política de acesso definida pela instituição. A filtragem pode ser personalizada, então a biblioteca do ensino médio de um distrito escolar pode ter um perfil de filtragem diferente da biblioteca do ensino médio do distrito.
- Filtragem baseada em DNS
- Este tipo de filtragem é implementado na camada DNS e tenta evitar buscas de domínios que não se encaixam dentro de um conjunto de políticas (quer controle parental ou regras da empresa). Vários serviços de DNS públicos gratuitos oferecem opções de filtragem como parte de seus serviços. DNS Os furos como o Pi-Hole também podem ser usados para esta finalidade, embora apenas lado do cliente.
- Filtros de motor de busca
- Muitos motores de busca, como o Google e o Bing oferecem aos usuários a opção de ligar um filtro de segurança. Quando este filtro de segurança é ativado, ele filtra os links inadequados de todos os resultados da pesquisa. Se os usuários sabem a URL real de um site que possui conteúdo explícito ou adulto, eles têm a capacidade de acessar esse conteúdo sem usar um motor de busca. Alguns fornecedores oferecem versões orientadas para crianças de seus motores que permitem apenas sites amigáveis para crianças.
Motivos para filtragem
A Internet não fornece intrinsecamente bloqueio de conteúdo e, portanto, há muito conteúdo na Internet considerado impróprio para crianças, uma vez que muitos conteúdos recebem certificações como adequados apenas para adultos, por exemplo, Jogos e filmes para 18.
Provedores de serviços de Internet (ISPs) que bloqueiam material contendo pornografia ou conteúdo controverso religioso, político ou relacionado a notícias são frequentemente utilizados por pais que não permitem que seus filhos acessem conteúdo que não esteja de acordo com suas crenças pessoais. O software de filtragem de conteúdo também pode, no entanto, ser usado para bloquear malware e outros conteúdos que sejam ou contenham material hostil, intrusivo ou irritante, incluindo adware, spam, vírus de computador, worms, cavalos de tróia e spyware.
A maioria dos softwares de controle de conteúdo é comercializada para organizações ou pais. No entanto, também é comercializado ocasionalmente para facilitar a autocensura, por exemplo, por pessoas que lutam contra o vício em pornografia online, jogos de azar, salas de bate-papo etc. considere imoral, inapropriado ou simplesmente perturbador. Vários produtos de software de responsabilidade são comercializados como autocensura ou software de responsabilidade. Estes são frequentemente promovidos pela mídia religiosa e em reuniões religiosas.
Críticas
Erros de filtragem
Excesso de bloqueio
Utilizar um filtro excessivamente zeloso na filtragem de conteúdo ou rotular incorretamente o conteúdo não destinado a ser censurado pode resultar em bloqueio excessivo ou censura excessiva. O bloqueio excessivo pode filtrar material que deveria ser aceitável sob a política de filtragem em vigor, por exemplo, informações relacionadas à saúde podem ser filtradas involuntariamente junto com material relacionado a pornografia devido ao problema de Scunthorpe. Os administradores de filtro podem preferir ser cautelosos ao aceitar o bloqueio excessivo para evitar qualquer risco de acesso a sites que eles consideram indesejáveis. O software de controle de conteúdo foi mencionado como bloqueando o acesso ao Beaver College antes de seu nome mudar para Arcadia University. Outro exemplo foi a filtragem do Horniman Museum. Além disso, o bloqueio excessivo pode encorajar os usuários a ignorar totalmente o filtro.
Underblocking
Sempre que novas informações são carregadas na Internet, os filtros podem bloquear ou censurar o conteúdo se as partes responsáveis pela manutenção dos filtros não os atualizarem com rapidez e precisão, e uma lista negra em vez de uma política de filtragem de lista branca estiver em vigor lugar.
Moralidade e opinião
Muitos não ficariam satisfeitos com o fato de o governo filtrar pontos de vista sobre questões morais ou políticas, concordando que isso poderia se tornar suporte para propaganda. Muitos também achariam inaceitável que um ISP, seja por lei ou por escolha do próprio ISP, implemente tal software sem permitir que os usuários desativem a filtragem para suas próprias conexões. Nos Estados Unidos, a Primeira Emenda à Constituição dos Estados Unidos foi citada em apelos para criminalizar a censura forçada na Internet. (Veja a seção abaixo)
Ações legais
Em 1998, um tribunal distrital federal dos Estados Unidos na Virgínia decidiu (Loudoun v. Board of Trustees of the Loudoun County Library) que a imposição de filtragem obrigatória em uma biblioteca pública viola a Primeira Emenda.
Em 1996, o Congresso dos EUA aprovou a Lei de Decência nas Comunicações, proibindo a indecência na Internet. Grupos de liberdades civis contestaram a lei sob a Primeira Emenda e, em 1997, a Suprema Corte decidiu a seu favor. Parte do argumento das liberdades civis, especialmente de grupos como a Electronic Frontier Foundation, era que os pais que quisessem bloquear sites poderiam usar seu próprio software de filtragem de conteúdo, tornando desnecessário o envolvimento do governo.
No final da década de 1990, grupos como o Censorware Project começaram a fazer engenharia reversa do software de controle de conteúdo e descriptografar as listas negras para determinar que tipo de sites o software bloqueava. Isso levou a uma ação legal alegando violação da "Cyber Patrol" contrato de licença. Eles descobriram que essas ferramentas bloqueavam rotineiramente sites inquestionáveis, ao mesmo tempo em que falhavam em bloquear os alvos pretendidos.
Algumas empresas de software de controle de conteúdo responderam alegando que seus critérios de filtragem eram apoiados por uma verificação manual intensiva. As empresas' os opositores argumentaram, por outro lado, que realizar a verificação necessária exigiria recursos superiores aos das empresas e que, portanto, suas reivindicações não eram procedentes.
A Motion Picture Association obteve com sucesso uma decisão do Reino Unido obrigando os ISPs a usar software de controle de conteúdo para evitar a violação de direitos autorais por parte de seus assinantes.
Censura religiosa, anti-religiosa e política
Muitos tipos de software de controle de conteúdo demonstraram bloquear sites com base nas tendências religiosas e políticas dos proprietários da empresa. Os exemplos incluem o bloqueio de vários sites religiosos (incluindo o site do Vaticano), muitos sites políticos e sites relacionados à homossexualidade. O X-Stop bloqueou sites como o site da Quaker, o National Journal of Sexual Orientation Law, a Heritage Foundation e partes do The Ethical Spectacle. CYBERsitter bloqueia sites como a National Organization for Women. Nancy Willard, pesquisadora acadêmica e advogada, apontou que muitas escolas públicas e bibliotecas dos EUA usam o mesmo software de filtragem que muitas organizações cristãs usam. Descobriu-se que o Cyber Patrol, um produto desenvolvido pela The Anti-Defamation League e The Learning Company da Mattel, bloqueia não apenas sites políticos que considera estarem envolvidos em "discurso de ódio"; mas também sites de direitos humanos, como a página da Amnistia Internacional sobre Israel e sites de direitos dos homossexuais, como glaad.org.
Rotulagem de conteúdo
A rotulagem de conteúdo pode ser considerada outra forma de software de controle de conteúdo. Em 1994, a Internet Content Rating Association (ICRA) — agora parte do Family Online Safety Institute — desenvolveu um sistema de classificação de conteúdo para provedores de conteúdo online. Usando um questionário online, um webmaster descreve a natureza de seu conteúdo na web. Um pequeno arquivo é gerado contendo um resumo condensado e legível por computador dessa descrição que pode ser usado pelo software de filtragem de conteúdo para bloquear ou permitir esse site.
Os rótulos da ICRA vêm em vários formatos. Isso inclui o Resource Description Framework (RDF) do World Wide Web Consortium, bem como os rótulos Platform for Internet Content Selection (PICS) usados pelo Microsoft Internet Explorer Content Advisor.
As etiquetas ICRA são um exemplo de auto-rotulagem. Da mesma forma, em 2006, a Association of Sites Advocating Child Protection (ASACP) iniciou a iniciativa de auto-rotulação Restricted to Adults. Os membros da ASACP estavam preocupados com o fato de que várias formas de legislação propostas nos Estados Unidos teriam o efeito de forçar as empresas adultas a rotular seu conteúdo. O rótulo RTA, ao contrário dos rótulos ICRA, não exige que um webmaster preencha um questionário ou se inscreva para usá-lo. Assim como o ICRA, o selo RTA é gratuito. Ambos os rótulos são reconhecidos por uma ampla variedade de softwares de controle de conteúdo.
O sistema Voluntary Content Rating (VCR) foi desenvolvido pela Solid Oak Software para seu software de filtragem CYBERsitter, como uma alternativa ao sistema PICS, que alguns críticos consideraram muito complexo. Ele emprega tags de metadados HTML incorporadas em documentos de páginas da Web para especificar o tipo de conteúdo contido no documento. Apenas dois níveis são especificados, maduro e adulto, tornando a especificação extremamente simples.
Uso em bibliotecas públicas
Austrália
O Australian Internet Safety Advisory Body tem informações sobre "conselhos práticos sobre segurança na Internet, controle dos pais e filtros para a proteção de crianças, estudantes e famílias" que também inclui bibliotecas públicas.
NetAlert, o software disponibilizado gratuitamente pelo governo australiano, teria sido hackeado por um estudante de 16 anos, Tom Wood, menos de uma semana após seu lançamento em agosto de 2007. Wood supostamente contornou o filtro de US$ 84 milhões em cerca de meia hora para destacar os problemas com a abordagem do governo à filtragem de conteúdo da Internet.
O governo australiano introduziu uma legislação que exige que os ISPs "restrinjam o acesso a conteúdo com restrição de idade (conteúdo comercial MA15+ e conteúdo R18+) hospedado na Austrália ou fornecido pela Austrália" que deveria começar em 20 de janeiro de 2008, conhecido como Cleanfeed.
Cleanfeed é um sistema de filtragem de conteúdo de nível ISP obrigatório proposto. Foi proposto pela oposição do Partido Trabalhista Australiano liderado por Beazley em um comunicado de imprensa de 2006, com a intenção de proteger as crianças que eram vulneráveis devido ao alegado analfabetismo de computador dos pais. Foi anunciado em 31 de dezembro de 2007 como uma política a ser implementada pelo governo Rudd ALP, e os testes iniciais na Tasmânia produziram um relatório de 2008. O Cleanfeed é financiado com o orçamento atual e está caminhando para uma Expressão de Interesse para testes ao vivo com ISPs em 2008. A oposição pública e as críticas surgiram, lideradas pela EFA e ganhando atenção irregular da mídia convencional, com a maioria dos australianos supostamente 34;fortemente contra" sua implementação. As críticas incluem seu custo, imprecisão (será impossível garantir que apenas sites ilegais sejam bloqueados) e o fato de que será obrigatório, o que pode ser visto como uma intrusão nos direitos de liberdade de expressão. Outro grande ponto de crítica foi que, embora o filtro retenha certos materiais, os anéis subterrâneos que lidam com esses materiais não serão afetados. O filtro também pode fornecer uma falsa sensação de segurança para os pais, que podem supervisionar menos as crianças enquanto usam a Internet, obtendo exatamente o efeito oposto. Cleanfeed é uma responsabilidade do portfólio do senador Conroy.
Dinamarca
Na Dinamarca, é declarada uma política que "impedirá que sites inapropriados da Internet sejam acessados de bibliotecas infantis em toda a Dinamarca". "'É importante que todas as bibliotecas do país tenham a oportunidade de proteger as crianças contra material pornográfico quando estiverem usando os computadores da biblioteca. É uma prioridade principal para mim, como Ministro da Cultura, garantir que as crianças possam navegar na Internet com segurança nas bibliotecas,' afirma Brian Mikkelsen em um comunicado de imprensa do Ministério da Cultura dinamarquês."
Reino Unido
Muitas bibliotecas no Reino Unido, como a British Library e as bibliotecas públicas das autoridades locais, aplicam filtros ao acesso à Internet. Segundo pesquisa realizada pelo Radical Librarians Collective, pelo menos 98% das bibliotecas públicas aplicam filtros; incluindo categorias como "interesse LGBT", "aborto" e "questionável". Algumas bibliotecas públicas bloqueiam sites de empréstimo consignado
Estados Unidos
O uso de filtros de Internet ou software de controle de conteúdo varia muito em bibliotecas públicas nos Estados Unidos, uma vez que as políticas de uso da Internet são estabelecidas pelo conselho da biblioteca local. Muitas bibliotecas adotaram filtros de Internet depois que o Congresso condicionou o recebimento de descontos do serviço universal ao uso de filtros de Internet por meio da Lei de Proteção à Criança na Internet (CIPA). Outras bibliotecas não instalam software de controle de conteúdo, acreditando que as políticas de uso aceitável e os esforços educacionais abordam o problema de crianças acessando conteúdo impróprio para a idade, preservando a identidade dos usuários adultos. direito de acesso livre à informação. Algumas bibliotecas usam filtros de Internet em computadores usados apenas por crianças. Algumas bibliotecas que empregam software de controle de conteúdo permitem que o software seja desativado caso a caso mediante solicitação a um bibliotecário; as bibliotecas sujeitas à CIPA devem ter uma política que permita que adultos solicitem a desativação do filtro sem a necessidade de explicar o motivo da solicitação.
Muitos estudiosos do direito acreditam que uma série de casos legais, em particular Reno v. American Civil Liberties Union, estabeleceu que o uso de software de controle de conteúdo em bibliotecas é uma violação da Primeira Emenda. O Children's Internet Protection Act [CIPA] e o caso de junho de 2003 United States v. American Library Association consideraram a CIPA constitucional como condição imposta ao recebimento de financiamento federal, afirmando que a Primeira Emenda diz foram afastados pelo dispositivo da lei que permitia que usuários adultos de bibliotecas tivessem o software de filtragem desabilitado, sem a necessidade de explicar os motivos de sua solicitação. A decisão da pluralidade deixou em aberto um futuro "conforme aplicado" Desafio constitucional, no entanto.
Em novembro de 2006, uma ação foi movida contra o North Central Regional Library District (NCRL) no estado de Washington por sua política de recusar desabilitar restrições a pedidos de usuários adultos, mas a CIPA não foi contestada nesse assunto. Em maio de 2010, a Suprema Corte do Estado de Washington emitiu um parecer após ser solicitada a certificar uma questão submetida pelo Tribunal Distrital dos Estados Unidos para o Distrito Leste de Washington: "Se uma biblioteca pública, consistente com o Artigo I, § 5 da Constituição de Washington, pode filtrar o acesso à Internet para todos os usuários sem desabilitar sites que contenham discurso constitucionalmente protegido mediante solicitação de um usuário adulto da biblioteca." A Suprema Corte do Estado de Washington decidiu que a política de filtragem de internet da NCRL não violava o Artigo I, Seção 5 da Constituição do Estado de Washington. O Tribunal disse: "Parece-nos que a política de filtragem da NCRL é razoável e está de acordo com sua missão e essas políticas e é neutra do ponto de vista". Parece que nenhuma violação baseada em conteúdo do artigo I, seção 5 existe neste caso. A missão essencial do NCRL é promover a leitura e a aprendizagem ao longo da vida. Como sustenta o NCRL, é razoável impor restrições ao acesso à Internet para manter um ambiente propício ao estudo e ao pensamento contemplativo." O caso voltou à Justiça Federal.
Em março de 2007, a Virgínia aprovou uma lei semelhante à CIPA que exige que as bibliotecas públicas que recebem fundos do estado usem software de controle de conteúdo. Assim como a CIPA, a lei exige que as bibliotecas desativem os filtros para um usuário adulto da biblioteca quando solicitado pelo usuário.
Ignorando filtros
A filtragem de conteúdo em geral pode "ser totalmente ignorada por indivíduos com experiência em tecnologia." Bloquear conteúdo em um dispositivo "[não]...garantirá que os usuários eventualmente não conseguirão encontrar uma maneira de contornar o filtro."
Alguns softwares podem ser ignorados com sucesso usando protocolos alternativos, como FTP, telnet ou HTTPS, realizando pesquisas em um idioma diferente, usando um servidor proxy ou um fraudador como o Psiphon. Além disso, as páginas da Web em cache retornadas pelo Google ou outras pesquisas também podem ignorar alguns controles. Os serviços de distribuição da Web podem fornecer caminhos alternativos para o conteúdo. Alguns dos programas mais mal projetados podem ser encerrados encerrando seus processos: por exemplo, no Microsoft Windows por meio do Gerenciador de Tarefas do Windows ou no Mac OS X usando Forçar Encerramento ou Monitor de Atividade. Existem inúmeras soluções alternativas e contadores para soluções alternativas de criadores de software de controle de conteúdo. Os serviços do Google geralmente são bloqueados por filtros, mas eles podem ser ignorados com mais frequência usando https:// no lugar de http://, pois o software de filtragem de conteúdo não é capaz de interpretar o conteúdo em conexões seguras (neste caso SSL).
Uma VPN criptografada pode ser usada como meio de contornar o software de controle de conteúdo, especialmente se o software de controle de conteúdo estiver instalado em um gateway de Internet ou firewall.
Outras formas de contornar um filtro de controle de conteúdo incluem sites de tradução e estabelecer uma conexão remota com um dispositivo não censurado.
Produtos e serviços
Alguns ISPs oferecem opções de controle parental. Alguns oferecem software de segurança que inclui controle dos pais. O Mac OS X v10.4 oferece controle dos pais para vários aplicativos (Mail, Finder, iChat, Safari e Dicionário). O sistema operacional Windows Vista da Microsoft também inclui software de controle de conteúdo.
A tecnologia de filtragem de conteúdo existe em duas formas principais: gateway de aplicativo ou inspeção de pacotes. Para acesso HTTP, o gateway de aplicativo é chamado de web-proxy ou apenas um proxy. Esses proxies da web podem inspecionar a solicitação inicial e a página da web retornada usando regras arbitrariamente complexas e não retornarão nenhuma parte da página ao solicitante até que uma decisão seja tomada. Além disso, eles podem fazer substituições no todo ou em qualquer parte do resultado retornado. Os filtros de inspeção de pacotes inicialmente não interferem na conexão com o servidor, mas inspecionam os dados na conexão conforme ela passa, em algum momento o filtro pode decidir que a conexão deve ser filtrada e então a desconectará injetando um TCP- Redefinir ou pacote falsificado similar. As duas técnicas podem ser usadas em conjunto com o filtro de pacotes monitorando um link até detectar uma conexão HTTP iniciando em um endereço IP que possui conteúdo que precisa ser filtrado. O filtro de pacotes redireciona a conexão para o proxy da web, que pode realizar uma filtragem detalhada no site sem ter que passar por todas as conexões não filtradas. Essa combinação é bastante popular porque pode reduzir significativamente o custo do sistema.
O software de controle de conteúdo baseado em gateway pode ser mais difícil de ignorar do que o software de desktop, pois o usuário não tem acesso físico ao dispositivo de filtragem. No entanto, muitas das técnicas na seção Ignorando filtros ainda funcionam.
Contenido relacionado
Arte ASCII
Dados digitais
Ada (linguagem de programação)
Computador Atanasoff-Berry
Sistema de nomes de domínio