História da Internet, Vigilância e Controle

Fonte: Wikiversidade

Breve história da internet[editar | editar código-fonte]

Antes da comercialização da internet, seu desenvolvimento estava restrito aos meios acadêmicos e/ou militares. Em 1969 foi desenvolvida uma das primeiras redes da história da internet, interna ao Ministério da Defesa dos Estados Unidos, para que pesquisadores pudessem compartilhar informações entre bases militares e seus departamentos de pesquisa; esse projeto ficou conhecido como ARPANet (Advanced Research and Projects Agency Network). [1]

Outro elemento de maior importância para o desenvolvimento da internet foi o protocolo TCP/IP[2]. Esse protocolo tinha como função padronizar o número de sistemas e organizações dispersas que iam se conectando ao projeto ARPANet. Esse novo procedimento de comunicação possibilitou o nascimento de uma rede de controle distribuída, redundante, simples e aberta. Em 1985 quando a NSF (National Science Foundation)[3] adotou o TCP/IP como protocolo em sua rede acadêmica é quando essa solução passa a ser o padrão implantado pelos diversos governos e gestores de TI.

Já nos anos 1990, com os militares tendo desenvolvido sua própria rede[4], a ARPANet passa para a NSF, deixando assim de ser militar. Com a extinção da rede da NSF abre-se então caminho para entrada do setor comercial privado, já impulsionado pelos militares nos anos 1980. Apesar do grande financiamento pelos militares a internet teve também outras contribuições para o seu desenvolvimento, como foi o caso das BBS, e outras redes como FIDONET e BITNET. Mas é quando começa a ser explorada comercialmente que a Internet dá passos largos em direção a popularização criando novos padrões de comunicação, baseado em relacionamentos comerciais e pessoais.

O advento da WWW[5] (World Wide Web) mudou drasticamente a configuração da rede, aumentou a capacidade de comunicação através da multiplicidade de meios - os usuários passaram de meros receptores de informação para potenciais produtores de conteúdo em uma rede altamente descentralizada e colaborativa. No início dos anos 1990, Tim Berners-Lee foi um dos responsáveis pelo desenvolvimento da interface gráfica da web como a conhecemos hoje em dia. Essa transformação só foi possível com a criação de programas mais simples para navegação (navegadores), troca de mensagens e criação de páginas que suportavam hipertextos e imagens.

Outras influências[editar | editar código-fonte]

Software Livre[editar | editar código-fonte]

Protocolo TCP/IP[editar | editar código-fonte]

[[1]]

Sistema de Nomes de Domínio[editar | editar código-fonte]

[[2]]

Marco Civil da Internet no Brasil[editar | editar código-fonte]

O MARCO CIVIL DA INTERNET (LEI No 12.965/2014) tornou-se a principal ferramenta legal para lidar com a dinâmica do exercício de direitos pelos cidadãos em meios virtuais. Com efeito, a lei tem se mostrado essencial para a proteção e promoção da liberdade de expressão e o pleno desenvolvimento e uso da internet no país, sendo um importante exemplo de norma progressista e positiva, inovadora em sua preocupação com a garantia dos direitos humanos online.

Entre as conquistas asseguradas com a aprovação do Marco Civil da Internet estão a garantia da neutralidade da rede, da privacidade dos usuários e a isenção de responsabilidade de provedores de internet por conteúdo produzido e divulgado por terceiros. Além disso, a lei reforça que a liberdade de expressão é uma condição para o exercício pleno do direito de acesso à internet.

Como era de se esperar, porém, ainda há dificuldades para a aplicação, pela Justiça, de determinados direitos reconhecidos pelo Marco Civil. Em relação a alguns destes gargalos, pode-se falar em falhas de regulamentação, mas em diversos outros aspectos, a maior necessidade é de jurisprudência própria, calcada nos valores e normas maiores presentes no texto legal.

A ARTIGO 19 tem promovido a defesa da liberdade de expressão na internet brasileira desde o início dos debates sobre sua regulação. A Lei no 12.965/2014 foi idealizada no âmbito do Ministério da Justiça (MJ), e a iniciativa que culminou na sua aprovação foi conduzida por meio de plataforma colaborativa 1 , que viabilizou a ampla participação popular 2 . Igualmente inovadora foi a elaboração de sua norma regulamentadora (Decreto no 8.771/2016) 3 , que também contou com a participação ativa da ARTIGO 19 4 .

Desde a edição do Marco Civil da Internet (MCI), a ARTIGO 19 tem acompanhado a sua implementação 5 . Foram lançados estudos, análises e relatórios sobre a elaboração, aprovação e implementação da lei e do decreto, inclusive a partir de um site voltado para pesquisadores 6 , que indica como tem se dado sua aplicação e aponta recomendações de melhoria no que diz respeito à garantia de liberdade de expressão

Neutralidade da Rede[editar | editar código-fonte]

Um dos princípios ao qual a Internet que conhecemos hoje em dia está baseada é a neutralidade da rede. Isso significa que quem controla a infraestrutura de rede não pode interferir no fluxo de dados, ou seja, toda informação na internet deve ser tratada da mesma forma, sem discriminação quanto ao conteúdo.

Carlos A. Afonso, em “neutralidade no trânsito da internet” faz uma breve introdução ao tema da neutralidade da rede. Ele compara a rede com uma malha rodoviária internacional, sendo que a concessão estaria entregue as empresas privadas que manteriam essa malha em troco da exploração pelo pedágio:

“Pelas rodovias passam veículos, e pelos circuitos da Internet passam datagramas (os 'pacotes' de dados que constituem cada mensagem de e-mail, vídeo, conversa de voz sobre IP etc.). Tal como em uma rodovia a concessionária não pode discriminar entre um carro azul e um vermelho, ou identificar se um carro está levando água ou maconha (este é um problema da polícia, não da concessionária), na Internet as operadoras não devem interferir no tráfego de qualquer datagrama. É o que procuro sintetizar na frase: 'Todos os datagramas são iguais perante a Rede!'”

Caso as Operadoras de Telecom interfiram de maneira arbitrária na rede – bloqueando, selecionando, atrasando pacotes de dados – estariam violando o princípio de neutralidade. O problema é que os provedores de acesso, que normalmente são também detentores da infraestrutura da “malha viária” da internet, violam frequentemente esse princípio em busca de altos lucros.

Por serem as detentoras da camada física da rede24 as Teles possuem facilidades em selecionar os pacotes que são transmitidos via rede. Se as empresas se utilizarem de “outros critérios” que não os expressos pelo CGI, estariam descumprindo o princípio da neutralidade da rede, priorizando pacotes de dados de acordo com seu interesse privado.

No dia a dia da internet utilizamos diversos serviços como VoIP (Voz sobre IP), vídeos/música (Youtube, rádios online), redes p2p (torrent) que podem todos ser identificados e selecionados pelas empresas. Essa lógica de controle dos dados poderia fragmentar toda a rede do país, criando uma “internet dos ricos (com áudio, vídeo e redes p2p) e a internet dos pobres (páginas e no máximo imagens)”25. As empresas poderiam ainda recusar a transmitir pacotes que necessitam de um fluxo de informação contínua (no caso de vídeos ou VoIP) garantindo que esses serviços não funcionem corretamente. Por exemplo: gravadoras e produtoras podem pressionar as Teles para que conteúdos p2p fossem controlados com a desculpa de combate à pirataria. Assim como as próprias Teles podem controlar serviços como o VoIP, para que não se torne um serviço concorrente a rede de telefonia.

Essas tentativas de se instaurar um vigilantismo na rede não são apenas por parte de grupos econômicos, alguns governos, autoritários ou não, possuem muito interesse no que é transmitido via rede. No caso da China, todos os usuários de internet são cadastrados tendo sua identidade civil vinculada ao IP (Internet Protocol). Isso facilita os aparatos de segurança para que possam ter um poder maior sobre a rede e seus usuários, filtrando, analisando e interferindo no tráfego de dados.

Queda da Neutralidade da Rede nos Estados Unidos[editar | editar código-fonte]

Em junho de 2018, a FCC (Comissão Federal de Comunicações dos Estados Unidos), similar a ANATEL no Brasil, sancionou uma nova regulamentação que pôs fim à neutralidade da rede no país.

No caso do Brasil a neutralidade da rede está garantida no Decreto 8.771/2016, sancionado pela então presidenta Dilma Roussef. Somente a revogação do decreto poderia acabar com a neutralidade.

Controle vem do protocolo[editar | editar código-fonte]

A internet se configura cada vez mais como um campo de batalha com diversos interesses em jogo. Nesse novo cenário de disputas é preciso compreender quais formas de dominação emergem a medida que nos entregamos a essas tecnologias.

Alexander R. Galloway vai mais fundo em sua construção teórica e nas formas de controle estabelecidas via rede. Para ele a Internet, enquanto rede distribuída, depende de seus protocolos de controle para que haja interação entre os pares. Através dos protocolos TCP/IP e seu sistema verticalizado de organização de domínios, DNS (Domain Name System) é que se define as regras e limites de possibilidades de comunicação em rede(Silveira).

São esses os protocolos que constituem e viabilizam a comunicação em rede, construídos na base de comunidades e coletivos que envolviam hackers, engenheiros, técnicos, acadêmicos e representantes de corporações. Para Galloway, o gerenciamento das redes distribuídas é via protocolo e são neles que residem o controle.

Para entender esse controle é preciso explicar um pouco do modo de interação desse protocolos e como eles se constituem. Galloway vai determinar algumas características políticas importantes: robustez, totalidade e lógica organizacional fora das esferas de controle tradicional – estado e setor comercial.

Isso significa que um sistema protocolar irá aceitar tudo, independente da fonte, remetente ou destino o que caracteriza a Internet como a mídia de massa mais altamente organizada até hoje conhecida(GALLOWAY). E, mesmo com a participação de membros da indústria na elaboração de protocolos, ou as forças que influenciam como a tecnologia se desenvolve, a organização dos protocolos se dá em grande parte fora dessas esferas de controle. E a partir daí que Galloway vai sugerir um “método de análise único para o protocolo em si”.

A partir desses pressupostos são levantadas três questões importantes sobre cidadania digital:

  • As redes se mostram indiferentes ao conteúdo semântico e interpretação e precisam ser entendidas como sistemas ou máquinas. A partir disso é preciso explorar um “novo modelo de leitura, baseado em análise cibernética, digitalização, reorganização, filtragem e interpolação”;
  • Se antes a emancipação de uma mídia estava em sua bidirecionalidade e interação, esses mecanismos passaram a ser a regra pela qual é possível uma análise de comportamentos para revelar dados significativos ou dados ilegais. Se antes havia um caráter libertador na interação agora há um novo “lugar da exploração, da regulação e do controle informático”;
  • Em detrimento de sua fonte o software passa a privilegiar sua superfície caracterizando uma lógica oculta do software: “o software se esconde exatamente no momento em que se expressa mais plenamente”(GALLOWAY):

"Desse modo, os viventes nas redes digitais são ciberviventes, personagens de uma sociedade de comunicação e controle. São livres enquanto aderentes aos protocolos que tecnicamente limitam, condicionam e formatam a comunicação de suas ideias. Estão felizes com a agilidade dos serviços que registram suas navegações, com as possibilidades crescentes de armazenamento de seus arquivos pessoais e com as facilidades de como uma única senha permite acessar uma multiplicidade de redes de relacionamento. Os ciberviventes têm, nas redes digitais, mais poder de comunicação e de relacionamento, e mais potencial de influência. Quanto mais participam da rede,mais contribuem para a definição de padrões, mais dados sobre seus interesses e seus comportamentos disseminam, mais controlado são." (SILVEIRA, 2010,P. 79)

Vigilância em Massa e Modelo de Negócios[editar | editar código-fonte]

Atualmente as empresas que nos fornecem serviços de pesquisa, como o Google Search, ou sites de relacionamento, como o Facebook, beneficiam-se de um modelo de negócios baseado na vigilância dos hábitos digitais dos usuários.

Isso significa que para gerar lucro essas empresas não precisam necessariamente cobrar por seus serviços, aliás, é interessante que tais serviços sejam ofertados gratuitamente para que mais pessoas possam utilizar e, assim, produzir mais informações sobre si.

Essas informações produzidas servem a diversos propósitos, mas podemos citar alguns casos em que esse modelo de negócio favorecem essas empresas.

Coleta de Dados e Perfis Consumidores[editar | editar código-fonte]

Quando um usuário faz sua pesquisa no Google Search ou está curtindo, compartilhando, acessando informações pelo Facebook ele está produzindo informações sobre si. Informações que indicam seus gostos, rotinas, lugares que frequentou, interesses múltiplos, e, o mais importante: o usuário está produzindo seus hábitos de consumo.

Um simples pesquisa sobre um produto que o usuário tem interesse é armazenada, sistematizada e servirá para criar um perfil de consumo. Esse perfil de consumo servirá para empresas fornecerem uma propaganda direcionada àquele usuário, com chances muito maiores do usuário se interessar por um determinado produto e realizar sua compra.

Não é à-toa que frequentemente propagandas de produtos que o usuário já pesquisou na internet aparecem em sua "timeline", no seu e-mail, mensagens etc.

Coleta de Dados e Vigilância em Massa[editar | editar código-fonte]

Outra prática bastante comum ao lidar com dados de usuários é destinada a vigilância por parte de governos, autoritários ou não, que utilizam essas informações para "prevenir" ataques terroristas, combater pedofilia etc.

O intuito, na verdade, está ligado a vigilância que esses governos faz de manifestações, movimentos sociais, organizações que atuam em defesa dos direitos humanos e liberdade de expressão.

Em posse dessas informações, governos e organizações com interesses múltiplos, podem atuar de maneira precisa contra agentes que lutam por direitos básicos em suas localidades.

Edward Snowden foi um dos grandes responsáveis pelo vazamento de informações de que o governo dos Estados Unidos utilizava um programa, por meio de sua Agência Nacional de Segurança (NSA, em inglês), conhecido como PRISM, que coletava dados das empresas que fornecem serviços na Internet - como no caso do Google, Microsoft, Yahoo!, Apple etc.

Além da cooperação das empresas e agências de vigilância do exterior, empresas fabricantes de equipamentos instalavam os conhecidos Backdoors e malwares, que facilitavam a vigilância por parte da NSA. Ou seja, um equipamento já vinha de fábrica com aplicações que permitiam o governo dos Estados Unidos a vigiar seus cidadãos.

No Brasil, o caso mais emblemático de sistematização de um banco de dados que reúne informações de ativistas, organizações de defesa de direitos humanos, manifestantes é um banco de dados mantido pela Polícia Militar do Estado de São Paulo em parceria com a Agência Brasileira de Inteligência. (falta referência).

Coleta de Dados e Controle Social[editar | editar código-fonte]

Recentemente um caso envolvendo o Facebook e a Cambridge Analytica mostrou que os dados de mais de 87 milhões de usuários do Facebook foram minerados e analisados com o fim de produzir uma comunicação estratégica para influenciar processos eleitorais - em 2015 para o político Ted Cruz e em 2016 para o referendo de permanência do Reino Unido na União européia.

Referências

  1. Foi um projeto desenvolvido pela Advanced Research and Projects Agency - Agência de Pesquisas em Projetos Avançados ligado ao Departamento de Defesa dos Estados Unidos (Pentágono)
  2. conjunto de protocolos originalmente desenvolvido pela Universidade da Califórnia em Berkeley, sob contrato para o Departamento de Defesa dos EUA, se tornou o conjunto de protocolos padrão das redes locais e remotas – mais em https://www.clubedohardware.com.br/artigos/redes/arquitetura-de-redes-tcp-ip-r33779/
  3. Segundo o Wikipedia a NSF (Fundação Nacional da Ciência) é uma agência governamental dos Estados Unidos independente que promove a pesquisa e educação fundamental em todos os campos da ciência e engenharia. Em 1984 desenvolveram sua própria rede, em 1988 passaram a utilizar ARPANet como backbone e em 1990 incorpora Arpanet que deixa de ser militar
  4. Expansão da ARPANet, criada em 1983 para cuidar das informações militares.
  5. Sistema de hipermídia que interliga e executa informações na internet.