(Esta parte do meu artigo foi publicada na revista Teletime, n° 144, de junho de 2011.)

Em 1995, através da Norma 04, o Ministério das Comunicações definiu que “provimento e utilização dos serviços de conexão à Internet” são um Serviço de Valor Adicionado (SVA) que, por sua vez, é definido como sendo aquele que “acrescenta a uma rede preexistente de um serviço de telecomunicações meios ou recursos que criam novas utilidades específicas, ou novas atividades produtivas, relacionadas com o acesso, armazenamento, movimentação e recuperação de informações”. Esta decisão foi correta do ponto de vista político (pois permitiu que a Internet não ficasse debaixo do então monopólio do Sistema Telebrás) e técnico. Afinal, naquele momento, a Internet era, de fato, um serviço de valor adicionado que se utilizava das redes construídas originalmente para o STFC.

Dezesseis anos depois, a Norma 04 parece ter se tornado um mantra, repetido por muitos como uma garantia quase que divina de que a Internet não deve ser regulada. Mas, se tanta coisa mudou neste período, não seria necessário ter a coragem de revisitar a Norma 04 e abrir o debate sobre a regulação da Internet?

Ou, mais do que isso, será que alguma vez a Internet deixou de ser regulada? E talvez aqui esteja o vício de origem de todo este debate: supor que só há regulação quando ela é exercida pelo Estado. Ora, é fato que agentes de mercado também exercem forte poder regulador, influenciando a direção que outros agentes seguirão. Nesse sentido, podemos dizer que a Internet sempre foi regulada. O que muda agora é a necessidade deste debate ser feito de forma pública, incluindo o maior número possível de atores sociais, dado que a Internet é hoje um insumo imprescindível para o desenvolvimento humano. Isso significa que precisamos sair de um cenário de regulação privada para outro de regulação pública.

Infra-estrutura de telecomunicações

Ao contrário do início dos anos 90, não é mais verdade que a Internet se utiliza de uma infraestrutura construída originalmente para outros serviços. Pelo contrário, é o tráfego Internet que orienta econômica e tecnologicamente os investimentos em telecomunicações. Já a voz do STFC é que tende a se tornar uma commodity.

O governo sabe disso e percebeu que precisa de uma política para a infraestrutura da Internet. Mas, infelizmente, optou por manter a inviolabilidade da Norma 04 e embutir esta regulação no interior de um contrato de outorga de um outro serviço, o STFC, ao invés de reconhecer a Internet em sua especificidade. Esta opção terá nefastas consequências tanto para o STFC (ao onerar as tarifas de voz com os investimentos feitos para o tráfego de dados) quanto para a Internet (quando abrirmos o debate sobre a reversibilidade dos bens). Defendo que se faz necessária a criação de um novo serviço de telecomunicações, alicerçado em três pilares: a convergência entre voz, vídeo, dados e mobilidade; a separação funcional entre os agentes econômicos que operam as redes e aqueles que provêm o acesso; a transformação da operação da rede em serviço a ser prestado em regime público (e privado), com o consequente Plano Geral de Metas de Universalização (PGMU).

Arquitetura e padrões

Mas a Internet é mais do que a infraestrutura de telecomunicações. E um outro debate, muito mais complexo, gira em torno das definições de padrões e arquiteturas que, como nos lembra o professor Lawrence Lessig, são a “lei” da rede. Por exemplo, quando a Apple decide que seus aparelhos não acessarão vídeos em Flash, ela está ou não exercendo um poder de mercado significativo (PMS)? E não seria aceitável algum tipo de auditoria nos algoritmos de busca do Google, responsáveis por mais de 70% das buscas mundiais na Internet? Vale lembrar que estar na primeira ou na décima página de uma busca no Google pode significar a morte ou o sucesso de um empreendimento.

(INSERÇÃO POSTERIOR: além de Lawrence Lessig, com seu livro fantástico “Code 2.0“, outra boa referência para este debate é o livro “Protocol“, de Alexander Galloway. Logo no prefácio o autor utiliza uma metáfora para explicar o poder dos “protocolos”. Se uma cidade possui uma rua longa e larga e há vários casos de carros transitando em altíssima velocidade por essa rua, duas são as formas de tentar resolver o problema. A primeira é encher a rua de policiais que ficarão anotando os carros que excederem o limite de velocidade. Mas, isso não impede de verdade que os carros acelerem. Basta que os policiais não estejam na rua por algum motivo ou que o motorista esteja disposto a pagar a multa. Outra forma de resolver o problema seria colocar quebra-molas, por exemplo. Com isso, mesmo que queiram, os motoristas não mais conseguirão andar na velocidade de antes. A estes dispositivos Galloway chama de “protocolos” e eles têm o poder de determinar o que pode e o que não pode ser feito, mas não através de leis. Ao invés disso, eles definem o próprio conceito de “real” dentro da Rede. E quem constrói os protocolos tem o poder de fato.)

Mas os padrões e as arquiteturas dos sistemas na Internet, em geral, são definidos em fóruns internacionais, onde a presença das grandes empresas transnacionais é avassaladora. Para atuar nessa arena, o País precisaria definir objetivos (por exemplo, padrões abertos e interoperáveis) e aliados táticos e estratégicos, no âmbito de uma política capaz de produzir um verdadeiro desenvolvimento industrial. Definir, por exemplo, se seremos eternos consumidores de padrões proprietários, com cujos royalties teremos que arcar, ou se vamos ter algum tipo de inserção soberana.

Ou seja, precisamos ter uma política para nossa atuação em organismos como World Wide Web Consortium (W3C), Internet Engineering Task Force (IETF), Internacional Telecommunication Union (ITU) e Internet Corporation for Assigned Names and Numbers (ICANN). Inclusive levando em consideração o fato de que em alguns destes órgãos a atuação é institucional, do governo do país, e em outros ocorre através de pesquisadores e empresas.

Neutralidade de rede

Este é um outro ponto onde a circulação do tráfego Internet já deveria ter sido alvo de regulação. Nos Estados Unidos, a Eletronic Frontier Foundation (EFF) acusa a AT&T de degradar a qualidade de serviços que a empresa considerava concorrentes aos seus (como o VoIP) ou que poderiam expor o fato de que as operadoras vendem, ao usuário final, uma largura de banda que simplesmente não podem entregar (como o P2P). E o que impede que esta mesma prática esteja sendo utilizada hoje no Brasil? Qual o controle existente?

Claro que se faz necessário reconhecer que serviços diferentes requerem tratamento diferenciado. Por exemplo, um serviço de vídeo por streaming requer uma latência mais baixa do que o envio de um e-mail. Contudo, a mesma qualidade aplicada ao vídeo de uma empresa X deve ser fornecida ao vídeo de uma empresa Y, sob pena de termos um cenário onde criar dificuldades para vender facilidades pode se tornar um negócio bem lucrativo.

Fiquemos, então, com a definição aprovada por consenso pelos membros do Comitê Gestor da Internet (CGI.br), mas que carece de forte regulação para se tornar realidade: “filtragem ou privilégios de tráfego devem respeitar apenas critérios técnicos e éticos, não sendo admissíveis motivos políticos, comerciais, religiosos, culturais, ou qualquer outra forma de discriminação ou favorecimento”.

Privacidade e Segurança

No caso da privacidade e segurança dos dados que trafegam na Internet, tradicionalmente tendemos a ter receios do Estado-leviatã, não sem bons motivos. E isso vale tanto para a China e o Irã, por exemplo, quanto para os Estados Unidos e sua poderosa National Security Agency (NSA). Mas, temos poucas proteções contra a ação dos conglomerados de mídia e as centenas de dados que conseguem coletar sobre um mesmo indivíduo: o que ele escreve no Gmail, o que armazena no Google Docs, suas mensagens e redes de amigos no Facebook, suas músicas no iTunes, fotos no Picasa, dados profissionais no Linkedin, sua localização por GPS, compras nos cartões de crédito, logs de acesso, etc. Tudo isso batido em poderosos liquidificadores de data mining que produzem as mais diversas segmentações, capazes até mesmo de antecipar padrões de consumo. Hoje em dia é possível até mesmo encontrar um mercado secundário de venda e compra de dados pessoais, como no caso da empresa BlueKai.

A União Europeia já possui uma diretiva específica para lidar com a privacidade e a segurança da informação e vários de seus membros estão criando agências para regular o tema. Parece que, aqui também, estamos atrasados.

Direito autoral

Trata-se aqui, por um lado, de reconhecer a necessidade de termos modelos de negócio capazes de remunerar o produtor (e que não entreguem o poder de gestão dos direitos nas mãos de distribuidores/atravessadores) e, por outro lado, reconhecer também que informação não é um bem rival e que pode ser reproduzida ao infinito com custo marginal tendente a zero (especialmente na Internet, onde não há mais um suporte físico para esta informação). Este novo modelo começa com o reconhecimento de que “pirataria” é um termo impreciso demais e que coloca no mesmo balaio circuitos de produção totalmente distintos, que vão desde as máfias de reprodução e comercialização com fins de lucro até o peer-to-peer baseado numa espécie de “gift economy”. Mas um novo modelo terá que reconhecer também que o acesso à informação é um direito humano e não pode estar restrito às demandas de lucro da indústria cultural.

Ou seja, precisamos de um novo regime de direitos autorais, que pactue uma aliança possível entre a remuneração do produtor e o direito humano ao acesso à informação e à cultura. Um regime radicalmente diferente daquele criado pelo Estatuto da Rainha Ana, de 1710, e que ainda hoje preside o discurso dos agentes econômicos do setor.

(continua)