por James Görgen – A Internet, que completará 55 anos em 2024, sempre é bom lembrar, nasceu como um projeto militar dos Estados Unidos, nos anos 1960, no contexto da Guerra Fria. Não por acaso, seu primeiro acrônimo foi Arpanet, derivado do nome do órgão que a financiou, a Advanced Research Projects Agency (ARPA), hoje conhecida como Defense Advanced Research Projects Agency (DARPA), uma agência do Departamento de Defesa dos EUA.
A criação da Arpanet, na década de 1960, resultou de significativos investimentos públicos, visando como um projeto de pesquisa financiado com recursos públicos para desenvolver uma rede de comunicação robusta e descentralizada que pudesse resistir a falhas de comunicação em caso de um ataque nuclear. Ela se tornou operacional em 1969, ao interligar quatro importantes centros de pesquisa, localizados nas universidades de Stanford, UCLA, Califórnia-Santa Bárbara e Utah, envolvidas em projetos militares. A partir daí, outras instituições e centros de pesquisa foram sendo incorporados e, ao longo dos anos 1970, com o desenvolvimento dos protocolos TCP e IP, padronizando as comunicações ao longo da rede, assentou-se a fundação para o que já começava a ficar conhecido como Internet.
Mas, ao longo dos anos 1980, camadas tectônicas geopolíticas começaram a se movimentar, levando de arrasto a Guerra Fria; o então senador estadunidense, Al Gore, vale-se desse momento e patrocina a legislação que desmilitarizaria a Internet, passando-a para a alçada administrativa da National Science Foundation (NSF); e, numa coincidência histórica, o físico e engenheiro de software, em 1989, Tim-Berns Lee, em uma tarefa paralela, e quase pessoal, ao seu trabalho no CERN, na Suíça, vale-se da ideia pré-existente de hipertexto, combina-a com uma nova linguagem hipertextual (HTML), um novo protocolo de transporte (HTTP) e um esquema específico de endereçamento (URI), batiza-a de World Wide Web, e cria a plataforma global de comunicação, que mudaria a história da Internet, e de boa arte do mundo como existia até então.
Mas, o que parecia anunciar uma aurora de desenvolvimento balizado pelo interesse público, sob os olhos de um ente acadêmico-científico, agora livre de injunções militares, gerando largas expectativas civilizatórias, sofre uma reviravolta quando, no inícios dos anos 1990, a NSF literalmente cede o controle e os destinos da internet para exploração comercial, sem qualquer remédio regulatório estatal significativo, ao revés, por exemplo, do que ocorrera entre os anos 1920 e 1930, com o igualmente revolucionário desenvolvimento da radiodifusão. E, para aumentar a distância dos Estados Nacionais, a arquitetura da governança da Internet acabou sendo pensada para ser um espaço onde o multissetorialismo e a busca pelo consenso se mantivesse acima dos acordos multilaterais.
Ao longo de sua trajetória, a definição dos princípios de engenharia de rede que permitiram a criação de uma rede neutra, descentralizada e aberta ocorreram em espaços nos quais agentes públicos “eram entes estranhos”. Nesses espaços, nasceu uma cultura liberal, baseada na meritocracia, que até hoje define a essência do multissetorialismo e seus problemas de representação. A comunidade técnica, financiada por recursos públicos e por entidades privadas, que até hoje administra o desenvolvimento dos padrões da rede, cresceu, e esses espaços de definição de protocolos e padrões se institucionalizaram produzindo o que a literatura brasileira já reconhece desde 2010 como um regime global de governança da Internet. Tudo isso gerou dilemas trazidos pela construção do consenso e a insistência na manutenção de um status quo que ratifica e legitima o predomínio de alguns atores sobre os demais em nome do dogma da Internet livre, aberta e neutra.
A governança da Internet1 é um campo complexo que envolve uma variedade de atores, incluindo governos, empresas, organizações da sociedade civil e técnicos. O modelo multissetorial de governança, que busca incluir todas essas partes interessadas na tomada de decisões sobre o funcionamento da Internet, tem sido amplamente defendido como o caminho mais justo e equitativo para gerenciar o ciberespaço. No entanto, por trás do véu aparente do consenso e da cooperação, escondem-se dilemas que merecem uma análise mais aprofundada.
Controle unilateral
Enquanto se manteve como um projeto quase acadêmico e de pesquisa, um tanto quanto desconhecido ao longo de uma década e meia, a ARPANET se constituiu como uma rede de computadores formada por nós de universidades, com a supervisão do Departamento de Defesa dos EUA. Foi no seu início comercial, em meados da década de 1990 que o processo de institucionalização de um regime de governança teve seu ápice, inicialmente com a criação de um conjunto de entidades que regulam a distribuição dos principais ativos da rede: os blocos de números IPs (Internet Protocol) e nomes de domínios para cada País. A gestão dessas entidades foi definida por pesquisadores norte-americanos responsáveis pela guarda desta grande “lista telefônica”. Eles escolheram colegas acadêmicos para transferir estes recursos para outros países uma vez que se mostrava humanamente impossível administrar os registros de todo o planeta, que logo chegariam a casa dos bilhões. Estabeleciam acordos entre si para alocar endereços IP e, mais tarde, nomes de domínio. Para muitos, este movimento foi visto como uma forma de estimular e popularizar o uso global da Internet fazendo frente às iniciativas governamentais existentes.
Assim, longe do controle de Estados Nacionais, surgiram entidades sem fins lucrativos – conhecidas como Regional Internet Registries (RIR) – que ficaram com a missão de alocar um número a um determinado dispositivo conectado à rede. A distribuição dos blocos de números e nomes de domínio no início da Internet foi gerenciada pela Internet Assigned Numbers Authority (IANA), função executada até 1998 pelo Information Sciences Institute (ISI) da University of Southern California (USC) com financiamento do Departamento de Defesa. A IANA era responsável por atribuir endereços IP e nomes de domínio de primeiro nível (TLDs) de forma coordenada e global2.
Em 1998, a gestão dos ativos da IANA foi transferida para a Internet Corporation for Assigned Names and Numbers (ICANN), uma organização sem fins lucrativos criada para supervisionar várias funções-chave da Internet, incluindo a coordenação dos TLDs e dos endereços IP. A entidade assumiu as responsabilidades de gerenciamento e coordenação dos nomes de domínio da Internet, bem como dos números IP e dos sistemas de servidores-raiz. Deste período até 2016, por meio da IANA, a ICANN manteve um contrato com o Departamento de Comércio (DoC) dos Estados Unidos que dava a este órgão poder de supervisão direta sobre a atuação da instituição maior da Internet. Os demais governos ficam relegados a um dos quatro comitês consultivos da entidade. Para alguns, a criação da ICANN representou o golpe final sobre as possibilidades de participação de agentes estatais em definições técnicas sobre o futuro da Internet.
A saída do DoC da relação umbilical com a ICANN se deu somente 8 anos atrás, depois da pressão política mundial gerada pelas denúncias de espionagem daquele governo, usando a estrutura das big techs, contra mandatários de outros países, como a Presidente Dilma Roussef. Não por acaso, em 2013, poucos meses depois do estouro deste escândalo global o chair da ICANN procurou o governo brasileiro para propor um evento em São Paulo que fosse discutir novos caminhos para a governança da Internet. Com a hegemonia norte-americana ameaçada, nascia o NetMundial, que teve sua segunda edição, 10 anos depois, realizada novamente no Brasil no último mês de abril3.
Surge o multissetorialismo
Pouco depois da criação da ICANN, em 1998 começou-se a construir politicamente a ideia do multissetorialismo como um valor global para a governança da Internet, trazendo governos, sociedade civil, setor privado e academia para o mesmo patamar nas negociações que levaram aos primórdios desse regime de governança que se dizia de todos e para todos. À medida que a rede mundial de computadores crescia em importância econômica, social e política, ficava claro que era preciso criar espaços de discussão por consenso, sem decisões vinculantes, que pudessem ajudar a preservar a arquitetura construída pelos EUA. E isso foi feito dentro do próprio sistema que era multilateral por natureza: a Organização das Nações Unidas (ONU).
A Cúpula Mundial sobre a Sociedade da Informação (CMSI) desempenhou um papel crucial nesta sendo o palco para a consolidação do multissetorialismo na governança da Internet. A CMSI foi uma série de duas cúpulas, realizadas em Genebra (2003) e em Túnis (2005), organizadas pela União Internacional de Telecomunicações (UIT), uma agência especializada na definição de padrões de telecomunicações das Nações Unidas. Estas cúpulas foram os primeiros fóruns verdadeiramente globais que trataram das questões relacionadas à governança da Internet em um contexto internacional.
A importância da CMSI para a difusão do multissetorialismo na governança da Internet reside no fato de que ela reuniu uma ampla gama de partes interessadas para discutir questões relacionadas à rede. Isso ajudou a promover o entendimento de que nenhum grupo poderia ou deveria controlar completamente a Internet, e que uma abordagem colaborativa e inclusiva seria a mais eficaz. Ao mesmo tempo, o Departamento de Comércio mantinha seu pé na supervisão da rede através do contrato com a ICANN.
Um dos frutos da CMSI mais importantes para a manutenção do status quo da Internet foi a criação do Fórum de Governança da Internet (IGF, na sigla em inglês), evento que é realizado uma vez por ano em um país diferente reunindo toda a chamada comunidade global da rede. São vários dias de espaços de diálogo paralelos, com dezenas de atividades ocorrendo ao mesmo tempo, e, mais uma vez, sem decisões vinculantes. Até hoje, o IGF se constitui em um bastião contra tentativas regulares de uma, segundo alguns, “estatização” da Internet. Ao mesmo tempo, a parte da sociedade civil ali representada atua com a falsa convicção de que realmente as decisões tomadas neste fórum possuem algum poder de influência sobre os rumos da rede.
Interesses em jogo
Então, a quem interessa manter o modelo multissetorial para a governança da Internet? Sem contar as centenas de pessoas bem intencionadas que criam organizações não-governamentais para defender direitos difusos e outras demandas sociais na rede, existem alguns atores que são mais interessados do que outros nas estratégias do consenso. Os Estados Unidos, historicamente, tiveram um papel central na governança da Internet, graças à sua influência sobre instituições-chave já mencionadas anteriormente e outras que citaremos mais adiante. Ao exercer uma supervisão significativa sobre a gestão do sistema de números e nomes de domínio da Internet por quase 50 anos, sua presença na defesa destes fóruns e nos grupos da comunidade técnica sempre causou preocupações sobre um poder unilateral na definição das regras do jogo.
No mesmo sentido, big techs (como Google, Facebook, Amazon, Microsoft e Apple) e outras empresas de tecnologia também têm interesses significativos na manutenção do modelo multissetorial de governança da Internet. Esta arquitetura permite que elas participem ativamente na definição das políticas que afetam suas operações. Além disso, o ambiente descentralizado da governança da Internet muitas vezes dificulta ou protela a implementação de regulamentações globais que poderiam restringir suas práticas. Na maior parte das vezes, os eventos terminam com grandes cartas de intenções principiológicas sem qualquer poder vinculante.
Para estes conglomerados, a manutenção do status quo significa preservar sua liberdade de operação e minimizar a intervenção governamental em suas atividades. Elas podem favorecer um sistema em que as decisões são tomadas por consenso, já que isso muitas vezes resulta em soluções que não são tão rigorosas em termos regulatórios e que acabam sempre sendo adiadas.
No NetMundial+10, que contou com a presença de 60 países, o representante da empresa de inteligência artificial OpenAI, presente ao evento, saudou o modelo multissetorial como “uma pedra angular da governança da internet e o que garante que todas as vozes sejam ouvidas”. E foi além, deixando mais claro onde está o verdadeiro poder nesta estrutura: “A comunidade técnica é extremamente importante e vital para sentarmos à mesa nestas discussões e nos ajudarem a compreender o que pode e o que não pode ser feito do ponto de vista técnico (…) É por isso que eu acho que deveríamos ir além de momentos específicos como as consultas públicas. Eu diria que a IA é uma boa metáfora para explicar uma abordagem multissetorial, porque requer uma quantidade tão grande e tão complexa de recursos exigentes de uma abordagem de governança tão multifacetada quanto a própria tecnologia, e fico feliz em ver essa abordagem multifacetada”4.
Protocolos políticos
A comunidade técnica da internet referida pelo executivo da OpenAI merece um capítulo à parte na construção de armadilha no processo de tomada de decisão por consenso. As SDOs (Standard Development Organizations) são o real motor de decisões por trás da internet. Responsáveis pelas definições de padrões e protocolos que garantem a interoperabilidade e a estabilidade da rede, características essenciais para seu bom funcionamento, os engenheiros e cientistas da computação que delas fazem parte são ciosos de seus espaços, que aos poucos começaram a ser ocupados pelos experts financiados pelas empresas de tecnologia.
São suas decisões que constróem o mito de que a rede é livre, aberta e neutra. Entretanto, como bem mostrou Laura DeNardis em seu livro Protocol Politics: The Globalization of Internet Governance (2009), embora a arquitetura distribuída e a onipresença da Internet possam passar a impressão de que ninguém a controla, a coordenação – às vezes centralizada – ocorre em várias áreas técnicas e administrativas necessárias para manter a Internet operacional. Dado que toda a tecnologia embute valores e vieses, a definição de padrões dá forma a uma arquitetura legal que reflete estes valores. Quem sustenta que a Internet não precisa ser regulada, mas apenas o conteúdo que transporta, pode estar reconhecendo que ela já é regulada, desde os anos 1990, e desconsidera um preceito básico da filosofia da tecnologia: que ela é política.
A abertura dos protocolos e padrões também é algo questionável. Como diz a pesquisadora, convenções como TCP/IP e HyperText Markup Language (HTML) têm sido historicamente disponibilizadas de forma aberta, permitindo que cidadãos e empreendedores contribuam para a inovação, a cultura e as esferas discursivas eletrônicas da Internet. Outros padrões técnicos amplamente utilizados não apresentam esse mesmo grau de abertura. Do ponto de vista econômico, os padrões têm efeitos significativos, como possibilitar ou restringir o comércio global e permitir a concorrência e a inovação em áreas de produtos baseadas em padrões comuns.
Como sugere David Grewal em Network Power: The Social Dynamics of Globalization (2008), a “criação e a difusão de padrões subjacentes a novas tecnologias é um elemento impulsionador da globalização contemporânea”. Ken Alder, em seu artigo A Revolution to Measure: The Political Economy of the Metric System in France (1995)5, vai além: “No centro dos ‘padrões universais’ comumente considerados produtos da ciência objetiva está o historicamente contingente e, além disso, esses padrões aparentemente ‘naturais’ expressam as agendas específicas, ainda que paradoxais, de interesses sociais e econômicos específicos.”
DeNardis explora seis formas pelas quais os protocolos técnicos potencialmente servem como instrumentos de se fazer política pública: “(1) o conteúdo e as implicações materiais dos padrões podem constituir questões políticas substanciais; (2) os padrões podem ter implicações para outros processos políticos; (3) a seleção de padrões pode refletir lutas de poder institucional pelo controle da Internet; (4) os padrões podem ter implicações pronunciadas para os países em desenvolvimento; (5) os padrões podem determinar como a política de inovação, a concorrência econômica e o comércio global podem prosseguir; e (6) os padrões às vezes criam recursos escassos e influenciam a forma como esses recursos são distribuídos globalmente.”
Uma característica marcante desse tipo de força social, que claramente faz e implementa políticas públicas, é que ela é estabelecida por instituições, geralmente instituições privadas, e não por representantes eleitos. Curiosamente, pesquisas têm apontado que todas são compostas majoritariamente por representantes de corporações e da academia, ficando a participação da sociedade civil e governos comprometida.
A principal SDO global da rede, a Internet Engineering Task-Force (IETF), fundada em 1986, atua com uma série de grupos de trabalho que propõem e respondem a RFCs6 (request for comments), documentos que definem detalhadamente como os protocolos funcionam e pode ser operada e gerenciada em larga escala. Ou seja, mais uma vez o consenso é o caminho para a aprovação destes documentos. Entre rodadas e mais rodadas de negociação, os participantes precisam de recursos para investir em viagens internacionais e tempo para se dedicar à produção das RFCs. Dado este obstáculo, empresas de tecnologia começaram a realizar doações para sustentar a IETF. Dos 27 financiadores apresentados no sítio da entidade atualmente7, mais da metade são empresas norte-americanas. Ironicamente, uma das divisas da IETF, cunhada por David Clark, é: ” We reject: kings, presidents, and voting. We believe in: rough consensus and running code.”
As corporações dos EUA também predominam no Internet Architecture Board (IAB), instituição criada em 19798 por Vinton Cerf, ex-gerente de programa da agência de pesquisa do Departamento de Defesa e atualmente Chief Internet Evangelist do Google, e um dos responsáveis pelo estabelecimento da IETF. Formada por 13 indivíduos, seis são indicados todos os anos por um comitê da IETF para um mandato de dois anos. O décimo terceiro membro do IAB é o presidente da IETF. O IAB elege seu próprio presidente entre seus doze membros indicados pela IETF. Sua atual composição inclui funcionários da Cisco, Apple, Huawei, Ericsson, Nokia e Google.
No campo dos padrões Web, foi criado por Tim Berns-Lee, em 1994, o World Wide Web Consortium (W3C), consórcio responsável por definir protocolos e diretrizes especificamente para essa aplicação. Suas características e modo de funcionamento são similares aos da IETF, também recebendo doações de empresas, além de patrocínios. Uma diferença básica é que esta entidade constituiu uma corporação nos EUA que responde pelas questões legais. Globalmente, o W3C possui 359 membros, com perfis variados. Entre eles, novamente, estão as big techs e diversas outras empresas de tecnologia, inclusive as chinesas. Porém, governos não fazem parte do consórcio.
Talvez o caso mais emblemático que demonstra um claro predomínio político sobre as definições estruturais em torno da rede das redes seja o da escolha do protocolo de Internet (TCP/IP) único e que hoje predomina em toda sua arquitetura. Como registra DeNardis, no início dos anos 1990 existiam vários padrões sendo cogitados para assumir esta posição causada pela escassez de números para designar os inúmeros dispositivos que se conectavam na rede diariamente. Simplificando o debate, os dois principais concorrentes ao posto eram o IP, controlado pela IETF, e o Open System Interconnection (OSI), suportado pela International Standards Organization (ISO), entidade que conta com representantes de diversos governos e que possuía em sua composição pesquisadores de diversos países não alinhados aos EUA.
Ao saber que o IAB tinha endossado o padrão OSI-ISO, a comunidade ligada à IETF, composta basicamente por pesquisadores dos Estados Unidos e empresas de tecnologia locais, passou a se reunir para construir uma alternativa que pudesse endereçar o problema da escassez de números IPs. Desta série de reuniões, conduzidas e lideradas por fundadores da rede como Vinton Cerf e David Clarke, participavam representantes do governo dos EUA. Depois das várias rodadas de trabalho e discussão, o IAB cedeu e acabou aceitando o protocolo desenvolvido pela IETF – o IP version 6 (IPv6) – como o padrão único de interoperabilidade da Internet mundial. Mais uma vez, a Internet estava salvaguardada da representação de outros governos.9
Além da presença dos norte-americanos, as características similares entre as SDOs permitem a criação de um controle indireto por diversas corporações. Como já destacaram dois antigos participantes destas organizações:
“O que parecem ser padrões ‘voluntários’ geralmente são as escolhas comerciais das maiores empresas. O domínio das SDOs por grandes companhias também molda o que não é padronizado – por exemplo, a pesquisa, que é efetivamente um monopólio global. Embora os esforços para abordar diretamente a consolidação da Internet tenham sido levantados repetidamente nas SDOs, pouco progresso foi feito. Isso está prejudicando a credibilidade das SDOs, especialmente fora dos EUA. As SDOs precisam mudar radicalmente ou perderão seu mandato global implícito para administrar o futuro da Internet.”10 (tradução nossa)
Um ativo estratégico
As organizações e empresas de tecnologia que compõem o ecossistema que gira em torno do multissetorialismo têm outro importante pilar em comum. Quase todas defendem a necessidade de se garantir o livre fluxo global de informação. Como no digital informação é originada nos dados, estruturados ou não, a estratégia consensual também aqui é assegurar que esta “commodity” não seja objeto de controle pelos Estados Nacionais.
Desde 1998, data que coincide com a criação da ICANN, uma moratória sobre a não criação de barreiras tarifárias para o fluxo de transmissões eletrônicas é discutida no âmbito da Organização Mundial do Comércio (OMC)11. E, por pressão dos EUA, e mais recentemente da China, sua renovação é sempre aprovada a cada dois anos, durante as Conferências Ministeriais.
Com isso, os países são impedidos de criar instrumentos de tributação para financiar sua própria economia digital uma vez que os dados simplesmente são coletados em seu território e fluem para o berço das big techs sem qualquer amarra regulatória ou fiscal. Recentemente, alguns membros da OMC começaram a questionar este instrumento. Indonésia, África do Sul e Índia estão apresentando argumentos pelo fim da moratória. Naturalmente, uma liga de milhares de empresas de todo o planeta defende que a mesma se torne uma regra permanente. Assunto que, infelizmente, não é discutido nos fóruns da comunidade global da internet. Afinal, não haveria consenso para encaminhá-lo.
Os limites do consenso
Como sabem todos os que estudam ciência política ou teoria das organizações, e como vimos até aqui, o consenso nem sempre reflete o interesse público, podendo ser capturado por grupos que buscam promover suas próprias agendas em detrimento do bem comum.
O processo de busca por consenso também é lento e burocrático, o que pode levar a uma estagnação na formulação de políticas e na implementação de medidas necessárias para lidar com desafios emergentes, como a privacidade dos dados, segurança cibernética, concentração de mercado e desinformação online. Por fim, apesar das intenções de inclusão, o modelo multissetorial tende, paradoxalmente, a excluir vozes marginalizadas e comunidades sub-representadas, que podem não ter os recursos ou o acesso necessário para participar plenamente no processo de tomada de decisões.
Coincidência ou não, os 18 anos em que os IGFs foram realizados até aqui estão sincronizados com a maior expansão das big techs norte-americanas até chegarem à hipertrofia e ao oligopólio global atual. Durante este período, somente os Estados Nacionais denunciaram o status quo e aprovaram legislações que criaram alguns limites para estas empresas. A estratégia simbólica para lutar contra esta “insurreição” de governos e tentar amalgamar a comunidade da internet foi a criação da ameaça de fragmentação da Internet, cujo documento “An open, interconnected and interoperable internet (joint letter)”, elaborado em setembro de 2021, foi assinado pelas principais big techs dos Estados Unidos12 e algumas personalidades vinculadas historicamente a um modelo de governança de cunho ideologicamente liberal.
Para onde ir?
Como questionei em outro texto (“Precisamos refundar a Internet?”13), depois de várias décadas de multissetorialismo passa da hora de governos e sociedade civil começarem a questionar os resultados deste modelo de governança da internet, que resultou em um predomínio do setor privado sobre os demais atores e de uma comunidade técnica que funciona com pouca transparência e ensimesmada. Vendida com a metáfora das águas oceânicas que não pertencem a nenhum país, também é importante ter em mente que a Internet é feita de dispositivos, cabos, antenas e seres humanos que não são virtuais. Todos estão com os pés fincados em uma determinada jurisdição e, portanto, são regidos por códigos legais e suas atividades são passíveis de regulação nos países em que se localizam.
Reduzir este desequilíbrio passa por definir na ONU um espaço de real decisão sobre os rumos da rede mundial de computadores que dialogue através de uma agenda intersecional bem estruturada com os fóruns de governança da Internet. Um lugar onde os países possam se sentar de forma igualitária para debater os desafios concretos que se colocam para o mundo digital sem existirem assimetrias de poder tão expressivas. Ao chamar para si esta missão, tanto para inteligência artificial, para atuação das plataformas digitais quanto para governança da Internet em geral14, o Secretário-Geral das Nações Unidas, Antônio Guterres, vem sofrendo forte oposição de diversos setores sociais e de alguns países. Sua proposta de Pacto Digital Mundial (Digital Global Compact, ou GDC)15, oriundo do documento Nossa Agenda Comum, assinado pelo Secretário-Geral, tenta definir princípios para uma abordagem mais multilateral da governança da Internet preservando diretrizes caras às articulações multissetoriais.
Para enfraquecer este esforço, algumas entidades alegam que o GDC visa centralizar as decisões da governança digital e dar mais poder aos Estados e deveria ser “fiscalizado” pelo IGF. Fazem isso a partir da crítica do processo de elaboração do Pacto, que terá seu lançamento na Cúpula do Futuro, em setembro deste ano. Aqui temos uma oportunidade concreta de o Brasil apoiar os esforços de Guterres para criar dentro da ONU uma estrutura capaz de colocar em pé de igualdade principalmente os países com ecossistemas digitais menos desenvolvidos, dando um caráter multilateral para a agenda digital sem perder espaços multissetoriais de diálogo.
Alterar esta realidade passa também pela necessidade de se dar a maior transparência e accountability possíveis às instâncias que tomam as decisões sobre padrões e outros protocolos que configuram a rede das redes, criando limites para a influência das empresas interessadas no trabalho destes grupos e adicionando outros segmentos ao processo de tomada de decisão. Isso requer revisões profundas na forma de atuar da ICANN e da IETF e na democratização das entidades de registros de domínio ao redor do mundo.
Depois de 55 anos de sua criação, e com as conquistas logradas por todos os seus usuários, a Internet merece ser tratada como um patrimônio imaterial da humanidade. Mas isso não significa dar um cheque em branco a atores que a gerenciam diariamente. Sem dogmas ou mitos, a liberdade que se pleiteia para a rede das redes precisa ser a mesma com que este debate deverá ser travado para evitar novas armadilhas nos anos que virão.
1 Na versão mais propagda, este termo é altamente contestado por diversos autores e reguladores no mundo dada sua limitação: “Muitas concepções de governança da Internet, especialmente as que emanam de comunidades técnicas, têm um escopo bastante limitado, descrevendo a governança da Internet como tendo três funções distintas: “(1) padronização técnica, (2) alocação e atribuição de recursos e (3) formulação de políticas, aplicação de políticas e resolução de disputas” (DeNardis, 2009).
2 No início, a distribuição de endereços IP foi feita em blocos de classes, conhecidos como Classes A, B e C. As Classes A e B eram reservadas para organizações maiores, enquanto a Classe C era destinada a organizações menores. No entanto, devido ao esgotamento dos endereços IPv4, o sistema de classes foi gradualmente substituído por um sistema de alocação mais flexível chamado CIDR (Classless Inter-Domain Routing), que permite uma alocação mais eficiente de endereços IP.
Quanto aos nomes de domínio, a IANA inicialmente atribuiu um pequeno conjunto de TLDs genéricos, como .com, .org, .net, .gov e .edu, além de TLDs de códigos de país (ccTLDs), como .us para os Estados Unidos, .br para o Brasil, .jp para o Japão, entre outros. Esta distribuição foi baseada em princípios que visavam garantir a diversidade e a distribuição geográfica dos TLDs.
Com o crescimento da Internet e a necessidade de mais TLDs para atender às demandas de diferentes setores e regiões, a administração dos TLDs foi descentralizada. A IANA continuou a coordenar os aspectos técnicos da distribuição de TLDs, mas a responsabilidade operacional pelos diferentes TLDs foi delegada para organizações específicas, conhecidas como registries, que passaram a ser responsáveis pela gestão e manutenção dos TLDs individuais.
3 O documento final do encontro, focado apenas na questão da governança da Internet sem fazer referência a dados ou economia, pode ser consultado aqui: https://netmundial.br/pdf/NETmundial10-MultistakeholderStatement-2024.pdf
4 Disponível em: https://www.convergenciadigital.com.br/Internet/OpenAI-contrata-no-Brasil-e-sai-em-defesa-do-Modelo-multissetorial-na-Internet-65881.html?UserActiveTemplate=site
5 Disponível em: https://muse.jhu.edu/pub/267/edited_volume/chapter/2719552
6 Conforme o próprio sítio da entidade (ietf.org) descreve: “A IETF publica sua documentação técnica como RFCs, um acrônimo para seu título histórico Requests for Comments (Solicitações de comentários). As RFCs são numeradas sequencialmente, começando com a RFC 1, publicada em 1969 (a série RFC é anterior à IETF). Cada RFC tem um status, geralmente um dos seguintes: “Padrão da Internet”, “Proposta de Padrão”, “Melhor Prática Atual” (ou “BCP”, na sigla em inglês), “Informativo”, “Experimental” ou “Histórico”. Alguns status podem mudar com o tempo. As RFCs estão disponíveis gratuitamente. (…) Quando uma RFC é publicada, ela nunca é revisada. Se a especificação que ela descreve mudar, o padrão será republicado em outra RFC que “obsoletará” a primeira. Se um erro técnico ou editorial for encontrado em uma RFC, uma errata poderá ser vinculada à RFC e/ou mantida para a próxima atualização do documento.
No livro Protocol Politics, Laura DeNardis revela como nasceu o controle das RFCs: “O falecido Jon Postel atuou como coletor, editor e arquivista de mais de 2.500 RFCs por 28 anos, a partir de 1969. Após a morte de Postel, em 1998, sua colega Joyce Reynolds assumiu essas responsabilidades, posteriormente ampliadas para um pequeno grupo de pessoas financiadas pela Internet Society.” Postel também ficou conhecido como Protocol Czar.
7 Disponível em: https://www.ietf.org/support-us/donors/
8 Disponível em: https://www.iab.org/about/history/
9 Leia mais sobre este episódio no artigo de Juliano Cappi (2023). Disponível em: https://www.comciencia.br/multissetorialismo-e-deliberacao-publica-a-curva-de-aprendizado-da-experiencia-brasileira/
10 Disponível em: https://www.noemamag.com/we-need-to-rewild-the-internet/
11 Leia mais sobre a moratória aqui: https://www.jota.info/opiniao-e-analise/artigos/um-nobel-contra-as-big-techs-27032024?non-beta=1
12 Disponível em: https://www.gp-digital.org/an-open-interconnected-and-interoperable-internet-joint-letter/
13 Disponível em: https://teletime.com.br/22/04/2024/precisamos-refundar-a-internet/
14 A UNESCO, a UIT, a OCDE e o Grupo dos Sete desenvolveram diretrizes com o objetivo de garantir o desenvolvimento ético, transparente e socialmente útil da inteligência artificial. Com base em iniciativas anteriores, o Comitê Consultivo de Alto Nível sobre Inteligência Artificial, que está sob a alçada do Enviado Especial para Tecnologia do escritório do Secretário-Geral, defende uma estratégia mundial inclusiva para empregar a inteligência artificial em benefício da humanidade. Considerando essas mudanças e a avaliação de 20 anos da Cúpula Mundial sobre a Sociedade da Informação, bem como as negociações para o GDC, a governança da Internet justa e eficiente torna-se essencial.
15 Disponível em: https://www.un.org/techenvoy/global-digital-compact
JAMES GÖRGEN
Especialista em Políticas Públicas e Gestão Governamental