Início 9 Destaques 9 Na corrida da IA, vence o comportamento predatório dos gigantes da tecnologia

Pontos de vista

Na corrida da IA, vence o comportamento predatório dos gigantes da tecnologia

COMPARTILHAR:

Plataformas são em sua essência contra regulação. Para elas, as leis são desatualizadas e ao invés de promoverem inovação, impõem barreiras operacionais, políticas, reputacionais e financeiras. Para essas empresas, qualquer forma de regulação limita seu crescimento e enfraquece seu poder político e econômico.

Na corrida da inteligência artificial (IA), o volume de dados é visto como ouro. Em abril de 2024, o New York Times revelou que a disputa pelo domínio da IA se tornou uma busca frenética das empresas de tecnologia por dados para treinamento de seus modelos tecnológicos. Para vencer a todo custo, empresas como OpenAI, Google e Meta reduzem custos, ignoram políticas internas e tentam driblar leis. Até dezembro de 2024, foram registrados cerca de trinta processos contra empresas de IA por direitos autorais nos Estados Unidos. 

Neste contexto, um caso emblemático envolve a Meta. No mês passado, documentos judiciais revelaram que, mesmo após alarme de funcionários, Mark Zuckerberg autorizou sua equipe a recorrer a uma das maiores e mais polêmicas bibliotecas de livros piratas do mundo — a russa Library Genesis (LibGen). Evidências do caso demonstram que a empresa baixou mais de 190 terabytes de dados de várias bibliotecas, incluindo Anna’s Archive e LibGen. Considerando que cada livro digital tenha, em média, 2.6 megabites, isso equivale a cerca de 73 milhões de livros baixados. Um movimento típico da filosofia da empresa: “move fast and break things” (“avance rápido e quebre coisas”).

Diante do intenso debate sobre IA e o comportamento predatório dessas empresas, a necessidade de regulação nunca foi tão urgente. No entanto, é fundamental questionarmos os princípios que orientam o comportamento desses monopólios de tecnologia, que frequentemente ignoram as normas em nome da maximização do lucro. Embora estas empresas justifiquem suas medidas sob o pretexto da inovação, elas não operam em prol do bem comum. Pelo contrário, o objetivo central dessas empresas é a obtenção de poder econômico e político a qualquer custo. E, apesar de possuírem recursos abundantes para evitar práticas questionáveis, elas escolhem agir como um estudante com poucos recursos, que recorre ao download ilegal de livros para fazer seu trabalho escolar. Isso demonstra a velha cultura hacking do Vale do Silício, porém dessa vez os hackers são empresas bilionárias em busca de poder. 

Direitos Autorais, IA e o Poder 

O cerne das batalhas jurídicas envolvendo IA gira em torno de uma pergunta crucial: as empresas de IA podem utilizar material protegido por direitos autorais para treinar seus modelos de IA? Isso constitui uma violação de direitos autorais? Representantes das plataformas defendem que não. Para eles, o uso desse material é essencial para o progresso da sociedade — afinal de contas, já não passamos por isso antes com buscadores como o Google, Bing e muitos outros? 

Desde o surgimento dos buscadores de internet, muita coisa mudou. Na década de 1990, os Estados Unidos criaram um ambiente regulatório para proteger tanto as plataformas quanto os detentores de direitos autorais. Esse ambiente permitiu o crescimento de empresas que se tornaram as mais lucrativas do mundo e que hoje fazem parte do capitalismo de vigilância, detendo enorme poder político, econômico e social em escala global. 

A lei de direitos autorais se tornou uma ferramenta de poder. Ativistas que defenderam o acesso livre à informação acadêmica, por exemplo, foram alvos da rígida regulação dos Estados Unidos. Um exemplo marcante é o caso de Aaron Swartz, que, em 2011, foi preso por baixar cerca de quatro milhões de artigos acadêmicos do JSTOR usando a rede do MIT (Massachusetts Institute of Technology). Ao contrário dos bilionários de tecnologia de hoje, que exploram material protegido sem grandes consequências, Swartz foi tratado como criminoso, enfrentando uma pena de mais de 50 anos de prisão, perda de bens e uma multa de até US$ 1 milhão. Tragicamente, em 2013 o ativista se suicidou. Mais de uma década depois o mundo se vê no meio de um novo dilema. 

Paradoxalmente, quando se trata das grandes empresas de IA, argumenta-se que elas não roubam nem copiam conteúdo de terceiros. Afinal, seus algoritmos apenas aprendem padrões, geram insights e criam novos resultados. No entanto, essa questão permanece controversa. Sem um consenso claro, diferentes casos estão sendo debatidos nos Estados Unidos para entender se a ação das plataformas viola ou não direitos autorais de terceiros.

O objetivo aqui não é analisar a regulação de direitos autorais dos Estados Unidos vis-à-vis as ações dessas empresas. Essa é uma tarefa que cabe aos juristas. No entanto, é fundamental refletir sobre os princípios que guiam o comportamento desses grandes monopólios de tecnologia e a necessidade de regulação. Sabemos que, na busca por poder, os dados se tornam a moeda mais valiosa para as plataformas, o que torna ainda mais urgente uma regulação que possa frear o comportamento predatório dessas empresas como a exploração de trabalho autoral de terceiros para o desenvolvimento de produtos que geram ainda mais lucro e poder para estes grandes monopólios.

O Paradoxo da Regulação

A regulação de plataforma apresenta paradoxos evidentes. Nos Estados Unidos, a seção 230 do Communications Decency Act (CDA) rege que plataformas não são responsáveis por conteúdo postado por terceiros. No entanto, o Digital Millenium Copyright Act (DMCA) estipula que as plataformas sejam responsabilizadas por violações de direitos autorais cometidas por terceiros, caso não removam rapidamente o conteúdo infrator após notificação.

Nos Estados Unidos, o Communications Decency Act (CDA), promulgado em 1996, tornou-se crucial para as plataformas. A seção 230 do CDA oferece imunidade legal às plataformas online em relação ao conteúdo gerado por terceiros. Em essência, a lei estabelece que as plataformas não podem ser tratadas como os publicadores (publishers) de conteúdo. Isso significa que as plataformas geralmente não são responsabilizadas pelo conteúdo que seus usuários publicam. Porém, existem exceções, incluindo conteúdos relacionados a leis criminais federais, direitos autorais e, certas leis de privacidade aplicáveis a comunicações eletrônicas ou leis relacionadas ao tráfico sexual. Embora o CDA seja uma lei estadunidense, ela influencia o comportamento das plataformas dentro e fora dessa jurisdição.

Ao lado disso, o DMCA se mantém firme há mais de 20 anos, impactando diretamente a moderação de conteúdo online. Aprovada em 1998, essa lei protege a propriedade intelectual no ambiente digital, exigindo que plataformas removam conteúdos que violem direitos autorais assim que forem notificadas. Isso inclui não apenas cópias de livros, músicas, filmes e obras de arte, mas também métodos que burlem restrições de acesso a conteúdos protegidos e informações falsas sobre a detenção de direitos autorais.

O DMCA tem impacto global. Isso significa que, quando plataformas com sede ou presença nos Estados Unidos são notificadas sobre uma possível violação de direitos autorais, elas são obrigadas a remover o conteúdo não apenas no país, mas em qualquer lugar do mundo. 

Embora seja vista como uma ferramenta de censura, com alguns casos dignos de um verdadeiro mural da vergonha, a lei não está isenta de críticas. Mesmo assim, ela oferece um “porto-seguro” para essas empresas. Uma vez que o conteúdo supostamente infrator é removido, as plataformas não são responsabilizadas por violações de direitos autorais. Só em 2023, a Meta reportou ter removido quase noventa milhões de conteúdos de suas plataformas por violação de direitos autorais. O Google, por sua vez, reportou ter removido mais de 11 bilhões de URLs dos seus resultados de pesquisa ao longo do tempo.

As leis podem influenciar o comportamento das plataformas? 

No processo da Meta mencionado anteriormente, o tribunal rejeitou a alegação de violação de DMCA. Embora não caiba aqui debater essa decisão, é importante refletir se a lei foi suficiente para influenciar o comportamento das plataformas no desenvolvimento de novos produtos e a forma como a proteção de direitos autorais é tratada nessas empresas.

Em termos de regulação digital, o DMCA é uma lei antiga que, há décadas, molda a cultura de moderação de conteúdo no setor de tecnologia. Plataformas com sede nos Estados Unidos, ou que operem no país, sabem bem que o “porto-seguro” regulatório é o processo de notificação e remoção com base no DMCA. Consequentemente, equipes, ferramentas, processos e operações voltados para a moderação de conteúdo que supostamente infrinjam direitos autorais foram estabelecidos há bastante tempo e são de alta prioridade. Empresas mais novas também entendem que esse é um processo fundamental para se protegerem de qualquer problema judicial. 

Se, por um lado, imagina-se que o DCMA possa institucionalizar um maior cuidado com conteúdo protegido por direitos autorais, por outro lado, a seção 230 do CDA consolidou a ideia de que as plataformas são apenas intermediárias e, portanto, não devem se preocupar com conteúdo de terceiros. Como Shoshana Zuboff coloca em seu livro A Era do Capitalismo de Vigilância, a postura de não intervenção da Seção 230 do CDA se convergiu perfeitamente com as ideologias das empresas de tecnologia que se sentem livres para fazer o que bem entendem.

Assim, embora as plataformas se preocupem com a proteção de direitos autorais, elas também minam esses conteúdos para treinamento de seus modelos de IA. Enquanto plataformas como a Meta são processadas por usar livros de terceiros para treinar seus modelos de IA, elas também removem de seus produtos —Facebook, Instagram, e Threads— conteúdo que supostamente viola os direitos autorais destes mesmos autores, mediante notificação. Esse é o paradoxo da regulação, especialmente em plataformas que operam múltiplos produtos, como redes sociais e plataformas de IA generativa como é o caso da Meta e do Google. 

Embora se espere que leis influenciem o comportamento de empresas de tecnologia de maneira abrangente, a realidade na corrida da IA é outra. Uma das evidências do processo da Meta demonstra que funcionários estariam desconfortáveis com os possíveis riscos legais no uso de bibliotecas piratas para treinamento de IA. Um engenheiro de pesquisa da empresa expressou: “Fazer torrents de um laptop corporativo não parece certo.” O alerta não foi o suficiente para a empresa cessar suas atividades. 

Isso demonstra que o comportamento dessas empresas é predatório, desafiando leis, políticas e práticas internas que buscam balizar a governança das plataformas. Essa situação destaca a necessidade de mecanismos de controle mais eficazes, como a criação de leis mais robustas, para garantir que a corrida pela IA não se transforme em uma competição prejudicial para a sociedade.

Regulação Necessária para a IA

O DMCA continua sendo uma ferramenta essencial para as plataformas no gerenciamento de conteúdos protegidos por direitos autorais. No entanto, sua aplicação na moderação de conteúdo não impactou diretamente o comportamento das empresas que desenvolvem IA generativa.

Algumas dessas empresas, como a Meta e o Google, integram ferramentas de IA generativa em um ecossistema mais amplo de produtos. Outras, como a OpenAI, concentram-se exclusivamente no desenvolvimento de ferramentas de IA. Dessa forma, as plataformas de IA generativa enfrentam desafios técnicos e regulatórios específicos, tanto em relação aos seus produtos quanto ao contexto em que operam. Os paradoxos apresentados ressaltam a necessidade urgente de regulação de IA. 

No Brasil, a discussão da regulação de IA está centrada no Projeto Lei 2338/2023 —também conhecido como o “PL de IA” — que busca equilibrar direitos para os cidadãos, diretrizes de governança e incentivos de inovação. Entre os diversos temas abordados no projeto, destaca-se a remuneração de autores cujas obras são usadas para treinamento dos modelos de IA. Além disso, o projeto também considera a possibilidade de os autores proibirem o uso de suas obras por sistemas automatizados.

Tal qual outras plataformas —como as de redes sociais, anúncios, serviços etc.— as ferramentas de IA generativa não pagam pelos dados obtidos. Dessa forma, seguimos com o longo dilema do modelo de negócio dessas empresas que depende diretamente da coleta massiva e contínua de dados de terceiros para o seu crescimento e desenvolvimento.

A tramitação do PL das Fake News (PL 2630/2020) demonstrou que a briga pela regulação de plataformas é uma batalha complexa. Nos quatro anos do debate do projeto entre Senado e a Câmara, vimos o lobby das Big Techs interferir significativamente no desenvolvimento de um projeto lei que hoje está engavetado

Essa experiência nos ensina que no que se trata de regulação de IA, a briga será intensa. A corrida pela IA é, em essência, uma corrida por poder econômico e político em escala global. Nesse mercado, nós, usuários ou não, continuamos sendo o produto de venda e a força de trabalho que impulsiona essas empresas. Diante desse cenário, a regulação se mostra mais necessária do que nunca.

COMPARTILHAR:
Andressa Michelotti

Doutoranda do Departamento de Ciência Política da Universidade Federal de Minas Gerais, pesquisadora do Margem — Grupo de Pesquisa em Democracia e Justiça (UFMG) e membro do Governing the Digital Society na Universidade de Utrecht, Holanda.