Após a Comissão de Proteção de Dados da Irlanda (DPC) pedir o adiamento do uso de dados compartilhados pelos usuários no Facebook e Instagram, a Meta anunciou, na sexta-feira passada (14), que vai atrasar o treinamento dos seus grandes modelos de linguagem na União Europeia.
No dia 22 de maio a empresa comunicou que usaria fotos e vídeos de usuários europeus – a empresa já está usando os conteúdos de brasileiros – para treinar a sua inteligência artificial e, no continente europeu, permitiu que os usuários se opusessem a esse uso até o dia 26 de junho por meio do preenchimento de um formulário.
“Estamos em consulta com nosso principal regulador de privacidade na UE, a Comissão de Proteção de Dados da Irlanda, e incorporamos seus comentários até agora para garantir que a forma como treinamos IA na Meta esteja em conformidade com as leis de privacidade da UE”, disse a empresa na época.
De acordo com a Reuters, o pedido da autoridade de dados para o adiamento foi um reflexo da campanha empenhada pelo grupo de defesa NOYB (None of Your Business) a partir da justificativa legal da Meta para coletar dados pessoais. “A Meta basicamente está dizendo que pode usar ‘qualquer dado de qualquer fonte para qualquer finalidade e disponibilizá-lo para qualquer pessoa no mundo’, desde que seja feito por meio de ‘tecnologia de IA’. Isso é claramente o oposto da conformidade com o GDPR (Regulamento Geral de Proteção de Dados”, disse Max Schrems, fundador da NOYB.
Schrems também enfatiza que ‘tecnologia de IA’ é um termo extremamente amplo. “A Meta não diz para que usará os dados, então poderia ser um simples chatbot, publicidade personalizada extremamente agressiva ou até mesmo um drone assassino. A Meta também diz que os dados dos usuários podem ser disponibilizados a qualquer ‘terceiro’ – o que significa qualquer pessoa no mundo”, complementa.
A organização argumenta que transferir a responsabilidade para o usuário é “completamente absurdo” e que, pela legislação, é necessário que a Meta obtenha consentimento dos usuários de um modo “opt-in”, ou seja, que seja dado um consentimento explícito e não que os usuários precisem se opor ao uso dos termos de uma forma que o uso desses dados seja o padrão.
“Se a Meta quer usar seus dados, eles têm que pedir sua permissão. Em vez disso, faz os usuários implorarem para serem excluídos. Ficamos particularmente surpresos que a Meta tenha até se dado ao trabalho de construir inúmeras pequenas distrações para garantir que apenas um pequeno número de usuários realmente se incomode em se opor”, acrescenta Max Schrems ao comentar sobre o processo para se opor.
Já a Meta, em comunicado em seu blog, disse estar “desapontada” com o pedido da Comissão de Proteção de Dados da Irlanda (DPC) para atrasar o treinamento dos grandes modelos de linguagem (LLMs). “Isso é um retrocesso para a inovação europeia, para a competição no desenvolvimento de IA e provoca mais atrasos em trazer os benefícios da IA para as pessoas na Europa”, colocou a empresa.
A big tech também comparou o uso de dados de outras empresas como Google e OpenAI: “Continuamos altamente confiantes de que nossa abordagem está em conformidade com as leis e regulamentos europeus. O treinamento de IA não é exclusivo dos nossos serviços, e somos mais transparentes do que muitos dos nossos concorrentes na indústria”.
Para a Meta, a impossibilidade de usar os dados dos usuários na Europa impede a formulação de uma tecnologia satisfatória, o que causaria uma “experiência de segunda categoria” para os usuários europeus. “Isso significa que não podemos lançar o Meta AI na Europa no momento”, complementou o comunicado.