Os países do Brics vão defender pagamento de direitos autorais por conteúdo usado no treinamento de modelos de Inteligência Artificial. Na declaração dos líderes do grupo sobre o tema, a ser divulgada durante a cúpula dos Brics no Rio, o bloco irá propor uma governança de IA que proteja os direitos de propriedade intelectual (copyright) e os mecanismos de remuneração justa, segundo apurou a Folha.
O tema é sensível e está no centro da queda de braço entre as big techs, de um lado, e autores e veículos de imprensa, de outro.
Empresas como Google e OpenAI se opõem à exigência de pagamento de direitos autorais quando usam conteúdo jornalístico ou literário para treinar seus modelos de IA generativa. As empresas argumentam que se trata de “fair use”, conceito legal americano que autoriza o uso de conteúdo sem remunerar o autor em determinados casos, como para fins educacionais, quando não usam a íntegra do conteúdo nem trechos literais muito extensos e se não prejudicam os autores em sua viabilidade econômica.
Nos Estados Unidos, o New York Times está processando a OpenAI por ter usado o conteúdo do jornal para treinar seus modelos sem pagamento de direitos. A OpenAI argumenta que se trata de fair use. No Canadá, o Globe and Mail também entrou com uma ação contra a empresa. E a associação de veículos de mídia (Danish Press Publications) da Dinamarca anunciou que irá processar a OpenAI por uso não autorizado de dados.
O pagamento de direitos autorais está previsto no projeto de lei de inteligência artificial que foi aprovado no Senado (PL nº 2.338) no ano passado e tramita agora na Câmara. As plataformas de internet se opõem a isso e tentam tirar essa previsão do texto.
Em entrevista à Folha, o presidente do Google no Brasil, Fábio Coelho, disse que a empresa acredita ser preciso “remunerar alguns parceiros de conteúdo sim, mas não necessariamente com copyright”. O Google vem fechando acordos de parceria com determinados veículos de imprensa para uso do conteúdo do arquivo.
Na declaração de líderes, os países do bloco vão defender a proteção dos direitos de propriedade intelectual e, em particular, do copyright “contra o uso não autorizado” da IA. Algumas empresas são acusadas de terem raspado o conteúdo de obras literárias e veículos de imprensa na internet sem autorização e usado para treinar seus modelos.
“A proteção adequada dos direitos de propriedade intelectual e, em particular, dos direitos autorais contra o uso não autorizado da IA deve estar em vigor para evitar a coleta excessiva de dados, permitindo mecanismos de remuneração justa”, consta da declaração, que pede também transparência sobre “inputs” e resultados dos modelos de IA –muitas vezes, as empresas não divulgam que bases de dados usaram para treinar os modelos.
Na visão de negociadores, a linguagem acordada entre os líderes é equilibrada, pois salvaguarda o interesse público ao mesmo tempo em que protege propriedade intelectual. Na visão deles, é preciso levar em conta que a IA envolve capacidade computacional (hardware), algoritmo (software) e base de dados.
Países em desenvolvimento, com exceção de Índia e China, carecem de capacidade computacional e desenvolvimento de algoritmos. No entanto, esses países, o Brasil incluído, dispõem de bases de dados bem organizadas e em língua específica. Essas bases são essenciais para treinar algoritmos e precisam da devida remuneração.
Segundo uma fonte que acompanha o tema, era uma reivindicação do setor cultural desde o G20, que foi encampada pelo Brasil também em sua presidência dos Brics. A ideia é garantir remuneração justa aos artistas.
Tentativas de regular IA e redes sociais têm sido alvo de críticas do governo Trump, que ameaça retaliar. Em fevereiro, o vice-presidente americano, JD Vance, usou o palco principal da Cúpula de Ação sobre a Inteligência Artificial em Paris para condenar a regulamentação europeia.
“O governo Trump está preocupado com relatos de que alguns governos estrangeiros estão considerando apertar o cerco às empresas de tecnologia dos EUA. Os Estados Unidos não podem e não vão aceitar isso”, disse Vance. “As empresas são obrigadas a lidar com a Lei de Serviços Digitais da UE e a quantidade maciça de regras criadas pela lei sobre remoção de conteúdo e policiamento da chamada desinformação.”
Colaborou Ricardo Della Coletta