Skip to main content

Responsabilidade das plataformas de IA: proteção autoral e boas práticas de compliance

por Cássio de Paula Xavier ¹ e Lucas Felipe Roque Xavier ²

O avanço da inteligência artificial (IA) generativa vem transformando a criação, a curadoria e a distribuição de conteúdo, cenário em que duas frentes concentram as maiores controvérsias jurídicas: o uso de obras protegidas no treinamento dos modelos e a eventual infração autoral nas saídas geradas e exibidas pelas plataformas. Tecnologias cada vez mais sofisticadas desafiam noções tradicionais de autoria e responsabilidade civil, ao mesmo tempo em que exigem um novo modelo de governança digital³ que equilibre inovação e proteção ao criador.

No Brasil, o debate se ancora na Lei de Direitos Autorais e no Marco Civil da Internet, normas que oferecem diretrizes gerais sobre proteção autoral e responsabilidade de provedores, embora ainda não exista regulação específica para o uso de obras protegidas no treinamento de sistemas generativos. Tramitam no Congresso Nacional propostas como o PL 2.338 de 2023, que busca instituir um marco geral de IA, enquanto tendências internacionais, a exemplo do "AI Act" da União Europeia e de modelos em discussão no Reino Unido, no Canadá e no Japão, influenciam a repartição de riscos e deveres de diligência entre desenvolvedores, provedores e usuários. No âmbito europeu, o "AI Act" passou a exigir a publicação de um resumo público do conteúdo utilizado no treinamento de modelos de propósito geral, com "template" oficial divulgado pela Comissão Europeia em 24 de julho de 2025, o que vem influenciando contratos e auditorias mundo afora⁴.

A etapa de treinamento dos modelos tornou-se um ponto crítico. O uso de acervos protegidos sem autorização pode caracterizar cópia não autorizada, o que levou a disputas relevantes envolvendo titulares e empresas desenvolvedoras. Nesse contexto, vem se consolidando um padrão mínimo de diligência composto por licenciamento de bases de dados, implementação de mecanismos de exclusão voluntária pelos titulares e transparência quanto às fontes utilizadas.

Ainda que o ordenamento brasileiro não imponha obrigações específicas sobre esse ciclo, empresas que almejam reduzir risco jurídico e reputacional passaram a adotar voluntariamente essas práticas. Já no conteúdo gerado pela IA, a violação ocorre quando a plataforma reproduz de forma substancial trechos identificáveis de obras protegidas, em especial quando preserva marcas d’água, assinaturas ou elementos expressivos distintivos. A responsabilidade pode alcançar tanto o provedor da aplicação quanto o usuário solicitante, a depender do grau de controle técnico e do desenho do produto. Sempre que a plataforma hospeda ou divulga o conteúdo gerado, incide o regime do Marco Civil da Internet, que, em regra, condiciona a responsabilidade ao descumprimento de ordem judicial específica de retirada.

Esse paradigma foi parcialmente redesenhado em 2025, quando o STF revisitou o alcance do art. 19⁵ do Marco Civil da Internet ao julgar recursos de repercussão geral e reconheceu a inconstitucionalidade parcial do dispositivo em hipóteses qualificadas, sobretudo quando há violação a direitos fundamentais como honra, privacidade e propriedade intelectual, em 26 de junho de 2025, no julgamento conjunto dos Recursos Extraordinários 1.037.396 (Tema 987) e 1.057.258, (Tema 533), com fixação de tese e modulação de efeitos. A partir dessa orientação, consolidou-se um modelo mais próximo ao europeu, baseado em deveres de prevenção e resposta, o que significa que provedores com controle técnico relevante e capacidade de moderação efetiva devem agir de maneira preventiva, sob pena de responsabilidade solidária. A omissão em implementar filtros de similaridade, em bloquear conteúdo notoriamente ilícito ou em manter mecanismos céleres de notificação e retirada pode caracterizar culpa por omissão.

Exemplo ilustrativo, quando o usuário solicita a reprodução de uma fotografia famosa e o sistema entrega imagem que mantém marca d’água identificável, há risco de infração autoral imputável ao usuário e à plataforma, a depender do grau de controle técnico e de moderação disponíveis.

Diante desse quadro, boas práticas técnicas e organizacionais tornam-se indispensáveis para reduzir exposição a risco e assegurar conformidade. Destacam-se filtros de similaridade para prevenir reproduções indevidas; bloqueios automáticos de marcas d’água e de sinais reconhecíveis de obras alheias; canais de reclamação acessíveis; procedimentos internos de notificação e retirada com prazos definidos e registro de providências; manutenção de trilhas de auditoria que documentem "prompts"⁶ e "outputs"⁷. Tribunais brasileiros passaram a aplicar por analogia entendimentos consolidados sobre redes sociais e plataformas de vídeo, reconhecendo que aplicações generativas que disponibilizam conteúdo ao público se enquadram como provedoras de aplicação, portanto sujeitas a deveres equivalentes de moderação e resposta.

As medidas técnicas devem vir acompanhadas de soluções contratuais e de compliance que distribuam responsabilidades e tragam previsibilidade. É recomendável incluir nos contratos declaração de conformidade com a Lei de Direitos Autorais e com o Marco Civil da Internet, obrigação de disponibilizar resumo das fontes de dados de treinamento em padrão compatível com o "AI Act", inclusive com observância do "template" público europeu, sem exposição de segredos industriais, políticas de uso responsável que vedem a reprodução substancial de obras reconhecíveis sem licença, procedimentos de resposta a notificações com prazos e registros, limitação escalonada de indenizações e, sempre que adequado, seguro obrigatório para cobertura de violações de direitos de terceiros. Programas de educação do usuário e termos de consentimento claros contribuem para uma cultura de uso responsável, aumentam a confiança e a rastreabilidade e reduzem incidentes.

No cenário internacional, a União Europeia aprovou o AI Act, que distingue sistemas de propósito específico e de propósito geral, impondo obrigações de transparência, gestão de riscos e documentação técnica, inclusive a publicação de um resumo público das bases de dados de treinamento. Esse padrão tem influenciado contratos, auditorias e políticas de governança em diversas jurisdições. O Canadá discute avaliações de impacto prévias para sistemas de alto risco, Japão e Reino Unido analisam modelos híbridos que conciliam exceções autorais com deveres de transparência, no caso britânico, cogita-se a possibilidade de uso de obras protegidas para treinamento com opção de exclusão pelo titular e sem prejuízo ao mercado original, movimento que também tem sido acompanhado por diretrizes técnicas para padronizar os resumos públicos de dados de treino⁸.

Internamente, o país vive fase de transição. Além do PL 2.338 de 2023, surgem propostas que enfrentam autoria e propriedade intelectual em criações assistidas por IA, como o PL 2.721 de 2024, que busca assegurar titularidade humana das obras geradas com auxílio de IA, e o PL 303 de 2024, que discute o reconhecimento de sistemas de IA como inventores em pedidos de patente. O avanço desses debates exige releitura de conceitos clássicos do direito autoral, como originalidade, criatividade e obra derivada, com diálogo constante entre juristas, engenheiros, artistas e formuladores de políticas, a fim de preservar a liberdade criativa e, ao mesmo tempo, a proteção de autores humanos.

Em síntese, o estado da arte combina a Lei de Direitos Autorais, o regime de provedores e vetores regulatórios internacionais. Enquanto o Brasil amadurece sua disciplina sobre autoria e responsabilidade por obras geradas por IA, plataformas e empresas usuárias devem investir em transparência, prevenção técnica e clareza contratual. Essa diligência, jurídica e tecnológica, reduz litígios, amplia previsibilidade, preserva o valor da criação humana e sustenta uma inovação verdadeiramente responsável. Para avaliar riscos, adaptar contratos e políticas de uso à realidade do seu negócio e implementar governança técnica aderente, nossa equipe está à disposição. Este material tem caráter informativo, não constitui parecer jurídico e poderá ser atualizado conforme a evolução regulatória.

                                                

¹ Gestor Executivo de Operações do Medina Guimarães Advogados. Professor de Direito Tributário. Mestre e doutorando em Direito, com atuação voltada à gestão estratégica e à integração das áreas jurídicas e operacionais do escritório. E-mail: Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.

² Analista de Tecnologia do Medina Guimarães Advogados. Especialista em Gestão de Processos em Tecnologia e em Segurança de Redes, com formação em Engenharia da Computação. Responsável pela administração de redes e pela coordenação dos setores de SOC e NOC, com foco em continuidade de negócios, observabilidade e resposta a incidentes. Atua como Encarregado de Proteção de Dados, garantindo aderência à LGPD e políticas internas de segurança da informação. E-mail: Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.

³ Entende-se por governança digital, para fins deste texto, o conjunto de regras, políticas, controles técnicos e procedimentos jurídicos voltados à gestão responsável de sistemas digitais, incluindo a criação, uso, distribuição e responsabilização por conteúdos gerados em ambientes mediados por inteligência artificial.

⁴ Communication to the Commission Approval of the content of the draft Communication from the Commission – Explanatory Notice and Template for the Public Summary of Training Content for general-purpose AI models required by Article 53 (1)(d) of Regulation (EU) 2024/1689 (AI Act).

⁵ Art. 19, Lei nº 12.965/2014 (Marco Civil da Internet): "O provedor de aplicações de internet somente será responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar providências para, no âmbito e nos limites técnicos do seu serviço, tornar indisponível o conteúdo apontado como infringente.”

⁶ Instrução ou solicitação fornecida a um sistema de IA para gerar conteúdo, como texto, imagem ou áudio.

⁷ Resultado produzido pelo sistema de IA em resposta a um prompt, podendo ser texto, imagem ou outra mídia gerada.

⁸ https://www.mayerbrown.com/en/insights/publications/2025/08/eu-ai-act-news-rules-on-general-purpose-ai-start-applying-guidelines-and-template-for-summary-of-training-data-finalized?utm_source=chatgpt.com [acesso em 25.10.25].


Contato


Maringá - PR
Av. Doutor Gastão Vidigal, 952
+55 44 4001-3800
Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.

Nossas unidades


Maringá - PR

Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.

Curitiba - PR
Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.
São Paulo - SP
Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.
Florianópolis - SC
Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.
Brasília - DF
Este endereço para e-mail está protegido contra spambots. Você precisa habilitar o JavaScript para visualizá-lo.