Orlei Barbosa

Posts diários + boletins
17/03/2026, 01:02:28

AI Act e conteúdo gerado por IA: a contagem regressiva para agosto de 2026

AI Act e conteúdo gerado por IA: a contagem regressiva para agosto de 2026

Subtítulo: A União Europeia já colocou o cronômetro para rodar: as obrigações de transparência para sistemas generativos (incluindo rotulagem de deepfakes e marcação detectável de conteúdo) passam a valer em agosto de 2026. O detalhe importante é que o “como fazer” está sendo desenhado agora — com código de prática, diretrizes e governança em formação.

Se você publica conteúdo, opera atendimento com chatbots, usa IA para marketing, ou treina/fornece modelos — mesmo fora da Europa — este é um daqueles temas que tende a virar padrão de mercado.

O que está mudando (e por quê agora)

O Regulamento Europeu de IA (AI Act) adotou uma abordagem baseada em risco e já vem entrando em vigor por etapas. Para o ecossistema de IA generativa, a próxima “virada de chave” é a transparência: regras que exigem informar quando alguém está interagindo com IA e, principalmente, identificar/rotular conteúdo gerado ou manipulado em cenários relevantes (por exemplo, deepfakes).

O ponto-chave: a própria Comissão Europeia e o European AI Office estão conduzindo um processo (com especialistas e partes interessadas) para criar um Código de Prática que ajude empresas a cumprir o Artigo 50 — justamente para dar tempo de adequação antes de agosto de 2026.

Calendário do AI Act (com datas)

O AI Act entrou em vigor em 1º de agosto de 2024 e tem aplicação faseada. Os marcos que mais importam para quem usa/fornece IA hoje:

  • 2 de fevereiro de 2025: proibições de práticas de “risco inaceitável” + início de obrigações de literacia em IA (conforme o enquadramento do AI Act).
  • 2 de agosto de 2025: regras de governança e obrigações para modelos de IA de uso geral (GPAI) passam a valer.
  • agosto de 2026: entram em vigor as regras de transparência (incluindo obrigações ligadas a sistemas generativos) e parte relevante do regime; além disso, há obrigações de alto risco com marcos em 2026/2027 (dependendo do caso).
  • 2 de agosto de 2027: transições finais para partes específicas (incluindo certos sistemas de alto risco incorporados em produtos regulados, conforme descrito no cronograma oficial).

Na prática, 2026 é o ano da operacionalização: padrões técnicos, guias e códigos que traduzem lei em implementação (processo, documentação, evidência, auditoria e “o que mostrar” ao usuário).

Transparência para GenAI (Art. 50): marcação, rotulagem e exceções

O Artigo 50 (transparência) mira dois elos da cadeia:

1) Provedores (quem fornece o sistema generativo)

  • Dever de garantir que as saídas (áudio, imagem, vídeo, texto) sejam marcadas em formato legível por máquina e detectáveis como geradas/manipuladas por IA.
  • As soluções precisam ser efetivas, interoperáveis, robustas e confiáveis, considerando estado da arte, limitações por tipo de mídia e custos de implementação.

2) “Deployers” (quem usa/implanta o sistema)

  • Obrigação de divulgar quando um conteúdo é um deepfake (imagem/áudio/vídeo que “parece real”).
  • Obrigação de indicar quando há texto gerado/manipulado por IA publicado para informar o público sobre temas de interesse público — com ressalvas quando há revisão humana e responsabilidade editorial.

O que chama atenção é que o código de prática em discussão lista um cronograma de reuniões e workshops ao longo de 2026 para fechar recomendações técnicas e operacionais, justamente para “casar” com a data de vigência em agosto de 2026.

Quem fiscaliza: AI Office, autoridades nacionais e o “tabuleiro” europeu

O desenho europeu combina:

  • European AI Office (Comissão Europeia): centro de expertise e peça central na implementação, especialmente para GPAI (modelos de uso geral), com poderes de pedir informações, conduzir avaliações e aplicar sanções nos termos do AI Act.
  • Autoridades nacionais competentes: supervisão e fiscalização no nível de cada país da UE (incluindo autoridades de vigilância de mercado e autoridades notificadoras).
  • Órgãos consultivos: AI Board, painel científico e fórum consultivo — para coerência e participação multissetorial.

Além disso, o ecossistema está criando “atalhos” de conformidade via instrumentos voluntários. Um exemplo importante é o GPAI Code of Practice (publicado em julho de 2025), que pode reduzir incerteza e custo de prova de conformidade para provedores que o adotarem.

O que isso significa na prática

Mesmo que sua operação esteja no Brasil, dá para tirar três consequências bem concretas:

1) Rotulagem e “proveniência” viram requisito de produto (não só política)

  • Não basta dizer “use com responsabilidade” no rodapé. Você vai precisar de mecanismos (metadados, marcação, logs, detectabilidade) que resistam a auditoria e a ambientes de distribuição (redes sociais, mensageria, CMS, etc.).
  • Para organizações com publicação frequente (blogs, e-commerce, mídia), o risco passa a ser operacional: falhas de rotulagem podem virar incidente de compliance.

2) O “humano no loop” tende a ganhar formalidade

  • A exceção para textos revisados por humanos com responsabilidade editorial sugere um caminho: processo editorial documentado (quem revisou, critérios, versão, data, escopo).
  • Isso conversa com boas práticas de governança: trilha de auditoria, padrões de revisão e políticas de correção.

3) Se você atende clientes na UE (ou tem tráfego/usuários europeus), trate 2026 como prazo real

  • O AI Act tem alcance relevante para empresas que colocam sistemas no mercado europeu ou os disponibilizam/operam com efeito na UE, mesmo que a empresa esteja fora.
  • Na prática, fornecedores globais vão “empurrar” requisitos de transparência para a cadeia: contratos, SLAs, documentação, APIs e integrações.

Checklist rápido (30–60 dias)

  • Mapeie usos de GenAI: onde há geração de texto/imagem/áudio/vídeo e para que finalidade.
  • Defina política de rotulagem: o que será rotulado, em que contexto, e com que padrão (UI + metadados quando possível).
  • Instrumente evidências: logs de prompts/outputs (com cuidados de privacidade), versão do modelo, data/hora, autor/revisor.
  • Padronize revisão humana: critérios mínimos, checklist editorial e registro de aprovação.
  • Revise contratos com fornecedores de IA: responsabilidades sobre marcação/detectabilidade e suporte a auditoria.
  • Treine o time (literacia em IA): o que pode/não pode, quando rotular, como reagir a incidentes.

Fique de olho amanhã

  • Como as plataformas vão implementar “detecção”: padrões de marca d’água, metadados e compatibilidade com redes sociais/CMS.
  • Diretrizes finais do AI Office para transparência (o que será considerado suficiente em auditoria e fiscalização).
  • O efeito “exportação de compliance”: requisitos europeus virando padrão para ferramentas globais (especialmente em marketing e suporte).

Receba os próximos

Quer receber por e-mail/WhatsApp assim que publicar?

Assinar Voltar