O perigo oculto da IA
O que mata uma empresa não é a falta de tecnologia. É sufocar a criatividade e a adaptabilidade das pessoas.
O debate sobre o uso de inteligência artificial nas campanhas eleitorais ganhou centralidade no início de 2026. A poucos meses do início do calendário eleitoral, o Tribunal Superior Eleitoral enfrenta o desafio de atualizar suas resoluções para lidar com tecnologias que evoluíram mais rápido do que o próprio arcabouço normativo disponível.
Até aqui, a regulação eleitoral brasileira se apoia essencialmente no Código Eleitoral e na Lei das Eleições, que conferem ao TSE competência para editar resoluções complementares a cada pleito. Foi com base nessa atribuição que, nas eleições de 2024, o Tribunal deu seus primeiros passos na regulação do uso de inteligência artificial, especialmente no enfrentamento a deepfakes e conteúdos sintéticos enganosos.
Naquele ciclo, o TSE passou a exigir que conteúdos de propaganda eleitoral gerados ou manipulados por IA trouxessem indicação expressa dessa circunstância, além de estabelecer limites à circulação de deepfakes capazes de induzir o eleitor a erro. As regras tiveram caráter pioneiro, mas também limitado: focavam essencialmente na propaganda eleitoral formal e foram aplicadas de maneira reativa, a partir de denúncias e decisões caso a caso, com interpretações nem sempre uniformes nos tribunais regionais.
O avanço tecnológico desde então, aliado à disseminação de conteúdos adulterados envolvendo pré-candidatos antes mesmo do período oficial de campanha, evidenciou as lacunas desse modelo. Textos, imagens, vídeos e áudios gerados por IA passaram a circular fora do escopo tradicional da propaganda eleitoral, dificultando a identificação de responsabilidades e a atuação preventiva da Justiça Eleitoral.
É nesse contexto que o TSE abriu, no início de 2026, uma consulta pública e um ciclo de audiências para discutir novas resoluções aplicáveis às eleições gerais. O prazo é curto: as regras precisam ser aprovadas até o início de março, o que deixa ao Tribunal pouco mais de um mês para consolidar contribuições da sociedade civil, especialistas, partidos e plataformas digitais.
As propostas em debate indicam uma ampliação relevante do escopo regulatório. A tendência é que o conceito de conteúdo gerado por inteligência artificial seja definido de forma mais abrangente, alcançando não apenas deepfakes audiovisuais, mas também textos, áudios sintéticos, avatares digitais e outras formas de manipulação algorítmica. Também se discute a adoção de padrões mais claros de rotulagem e transparência, possivelmente com modelos padronizados de aviso ao eleitor.
Outro eixo importante das novas regras é a responsabilização. Além de obrigações mais claras para campanhas e candidatos quanto ao uso de ferramentas de IA, o TSE avalia mecanismos de cooperação mais estruturados com plataformas digitais, buscando respostas mais rápidas para a remoção ou sinalização de conteúdos potencialmente enganosos. A fiscalização tende a deixar de ser exclusivamente reativa, incorporando maior capacidade tecnológica e coordenação institucional.
Há ainda o debate sobre sanções. A expectativa é que as resoluções tragam maior precisão quanto às penalidades aplicáveis à produção e disseminação deliberada de conteúdos sintéticos capazes de afetar a integridade do processo eleitoral, reduzindo margens de insegurança jurídica.
O desafio, no entanto, é significativo. Regulamentar inteligência artificial em ambiente eleitoral exige equilibrar a proteção da liberdade de expressão com a preservação da legitimidade do voto, evitando conceitos excessivamente vagos ou obrigações desproporcionais que possam gerar censura indevida ou decisões inconsistentes.
O processo de atualização normativa conduzido pelo TSE em 2026 marca, assim, um ponto de inflexão. Se bem calibradas, as novas regras podem consolidar um modelo mais transparente, previsível e tecnicamente adequado para o uso de IA nas campanhas políticas. Se apressadas ou excessivamente genéricas, correm o risco de ampliar a insegurança jurídica em um cenário já altamente sensível. O próximo mês será decisivo para definir qual desses caminhos prevalecerá.
Adriana Rollo é VP de Relações Institucionais da I2AI, advogada especializada em tecnologia, propriedade intelectual e proteção de dados. Mestre (LL.M) em Propriedade Intelectual pela Queen Mary University of London, hoje lidera grupos de trabalho sobre o Projeto de Lei de Inteligência Artificial no Congresso Nacional.
O que mata uma empresa não é a falta de tecnologia. É sufocar a criatividade e a adaptabilidade das pessoas.
A nova corrida tecnológica global levanta uma pergunta urgente: estamos prontos para confiar na inteligência que criamos?
Por que dominar a IA será a nova alfabetização do século XXI