Opinião e análise

Redes sociais, inteligência artificial e os desafios para a democracia: como o Brasil se prepara para eleições locais em 2024

Em 2024, metade do planeta vai às urnas. A discussão sobre como proteger a integridade eleitoral e a democracia diante dos desafios representados pela desinformação, a polarização e a violência política nas redes sociais está posta sobre a mesa. Se a preocupação não é nova, ela vem acrescida dos desafios representados pela inteligência artificial (IA) para o ambiente informacional. Na maior parte do mundo, não há regulação nem para o uso da IA, nem das plataformas de redes sociais.

No Brasil, o ataque ao Congresso Nacional, ao Supremo Tribunal Federal e ao Palácio do Planalto, em 8 de janeiro de 2023, é tido como exemplo emblemático do que a disseminação de desinformação e de ataques online à democracia pode causar. Como resposta, as autoridades se organizaram para tentar aprovar no Congresso uma regulação para as plataformas de redes sociais, mas a proposta não avançou. 

Em outubro de 2024, o país terá eleições para o Legislativo e o Executivo municipais. O Tribunal Superior Eleitoral divulgou em fevereiro uma resolução sobre o uso de inteligência artificial e a responsabilidade das plataformas nas eleições. Em agosto, começa oficialmente a propaganda eleitoral. Sobre a decisão da Corte, os riscos de violência durante o pleito contra grupos historicamente sub-representados e o que o atual momento significa para a democracia, conversamos com Heloisa Massaro, diretora de Pesquisa e Operações do InternetLab, centro independente de pesquisa interdisciplinar que promove o debate acadêmico e a produção de conhecimento nas áreas de Direito e Tecnologia, sobretudo no campo da internet. O InternetLab é parceiro da Luminate no Brasil. Confira a seguir: 

No atual contexto brasileiro, como a desinformação, o discurso de ódio e a manipulação da informação podem afetar as eleições municipais?

Essa pergunta é interessante para pensarmos como as preocupações e os riscos em torno das eleições evoluem ao longo dos anos, e para onde devemos olhar, que tipo de preocupações devemos ter e onde deve estar o nosso foco. Conforme novos ciclos eleitorais se desenham, uma questão-chave das eleições municipais que ressurge é a compreensão de que elas possuem uma dinâmica muito diferente das eleições para os governos estaduais e o federal. 

Estamos falando de eleições em milhares de municípios, simultâneas, com dinâmicas muito distintas. As grandes capitais podem até se parecer com as eleições estaduais e federal, mas as de cidades pequenas têm outros tipos de dinâmicas. Por isso, é importante destacarmos dois pontos: o primeiro é que é bastante comum termos em municípios menores o que chamamos de “deserto de notícias”. Lugares onde não há mídia independente significativa, jornalística de fato, que faça uma checagem dos conteúdos produzidos e distribua informações confiáveis. E o segundo ponto são as dinâmicas de violência política que observamos no Brasil há muitos anos, mas que ganham novos contornos conforme a comunicação política migra para o ambiente digital. Em eleições municipais, esse fator é muito relevante, porque pessoas candidatas e eleitoras se encontram cotidianamente – são relações muito localizadas.

As mulheres, por exemplo, são mais atacadas durante o período de eleições. E não só mulheres, mas as candidaturas de grupos historicamente marginalizados. Por isso, no âmbito municipal, a fronteira entre online e offline, que já é muito porosa, fica ainda mais cinzenta e permeável, e o risco de violência contra a integridade física das pessoas é ainda maior.

O Tribunal Superior Eleitoral publicou resolução sobre uso de inteligência artificial e a responsabilidade das plataformas nas eleições que vão ocorrer em outubro deste ano. Quais os principais pontos e como vocês enxergam essa resolução?

A publicação de resoluções é uma prática habitual do Tribunal Superior Eleitoral. O TSE é uma Corte, tem poderes administrativos e regulamentares e, por isso, próximo ao período eleitoral, ele atualiza as resoluções que regem as eleições, a fim de regulamentar a legislação eleitoral.

É importante destacar alguns pontos específicos da resolução de propaganda eleitoral. Primeiramente, por meio de uma competência de regulamentação das questões relacionadas à propaganda eleitoral na internet e atento às mudanças tecnológicas, o TSE trouxe algumas novidades relacionadas ao uso de IA.

Criou-se a obrigação de que conteúdos que tenham uso de ferramentas de IA sejam devidamente rotulados e identificados – isso não significa que o uso dessas ferramentas esteja proibido, apenas que deve estar sinalizado a fim de que o público não se confunda. Já no caso de chatbots, as campanhas podem até adotá-lo. A resolução veda, no entanto, que eles simulem uma conversa real com a pessoa candidata ou com outros seres humanos. Por fim, a resolução trouxe uma vedação ao uso de deepfakes, vídeos, vozes ou fotos feitas artificialmente para criar situações que não aconteceram, além de falas inexistentes.

Um segundo ponto são as novidades nas regras de proteção de dados. Desde as últimas duas resoluções, o TSE vem incorporando regras de proteção de dados estabelecendo um diálogo desta legislação específica com a eleitoral. Neste ano, o tribunal avançou nessa resolução, trazendo regras como a obrigação de registros de atividades de tratamento de dados e a regulamentação do uso de ferramentas de microdirecionamento de técnicas de perfilamento do eleitorado.

Por fim, a resolução criou novas regras no âmbito da desinformação, com artigos relacionados à vedação de IA para a criação de conteúdo desinformativo e regras e orientações gerais sobre os deveres das plataformas. Segundo a resolução, as plataformas devem possuir termos de uso e políticas de moderação de conteúdo – especialmente em período eleitoral. Além disso, elas devem empregar seus melhores esforços para garantir a integridade eleitoral e precisam remover conteúdos que sejam sabidamente inverídicos ou gravemente descontextualizados, sob pena de serem responsabilizadas – este último, notadamente o ponto mais polêmico.

Como a resolução é recebida pela sociedade civil no Brasil, e quais os precedentes internacionais?

O diálogo entre o direito eleitoral e o direito digital ainda tem muito a avançar no âmbito internacional. O TSE é pioneiro ao entrar nesta discussão, dialogando com plataformas há diversos ciclos eleitorais e estabelecendo cooperações. Enquanto isso, vemos experiências de outros países onde a legislação eleitoral ainda não aborda muitas questões relacionadas à propaganda na internet. 

A resolução vem em um momento marcado por dois grandes movimentos internacionais: as “supereleições” de 2024, que englobam aproximadamente 50% da população mundial; incluindo grandes democracias, como os Estados Unidos e o Parlamento da União Europeia. Isso fomenta o debate internacional em torno da integridade eleitoral e da responsabilidade de plataformas, e amplia a preocupação acerca da sua atuação e de quais medidas devem ser tomadas para garantir a integridade eleitoral. 

O segundo movimento internacional, que acontece há mais tempo, visa a editar legislação para regular plataformas. Seu principal exemplo é a Lei de Serviços Digitais (DSA) que entrou em vigor este ano na União Europeia. Esta legislação traz uma série de regras, deveres, obrigações e parâmetros para as plataformas, sobretudo as grandes. 

Quais as limitações de cada lado: tanto da resolução como da resposta das plataformas? Há pontos de preocupação em cada uma delas?

Há pontos positivos, principalmente em relação ao avanço de temas como IA, proteção de dados e a instituição de regras de transparência para as plataformas. Uma regra muito importante é a que obriga as plataformas a terem repositórios sobre anúncios contratados – e que é uma demanda da sociedade civil há algum tempo. 

Por outro lado, tivemos a inclusão do Artigo 9E, que entra diretamente em conflito com a regra de responsabilidade de intermediários, prevista no Marco Civil da Internet e na legislação eleitoral. Essa norma prevê responsabilidade civil e administrativa solidária das plataformas por uma série de tipos de conteúdos listados no artigo, incluindo atos antidemocráticos e conteúdos sabidamente inverídicos ou gravemente descontextualizados que atentem contra a integridade eleitoral. A norma não estava na minuta da resolução, foi incluída posteriormente, o que gerou bastante surpresa e preocupação, devido ao conflito com a legislação em vigor. 

De acordo com o regime de responsabilidade de intermediários, previsto no Artigo 19 do Marco Civil na internet e na legislação eleitoral, as plataformas só possuem a obrigação ou podem ser responsabilizadas por conteúdo de terceiros se não os removerem após decisão judicial. Isso não significa que as plataformas não removam conteúdos danosos, elas têm políticas próprias de moderação de conteúdo para garantir a integridade e segurança de seus espaços. Esse arranjo é muito importante na garantia da liberdade de expressão. 

Mas, à medida em que passamos a responsabilidade para as plataformas, podendo penalizá-las pelo conteúdo de terceiros, cria-se um incentivo econômico para que elas removam materiais potencialmente arriscados. Dessa forma, as plataformas decidem o que pode ou não ser dito através de uma análise feita pelo viés econômico.  A mudança introduzida pela resolução é preocupante para a liberdade de expressão, por fomentar uma remoção excessiva de conteúdos, podendo atingir conteúdos legítimos. Isso se aplica sobretudo quando debatemos desinformação, cuja distinção entre o que deve ser retirado ou não é complicada, gerando uma grande zona cinzenta, que pode resultar em remoção excessiva de conteúdos legítimos e que fariam parte do processo democrático e da discussão política.  Além disso, a mudança no regime de responsabilidade cria incentivos para esses atores direcionem recursos para compliance, ao invés de investirem em aprimoramento de políticas e estruturas de moderação de conteúdo. 

Quando pensamos em estruturas regulatórias, o ideal é criar incentivos para sistemas de moderação de conteúdo melhores, que tornem o ambiente digital mais íntegro e seguro por meio de melhores regras. Quando criamos apenas incentivos para compliance com um regime de responsabilização por conteúdos específicos, dificilmente fomentaremos espaços em que as pessoas se sintam seguras para exercer sua liberdade de expressão.

Tendo em vista os ataques ao sistema democrático brasileiro que culminaram no 8 de janeiro, podemos dizer que a democracia brasileira chega às eleições deste ano mais protegida?

É muito difícil prever eventuais riscos. Mas acredito que as eleições deste ano serão diferentes e muito importantes, principalmente ao pensarmos no próximo ciclo eleitoral presidencial. Isso porque as dinâmicas locais terão impacto nas eleições nacionais daqui a dois anos – e os esforços para a integridade democrática e eleitoral são constantes. Por isso, não é possível dizer que estamos em uma situação mais protegida. Vivemos em um cenário de constante luta pela construção da democracia. 

Apesar da mobilização social e política em torno do tema, o Brasil ainda não conseguiu avançar na regulamentação do uso das plataformas e de IA. Esse debate já está suficientemente maduro para virar uma legislação? Por que ele não avançou?

Os debates de inteligência artificial e de regulação de plataformas são diferentes. A regulação da IA teve uma comissão de juristas e foram propostos projetos de lei que estão tramitando no Senado Federal e envolvem uma ampla gama de atores econômicos. Por outro lado, temos um movimento voltado a discutir regulação de plataformas que engloba questões relacionadas à moderação de conteúdo e transparência, por exemplo. Este é um tema complexo, principalmente devido à sensibilidade da liberdade de expressão – é uma estrutura nova, sem precedentes. Desenhar modelos regulatórios e pensar incentivos de acordo com o contexto local não é fácil e, ao mesmo tempo, envolve diversos interesses, compreensões e posicionamentos na definição da estrutura regulatória. 

A busca por uma estrutura que faça sentido no contexto brasileiro avançou bastante recentemente. Porém, este é um movimento que depende das dinâmicas políticas e dos desafios de debater e construir alternativas para um tema tão complexo, sem consenso. O esforço para construir a melhor solução leva tempo. Quando o projeto de lei entrou no Senado Federal em 2020, tramitou de forma muito acelerada devido à falta de tempo para amadurecer o tema. Na Europa, a lei foi aprovada recentemente, então não é como se o Brasil fosse atrasado no campo. Alguns países estão iniciando as discussões agora, então o debate é natural.