A FACULDADE
GRADUAÇÃO
PÓS-GRADUAÇÃO
CULTURA E EXTENSÃO
PESQUISA
COOPERAÇÃO ACADÊMICA
DOCENTES
NOTÍCIAS
REVISTAS
OUVIDORIA
FALE CONOSCO
INTRANET
DEPARTAMENTOS
A FACULDADE
HISTÓRIA
ORGANIZAÇÃO
SER FRANCISCANO
DIVERSIDADE
MUSEU E ARQUIVOS
MAPA DA FACULDADE
GALERIA DE IMAGENS
LEGISLAÇÃO
COMUNICADOS/PORTARIAS
LICITAÇÕES
VESTIBULAR
EDITAIS
GRADUAÇÃO
A COMISSÃO
NOTÍCIAS
DOCENTES
GRADE HORÁRIA
MAPA DE PROVAS
TCC
ESTÁGIOS
DIPLOMAS ESTRANGEIROS
EDITAIS
FORMULÁRIOS
LEGISLAÇÃO
PÓS-GRADUAÇÃO
PÁGINA INICIAL
CALENDÁRIO
DISCIPLINAS CREDENCIADAS
LINHAS DE PESQUISA
PROJETOS DE PESQUISA
CULTURA E EXTENSÃO
A COMISSÃO
NOTÍCIAS
CURSOS
ATIVIDADES ACADÊMICAS
COMPLEMENTARES
FORMULÁRIOS
LEGISLAÇÃO
PESQUISA
A COMISSÃO
NOTÍCIAS
INICIAÇÃO CIENTÍFICA
GRUPOS DE PESQUISA
PÓS-DOUTORADO
LEGISLAÇÃO
COOPERAÇÃO ACADÊMICA
CCinN-FD - A Comissão
NOTÍCIAS
BOLSAS
CONVÊNIOS
PITES
CÁTEDRA UNESCO
LEGISLAÇÃO
DOCENTES
Opinião
Opinião

As futuras eleições

2024 pode marcar o início de uma nova era para as democracias. Precisamos avançar no combate aos novos tipos de conteúdos desinformativos

 

Por Alexandre de Moraes e André Ramos Tavares, professores da Faculdade de Direito da USP

 

Texto escrito, originalmente, para o jornal “O Estado de S.Paulo”

 

Hoje, no Brasil e no mundo, o Tribunal Superior Eleitoral (TSE) está na vanguarda do combate à desinformação, com normas e comandos decisórios robustos, definindo as regras do jogo democrático para os candidatos na era digital. Assim, lembre-se da decisão do TSE que equiparou as redes digitais aos meios tradicionais de comunicação, o que foi essencial para responsabilizar candidatos infratores informacionais. E a Resolução TSE n.º 23.714, de 2022, a determinar prazos e modelos adaptados à velocidade do novo cenário digital. Mas, fora de sua esfera, é preciso avançar nas discussões sobre o espaço virtual, responsabilidades das plataformas digitais e dos usuários na moderação e disseminação de conteúdos nocivos para a democracia.

Um importante passo – e um excelente exemplo – foi dado recentemente pelo governo norte-americano, que emitiu uma Ordem Executiva sobre Inteligência Artificial (IA). O mote é a “inovação responsável”, segura e confiável. Ademais, essa norma reorienta o desenvolvimento de inteligência artificial, de maneira que a inovação ocorra em prol da população norte-americana. O slogan, aqui, é Make AI Work for the American People. Considerando que a sede das maiores plataformas digitais globais, principais empresas capazes de fazer avançar a IA, é justamente os EUA, o impacto dessa normativa deve alcançar uma dimensão estratégica em nível planetário. Durante o lançamento da medida, o próprio presidente Joe Biden fez, aliás, uma breve menção às deepfakes, por ter assistido a um vídeo falso em que ele mesmo aparece dizendo coisas que nunca disse.

Nos últimos anos, as novas tecnologias, especialmente as diversas modalidades de inteligência artificial, deram um salto quantitativo e qualitativo com pouquíssima ou nenhuma regulamentação jurídica pró-sociedade. De outra parte, democracias passaram por abalos significativos, de difícil recomposição diante da cisão radical entre grupos no espaço público, especialmente porque essa divisão acaba sendo perpetuada e constantemente reforçada pelo modelo de funcionamento das principais plataformas digitais. Via algoritmos, as redes mundiais privilegiam a segmentação dos usuários por meio do suposto perfil de cada um, agrupando-os em conformidade com esses dados, embora seja comum assumir que estaríamos todos conectados a uma mesma aldeia global.

O lançamento do ChatGPT 3.5 pela OpenAI trouxe mais um novo paradigma tecnológico a empurrar as relações sociais para um novo patamar de dificuldades. Apesar de ser comprovado que essa plataforma pode gerar informações falsas, ela já conta com adesão massiva da sociedade. A própria OpenAI possui a DALL-E, uma ferramenta text-to-image, que cria imagens e vídeos “realistas” com base em linguagem natural inseria pelo interessado.

Outro exemplo é a HeyGen, uma ferramenta que adapta o input textual do interessado ao padrão do movimento labial do alvo (um político, por exemplo) e gera um vídeo que pode ser bastante preciso e convincente.

Esse tipo de IA generativa pode servir às deepfakes, com a alteração maliciosa de vídeos ou áudios. Há exemplos de manipulação de rostos de pessoas em corpos nus, em situações constrangedoras ou violentas, que no campo eleitoral podem se traduzir em violência política de gênero. Por tal motivo, diversas pesquisas de universidades públicas pelo mundo, em estágios já avançados, estão criando ferramentas capazes de identificar com acurácia a adulteração de vídeos, de maneira a também permitir a difusão destes novos instrumentos tecnológicos para a defesa da sociedade.

Entretanto, quando um vídeo viraliza, é difícil reverter seus impactos, fragilizando a liberdade democrática, a concorrência sadia entre candidatos e influenciando de forma definitiva a opinião pública. A eficácia das redes é praticamente instantânea. Portanto, o mau uso do poder tecnológico pode determinar os rumos da democracia, decidir eleições e induzir a coletividade a grandes equívocos. Por isso há propostas para que os vídeos baseados em IA generativa sejam etiquetados, indicando tratar-se de um vídeo “construído”, logo, “falso”. É um primeiro passo para mitigar os riscos. Esse tipo de medida, porém, não afastará totalmente os perigos no uso livre e disseminado de IA. Outra proposta, menos factível no atual estágio, é a de que a própria IA não seja lançada ao mercado consumidor sem um estudo de seus riscos sistêmicos para a humanidade e para a democracia.

Recentemente, o TikTok atualizou suas diretrizes para proibir mídias sintéticas (que são os vídeos gerados ou modificados por IA) em algumas hipóteses. Trata-se do que chamamos de autorregulação, que, embora bem-vinda, não oferece a mesma segurança jurídica de um direito uniforme para todos e no interesse de todos, que não dependa apenas de uma bondade voluntariosa e volátil de cada plataforma digital.

O próximo ano pode marcar o início de uma nova era para as democracias. A inteligência artificial terá uma abrangência até então não experimentada, porque, enfim, a IA é uma realidade e se popularizou. Precisamos estar preparados.

NOTÍCIAS RELACIONADAS
Faculdade de Direito - Universidade de São Paulo
Largo São Francisco, 95
São Paulo-SP
01005-010
+55 11 3111.4000