Imagem gerada por Inteligência Artificial através do Midjourney
Quem acessa pelo menos uma rede social com regularidade provavelmente já se deparou, ao longo do último mês, com imagens inusitadas de Sua Santidade, o Papa. Na mais viral delas, o pontífice aparece de jaqueta puffer branca, solidéu e um crucifixo robusto. A Vogue Brasil [1] até anunciou o estilista responsável, Filippo Sorcinelli. O Papa, além de pop, é estiloso, não fosse o fato de as imagens terem sido geradas por Inteligência Artificial – IA através do Midjourney.
Logo em seguida as redes foram inundadas por imagens do Santo Padre nos mais diversos cenários e funções. Uma semana depois, a Folha [2] ainda utilizou a imagem fake por engano em uma notícia real. Dada a qualidade das imagens e a rápida difusão, entraram em pauta outras imagens que circulavam em redes sociais e fóruns, como as de Putin e Trump sendo presos e as de Obama e Angela Merkel aproveitando um dia ensolarado na praia.
No mesmo período, a Future of Life publicou um documento com assinaturas de líderes e pesquisadores do setor de tecnologia pedindo a pausa nas pesquisas de treinamento de IA por pelo menos seis meses, tempo em que seriam criadas as regulamentações de base necessárias à seara. Dentre os que assinaram, estão Elon Musk (Tesla, SpaceX e Twitter) e Steve Wozniak (cofundador da Apple). Bill Gates, que havia publicado uma GatesNote sobre IA, criticou o documento.
Pelo burburinho nas redes, a IA vem assustando seus desenvolvedores e fazendo bem mais que convencer humanos a resolver CAPTCHAs e gerar imagens ganhadoras de concursos de fotografia. Exemplo disso é o experimento que reúne, em convivência numa cidade digital, 25 pessoas artificiais cujas interações têm elevado grau de complexidade e os desdobramentos já alertam quanto à capacidade do desenvolvimento de habilidades similares às humanas.
O resultado prático e imediato na sociedade é que estamos oficialmente entrando na era da deepfake, técnica de síntese de imagens e/ou sons humanos produzidos por IA. Em resumo, imagine ver sua imagem e ouvir sua própria voz em um vídeo, dizendo algo que você jamais diria, ou ter a voz de algum familiar clonada por IA simulando um sequestro, como já aconteceu nos Estados Unidos. É assim que a deepfake funciona. E se as últimas eleições presidenciais (não apenas no Brasil) foram marcadas e influenciadas por fake news, já podemos supor como as próximas podem ser perigosas (e interessantes).
A extrema direita, com a retomada dos discursos autoritários, que no Brasil vem acontecendo de forma mais contundente desde 2013, se muniu de recursos como as fakes news, otimizadas para a condução e a construção de narrativas, e conglomerou uma legião de replicadores de notícias falsas e rebatedores de dados com opiniões. Nos últimos quatro anos ouvimos diversas versões de “não foi bem assim” sobre a ditadura civil-militar e outras tantas de “isso está fora de contexto” em relação aos discursos autoritários, preconceituosos e violentos.
Some-se a isso a forma como os algoritmos das plataformas operam, o que consideram ou não contra seus termos de uso e como essas empresas gerenciam dados e utilizam tecnologias de vigilância. O tempo de tela nas redes sociais é a grande estrela: se houver engajamento, o conteúdo será impulsionado e monetizado. Se as informações são verdadeiras ou não, pouco importa às plataformas, que continuam por não se responsabilizar por acontecimentos impulsionados por seus algoritmos, como campanhas antivacina, crimes de ódio, resultados de eleições, entre outros [3], dando vez e voz à desinformação, à apologia ao crime e aos discursos de ódio, como é exemplo a postura do Twitter quanto aos ataques às escolas no Brasil.
Diante de experiências governamentais que questionam a democracia, negam a história, encerram políticas de memória e colocam em prática políticas de apagamento de fatos ainda constantes nas pautas de lutas por memória e verdade, como é o caso do que ocorreu nos últimos seis anos no Brasil em relação à ditadura civil-militar, principalmente quando parte dessas ações foram viabilizadas e até realizadas a partir da difusão de fake news, as deepfakes fazem projetar cenários informacionais caóticos e pautados pelo autoritarismo, onde a manipulação da sociedade ocorre a partir da vigilância, do controle da informação e da reconstrução da história e da verdade.
Controlar as narrativas históricas significa controlar as funções da memória, a qual funciona principalmente como guia à nossa atuação no presente e à projeção de algum futuro. Como se o esquecimento não fosse suficiente, com o avanço das fake news e das deepfakes a memória histórica passa cada vez mais a estar em risco de apagamento, de reescrita e de transformação em moeda de troca para os interesses privados.
Se já estamos encontrando dificuldades no combate às informações falsas e atrasados na garantia do direito à memória, com o rápido avanço da IA isso fica ainda mais evidente. A capacidade da Inteligência Artificial em auxiliar na construção de mentiras dá o tom do que estamos prestes a vivenciar. A cotação da memória histórica está em alta, e compreender isso é o primeiro passo para entrar em um dos principais campos de disputas políticas, seja no passado, no presente ou no futuro.
Cibele Alexandre Uchoa, Escritora, Pesquisadora, Mestre em Direito Constitucional pela Universidade de Fortaleza, Sócia-fundadora do Instituto Brasileiro de Direitos Culturais – IBDCult e Colunista em Novelo, do blog do IBDCult.
Notas
[1] VOGUE BRASIL. Neste sábado (25) a Vogue Brasil publicou uma nota [...]. São Paulo, 26 mar. 2023. Twitter: @voguebrasil. Disponível em: https://bit.ly/3TSBSzY. Acesso em: 20 abr. 2023.
[2] FOLHA DE S.PAULO. ERRAMOS: Versão anterior desta reportagem [...]. São Paulo, 1 abr. 2023. Twitter: @folha. Disponível em: https://bit.ly/3ZzWdLu. Acesso em: 20 abr. 2023.
[3] FISHER, Max. A máquina do caos: como as redes sociais reprogramaram nossa mente e nosso mundo. Tradução de Érico Assis. São Paulo: Todavia, 2023.
댓글