Você sabe reconhecer uma deepfake? A ciência diz que não

Observatório de Games.

Quem tem uma conta na rede social, já se deparou com a brincadeira de reconhecer objetos ou vídeos feitos por Inteligência Artificial. Confundir é mais fácil do que acertar, tamanha é a evolução das ferramentas digitais. A Inteligência Artificial está corroendo os mecanismos que sustentam a confiança pública, a formação de memória e até o processo democrático. Ela já está no dia a dia, na dispersão de uma simples visita às redes. Pesquisadores chamam o fenômeno de colapso epistêmico, a incapacidade social de distinguir o real do fabricado.

O cérebro humano não evoluiu para detectar deepfakes, quem atesta são os cientistas. Estudos de neuroimagem com ressonância magnética funcional e eletroencefalografia, publicados entre 2023 e 2024, revelam por que essas tecnologias são tão eficazes em manipular memórias.

Essa vulnerabilidade reside no giro fusiforme, região do cérebro localizada no lobo temporal e occipital, fundamental para o reconhecimento de rostos e objetos, além de outras funções visuais complexas. Ou seja, região cerebral que gera o que pesquisadores chamam de “sinal de realidade”. 

Pesquisa publicada na revista Neuron em 2023 demonstrou que o giro fusiforme é ativado tanto durante percepção quanto imaginação, gerando um sinal que o córtex pré-frontal medial então avalia para determinar se algo é real ou não. Dessa forma, o conteúdo sintético de alta qualidade, criado por IA, consegue “hackear” este sistema, fazendo o cérebro classificar erroneamente estímulos artificiais como reais.

Segundo a pesquisa, o cérebro foi moldado por milhões de anos de evolução para processar estímulos do mundo natural, e o ser humano não possui defesas biológicas contra mídia sintética criada especificamente para nos enganar.

Outro estudo com milhares de participantes demonstrou que a detecção humana de conteúdos falsos é praticamente um “chute”. A precisão média foi de 55,54%, muito próxima do acaso. Vídeos gerados por IA, considerados mais difíceis de detectar, alcançaram 57,31%. Essa margem é insuficiente para proteger testemunhas, eleitores ou usuários comuns expostos a manipulações sofisticadas.

A dimensão social é igualmente perturbadora. Deepfakes políticos podem alterar percepções eleitorais, fabricar escândalos ou destruir reputações em minutos. Adolescentes, por sua vez, estão submetidos a filtros que alteram aparência e padrões corporais, contribuindo para distorções de autoimagem e comparações impossíveis.

Sem regulação, plataformas continuam amplificando esse ciclo. Especialistas defendem medidas urgentes: marcação permanente de conteúdo gerado por IA; auditoria independente dos algoritmos que decidem o que bilhões de pessoas veem; e a possibilidade de desligar recursos de recomendação e feeds manipulados. No design de produtos, propõe-se a introdução de “atritos” intencionais que são pequenas pausas que forçam o usuário a refletir antes de compartilhar conteúdo potencialmente falso.

O que está em jogo não é apenas privacidade ou segurança digital. É a própria capacidade humana de construir uma memória compartilhada, fundamento essencial para qualquer democracia.

Janduí Jorge é Líder de Inovação em IA e Produtos Digitais do Edify.

The post Você sabe reconhecer uma deepfake? A ciência diz que não first appeared on Observatório de Games. Marx Walker , Observatório de Games.

Fonte: Observatório de Games.

Tue, 10 Feb 2026 19:12:54 +0000

Publicidade

Jogue agora!

Últimas Toloi Games!

Últimas Observatorio de Games!

Ultimas Sites de Games!

Ultimas Playstation!

Ultimas Nintendo!

World of Longplays (jogos do inicio ao fim!)

Ultimas XBOX!

Contato

Se você deseja entrar em contato com a equipe responsável pelo beta.jogosgratis.online, utilize o e-mail abaixo:

📧 [email protected]

Este é o canal oficial para dúvidas, sugestões, parcerias ou qualquer outra questão relacionada ao site.

Responsável: Administrador do beta.jogosgratis.online

Publicidade