Observatório de Games.
Quem tem uma conta na rede social, já se deparou com a brincadeira de reconhecer objetos ou vídeos feitos por Inteligência Artificial. Confundir é mais fácil do que acertar, tamanha é a evolução das ferramentas digitais. A Inteligência Artificial está corroendo os mecanismos que sustentam a confiança pública, a formação de memória e até o processo democrático. Ela já está no dia a dia, na dispersão de uma simples visita às redes. Pesquisadores chamam o fenômeno de colapso epistêmico, a incapacidade social de distinguir o real do fabricado.
O cérebro humano não evoluiu para detectar deepfakes, quem atesta são os cientistas. Estudos de neuroimagem com ressonância magnética funcional e eletroencefalografia, publicados entre 2023 e 2024, revelam por que essas tecnologias são tão eficazes em manipular memórias.
Essa vulnerabilidade reside no giro fusiforme, região do cérebro localizada no lobo temporal e occipital, fundamental para o reconhecimento de rostos e objetos, além de outras funções visuais complexas. Ou seja, região cerebral que gera o que pesquisadores chamam de “sinal de realidade”.
Pesquisa publicada na revista Neuron em 2023 demonstrou que o giro fusiforme é ativado tanto durante percepção quanto imaginação, gerando um sinal que o córtex pré-frontal medial então avalia para determinar se algo é real ou não. Dessa forma, o conteúdo sintético de alta qualidade, criado por IA, consegue “hackear” este sistema, fazendo o cérebro classificar erroneamente estímulos artificiais como reais.
Segundo a pesquisa, o cérebro foi moldado por milhões de anos de evolução para processar estímulos do mundo natural, e o ser humano não possui defesas biológicas contra mídia sintética criada especificamente para nos enganar.
Outro estudo com milhares de participantes demonstrou que a detecção humana de conteúdos falsos é praticamente um “chute”. A precisão média foi de 55,54%, muito próxima do acaso. Vídeos gerados por IA, considerados mais difíceis de detectar, alcançaram 57,31%. Essa margem é insuficiente para proteger testemunhas, eleitores ou usuários comuns expostos a manipulações sofisticadas.
A dimensão social é igualmente perturbadora. Deepfakes políticos podem alterar percepções eleitorais, fabricar escândalos ou destruir reputações em minutos. Adolescentes, por sua vez, estão submetidos a filtros que alteram aparência e padrões corporais, contribuindo para distorções de autoimagem e comparações impossíveis.
Sem regulação, plataformas continuam amplificando esse ciclo. Especialistas defendem medidas urgentes: marcação permanente de conteúdo gerado por IA; auditoria independente dos algoritmos que decidem o que bilhões de pessoas veem; e a possibilidade de desligar recursos de recomendação e feeds manipulados. No design de produtos, propõe-se a introdução de “atritos” intencionais que são pequenas pausas que forçam o usuário a refletir antes de compartilhar conteúdo potencialmente falso.
O que está em jogo não é apenas privacidade ou segurança digital. É a própria capacidade humana de construir uma memória compartilhada, fundamento essencial para qualquer democracia.
Janduí Jorge é Líder de Inovação em IA e Produtos Digitais do Edify.
The post Você sabe reconhecer uma deepfake? A ciência diz que não first appeared on Observatório de Games. Marx Walker , Observatório de Games.
Fonte: Observatório de Games.
Tue, 10 Feb 2026 19:12:54 +0000










































































































