Observatório de Games.
Parece que a gente já não sabe mais onde começa o conceito de personagem de videogame e termina a realidade. Prova disso é que, pelas redes sociais, todo mundo, uma vez ou outra, já se pegou tentando reconhecer objetos ou vídeos que pudessem ou não ser reais. Culpa da Inteligência Artificial (IA), que nos tem feito mais confundir do que acerar a checagem desses conteúdos feitos pelas eficientes ferramentas digitais da vez.
A IA está corroendo os mecanismos que sustentam a confiança pública, a formação de memória e até o processo democrático. Ela já está no dia a dia, na dispersão de uma simples visita às redes. Pesquisadores chamam o fenômeno de colapso epistêmico, a incapacidade social de distinguir o real do fabricado.

O cérebro humano não evoluiu para detectar deepfakes, quem atesta são os cientistas. Estudos de neuroimagem com ressonância magnética funcional e eletroencefalografia, publicados entre 2023 e 2024, revelam por que essas tecnologias são tão eficazes em manipular memórias.
Essa vulnerabilidade reside no giro fusiforme, região do cérebro localizada no lobo temporal e occipital, fundamental para o reconhecimento de rostos e objetos, além de outras funções visuais complexas. Ou seja, região cerebral que gera o que pesquisadores chamam de “sinal de realidade”.
Pesquisa publicada na revista Neuron em 2023 demonstrou que o giro fusiforme é ativado tanto durante percepção quanto imaginação, gerando um sinal que o córtex pré-frontal medial então avalia para determinar se algo é real ou não. Dessa forma, o conteúdo sintético de alta qualidade, criado por IA, consegue “hackear” este sistema, fazendo o cérebro classificar erroneamente estímulos artificiais como reais.

Segundo a pesquisa, o cérebro foi moldado por milhões de anos de evolução para processar estímulos do mundo natural, e o ser humano não possui defesas biológicas contra mídia sintética criada especificamente para nos enganar.
Outro estudo com milhares de participantes demonstrou que a detecção humana de conteúdos falsos é praticamente um “chute”. A precisão média foi de 55,54%, muito próxima do acaso. Vídeos gerados por IA, considerados mais difíceis de detectar, alcançaram 57,31%. Essa margem é insuficiente para proteger testemunhas, eleitores ou usuários comuns expostos a manipulações sofisticadas.
A dimensão social é igualmente perturbadora. Deepfakes políticos podem alterar percepções eleitorais, fabricar escândalos ou destruir reputações em minutos. Adolescentes, por sua vez, estão submetidos a filtros que alteram aparência e padrões corporais, contribuindo para distorções de autoimagem e comparações impossíveis.
Sem regulação, plataformas continuam amplificando esse ciclo. Especialistas defendem medidas urgentes: marcação permanente de conteúdo gerado por IA; auditoria independente dos algoritmos que decidem o que bilhões de pessoas veem; e a possibilidade de desligar recursos de recomendação e feeds manipulados. No design de produtos, propõe-se a introdução de “atritos” intencionais que são pequenas pausas que forçam o usuário a refletir antes de compartilhar conteúdo potencialmente falso.
O que está em jogo não é apenas privacidade ou segurança digital. É a própria capacidade humana de construir uma memória compartilhada, fundamento essencial para qualquer democracia.
Janduí Jorge é Líder de Inovação em IA e Produtos Digitais do Edify.
The post Você sabe identificar uma deepfake? A ciência diz que não first appeared on Observatório de Games. Marx Walker , Observatório de Games.
Fonte: Observatório de Games.
Tue, 10 Feb 2026 19:43:56 +0000










































































































