Fraudes com deepfake: como golpistas burlam biometria no Gov.br

A tecnologia que facilita o nosso dia a dia também pode ser usada contra nós. Prova disso é o aumento nos casos de fraudes usando deepfake, vídeos e áudios falsificados com Inteligência Artificial para enganar sistemas de reconhecimento facial, inclusive em plataformas como o Gov.br.

  • Golpes com deepfake e vozes clonadas estão em alta: veja como se proteger
  • 10 deepfakes mais impressionantes que confundiram a internet

Em entrevista ao Podcast Canaltech, Daniel Barbosa, pesquisador de segurança da ESET no Brasil, explicou como esses golpes funcionam, por que mesmo a biometria não é infalível e o que cada um de nós pode fazer para proteger nossos dados.

Ouça aqui:


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Biometria é segura, mas não perfeita

Segundo Daniel, a autenticação biométrica continua sendo uma forma segura de verificar identidades, mas ela não é 100% à prova de fraudes. “Os criminosos, tanto cibernéticos quanto do mundo físico, estão encontrando maneiras de burlar esses sistemas, seja com tecnologias avançadas ou com truques simples, como o uso de uma foto impressa”, explica.

Por isso, o especialista recomenda sempre usar múltiplas camadas de autenticação, por exemplo, combinar biometria com uma senha forte e autenticação em dois fatores.

Deepfake vai além das redes sociais

Apesar de muita gente associar deepfake a vídeos falsos de celebridades ou políticos nas redes sociais, os golpistas estão indo muito além. 

“Hoje, com apenas algumas fotos ou segundos de áudio da vítima, é possível criar vídeos altamente realistas que enganam até sistemas sofisticados”, alerta Daniel.

E o pior: essas ferramentas estão cada vez mais acessíveis. “Não é mais preciso ser um hacker de elite. Existem softwares gratuitos e fáceis de usar que fazem esse trabalho.”

Gov.br, bancos e apps de delivery na mira dos golpistas

Os ataques não se limitam ao Gov.br. Sistemas de autenticação facial são cada vez mais usados por bancos, fintechs, empresas de delivery e até consultórios médicos. E isso levanta uma preocupação ética e técnica: será que estamos protegendo adequadamente nossos dados mais sensíveis?

“A biometria é um dado extremamente pessoal e, se vazado, não pode ser alterado como uma senha. Por isso, é fundamental que as empresas sigam leis e regulamentos, como a LGPD, para proteger essas informações”, reforça Daniel.

Como se proteger de fraudes com deepfake

Para não cair nesse tipo de golpe, Daniel destaca algumas ações práticas:

  • Use senhas fortes e diferentes para cada serviço
  • Ative a autenticação em dois fatores
  • Evite expor fotos e vídeos desnecessariamente nas redes sociais
  • Mantenha seus dispositivos protegidos com antivírus e softwares atualizados
  • Cheque o histórico de acessos em plataformas como o Gov.br regularmente

O maior desafio é que, muitas vezes, a vítima só descobre que foi alvo de uma fraude muito tempo depois. Por isso, a vigilância precisa ser constante.

“Se notar algo estranho, como mudanças em seus dados ou acessos que você não reconhece, troque imediatamente a senha, ative a autenticação em dois fatores e registre um boletim de ocorrência. Também vale acionar o suporte da plataforma”, orienta.

Prevenção é o melhor remédio

As fraudes com deepfake estão crescendo e evoluindo rápido. Mas com informação, atenção e ferramentas de segurança, é possível reduzir bastante os riscos.“Não dá mais para depender só da tecnologia. A consciência do usuário também precisa evoluir”, finaliza Daniel.

Quer saber mais sobre segurança digital? Acompanhe os conteúdos e ouça o episódio completo do Podcast Canaltech com Daniel Barbosa da ESET.

Saiba mais:

  • Pesquisadores usam técnica da astronomia para identificar deepfakes
  • Este celular evita que você caia no golpe da deepfake
  • Biometria é para sempre: riscos, mitos e verdades sobre o uso do rosto e digital

Leia a matéria no Canaltech.

Adicionar aos favoritos o Link permanente.