Golpes virtuais com inteligência artificial: saiba como se proteger de fraudes digitais

Leia mais

Golpes virtuais com IA: quando a tecnologia assume rostos e vozes reais

No Brasil, uma nova modalidade de estelionato tem preocupado as autoridades: o uso da inteligência artificial (IA) para clonar a imagem e a voz de pessoas, aplicando golpes de maneira cada vez mais convincente. Esse foi o caso da advogada Hanna Gomes, cuja mãe quase foi vítima de uma fraude elaborada que envolvia um vídeo em tempo real simulando a presença da filha. O episódio levanta questões urgentes sobre os perigos da tecnologia, principalmente quando empregada para fins ilícitos.

O caso de Hanna Gomes e a ação dos criminosos

A advogada aposentada Karla Pinto recebeu uma chamada de vídeo da própria filha, aparentemente pedindo uma transferência de R$ 600 via PIX. No entanto, alguns detalhes alertaram Karla sobre a possibilidade de golpe. A filha estava com uma blusa diferente da que usava ao sair de casa, o valor deveria ser transferido para uma conta de uma amiga, e a “filha” não usou o apelido carinhoso com que se tratam. Atenta, Karla decidiu fazer perguntas específicas para verificar a autenticidade da chamada, como o nome do cachorro da família e do vizinho. Diante disso, a ligação foi subitamente interrompida.

“Era meu rosto, meu cabelo, e minha voz,” relatou Hanna, destacando o impacto de ver uma versão clonada de si mesma. Segundo especialistas, o vídeo pode ter sido feito com IA, reproduzindo a voz e os trejeitos da advogada a partir de vídeos públicos de suas aulas e redes sociais.

Estelionato eletrônico em ascensão

Casos como o de Hanna se inserem na categoria do estelionato eletrônico, modalidade que cresce a passos largos no país. Segundo o Anuário Brasileiro de Segurança Pública 2023, foram registrados mais de 200 mil casos de estelionato eletrônico no último ano, um aumento de 65% em relação a 2021. O problema é especialmente grave em Santa Catarina, Minas Gerais, Distrito Federal e Espírito Santo, onde esses casos lideram as estatísticas. Entretanto, nem todos os estados brasileiros dispõem de dados específicos sobre esse tipo de crime, o que dificulta o entendimento completo do cenário.

Inteligência artificial e golpes cada vez mais sofisticados

A tecnologia de IA tem avançado rapidamente, possibilitando a criação de imagens e sons hiper-realistas. Com apenas alguns segundos de vídeo ou áudio, criminosos podem gerar uma “cópia digital” de uma pessoa, replicando detalhes como entonação, sotaque e movimentos faciais. Ferramentas deepfake, que alteram vídeos em tempo real, já estão disponíveis publicamente, o que torna esse tipo de fraude cada vez mais acessível, inclusive para criminosos sem conhecimento técnico avançado.

Contudo, o uso de vídeos falsos em chamadas ao vivo, como ocorreu com Hanna, exige tecnologia mais sofisticada e computadores potentes. “É como criar um personagem virtual que fala e age como uma pessoa real,” explica Rogério Guimarães, especialista em tecnologia. Mas identificar essas fraudes é um desafio: detalhes sutis, como leves atrasos na sincronização labial, podem passar despercebidos.

Como se proteger de golpes com IA

Especialistas em cibersegurança apontam que identificar se um vídeo ou áudio foi manipulado nem sempre é fácil. No entanto, algumas práticas podem ajudar a distinguir conteúdos reais de falsificações:

  1. Esteja consciente: tenha em mente que fraudes com IA são reais e aumentam a cada dia.
  2. Confirme por outros meios: sempre que tiver dúvidas, ligue para a pessoa por outro meio ou tente contato pessoalmente.
  3. Atenção aos detalhes: observe detalhes faciais e na movimentação dos olhos e da boca, que podem denunciar a falta de naturalidade.
  4. Verifique a qualidade: uma imagem ou som perfeitamente nítidos, ou excessivamente distorcidos, podem indicar falsificação.
  5. Perguntas específicas: faça perguntas sobre assuntos pessoais que apenas o contato verdadeiro saberia responder.
  6. Mude de assunto: em caso de suspeita durante a chamada, pergunte sobre outro tema; golpistas frequentemente se atrapalham com a mudança.
  7. Desconfie de pedidos de dinheiro: em chamadas que envolvam pedidos financeiros, redobre a atenção; transferências por PIX são especialmente visadas.

O desafio da segurança digital em um mundo impulsionado pela IA

A situação vivida por Hanna Gomes e sua mãe evidencia a crescente vulnerabilidade dos cidadãos diante do uso da inteligência artificial para fins fraudulentos. Diante desse cenário, é fundamental que a sociedade se conscientize sobre as possibilidades e os riscos dessas tecnologias. Embora as medidas de proteção possam mitigar parte dos riscos, o combate efetivo a esses crimes exige uma ação coordenada entre autoridades, especialistas em cibersegurança e a própria população.

- Publicidade -spot_img

More articles

- Publicidade -spot_img

Últimas notíciais