O advogado Luan Amancio explica que criminosos usaram inteligência artificial (IA) para criar um “clone” do deputado e tentar aplicar golpes com sua imagem.
"Esses vídeos são produzidos em softwares que usam inteligência artificial para recriar a voz das pessoas, sincronizar o rosto em vídeos e movimentos labiais, dando um 'ar' de naturalidade. Assim, pessoas que confiam na imagem do deputado podem acabar caindo nos golpes", explica Amancio.
Além disso, os criminosos patrocinam o conteúdo nas redes sociais para que o vídeo tenha um maior alcance e acabe atingindo uma quantidade elevada de usuários propensos a cair no golpe. Como é uma ferramenta paga utilizada nas redes sociais, os criminosos podem inclusive selecionar para quem o vídeo deve ser entregue, fazendo com que pessoas que gostam do Nikolas Ferreira e o seguem nas redes sociais sejam induzidos ao erro.
A utilização de inteligência artificial para criar vídeos falsos, conhecidos como deepfakes, tem crescido exponencialmente. Esses vídeos são incrivelmente realistas e podem ser usados para fins diversos, inclusive atividades ilícitas como fraudes e difamação. No caso do deputado Nikolas Ferreira, o uso da IA foi direcionado para criar uma oferta irresistível, mas totalmente falsa, da antena Starlink.
Os deepfakes funcionam ao mapear o rosto e os movimentos labiais de uma pessoa, aplicando essa informação a um vídeo novo, sincronizado com uma voz recriada digitalmente. Esse processo resulta em um vídeo que parece autêntico para a maioria das pessoas, dificultando a identificação de fraudes.
Os criminosos não só criaram o vídeo falso, mas também investiram em publicidade paga nas redes sociais para maximizar o alcance do golpe. As ferramentas de segmentação das redes sociais permitem que os anúncios sejam direcionados para um público específico, neste caso, seguidores do deputado Nikolas Ferreira. Esse público-alvo é mais suscetível a acreditar na autenticidade do vídeo devido à confiança pré-existente na figura pública.
A prática de patrocinar conteúdo falso é preocupante, pois aumenta significativamente o potencial de impacto dos golpes. Usuários que veem o vídeo patrocinado podem estar mais inclinados a acreditar na oferta, principalmente quando ela é associada a uma figura de autoridade ou confiança.
Em resposta ao vídeo falso circulando nas redes sociais, o deputado Nikolas Ferreira emitiu um comunicado oficial alertando seus seguidores sobre a fraude. Ele reafirmou que não está oferecendo nenhuma antena Starlink e que todas as comunicações oficiais são feitas através de seus canais verificados.
"É lamentável que tecnologias avançadas estejam sendo usadas para fins fraudulentos. Estamos tomando todas as medidas legais cabíveis para identificar e punir os responsáveis por essa ação criminosa", declarou Ferreira.
As plataformas de redes sociais têm um papel crucial na prevenção e combate a fraudes como esta. Elas precisam melhorar constantemente suas ferramentas de detecção de conteúdo falso e agir rapidamente para remover materiais que promovam golpes.
A colaboração com especialistas em segurança cibernética e a implementação de tecnologias avançadas de verificação podem ajudar a mitigar os riscos associados aos deepfakes. Além disso, campanhas de conscientização educando os usuários sobre os perigos dos deepfakes e as melhores práticas para identificar fraudes são essenciais.
O uso de inteligência artificial para criar vídeos falsos é uma ameaça crescente à segurança digital. Golpes como o que utiliza a imagem do deputado Nikolas Ferreira para vender antenas Starlink a preços irrealistas destacam a necessidade de vigilância constante e educação sobre segurança online.
Usuários de redes sociais devem estar cientes dos métodos utilizados por criminosos e adotar uma postura crítica ao consumir conteúdo online. As plataformas de redes sociais, por sua vez, devem intensificar seus esforços para detectar e eliminar conteúdo fraudulento, protegendo assim seus usuários de possíveis prejuízos.