Atenção — os esquemas de falsificação de identidade de executivos estão a espalhar-se rapidamente por todas as plataformas que possas imaginar. Estamos a falar do X, Discord, Instagram, LinkedIn, TikTok, Facebook, WhatsApp, Telegram, até chamadas telefónicas, emails e SMS.



Eis a parte assustadora: bots alimentados por IA estão a tornar-se assustadoramente eficazes a imitar pessoas reais. Até 2026, especialistas preveem que estes esquemas online serão 100 vezes mais convincentes do que aquilo com que lidamos hoje. A tecnologia já consegue replicar vozes, estilos de escrita e até maneirismos.

Mantém-te atento. Verifica tudo duas vezes. Se um ‘CTO’ ou qualquer executivo aparecer subitamente nas tuas mensagens a pedir informações sensíveis ou transferências de cripto, confirma primeiro através dos canais oficiais. Um clique errado pode custar-te tudo.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 9
  • Republicar
  • Partilhar
Comentar
0/400
BridgeNomadvip
· 2025-12-10 01:34
Sinceramente, a questão da replicação de voz é ainda pior do que a maioria das pessoas percebe — vi isso acontecer durante a análise pós-morte do exploit da Thor Bridge, só que com endereços de carteira em vez de vozes. Uma chamada de verificação errada e toda a tua posição evapora. Já passei por isso, acredita.
Ver originalResponder0
ForkTonguevip
· 2025-12-10 00:30
Honestamente, hoje em dia quem ainda acredita nos "altos cargos" que te contactam por DM... Já devias era ter aprendido a tirar um screenshot e perguntar ao suporte oficial, senão é melhor esperar para ser enganado.
Ver originalResponder0
AirdropLickervip
· 2025-12-08 18:04
Em 2026, as fraudes vão ser 100 vezes mais realistas? Nessa altura, vamos ser completamente enganados, com IA a trocar rostos e vozes deepfake — quem acreditar em alguém vai estar tramado.
Ver originalResponder0
TopEscapeArtistvip
· 2025-12-08 12:02
Eh pá, é sempre o mesmo esquema, já tinha percebido há muito que havia sinais de perigo na análise técnica, e agora até a IA se está a meter ao barulho. Em 2026, os vigaristas devem estar a torcer para que o MACD faça um golden cross.
Ver originalResponder0
ForkLibertarianvip
· 2025-12-08 12:01
Raios, até a troca de rostos com IA já consegue enganar para roubar dinheiro, imagina o quão absurdo isto vai estar em 2026.
Ver originalResponder0
MetaMaskedvip
· 2025-12-08 12:01
Esta questão das trocas de rosto com IA está a tornar-se cada vez mais assustadora. Tenho receio que um dia me roubem a chave privada e eu nem perceba o que aconteceu.
Ver originalResponder0
ProofOfNothingvip
· 2025-12-08 12:00
Para ser sincero, agora se receber alguma DM de um chefe a pedir uma transferência, tenho mesmo de ligar a confirmar... Com a IA tão avançada, é mesmo impossível estar sempre prevenido.
Ver originalResponder0
Frontrunnervip
· 2025-12-08 11:49
Ngl, esta cena de burlas com IA está mesmo cada vez mais absurda... No mês passado fui adicionado por um bot no TG, até a voz conseguiam imitar... Fiquei tão assustado que apaguei logo.
Ver originalResponder0
WealthCoffeevip
· 2025-12-08 11:34
Para ser sincero, agora é mesmo preciso ter cuidado, até a troca de rosto com IA já consegue enganar pessoas, em 2026 vai ser ainda mais absurdo... O meu receio é que um dia seja enganado por um CEO falso num grupo e nem dê por isso.
Ver originalResponder0
Ver mais
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)