Atenção — os esquemas de falsificação de identidade de executivos estão a espalhar-se rapidamente por todas as plataformas que possas imaginar. Estamos a falar do X, Discord, Instagram, LinkedIn, TikTok, Facebook, WhatsApp, Telegram, até chamadas telefónicas, emails e SMS.
Eis a parte assustadora: bots alimentados por IA estão a tornar-se assustadoramente eficazes a imitar pessoas reais. Até 2026, especialistas preveem que estes esquemas online serão 100 vezes mais convincentes do que aquilo com que lidamos hoje. A tecnologia já consegue replicar vozes, estilos de escrita e até maneirismos.
Mantém-te atento. Verifica tudo duas vezes. Se um ‘CTO’ ou qualquer executivo aparecer subitamente nas tuas mensagens a pedir informações sensíveis ou transferências de cripto, confirma primeiro através dos canais oficiais. Um clique errado pode custar-te tudo.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
23 gostos
Recompensa
23
9
Republicar
Partilhar
Comentar
0/400
BridgeNomad
· 2025-12-10 01:34
Sinceramente, a questão da replicação de voz é ainda pior do que a maioria das pessoas percebe — vi isso acontecer durante a análise pós-morte do exploit da Thor Bridge, só que com endereços de carteira em vez de vozes. Uma chamada de verificação errada e toda a tua posição evapora. Já passei por isso, acredita.
Ver originalResponder0
ForkTongue
· 2025-12-10 00:30
Honestamente, hoje em dia quem ainda acredita nos "altos cargos" que te contactam por DM... Já devias era ter aprendido a tirar um screenshot e perguntar ao suporte oficial, senão é melhor esperar para ser enganado.
Ver originalResponder0
AirdropLicker
· 2025-12-08 18:04
Em 2026, as fraudes vão ser 100 vezes mais realistas? Nessa altura, vamos ser completamente enganados, com IA a trocar rostos e vozes deepfake — quem acreditar em alguém vai estar tramado.
Ver originalResponder0
TopEscapeArtist
· 2025-12-08 12:02
Eh pá, é sempre o mesmo esquema, já tinha percebido há muito que havia sinais de perigo na análise técnica, e agora até a IA se está a meter ao barulho. Em 2026, os vigaristas devem estar a torcer para que o MACD faça um golden cross.
Ver originalResponder0
ForkLibertarian
· 2025-12-08 12:01
Raios, até a troca de rostos com IA já consegue enganar para roubar dinheiro, imagina o quão absurdo isto vai estar em 2026.
Ver originalResponder0
MetaMasked
· 2025-12-08 12:01
Esta questão das trocas de rosto com IA está a tornar-se cada vez mais assustadora. Tenho receio que um dia me roubem a chave privada e eu nem perceba o que aconteceu.
Ver originalResponder0
ProofOfNothing
· 2025-12-08 12:00
Para ser sincero, agora se receber alguma DM de um chefe a pedir uma transferência, tenho mesmo de ligar a confirmar... Com a IA tão avançada, é mesmo impossível estar sempre prevenido.
Ver originalResponder0
Frontrunner
· 2025-12-08 11:49
Ngl, esta cena de burlas com IA está mesmo cada vez mais absurda... No mês passado fui adicionado por um bot no TG, até a voz conseguiam imitar... Fiquei tão assustado que apaguei logo.
Ver originalResponder0
WealthCoffee
· 2025-12-08 11:34
Para ser sincero, agora é mesmo preciso ter cuidado, até a troca de rosto com IA já consegue enganar pessoas, em 2026 vai ser ainda mais absurdo... O meu receio é que um dia seja enganado por um CEO falso num grupo e nem dê por isso.
Atenção — os esquemas de falsificação de identidade de executivos estão a espalhar-se rapidamente por todas as plataformas que possas imaginar. Estamos a falar do X, Discord, Instagram, LinkedIn, TikTok, Facebook, WhatsApp, Telegram, até chamadas telefónicas, emails e SMS.
Eis a parte assustadora: bots alimentados por IA estão a tornar-se assustadoramente eficazes a imitar pessoas reais. Até 2026, especialistas preveem que estes esquemas online serão 100 vezes mais convincentes do que aquilo com que lidamos hoje. A tecnologia já consegue replicar vozes, estilos de escrita e até maneirismos.
Mantém-te atento. Verifica tudo duas vezes. Se um ‘CTO’ ou qualquer executivo aparecer subitamente nas tuas mensagens a pedir informações sensíveis ou transferências de cripto, confirma primeiro através dos canais oficiais. Um clique errado pode custar-te tudo.