Atención: las estafas de suplantación de ejecutivos falsos se están propagando como la pólvora en todas las plataformas que puedas imaginar. Hablamos de X, Discord, Instagram, LinkedIn, TikTok, Facebook, WhatsApp, Telegram, e incluso llamadas telefónicas, correos electrónicos y SMS.
Aquí viene la parte aterradora: los bots impulsados por IA están llegando a ser inquietantemente buenos imitando a personas reales. Para 2026, los expertos predicen que estas estafas en internet serán 100 veces más convincentes que las que enfrentamos hoy en día. La tecnología ya puede replicar voces, estilos de escritura e incluso gestos.
Mantente alerta ahí fuera. Verifica todo dos veces. Si un 'CTO' o cualquier ejecutivo aparece de repente en tus mensajes privados pidiendo información sensible o transferencias de criptomonedas, verifica primero a través de canales oficiales. Un solo clic erróneo podría costarte todo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
23 me gusta
Recompensa
23
9
Republicar
Compartir
Comentar
0/400
BridgeNomad
· 2025-12-10 01:34
La verdad, la replicación de voz es en realidad peor de lo que la mayoría de la gente se imagina; vi cómo sucedía algo parecido durante el análisis post mortem del exploit de Thor Bridge, solo que con direcciones de monedero en vez de voces. Una sola llamada de verificación errónea y toda tu posición se evapora. Lo he vivido, créeme.
Ver originalesResponder0
ForkTongue
· 2025-12-10 00:30
La verdad, hoy en día, ¿quién puede confiar en los "ejecutivos" que te contactan por DM...? Ya deberías haber aprendido a hacer una captura de pantalla y preguntar al equipo oficial; si no, solo te queda esperar a que te engañen.
Ver originalesResponder0
AirdropLicker
· 2025-12-08 18:04
¿Los scams en 2026 serán 100 veces más realistas? Para entonces, probablemente nos manipularán por completo; con IA para cambiar caras y voces deepfake, quien confíe en alguien está perdido.
Ver originalesResponder0
TopEscapeArtist
· 2025-12-08 12:02
Vaya, otra vez la misma táctica. Ya había detectado señales de peligro en el análisis técnico, y ahora la IA también se mete. En 2026, me temo que los estafadores van a hacer que el MACD cruce al alza.
Ver originalesResponder0
ForkLibertarian
· 2025-12-08 12:01
Joder, ahora ya pueden estafar dinero con caras falsas de IA, ¿cómo de loco estará esto en 2026?
Ver originalesResponder0
MetaMasked
· 2025-12-08 12:01
El intercambio de caras con IA da cada vez más miedo. Me preocupa que algún día me roben la clave privada y ni siquiera sepa cómo ha pasado.
Ver originalesResponder0
ProofOfNothing
· 2025-12-08 12:00
No voy a mentir, ahora si recibo un DM de algún jefe pidiéndome una transferencia, tengo que llamar para confirmar... La IA está tan avanzada que realmente es imposible estar completamente protegido.
Ver originalesResponder0
Frontrunner
· 2025-12-08 11:49
No voy a mentir, esto de las estafas con IA cada vez es más absurdo... El mes pasado en Telegram ya me agregó un bot, hasta podían imitar la voz... Me asusté tanto que lo borré directamente.
Ver originalesResponder0
WealthCoffee
· 2025-12-08 11:34
La verdad, ahora sí que hay que tener cuidado. La IA con cambio de cara ya puede engañar a la gente, y en 2026 será aún más loco... Me da miedo que cualquier día un CEO falso me estafe en el grupo y ni me entere.
Atención: las estafas de suplantación de ejecutivos falsos se están propagando como la pólvora en todas las plataformas que puedas imaginar. Hablamos de X, Discord, Instagram, LinkedIn, TikTok, Facebook, WhatsApp, Telegram, e incluso llamadas telefónicas, correos electrónicos y SMS.
Aquí viene la parte aterradora: los bots impulsados por IA están llegando a ser inquietantemente buenos imitando a personas reales. Para 2026, los expertos predicen que estas estafas en internet serán 100 veces más convincentes que las que enfrentamos hoy en día. La tecnología ya puede replicar voces, estilos de escritura e incluso gestos.
Mantente alerta ahí fuera. Verifica todo dos veces. Si un 'CTO' o cualquier ejecutivo aparece de repente en tus mensajes privados pidiendo información sensible o transferencias de criptomonedas, verifica primero a través de canales oficiales. Un solo clic erróneo podría costarte todo.