Cảnh báo—các trò lừa đảo giả mạo lãnh đạo đang lan rộng với tốc độ chóng mặt trên mọi nền tảng bạn có thể nghĩ tới. Chúng ta đang nói về X, Discord, Instagram, LinkedIn, TikTok, Facebook, WhatsApp, Telegram, thậm chí cả cuộc gọi điện thoại, email và tin nhắn SMS.
Điều đáng sợ là: các bot sử dụng AI ngày càng trở nên tinh vi trong việc bắt chước con người thật. Các chuyên gia dự đoán đến năm 2026, những trò lừa đảo trên mạng này sẽ thuyết phục gấp 100 lần so với hiện tại. Công nghệ hiện nay có thể sao chép giọng nói, phong cách viết và thậm chí cả cử chỉ.
Hãy luôn cảnh giác. Kiểm tra kỹ mọi thứ. Nếu một 'CTO' hay bất kỳ lãnh đạo nào đột ngột nhắn tin riêng cho bạn để hỏi thông tin nhạy cảm hoặc yêu cầu chuyển tiền điện tử, hãy xác minh qua các kênh chính thức trước. Chỉ một cú nhấp chuột sai lầm có thể khiến bạn mất tất cả.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
23 thích
Phần thưởng
23
9
Đăng lại
Retweed
Bình luận
0/400
BridgeNomad
· 2025-12-10 01:34
Thật ra việc sao chép giọng nói còn tệ hơn nhiều so với những gì hầu hết mọi người nhận ra—tôi đã chứng kiến điều này xảy ra trong quá trình điều tra sau vụ khai thác lỗ hổng trên Thor Bridge, chỉ khác là với địa chỉ ví thay vì giọng nói. Chỉ cần một lần xác nhận sai là toàn bộ vị thế của bạn bốc hơi. Tôi đã trải qua rồi, tin tôi đi.
Xem bản gốcTrả lời0
ForkTongue
· 2025-12-10 00:30
Nói thật chứ bây giờ ai còn tin mấy "sếp lớn" tự nhiên nhắn tin riêng nữa... Đáng lẽ từ lâu phải học cách chụp màn hình gửi hỏi chính thức rồi, không thì chỉ chờ bị lừa mất tiền thôi.
Xem bản gốcTrả lời0
AirdropLicker
· 2025-12-08 18:04
Đến năm 2026 scam sẽ chân thực gấp 100 lần? Lúc đó chắc chúng ta sẽ bị chơi chết, AI thay đổi khuôn mặt kết hợp với giọng nói deepfake, ai dám tin ai là xong đời.
Xem bản gốcTrả lời0
TopEscapeArtist
· 2025-12-08 12:02
Ôi trời, lại chiêu trò này nữa, tôi đã sớm nhận ra các tín hiệu nguy hiểm về mặt kỹ thuật rồi, bây giờ AI cũng nhảy vào góp vui, đến năm 2026 bọn lừa đảo chắc MACD lại chuẩn bị cắt lên vàng mất thôi.
Xem bản gốcTrả lời0
ForkLibertarian
· 2025-12-08 12:01
Trời ơi, AI thay đổi khuôn mặt mà cũng lừa được tiền rồi, năm 2026 thì chắc còn bá đạo đến mức nào nữa đây.
Xem bản gốcTrả lời0
MetaMasked
· 2025-12-08 12:01
Công nghệ AI thay đổi khuôn mặt ngày càng đáng sợ, tôi chỉ sợ một ngày nào đó bị lừa lấy mất private key mà không biết chuyện gì đã xảy ra.
Xem bản gốcTrả lời0
ProofOfNothing
· 2025-12-08 12:00
Nói thật bây giờ mà nhận được DM của sếp nào hỏi chuyển khoản là mình phải gọi điện xác nhận một lần... AI dạo này mạnh như vậy, đúng là phòng không kịp!
Xem bản gốcTrả lời0
Frontrunner
· 2025-12-08 11:49
Thật sự mà nói, mấy vụ lừa đảo AI này ngày càng lố bịch hơn... Tháng trước mình cũng bị người giả add trên Telegram, cả giọng nói cũng bắt chước được... Sợ quá mình xóa luôn.
Xem bản gốcTrả lời0
WealthCoffee
· 2025-12-08 11:34
Thật sự phải cẩn thận rồi, AI ghép mặt cũng lừa được người ta, 2026 còn kinh khủng hơn... Tôi chỉ sợ một ngày nào đó bị CEO giả trong nhóm lừa mất tiền mà không biết.
Cảnh báo—các trò lừa đảo giả mạo lãnh đạo đang lan rộng với tốc độ chóng mặt trên mọi nền tảng bạn có thể nghĩ tới. Chúng ta đang nói về X, Discord, Instagram, LinkedIn, TikTok, Facebook, WhatsApp, Telegram, thậm chí cả cuộc gọi điện thoại, email và tin nhắn SMS.
Điều đáng sợ là: các bot sử dụng AI ngày càng trở nên tinh vi trong việc bắt chước con người thật. Các chuyên gia dự đoán đến năm 2026, những trò lừa đảo trên mạng này sẽ thuyết phục gấp 100 lần so với hiện tại. Công nghệ hiện nay có thể sao chép giọng nói, phong cách viết và thậm chí cả cử chỉ.
Hãy luôn cảnh giác. Kiểm tra kỹ mọi thứ. Nếu một 'CTO' hay bất kỳ lãnh đạo nào đột ngột nhắn tin riêng cho bạn để hỏi thông tin nhạy cảm hoặc yêu cầu chuyển tiền điện tử, hãy xác minh qua các kênh chính thức trước. Chỉ một cú nhấp chuột sai lầm có thể khiến bạn mất tất cả.