Your basket is currently empty!
Rối trí, mất tiền vì AI giả giọng người thân

Thời gian gần đây, nhiều người dân đã trở thành nạn nhân của các chiêu trò lừa đảo tinh vi, trong đó phổ biến là giả danh người thân để chiếm đoạt tài sản. Các đối tượng thường sử dụng công nghệ deepfake hoặc thu thập thông tin cá nhân trên mạng xã hội để tạo dựng hình ảnh và giọng nói giống hệt người thân của nạn nhân.
Theo ghi nhận từ cơ quan công an, các vụ lừa đảo kiểu này thường nhắm vào những người lớn tuổi, ít am hiểu về công nghệ và dễ tin người. Kẻ gian thường gọi điện hoặc nhắn tin thông báo về một tình huống khẩn cấp, chẳng hạn như tai nạn giao thông, bệnh tật hoặc vướng vào pháp luật, sau đó yêu cầu chuyển tiền gấp để giải quyết.
Một nạn nhân ở Hà Nội chia sẻ, bà đã nhận được cuộc gọi từ một người tự xưng là cháu trai, giọng nói và cách xưng hô rất giống thật. Người này thông báo đang gặp tai nạn và cần tiền để nộp phạt. Do quá lo lắng, bà đã chuyển khoản một số tiền lớn vào tài khoản do đối tượng cung cấp mà không hề nghi ngờ. Đến khi liên lạc được với cháu trai thật, bà mới biết mình đã bị lừa.
Các chuyên gia an ninh mạng khuyến cáo người dân cần nâng cao cảnh giác với các cuộc gọi hoặc tin nhắn lạ, đặc biệt là khi có yêu cầu chuyển tiền. Nên xác minh thông tin bằng cách liên hệ trực tiếp với người thân hoặc bạn bè trước khi thực hiện bất kỳ giao dịch nào. Đồng thời, cần bảo mật thông tin cá nhân trên mạng xã hội và không chia sẻ những thông tin nhạy cảm cho người lạ.
Cơ quan công an cũng khuyến cáo người dân nên trình báo ngay khi phát hiện các dấu hiệu lừa đảo để được hỗ trợ kịp thời. Việc phối hợp chặt chẽ giữa người dân và cơ quan chức năng sẽ giúp ngăn chặn và đẩy lùi các loại tội phạm công nghệ cao, bảo vệ tài sản và quyền lợi hợp pháp của công dân.