28 thg 7, 2023

Lưu ý các bạn khắp nơi nhất là ở Mỹ:

Lưu ý các bạn khắp nơi nhất là ở Mỹ:
 
Tóm tắt bản tin: Một bà mẹ ở Georgia (Shelton Moore) nhấc điện thoại lên và nghe thấy có người đàn ông báo rằng con gái của bà đã bị bắt cóc, sau đó là giọng nói của cô con gái 22 tuổi đang sợ hãi gọi “Mẹ ơi, mẹ ơi”.
Chỉ có điều, giọng nói bà Shelton Moore nghe đã được tạo ra bởi trí tuệ nhân tạo (AI), đây là một trò lừa đảo mới. Kẻ gian sử dụng AI tạo giọng nói giả để khiến nạn nhân nghĩ rằng người thân của họ đang bị bắt cóc.
Người đàn ông trong cuộc gọi trên đã yêu cầu trả 50.000 đô la để thả cô gái ra.
Chồng bà Shelton Moore, làm việc trong lĩnh vực “an ninh mạng”, đã đã dùng FaceTime liên lạc với con gái, cô gái cho biết không gặp nguy hiểm gì cả. Thì ra đó là một trò lừa đảo.
Bà Jennifer DeStefano cũng bị một vụ lừa đảo tương tự, đã ra làm chứng kể kinh nghiệm của mình tại một phiên điều trần của Thượng viện vào tháng trước. Các trường hợp dùng AI giả giọng nói, hình ảnh và video được sử dụng để lừa gạt càng ngày càng gia tăng.
Công ty bảo mật máy tính McAfee nói rằng với một mẫu âm thanh nhỏ, những kẻ lừa đảo có thể bắt chước giọng nói của một người như thật, kẻ gian thường dùng nhắn tin giả mạo.
Vào tháng 5, công ty cho biết một nghiên cuộc cứu toàn cầu mà họ tiến hành đã thấy ra rằng trong số 7.000 người được khảo sát, cứ 4 người thì có 1 người đã từng bị lừa đảo dùng “giọng nói AI” hoặc biết ai đó đã từng bị lừa đảo.
 
Bộ An ninh Nội địa đã đưa ra một cảnh báo nó là mối đe dọa đang phát triển trong phạm vi rộng
 
Những kẻ lừa đảo đã sử dụng trí tuệ nhân tạo và máy học để tạo ra các video, hình ảnh, âm thanh và văn bản giả… giống như thật.
 
DHS khuyên mọi người nên kiểm chứng bằng cách thứ hai đối với các lời nhắn tin yêu cầu chuyển tiền và nên để phòng các thủ đoạn lừa đảo liên quan đến các yêu cầu về quà tặng, về tiền điện tử hoặc chuyển khoản ngân hàng.
 
HCD: Các bạn nên lưu ý để phòng.


 

Không có nhận xét nào:

Đăng nhận xét