Giả giọng Giám đốc bằng deepfake, tin tặc “ma cô” lừa đảo 35 triệu USD

Công nghệ giọng nói giả deepfake đã bắt đầu xuất hiện trong các vụ lừa đảo hàng chục triệu USD.

Công nghệ giọng nói giả deepfake đã bắt đầu xuất hiện trong các vụ lừa đảo hàng chục triệu USD.

Theo Forbes, cảnh sát Dubai cho hay, công nghệ nhân tạo giọng nói AI được sử dụng trong một vụ trộm lớn ở UAE trong bối cảnh đất nước này đã đưa ra nhiều cảnh báo về việc tội phạm mạng sử dụng công nghệ tinh vi hiện đại thực hiện lừa đảo.

Đầu năm 2020, quản lý ngân hàng ở UAE nhận được cuộc gọi từ một Giám đốc công ty khác. Vị giám đốc này thông báo sắp thực hiện thương vụ sáp nhập chi nhánh nên cần ngân hàng ủy quyền chuyển khoản 35 triệu USD.

Quản lý ngân hàng đã trao đổi email với vị giám đốc nọ và một luật sư tên Martin Zelner vừa được thuê để điều phối các thủ tục, xác nhận số tiền sẽ được chuyển đến đâu. Mọi thủ tục pháp lý đều hoàn thiện, quản lý ngân hàng bắt đầu thực hiện giao dịch chuyển tiền.

Tuy nhiên, vị quản lý không ngờ rằng chính anh ta là nạn nhân của 1 kế hoạch lừa đảo tinh vi bằng công nghệ. Theo tài liệu tòa án, kẻ giả mạo đã sử dụng công nghệ “deep voice” (hay nói cách khác là deepfake – một kỹ thuật tạo ra hình ảnh, âm thanh, video giả mạo bằng trí tuệ nhân tạo) để lừa nạn nhân thông qua video của 1 bài phát biểu có thật của vị Giám đốc kia.

Tội phạm công nghệ sử dụng deepfake để thực hiện những phi vụ lừa đảo hàng triệu USD rúng động.

Hiện UAE phải nhờ đến những nhà điều tra Mỹ để truy tìm 400.000 USD được chuyển đến các tài khoản của ngân hàng Centennial tại Mỹ. Cảnh sát UAE tin rằng có ít nhất 17 tên tội phạm công nghệ đã tham gia vào kế hoạch này, sau đó chúng chia nhỏ số tiền gửi vào các tài khoản khác.

Văn phòng công tố Dubai – cơ quan đang dẫn đầu cuộc điều tra đã không trả lời yêu cầu bình luận tại thời điểm phỏng vấn. Martin Zelner, một luật sư hiện đang làm việc tại Mỹ cũng không đưa ra bất kỳ lời bình luận nào.

Chiêu trò deepfake giọng nói bắt đầu xuất hiện trong những vụ lừa đảo của tội phạm công nghệ.

* Deepfake âm thanh là khái niệm khi giọng nói nhân bản của hệ thống có khả năng tạo ra tổ hợp phát âm không thể phân biệt được với người thật.

Trước vụ việc này, từng có không ít trường hợp kẻ xấu đã lợi dụng công cụ deepfake để thực hiện các vụ trộm ở Anh. Vào năm 2019, nhóm người này đã giả mạo CEO của một công ty năng lượng với mục đích đánh cắp 240.000 USD nhưng không trót lọt.

Jake Moore, một cựu cảnh sát thuộc sở Cảnh sát Dorset, Vương quốc Anh hiện đang là chuyên gia an ninh mạng tại công ty bảo mật ESET cho biết: “Tội phạm đang tận dụng những công nghệ mới nhất để thao túng những người không có kiến thức về deepfake, thậm chí không biết gì về sự tồn tại của chúng”.  

Jake Moore cho rằng việc chỉnh sửa âm thanh dễ hơn tạo video deepfake, nếu không có nhận thức về phương pháp tấn công mới này, nhiều doanh nghiệp sẽ dễ trở thành nạn nhân của bọn tội phạm.

Giả mạo giọng nói từng là một công nghệ tưởng chừng chỉ có trong phim giả tưởng nhưng giờ đây đã phổ biến rộng rãi. Nhiều công ty khởi nghiệp như Aflorithmic (Anh), Respeecher (Ukraine), Resemble.AI (Canada) đang tạo ra deepfake AI ngày càng giống với người thật.

Công nghệ deepfake đang nổi tiếng khi cách đây không lâu, nhà sản xuất bộ phim tài liệu về cố đầu bếp Anthony Bourdain cũng tiết lộ họ đã sử dụng công nghệ tổng hợp giọng nói để tái tạo giọng của người đã khuất.

Trong khi đó, nhận ra khả năng độc hải của giọng nói AI, một số công ty, chẳng hạn như công ty trị giá 900 triệu USD là Pindrop đã công bố dịch vụ phát hiện giọng nói giả mạo và ngăn chặn những hành vi gian lận.

Lưu ý, nếu các bản thoại ghi âm giọng nói có sẵn của bạn trên nền tảng trực tuyến, trên mạng xã hội, YouTube hay trên trang web của nhà tuyển dụng, thì rất có thể bạn trở thành nạn nhân, thậm chí bị kiểm soát giọng nói mà chính bạn không thể hay biết.

Các quan điểm và ý kiến ​​được thể hiện bởi tác giả, hoặc bất kỳ người nào được đề cập trong bài viết này, chỉ nhằm mục đích cung cấp thông tin và chúng không cấu thành lời khuyên về tài chính, đầu tư hoặc các lời khuyên khác.

Zoe Nguyen (Nguồn Cointelegraph)

Exit mobile version