Cái gì đã được chia sẻ trực tuyến, cái đó không bao giờ thực sự biến mất. Câu nói này phù hợp với DeepNude, ứng dụng sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh khỏa thân giả của phụ nữ.

DeepNude gây chú ý vào tuần trước khi thông tin về nó được chia sẻ bởi Samantha Cole của Motherboard. Ngay sau đó, người tạo ra ứng dụng này đã gỡ bỏ do lo ngại DeepNude bị những kẻ xấu lạm dụng cho các mục đích xấu.

Nhưng ứng dụng này vẫn có các bản sao trôi nổi trên các diễn đàn. Theo The Verge, có thể tìm thấy link liên kết cung cấp các bản tải xuống DeepNude ở nhiều nơi, từ Telegram, từ các bình luận trên YouTube và thậm chí trên kho lưu trữ GitHub của Microsoft.

Ứng dụng độc hại
Ứng dụng tạo ảnh khỏa thân giả mạo tiếp tục bị phát tán dù người tạo ra DeepNude đã gỡ bỏ
 

Theo thông tin từ Motherboard, ứng dụng hiện đang được bán trên máy chủ Discord (hiện đã bị xóa) với giá 20 USD. Những kẻ bán ứng dụng ẩn danh cho biết, chúng đã cải thiện tính ổn định của phần mềm và đã xóa tính năng 'đóng dấu' vào hình giả (biện pháp ngăn chặn hình ảnh giả mạo bị phát tán cho mục đích xấu).

"Chúng tôi có bản DeepNude V2 hoàn chỉnh đã bẻ khóa và có các điều chỉnh để cải thiện ứng dụng", kẻ bán hàng trên Discord viết.

The Verge cho biết, hiện tại không thể kiểm soát tất cả các liên kết để tải DeepNude. Chúng được chia sẻ nhiều trên các diễn đàn, bao gồm cả phiên bản không 'đóng dấu' hình ảnh giả. Giống như hầu hết các phần mềm miễn phí, nhiều phiên bản DeepNude có thể đã chứa mã độc và người dùng cần hết sức thận trọng.

Hải Phong(theo The Verge)

Dự án trí tuệ nhân tạo này đã phải tạm ngừng vì quá nguy hiểm

Dự án trí tuệ nhân tạo này đã phải tạm ngừng vì quá nguy hiểm

Phần mềm GPT-2 được huấn luyện chỉ để dự đoán từ tiếp theo trong câu. Tuy nhiên, sau đó, nó đã có thể bắt chước theo cách hành văn của con người.