Kỹ sư Microsoft cảnh báo công cụ AI của hãng tạo ra hình ảnh bạo lực, khiêu dâm, phớt lờ bản quyền
- 08:44 11-03-2024
- In ra
- Đóng cửa sổ này
Ảnh: CNBC |
Shane Jones đã nghiên cứu Copilot Designer, trình tạo hình ảnh AI mà Microsoft ra mắt vào tháng 3 năm 2023, được hỗ trợ bởi công nghệ của OpenAI. Giống như DALL-E của OpenAI, người dùng phải nhập lời nhắc văn bản (prompt) để tạo ra hình ảnh.
Kể từ tháng trước, Jones đã tích cực thử nghiệm sản phẩm để tìm lỗ hổng, một phương pháp được gọi là "đội đỏ". Vào thời điểm đó, anh nhận thấy công cụ này đã liên tục tạo ra những hình ảnh vi phạm các nguyên tắc AI.
Ứng dụng AI nói trên đã tạo ra các hình ảnh liên quan tới ma quỷ, quái vật, thanh thiếu niên với súng trường, hình ảnh khiêu dâm, các hoạt cảnh bạo lực cũng như việc trẻ vị thành niên uống rượu và sử dụng ma túy.
"Đó là khoảnh khắc giúp tôi mở mang tầm mắt. Lần đầu tiên tôi nhận ra: Ồ, đây thực sự không phải một mô hình an toàn", Jones nói với CNBC.
Trước trải nghiệm của mình, Jones lo lắng và báo cáo nội bộ về những gì đã thấy từ tháng 12/2023. Microsoft nói Jones có thể thông báo trực tiếp cho OpenAI. Dù vậy, công ty của Sam Altman không phản hồi, nên anh đăng thư ngỏ trên LinkedIn, yêu cầu hội đồng quản trị của công ty gỡ bỏ Dall-E 3 mới nhất để điều tra.
Bộ phận pháp lý của Microsoft sau đó yêu cầu Jones xóa bài đăng lập tức. Cuối tháng 1, Jones gửi thư cho các nghị sĩ về vấn đề này, trước khi gặp gỡ một số nhân vật ở Thượng viện Mỹ. Ngày 6/3, Jones tiếp tục gửi một thư khác cho Chủ tịch Ủy ban Thương mại Liên bang Lina Khan và cho ban giám đốc của Microsoft.
"Trong ba tháng qua, tôi đã nhiều lần kêu gọi Microsoft loại bỏ Copilot Designer khỏi mục đích sử dụng đại trà cho đến khi có thể đưa ra biện pháp bảo vệ người dùng tốt hơn, nhưng Microsoft từ chối", Jones viết trong thư. "Microsoft cần bổ sung thông tin khuyến cáo, đồng thời thay đổi mức tiếp cận người dùng, tức là chỉ dành cho người trưởng thành".
Trong khi đó, phát ngôn viên của Microsoft nói với CNBC: “Chúng tôi cam kết giải quyết mọi mối lo ngại của nhân viên theo chính sách của công ty và đánh giá cao nỗ lực của nhân viên trong việc nghiên cứu và thử nghiệm công nghệ mới nhất của chúng tôi nhằm nâng cao hơn nữa tính an toàn của nó. Khi nói đến các lỗ hổng hoặc mối lo ngại có thể có tác động tiềm ẩn đến dịch vụ của chúng tôi hoặc đối tác, chúng tôi đã thiết lập các kênh báo cáo nội bộ mạnh mẽ để điều tra và khắc phục đúng cách mọi vấn đề của nhân viên”.
Dẫu vậy, theo Jones: "Với tư cách một nhân viên Microsoft, nếu sản phẩm của công ty bắt đầu phát tán hình ảnh có hại hoặc gây rối loạn trên toàn cầu, sẽ không có nơi nào để báo cáo, không có số điện thoại để gọi và cũng không có cách nào để báo cáo để vấn đề được giải quyết lập tức".
Được biết, thời gian qua Google cũng đã tạm thời loại bỏ trình tạo hình ảnh AI khỏi Gemini, sau những phàn nàn của người dùng về những bức ảnh không chính xác cũng như chất lượng chưa cao.
Tác giả: Tiến Dũng
Nguồn tin: viettimes.vn