Số hóa

Lỗi nghiêm trọng của ChatGPT được sửa

OpenAI gỡ bỏ tính năng chia sẻ trò chuyện trên ChatGPT sau khi phát hiện nội dung nhạy cảm bị hiển thị công khai trên Google, gây lo ngại về quyền riêng tư.

Sự cố làm mất an toàn thông tin của người dùng đã khiến OpenAI mất điểm. Ảnh: Fast Company.

OpenAI vừa gỡ bỏ một tính năng chia sẻ trên ứng dụng ChatGPT sau khi có báo cáo từ chuyên trang Fast Company cho thấy các cuộc trò chuyện riêng tư, bao gồm nội dung nhạy cảm, đã xuất hiện trong kết quả tìm kiếm của Google.

Sự việc bắt nguồn từ một tính năng cho phép người dùng chia sẻ cuộc trò chuyện công khai. Khi bật tính năng này, khách hàng có thể đánh dấu vào ô "Cho phép người khác khám phá cuộc trò chuyện này". Tuy nhiên, cảnh báo kèm theo về việc các nội dung có thể xuất hiện trên công cụ tìm kiếm lại được hiển thị bằng phông chữ nhỏ và không rõ ràng, dễ gây hiểu nhầm.

Theo Fast Company, một số đoạn hội thoại chứa thông tin liên quan đến sức khỏe tình dục, sử dụng chất kích thích đã bất ngờ được Google lập chỉ mục và hiển thị công khai. Dù người dùng phải chủ động bật tính năng, nhưng cách thể hiện của giao diện khiến nhiều người không nhận thức được mức độ công khai thực sự của nội dung được chia sẻ.

Chỉ vài giờ sau khi thông tin lan truyền trên mạng xã hội, OpenAI đã lập tức gỡ bỏ tính năng này và bắt đầu phối hợp với các nền tảng tìm kiếm để xóa bỏ những đường dẫn bị lập chỉ mục.

“Chúng tôi nhận thấy tính năng này tạo ra quá nhiều nguy cơ khiến người dùng vô tình chia sẻ nội dung nhạy cảm. Do đó, OpenAI quyết định loại bỏ hoàn toàn tùy chọn chia sẻ,” ông Dane Stuckey, Giám đốc An ninh Thông tin của OpenAI viết trên nền tảng X vào ngày 31/7.

Trước đó, OpenAI từng bảo vệ thiết kế thông báo của tính năng, cho rằng cảnh báo đã đủ rõ. Tuy nhiên, phản ứng từ cộng đồng mạng và các chuyên gia buộc công ty phải thay đổi lập trường.

Bình luận về vụ việc, bà Rachel Tobac, chuyên gia an ninh mạng và Giám đốc điều hành công ty SocialProof Security đánh giá cao phản ứng nhanh chóng của OpenAI. “Các công ty đôi khi mắc sai lầm trong thiết kế sản phẩm, nhưng điều quan trọng là họ phải hành động quyết liệt khi rủi ro ảnh hưởng đến quyền riêng tư người dùng”, bà Rachel Tobac nói.

Tuy vậy, một số chuyên gia vẫn bày tỏ lo ngại. Carissa Véliz, nhà đạo đức học AI tại Đại học Oxford chỉ trích cách các công ty công nghệ triển khai những thử nghiệm mà không cân nhắc đầy đủ tác động.

“Họ xem người dùng như chuột thí nghiệm. Chỉ khi có người phàn nàn, họ mới điều chỉnh”, chuyên gia này nói.

Tác giả: Minh Hoàng

Nguồn tin: znews.vn

  Từ khóa: ChatGPT ,lỗi nghiêm trọng

BÀI MỚI ĐĂNG

TOP