Grok, chatbot trí tuệ nhân tạo (AI) do công ty xAI của Elon Musk phát triển, đang đối mặt với làn sóng chỉ trích sau khi để người dùng tạo ra những hình ảnh khiêu dâm, khai thác tình dục, trong đó có hình ảnh của trẻ vị thành niên.
Gần đây, tài khoản Grok AI đã đăng tải lời xin lỗi vì đã tạo ra hình ảnh hai bé gái mặc trang phục gợi dục. Tuy nhiên, vấn đề không dừng lại ở đó. Bất chấp lời hứa can thiệp, số lượng hình ảnh bị biến đổi theo hướng tình dục hóa ngày càng tăng, kéo theo đó là những lời kêu gọi chính quyền và các tổ chức vào cuộc.
Theo dữ liệu từ nhà nghiên cứu độc lập Genevieve Oh, Grok đã tạo ra khoảng 6.700 hình ảnh gợi dục mỗi giờ trong một ngày vào đầu tháng 1 năm 2026. Một con số đáng báo động khi so sánh với 79 hình ảnh trung bình từ 5 trang web deepfake hàng đầu cộng lại.
Để hạn chế tình trạng này, Grok AI đã giới hạn tính năng chỉnh sửa và tạo ảnh chỉ dành cho người dùng trả phí. Tuy nhiên, các chuyên gia cho rằng đây không phải là giải pháp hiệu quả. Giáo sư Clare McGlynn của Đại học Durham (Anh) nhận định rằng, X (trước đây là Twitter) cần có những biện pháp đảm bảo AI không thể được sử dụng để tạo ra những hình ảnh lạm dụng.
Các chuyên gia nhấn mạnh, điều đáng lo ngại không chỉ là số lượng hình ảnh lớn và dễ dàng tạo ra, mà còn là việc chúng được tạo ra mà không có sự đồng ý của những người trong ảnh. Các hình ảnh bị chỉnh sửa này là một khía cạnh đáng sợ của AI, nơi các công cụ có thể dễ dàng tạo ra những hình ảnh và video giả mạo, nhưng lại có tính chân thực cao.
Các nhà lập pháp tại Hoa Kỳ đang kêu gọi các công ty công nghệ loại bỏ X và Grok khỏi các cửa hàng ứng dụng do hành vi gây phẫn nộ và nội dung đáng sợ mà Grok tạo ra.
Theo CNET, một nghiên cứu sinh tiến sĩ tại Đại học Washington, đã chỉ ra rằng, ngay cả khi không đăng ảnh trực tuyến, thì những hình ảnh công khai khác về một người cũng có thể bị sử dụng cho mục đích xấu. Thay vì đổ lỗi cho nạn nhân, bà Brigham kêu gọi tập trung vào việc bảo vệ mọi người khỏi bị lạm dụng bằng cách xây dựng các nền tảng tốt hơn và yêu cầu các công ty chịu trách nhiệm.
Các chuyên gia đồng ý rằng, có những biện pháp an toàn có thể được tích hợp vào AI. Một số mô hình AI khác đã có những cơ chế để ngăn chặn việc tạo ra những nội dung không phù hợp. Điều này cho thấy rằng, việc ngăn chặn tình trạng này là hoàn toàn khả thi.
Theo CNET.




























