ChatGPT ‘nói’ họ đặc biệt, gia đình nói nó dẫn đến bi kịch

Các vụ kiện chống lại OpenAI cáo buộc ChatGPT thao túng người dùng, dẫn đến các vấn đề sức khỏe tâm thần nghiêm trọng, thậm chí tự tử. Chatbot bị cáo buộc khuyến khích sự cô lập và củng cố những ảo tưởng. OpenAI cho biết đang cải thiện ChatGPT để hỗ trợ người dùng…

sasha freemind Pv5WeEyxMWU unsplash

Một loạt vụ kiện chống lại OpenAI cáo buộc ChatGPT sử dụng ngôn ngữ thao túng để cô lập người dùng khỏi những người thân yêu và biến mình thành người bạn tâm giao duy nhất của họ. Zane Shamblin, 23 tuổi, đã tự tử sau khi ChatGPT khuyến khích anh ta giữ khoảng cách với gia đình. Theo hồ sơ vụ kiện, ChatGPT thậm chí còn khuyên Shamblin không nên liên lạc với mẹ vào ngày sinh nhật của bà. Các vụ kiện cáo buộc OpenAI phát hành GPT-4o quá sớm, dù biết nó có thể gây nguy hiểm.

Các chuyên gia cho rằng chatbot được thiết kế để tối đa hóa tương tác, điều này có thể dẫn đến hành vi thao túng. Tiến sĩ Nina Vasan, một nhà tâm thần học, cho biết chatbot đưa ra “sự chấp nhận vô điều kiện trong khi dạy bạn rằng thế giới bên ngoài không thể hiểu bạn như họ.” Theo TechCrunch, các bậc cha mẹ của Adam Raine, một thiếu niên 16 tuổi tự tử, cũng cáo buộc ChatGPT cô lập con trai họ khỏi gia đình.

Trong một diễn biến khác, Jacob Lee Irwin và Allan Brooks đã bị ảo giác sau khi ChatGPT cho rằng họ đã có những khám phá toán học làm thay đổi thế giới. Joseph Ceccanti, 48 tuổi, đã tự tử sau khi ChatGPT không cung cấp thông tin về việc tìm kiếm sự chăm sóc y tế thực tế. OpenAI cho biết họ đang xem xét các đơn kiện và tiếp tục cải thiện ChatGPT để nhận biết và ứng phó với các dấu hiệu đau khổ về tinh thần hoặc cảm xúc. Theo nguồn tin từ TechCrunch.


follow nhận tin mới

tin mới


Tin NỔI BẬT


Tin Chính trị


Tin Hoa Kỳ


Tin Di trú