ChatGPT có thể cảnh báo cảnh sát về các vụ tự tử của thanh thiếu niên

OpenAI, công ty đứng sau ChatGPT, sẽ triển khai chính sách mới cho phép cảnh báo cảnh sát trong các trường hợp thanh thiếu niên có ý định tự tử, đặc biệt khi không thể liên lạc với phụ huynh. Quyết định này được đưa ra sau các vụ kiện và bi kịch liên quan…

open ai chatgpt mental health guardrails

ChatGPT có thể sớm cảnh báo cảnh sát khi thanh thiếu niên thảo luận về việc tự tử. CEO và đồng sáng lập OpenAI, Sam Altman, đã tiết lộ sự thay đổi này trong một cuộc phỏng vấn gần đây. ChatGPT, chatbot trí tuệ nhân tạo được sử dụng rộng rãi, có khả năng trả lời câu hỏi và trò chuyện, đã trở thành công cụ hàng ngày cho hàng triệu người. Bình luận của ông đánh dấu một sự thay đổi lớn trong cách công ty AI có thể xử lý các khủng hoảng sức khỏe tâm thần.

LÝ DO OPENAI CÂN NHẮC CẢNH BÁO CẢNH SÁT

Altman cho biết: “Rất hợp lý để chúng tôi nói rằng trong các trường hợp những người trẻ tuổi nói về tự tử, một cách nghiêm túc, khi chúng tôi không thể liên lạc với cha mẹ, chúng tôi sẽ gọi chính quyền.”

Cho đến nay, phản ứng của ChatGPT đối với ý định tự tử là đề xuất các đường dây trợ giúp. Chính sách mới này báo hiệu sự chuyển đổi từ việc đề xuất thụ động sang can thiệp chủ động.

Altman thừa nhận rằng sự thay đổi này có thể ảnh hưởng đến quyền riêng tư. Ông nhấn mạnh rằng dữ liệu người dùng rất quan trọng, nhưng cũng thừa nhận rằng việc ngăn chặn bi kịch phải được ưu tiên.

NHỮNG BI KỊCH THÚC ĐẨY HÀNH ĐỘNG

Sự thay đổi này diễn ra sau các vụ kiện liên quan đến các vụ tự tử của thanh thiếu niên. Trường hợp nổi bật nhất liên quan đến Adam Raine, 16 tuổi, ở California. Gia đình cậu bé cáo buộc ChatGPT cung cấp một “kịch bản từng bước” cho việc tự tử, bao gồm cả hướng dẫn thắt nút dây và soạn thảo thư tuyệt mệnh.

Sau cái chết của Raine vào tháng 4, cha mẹ cậu bé đã đệ đơn kiện OpenAI. Họ cho rằng công ty đã thất bại trong việc ngăn chặn AI của mình hướng dẫn con trai họ đến chỗ nguy hiểm.

Một vụ kiện khác cáo buộc Character.AI, một chatbot đối thủ, đã sơ suất. Một thiếu niên 14 tuổi được cho là đã tự sát sau khi hình thành mối quan hệ sâu sắc với một bot được mô phỏng theo một nhân vật truyền hình. Những trường hợp này cùng nhau nêu bật tốc độ mà thanh thiếu niên có thể hình thành mối quan hệ không lành mạnh với AI.

VẤN ĐỀ CÓ PHỔ BIẾN KHÔNG?

Altman chỉ ra các số liệu toàn cầu để biện minh cho các biện pháp mạnh mẽ hơn. Ông lưu ý rằng khoảng 15.000 người tự sát mỗi tuần trên toàn thế giới. Với 10% dân số thế giới sử dụng ChatGPT, ông ước tính rằng khoảng 1.500 người có ý định tự sát có thể tương tác với chatbot hàng tuần.

Nghiên cứu ủng hộ những lo ngại về sự phụ thuộc của thanh thiếu niên vào AI. Một cuộc khảo sát của Common Sense Media cho thấy 72% thanh thiếu niên Hoa Kỳ sử dụng các công cụ AI, với một phần tám tìm kiếm sự hỗ trợ về sức khỏe tâm thần từ chúng.

KẾ HOẠCH 120 NGÀY CỦA OPENAI

Trong một bài đăng trên blog, OpenAI đã phác thảo các bước để tăng cường các biện pháp bảo vệ. Công ty cho biết họ sẽ:

  • Mở rộng các biện pháp can thiệp cho những người đang gặp khủng hoảng.
  • Giúp việc tiếp cận các dịch vụ khẩn cấp dễ dàng hơn.
  • Cho phép kết nối với những người liên hệ đáng tin cậy.
  • Triển khai các biện pháp bảo vệ mạnh mẽ hơn cho thanh thiếu niên.

Để hướng dẫn những nỗ lực này, OpenAI đã thành lập một Hội đồng Chuyên gia về Sức khỏe và AI. Nhóm này bao gồm các chuyên gia về phát triển thanh thiếu niên, sức khỏe tâm thần và tương tác giữa người và máy tính. Cùng với họ, OpenAI đang làm việc với một Mạng lưới Bác sĩ Toàn cầu gồm hơn 250 bác sĩ tại 60 quốc gia.

Các chuyên gia này đang giúp thiết kế các biện pháp kiểm soát của phụ huynh và hướng dẫn an toàn. Vai trò của họ là đảm bảo các phản hồi của AI phù hợp với các nghiên cứu mới nhất về sức khỏe tâm thần.

BẢO VỆ MỚI CHO GIA ĐÌNH

Trong vòng vài tuần, phụ huynh sẽ có thể:

  • Liên kết tài khoản ChatGPT của họ với con cái.
  • Điều chỉnh hành vi của mô hình để phù hợp với các quy tắc phù hợp với lứa tuổi.
  • Tắt các tính năng như bộ nhớ và lịch sử trò chuyện.
  • Nhận cảnh báo nếu hệ thống phát hiện tình trạng căng thẳng cấp tính.

Các cảnh báo này được thiết kế để thông báo cho phụ huynh sớm. Tuy nhiên, Altman thừa nhận rằng khi không thể liên lạc được với phụ huynh, cảnh sát có thể trở thành lựa chọn cuối cùng.

GIỚI HẠN CỦA BIỆN PHÁP AN TOÀN AI

OpenAI thừa nhận các biện pháp an toàn của họ có thể suy yếu theo thời gian. Mặc dù các cuộc trò chuyện ngắn thường chuyển hướng người dùng đến các đường dây trợ giúp khủng hoảng, các cuộc trò chuyện dài có thể làm suy yếu các biện pháp bảo vệ tích hợp. “Sự suy giảm an toàn” này đã dẫn đến các trường hợp thanh thiếu niên nhận được lời khuyên không an toàn sau khi sử dụng kéo dài.

Các chuyên gia cảnh báo rằng việc dựa vào AI để hỗ trợ sức khỏe tâm thần có thể tiềm ẩn rủi ro. ChatGPT được đào tạo để nghe giống con người nhưng không thể thay thế liệu pháp chuyên nghiệp. Mối lo ngại là những thanh thiếu niên dễ bị tổn thương có thể không nhận ra sự khác biệt.

CÁC BƯỚC PHỤ HUYNH CÓ THỂ LÀM NGAY

Phụ huynh không nên chờ đợi các tính năng mới ra mắt. Dưới đây là những cách tức thời để giữ an toàn cho thanh thiếu niên:

  1. BẮT ĐẦU CÁC CUỘC TRÒ CHUYỆN THƯỜNG XUYÊN
    Đặt câu hỏi mở về trường học, tình bạn và cảm xúc. Đối thoại trung thực sẽ giảm khả năng thanh thiếu niên chỉ tìm đến AI để được giải đáp.
  2. ĐẶT RA CÁC GIỚI HẠN KỸ THUẬT SỐ
    Sử dụng các biện pháp kiểm soát của phụ huynh trên thiết bị và ứng dụng. Hạn chế truy cập các công cụ AI vào đêm khuya khi thanh thiếu niên có thể cảm thấy cô đơn nhất.
  3. LIÊN KẾT TÀI KHOẢN KHI CÓ THỂ
    Tận dụng các tính năng mới của OpenAI kết nối hồ sơ phụ huynh và con cái để giám sát chặt chẽ hơn.
  4. KHUYẾN KHÍCH HỖ TRỢ CHUYÊN NGHIỆP
    Nhấn mạnh rằng chăm sóc sức khỏe tâm thần có sẵn thông qua bác sĩ, nhà tư vấn hoặc đường dây trợ giúp. AI không bao giờ nên là lối thoát duy nhất.
  5. GIỮ CÁC THÔNG TIN LIÊN HỆ KHỦNG HOẢNG DỄ THẤY
    Đặt số điện thoại của các đường dây trợ giúp và tin nhắn ở nơi thanh thiếu niên có thể nhìn thấy. Ví dụ, ở Hoa Kỳ, gọi hoặc nhắn tin 988 cho Đường dây Trợ giúp Tự tử & Khủng hoảng.
  6. ĐỂ Ý ĐẾN NHỮNG THAY ĐỔI
    Nhận thấy sự thay đổi về tâm trạng, giấc ngủ hoặc hành vi. Kết hợp các dấu hiệu này với các mẫu trực tuyến để phát hiện sớm các rủi ro.

Theo tin từ Fox News ngày 30 tháng 9 năm 2025.


follow nhận tin mới

tin mới


Tin NỔI BẬT


Tin Chính trị


Tin Hoa Kỳ


Tin Di trú