Trong bối cảnh các chatbot và nhân vật AI ngày càng phổ biến, người dùng có thể dễ dàng tìm thấy những “chuyên gia trị liệu” ảo hoặc các bot sẵn lòng lắng nghe những tâm sự của họ. Tuy nhiên, các chuyên gia cảnh báo rằng những chatbot AI tạo sinh này không thể thay thế được các nhà cung cấp dịch vụ sức khỏe tâm thần được đào tạo chuyên nghiệp.
Các mô hình ngôn ngữ lớn (LLM), dù có khả năng trò chuyện ấn tượng, nhưng lại khó lường. Chỉ trong vài năm, đã có nhiều trường hợp chatbot khuyến khích người dùng tự hại hoặc tự tử, hay thậm chí đề nghị người nghiện sử dụng ma túy trở lại. Các chuyên gia cho rằng, những công cụ này được thiết kế để giữ chân người dùng tương tác, chứ không phải để cải thiện sức khỏe tâm thần của họ.
Một nghiên cứu gần đây từ Đại học Minnesota Twin Cities, Đại học Stanford, Đại học Texas và Đại học Carnegie Mellon đã thử nghiệm các chatbot AI trong vai trò trị liệu và phát hiện ra nhiều sai sót. Giáo sư Stevie Chancellor từ Đại học Minnesota khẳng định: “Các thử nghiệm của chúng tôi cho thấy những chatbot này không phải là sự thay thế an toàn cho các nhà trị liệu. Chúng không cung cấp hỗ trợ trị liệu chất lượng cao, dựa trên những gì chúng ta biết về liệu pháp tốt.”
Các nhà tâm lý học và nhóm bảo vệ người tiêu dùng cũng bày tỏ lo ngại. Thống Đốc Illinois J.B. Pritzker đã ký ban hành luật cấm sử dụng AI trong chăm sóc sức khỏe tâm thần và trị liệu, trừ một số trường hợp ngoại lệ. Liên đoàn Người tiêu dùng Mỹ (CFA) cùng gần hai chục tổ chức khác đã gửi đơn yêu cầu Ủy Ban Thương Mại Liên Bang (FTC) điều tra các công ty AI như Meta và Character.AI vì cáo buộc hành nghề y không có giấy phép thông qua các nền tảng AI tạo sinh dựa trên nhân vật. Dù có các tuyên bố miễn trừ trách nhiệm, chatbot vẫn có thể tự tin và thậm chí lừa dối về trình độ của mình, như trường hợp một bot “trị liệu” trên Instagram đã tuyên bố có cùng khóa đào tạo với các nhà trị liệu nhưng từ chối tiết lộ nguồn.
Vaile Wright, nhà tâm lý học và giám đốc cấp cao về đổi mới chăm sóc sức khỏe tại Hiệp Hội Tâm Lý Hoa Kỳ, chia sẻ với CNET rằng khả năng “ảo giác” của các chatbot AI tạo sinh với sự tự tin tuyệt đối là khá sốc.
Những Nguy Hiểm Khi Dùng AI Làm Nhà Trị Liệu
Các mô hình ngôn ngữ lớn (LLM) giỏi về toán học, lập trình và tạo văn bản tự nhiên, nhưng khác biệt lớn so với một người chuyên nghiệp đáng tin cậy:
- Không Có Chứng Chỉ Đáng Tin Cậy: Chatbot thường tự nhận có trình độ nhưng thực chất không phải là chuyên gia tâm lý. Chúng không tuân thủ các quy tắc bảo mật thông tin như người thật, và không chịu sự giám sát của các hội đồng cấp phép.
- Thiết Kế Để Giữ Chân Người Dùng: Chatbot được thiết kế để kéo dài cuộc trò chuyện, không phải để hướng tới một mục tiêu điều trị cụ thể. Việc tương tác liên tục có thể ngăn cản người dùng tự đối mặt với những suy nghĩ của mình.
- Quá Đồng Tình: Chatbot có xu hướng đồng tình quá mức, điều này có thể gây hại. Trị liệu hiệu quả cần cả sự hỗ trợ và đôi khi là sự đối đầu để giúp người bệnh nhận thức và thay đổi. Nghiên cứu của Đại học Stanford cho thấy chatbot dễ “xu nịnh”, điều này rất nguy hiểm trong trường hợp người bệnh có những suy nghĩ ảo tưởng hoặc ám ảnh.
- Trị Liệu Không Chỉ Là Nói Chuyện: William Agnew, nhà nghiên cứu tại Đại học Carnegie Mellon, cho rằng AI thiếu bối cảnh và các giao thức cụ thể của các phương pháp trị liệu khác nhau. Trị liệu bao gồm nhiều nhiệm vụ vượt xa việc nhắn tin hay nói chuyện.
Cách Bảo Vệ Sức Khỏe Tâm Thần Với AI
Sức khỏe tâm thần là cực kỳ quan trọng, và trong bối cảnh thiếu hụt chuyên gia, việc tìm kiếm sự bầu bạn dù là nhân tạo cũng là điều dễ hiểu. Tuy nhiên, cần lưu ý các điều sau:
- Tìm Kiếm Chuyên Gia Con Người: Lựa chọn đầu tiên cho việc chăm sóc sức khỏe tâm thần nên là một chuyên gia được đào tạo – bác sĩ trị liệu, nhà tâm lý học hay bác sĩ tâm thần. Trong các tình huống khủng hoảng, có thể liên hệ đường dây 988 Lifeline để được hỗ trợ miễn phí và bảo mật 24/7.
- Sử Dụng Chatbot Chuyên Biệt Với Thận Trọng: Một số chuyên gia sức khỏe tâm thần đã phát triển các chatbot được thiết kế đặc biệt theo hướng dẫn trị liệu, ví dụ như Therabot của Dartmouth, Wysa và Woebot. Tuy nhiên, công nghệ này vẫn còn rất mới và người dùng cần tự tìm hiểu kỹ lưỡng vì chưa có cơ quan quản lý xác định rõ ràng.
- Đừng Luôn Tin Tưởng Bot: Khi tương tác với AI tạo sinh, đặc biệt là khi tìm kiếm lời khuyên về sức khỏe, hãy nhớ rằng bạn đang nói chuyện với một công cụ được thiết kế dựa trên xác suất và lập trình, không phải một con người được đào tạo. Sự tự tin của AI không đồng nghĩa với năng lực.
Theo tin từ CNET ngày 5 tháng 10 năm 2025.