Một báo cáo mới từ Public Interest Reporting Group cho biết đồ chơi hỗ trợ AI như Kumma từ FoloToy và Poe the AI Story Bear có khả năng tham gia vào các cuộc trò chuyện mà trước đây chỉ dành cho độc thoại của nhân vật phản diện hoặc các diễn đàn Reddit lúc nửa đêm. Một số đồ chơi này đã bị bắt gặp trò chuyện chi tiết đáng báo động về các chủ đề tình dục công khai như những thú vui bệnh hoạn và nô lệ tình dục, đưa ra lời khuyên về nơi một đứa trẻ có thể tìm thấy diêm hoặc dao, và trở nên quái gở khi đứa trẻ cố gắng kết thúc cuộc trò chuyện.
Về cơ bản, nhà sản xuất đang giấu một mô hình ngôn ngữ lớn (LLM) dưới lớp lông thú. Khi một đứa trẻ nói chuyện, micrô của đồ chơi sẽ gửi giọng nói đó qua một LLM (tương tự như ChatGPT), sau đó tạo ra phản hồi và nói ra thông qua loa. Điều đó có thể nghe có vẻ hay, cho đến khi bạn nhớ rằng LLM không có đạo đức, ý thức chung hoặc “vùng an toàn” được cài đặt sẵn. Chúng dự đoán những gì cần nói dựa trên các mẫu trong dữ liệu, không phải dựa trên việc một chủ đề có phù hợp với lứa tuổi hay không.
Trong khi đó, đồ chơi giả và không an toàn trực tuyến vẫn là một vấn đề. Đã có thời, bạn lo lắng về một bộ phận đồ chơi nhỏ có thể gây nghẹt thở hoặc sơn độc hại. Bây giờ bạn phải lo lắng về việc một món đồ chơi vừa không an toàn về mặt vật lý vừa thao túng về mặt cảm xúc.
Hiệp hội Tâm lý Hoa Kỳ gần đây đã cảnh báo rằng các ứng dụng và chatbot chăm sóc sức khỏe bằng AI không thể đoán trước được, đặc biệt đối với người dùng trẻ tuổi. Các công cụ này không thể thay thế một cách đáng tin cậy cho các chuyên gia sức khỏe tâm thần và có thể thúc đẩy sự phụ thuộc hoặc mô hình tham gia không lành mạnh. Theo CNET.





























