Luật California mới yêu cầu chatbot AI bạn đồng hành nhắc nhở trẻ em nghỉ ngơi

Một đạo luật mới ở California, SB 243, do Thống đốc Gavin Newsom ký, yêu cầu các chatbot AI bạn đồng hành phải thông báo cho người dùng dưới 18 tuổi về bản chất không phải con người của chúng và khuyến khích nghỉ ngơi ba giờ một lần. Luật cũng buộc các công ty…

gettyimages 1499179641

Một đạo luật mới tại California, do Thống đốc Gavin Newsom ký hôm thứ Hai, sẽ yêu cầu các chatbot AI bạn đồng hành phải thông báo cho người dùng dưới 18 tuổi về bản chất không phải con người của chúng. Đạo luật này, mang số hiệu SB 243, cũng buộc các công ty phát triển chatbot phải duy trì các giao thức để xác định và xử lý các trường hợp người dùng bày tỏ ý định tự tử hoặc tự gây hại.

Đặc biệt, đối với người dùng dưới 18 tuổi, các chatbot sẽ phải hiển thị thông báo ít nhất mỗi ba giờ, nhắc nhở họ nên nghỉ ngơi và khẳng định rằng chatbot không phải là con người. Đây là một trong nhiều dự luật mà Thống đốc Newsom đã ký trong những tuần gần đây, nhằm giải quyết các vấn đề liên quan đến mạng xã hội, trí tuệ nhân tạo và các công nghệ tiêu dùng khác.

Các biện pháp khác bao gồm yêu cầu các nền tảng mạng xã hội dán nhãn cảnh báo (tương tự như sản phẩm thuốc lá) theo dự luật AB 56, và cấm các quảng cáo có âm lượng lớn trên các dịch vụ truyền phát trực tuyến. Ủy ban Thương mại Liên bang (FTC) gần đây cũng đã mở một cuộc điều tra về một số công ty chatbot AI bạn đồng hành, sau những khiếu nại từ các nhóm người tiêu dùng và phụ huynh về tác động tiêu cực của chúng đến sức khỏe tâm thần của trẻ em. Ngay cả OpenAI cũng đã bổ sung các biện pháp kiểm soát của phụ huynh cho nền tảng ChatGPT của mình sau một vụ kiện cáo buộc công cụ này góp phần vào việc tự tử của một thiếu niên.

Thống đốc Newsom nhấn mạnh trong một tuyên bố rằng: “Chúng ta đã chứng kiến những ví dụ thực sự kinh hoàng và bi thảm về những người trẻ tuổi bị tổn hại bởi công nghệ không được kiểm soát, và chúng ta sẽ không đứng nhìn khi các công ty tiếp tục hoạt động mà không có giới hạn và trách nhiệm giải trình cần thiết.”

Phía các nhà phát triển AI cũng đã có phản hồi. Replika, một công ty phát triển AI bạn đồng hành, cho biết họ đã có các giao thức phát hiện tự gây hại và đang làm việc với các cơ quan quản lý để tuân thủ luật mới. Đại diện Character.ai cũng hoan nghênh việc hợp tác với các nhà lập pháp. Trong khi đó, Jamie Radice, phát ngôn viên của OpenAI, nhận định đây là một “bước tiến có ý nghĩa” cho sự an toàn của AI.

Hiện tại, một dự luật khác mang số hiệu AB 1064, nếu được ký, sẽ còn đi xa hơn, cấm các nhà phát triển cung cấp chatbot bạn đồng hành cho trẻ em nếu chúng có khả năng khuyến khích các hoạt động gây hại hoặc tương tác tình dục một cách rõ ràng, theo tin từ CNET.


follow nhận tin mới

tin mới


Tin NỔI BẬT


Tin Chính trị


Tin Hoa Kỳ


Tin Di trú