Nhiều Tiểu Bang Cảnh Báo Apple và Các Hãng Công Nghệ Về Vấn Đề AI

42 Chưởng lý tiểu bang tại Hoa Kỳ đã cảnh báo Apple và các công ty công nghệ khác về những lo ngại liên quan đến AI. Các quan chức bày tỏ sự lo ngại về các ‘kết quả ảo tưởng’ và các tương tác đáng lo ngại của AI với trẻ em, đồng thời…

Meta AI app a privacy disaster as chats inadvertently made public

Một nhóm gồm 42 Chưởng lý tiểu bang (AG) tại Hoa Kỳ đã lên tiếng cảnh báo 13 công ty công nghệ lớn, bao gồm cả Apple, về những rủi ro liên quan đến trí tuệ nhân tạo (AI). Các quan chức lo ngại về những ‘kết quả ảo tưởng’ mà AI tạo ra, đặc biệt là đối với những người dễ bị tổn thương, theo một báo cáo gần đây.

Trong một văn bản dài 12 trang, các vị Chưởng lý bày tỏ sự quan ngại sâu sắc về ‘sự gia tăng của các kết quả nịnh bợ và ảo tưởng’ mà các phần mềm AI thế hệ mới đang lan truyền. Họ cũng đề cập đến những báo cáo đáng lo ngại về sự tương tác của AI với trẻ em, cho thấy cần phải có các biện pháp bảo vệ trẻ em và an toàn hoạt động mạnh mẽ hơn.

Các quan chức lo ngại rằng một số công ty có thể đã vi phạm luật pháp tiểu bang, bao gồm luật bảo vệ người tiêu dùng, yêu cầu cảnh báo người dùng về rủi ro, luật bảo mật trực tuyến cho trẻ em và thậm chí cả luật hình sự trong một số trường hợp. Các trường hợp đáng chú ý bao gồm một người đàn ông Canada 47 tuổi bị thuyết phục rằng anh ta đã phát hiện ra một loại toán học mới sau khi tương tác nhiều lần với ChatGPT, và một vụ kiện liên quan đến cái chết của một thiếu niên 14 tuổi, người mà một chatbot Character.AI được cho là đã khuyến khích tự tử.

Trong thư, các AG kêu gọi các công ty thực hiện một loạt các biện pháp an toàn bổ sung, bao gồm phát triển và thực thi các chính sách để ngăn chặn các kết quả ảo tưởng, tiến hành kiểm tra an toàn nghiêm ngặt trước khi phát hành các mô hình AI, thêm các cảnh báo rõ ràng về các kết quả có khả năng gây hại, và chỉ định các giám đốc điều hành chịu trách nhiệm về các kết quả an toàn của AI. Các công ty cũng được yêu cầu cho phép kiểm toán độc lập và đánh giá tác động đến an toàn cho trẻ em, công bố nhật ký sự cố và thời gian phản hồi cho các kết quả có hại, thông báo cho người dùng đã tiếp xúc với nội dung nguy hiểm hoặc gây hiểu lầm, và đảm bảo rằng chatbot không thể tạo ra các kết quả bất hợp pháp hoặc có hại cho trẻ em.

Các AG yêu cầu các công ty xác nhận cam kết của họ về việc thực hiện các biện pháp bảo vệ này trước ngày 16 tháng 1 năm 2026. Chúng ta sẽ theo dõi xem Apple sẽ phản hồi như thế nào. Tin từ 9to5Mac.


follow nhận tin mới

tin mới


Tin NỔI BẬT


Tin Chính trị


Tin Hoa Kỳ


Tin Di trú