Thống đốc California, ông Gavin Newsom, vào Thứ Hai đã ký ban hành một đạo luật nhằm ngăn chặn việc sử dụng các mô hình trí tuệ nhân tạo (AI) tiên tiến vào các hoạt động có khả năng gây thảm họa, như chế tạo vũ khí sinh học hay làm tê liệt hệ thống ngân hàng. Động thái này khẳng định vị thế dẫn đầu của California trong việc quy định về AI, trong bối cảnh hoạt động ở cấp liên bang còn chậm chạp.
Luật mới sẽ thiết lập một số quy định đầu tiên trên toàn quốc đối với các mô hình AI quy mô lớn mà không gây ảnh hưởng đến ngành công nghiệp AI non trẻ của bang, vốn là nơi đặt trụ sở của nhiều công ty AI hàng đầu thế giới. Theo ông Newsom, các công ty AI có trụ sở tại California sẽ phải tuân thủ các yêu cầu mới này.
“California đã chứng tỏ rằng chúng ta có thể thiết lập các quy định để bảo vệ cộng đồng, đồng thời đảm bảo ngành công nghiệp AI đang phát triển tiếp tục phát triển. Dự luật này đã đạt được sự cân bằng đó,” ông Newsom cho biết trong một tuyên bố.
Dự luật yêu cầu các công ty AI phải công khai các quy trình an toàn nhằm ngăn chặn việc các mô hình tiên tiến nhất của họ bị lạm dụng gây ra thiệt hại lớn. Các quy định này nhắm vào các hệ thống AI có “sức mạnh tính toán” lớn.
Các ngưỡng tính toán được thừa nhận là một điểm khởi đầu chưa hoàn hảo để phân biệt các hệ thống AI tạo sinh hiệu suất cao nhất hiện nay với thế hệ tiếp theo có thể còn mạnh mẽ hơn. Các hệ thống hiện tại chủ yếu do các công ty có trụ sở tại California như Anthropic, Google, Meta Platforms và OpenAI phát triển.
Luật định nghĩa rủi ro thảm họa là những sự kiện gây thiệt hại ít nhất 1 tỷ đô la hoặc khiến hơn 50 người thương vong. Mục đích là để phòng ngừa việc AI bị sử dụng cho các hoạt động có thể gây rối loạn trên diện rộng, ví dụ như tấn công mạng vào lưới điện.
Các công ty cũng phải báo cáo cho tiểu bang về bất kỳ sự cố an toàn nghiêm trọng nào trong vòng 15 ngày. Luật cũng tạo ra các biện pháp bảo vệ cho người tố giác trong ngành AI và thiết lập một nền tảng đám mây công cộng cho các nhà nghiên cứu. Mức phạt có thể lên tới 1 triệu đô la cho mỗi vi phạm.
Dự luật vấp phải sự phản đối từ một số công ty công nghệ, những người cho rằng việc ban hành luật về AI nên được thực hiện ở cấp liên bang. Tuy nhiên, Anthropic nhận định rằng các quy định này là “các biện pháp bảo vệ thiết thực” nhằm chính thức hóa các thực hành an toàn mà nhiều công ty đã tự nguyện thực hiện.
“Mặc dù các tiêu chuẩn liên bang vẫn rất cần thiết để tránh tình trạng quy định chắp vá giữa các tiểu bang, California đã tạo ra một khuôn khổ vững chắc, cân bằng giữa an toàn công cộng và sự đổi mới liên tục,” ông Jack Clark, đồng sáng lập và trưởng chính sách tại Anthropic, nêu trong tuyên bố.
Quyết định này được đưa ra sau khi ông Newsom từng phủ quyết một phiên bản dự luật rộng hơn vào năm ngoái, đồng tình với các công ty công nghệ rằng các yêu cầu quá cứng nhắc và có thể cản trở sự đổi mới. Thay vào đó, ông Newsom đã yêu cầu một nhóm chuyên gia AI phát triển các khuyến nghị về các biện pháp bảo vệ xung quanh các mô hình AI mạnh mẽ.
Luật mới tích hợp các khuyến nghị và phản hồi từ nhóm chuyên gia AI của ông Newsom và ngành công nghiệp. Ông Wiener, Nghị sĩ Tiểu bang đại diện cho San Francisco và là tác giả của dự luật, cho biết luật này cũng không áp đặt mức độ yêu cầu báo cáo tương tự đối với các công ty khởi nghiệp để tránh làm tổn hại đến sự đổi mới.
“Với đạo luật này, California một lần nữa khẳng định vai trò là nhà lãnh đạo toàn cầu về cả đổi mới công nghệ và an toàn,” ông Wiener nói.
Quyết định của ông Newsom diễn ra trong bối cảnh Tổng thống Donald Trump vào tháng 7 đã công bố kế hoạch loại bỏ các quy định mà chính quyền của ông coi là “gánh nặng” để thúc đẩy sự đổi mới AI và củng cố vị thế của Hoa Kỳ với tư cách là nước dẫn đầu về AI trên toàn cầu. Tuy nhiên, các nỗ lực của Đảng Cộng hòa tại Quốc hội nhằm cấm các tiểu bang và địa phương tự điều chỉnh AI trong một thập kỷ đã không thành công.
Trong bối cảnh thiếu các quy định liên bang mạnh mẽ, các tiểu bang trên khắp đất nước đã nỗ lực kiểm soát công nghệ này, xử lý từ các video deepfake trong bầu cử đến các ứng dụng AI trị liệu.
Tại California, cơ quan lập pháp năm nay đã thông qua một số dự luật để giải quyết các mối lo ngại về an toàn liên quan đến chatbot AI dành cho trẻ em và việc sử dụng AI tại nơi làm việc. Bang cũng đã đi đầu trong việc áp dụng các công nghệ AI, sử dụng các công cụ AI tạo sinh để phát hiện cháy rừng, giải quyết tình trạng tắc nghẽn giao thông và an toàn đường bộ, trong số nhiều ứng dụng khác.
Thông tin được tổng hợp từ Associated Press.