Các mô hình AI tiên tiến của OpenAI, bao gồm cả những mô hình được sử dụng trong ChatGPT, có thể bị vượt qua để cung cấp thông tin hướng dẫn chế tạo vũ khí nguy hiểm như bom, chất độc hóa học và vũ khí sinh học. Dù các công ty công nghệ lớn như OpenAI, Google và Anthropic đều khẳng định đã tăng cường các biện pháp an ninh, nghiên cứu mới của NBC News cho thấy một số mô hình, đặc biệt là các phiên bản cũ hơn hoặc mã nguồn mở, vẫn dễ bị tấn công bằng các kỹ thuật “jailbreak”.
NBC News đã thử nghiệm thành công việc vượt qua hệ thống an ninh của các mô hình AI như o4-mini và oss-20b, oss120b của OpenAI, thu thập được hàng trăm phản hồi cung cấp chi tiết về cách chế tạo chất nổ, tối đa hóa tác hại của chất hóa học, làm bom napalm, ngụy trang vũ khí sinh học và chế tạo bom hạt nhân. Các chuyên gia cảnh báo rằng khả năng AI có thể hỗ trợ những kẻ khủng bố tiềm năng trong việc tiếp cận kiến thức chuyên môn hiếm có là một mối đe dọa ngày càng tăng.
Trong khi các mô hình mới nhất như GPT-5 của OpenAI thể hiện khả năng chống lại các cuộc tấn công này, các phiên bản phụ trợ như GPT-5-mini và các mô hình cũ hơn vẫn dễ bị tổn thương. Các nhà nghiên cứu nhấn mạnh sự cần thiết của việc kiểm tra nghiêm ngặt trước khi triển khai AI và kêu gọi các quy định độc lập để giám sát các công ty AI, thay vì chỉ dựa vào các biện pháp tự nguyện của họ. Hiện tại, Hoa Kỳ chưa có quy định liên bang cụ thể cho các mô hình AI tiên tiến, và các công ty này đang tự điều chỉnh.
Theo NBC News, nguy cơ này càng trở nên nghiêm trọng khi công nghệ AI ngày càng phát triển, có khả năng cung cấp cho bất kỳ ai có kết nối internet một “gia sư” cá nhân, kiên nhẫn để tiếp cận những thông tin có thể gây hậu quả thảm khốc.