OpenAI: Trình duyệt AI có thể luôn bị tấn công bởi ‘prompt injection’

OpenAI cảnh báo về rủi ro ‘prompt injection’ đối với trình duyệt AI, một hình thức tấn công bằng cách đưa các lệnh độc hại vào hệ thống. Công ty đang phát triển một ‘kẻ tấn công tự động’ để tìm kiếm và khắc phục các lỗ hổng bảo mật, cho thấy cuộc chiến chống…

openai prompt injection demo

Theo một bài đăng trên blog gần đây, OpenAI, công ty đứng sau ChatGPT, thừa nhận rằng các cuộc tấn công bằng ‘prompt injection’ có thể sẽ tiếp tục là một rủi ro đối với các trình duyệt AI. ‘Prompt injection’ là một kỹ thuật tấn công, trong đó kẻ xấu tiêm các hướng dẫn độc hại vào các ứng dụng AI, nhằm mục đích kiểm soát hoặc khai thác chúng.

OpenAI đã ra mắt trình duyệt ChatGPT Atlas vào tháng 10 năm 2025. Các nhà nghiên cứu bảo mật đã nhanh chóng chỉ ra những điểm yếu của trình duyệt này, cho thấy việc thay đổi hành vi của trình duyệt có thể thực hiện được thông qua việc đưa ra một vài từ trong Google Docs.

OpenAI cho biết họ đang nỗ lực tăng cường khả năng bảo mật cho Atlas, bằng cách phát triển một ‘kẻ tấn công tự động dựa trên LLM’. Kẻ tấn công này được huấn luyện bằng phương pháp học tăng cường để tìm ra các cách thức tấn công mới và thử nghiệm chúng trong môi trường mô phỏng. OpenAI hy vọng rằng điều này sẽ giúp họ phát hiện ra các lỗ hổng bảo mật trước khi chúng bị khai thác trong thực tế.

Các chuyên gia an ninh mạng cũng đồng tình rằng các cuộc tấn công bằng ‘prompt injection’ sẽ là một thách thức lâu dài. Họ khuyến nghị nên áp dụng nhiều lớp bảo vệ và liên tục kiểm tra để giảm thiểu rủi ro.

Theo tin từ TechCrunch.


follow nhận tin mới

tin mới


Tin NỔI BẬT


Tin Chính trị


Tin Hoa Kỳ


Tin Di trú