Theo một bài đăng trên blog gần đây, OpenAI, công ty đứng sau ChatGPT, thừa nhận rằng các cuộc tấn công bằng ‘prompt injection’ có thể sẽ tiếp tục là một rủi ro đối với các trình duyệt AI. ‘Prompt injection’ là một kỹ thuật tấn công, trong đó kẻ xấu tiêm các hướng dẫn độc hại vào các ứng dụng AI, nhằm mục đích kiểm soát hoặc khai thác chúng.
OpenAI đã ra mắt trình duyệt ChatGPT Atlas vào tháng 10 năm 2025. Các nhà nghiên cứu bảo mật đã nhanh chóng chỉ ra những điểm yếu của trình duyệt này, cho thấy việc thay đổi hành vi của trình duyệt có thể thực hiện được thông qua việc đưa ra một vài từ trong Google Docs.
OpenAI cho biết họ đang nỗ lực tăng cường khả năng bảo mật cho Atlas, bằng cách phát triển một ‘kẻ tấn công tự động dựa trên LLM’. Kẻ tấn công này được huấn luyện bằng phương pháp học tăng cường để tìm ra các cách thức tấn công mới và thử nghiệm chúng trong môi trường mô phỏng. OpenAI hy vọng rằng điều này sẽ giúp họ phát hiện ra các lỗ hổng bảo mật trước khi chúng bị khai thác trong thực tế.
Các chuyên gia an ninh mạng cũng đồng tình rằng các cuộc tấn công bằng ‘prompt injection’ sẽ là một thách thức lâu dài. Họ khuyến nghị nên áp dụng nhiều lớp bảo vệ và liên tục kiểm tra để giảm thiểu rủi ro.
Theo tin từ TechCrunch.








































