Tập đoàn OpenAI đang tìm kiếm một lãnh đạo mới để phụ trách việc nghiên cứu và ứng phó với các rủi ro liên quan đến trí tuệ nhân tạo (AI). Các rủi ro này bao gồm nhiều lĩnh vực, từ an ninh máy tính cho đến sức khỏe tinh thần. Thông tin được đưa ra trên trang TechCrunch.
Trong một bài đăng trên X (trước đây là Twitter), Giám đốc điều hành Sam Altman thừa nhận rằng các mô hình AI đang gây ra những ‘thách thức thực sự’. Ông nhấn mạnh đến ‘tác động tiềm tàng của các mô hình đối với sức khỏe tinh thần’, cũng như những mô hình ‘giỏi về an ninh máy tính đến mức chúng bắt đầu tìm ra những lỗ hổng nghiêm trọng’.
Ông Altman cho biết, OpenAI mong muốn tuyển dụng những người có khả năng giúp thế giới hiểu rõ cách hỗ trợ những người bảo vệ an ninh mạng bằng các công nghệ tiên tiến, đồng thời ngăn chặn kẻ tấn công lợi dụng chúng cho mục đích xấu. Công ty cũng muốn đảm bảo sự an toàn trong việc phát triển các khả năng sinh học và tin tưởng vào sự an toàn của các hệ thống có khả năng tự cải thiện.
Mô tả công việc được đăng tải trên OpenAI cho vị trí Trưởng bộ phận Ứng phó (Head of Preparedness) nêu rõ người này sẽ chịu trách nhiệm thực hiện khung ứng phó của công ty. Khung này giải thích cách OpenAI theo dõi và chuẩn bị cho các khả năng mới, tiên tiến, có thể tạo ra những rủi ro nghiêm trọng.
OpenAI đã thành lập một nhóm ứng phó vào năm 2023. Nhóm này có nhiệm vụ nghiên cứu các ‘rủi ro thảm khốc’, từ các cuộc tấn công lừa đảo cho đến các mối đe dọa hạt nhân. Tuy nhiên, theo một số nguồn tin, một số lãnh đạo về an toàn AI đã rời khỏi công ty hoặc chuyển sang các vai trò khác.
Gần đây, OpenAI đã cập nhật Khung Ứng phó của mình, cho biết họ có thể ‘điều chỉnh’ các yêu cầu an toàn nếu một phòng thí nghiệm AI đối thủ tung ra một mô hình ‘rủi ro cao’ mà không có các biện pháp bảo vệ tương tự.
Theo TechCrunch, Giám đốc điều hành Sam Altman cũng đã đề cập đến các cuộc tranh luận về tác động của chatbot AI đến sức khỏe tinh thần. Gần đây, nhiều vụ kiện cáo đã được đệ trình, cáo buộc ChatGPT của OpenAI làm trầm trọng thêm chứng ảo tưởng của người dùng, làm gia tăng sự cô lập xã hội và thậm chí dẫn đến tự tử. OpenAI cho biết họ đang nỗ lực cải thiện khả năng của ChatGPT trong việc nhận biết các dấu hiệu đau khổ về tinh thần và kết nối người dùng với sự hỗ trợ thực tế.



































