Một liên minh các tổ chức phi lợi nhuận đã gửi thư kiến nghị chính phủ Hoa Kỳ hoãn ngay lập tức việc triển khai Grok, công cụ chatbot do xAI của Elon Musk phát triển, trong các cơ quan liên bang, bao gồm cả Bộ Quốc phòng.
Lá thư mở, được chia sẻ độc quyền với TechCrunch, được đưa ra sau một loạt hành vi đáng lo ngại của mô hình ngôn ngữ lớn này trong năm qua. Gần đây nhất, người dùng X đã yêu cầu Grok biến hình ảnh của những phụ nữ có thật, thậm chí cả trẻ em, thành những hình ảnh nhạy cảm mà không có sự đồng thuận của họ. Theo một số báo cáo, Grok đã tạo ra hàng ngàn hình ảnh khiêu dâm trái phép mỗi giờ, sau đó được lan truyền trên X, nền tảng mạng xã hội của ông Musk.
“Thật đáng lo ngại khi chính phủ liên bang tiếp tục triển khai một sản phẩm AI với những lỗi hệ thống dẫn đến việc tạo ra hình ảnh nhạy cảm trái phép và tài liệu lạm dụng tình dục trẻ em,” lá thư, ký bởi các nhóm vận động như Public Citizen, Center for AI and Digital Policy, và Consumer Federation of America, nêu rõ. “Với các sắc lệnh điều hành, hướng dẫn của chính quyền và Đạo luật Take It Down vừa được thông qua, thật đáng báo động khi Văn phòng Quản lý và Ngân sách (OMB) vẫn chưa chỉ đạo các cơ quan liên bang ngừng sử dụng Grok.”
Tháng 9 năm ngoái, xAI đã đạt được thỏa thuận với Tổng cục Dịch vụ Công (GSA) để bán Grok cho các cơ quan liên bang. Hai tháng trước đó, xAI, cùng với Anthropic, Google và OpenAI, đã giành được hợp đồng trị giá tới 200 triệu đô la với Bộ Quốc phòng.
Giữa các vụ bê bối trên X vào giữa tháng 1, Bộ trưởng Quốc phòng Pete Hegseth cho biết Grok sẽ cùng với Gemini của Google hoạt động trong mạng lưới Lầu Năm Góc, xử lý cả tài liệu mật và không mật, điều mà các chuyên gia cho là rủi ro an ninh quốc gia.
Những người viết thư lập luận rằng Grok đã chứng tỏ là không tương thích với các yêu cầu của chính quyền đối với hệ thống AI. Theo hướng dẫn của OMB, các hệ thống tiềm ẩn rủi ro nghiêm trọng và có thể lường trước mà không thể giảm thiểu đầy đủ sẽ bị ngừng sử dụng.
“Mối quan tâm chính của chúng tôi là Grok đã cho thấy mình là một mô hình ngôn ngữ lớn không an toàn,” JB Branch, một nhà vận động trách nhiệm công nghệ lớn của Public Citizen và là một trong những người viết thư, nói với TechCrunch. “Nhưng Grok cũng có một lịch sử lâu dài với nhiều sự cố, bao gồm cả những bài phát biểu bài Do Thái, phân biệt giới tính, và hình ảnh nhạy cảm về phụ nữ và trẻ em.”
Nhiều chính phủ đã bày tỏ sự không sẵn lòng hợp tác với Grok sau các hành vi của nó vào tháng 1, nối tiếp một loạt sự cố bao gồm việc tạo ra các bài đăng bài Do Thái trên X và tự gọi mình là “MechaHitler”. Indonesia, Malaysia và Philippines đã chặn quyền truy cập Grok (sau đó đã dỡ bỏ lệnh cấm), và Liên minh Châu Âu, Vương quốc Anh, Hàn Quốc và Ấn Độ đang điều tra tích cực xAI và X về quyền riêng tư dữ liệu và việc phân phối nội dung bất hợp pháp.
Lá thư cũng được đưa ra một tuần sau khi Common Sense Media, một tổ chức phi lợi nhuận đánh giá truyền thông và công nghệ cho các gia đình, công bố một báo cáo đánh giá rủi ro nghiêm trọng, cho thấy Grok là một trong những công cụ không an toàn nhất cho trẻ em và thanh thiếu niên. Có thể lập luận rằng, dựa trên các phát hiện của báo cáo — bao gồm cả xu hướng của Grok đưa ra lời khuyên không an toàn, chia sẻ thông tin về ma túy, tạo ra hình ảnh bạo lực và nhạy cảm, tung ra các thuyết âm mưu và tạo ra kết quả thiên vị — Grok cũng không an toàn cho người lớn.
“Nếu bạn biết rằng một mô hình ngôn ngữ lớn không an toàn hoặc đã được các chuyên gia an toàn AI tuyên bố là không an toàn, tại sao bạn lại muốn nó xử lý dữ liệu nhạy cảm nhất mà chúng ta có?” Branch nói. “Từ góc độ an ninh quốc gia, điều đó hoàn toàn vô lý.”
Andrew Christianson, cựu nhà thầu của Cơ quan An ninh Quốc gia và hiện là người sáng lập Gobbi AI, cho biết việc sử dụng các LLM mã nguồn đóng nói chung là một vấn đề, đặc biệt đối với Lầu Năm Góc. “Trọng số đóng có nghĩa là bạn không thể nhìn vào bên trong mô hình, bạn không thể kiểm toán cách nó đưa ra quyết định,” ông nói. “Mã đóng có nghĩa là bạn không thể kiểm tra phần mềm hoặc kiểm soát nơi nó chạy. Lầu Năm Góc đang đi theo hướng đóng cả hai, đó là sự kết hợp tồi tệ nhất có thể đối với an ninh quốc gia.”
“Các tác nhân AI này không chỉ là chatbot,” Christianson nói thêm. “Chúng có thể hành động, truy cập hệ thống, di chuyển thông tin xung quanh. Bạn cần phải có khả năng nhìn thấy chính xác những gì chúng đang làm và cách chúng đưa ra quyết định. Mã nguồn mở cho bạn điều đó. AI đám mây độc quyền thì không.”
Rủi ro khi sử dụng các hệ thống AI bị lỗi hoặc không an toàn còn vượt ra ngoài các trường hợp sử dụng an ninh quốc gia. Branch chỉ ra rằng một LLM đã thể hiện kết quả thiên vị và phân biệt đối xử có thể gây ra những hậu quả tiêu cực không tương xứng cho mọi người, đặc biệt nếu được sử dụng trong các bộ phận liên quan đến nhà ở, lao động hoặc tư pháp.
Trong khi OMB vẫn chưa công bố kiểm kê các trường hợp sử dụng AI liên bang năm 2025 của mình, TechCrunch đã xem xét các trường hợp sử dụng của một số cơ quan — hầu hết trong số đó hoặc là không sử dụng Grok hoặc không tiết lộ việc sử dụng Grok. Ngoài Bộ Quốc phòng, Bộ Y tế và Dịch vụ Nhân sinh cũng dường như đang tích cực sử dụng Grok, chủ yếu để lên lịch và quản lý các bài đăng trên mạng xã hội cũng như tạo bản nháp đầu tiên của tài liệu, thông báo hoặc các tài liệu liên lạc khác.
Branch chỉ ra những gì ông coi là sự tương đồng về triết học giữa Grok và chính quyền như một lý do để bỏ qua những thiếu sót của chatbot. “Thương hiệu của Grok là ‘mô hình ngôn ngữ lớn chống ‘woke’, và điều đó phù hợp với triết lý của chính quyền này,” Branch nói. “Nếu bạn có một chính quyền đã có nhiều vấn đề với những người bị cáo buộc là Tân Quốc xã hoặc những người theo chủ nghĩa da trắng thượng đẳng, và sau đó họ sử dụng một mô hình ngôn ngữ lớn có liên quan đến loại hành vi đó, tôi có thể tưởng tượng họ có thể có xu hướng sử dụng nó.”
Đây là lá thư thứ ba của liên minh, sau khi đã viết thư với những lo ngại tương tự vào tháng 8 và tháng 10 năm ngoái. Vào tháng 8, xAI đã ra mắt “chế độ nóng bỏng” (spicy mode) trong Grok Imagine, kích hoạt việc tạo hàng loạt deepfake nhạy cảm trái phép. TechCrunch cũng đưa tin vào tháng 8 rằng các cuộc trò chuyện riêng tư của Grok đã được Google Search lập chỉ mục.
Trước lá thư tháng 10, Grok bị cáo buộc cung cấp thông tin sai lệch bầu cử, bao gồm cả thời hạn giả cho các thay đổi bỏ phiếu và các deepfake chính trị. xAI cũng đã ra mắt Grokipedia, mà các nhà nghiên cứu phát hiện là hợp pháp hóa phân biệt chủng tộc khoa học, sự hoài nghi về HIV/AIDS và các thuyết âm mưu về vắc-xin.
Ngoài việc ngay lập tức đình chỉ việc triển khai Grok trên toàn liên bang, lá thư yêu cầu OMB điều tra chính thức các lỗi an toàn của Grok và liệu các quy trình giám sát thích hợp đã được thực hiện cho chatbot hay chưa. Nó cũng yêu cầu cơ quan này làm rõ công khai liệu Grok đã được đánh giá để tuân thủ sắc lệnh của Tổng thống Trump yêu cầu LLM phải tìm kiếm sự thật và trung lập hay chưa, và liệu nó có đáp ứng các tiêu chuẩn giảm thiểu rủi ro của OMB hay không.
“Chính quyền cần dừng lại và đánh giá lại xem Grok có đáp ứng các ngưỡng đó hay không,” Branch nói.
TechCrunch đã liên hệ với xAI và OMB để xin bình luận.





























