Amazon vừa công bố sản phẩm mới có tên gọi “AI Factories” (Nhà máy Trí tuệ Nhân tạo), cho phép các tập đoàn lớn và chính phủ tự vận hành hệ thống AI của hãng ngay tại trung tâm dữ liệu của họ. Theo Amazon Web Services (AWS), khách hàng sẽ cung cấp cơ sở hạ tầng trung tâm dữ liệu và nguồn điện, còn AWS sẽ cài đặt và quản lý hệ thống AI, đồng thời kết nối nó với các dịch vụ đám mây khác của AWS.
Sáng kiến này nhắm đến các công ty và cơ quan chính phủ đặc biệt quan tâm đến vấn đề chủ quyền dữ liệu, tức là toàn quyền kiểm soát dữ liệu của mình để tránh rơi vào tay đối thủ cạnh tranh hoặc các thế lực thù địch nước ngoài. Việc triển khai AI Factory tại chỗ đồng nghĩa với việc dữ liệu sẽ không được gửi đi cho nhà cung cấp mô hình AI, ngay cả phần cứng cũng không chia sẻ.
Được biết, “AI Factories” là sự hợp tác giữa Amazon và Nvidia, kết hợp công nghệ của cả hai. Các hệ thống này có thể sử dụng chip GPU Blackwell mới nhất của Nvidia hoặc chip Trainium3 của Amazon. Ngoài ra, nó còn tích hợp công nghệ mạng, lưu trữ, cơ sở dữ liệu và bảo mật nội bộ của AWS, cùng khả năng truy cập vào Amazon Bedrock (dịch vụ lựa chọn và quản lý mô hình AI) và AWS SageMaker AI (công cụ xây dựng và huấn luyện mô hình).
Theo tin từ TechCrunch ngày 2 tháng 12 năm 2025, động thái này cho thấy xu hướng các nhà cung cấp dịch vụ đám mây lớn đang đẩy mạnh đầu tư vào các trung tâm dữ liệu riêng, lai ghép với đám mây công cộng, tương tự như giai đoạn trước đây.































