Amazon Web Services (AWS) vừa công bố chip huấn luyện AI thế hệ thứ ba, Trainium3, tại hội nghị thường niên AWS re:Invent 2025. Con chip 3 nanometer này cùng hệ thống UltraServer sử dụng công nghệ mạng nội bộ của Amazon, mang lại hiệu suất vượt trội đáng kể.
Theo tin từ TechCrunch, Trainium3 UltraServer nhanh hơn và có bộ nhớ gấp bốn lần so với thế hệ trước, đồng thời hiệu quả năng lượng hơn 40%. Đây là một bước tiến quan trọng trong bối cảnh các trung tâm dữ liệu đang đối mặt với nhu cầu năng lượng khổng lồ. Hệ thống này cũng cho phép kết nối hàng ngàn UltraServer, hỗ trợ tới một triệu chip Trainium3, gấp mười lần khả năng của thế hệ trước. Các khách hàng lớn như Anthropic (được Amazon đầu tư), công ty LLM Karakuri của Nhật Bản, Splashmusic và Decart đã sử dụng Trainium3 và báo cáo giảm đáng kể chi phí vận hành.
AWS cũng hé lộ lộ trình cho thế hệ chip tiếp theo, Trainium4, hiện đang trong quá trình phát triển. Trainium4 được kỳ vọng sẽ tăng cường hiệu suất đáng kể và tương thích với công nghệ kết nối chip tốc độ cao NVLink Fusion của Nvidia. Điều này có nghĩa là các hệ thống dùng Trainium4 có thể hoạt động song song và mở rộng hiệu suất với các đơn vị xử lý đồ họa (GPU) của Nvidia, trong khi vẫn tận dụng công nghệ máy chủ giá thành thấp do Amazon tự phát triển. Mục tiêu là thu hút các ứng dụng AI lớn được xây dựng dựa trên GPU của Nvidia, vốn sử dụng CUDA như một tiêu chuẩn công nghiệp. AWS chưa công bố thời gian ra mắt Trainium4, nhưng dự kiến sẽ có thêm thông tin tại hội nghị năm sau.






































