Meta, giống như mọi công ty công nghệ lớn khác, có mô hình AI tạo sinh hàng đầu của riêng mình, được gọi là Llama. Điểm độc đáo của Llama là nó là mô hình “mở”, nghĩa là các nhà phát triển có thể tải xuống và sử dụng nó tùy thích (với một số giới hạn). Điều này trái ngược với các mô hình như Claude của Anthropic, Gemini của Google, Grok của xAI và hầu hết các mô hình ChatGPT của OpenAI, chỉ có thể được truy cập thông qua API.
Để tạo sự lựa chọn cho các nhà phát triển, Meta đã hợp tác với các nhà cung cấp như AWS, Google Cloud và Microsoft Azure để cung cấp các phiên bản Llama được lưu trữ trên đám mây. Ngoài ra, công ty còn xuất bản các công cụ, thư viện và công thức trong sách dạy nấu ăn Llama của mình để giúp các nhà phát triển tinh chỉnh, đánh giá và điều chỉnh các mô hình cho phù hợp với lĩnh vực của họ. Các thế hệ mới hơn như Llama 3 và Llama 4 đã mở rộng các khả năng này để bao gồm hỗ trợ đa phương thức gốc và triển khai đám mây rộng hơn.
Dưới đây là mọi điều bạn cần biết về Llama của Meta, từ khả năng và phiên bản đến nơi bạn có thể sử dụng nó. TechCrunch sẽ liên tục cập nhật bài viết này khi Meta phát hành các bản nâng cấp và giới thiệu các công cụ dành cho nhà phát triển mới để hỗ trợ việc sử dụng mô hình.
Llama là một họ các mô hình, không chỉ một. Phiên bản mới nhất là Llama 4, được phát hành vào tháng 4 năm 2025 và bao gồm ba mô hình:
- Scout: 17 tỷ thông số hoạt động, 109 tỷ thông số tổng và cửa sổ ngữ cảnh gồm 10 triệu token.
- Maverick: 17 tỷ thông số hoạt động, 400 tỷ thông số tổng và cửa sổ ngữ cảnh gồm 1 triệu token.
- Behemoth: Chưa được phát hành nhưng sẽ có 288 tỷ thông số hoạt động và 2 nghìn tỷ thông số tổng.
Theo TechCrunch