Amazon Web Services (AWS) của Amazon ngày thứ Ba (2/12) cho biết họ sẽ đưa công nghệ NVLink của Nvidia vào thế hệ chip AI Trainium4, một bước đi nhằm củng cố vị thế trong cuộc đua thu hút khách hàng trí tuệ nhân tạo quy mô lớn. AWS chưa tiết lộ thời điểm ra mắt Trainium4.
Công nghệ NVLink Fusion cho phép kết nối tốc độ cao giữa các chip, hỗ trợ xây dựng các cụm máy chủ AI khổng lồ – yếu tố then chốt trong đào tạo các mô hình AI cần hàng nghìn máy hoạt động đồng bộ. Động thái này đánh dấu Nvidia mở rộng mạng lưới đối tác chip, sau Intel và Qualcomm.
Thông báo được đưa ra tại hội nghị AWS re:Invent diễn ra một tuần ở Las Vegas, với khoảng 60.000 người tham dự. Theo thỏa thuận, khách hàng AWS sẽ được tiếp cận “AI Factory”, hạ tầng AI tối ưu hóa bên trong trung tâm dữ liệu của Amazon.
“Nvidia và AWS đang cùng nhau tạo ra nền tảng tính toán cho cuộc cách mạng công nghiệp AI,” CEO Nvidia Jensen Huang nói.
Bên cạnh Trainium4, AWS cũng công bố triển khai máy chủ mới sử dụng chip Trainium3. Mỗi máy chủ gồm 144 chip, cho hiệu năng gấp hơn bốn lần thế hệ trước nhưng tiêu thụ ít hơn 40% điện năng, theo Dave Brown – Phó chủ tịch phụ trách dịch vụ tính toán và học máy. Ông nói AWS đang cạnh tranh chủ yếu bằng giá và hiệu năng.
AWS đồng thời giới thiệu phiên bản mới của dòng mô hình AI Nova. Nova 2 được mô tả nhanh hơn và phản hồi tốt hơn, với các biến thể có khả năng tạo nội dung đa phương thức – từ văn bản, hình ảnh tới giọng nói và video. Mẫu Nova Sonic có thể phản hồi bằng giọng nói theo phong cách “giống con người”.
Amazon đang nỗ lực thúc đẩy Nova trong bối cảnh cạnh tranh gay gắt với ChatGPT của OpenAI, Claude của Anthropic và Gemini của Google. Tuy vậy, AWS vẫn tăng trưởng doanh thu 20% trong quý gần nhất, chủ yếu nhờ nhu cầu hạ tầng AI.
Tại sự kiện, công ty còn công bố dịch vụ Nova Forge, cho phép doanh nghiệp tự xây dựng mô hình AI dựa trên dữ liệu riêng. “Điều này giúp tạo ra mô hình hiểu rõ dữ liệu của bạn mà không đánh mất tri thức nền,” CEO AWS Matt Garman nói.

