Cerebras đã đoán đúng, khi các mô hình ngôn ngữ lớn (LLM) bắt đầu cần tới hàng ngàn tỷ tham số thì nhiều công ty sẽ tìm đến họ. Những chip Cerebras không hẳn có bí kíp thần sầu gì mà lợi thế nằm ở quy mô. Lấy thí dụ đơn giản, giả sử chúng ta muốn có 1 ngàn GPU B200 để huấn luyện một mô hình LLM nào đó và mỗi máy chủ thông thường của NVIDIA (chẳng hạn thùng máy DGX B200) cần ghép nối 8 GPU lại, vậy cần 125 máy chủ. Nhưng nếu chuyển qua xài các máy chủ CS-3 thì chỉ cần khoảng 36 máy, bởi mổi chip WSE-3 mạnh bằng khoảng 28 chip B200 lẻ.

CS-3
Hàng trăm máy chủ dùng chip NVIDIA đó mất khá nhiều thời gian và điện năng chỉ để giao tiếp với nhau qua mạng lưới cáp nối. Còn với Cerebras thì ít máy chủ hơn và mỗi máy chỉ có một chip nên dữ liệu di chuyển nhanh, ít hao điện và không choán nhiều chỗ. Nên trong khi chip NVIDIA trả kết quả chậm thì chip Cerebras đem lại cảm giác phản hồi cực nhanh. Tuy mỗi máy CS-3 rất mắc nhưng xét số lượng lớn thì chính ra lại phải chăng.
Khi các công ty như OpenAI không còn muốn lệ thuộc vào một công ty duy nhất thì đây là lúc Cerebras trở thành phương án dự phòng quan trọng của họ. Rõ ràng Cerebras có quyền tự tin một ngày nào đó sẽ trở thành đối thủ xứng tầm với NVIDIA.
OpenAI, Cerebras, Wiki, YahooFinance.
công nghệ, khoa học, kĩ thuật, mẹo vặt, cộng đồng, thảo luận, hỏi đáp, sửa lỗi, máy tính, sự cố, camera, lỗi điện thoại, lỗi máy tính#Một #công #làm #chip #chợt #trở #thành #cái #tên #quothotquot #sau #NVIDIA1771230623








