Chip AI không phải là lý do duy nhất giúp Nvidia thống trị thị trường
Nvidia không chỉ là gã khổng lồ về phần cứng với chip AI, mà còn đi đầu về mảng phần mềm - thứ sẽ giúp công ty duy trì vị thế trong nhiều năm tới.
CUDA - thứ thực sự giúp Nvidia thống trị
Nvidia là tập đoàn sản xuất phần cứng nổi tiếng với việc xây dựng các chip AI, nhưng sản phẩm quan trọng nhất của tập đoàn này lại là một phần mềm đã giúp công ty tạo nên một thành trì kinh doanh vững chắc giữ khách hàng ở lại và ngăn cản đối thủ cạnh tranh: CUDA.
Khi ra mắt năm 2007, nền tảng này là giải pháp cho một vấn đề mà chưa ai gặp phải lúc đó: làm thế nào để chạy phần mềm không liên quan đến đồ họa, chẳng hạn như thuật toán mã hóa và khai thác tiền điện tử, bằng các chip chuyên dụng của Nvidia, vốn được thiết kế cho các ứng dụng đòi hỏi nhiều công sức như đồ họa 3D và trò chơi điện tử.
CUDA cho phép tất cả các loại tính toán khác diễn ra trên các chip của Nvidia, được gọi là đơn vị xử lý đồ họa (GPU). Trong số các ứng dụng mà CUDA cho phép các chip của Nvidia chạy là phần mềm AI, sự bùng nổ phát triển trong những năm gần đây đã khiến Nvidia trở thành một trong những công ty có giá trị nhất thế giới.
Quan trọng hơn, CUDA chỉ là bước khởi đầu. Năm này qua năm khác, Nvidia đã phản ứng với nhu cầu của các nhà phát triển phần mềm bằng cách liên tục phát hành các thư viện mã chuyên dụng, cho phép thực hiện một loạt các tác vụ trên GPU của họ với tốc độ không thể đạt được với các bộ xử lý đa năng thông thường như của Intel và AMD.
Tại cuộc họp cổ đông tháng 6, Nvidia đã công bố rằng CUDA hiện bao gồm hơn 300 thư viện mã và 600 mô hình AI, và hỗ trợ 3.700 ứng dụng tăng tốc GPU được sử dụng bởi hơn năm triệu nhà phát triển tại khoảng 40.000 công ty.
Tầm quan trọng của các nền tảng phần mềm của Nvidia giải thích tại sao trong nhiều năm qua, Nvidia có nhiều kỹ sư phần mềm hơn kỹ sư phần cứng. Giám đốc điều hành Nvidia, Jensen Huang, gần đây đã gọi sự nhấn mạnh của công ty vào sự kết hợp giữa phần cứng và phần mềm là "tính toán toàn diện," có nghĩa là Nvidia tạo ra tất cả mọi thứ từ chip đến phần mềm để xây dựng AI.
Các đối thủ tìm cách vượt qua "bức tường"
CUDA giải thích tại sao dù có sự cạnh tranh từ các nhà sản xuất chip khác và thậm chí từ các gã khổng lồ công nghệ như Google và Amazon, Nvidia khó có khả năng mất thị phần AI quan trọng trong vài năm tới.
Dù vậy, quy mô khổng lồ của thị trường tính toán AI cũng khuyến khích một loạt các công ty liên kết lại để thách thức Nvidia trong lĩnh vực này. Thị trường cho các chip liên quan đến AI sẽ đạt 400 tỷ USD mỗi năm vào năm 2027, theo Atif Malik, nhà phân tích thiết bị bán dẫn và mạng tại Citi Research.
Các nhà đầu tư đang rót tiền vào các công ty khởi nghiệp phát triển các giải pháp thay thế cho CUDA. Tham vọng là để các kỹ sư trên khắp thế giới có thể cùng nhau làm việc trên bất kỳ chip nào họ muốn, nói cách khác là không phải trả “thuế CUDA”.
Groq, một công ty khởi nghiệp có thể tận dụng tất cả phần mềm mã nguồn mở, gần đây đã công bố một khoản đầu tư 640 triệu USD, với định giá 2,8 tỷ USD, để xây dựng chip cạnh tranh với Nvidia.
Các gã khổng lồ công nghệ cũng đang đầu tư vào các giải pháp thay thế cho chip Nvidia. Google và Amazon đều sản xuất chip tùy chỉnh của riêng mình để huấn luyện và triển khai AI. Microsoft đã thông báo vào năm 2023 rằng họ sẽ làm theo.
Microsoft và Meta Platforms, hai khách hàng lớn của Nvidia, đều mua chip AI của AMD, phản ánh mong muốn khuyến khích cạnh tranh cho một trong những mục ngân sách đắt đỏ nhất của các gã khổng lồ công nghệ.
Babak Pahlavan, CEO của công ty khởi nghiệp NinjaTech AI, cho biết phần cứng và phần mềm của Nvidia là tối ưu nhất, nhưng sự khan hiếm của chip H100 khiến chi phí rất cao và khó tiếp cận.
Cuối cùng, Pahlavan và các đồng sáng lập đã chuyển sang Amazon, công ty sản xuất chip tùy chỉnh của riêng mình để huấn luyện AI, quá trình mà các hệ thống này "học" từ lượng dữ liệu khổng lồ. Dù rất khó khăn, nhưng kết quả hiện tại được đánh giá là tốt.
Những khách hàng sử dụng chip AI tùy chỉnh của Amazon bao gồm Anthropic, Airbnb, Pinterest và Snap. Amazon cung cấp cho khách hàng điện toán đám mây của mình quyền truy cập vào chip Nvidia, nhưng chúng có giá cao hơn so với chip AI của Amazon.
Để phục vụ hơn một triệu người dùng mỗi tháng, hóa đơn dịch vụ đám mây của NinjaTech tại Amazon là khoảng 250.000 USD mỗi tháng, Pahlavan cho biết. Nếu ông chạy cùng AI đó trên chip Nvidia, con số này sẽ từ 750.000 đến 1,2 triệu USD.
Tuy nhiên, Malik của Citi Research dự báo Nvidia vẫn sẽ duy trì thị phần khoảng 90% trong các chip liên quan đến AI trong hai đến ba năm tới. Nvidia nhận thức rất rõ về áp lực cạnh tranh này và đang nghiên cứu các thế hệ chip tập trung vào AI tối ưu hơn về chi phí nhằm tiếp tục bỏ xa các đối thủ.