Dù nhu cầu về trí tuệ nhân tạo (AI) đang tăng mạnh, việc phát triển các mô hình AI lớn hơn, cần nhiều chip và trung tâm dữ liệu để hỗ trợ, đang khiến chi phí của các công ty công nghệ tăng cao.
Cơn sốt công nghệ AI tạo sinh bùng nổ vào khoảng 2 năm trước, các công ty công nghệ lớn đã chứng minh được rằng AI có thể mang lại nguồn doanh thu thực sự. Tuy nhiên, đó cũng là một "hố sâu không đáy" về một lượng chi phí khổng lồ.
Minh chứng, doanh thu về dịch vụ đám mây của Microsoft và Google (Alphabet) đang tăng mạnh do các khách hàng doanh nghiệp của họ chi nhiều hơn cho dịch vụ AI. Meta Platforms, dù chưa đạt được mức doanh thu lớn từ công nghệ này, cho biết các nỗ lực ứng dụng AI đã góp phần nâng cao tương tác người dùng và hiệu quả quảng cáo.
Vào ngày 25/4, Microsoft công bố đã chi 14 tỷ USD cho chi phí vốn trong quý I, chi phí này có xu hướng “tăng đáng kể” trong năm nay, phần lớn do đầu tư vào hạ tầng AI. Đây là mức tăng 79% so với cùng kỳ năm ngoái. Cùng thời điểm, Alphabet đã chi 12 tỷ USD, tăng 91% so với cùng kỳ năm ngoái. Công ty này đặt chiến lược duy trì hoặc vượt mức chi tiêu này trong phần còn lại của năm khi tập trung vào cơ hội AI.
Trong khi đó, Meta đã nâng mức ước tính đầu tư cho cả năm và tin rằng chi phí vốn sẽ đạt từ 35 đến 40 tỷ USD, tức là tăng 42% ở mức cao nhất. Công ty nhấn mạnh sự đầu tư mạnh mẽ vào nghiên cứu AI và phát triển sản phẩm.
Chi phí gia tăng do công nghệ AI đã khiến một số nhà đầu tư bất ngờ. Tại thời điểm các dự báo chi tiêu kết hợp với tăng trưởng doanh thu chậm hơn dự kiến, cổ phiếu của Meta đã giảm mạnh.
Tuy nhiên, trong ngành công nghệ, việc chi phí AI ngày càng cao không còn là điều mới mẻ. Có hai lý do chính: các mô hình AI ngày càng lớn và đắt đỏ hơn để phát triển, và nhu cầu toàn cầu đối với dịch vụ AI đòi hỏi phải xây dựng thêm nhiều trung tâm dữ liệu để hỗ trợ.
Các doanh nghiệp thử nghiệm công nghệ AI có thể chi hàng triệu USD để tùy chỉnh sản phẩm từ OpenAI hoặc Google. Khi dịch vụ được vận hành, mỗi lần người dùng tương tác với chatbot hoặc yêu cầu dịch vụ AI phân tích dữ liệu sẽ phát sinh chi phí. Tuy nhiên, công việc tốn kém nhất là xây dựng nền tảng cho các hệ thống AI đó.
Những sản phẩm AI nổi tiếng nhất hiện nay, bao gồm ChatGPT của OpenAI, được vận hành bởi các mô hình ngôn ngữ lớn — hệ thống được "nạp" lượng dữ liệu khổng lồ từ sách, bài báo và các bình luận trên mạng để đưa ra phản hồi tốt nhất có thể cho câu hỏi của người dùng. Nhiều công ty AI hàng đầu tin rằng cách để phát triển trí tuệ nhân tạo tinh vi hơn, tức là có khả năng vượt trội so với con người trong nhiều nhiệm vụ, là tiếp tục mở rộng các mô hình ngôn ngữ này.
Điều này đòi hỏi phải thu thập nhiều dữ liệu hơn, tăng cường sức mạnh tính toán và kéo dài thời gian huấn luyện cho hệ thống AI.
Dario Amodei, CEO của Anthropic, đối thủ của OpenAI, từng chia sẻ với Bloomberg rằng chi phí để huấn luyện các mô hình AI hiện tại vào khoảng 100 triệu USD.
Các mô hình đang được huấn luyện và dự kiến ra mắt vào cuối năm nay hoặc đầu năm sau có chi phí gần 1 tỷ USD. Và đến năm 2025 hoặc 2026, con số này có thể tăng lên 5 đến 10 tỷ USD.
Phần lớn chi phí này liên quan đến chip. Những chip này không phải là bộ xử lý trung tâm (CPU) đã làm nên danh tiếng của Intel hay các dòng chip thu nhỏ được dùng trong hàng tỷ điện thoại thông minh.
Để huấn luyện các mô hình ngôn ngữ lớn, các công ty AI phải dựa vào bộ xử lý đồ họa (GPU) có khả năng xử lý khối lượng dữ liệu khổng lồ với tốc độ cao. Không chỉ thiếu hụt nguồn cung, những chip này còn rất đắt đỏ, đặc biệt là những dòng tiên tiến nhất do Nvidia sản xuất.
Chip H100 của Nvidia, tiêu chuẩn vàng để huấn luyện mô hình AI, hiện có giá khoảng 30,000 USD - một số người bán lại thậm chí còn đưa ra mức giá cao hơn nhiều lần. Các công ty công nghệ lớn cần một số lượng rất lớn các chip này.
CEO Meta, Mark Zuckerberg, từng cho biết công ty của ông dự kiến mua 350.000 chip H100 vào cuối năm nay để phục vụ nghiên cứu AI. Dù có được giảm giá khi mua số lượng lớn, chi phí vẫn có thể lên đến hàng tỷ USD.
Các công ty có thể thực hiện công việc này mà không cần mua chip, nhưng chi phí thuê cũng không hề rẻ. Đơn cử, dịch vụ đám mây của Amazon cho phép thuê một cụm chip Intel mạnh mẽ với giá khoảng 6 USD/giờ. Trong khi đó, nhóm chip Nvidia H100 có giá gần 100 USD/giờ.
Đầu năm nay, Nvidia đã ra mắt dòng chip mới mang tên Blackwell, có tốc độ xử lý mô hình ngôn ngữ lớn nhanh gấp nhiều lần so với các dòng chip trước đây và dự kiến có giá tương đương với dòng Hopper bao gồm H100. Nvidia cho biết cần khoảng 2,000 chip Blackwell để huấn luyện một mô hình AI với 1,8 nghìn tỷ tham số, kích thước được ước tính của GPT-4 của OpenAI, theo một vụ kiện của New York Times. Để so sánh, Nvidia cần tới 8,000 chip Hopper để thực hiện cùng công việc.
Tuy nhiên, sự cải tiến này có thể bị ảnh hưởng bởi xu hướng ngày càng mở rộng mô hình AI trong ngành.
Meta, cùng với các công ty điện toán đám mây lớn nhất như Amazon, Microsoft và Google và các nhà cung cấp khác đang đua nhau xây dựng các "trang trại máy chủ" mới. Những tòa nhà này thường được thiết kế đặc biệt, chứa các dãy ổ cứng, bộ xử lý, hệ thống làm mát cùng với các thiết bị điện và máy phát dự phòng.
Theo ước tính của công ty nghiên cứu Dell’Oro Group, năm nay các công ty sẽ chi khoảng 294 tỷ USD cho việc xây dựng và trang bị trung tâm dữ liệu, tăng so với 193 tỷ USD vào năm 2020. Phần lớn sự mở rộng này gắn liền với sự gia tăng rộng rãi của các dịch vụ số, như video trực tuyến, sự bùng nổ dữ liệu doanh nghiệp và các nguồn cấp dữ liệu trên mạng xã hội.
Tuy nhiên, một phần ngày càng lớn trong khoản chi này được dành riêng cho các chip Nvidia đắt đỏ và các phần cứng chuyên dụng cần thiết để hỗ trợ sự bùng nổ AI.
Ước tính, trên toàn cầu có hơn 7,000 trung tâm dữ liệu, bao gồm cả các cơ sở đang trong quá trình phát triển, tăng so với 3,600 vào năm 2015, theo dữ liệu từ DC Byte, một công ty cung cấp thông tin thị trường. Những cơ sở này cũng đang ngày càng lớn hơn đáng kể. Diện tích trung bình của các tòa nhà trung tâm dữ liệu trên toàn thế giới hiện đạt 412,000 bộ vuông, tăng gần gấp năm lần kể từ năm 2010, theo DC Byte.
Mặc dù chip và trung tâm dữ liệu chiếm phần lớn chi phí, một số công ty AI cũng chi hàng triệu đô la để cấp phép sử dụng dữ liệu từ các nhà xuất bản.
OpenAI đã ký kết các thỏa thuận với một số nhà xuất bản châu Âu để tích hợp nội dung tin tức của họ vào ChatGPT và huấn luyện các mô hình AI của mình. Dù các điều khoản tài chính của các thỏa thuận này chưa được tiết lộ, Bloomberg News đã báo cáo rằng OpenAI đã đồng ý trả hàng chục triệu euro cho Axel Springer SE, nhà xuất bản của Politico và Business Insider, để được quyền sử dụng các bài báo của họ. Startup này cũng đã tiến hành đàm phán với Time, CNN và Fox News để cấp phép cho nội dung của họ.
Dù OpenAI tích cực hơn trong việc đảm bảo các thỏa thuận cấp phép, các công ty công nghệ lớn khác cũng đang tìm cách thu thập dữ liệu ngôn ngữ cần thiết để xây dựng các công cụ AI hấp dẫn. Google đã đạt được thỏa thuận trị giá 60 triệu USD để cấp phép dữ liệu từ Reddit, theo báo cáo của Reuters. Meta cũng được cho là đã thảo luận về việc mua lại nhà xuất bản sách Simon & Schuster, theo New York Times.
Các công ty công nghệ hiện cũng đang cạnh tranh gay gắt để thu hút nhân tài AI. Vào một thời điểm trong năm ngoái, Netflix đã đăng tuyển vị trí quản lý sản phẩm AI với mức lương lên tới 900,000 USD.
Microsoft đã giới thiệu ba mô hình AI nhỏ hơn, ít tốn tài nguyên tính toán hơn. Microsoft cho rằng các mô hình ngôn ngữ lớn "vẫn sẽ là tiêu chuẩn vàng để giải quyết nhiều loại nhiệm vụ phức tạp", chẳng hạn như "lý luận nâng cao, phân tích dữ liệu và hiểu bối cảnh." Tuy nhiên, các mô hình nhỏ hơn có thể đủ đáp ứng cho một số khách hàng và trường hợp sử dụng cụ thể. Các công ty khác, bao gồm startup Sakana AI, được sáng lập bởi hai cựu nhân viên Google, cũng đang tập trung vào các mô hình nhỏ hơn.
Không phải lúc nào bạn cũng cần một chiếc xe thể thao. Đôi khi bạn cần một chiếc xe tải nhỏ hoặc một chiếc xe bán tải. Sẽ không có một loại mô hình nào phù hợp cho tất cả các trường hợp sử dụng.
Tuy nhiên, hiện tại, quan điểm phổ biến trong thế giới AI là "càng lớn càng tốt" và điều này đồng nghĩa với chi phí rất đắt đỏ.
URL: https://thitruongbiz.vn/cong-nghe-ai-hay-lao-dong-gia-re-cai-nao-dat-do-hon-d26073.html
© thitruongbiz.vn