Google DeepMind vừa mới công bố AlphaEvolve – một tác nhân trí tuệ nhân tạo có thể phát minh ra các thuật toán máy tính hoàn toàn mới và trực tiếp triển khai chúng trong hệ thống điện toán khổng lồ của công ty.
Công cụ trí tuệ nhân tạo AlphaEvolve kết hợp mô hình ngôn ngữ lớn Gemini của Google với phương pháp tiến hóa, cho phép thử nghiệm, tinh chỉnh và cải tiến thuật toán một cách tự động.
Hệ thống này đã được triển khai trong các trung tâm dữ liệu, thiết kế chip và hệ thống huấn luyện AI của Google – giúp nâng cao hiệu suất và giải các bài toán toán học mà giới nghiên cứu đã “bó tay” trong nhiều thập kỷ.
"AlphaEvolve là một tác nhân AI được hỗ trợ bởi Gemini, có thể khám phá ra những thuật toán mới trong lĩnh vực tính toán và toán học", nhà nghiên cứu Matej Balog từ Google DeepMind chia sẻ với VentureBeat. "Nó có thể tạo ra các thuật toán phức tạp với hàng trăm dòng mã và cấu trúc logic tinh vi, vượt xa các hàm đơn giản thông thường."
Hệ thống này là bước tiến lớn từ công trình trước đó của Google – FunSearch – khi thay vì chỉ phát triển một hàm, nó có thể "tiến hóa" toàn bộ cơ sở mã nguồn (codebase). Đây là bước nhảy vọt trong năng lực trí tuệ nhân tạo phát triển thuật toán phục vụ cho cả nghiên cứu khoa học lẫn các vấn đề tính toán hằng ngày.
AlphaEvolve đã âm thầm hoạt động trong hệ thống của Google hơn một năm. Kết quả bước đầu rất ấn tượng.
Một trong những thuật toán do hệ thống phát hiện hiện đang được sử dụng trong Borg – hệ thống quản lý cụm máy tính quy mô lớn của Google. Thuật toán lập lịch này giúp khôi phục trung bình 0,7% tài nguyên tính toán toàn cầu của Google liên tục – một mức tăng hiệu suất khổng lồ ở quy mô của Google.
Phát hiện này tập trung giải quyết các “tài nguyên bị mắc kẹt” – khi máy tính hết một loại tài nguyên (như bộ nhớ) nhưng các tài nguyên khác (như CPU) vẫn còn. Điều đặc biệt là AlphaEvolve tạo ra mã đơn giản, dễ đọc, giúp kỹ sư dễ dàng hiểu, gỡ lỗi và triển khai.
Không chỉ dừng ở trung tâm dữ liệu, AI này còn viết lại một phần thiết kế phần cứng của Google, loại bỏ các bit không cần thiết trong một mạch số học quan trọng của bộ xử lý TPU. Thiết kế mới đã được xác nhận và sẽ tích hợp vào phiên bản chip tiếp theo.
Ấn tượng hơn nữa, AlphaEvolve còn tối ưu hóa chính hệ thống dùng để huấn luyện nó. Khi cải tiến kernel nhân ma trận dùng trong quá trình huấn luyện mô hình Gemini, hệ thống đã đạt được tốc độ nhanh hơn 23%, giúp rút ngắn thời gian huấn luyện tổng thể 1%. Điều này đồng nghĩa với tiết kiệm đáng kể năng lượng và tài nguyên.
Nhà nghiên cứu Alexander Novikov: "Chúng tôi luôn tìm cách tối ưu các thành phần quan trọng có thể tạo ra tác động lớn nhất. Việc tối ưu kernel giúp tiết kiệm 1% tổng thời gian huấn luyện, điều cực kỳ đáng kể ở quy mô như Gemini."
Không chỉ cải tiến hệ thống, AlphaEvolve còn giải quyết các bài toán toán học khiến các chuyên gia “bó tay” trong hàng thập kỷ.
Hệ thống đã phát minh ra một phương pháp tối ưu gradient mới, tạo ra nhiều thuật toán nhân ma trận độc đáo. Trong đó, một thuật toán đã vượt qua kỷ lục của Strassen từ năm 1969 – lần đầu tiên có thể nhân hai ma trận 4×4 phức bằng 48 phép nhân vô hướng thay vì 49.
"Điều khiến chúng tôi bất ngờ là AlphaEvolve, dù là hệ thống tổng quát, lại cho kết quả tốt hơn cả AlphaTensor – hệ thống chuyên biệt trước đó," Balog cho biết.
Tổng cộng, AlphaEvolve đã cải tiến 14 thuật toán nhân ma trận hàng đầu hiện nay, theo công bố nghiên cứu. Ngoài ra, trong số hơn 50 bài toán mở thuộc giải tích, hình học, tổ hợp và số học, hệ thống đã đạt kết quả ngang bằng với thuật toán hiện đại nhất trong 75% trường hợp – và thậm chí tốt hơn trong 20% trường hợp.
Điểm nổi bật của AlphaEvolve là phương pháp tiến hóa thay vì chỉ dựa vào dữ liệu huấn luyện.
Hệ thống sử dụng Gemini Flash (để đánh giá nhanh) và Gemini Pro (cho chiều sâu) để đề xuất thay đổi trong mã. Sau đó, một hệ thống đánh giá tự động sẽ chấm điểm và chọn ra phiên bản tốt nhất để tiếp tục tiến hóa.
AlphaEvolve không đơn thuần sinh mã từ dữ liệu học, mà còn chủ động khám phá không gian giải pháp, đề xuất phương pháp mới và tinh chỉnh chúng – tạo ra các giải pháp mà con người có thể chưa từng nghĩ đến.
“Chúng tôi tập trung vào các bài toán có thể đánh giá rõ ràng – giúp tạo phản hồi nhanh và chính xác để cải tiến,” Novikov giải thích.
Nhờ vậy, AlphaEvolve có thể áp dụng với bất kỳ bài toán nào có thước đo đánh giá – từ tiết kiệm năng lượng trong trung tâm dữ liệu đến độ tinh tế của một chứng minh toán học.
Hiện tại, AlphaEvolve đang phục vụ nội bộ trong hạ tầng và nghiên cứu toán học của Google. Nhưng DeepMind kỳ vọng nó sẽ sớm mở rộng sang khoa học vật liệu, khám phá thuốc và nhiều lĩnh vực thuật toán phức tạp khác.
“Sự kết hợp tốt giữa con người và AI có thể giải quyết các thách thức khoa học mở và ứng dụng chúng ở quy mô Google,” Novikov nhấn mạnh.
Khi các mô hình ngôn ngữ tiếp tục phát triển, năng lực của AlphaEvolve cũng sẽ tiến hóa theo. Từ việc tối ưu phần cứng, phần mềm giúp nuôi sống chính nó trong máy chủ Google, giờ đây AlphaEvolve đang vươn ra ngoài để giải quyết những vấn đề mà trí tuệ con người từng bất lực trong hàng chục – thậm chí hàng trăm năm.
© thitruongbiz.vn