Các nhà khoa học chế tạo chip máy tính lớn nhất thế giới chứa 4 nghìn tỷ transistor (linh kiện bán dẫn chủ động, thường được sử dụng như một phần tử khuếch đại hoặc một khóa điện tử), theo Live Science. Trong tương lai, chip khổng lồ này sẽ được sử dụng để vận hành siêu máy tính trí tuệ nhân tạo (AI) cực mạnh. Wafer Scale Engine 3 (WSE-3) là nền tảng thế hệ thứ ba của công ty siêu máy tính Cerebras, được thiết kế để chạy hệ thống AI như GPT-4 của OpenAI và Claude 3 Opus của Anthropic. Con chip bao gồm 900.000 lõi AI, cấu tạo từ tấm bán dẫn silicon kích thước 21,5 x 21,5 cm, giống như phiên bản tiền nhiệm năm 2021 là WSE-2.
Chip mới sử dụng cùng lượng điện như WSE-2 nhưng mạnh hơn gấp đôi. So với nó, con chip trước đó bao gồm 2,6 nghìn tỷ transistor và 850.000 lõi AI, có nghĩa số lượng transistor trong chip máy tính tăng gấp đôi sau mỗi hai năm. Để so sánh, một trong những con chip mạnh nhất hiện nay dùng để huấn luyện mô hình AI là bộ xử lý đồ họa (GPU) Nvidia H200. Tuy nhiên, GPU của Nvidia chỉ có 80 tỷ transistor, ít hơn 57 lần so với con chip của Cerebras.
Một ngày nào đó, WSE-3 sẽ được sử dụng cho siêu máy tính Condor Galaxy 3 nằm ở Dallas, Texas, theo đại diện công ty chia sẻ hôm 13/3. Siêu máy tính Condor Galaxy 3 đang được xây dựng sẽ bao gồm 64 khối cơ sở là hệ thống AI Cerebras CS-3 hoạt động nhờ chip WSE-3. Khi nối liền với nhau và kích hoạt, toàn bộ hệ thống có công suất tính toán lên tới 8 exaFLOP. Sau đó, khi kết hợp với hệ thống Condor Galaxy 1 và Condor Galaxy 2, toàn bộ mạng lưới sẽ đạt tổng công suất 16 exaFLOP (đơn vị đo sức mạnh tính toán tổng hợp của các hệ thống máy tính). Một exaFLOP sẽ bằng 1.000 petaflop, tương đương 1 tỷ tỷ phép tính một giây.
Hiện nay, siêu máy tính mạnh nhất thế giới là Frontier của Phòng thí nghiệm quốc gia Oak Ridge với công suất 1 exaFLOP. Siêu máy tính Condor Galaxy 3 sẽ được dùng để huấn luyện các hệ thống AI tương lai lớn gấp 10 lần so với GPT-4 hoặc Gemini của Google.
An Khang (Theo Live Science)