
Microsoft vừa công bố một bước tiến mới trong lĩnh vực AI tiết kiệm tài nguyên: BitNet b1.58 2B4T, mô hình AI "1-bit" (bitnet) lớn nhất từng được huấn luyện cho đến nay, với 2 tỷ tham số. Mô hình này hiện đã được phát hành công khai theo giấy phép MIT, và có thể chạy trên CPU - bao gồm cả Apple M2 - thay vì phụ thuộc vào GPU mạnh mẽ như các mô hình AI thông thường.

BitNet b1.58 2B4T cho thấy tiềm năng rất lớn cho việc triển khai AI trên các thiết bị tiết kiệm tài nguyên, như điện thoại, laptop mỏng nhẹ hoặc thiết bị nhúng
Bitnet là gì và khác gì so với các mô hình truyền thống?
Các mô hình AI thông thường sử dụng hàng tỷ tham số (parameters) - cũng chính là các trọng số (weights) - để biểu diễn kiến thức và khả năng suy luận. Tuy nhiên, các trọng số này thường yêu cầu sử dụng đến 16 hoặc 32 bit để lưu trữ và xử lý, gây tiêu tốn rất nhiều tài nguyên tính toán và bộ nhớ.
Trong khi đó, bitnet chỉ dùng ba giá trị đơn giản để mã hóa các trọng số: -1, 0 và 1, tức chỉ cần 1 hoặc 2 bit thay vì 16 hay 32. Điều này giúp mô hình nhẹ hơn đáng kể, tiết kiệm bộ nhớ và có thể chạy nhanh trên phần cứng phổ thông - kể cả CPU không chuyên cho AI.
Theo nhóm nghiên cứu tại Microsoft, BitNet b1.58 2B4T được huấn luyện trên 4 nghìn tỷ token, tương đương khoảng 33 triệu cuốn sách. Dù chỉ có 2 tỷ tham số - không quá lớn so với các mô hình hiện đại - nhưng nó vẫn vượt mặt nhiều đối thủ cùng tầm trong các bài kiểm tra benchmark như GSM8K (giải toán cấp tiểu học) hay PIQA (suy luận vật lý cơ bản).
Cụ thể, BitNet b1.58 2B4T vượt qua Meta Llama 3.2 1B, Google Gemma 3 1B và Alibaba Qwen 2.5 1.5B trong một số bài kiểm tra. Đặc biệt, tốc độ xử lý của nó nhanh gấp đôi, trong khi dung lượng bộ nhớ tiêu thụ chỉ bằng một phần nhỏ.
Dù ấn tượng về mặt hiệu suất và khả năng chạy trên CPU, BitNet hiện vẫn có một điểm yếu: nó chỉ hoạt động tối ưu với khung phần mềm riêng của Microsoft là bitnet.cpp, và hệ thống này chưa hỗ trợ GPU - loại thiết bị đang chiếm ưu thế trong hạ tầng AI toàn cầu.
Điều đó có nghĩa là, trong khi các mô hình truyền thống có thể tận dụng GPU để huấn luyện và triển khai trên quy mô lớn, bitnet vẫn còn hạn chế về mặt tương thích phần cứng.
Dù còn giới hạn, BitNet b1.58 2B4T cho thấy tiềm năng rất lớn cho việc triển khai AI trên các thiết bị tiết kiệm tài nguyên, như điện thoại, laptop mỏng nhẹ hoặc thiết bị nhúng. Trong tương lai, nếu được mở rộng hỗ trợ phần cứng, các mô hình 1-bit như BitNet có thể trở thành hướng đi mới để phổ biến AI đến nhiều nền tảng hơn mà không cần đến GPU đắt đỏ.
Anh Việt