Đột phá Engram của DeepSeek cắt giảm nhu cầu bộ nhớ AI

Đột phá Engram của DeepSeek cắt giảm nhu cầu bộ nhớ AI

DeepSeek, những người sáng tạo đứng sau một số mô hình AI có trọng lượng mở mạnh nhất thế giới, vừa gây chấn động thế giới AI một lần nữa. Vào thứ Ba, người sáng lập Liang Wenfeng và nhóm của ông đã công bố bài báo mới nhất của họ giới thiệu "bộ nhớ điều kiện," một công nghệ đột phá cắt giảm nhu cầu bộ nhớ video cho các mô hình AI khổng lồ.

Nghĩ về nó như thế này: thay vì nhồi tất cả "bộ não" của mô hình vào bộ nhớ đắt tiền, DeepSeek chia "logic" và "kiến thức." Phần nặng nề—dữ liệu—nằm trong phần cứng rẻ hơn, dễ tiếp cận hơn. Khi bạn hỏi một câu hỏi, mô hình gần như ngay lập tức truy cập vào bộ nhớ ngoài đó, giống như lấy đúng trang bạn cần từ các quầy sách Sài Gòn yêu thích của bạn.

Điều đáng nói là cách này vượt qua các hệ thống tạo ra được bổ sung truy xuất thông tin (RAG) ngày nay, có thể cảm thấy cồng kềnh khi tìm kiếm thông tin. Công nghệ Engram của DeepSeek cung cấp câu trả lời nhanh chóng, làm cho trải nghiệm mượt mà và nhạy bén—ngay cả khi bạn tham chiếu điều gì đó bạn đã nói trong năm mươi yêu cầu trước đây.

Và vâng, mã đã được công khai với tên "Engram." Như bài báo đã nêu, "Engram cho phép mô hình mở rộng hiệu quả khả năng kiến thức… trong khi duy trì hiệu suất đào tạo và suy luận cao."

Đối với người dùng, kết quả là rõ ràng: AI rẻ hơn để vận hành, phản hồi nhanh hơn, và tốt hơn nhiều trong việc ghi nhớ ngữ cảnh—tất cả đều là tin tốt nếu bạn từng cảm thấy cần làm mới trí nhớ của AI giữa cuộc hội thoại.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Back To Top