Tối thứ hai vừa qua, công ty công nghệ AI từ Trung Quốc đại lục DeepSeek đã giới thiệu hai mô hình mới: DeepSeek-V3.2 và phiên bản cao cấp của nó, DeepSeek-V3.2-Speciale.
Bằng cách áp dụng giao thức học tăng cường được nâng cấp và tăng cường tính toán sau huấn luyện, DeepSeek-V3.2 tuyên bố đạt mức hiệu quả như GPT-5. Mô hình này nhằm cân bằng giữa chi phí tính toán tối ưu và khả năng lý luận và tác nhân hàng đầu — hãy tưởng tượng nó như việc tối đa hóa sức mạnh đồng thời giữ hóa đơn năng lượng ở mức thấp.
Cuộc đua trong lĩnh vực AI đang trở nên nóng bỏng. Vào tháng 8 vừa qua, OpenAI đã ra mắt GPT-5, tự hào là sản phẩm thông minh và nhanh nhất của họ cho đến nay. Sau đó vào tháng 11, Google giới thiệu Gemini-3.0-Pro, thiết lập một tiêu chuẩn mới cho các hệ thống AI.
DeepSeek không dừng lại ở đó. Biến thể V3.2-Speciale của nó, với sức mạnh tính toán bổ sung, được cho là vượt trội GPT-5 và cung cấp khả năng lý luận ngang bằng với Gemini-3.0-Pro. Đáng kể, nó đã giành được các vị trí hàng đầu tại Olympic Toán học Quốc tế 2025 và Olympic Tin học Quốc tế, chứng minh khả năng trong các cuộc thi học thuật cấp cao.
Trọng tâm của những tiến bộ này là cơ chế Sparse Attention của DeepSeek. Chiêu thức thông minh này cắt giảm phức tạp tính toán nhưng vẫn giữ hiệu suất sắc nét, đặc biệt khi xử lý các tình huống có ngữ cảnh dài — giống như sử dụng một tàu cao tốc với ngân sách nhiên liệu.
Được thành lập vào tháng 7 năm 2023, DeepSeek tập trung vào việc xây dựng các mô hình ngôn ngữ lớn và công nghệ AI đa phương tiện. Với những lần phát hành mới này, họ đang thực hiện một bước tiến táo bạo để đứng ngang hàng với các nhà lãnh đạo toàn cầu trong lĩnh vực AI.
Reference(s):
DeepSeek launches new AI models with top efficiency and performance
cgtn.com










