DeepSeek Ra Mắt Các Mô Hình V3.2, Thiết Lập Tiêu Chuẩn Hiệu Suất Mới Cho AI Tiên Tiến
Chỉnh sửa bởi: Veronika Radoslavskaya
Vào ngày 1 tháng 12 năm 2025, công ty trí tuệ nhân tạo có trụ sở tại Hàng Châu, DeepSeek, đã chính thức công bố việc phát hành hai mô hình AI thử nghiệm mới: DeepSeek-V3.2 và DeepSeek-V3.2-Speciale. Sự kiện này đặt nhà phát triển mã nguồn mở này vào cuộc cạnh tranh trực tiếp với các mô hình độc quyền hàng đầu, bằng cách thiết lập các tiêu chuẩn mới về hiệu suất và đạt được sự ngang bằng về năng lực trong các lĩnh vực cụ thể. DeepSeek khẳng định rằng việc tích hợp khả năng suy luận tiên tiến với việc thực thi tác vụ tự chủ đánh dấu một bước tiến vượt bậc về kiến trúc cho nền tảng của họ, chứng minh rằng các hệ thống mã nguồn mở vẫn giữ vững vị thế cạnh tranh mạnh mẽ so với các mô hình nguồn đóng dẫn đầu từ Thung lũng Silicon.
Đột phá công nghệ cốt lõi đằng sau hiệu suất vượt trội này chính là cơ chế DeepSeek Sparse Attention (DSA). Sự đổi mới về kiến trúc này giúp giảm đáng kể độ phức tạp tính toán vốn thường đi kèm với việc xử lý các ngữ cảnh dài. Nhờ đó, mô hình có thể duy trì tốc độ suy luận nhanh chóng trong khi chi phí tính toán được cắt giảm đáng kể. Đây thực sự là một bước đi thông minh, giúp tối ưu hóa nguồn lực mà không làm suy giảm chất lượng đầu ra.
Phiên bản chính, DeepSeek-V3.2, tận dụng kiến trúc DSA này và mở rộng dựa trên khả năng sử dụng công cụ đã được giới thiệu trong phiên bản V3.1. Phiên bản mới này hỗ trợ việc sử dụng các công cụ bên ngoài, bao gồm bộ thực thi mã, máy tính và công cụ tìm kiếm. Điều này mang lại sự linh hoạt cao thông qua cả hai chế độ hoạt động là 'suy nghĩ' (thought) và 'không suy nghĩ' (no-thought). Mô hình thể hiện hiệu suất ấn tượng trong các thử thách lập trình thực tế như SWE-bench Verified và được cộng đồng đánh giá rất cao trong các môi trường cạnh tranh. Điều này khẳng định vị thế của nó trong nhóm hiệu năng cao dành cho các tác vụ cân bằng tổng quát.
Trong khi đó, phiên bản chuyên biệt hơn, DeepSeek-V3.2-Speciale, được thiết kế để đạt hiệu suất đỉnh cao trong các phép tính toán học phức tạp và các thử thách suy luận đa bước kéo dài. DeepSeek tuyên bố rằng phiên bản Speciale này đạt được các chỉ số hiệu suất tương đương với Gemini-3 Pro của Google trong các đánh giá suy luận chuyên biệt. Đây là một thành tựu đáng nể, cho thấy sự đầu tư nghiêm túc vào chiều sâu học thuật của mô hình.
Hơn nữa, công ty báo cáo rằng DeepSeek-V3.2-Speciale đã đạt được hiệu suất cấp vàng trên các bộ dữ liệu chuẩn mô phỏng các phiên bản năm 2025 của các cuộc thi toàn cầu danh giá, bao gồm Kỳ thi Olympic Toán học Quốc tế (IMO) và Olympic Tin học Quốc tế (IOI). Đây là minh chứng rõ ràng cho khả năng xử lý các vấn đề logic và thuật toán ở cấp độ cao nhất. Việc tiếp cận DeepSeek-V3.2-Speciale với khả năng tính toán cao hiện đang được giới hạn thông qua một điểm cuối API tạm thời cho đến ngày 15 tháng 12 năm 2025, cho thấy giai đoạn triển khai có kiểm soát. Ngược lại, mô hình V3.2 tiêu chuẩn đã sẵn sàng ngay lập tức thông qua đơn đăng ký và giao diện web.
Tốc độ phát triển AI đang tăng nhanh này báo hiệu một xu hướng rõ ràng: các khuôn khổ mã nguồn mở đang nhanh chóng trở nên cạnh tranh về mặt chức năng với các hệ thống độc quyền trong các lĩnh vực phức tạp. Sự kiện ra mắt này không chỉ là một bản cập nhật sản phẩm; nó là một lời khẳng định mạnh mẽ về vị thế của cộng đồng mã nguồn mở trong cuộc đua AI toàn cầu.
Nguồn
Gestión
DeepSeek - Wikipedia
DeepSeek-V3.2 Release
2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community
DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint
DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE
Đọc thêm tin tức về chủ đề này:
Bạn có phát hiện lỗi hoặc sai sót không?
Chúng tôi sẽ xem xét ý kiến của bạn càng sớm càng tốt.
