Rakuten Nhật Bản ra mắt AI 700 tỷ tham số, bị phát hiện dựa trên nền tảng DeepSeek V3 của Trung Quốc
Rakuten, tập đoàn thương mại điện tử hàng đầu Nhật Bản, vừa chính thức công bố mô hình ngôn ngữ lớn Rakuten AI 3.0 với quy mô khoảng 700 tỷ tham số. Mô hình này được giới thiệu là một trong những hệ thống trí tuệ nhân tạo mạnh mẽ nhất tại quốc gia mặt trời mọc, hứa hẹn mang lại bước tiến đáng kể trong cuộc đua AI toàn cầu. Tuy nhiên, ngay sau khi ra mắt, cộng đồng mã nguồn mở đã nhanh chóng phát hiện ra một sự thật gây sốc: Rakuten AI 3.0 thực chất được xây dựng dựa trên kiến trúc của DeepSeek V3 – một nền tảng AI phát triển tại Trung Quốc.
Phát hiện từ cộng đồng mã nguồn mở
Cụ thể, trong các tệp cấu hình được công bố trên nền tảng Hugging Face, mô hình của Rakuten xuất hiện trực tiếp các tham chiếu đến “deepseek_v3”, cùng với các thông số kỹ thuật trùng khớp hoàn toàn với DeepSeek V3. Điều này bao gồm kiến trúc Mixture-of-Experts (MoE) và quy mô khoảng 671 tỷ tham số, trong đó chỉ kích hoạt khoảng 37 tỷ tham số cho mỗi lần suy luận. Phát hiện này cho thấy Rakuten AI 3.0 nhiều khả năng không phải là một mô hình được phát triển hoàn toàn từ đầu, mà là kết quả của việc tinh chỉnh (fine-tune) dựa trên nền tảng có sẵn, với dữ liệu được tối ưu hóa cho tiếng Nhật và các bối cảnh nội địa.
Tranh cãi về tính minh bạch và truyền thông
Trong thế giới mã nguồn mở, việc sử dụng các mô hình có sẵn như DeepSeek – được phát hành theo giấy phép MIT – thường không phải là vấn đề lớn. Tuy nhiên, điều đáng nói là trong thông cáo ra mắt, Rakuten không đề cập cụ thể đến DeepSeek, mà chỉ mô tả mô hình của mình là sự kết hợp từ “các thành tựu tốt nhất của cộng đồng mã nguồn mở”. Cách diễn đạt này khiến nhiều người hiểu lầm rằng đây là một sản phẩm mang tính “nội địa hóa hoàn toàn”, đặc biệt khi dự án có sự hỗ trợ từ chương trình GENIAC – sáng kiến thúc đẩy AI của Bộ Kinh tế, Thương mại và Công nghiệp Nhật Bản.
Tranh cãi càng gia tăng khi cộng đồng phát hiện tệp giấy phép MIT gốc của DeepSeek – vốn yêu cầu giữ lại thông tin tác giả – đã bị loại bỏ khỏi kho mã nguồn khi Rakuten phát hành mô hình. Sau khi bị chỉ ra, công ty được cho là đã bổ sung lại thông tin này dưới một mục “NOTICE”, nhưng không giải thích rõ ràng về sự thay đổi ban đầu. Điều này làm dấy lên nhiều câu hỏi về tính minh bạch trong quá trình phát triển và truyền thông sản phẩm.
Bối cảnh và ý nghĩa rộng hơn
Sự việc diễn ra trong bối cảnh Nhật Bản đang nỗ lực xây dựng năng lực AI nội địa nhằm giảm phụ thuộc vào các công ty công nghệ nước ngoài. Dự án GENIAC, nơi Rakuten là một trong những đơn vị tham gia, được kỳ vọng sẽ tạo ra các “nhà vô địch quốc gia” trong lĩnh vực này. Tuy nhiên, việc một mô hình được quảng bá là đại diện cho năng lực trong nước lại có nền tảng từ công nghệ bên ngoài đã làm dấy lên nhiều tranh luận, không chỉ về mặt kỹ thuật mà còn liên quan đến chiến lược phát triển AI của Nhật Bản.
Đáng chú ý hơn, vào tháng 6 năm 2025, chính phủ Nhật Bản đã cấm sử dụng DeepSeek trong các bộ và cơ quan chính phủ, đồng thời khuyến cáo các tập đoàn lớn như Toyota, Mitsubishi, SoftBank tránh xa nền tảng này vì các lo ngại về an ninh. Thế nhưng, bằng việc quảng bá mô hình AI mới của Rakuten, AI DeepSeek lại gián tiếp có mặt trong môi trường công nghệ của Nhật Bản, tạo ra một nghịch lý đáng suy ngẫm.
Kết luận và bài học cho ngành AI
Về mặt kỹ thuật, Rakuten AI 3.0 vẫn được đánh giá là một mô hình có hiệu năng cao trong các bài kiểm tra liên quan đến tiếng Nhật, bao gồm hiểu biết văn hóa, suy luận và toán học. Tuy nhiên, các so sánh hiệu năng chủ yếu được thực hiện với những mô hình nhỏ hơn đáng kể, khiến kết quả trở nên khó đánh giá toàn diện. Sự việc này phản ánh một thực tế của ngành AI: trong cuộc đua toàn cầu, ranh giới giữa “tự phát triển” và “kế thừa công nghệ” ngày càng trở nên mờ nhạt. Điều này đặt ra câu hỏi không chỉ về năng lực công nghệ, mà còn về cách các doanh nghiệp định vị và truyền thông sản phẩm của mình trong một hệ sinh thái ngày càng phụ thuộc vào mã nguồn mở.



