Gate News Noticias, el 17 de marzo, Rakuten Group anunció hoy el lanzamiento de Rakuten AI 3.0 bajo el nombre de “el modelo de IA de alto rendimiento más grande de Japón”, y lo liberó de forma gratuita bajo la licencia Apache 2.0. Este modelo tiene una arquitectura MoE (mezcla de expertos), con un total de 671 mil millones de parámetros, 37 mil millones activados en cada inferencia, una ventana de contexto de 128K y está optimizado para japonés, superando a GPT-4o en varias pruebas de referencia en japonés. El modelo es resultado del proyecto GENIAC, promovido conjuntamente por el Ministerio de Economía, Comercio e Industria de Japón y la Agencia de Desarrollo de Tecnologías para la Industria de Energía Nueva (NEDO), y cuenta con financiamiento parcial del gobierno japonés para su entrenamiento. En el anuncio, Rakuten describió la fuente del modelo base como “aprovechando al máximo los logros de la comunidad de código abierto”, sin mencionar un modelo específico. La comunidad revisó los archivos del modelo publicados en HuggingFace y encontró que en config.json se indica claramente model_type: deepseek_v3 y architectures: DeepseekV3ForCausalLM, con un total de 671B parámetros, 37B activados y una ventana de contexto de 128K, coincidiendo completamente con DeepSeek V3, lo que indica que este modelo fue ajustado en japonés a partir de DeepSeek V3.