Icono del sitio IT&ライフハックブログ|学びと実践のためのアイデア集

¿Qué es Rakuten AI 3.0? Una guía clara y completa sobre el último LLM de Rakuten que impulsa la IA japonesa práctica

black computer motherboard

Photo by Pixabay on Pexels.com

¿Qué es Rakuten AI 3.0? Una guía clara y completa sobre el último LLM de Rakuten que impulsa la IA japonesa práctica

El 17 de marzo de 2026, Rakuten Group anunció el lanzamiento de “Rakuten AI 3.0”, un modelo de IA de alto rendimiento descrito como uno de los más grandes de su tipo en Japón. Tras su anuncio inicial de desarrollo en diciembre de 2025 y sus mejoras posteriores, ahora ha pasado a una publicación pública completa y sin costo. Como un modelo de lenguaje de gran escala optimizado para japonés, está diseñado con un fuerte énfasis en casos de uso como redacción, generación de código, análisis de documentos y extracción de información, y está llamando la atención como un modelo que podría llevar el uso de la IA generativa por parte de las empresas japonesas a una fase mucho más práctica.

Este artículo será especialmente útil para lectores como personal de TI corporativo que quiere introducir una IA generativa con gran capacidad en japonés en operaciones empresariales, equipos de DX que consideran una base de IA interna, departamentos legales, de RR. HH. y de administración general que manejan grandes volúmenes de documentos en japonés y normativas nacionales, desarrolladores que buscan un modelo abierto orientado a Japón que pueda integrarse en aplicaciones personalizadas, y profesionales de negocios que quieren entender con claridad la diferencia entre “un servicio como ChatGPT” y “un modelo de IA que una empresa puede operar por sí misma”. En lugar de simplemente seguir el tema porque aparece en las noticias, este artículo está organizado desde una perspectiva práctica para quienes quieren juzgar si realmente se puede usar.

Para decir la conclusión primero, el valor de Rakuten AI 3.0 radica en el hecho de que Rakuten ha publicado de forma abierta un modelo a gran escala fuerte en japonés bajo una licencia relativamente fácil de manejar. Según el anuncio oficial de Rakuten, este modelo es un modelo Mixture of Experts (MoE) con aproximadamente 700 mil millones de parámetros desarrollado como parte del proyecto GENIAC, y obtuvo puntuaciones altas en los principales benchmarks en japonés. Además, como se ofrece bajo la licencia Apache 2.0, las empresas y los desarrolladores pueden evaluarlo, mejorarlo e integrarlo con mayor facilidad. En otras palabras, Rakuten AI 3.0 debe verse no simplemente como “la IA interna de Rakuten”, sino como un modelo fundacional disponible públicamente pensado para un uso real en lengua japonesa.

El contexto de Rakuten AI 3.0: ¿Por qué Rakuten está lanzando ahora un modelo a gran escala?

Para entender Rakuten AI 3.0, es esencial observar “GENIAC” (Generative AI Accelerator Challenge), impulsado por el Ministerio de Economía, Comercio e Industria de Japón y NEDO. GENIAC es un proyecto nacional destinado a fortalecer la capacidad de Japón para desarrollar modelos fundacionales de IA generativa, mediante apoyo al acceso a recursos computacionales y asistencia al desarrollo. Rakuten ha estado desarrollando su modelo dentro de este marco. Lo que esto muestra es que Rakuten AI 3.0 no es un experimento corporativo aislado, sino un proyecto nacido dentro de un movimiento más amplio para reforzar la base doméstica de IA de Japón.

En todo el Grupo Rakuten, la IA no se trata como un negocio nuevo aislado, sino como un pilar central de la estrategia de toda la empresa. Rakuten impulsa el concepto de “AI-nization”, dejando clara su intención de expandir la IA a una amplia gama de servicios, incluidos compras, finanzas, viajes y entretenimiento. Para una empresa con operaciones en 30 países y regiones, más de 70 servicios y más de 2 mil millones de usuarios de servicios, la IA sirve como una capa común para crear nuevo valor. La forma más fácil de entender Rakuten AI 3.0 es como uno de los cimientos que sostienen esa visión más amplia.

Desde una perspectiva práctica, este contexto también refleja problemas especialmente comunes entre las empresas japonesas. Muchas compañías quieren usar IA generativa, pero se enfrentan a problemas como “el japonés suena poco natural”, “es difícil manejar documentos internos”, “queremos reducir la dependencia de APIs externas” y “es difícil equilibrar costo y gobernanza”. Rakuten AI 3.0 parece ofrecer una respuesta a estas preocupaciones desde ambos lados: rendimiento en japonés y apertura. Parece estar orientado a llenar vacíos operativos que no son fáciles de resolver simplemente usando modelos punteros extranjeros tal como están.

Especificaciones básicas de Rakuten AI 3.0: los puntos clave que conviene entender primero

En el anuncio oficial de Rakuten del 17 de marzo de 2026, Rakuten AI 3.0 se describe como un modelo que usa una “arquitectura Mixture of Experts (MoE) optimizada para japonés con aproximadamente 700 mil millones de parámetros”. MoE es un diseño en el que no todos los pesos se activan por completo en todo momento; en su lugar, solo se seleccionan y usan los “expertos” necesarios para cada entrada. Como resultado, se conoce como una estructura que puede equilibrar rendimiento y eficiencia computacional incluso a una escala muy grande. En el anuncio de desarrollo de diciembre de 2025, el modelo fue descrito como poseedor de unos 700B parámetros totales y unos 40B parámetros activos.

Mientras tanto, la model card publicada en Hugging Face indica que los parámetros totales son 671B, los parámetros activados por token son 37B y la longitud de contexto es 128K. Este es un punto que vale la pena observar con atención. Es razonable interpretar la comunicación oficial de Rakuten como cifras redondeadas como “unos 700 mil millones” y “unos 40 mil millones”, mientras que la model card ofrece cifras más exactas como “671B” y “37B”. Al mencionar estos números en artículos o explicaciones internas, es útil evitar malentendidos indicando ambos: “el anuncio oficial de Rakuten dice aproximadamente 700 mil millones, mientras que la model card pública indica 671B”.

Los idiomas compatibles son japonés e inglés. Sin embargo, el núcleo de su valor reside claramente en su optimización para japonés. Rakuten explica que el modelo fue desarrollado utilizando sus propios datos bilingües de alta calidad, capacidades técnicas y resultados de investigación, y destaca como fortaleza la comprensión de matices, cultura y convenciones propias del japonés. Desde la perspectiva del uso empresarial, lo que importa no es simplemente si el modelo puede responder en japonés, sino si es adecuado para los tipos de tareas pesadas pero a menudo poco vistosas que ocurren en organizaciones reales, como aprobaciones internas, asistencia contractual, creación de FAQ, resumen, extracción y clasificación. En ese sentido, Rakuten AI 3.0 puede verse como un modelo con una filosofía de diseño estrechamente alineada con la realidad de los lugares de trabajo japoneses.

¿Qué lo hace impresionante? Capacidades reveladas a través de benchmarks en japonés

La razón más importante por la que Rakuten AI 3.0 está atrayendo atención es por los resultados de benchmark que Rakuten ha publicado. En el anuncio del 17 de marzo de 2026, la empresa presentó comparaciones en varias métricas, incluyendo JamC-QA, MMLU-ProX (japonés), MATH-100 (japonés) y M-IFEval (japonés). Rakuten AI 3.0 obtuvo 76,9 en JamC-QA, 71,7 en MMLU-ProX (japonés), 86,9 en MATH-100 (japonés) y 72,1 en M-IFEval (japonés). Como punto de comparación, el mismo anuncio mostró que gpt-4o obtuvo 74,7, 64,9, 75,8 y 67,3, respectivamente.

Lo importante al leer estas cifras no es interpretarlas como que significa “el más fuerte del mundo en todo”. Los benchmarks son comparaciones bajo condiciones específicas de evaluación, y en operaciones reales importan muchos factores, como controles de seguridad, velocidad de respuesta, costo de inferencia, integración con herramientas, integración con datos internos y estabilidad en contextos largos. Aun así, es significativo que el modelo haya mostrado resultados de alto nivel en múltiples indicadores relacionados con conocimiento en japonés, razonamiento, matemáticas y seguimiento de instrucciones. Esto es especialmente relevante porque las fortalezas en estas áreas suelen estar directamente vinculadas a la facilidad de uso en tareas prácticas, como el manejo de documentos empresariales en japonés y tareas que requieren un cumplimiento fino de las instrucciones.

En el anuncio de diciembre de 2025, Rakuten también informó una puntuación de 8,88 en la versión japonesa de MT-Bench, superando el 8,67 de gpt-4o. Además, la empresa destacó mejoras con respecto a Rakuten AI 2.0 y Rakuten AI 7B. Lo que esto sugiere es que Rakuten AI 3.0 no es simplemente un modelo sucesor más grande, sino uno que ha sido refinado con gran atención a la calidad del diálogo y la capacidad de seguir instrucciones. En el uso empresarial interno especialmente, no basta con que un modelo produzca japonés natural; también necesita mantenerse alineado con la intención del usuario, mostrar menos variación en la expresión y formatear las salidas de acuerdo con instrucciones de negocio. Reforzar esas cualidades tiene una gran importancia práctica.

Por ejemplo, incluso con la misma instrucción, como “Resume el acta de la reunión de ventas y divídela en decisiones tomadas, asuntos pendientes y tareas por responsable”, un modelo con una optimización débil para japonés puede producir una granularidad inconsistente en los encabezados, no separar claramente las responsabilidades o hacer elecciones poco naturales en el estilo honorífico. El valor de Rakuten AI 3.0 reside en hasta qué punto puede reducir ese tipo de incomodidades sutiles y acercarse a un nivel de calidad en el que su salida pueda usarse directamente como borrador empresarial. Los benchmarks sirven como un punto de entrada que muestra esa posibilidad, y en ese sentido son bastante significativos.

¿Para qué tipos de casos de uso es bueno? Escenarios prácticos por función empresarial

Según la explicación oficial de Rakuten, Rakuten AI 3.0 sobresale en una amplia gama de tareas de procesamiento de texto, como redacción, generación de código, análisis de documentos y extracción. Si se interpreta esto en el contexto de lugares de trabajo reales, el abanico de posibles casos de uso es bastante amplio. Parece especialmente adecuado para trabajo que se sitúa entre tareas rutinarias fijas y tareas totalmente no estructuradas. En otras palabras, encaja muy bien en trabajo “semiestructurado” que es difícil de automatizar por completo, pero en el que la preparación y la generación de borradores pueden marcar una gran diferencia.

Por ejemplo, en departamentos de relaciones públicas o marketing, los casos de uso probables incluyen primeros borradores de descripciones de productos, variaciones de copy publicitario, borradores de FAQ, anuncios de campañas, resúmenes de reseñas y tablas iniciales de comparación con competidores. En RR. HH., podría ayudar con el formateo de descripciones de puestos, el resumen de notas de entrevistas, la redacción de preguntas y respuestas sobre políticas internas y la reestructuración de materiales de capacitación. En legal y administración general, puede ser útil para extraer cláusulas de contratos, organizar cuestiones en normativas internas, resumir diferencias entre múltiples documentos y clasificar consultas en la primera etapa. En equipos de desarrollo, los usos realistas incluyen generación y completado de código, generación de código de ejemplo a partir de especificaciones, resumen de puntos clave en logs y redacción de explicaciones para funciones existentes.

Veamos un ejemplo concreto. Supongamos que una empresa de comercio electrónico quiere crear plantillas de respuesta para un chatbot de atención al cliente basadas en tres documentos internos: una política de devoluciones, condiciones de entrega y beneficios para miembros. Un modelo fuerte en japonés como Rakuten AI 3.0 probablemente encajaría muy bien aquí. Si la empresa proporciona esos documentos de normas internas como entrada y especifica condiciones como “usar estilo cortés”, “evitar afirmaciones demasiado concluyentes”, “enumerar las condiciones excepcionales en viñetas” y “si la base no está clara, detenerse y pedir confirmación”, se vuelve más fácil equilibrar la precisión de la generación de FAQ con la legibilidad. Este estilo de uso no se basa en la idea de “dejar que la IA generativa haga todo”, sino en la idea de “crear rápidamente borradores que los humanos puedan verificar con mayor facilidad”. En el despliegue empresarial, esa mentalidad es extremadamente importante.

También puede tener valor en entornos como gobiernos locales, instituciones educativas, departamentos administrativos en torno a hospitales y oficinas de servicios profesionales, donde se manejan grandes volúmenes de documentos en japonés y tanto la cortesía como la responsabilidad importan. Dicho esto, en ámbitos de alto riesgo como el juicio médico o el juicio legal, sería inapropiado operar aceptando la salida del modelo tal cual. Rakuten AI 3.0 es una base poderosa, pero es más seguro verlo no como una herramienta para reemplazar el juicio humano, sino como una base para organizar información y apoyar la creación de borradores.

El significado de su publicación abierta: ¿qué cambia para las empresas?

Lo que hace que Rakuten AI 3.0 sea aún más valioso es que se ofrece de forma gratuita bajo la licencia Apache 2.0. Para las empresas, esto tiene implicaciones muy prácticas. Proporciona un alto grado de libertad para uso comercial, modificación y redistribución, lo que facilita considerar su integración en sistemas internos y entrenamiento adicional. Por supuesto, en el uso real sigue siendo necesario revisar el texto de la licencia y las dependencias, pero al menos representa un gran paso adelante con respecto a la situación en la que “ni siquiera está claro si se nos permite usarlo, así que no podemos empezar la evaluación”.

Cuando se depende solo de servicios generales de IA en la nube, las empresas siempre deben preocuparse por las tarifas de API, los destinos de transmisión de datos, la retención de logs, el impacto de cambios en los términos de uso y los reemplazos de modelo. En contraste, los modelos abiertos ofrecen más margen para operar en el propio entorno de la empresa, en infraestructura de nube nacional o en bases dedicadas y seguras. Esta diferencia puede determinar directamente si la adopción es posible, especialmente para departamentos que manejan documentos difíciles de enviar fuera de la organización. Rakuten AI 3.0 puede verse como un modelo que responde directamente a las necesidades de empresas que quieren “usar un LLM japonés de alto rendimiento mientras lo evalúan y controlan internamente”.

Por ejemplo, en sectores como finanzas, seguros, telecomunicaciones, servicios públicos y manufactura a gran escala, la barrera para introducir IA generativa suele no ser el rendimiento en sí, sino la gobernanza y la responsabilidad. Si un modelo solo existe detrás de una API externa, puede ser difícil avanzar debido a revisiones de seguridad y requisitos de auditoría. Con un modelo abierto, en cambio, se vuelve más fácil diseñar sistemas adaptados a requisitos internos, incluyendo búsqueda interna, RAG, control de permisos, logs de auditoría, filtrado de palabras prohibidas y plantillas de salida controladas. Rakuten AI 3.0 llama la atención no solo por su fortaleza técnica, sino porque incrementa la libertad de implementación empresarial.

Pero no lo sobrestimes: precauciones importantes antes de adoptarlo

Un punto muy importante es que, aunque Rakuten AI 3.0 es un modelo excelente, no está libre de las limitaciones fundamentales de la IA generativa. La model card pública también indica claramente que pueden surgir sesgos, inexactitudes y problemas de seguridad, y que en la operación se requieren suficientes precauciones y guardrails. Esto no es exclusivo de Rakuten AI 3.0; es una propiedad compartida por los modelos de lenguaje de gran escala en general. En otras palabras, alto rendimiento y corrección permanente son dos cosas diferentes.

Hay tres puntos especialmente importantes a vigilar en el uso empresarial. Primero, el error factual. Los modelos pueden equivocarse en el japonés más natural y con la mayor confianza aparente, por lo que la verificación humana es esencial en áreas donde la precisión importa, como contratos, medicina, contabilidad, regulación, relaciones con inversores y periodismo. Segundo, la fuga de información. Incluso con un modelo abierto, pueden surgir problemas en el manejo de información confidencial si el diseño de tratamiento de datos de entrada, los entornos de inferencia o el almacenamiento de logs es inadecuado. Tercero, no asumir que la ingeniería de prompts por sí sola puede elevar completamente la calidad. En la práctica real, el preprocesamiento de entrada, el control basado en reglas, la limitación de documentos de referencia, los formatos de salida fijos y el diseño del flujo de revisión son todos cruciales.

Por ejemplo, en uso interno, en lugar de dar un prompt vago como “Extrae solo los problemas importantes de estas actas de reunión que importan para decisiones de dirección”, es más estable imponer restricciones como “Limita los problemas a tres o menos, cita texto de respaldo del original y no escribas especulaciones”. Además, simplemente usar RAG para limitar las fuentes de referencia y exigir que la salida incluya el nombre del documento fuente al final puede mejorar significativamente la utilidad práctica. Cuanto más potente sea el modelo, como Rakuten AI 3.0, más resultados vendrán de “diseñar la operación” en lugar de “dejarlo a la inteligencia del modelo”.

¿En qué se diferencia de otras IA? Puntos de comparación que los usuarios deben entender

Un punto que los usuarios pueden confundir fácilmente es que “Rakuten AI” y “Rakuten AI 3.0” pueden parecer que significan lo mismo. El primero puede usarse en el contexto de la estrategia global de IA de Rakuten o de experiencias de IA usadas en todos sus servicios, incluida funcionalidad tipo agente. Rakuten AI 3.0, en cambio, se refiere específicamente al modelo fundacional de lenguaje de gran escala dentro de ese contexto más amplio. Dicho de otro modo, Rakuten AI 3.0 está más cerca del “motor” que respalda servicios conversacionales y aplicaciones empresariales que del “servicio conversacional en sí”.

También es necesario separar fortalezas y debilidades al compararlo con IA pulidas de estilo SaaS como ChatGPT. Las ofertas de estilo SaaS suelen adoptarse rápidamente, tienen interfaces de usuario bien desarrolladas y pueden incluir soporte maduro para voz, imágenes e integración de herramientas. Por otro lado, el propio modelo suele ser una caja negra, y el control fino o la modificación personalizada pueden ser difíciles. Los modelos abiertos como Rakuten AI 3.0 son lo contrario: requieren más esfuerzo en diseño operativo y configuración del entorno, pero su atractivo reside en una adaptación más fácil a necesidades empresariales japonesas y requisitos específicos de cada empresa. Es mejor no preguntarse cuál es superior en general, sino cuál se adapta mejor a un propósito concreto.

Por ejemplo, una empresa que quiere distribuir IA generativa a todos los departamentos en pocos días probablemente estará mejor servida primero por un producto de estilo SaaS. En cambio, si la prioridad es búsqueda de documentos internos, asistentes específicos por departamento, integración con flujos de trabajo personalizados, operación tipo on-premises o fine-tuning especializado para uso empresarial nacional, entonces el valor de un modelo abierto como Rakuten AI 3.0 se vuelve mucho mayor. Si la adopción comienza sin aclarar esta comparación, es probable que surjan malentendidos como “no es tan fácil de usar como esperábamos” o “no es tan flexible como pensábamos”.

¿Quién debería considerar Rakuten AI 3.0?

Las organizaciones que probablemente más se beneficien son aquellas que manejan grandes cantidades de documentos en japonés y quieren integrar la IA profundamente en sus procesos empresariales. En concreto, esto incluye empresas medianas y grandes que buscan mejorar la búsqueda interna de conocimiento, compañías de comercio electrónico, telecomunicaciones y finanzas que buscan mejorar la generación de FAQ y la gestión de consultas de primera línea, equipos de back-office que quieren reducir la carga de organizar documentos legales, de RR. HH. y de administración general, y empresas de software que buscan construir aplicaciones de IA personalizadas. Es probable que sea una opción especialmente atractiva para lugares de trabajo que han sentido que los modelos centrados en inglés todavía “no terminan de encajar” para el trabajo en japonés.

Por otro lado, no necesariamente es la mejor opción inmediata para todos los usuarios. Para personas que simplemente quieren conversación casual, o que quieren usar de inmediato generación de imágenes, navegación e interacción por voz al mismo tiempo, los servicios listos para consumo suelen ser más fáciles de entender y usar. Precisamente porque Rakuten AI 3.0 es valioso como modelo en sí mismo, requiere cierto nivel de comprensión y preparación organizativa por parte de quienes lo adoptan. En otras palabras, es menos para quienes buscan una aplicación conveniente y más para quienes quieren usar la IA como infraestructura.

Una guía útil es si una organización puede identificar al menos diez problemas internos que la IA generativa podría mejorar. Estos podrían incluir organización de actas de reuniones, resumen de consultas, integración de información de productos, formateo de especificaciones, asistencia con código, búsqueda de regulaciones y redacción de informes. Si ya son visibles múltiples problemas empresariales de este tipo, entonces ciertamente vale la pena evaluar Rakuten AI 3.0 como base central. En cambio, adoptarlo solo porque es un tema de moda puede llevar a expectativas excesivamente altas y a un mal uso a largo plazo.

Qué observar a partir de ahora: ¿hacia dónde se dirige el foco competitivo de la IA japonesa?

Lo que sugiere la llegada de Rakuten AI 3.0 es que la competencia en la IA japonesa está pasando de la etapa de “simplemente construir un modelo más grande” a la etapa de “si es fácil de implementar en empresas” y “si realmente es útil en entornos laborales japoneses”. Lo principal que hay que observar después no son solo las actualizaciones de benchmarks. La compatibilidad con RAG, la estabilidad en contexto largo, la reproducibilidad en el procesamiento de documentos internos, la facilidad de entrenamiento adicional, el costo de inferencia, la preparación del entorno de inferencia y la integración con sistemas basados en agentes probablemente configurarán la evaluación práctica.

Otro punto importante es el potencial de difusión del modelo como base abierta. Una vez que un modelo se publica públicamente, desarrolladores y empresas externos pueden compartir resultados de evaluación, y se vuelven más probables usos derivados como optimización de inferencia, destilación, entrenamiento continuo y ajuste específico por industria. En ese punto, Rakuten AI 3.0 empieza a tener valor no solo como logro propio de Rakuten, sino como infraestructura común para el desarrollo de IA japonesa. También en ese sentido, esta publicación pública es significativa porque puede enriquecer el ecosistema japonés de LLM.

Personalmente, siento que la verdadera evaluación de Rakuten AI 3.0 no se decidirá por “especificaciones impresionantes”, sino por “cuánto mejora el tiempo de trabajo y la calidad en los lugares de trabajo que lo adoptan”. Por ejemplo, si puede reducir a la mitad la etapa previa de revisión en trabajo legal, reducir significativamente el esfuerzo necesario para crear FAQ, elevar la tasa de autoservicio en la resolución de consultas internas o reducir trabajo rutinario en equipos de desarrollo. Solo cuando se acumulen resultados concretos como esos el valor de los LLM japoneses se volverá realmente real. Rakuten AI 3.0 es un modelo que sugiere esa posibilidad a un nivel muy alto.

Resumen

Rakuten AI 3.0 es un modelo de lenguaje de gran escala optimizado para japonés desarrollado por Rakuten como parte del proyecto GENIAC y lanzado el 17 de marzo de 2026. Según el anuncio oficial, es un modelo MoE con aproximadamente 700 mil millones de parámetros, logró puntuaciones altas en benchmarks en japonés y fue publicado abiertamente de forma gratuita bajo la licencia Apache 2.0. Este es un gran paso adelante para empresas y desarrolladores que habían estado buscando un LLM fuerte, abierto y en japonés.

Lo especialmente importante es que su valor no reside simplemente en “ser nacional”, sino en si es fácil de usar para trabajo empresarial en japonés, fácil de implementar según requisitos específicos de cada empresa y posible de operar bajo un control adecuado. Más que competir directamente con IA de estilo SaaS, es mejor entenderlo como una base para uso empresarial interno y desarrollo de aplicaciones personalizadas en empresas japonesas. Para lugares de trabajo que buscan equilibrar calidad en japonés y libertad de implementación en casos de uso como redacción, generación de código, análisis de documentos y extracción, parece probable que se convierta en uno de los principales candidatos.

Al mismo tiempo, como modelo de IA generativa, sigue arrastrando cuestiones como errores, sesgos y preocupaciones de seguridad. En el despliegue, los resultados dependerán no solo de la capacidad bruta del modelo, sino también de la preparación operativa, como limitar la información de referencia, establecer guardrails, diseñar procesos de revisión y diseñar auditorías. Rakuten AI 3.0 no es una caja mágica, pero sí una base muy realista y poderosa para usar realmente IA japonesa en negocios. Para quienes quieren comparar seriamente opciones en IA generativa japonesa, es justo decir que este es un modelo que vale la pena revisar ahora mismo.

Enlaces de referencia

Salir de la versión móvil