Microsoft impulsa su línea de modelos de lenguaje pequeños

Microsoft impulsa su línea de modelos de lenguaje pequeños

Microsoft ha reforzado su oferta en el campo de la Inteligencia Artificial con la incorporación de tres nuevos modelos de lenguaje pequeños (SLM, por sus siglas en inglés) a su serie Phi.

Los modelos Phi-4-reasoning, Phi-4-reasoning-plus y Phi-4-mini-reasoning están diseñados para ejecutar tareas complejas de razonamiento, logrando un equilibrio notable entre eficiencia y rendimiento, incluso en dispositivos con recursos limitados.

Estos nuevos modelos destacan por su capacidad para abordar problemas matemáticos y responder preguntas científicas con un nivel de competencia comparable al de modelos de gran tamaño. Con esta evolución, la compañía redefine las posibilidades que ofrecen los modelos compactos, ofreciendo alternativas viables y potentes para aplicaciones que requieren respuestas complejas.

Modelos compactos con grandes capacidades

Los modelos Phi-4-reasoning han sido entrenados específicamente para realizar tareas que requieren descomposición en varios pasos y reflexión interna, técnicas clave en procesos de razonamiento complejos. Según ha señalado Microsoft a través de su blog oficial, estos modelos utilizan técnicas avanzadas de destilación, aprendizaje por refuerzo y datos seleccionados con precisión, lo que les permite generar cadenas lógicas detalladas y eficientes en tiempo de inferencia.

El modelo Phi-4-reasoning cuenta con 14.000 millones de parámetros y se apoya en ejemplos cuidadosamente seleccionados del modelo o3-mini de OpenAI para mejorar su capacidad de descomposición y razonamiento paso a paso. A su vez, Phi-4-reasoning-plus amplía estas capacidades gracias a un entrenamiento más intensivo con mayor número de tokens, lo que se traduce en una mejora significativa en la precisión y calidad de las respuestas.

Eficiencia para entornos limitados

Junto a estos modelos, Microsoft también ha presentado Phi-4-mini-reasoning, un modelo de menor tamaño que se orienta especialmente a tareas de razonamiento matemático. Este modelo ha sido optimizado para su funcionamiento en entornos con limitaciones de cómputo o latencia, como dispositivos móviles o sistemas edge. Para lograrlo, ha sido entrenado con datos sintéticos generados por el modelo Deepseek-R1, lo que permite mantener un equilibrio entre rendimiento y eficiencia.

La compañía tecnológica ha destacado que estos nuevos modelos no solo compiten con soluciones más grandes, sino que en muchos casos superan a modelos comparables como o1-mini de OpenAI o DeepSeek-R1-Distill-Llama-70B en pruebas de referencia en matemáticas, codificación, planificación y resolución algorítmica.

Disponibilidad en plataformas especializadas

Los modelos Phi-4-reasoning, Phi-4-reasoning-plus y Phi-4-mini-reasoning ya están disponibles para su uso a través de Azure AI Foundry y Hugging Face, lo que facilita su integración en proyectos y productos de inteligencia artificial. Esta nueva línea refuerza el compromiso de Microsoft con el desarrollo de IA más accesible, potente y eficiente, adaptada a diferentes tipos de entornos y necesidades operativas.

Publish the Menu module to "offcanvas" position. Here you can publish other modules as well.
Learn More.