NPU de nueva generación: el hardware que mueve IA en 2026

Las NPU dejaron de ser un accesorio para convertirse en el componente que define rendimiento real en portátiles, teléfonos y servidores pequeños. Repaso práctico del hardware que domina 2026, qué cargas compensan y dónde sigue ganando la GPU tradicional.

Phi-3 en el edge: el SLM de Microsoft en 2025

Phi-3 es la familia de modelos pequeños de lenguaje que Microsoft viene puliendo desde abril de 2024 con variantes de 3.800 millones, 7.000 millones y 14.000 millones de parámetros. Después de año y medio, el panorama del edge con SLM abiertos se ha vuelto serio y Phi-3 ocupa un sitio claro.

NPU para desarrolladores: qué se puede hacer ya

Las unidades de procesamiento neuronal han dejado de ser una etiqueta de marketing en portátiles Snapdragon, Apple Silicon y AMD Ryzen AI. Repaso qué se puede hacer hoy desde código, qué herramientas están maduras y cuándo compensa mirar a la NPU en lugar de la CPU o la GPU.