Salvatore Sanfilippo — el ingeniero detrás de Redis, una de las bases de datos que sostienen silenciosamente medio internet — acaba de publicar algo personal y muy concreto. Se llama ds4, y es un programa pequeño que hace una sola cosa: ejecutar el modelo de IA DeepSeek V4 Flash en un MacBook con 128 GB de RAM. Sin factura mensual. Sin API. Sin que ningún dato salga de tu equipo.
Lo que lo distingue de otros proyectos de "IA local" es la precisión con la que está construido. La mayoría de estas herramientas intentan funcionar con cualquier modelo. Ésta fue diseñada exclusivamente para uno, y esa concentración se nota: va rápido y aguanta conversaciones larguísimas sin problema. Además, usa el almacenamiento interno del Mac como depósito de desbordamiento para la memoria, lo que le permite mantener un contexto enorme en una sola sesión.
Si manejas información sensible — contratos de clientes, datos financieros, estrategia interna — ejecutar la IA de forma local significa que ese material no toca los servidores de nadie más. Ni de OpenAI. Ni de Anthropic. De nadie.
Sigue siendo una herramienta para equipos técnicos, pero el hecho de que alguien con el peso de Sanfilippo la haya construido dice algo: la IA local está madurando deprisa, y la distancia entre la IA en la nube y la IA en tu propio hardware se está acortando.
Inferencia local — Ejecutar un modelo de IA en tu propio ordenador, en lugar de enviar tu texto a los servidores de una empresa y recibir una respuesta. Tus datos se quedan en casa.
Parámetros — Grosso modo, el "tamaño" del cerebro de un modelo de IA. Más parámetros suele significar más capacidad de razonamiento. 284 mil millones es territorio de frontera.
Ventana de contexto — Cuánto de una conversación puede tener en mente la IA a la vez. Una ventana de un millón de tokens significa que podrías darle un libro entero y no olvidaría el principio cuando llegue al final.
KV cache — La memoria de trabajo a corto plazo de la IA durante una conversación. Normalmente vive en la RAM; esta herramienta la vuelca en el disco para que no necesites una cantidad absurda de memoria.
Algo en lo que pensar: si una IA así de capaz puede correr en hardware que ya tienes, ¿qué cambia en cuanto a las conversaciones que estarías dispuesto a tener con ella?