Mascota Jacar — leyendo contigo Un portátil cuyos ojos siguen el cursor mientras lees.
Arquitectura Tecnología

Cloudflare Workers en 2024: KV, D1 y la nueva pila edge

Cloudflare Workers en 2024: KV, D1 y la nueva pila edge

Actualizado: 2026-05-03

Cloudflare Workers pasó de ser una edge function aislada a convertirse en una plataforma edge completa durante 2023-2024. El stack actual combina Workers (compute) + KV (clave-valor global) + D1 (SQLite distribuida) + R2 (object storage compatible con S3) + Durable Objects (stateful) + Queues + Workers AI (inferencia GPU en el edge). Este artículo analiza cuándo ese stack compite seriamente con AWS y cuándo sigue siendo AWS la opción correcta.

Puntos clave

  • V8 isolates con cold start inferior a 5 ms dan latencia p50 menor de 50 ms al usuario desde cualquiera de los más de 330 PoPs.
  • R2 elimina los cargos de egress — la ventaja de coste más diferencial frente a S3.
  • D1 (SQLite en edge) alcanzó GA en 2024 y cubre bien apps CRUD de tamaño pequeño a medio.
  • Durable Objects son el primitivo correcto para WebSockets persistentes, rate limiting global y apps colaborativas.
  • La limitación de 30 s por request bloquea compute de larga duración — ese es el límite estructural más importante.

Los componentes del stack

Workers — compute

  • V8 isolates, cold start inferior a 5 ms.
  • Más de 330 PoPs globales.
  • Precio base de 5 USD/mes, 0,30 USD por millón de requests.
  • JavaScript, TypeScript, Rust (vía Wasm) y Python en beta.

KV — clave-valor global

  • Consistencia eventual; latencia de lectura en milisegundos.
  • Caso de uso natural: caché distribuida, session tokens.

D1 — SQLite en edge

  • SQLite con replicación. SQL completo. GA desde 2024.
  • Precio basado en filas leídas y escritas.
  • Caso de uso: apps CRUD small-mid. Escritura centralizada, réplicas de lectura en cada PoP.

R2 — object storage

  • Compatible con la API S3. Sin cargos de egress — ventaja masiva frente a AWS S3.
  • Aproximadamente 0,015 USD/GB/mes.
  • Caso de uso: imágenes, vídeos, archivos estáticos.

Durable Objects

  • Compute stateful en el edge. Consistencia fuerte por objeto. WebSockets persistentes.
  • Caso de uso: chat rooms, apps colaborativas, rate limiting global.

Workers AI

  • Inferencia LLM en GPU edge (Llama, Mistral y otros). Precio por token.
  • Caso de uso: chatbots, resúmenes, generación de imagen.

Cloudflare vs AWS para el edge

Aspecto Cloudflare AWS
Regiones 330+ PoPs ~30 regiones
Cold start <5 ms 100 ms+ (Lambda)
Egress Gratis (R2) 0,09 USD/GB
DB edge D1 (SQLite) — (DynamoDB Global es diferente)
Límite de ejecución 30 s 15 min (Lambda)
Ecosistema Creciendo Maduro y masivo

Cloudflare gana en edge simple, latencia y coste de egress. AWS gana en ecosistema enterprise, managed databases maduras y workloads de compute intensivo o larga duración. El artículo de Fastly Compute cubre cómo otro proveedor aborda el mismo espacio con contratos enterprise más maduros.

Casos donde encaja Cloudflare

  • APIs edge globales: usuario cerca de cualquier PoP, latencias menores de 20 ms.
  • Sites Next.js / Astro / SvelteKit: ver SvelteKit 1.0 y su adopción real para la integración con adapter-cloudflare.
  • Chat apps: Durable Objects con WebSockets persistentes son exactamente para esto.
  • Optimización de imágenes en edge: Workers + R2 elimina el round-trip al origen.
  • Rate limiting global: Durable Objects con consistencia fuerte por objeto.
  • Prototipos rápidos: setup en minutos, coste negligible en volúmenes bajos.

Casos donde AWS sigue ganando

  • Compute intensivo o largo: Lambda admite hasta 15 minutos; Workers tiene límite de 30 s.
  • Managed DBs maduras: RDS PostgreSQL frente a D1, que es joven.
  • Streaming de datos: Kinesis, MSK.
  • Plataformas de ML: SageMaker.
  • IAM complejo: el modelo de permisos de AWS es mucho más rico.

Deployment con Wrangler

bash
npm install -g wrangler
wrangler login

# Crear worker
wrangler init my-app

# Desplegar
wrangler deploy

# Ver logs en tiempo real
wrangler tail

Despliegue en segundos. Sin contenedores, sin buckets que configurar primero.

Workers AI en práctica

typescript
export default {
  async fetch(request, env) {
    const response = await env.AI.run("@cf/meta/llama-3-8b-instruct", {
      messages: [{ role: "user", content: "Hola" }],
    });
    return Response.json(response);
  },
};

Inferencia LLM con latencia menor de 1 s en el edge. Sin gestión de GPU. Precio por token. Complementa arquitecturas donde el modelo principal es accesible vía LiteLLM o proxies LLM para gestionar múltiples proveedores.

Limitaciones honestas

  • 30 s máximo por request: no hay compute de larga duración.
  • Réplicas D1 de solo lectura: la escritura sigue siendo centralizada.
  • Durable Objects: concurrencia limitada por objeto.
  • Python en beta: no apto para producción sin validación previa.
  • Depuración menos rica que entornos serverful.
  • Límite de bundle (~1-10 MB según plan).

Precios reales

App mediana (1 M usuarios/mes, 10 M requests):

  • Workers: 5 USD base + negligible.
  • KV (1 M lecturas): 0,50 USD.
  • D1 (1 M lecturas): ~1 USD.
  • R2 (10 GB almacenamiento): 0,15 USD.
  • Total aproximado: ~10 USD/mes.

El equivalente en AWS suele moverse entre 50 y 200 USD/mes con carga similar.

Conclusión

El stack edge de Cloudflare en 2024 es una alternativa real a AWS para muchos casos. Para aplicaciones edge-native — globales, sensibles a la latencia, complejidad media — es más simple, barato y rápido de operar. Para workloads enterprise con compliance complejo, ecosistemas específicos o compute intensivo, AWS sigue siendo la opción principal. La brecha se cierra cada mes: vale la pena evaluar Cloudflare para proyectos nuevos antes de tomar AWS como default.

¿Te ha resultado útil?
[Total: 13 · Media: 4.5]

Escrito por

CEO - Jacar Systems

Apasionado de la tecnología, la infraestructura cloud y la inteligencia artificial. Escribe sobre DevOps, IA, plataformas y software desde Madrid.