Cloudflare Workers en 2024: KV, D1 y la nueva pila edge
Índice de contenidos
- Puntos clave
- Los componentes del stack
- Workers — compute
- KV — clave-valor global
- D1 — SQLite en edge
- R2 — object storage
- Durable Objects
- Workers AI
- Cloudflare vs AWS para el edge
- Casos donde encaja Cloudflare
- Casos donde AWS sigue ganando
- Deployment con Wrangler
- Workers AI en práctica
- Limitaciones honestas
- Precios reales
- Conclusión
Actualizado: 2026-05-03
Cloudflare Workers pasó de ser una edge function aislada a convertirse en una plataforma edge completa durante 2023-2024. El stack actual combina Workers (compute) + KV (clave-valor global) + D1 (SQLite distribuida) + R2 (object storage compatible con S3) + Durable Objects (stateful) + Queues + Workers AI (inferencia GPU en el edge). Este artículo analiza cuándo ese stack compite seriamente con AWS y cuándo sigue siendo AWS la opción correcta.
Puntos clave
- V8 isolates con cold start inferior a 5 ms dan latencia p50 menor de 50 ms al usuario desde cualquiera de los más de 330 PoPs.
- R2 elimina los cargos de egress — la ventaja de coste más diferencial frente a S3.
- D1 (SQLite en edge) alcanzó GA en 2024 y cubre bien apps CRUD de tamaño pequeño a medio.
- Durable Objects son el primitivo correcto para WebSockets persistentes, rate limiting global y apps colaborativas.
- La limitación de 30 s por request bloquea compute de larga duración — ese es el límite estructural más importante.
Los componentes del stack
Workers — compute
- V8 isolates, cold start inferior a 5 ms.
- Más de 330 PoPs globales.
- Precio base de 5 USD/mes, 0,30 USD por millón de requests.
- JavaScript, TypeScript, Rust (vía Wasm) y Python en beta.
KV — clave-valor global
- Consistencia eventual; latencia de lectura en milisegundos.
- Caso de uso natural: caché distribuida, session tokens.
D1 — SQLite en edge
- SQLite con replicación. SQL completo. GA desde 2024.
- Precio basado en filas leídas y escritas.
- Caso de uso: apps CRUD small-mid. Escritura centralizada, réplicas de lectura en cada PoP.
R2 — object storage
- Compatible con la API S3. Sin cargos de egress — ventaja masiva frente a AWS S3.
- Aproximadamente 0,015 USD/GB/mes.
- Caso de uso: imágenes, vídeos, archivos estáticos.
Durable Objects
- Compute stateful en el edge. Consistencia fuerte por objeto. WebSockets persistentes.
- Caso de uso: chat rooms, apps colaborativas, rate limiting global.
Workers AI
- Inferencia LLM en GPU edge (Llama, Mistral y otros). Precio por token.
- Caso de uso: chatbots, resúmenes, generación de imagen.
Cloudflare vs AWS para el edge
| Aspecto | Cloudflare | AWS |
|---|---|---|
| Regiones | 330+ PoPs | ~30 regiones |
| Cold start | <5 ms | 100 ms+ (Lambda) |
| Egress | Gratis (R2) | 0,09 USD/GB |
| DB edge | D1 (SQLite) | — (DynamoDB Global es diferente) |
| Límite de ejecución | 30 s | 15 min (Lambda) |
| Ecosistema | Creciendo | Maduro y masivo |
Cloudflare gana en edge simple, latencia y coste de egress. AWS gana en ecosistema enterprise, managed databases maduras y workloads de compute intensivo o larga duración. El artículo de Fastly Compute cubre cómo otro proveedor aborda el mismo espacio con contratos enterprise más maduros.
Casos donde encaja Cloudflare
- APIs edge globales: usuario cerca de cualquier PoP, latencias menores de 20 ms.
- Sites Next.js / Astro / SvelteKit: ver SvelteKit 1.0 y su adopción real para la integración con
adapter-cloudflare. - Chat apps: Durable Objects con WebSockets persistentes son exactamente para esto.
- Optimización de imágenes en edge: Workers + R2 elimina el round-trip al origen.
- Rate limiting global: Durable Objects con consistencia fuerte por objeto.
- Prototipos rápidos: setup en minutos, coste negligible en volúmenes bajos.
Casos donde AWS sigue ganando
- Compute intensivo o largo: Lambda admite hasta 15 minutos; Workers tiene límite de 30 s.
- Managed DBs maduras: RDS PostgreSQL frente a D1, que es joven.
- Streaming de datos: Kinesis, MSK.
- Plataformas de ML: SageMaker.
- IAM complejo: el modelo de permisos de AWS es mucho más rico.
Deployment con Wrangler
npm install -g wrangler
wrangler login
# Crear worker
wrangler init my-app
# Desplegar
wrangler deploy
# Ver logs en tiempo real
wrangler tailDespliegue en segundos. Sin contenedores, sin buckets que configurar primero.
Workers AI en práctica
export default {
async fetch(request, env) {
const response = await env.AI.run("@cf/meta/llama-3-8b-instruct", {
messages: [{ role: "user", content: "Hola" }],
});
return Response.json(response);
},
};Inferencia LLM con latencia menor de 1 s en el edge. Sin gestión de GPU. Precio por token. Complementa arquitecturas donde el modelo principal es accesible vía LiteLLM o proxies LLM para gestionar múltiples proveedores.
Limitaciones honestas
- 30 s máximo por request: no hay compute de larga duración.
- Réplicas D1 de solo lectura: la escritura sigue siendo centralizada.
- Durable Objects: concurrencia limitada por objeto.
- Python en beta: no apto para producción sin validación previa.
- Depuración menos rica que entornos serverful.
- Límite de bundle (~1-10 MB según plan).
Precios reales
App mediana (1 M usuarios/mes, 10 M requests):
- Workers: 5 USD base + negligible.
- KV (1 M lecturas): 0,50 USD.
- D1 (1 M lecturas): ~1 USD.
- R2 (10 GB almacenamiento): 0,15 USD.
- Total aproximado: ~10 USD/mes.
El equivalente en AWS suele moverse entre 50 y 200 USD/mes con carga similar.
Conclusión
El stack edge de Cloudflare en 2024 es una alternativa real a AWS para muchos casos. Para aplicaciones edge-native — globales, sensibles a la latencia, complejidad media — es más simple, barato y rápido de operar. Para workloads enterprise con compliance complejo, ecosistemas específicos o compute intensivo, AWS sigue siendo la opción principal. La brecha se cierra cada mes: vale la pena evaluar Cloudflare para proyectos nuevos antes de tomar AWS como default.