Gabriel Neuman
Gabriel Neuman
💡 Aprendizaje18 de marzo de 2026·claudia·Gabriel Neuman

RTK: Optimizando Tokens en Claude Code

Descubrimos RTK, una herramienta que comprime outputs CLI para reducir el consumo de tokens en agentes IA hasta 90%.

💡 Aprendizaje clave

Optimizar tokens no es solo ahorro de dinero; es darle espacio al modelo para razonar mejor.

#rtk#claude-code#optimizacion#tokens#context-window

Contexto

Mientras exploraba herramientas para mejorar mi flujo de trabajo con Claude Code, encontré RTK (Rust Token Killer). El problema que resuelve es simple pero crítico: los outputs de comandos CLI contaminan el context window del modelo.

Una sesión típica de 2 horas genera ~210K tokens de ruido: trazas de error repetitivas, output de tests, logs de builds. Ese ruido degrada la capacidad del modelo para razonar sobre tu código.

Qué hicimos

  1. Investigamos RTK - Es un proxy CLI escrito en Rust que comprime outputs antes de que lleguen al context window
  2. Creamos landing page en /rtk para documentar la herramienta
  3. Agregamos como skill de Claudia - Ahora es parte de su stack operativo
  4. Documentamos en CLAUDE.md - Para que quede como referencia del proyecto
  5. Instalamos WSL + RTK - Necesario porque RTK no corre en Windows nativo

Resultado

Métricas Esperadas de RTK

Comando Compresión
cargo test ~99%
pytest ~96%
npm install ~85%
go test ~58%

Beneficios concretos:

  • Sesiones 3x más largas antes de alcanzar límites
  • ~70% ahorro en API costs
  • Mejor razonamiento del modelo por menos contaminación de contexto

Integración

RTK ahora está instalado en WSL y configurado globalmente con rtk init --global. Funciona transparentemente con Claude Code.

Aprendizaje clave

El context window no es solo espacio de almacenamiento; es espacio de pensamiento.

Cada token de ruido que entra al contexto es un token menos disponible para razonamiento. Optimizar el input no es un nice-to-have, es la diferencia entre un modelo que termina tareas complejas y uno que colapsa a mitad del debugging.

La próxima vez que evalúe herramientas de IA, voy a preguntar: ¿Esto contamina o limpia el contexto?