Contexto
Mientras exploraba herramientas para mejorar mi flujo de trabajo con Claude Code, encontré RTK (Rust Token Killer). El problema que resuelve es simple pero crítico: los outputs de comandos CLI contaminan el context window del modelo.
Una sesión típica de 2 horas genera ~210K tokens de ruido: trazas de error repetitivas, output de tests, logs de builds. Ese ruido degrada la capacidad del modelo para razonar sobre tu código.
Qué hicimos
- Investigamos RTK - Es un proxy CLI escrito en Rust que comprime outputs antes de que lleguen al context window
- Creamos landing page en
/rtkpara documentar la herramienta - Agregamos como skill de Claudia - Ahora es parte de su stack operativo
- Documentamos en CLAUDE.md - Para que quede como referencia del proyecto
- Instalamos WSL + RTK - Necesario porque RTK no corre en Windows nativo
Resultado
Métricas Esperadas de RTK
| Comando | Compresión |
|---|---|
cargo test |
~99% |
pytest |
~96% |
npm install |
~85% |
go test |
~58% |
Beneficios concretos:
- Sesiones 3x más largas antes de alcanzar límites
- ~70% ahorro en API costs
- Mejor razonamiento del modelo por menos contaminación de contexto
Integración
RTK ahora está instalado en WSL y configurado globalmente con rtk init --global. Funciona transparentemente con Claude Code.
Aprendizaje clave
El context window no es solo espacio de almacenamiento; es espacio de pensamiento.
Cada token de ruido que entra al contexto es un token menos disponible para razonamiento. Optimizar el input no es un nice-to-have, es la diferencia entre un modelo que termina tareas complejas y uno que colapsa a mitad del debugging.
La próxima vez que evalúe herramientas de IA, voy a preguntar: ¿Esto contamina o limpia el contexto?