$ man how-to/credit-management

Eficiencia de Costosbeginner

Gestion de Creditos y Tokens

Entiende que estas gastando y a donde van los tokens


Que Cuesta Dinero

Cada interaccion con AI cuesta tokens. Los tokens son aproximadamente cuatro caracteres de texto. Cada archivo que Claude lee cuesta tokens (entrada). Cada respuesta que Claude genera cuesta tokens (salida). Cada llamada a herramienta que Claude hace cuesta tokens (entrada y salida). La ventana de contexto es el presupuesto total de tokens para una sola interaccion. Archivos que cargas, historial de chat, reglas, habilidades, instrucciones del sistema - todo compite por tokens. Entender esto cambia como interactuas con AI. Historiales de chat largos queman tokens en contexto que podria no ser relevante. Cargar 10 archivos cuando necesitas 2 desperdicia tokens en contexto irrelevante. Un CLAUDE.md de 500 lineas consume tokens en cada sesion.
PATTERN

A Donde Van los Tokens

Instrucciones del sistema y configuracion: CLAUDE.md, reglas, archivos de habilidades que se cargan automaticamente. Este es tu costo base por sesion. Lectura de archivos: cada archivo que el agente lee para entender tu base de codigo. Archivos mas grandes cuestan mas. Leer un archivo de datos de 2,000 lineas cuesta mas que leer una configuracion de 50 lineas. Historial de chat: cada mensaje anterior en la conversacion. Las conversaciones largas acumulan contexto. Eventualmente la ventana de contexto se llena y los mensajes antiguos se truncan. Salida del agente: generacion de codigo, explicaciones, llamadas a herramientas. Salidas mas largas cuestan mas tokens. Los mayores consumidores de tokens generalmente son las lecturas de archivos (cargar archivos grandes) y el historial de chat (conversaciones largas). Manten los archivos enfocados e inicia nuevas sesiones para nuevas tareas en vez de continuar una sola sesion durante horas.
PRO TIP

Estrategias Practicas

Inicia nuevas sesiones para nuevas tareas. Una sesion sobre desplegar tu sitio web no necesita el historial de chat de tu sesion anterior sobre escribir un post de blog. Contexto fresco significa menos tokens desperdiciados. Manten CLAUDE.md conciso. Cada linea en CLAUDE.md cuesta tokens en cada sesion. Mueve instrucciones de flujo de trabajo a habilidades (cargadas bajo demanda) y patrones de archivos a reglas (cargadas condicionalmente). Referencia archivos especificos en vez de pedirle a Claude que busque. Decir "lee website/packages/shared/data/clay-wiki.ts" cuesta menos que decir "encuentra el archivo de datos del clay wiki" porque la busqueda requiere leer multiples archivos. Usa modelos rapidos para tareas simples. Los modelos rapidos cuestan aproximadamente 3-5x menos por token que los modelos capaces. Si la tarea es mecanica, el modelo mas barato produce resultados identicos.
FORMULA

El 80/20 del Presupuesto de Tokens

El ochenta por ciento de tu presupuesto de tokens va a tres cosas: lectura de archivos, historial de chat y contexto del sistema. Optimizar esas tres es el movimiento de mayor impacto. Lectura de archivos: se especifico sobre que archivos cargar. No digas "lee toda la carpeta de datos." Di "lee how-to-wiki.ts." Historial de chat: inicia sesiones frescas para nuevos temas. Una sesion enfocada supera a una sesion maraton. Contexto del sistema: manten el contexto que siempre se carga (CLAUDE.md, reglas automaticas) al minimo. Mueve todo lo demas a carga bajo demanda (habilidades, referencias manuales de archivos). El 20% restante es la salida del agente. No puedes controlar cuantos tokens usa Claude para generar una respuesta, pero puedes controlar cuanto contexto tiene que procesar antes de generar. Menos contexto irrelevante significa salida mas rapida, mas barata y a menudo mejor.

knowledge guide
See "Cursor" in Knowledge See "Claude" in Knowledge

guías relacionadas
Estrategia de Seleccion de ModelosPatrones de Agentes ParalelosReglas, Habilidades y Archivos de ContextoPor Que la Transparencia de Creditos Importa en Herramientas Go-to-Market
wiki de tutorialesguía de conocimiento
ShawnOS.ai|theGTMOS.ai|theContentOS.ai
built with Next.js · Tailwind · Claude · Remotion