Selezione del Modello
Scegliere il modello in base alla complessità del task evita sprechi:
- Haiku → task rapidi, trasformazioni semplici, pre-processing
- Sonnet → equilibrio tra qualità e costo (scrittura, codice)
- Opus → analisi profonde e ragionamento complesso
Nota: modelli più avanzati non “consumano più token” in senso stretto, ma possono generare output più lunghi e aumentare il costo complessivo.
Prompting Incrementale (“Fammi domande”)
Prompt molto lunghi vengono riletti a ogni turno. In molti casi è più efficiente:
- partire con un prompt sintetico
- lasciare al modello il compito di chiarire lo scope con domande mirate
Questo approccio distribuisce il carico informativo su più scambi, evitando un input iniziale eccessivo.
Gestione della Cronologia
Ogni nuovo messaggio include anche la cronologia precedente.
Questo comporta una crescita cumulativa (lineare) del numero totale di token elaborati.
Buona pratica:
- riassumere periodicamente i punti chiave
- aprire una nuova chat dopo 15–20 messaggi (o quando il contesto diventa pesante)

