Archivi categoria: Appunti-AI

Guida pratica all’ottimizzazione dei Token su Claude

L’obiettivo di questa guida è fornire pratiche operative per ridurre il consumo di token e gestire in modo efficiente la context window nei modelli Claude.
Un uso consapevole del contesto è fondamentale per mantenere prestazioni elevate nei task complessi e contenere i costi computazionali.

1. Fase 1: Azioni Preliminari (Prima di Digitare)

L’ottimizzazione preventiva è il principale fattore di risparmio di token. Intervenire sulla qualità e struttura dell’input riduce significativamente l’overhead iniziale.

Conversione Strategica dei Formati

Caricare PDF “grezzi” può risultare inefficiente a causa di:

  • struttura interna complessa
  • metadati e layout
  • eventuale OCR

Quando possibile, è preferibile estrarre il testo e convertirlo in formato Markdown (.md) o testo semplice.

Formato Costo in Token (stima) Impatto sul contesto Efficienza
PDF (1 pagina) Variabile: da centinaia a diverse migliaia Medio–alto Bassa
Markdown / testo ~1 token ogni 3–4 caratteri Minimo Alta

Integrare OpenAI (API) in un’applicazione Ruby

Integrare l’intelligenza artificiale in un’applicazione Ruby è oggi più semplice che mai grazie alle API di OpenAI. Con poche righe di codice è possibile aggiungere funzionalità come:

  • generazione di testo
  • assistenti conversazionali
  • generazione di immagini
  • trascrizione audio
  • moderazione dei contenuti

In questo articolo vedremo come integrare le API OpenAI in un’app Ruby, utilizzando la SDK ufficiale Ruby e le API più recenti.

Installazione della SDK OpenAI

Per iniziare è necessario installare la gem ufficiale OpenAI.

Nel file Gemfile:

gem "openai"

Poi installare le dipendenze:

bundle install

Configurare la API Key

Per autenticare le richieste è necessario impostare la variabile d’ambiente con la chiave API.

export OPENAI_API_KEY="your_api_key_here"

Nel codice Ruby possiamo inizializzare il client in questo modo:

require "openai"

client = OpenAI::Client.new(
  api_key: ENV["OPENAI_API_KEY"]
)

Ora l’applicazione è pronta per effettuare richieste all’API.

Generare testo con la Responses API

Il modo più moderno per interagire con i modelli OpenAI è la Responses API, che unifica le funzionalità di chat, completamento e tool usage.

Esempio:

response = client.responses.create(
  model: "gpt-4.1-mini",
  input: "Scrivi un breve riassunto su Ruby on Rails."
)

puts response.output_text

Il parametro model specifica quale modello utilizzare. Alcuni modelli comuni sono:

  • gpt-4.1
  • gpt-4.1-mini
  • gpt-4o
  • gpt-4o-mini

Questi modelli sono progettati per generare testo naturale, rispondere a domande e assistere nello sviluppo software.