I modelli di linguaggio di grandi dimensioni (LLM) possono essere integrati facilmente nelle applicazioni Python grazie a librerie e API moderne. Questo articolo ti guida passo passo su come impostare un semplice script per interagire con un LLM, come quelli offerti da OpenAI.
Installare le dipendenze
Per iniziare, installa la libreria openai
usando pip
:
pip install openai
Configurare la chiave API
Per accedere all'API di OpenAI, devi ottenere una chiave API dal tuo account OpenAI. Una volta ottenuta, puoi configurarla nel tuo script:
import openai
import os
openai.api_key = os.getenv("OPENAI_API_KEY")
Inviare una richiesta al modello
Ecco un esempio di come inviare un prompt al modello GPT-4 e ricevere una risposta:
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[
{"role": "system", "content": "Sei un assistente utile."},
{"role": "user", "content": "Spiegami la fotosintesi."}
]
)
print(response["choices"][0]["message"]["content"])
Gestire gli errori
È buona pratica gestire eventuali errori o timeout:
try:
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[
{"role": "system", "content": "Sei un assistente utile."},
{"role": "user", "content": "Cos'è il machine learning?"}
]
)
print(response["choices"][0]["message"]["content"])
except openai.error.OpenAIError as e:
print(f"Errore durante la richiesta: {e}")
Considerazioni finali
Interagire con un LLM in Python è semplice grazie all'API di OpenAI. Ricorda di rispettare le linee guida d'uso e di monitorare i costi se utilizzi modelli in produzione.