Come interagire con un LLM in Python

I modelli di linguaggio di grandi dimensioni (LLM) possono essere integrati facilmente nelle applicazioni Python grazie a librerie e API moderne. Questo articolo ti guida passo passo su come impostare un semplice script per interagire con un LLM, come quelli offerti da OpenAI.

Installare le dipendenze

Per iniziare, installa la libreria openai usando pip:

pip install openai

Configurare la chiave API

Per accedere all'API di OpenAI, devi ottenere una chiave API dal tuo account OpenAI. Una volta ottenuta, puoi configurarla nel tuo script:

import openai
import os

openai.api_key = os.getenv("OPENAI_API_KEY")

Inviare una richiesta al modello

Ecco un esempio di come inviare un prompt al modello GPT-4 e ricevere una risposta:

response = openai.ChatCompletion.create(
    model="gpt-4",
    messages=[
        {"role": "system", "content": "Sei un assistente utile."},
        {"role": "user", "content": "Spiegami la fotosintesi."}
    ]
)

print(response["choices"][0]["message"]["content"])

Gestire gli errori

È buona pratica gestire eventuali errori o timeout:

try:
    response = openai.ChatCompletion.create(
        model="gpt-4",
        messages=[
            {"role": "system", "content": "Sei un assistente utile."},
            {"role": "user", "content": "Cos'è il machine learning?"}
        ]
    )
    print(response["choices"][0]["message"]["content"])
except openai.error.OpenAIError as e:
    print(f"Errore durante la richiesta: {e}")

Considerazioni finali

Interagire con un LLM in Python è semplice grazie all'API di OpenAI. Ricorda di rispettare le linee guida d'uso e di monitorare i costi se utilizzi modelli in produzione.

Torna su