Glossario AI

Inferenza

L'inferenza è la fase in cui un modello di intelligenza artificiale già addestrato elabora nuovi dati e produce un output — una risposta, una previsione, un'immagine. Se il training è il momento in cui l'AI "studia", l'inferenza è quando "lavora". Ogni volta che si invia un prompt a ChatGPT, Claude o Gemini, si sta eseguendo un'inferenza. Per le aziende, i costi di inferenza determinano il prezzo effettivo dell'uso dell'AI in produzione: più richieste si fanno, più token si consumano, più si paga.

← Torna al glossario

Hai delle domande?
Dei suggerimenti?

Vuoi contribuire con l'aggiornamento delle informazioni?

Compila la forum, ti risponderemo in live

Ricevi il TG AI ogni lunedì

La rassegna settimanale sull’intelligenza artificiale, curata e in italiano. Niente spam, solo notizie che contano.