L’intelligenza artificiale ha smesso di essere un esperimento da laboratorio. Per molte
aziende è diventata un’infrastruttura, al pari dei sistemi gestionali o delle piattaforme cloud. Eppure, il modo in cui viene ancora percepita — un chatbot da interrogare nel browser, qualcosa che si apre e si chiude a piacimento — rischia di oscurare una realtà ben più complessa. E soprattutto, ben più costosa.
La verità è che l’AI andrebbe valutata come qualsiasi altro investimento strategico,
con una visione chiara di costi, benefici e rischi operativi fin dall’inizio. Chi taglia gli angoli
oggi, si ritroverà a pagare domani, con gli interessi.
A volte i conti non tornano
C’è un’assunzione diffusa tra i team aziendali: i costi dell’AI crescono in modo lineare.
Raddoppi il lavoro, raddoppi la spesa. Ebbene ,la realtà è diversa. Chiedere a un modello
linguistico di analizzare un documento lungo significa fargli considerare ogni parola in
relazione a tutte le altre: il costo computazionale non raddoppia, ma cresce con il quadrato
della lunghezza dell’input.
“Molte aziende scoprono questa dinamica quando è troppo tardi”, osserva Luigi Marino,
fondatore e CEO di Creact, società italiana specializzata nello sviluppo di applicazioni di
intelligenza artificiale. “Arrivano con l’idea di processare migliaia di documenti al giorno e
si ritrovano con fatture cloud che divorano l’intero budget del progetto. La progettazione
dell’architettura non è un dettaglio tecnico: è una decisione di business.”
Un ente regolatore che gestisce grandi volumi di testo, ad esempio, può ottenere la stessa
esperienza utente — fai una domanda, ottieni una risposta in secondi — con costi
radicalmente diversi a seconda di come struttura le pipeline di ricerca. Sotto la superficie, il
sistema può svolgere molto meno lavoro non necessario. Ma questo richiede competenze
e pianificazione.
La spesa invisibile, distribuita ovunque
Le scelte tecnologiche sono solo una parte di questa formula. L’altra è organizzativa. In
molte aziende la preparazione dei dati spetta all’ingegneria, le revisioni di compliance al
legale, le spese cloud ai team infrastrutturali, la configurazione dei modelli a pochi
specialisti. Ogni gruppo vede la propria quota di lavoro e la propria linea di budget.
Il risultato? La spesa si frammenta tra elaborazione, tempo dei collaboratori esterni e ore
dei dipendenti assorbite nel “business as usual”. Con i numeri distribuiti tra centri di costo
diversi, il costo totale di una singola iniziativa AI può non essere visibile in nessun luogo.
Ed è facile sottostimarlo.
“Abbiamo clienti che ci chiamano dopo mesi di sperimentazione interna, convinti di aver
speso poco perché guardavano solo la fattura del provider cloud”, racconta Marino.
“Quando ricostruiamo insieme il quadro completo — ore uomo, rallentamenti, errori corretti manualmente, riunioni di allineamento — scoprono di aver investito tre o quattro volte tanto. Non per cattiva gestione, ma perché nessuno aveva una visione d’insieme.”
Il fattore umano: quando l’efficienza è un’illusione
Ogni implementazione di AI è, nella pratica, una collaborazione tra persone e software. Il
passaggio verso l’AI agentica — sistemi che concatenano passaggi, chiamano altri strumenti, agiscono con meno supervisione — non cambia questa dinamica. Semmai, alza
la posta.
Il rischio è dare troppa fiducia a strumenti che presentano risposte fluide e sicure. Quando
un sistema appare sempre competente, è naturale assumere che sia sempre corretto. Se
viene inserito in un flusso di lavoro senza formazione adeguata, limiti chiari e controlli
sensati, può generare silenziosamente un flusso di piccoli errori. Ognuno dei quali dovrà
essere scoperto, compreso e corretto da una persona.
Sulla carta l’AI sembra efficiente. In pratica, c’è un costo nascosto: il tempo umano speso
a rimediare ai problemi. In contesti regolamentati o a contatto con il cliente, questi errori
possono tradursi anche in danni reputazionali.
Il modello che funziona è una partnership deliberata: le persone mantengono la responsabilità dei risultati, l’AI accelera le parti del lavoro che le sono più congeniali — sintesi, bozze, ordinamento, ricerca. Anche quando servono controlli e correzioni, l’effetto
complessivo può essere maggiore velocità e capacità rispetto a quanto un team otterrebbe
da solo.
Governance: la voce di budget che non puoi ignorare
Una quota crescente della spesa AI sarà vincolata alla governance, non al calcolo. Per le
organizzazioni europee, l’AI Act lo chiarisce: la regolamentazione non riguarda solo i
prodotti rivolti al pubblico. Sistemi interni usati per assunzioni, gestione del personale o
processi decisionali sensibili possono rientrare nell’ambito di applicazione, con obblighi di
documentazione, registrazione e supervisione umana.
Ogni nuovo caso d’uso può comportare una valutazione del rischio, maggiore
monitoraggio, domande dai team di compliance e audit. Niente di tutto questo apparirà
nelle metriche di utilizzo del modello, ma è sforzo concreto che qualcuno deve pagare.
La trappola della demo perfetta
Un pattern ricorrente nei progetti AI è il divario tra l’aspetto di un sistema in una demo e il
suo comportamento su larga scala. In un contesto controllato, con domande prevedibili e
dati puliti, i risultati possono sembrare impeccabili. È facile concludere che il sistema sia
pronto.
I problemi emergono dopo, quando arriva la varietà dell’uso reale: query insolite, utenti
stressati, record incompleti, casi limite. Le falle invisibili nella demo diventano risposte
errate, sfumature mancate, tempi di gestione più lunghi, fiducia erosa.
“La demo è il momento più pericoloso di un progetto AI”, avverte Marino. “Tutti sono
entusiasti, i decisori vogliono accelerare, e c’è la tentazione di saltare i passaggi intermedi. Ma passare da un pilota controllato a un’implementazione ampia senza validazione
rigorosa significa pagare due volte: una per costruire, una per riparare. E la seconda volta
costa sempre di più.”
Trattarla con serietà
Niente di tutto questo è un argomento contro l’intelligenza artificiale. È un argomento per
trattarla con la stessa serietà di qualsiasi sistema capace di cambiare il modo in cui
un’azienda opera.
Se utilizzata correttamente, l’AI permette a piccoli team di agire su larga scala, di scoprire
pattern invisibili all’occhio umano, di moltiplicare l’impatto del giudizio esperto. Ma per
arrivarci servono scelte ponderate su modelli e architetture, investimenti in dati e
osservabilità, processi in cui le persone restino sempre nel loop.
“Muoviti velocemente e rompi le cose” era uno slogan pensato per team umani su sistemi
a scala umana. Quando l’AI si integra in decisioni che riguardano clienti, dipendenti o
cittadini, lo stesso atteggiamento può generare problemi che si diffondono più
rapidamente, colpiscono più duramente e sono molto più difficili da risolvere.
La velocità resta importante. Ma deve essere accompagnata da una visione chiara di
rischi, costi e responsabilità. Non esiste una soluzione AI universale. L’uso efficace in
azienda è sempre specializzato, supervisionato e attentamente definito.
