L’adozione dell’intelligenza artificiale in ogni azienda e in ogni comparto produttivo è ormai iniziata anche in Italia. Certo ci sono ancora resistenze, dubbi, magari qualche vicolo cieco, ma il trend dei prossimi anni sembra tracciato nelle sue linee essenziali.
Ovviamente, tra il dire e il fare c’è di mezzo il proverbiale mare. Perché come in tanti hanno sottolineato questa adozione è per forza di cose intrusiva delle abitudini e dei processi aziendali, spesso sconvolge i riflessi automatizzati delle organizzazioni e richiede una serie di allineamenti tra scopi e mezzi per riuscire nel tempo a dare i frutti attesi. Uno degli allineamenti più importanti e a volte trascurato è quello delle infrastrutture IT e della relativa architettura che le governa. Eppure è un aspetto che da solo può fare la differenza tra la riuscita o il fallimento di un progetto di AI.
In primis c’è da considerare il tema classico di “quanto e quale” cloud utilizzare per la propria AI. L’ovvio vantaggio della scalabilità del cloud non può far dimenticare che il modello OpEx rischia di rivelarsi salato soprattutto se proiettato nel tempo e con consumi difficili da prevedere su alcuni tipi di applicazioni di AI.
Certo è il cloud pubblico che ha reso possibile l’esplosione dell’AI mettendo a disposizione di tanti sviluppatori un computing power dai costi prima proibitivi, tuttavia, questo non significa che lo stesso modello sia per forza di cose il più indicato anche in fase di deployment. Oggi, la stragrande maggioranza dell’AI è fornita as a Service, ma siamo in una fase embrionale. Quando interi processi, modelli, basi di conoscenze di una azienda saranno AI-governed è difficile immaginare che il motore decisionale potrà essere delegato all’esterno dell’azienda stessa.
Poi c’è l’aspetto di compliance legale, fatto di vari regolamenti in essere o in divenire (basta pensare al GDPR, all’AI Act, al Data Act e via discorrendo) e che riguarda non solo l’infrastruttura “fisica” ma anche quella “logica”. La sovranità del dato e, aggiungiamo noi, delle informazioni da esso estraibili stanno alla base di quel movimento verso la private-AI che porterà a una forte richiesta nel settore dei data center nei prossimi anni. Tra il 2025 e il 2030, secondo KKR, il tasso medio di crescita nel settore potrebbe essere superiore al 10% (fonte: KKR, The Hubs of Digital Infrastructure).
La compliance legale si estende poi anche agli obblighi di sostenibilità, perché è ormai assodato che il massiccio uso dell’AI aumenta il fabbisogno di energia in modo esponenziale rispetto al software tradizionale. Non è un caso che sia Google che Microsoft hanno annunciato per la prima volta nel 2024 un rallentamento nel proprio cammino verso le zero-emission proprio a causa dell’AI. E non è un caso che i mini reattori nucleari siano ormai nel mirino degli investitori della Silicon Valley e non solo dei tradizionali produttori di energia. Non è lontano il momento nel quale le tech company saranno considerate “energivore” tanto quanto le acciaierie o le fonderie oggi.
Last but not least, l’AI per definizione comporta un ciclo di vita tecnologico anche più rapido del software tradizionale. E poiché sempre di software si tratta, è appunto nella componente hardware (in primo luogo nei chip) che sta la chiave di questa accresciuta obsolescenza. Qui parliamo di settori capital-intensive come semiconduttori, storage e server, e avere un rapporto diretto con questo ristretto numero di player sarà anch’esso una chiave di successo.
Danilo Rivalta, CEO di Finix Technology Solutions