La corsa della Pubblica Amministrazione verso l’Intelligenza Artificiale. Chi parte svantaggiato rischia di restare ancora più indietro?

BSmart Legal & Consulting

Quando si parla della “corsa” all’Intelligenza Artificiale, anche per la Pubblica Amministrazione, sentiamo spesso degli slogan che vengono ripetuti: “velocizziamo”, “semplifichiamo”, “automatizziamo”, “facciamo di più con meno”. Promesse forti perché intercettano un bisogno reale: tempi più brevi, servizi più accessibili, procedure meno farraginose. Il punto, però, è che questa “corsa” non parte quasi mai da una linea di partenza uguale per tutti. E quando la linea di partenza è diseguale, ciò che accelera i processi rischia di accelerare anche le distanze. Il divario tra Nord e Sud è già ampio; il divario tra città e aree interne è già evidente. Dentro questo scenario complessivo ci sono molte questioni concrete: sportelli che rispondono o non rispondono, servizi che funzionano o non funzionano, cittadini che riescono ad ottenere una risposta o restano sospesi.

Tra le cause dello “spopolamento” (argomento complesso e delicato che non può essere di certo esaurito in poche righe) vi è anche la mancanza di servizi – essenziali e meno essenziali – che il pubblico riesce a garantire ai suoi cittadini.

Per questo e per altri motivi, più che chiedersi “se” la Pubblica Amministrazione riuscirà ad integrare sistemi di Intelligenza Artificiale, bisognerebbe chiedersi “come” e soprattutto “chi” riuscirà davvero a governare questa trasformazione. Perché la tecnologia può premiare chi è già strutturato ma, allo stesso tempo, aggiungere ulteriori difficoltà e vulnerabilità per chi è già fragile.

Facciamo degli esempi: nei grandi comuni o enti è più facile avere a che fare – per tutta una serie di servizi, ivi compresi la protezione dati e la digitalizzazione – con uffici dedicati, competenze interne specifiche, budget adeguati, tempi per progettare e verificare. In contesti del genere, l’Intelligenza Artificiale può realmente diventare un acceleratore. Si sperimenta, si misura, si corregge, non tralasciando mai l’impatto che detti sistemi possono avere soprattutto in chiave protezione dei dati personali. Nei piccoli comuni e/o enti, invece, è più difficile in generale riscontrare caratteristiche simili. Spesso non vi è un team che si occupa del digitale o della protezione dati, ma ci sono persone che – per forza di cose – devono tenere insieme più funzioni contemporaneamente, inseguendo adempimenti, scadenze e urgenze con estrema difficoltà. Quando un ente lavora già al limite, ogni nuova promessa di efficienza può diventare un rischio: perché non si innesta su una struttura solida, ma su una struttura che fatica a sostenere l’attività essenziale.

In questo contesto, emerge la necessità di affrontare un tema chiave: l’esternalizzazione.

Nei piccoli enti l’esternalizzazione non è sempre una scelta strategica volta a favorire una più moderna organizzazione al fine di migliorare i propri servizi, ma spesso diventa una scelta “obbligata” per provare a soddisfare tutti gli adempimenti necessari per un corretto funzionamento. Si esternalizza perché non si può seguire tutto: l’informatica, la sicurezza, la manutenzione dei sistemi, le piattaforme, la protezione dei dati, ecc. E a un certo punto il rischio diventa che ad essere esternalizzato non è più un servizio, ma – nei fatti – una intera funzione. Il problema è che quando il fornitore diventa una funzione, restando “esterno”, l’ente può perdere progressivamente il controllo di una determinata fattispecie. Si rischia di perdere il controllo del flusso dei dati, delle misure di sicurezza tecniche e organizzative, delle configurazioni e persino della capacità di negoziare condizioni davvero adatte al proprio contesto. Così il piccolo ente rischia di diventare l’anello debole della catena di un processo innovativo, non per superficialità ma per posizione di partenza: meno fondi, meno persone, meno possibilità di scelte adeguate.

Con l’adozione di sistemi di Intelligenza Artificiale questo meccanismo, per forza di cose, rischia di amplificarsi. Perché l’Intelligenza Artificiale non è semplicemente un software in più da gestire: nuove integrazioni e nuove interfacce – che portano con loro nuovi flussi di dati – sembrano semplici da seguire finché non ci si accorge che dietro c’è una catena lunga di decisioni tecniche e organizzative che il piccolo ente fatica a governare e presidiare. E quando si adotta qualcosa che non si governa, la probabilità che l’innovazione si trasformi in ulteriore fragilità, soprattutto in termini di protezione dati, aumenta.

Su questo punto incide notevolmente un dato molto chiaro che si evince dalle statistiche di settore: i data breach non nascono solo da cyberattacchi sofisticati in stile film hollywoodiani. I report mostrano che una quota altissima di violazioni coinvolge il fattore umano: errori, credenziali compromesse, mancanza di formazione, procedure non seguite o del tutto assenti, ecc. Il Data Breach Investigations Report 2025 di Verizon (report annuale di Verizon che analizza migliaia di incidenti di sicurezza a livello globale), ad esempio, rappresenta che il “fattore umano” sarebbe coinvolto in circa il 60% dei casi di incidenti. Ora, questi numeri non vanno assolutamente letti come un’accusa alle persone, ma come una chiara fotografia organizzativa: l’errore umano cresce soprattutto dove le persone sono poco formate, poco accompagnate, oberate, costrette a “fare in fretta” perché devono svolgere diversi compiti per provare a tamponare ogni situazione.

Nei piccoli enti questa combinazione è più frequente, e se oggi si fa già fatica a stare dietro agli adempimenti già in essere, il rischio è che aggiungendo l’Intelligenza Artificiale, più che un vantaggio, si crei un ulteriore acceleratore di errori.

Mettendo insieme questi tasselli, l’allarme diventa chiaro: la corsa all’Intelligenza Artificiale rischia di creare una Pubblica Amministrazione ancor più a due velocità: da una parte chi può permettersi governance e competenze interne, dall’altra parte chi deve inseguire affidandosi sempre di più a soluzioni esterne, spesso scelte per costi e urgenza più che per sostenibilità. E nel mezzo ci sono i cittadini che, soprattutto nei territori più fragili, rischiano di vedere crescere le diseguaglianze.

Quale potrebbe essere la via d’uscita?

Non esistono soluzioni “magiche”, ma sicuramente – superando ogni campanilismo – bisognerebbe iniziare a pensare concretamente che i piccoli enti difficilmente potranno salvarsi “da soli”. Servirebbe un cambio di passo organizzativo, prima ancora che tecnologico. La gestione associata non deve essere un concetto astratto e poco diffuso, ma una pratica costante: condividere servizi, competenze, formazione, presidi, modelli organizzativi. Il Piano Triennale per l’informatica nella PA spinge proprio sull’idea di strumenti e modelli operativi, e dedica attenzione alla gestione associata dell’ICT, con focus sulle Unioni di Comuni e sull’organizzazione dei servizi intercomunali.  Se non si costruiscono presidi comuni – soprattutto in chiave digitale e protezione dati – l’innovazione diventerà selettiva e i rischi per la “privacy” sempre più alti.

Il futuro è sempre più dei dati, sui dati, per i dati.

La corsa all’Intelligenza Artificiale va guidata a livello politico-amministrativo con competenza ed organizzazione, soprattutto per i servizi di pubblica utilità, prevedendo regole chiare per fornitori e subfornitori (big tech extra UE in particolare, ma anche qui il discorso da aprire sarebbe estremamente lungo… un fornitore pubblico no?!), modelli riusabili, scelte condivise e formazione trasversale che riduca realmente l’errore umano.

Senza tutto questo, continueremo a chiedere alle stesse poche persone di fare sempre di più, sempre più in fretta, e sempre più da sole. E in quella solitudine organizzativa, prima o poi, il conto arriva per tutti.

Per maggiori info e chiarimenti sul tema, potete scrivere a: avvocatobrandimarte@outlook.it

Avv. Stefano Alberto Brandimarte