Economia, business, innovazione.

AI e lavoro, la vera rivoluzione è la promozione invisibile

AI e lavoro non sono in conflitto. È questo il messaggio emerso con forza dal panel “How AI will frame our future”, organizzato dal Consolato Generale d’Italia a Boston in collaborazione con la community Alumni Bocconi. L’evento, è stato parte degli STB Days 2026, le Giornate della Scienza, Tecnologia e Business, ormai appuntamento fisso del Consolato che, per il terzo anno consecutivo ha riunito dal 14 al 16 aprile i protagonisti dell’ecosistema transatlantico in un laboratorio di idee e progetti con l’obiettivo di generare un impatto concreto e duraturo nel panorama globale dell’innovazione. Come ricordato dal Console Generale Arnaldo Minuti in apertura, si è trattato di un momento particolarmente ricco di spunti di riflessione, che ha permesso di celebrare al meglio anche il Made in Italy Day 2026.

Il panel ha visto confrontarsi esperti provenienti da società di consulenza, aziende, banche e studi professionali sulle principali tendenze dell’intelligenza artificiale e sulla sua evoluzione nella società e nel mondo degli affari. E proprio da questo confronto emerge una lettura meno allarmistica e più strutturata del cambiamento in atto.

«Da quando abbiamo l’AI, tutti nel mio team hanno ricevuto una promozione.» La battuta di Pietro Schena, senior manager di digital intelligence e automation al Mass General Brigham, uno degli ospedali più avanzati del mondo, strappa una risata alla platea. Poi, però, lascia spazio alla riflessione: l’intelligenza artificiale non sta eliminando i ruoli, li sta ridefinendo. Ogni professionista oggi gestisce agenti, li forma, li supervisiona. In altre parole, diventa manager.

È questo il filo conduttore dell’incontro che ha riunito cinque profili provenienti da ingegneria, sanità, farmaceutica, diritto e spazio. Un confronto trasversale per capire come l’AI stia trasformando le organizzazioni, chi ne definisce i confini e perché l’Italia rischia di rimanere indietro, non solo per ragioni tecnologiche, ma culturali. «La domanda corretta non è cosa fa l’AI, ma quale problema vogliamo risolvere». Ha detto Francesco Signoretti, engineering lead di HubSpot a Cambridge, che mette subito in discussione l’approccio dominante. Le PMI, spiega, non cercano tecnologie complesse, ma strumenti integrati e immediati. Il vero nodo non è l’innovazione in sé, ma la qualità dei dati e la loro accessibilità.

Antonio Corghi, co-fondatore di BIP for Tech, va oltre: «Le aziende cercano di far entrare l’AI nei processi esistenti a forza. È come usare un martello su qualcosa che non è un chiodo». L’errore, secondo lui, è strutturale. L’AI non va adattata ai processi, ma deve diventare il punto di partenza per ripensarli. Il modello che propone si articola in tre pilastri: governance, crowd e lab. La governance è la responsabilità del vertice aziendale. Il crowd è l’abilitazione di tutti i dipendenti — non solo dei tecnici — ad usare e sperimentare la tecnologia. Il lab è il nuovo reparto IT: non più un ufficio di regolamentazione rigida, ma qualcosa di più simile a un centro di ricerca universitario, che sperimenta, sbaglia, impara.

«Le aziende cercano di far entrare l’AI nei processi esistenti a forza. Come se stessero usando un martello su qualcosa che non è un chiodo»

— ANTONIO CORGHI, BIP FOR TECH

Se Corghi si occupa di come le organizzazioni adottano l’AI, Francesca Sacchi si occupa di chi decide le regole del gioco. Specialista in policy farmaceutica e governance dell’AI, co-autrice del libro «Is AI the Perfect Doctor?», siede nel board of directors della Texas Society of AI in Medicine ed è stata consulente parlamentare sull’AI in Italia. Ha un punto di vista raro: conosce i meccanismi legislativi da dentro, sia in Europa che negli Stati Uniti, e li vede con gli occhi di chi deve poi applicare quei meccanismi al settore biofarmaceutico.

La sua analisi del divario transatlantico è chirurgica. In Europa, il GDPR e le normative nazionali garantiscono protezioni della privacy elevatissime – ma a costo di una frammentazione che rende difficile muovere dati tra paesi e tra settori. Negli Stati Uniti, il sistema è diverso: il framework federale (HIPAA per la sanità, executive orders presidenziali per l’AI) lascia molto spazio alle agenzie specializzate, con meno accountability democratica ma più velocità di adattamento tecnico.

«Non esiste un sistema migliore: è una scelta di priorità», sottolinea. Ma il vero nodo emergente è la sovranità dei dati. I paesi stanno progressivamente limitando l’accesso alle informazioni dei propri cittadini, creando un ecosistema diseguale perciò ci saranno aree del mondo con enormi quantità di dati e altre dove anche i migliori ricercatori non potranno accedervi.

«Stiamo scrivendo le regole mentre stiamo già giocando la partita. E ogni paese lo sta facendo a modo suo»

— FRANCESCA SACCHI, SANOFI

Signoretti introduce una distinzione cruciale: dati di training e dati operativi. I primi sfuggono al controllo delle aziende; i secondi, quelli utilizzati dagli agenti AI nelle attività quotidiane, rappresentano il vero terreno competitivo.

Nel contesto ospedaliero, l’impatto dell’AI è già tangibile. Schena, arrivato direttamente dal lavoro, racconta casi concreti: automazioni che gestiscono attività amministrative complesse, come il controllo delle licenze mediche, riducendo drasticamente il lavoro manuale. Ma il dato più significativo non riguarda la produttività, bensì il benessere. Studi interni mostrano che l’uso dell’AI per il note-taking non ha rivoluzionato i tempi, ma ha ridotto sensibilmente il burnout dei medici. «A volte il beneficio più grande non è quello che ci aspettiamo». Resta però una resistenza culturale: la diffidenza verso le “black box”. In sanità, più che altrove, non basta un risultato. Serve comprendere il processo decisionale.

Paolo Gaudenzi, Consigliere scientifico del Consolato Generale d’Italia a Boston, interviene nel dibattito del panel una volta tanto come panelist e non come organizzatore e moderatore degli STB Days, nel cui ambito ha promosso il panel su AI e grandi organizzazioni. Gaudenzi porta qualcosa di diverso: non un caso d’uso, non una metrica, ma un modo di pensare. L’AI, sostiene, non può essere applicata senza una comprensione profonda della complessità organizzativa.

«Quanto ho compreso in questi mesi a Boston, frequentando scienziati dell’MIT e imprenditori, è una strada per comprendere meglio il concetto e l’operatività dell’AI, un termine a volte pronunciato con troppa genericità, con la realtà dei processi e delle organizzazioni, con il confronto tra AI e società. Come succede concretamente? E la risposta che mi sono dato è questa: bisogna capire la complessità prima di scomporla». Il parallelo con il settore spaziale è illuminante. Un sistema spaziale con astronauti a bordo è costituito da hardware (parti fisiche) e software (processi digitali) ma comprende anche persone, processi, risorse, regole, obiettivi.

Si tratta di un insieme di parti che nel loro complesso assolvono agli obiettivi della missione, ad esempio far arrivare gli astronauti di fronte al lato nascosto della Luna e a farli tornare indietro sani e salvi. È un sistema la cui complessità si comprende solo se si procede a scomporlo gerarchicamente, capire dove ogni parte contribuisce all’insieme, a diversi livelli di complessità ed aggregazione. Il sistema spaziale è fatto di un lanciatore, una navetta, un sistema di terra per comunicare e, a un livello successivo di decomposizione la navetta è fatta dall’abitacolo per gli astronauti e dal modulo di servizio e così via decomponendo… . Le parti da sole non assolvono l’obiettivo della missione ma il sistema si, con tutti i suoi processi di operazioni che pure possono essere decomposti in processi via via più elementari. Comprendere questa complessità è la precondizione per decidere dove l’AI può sostituire l’umano nelle operazioni e dove no.

«La stessa logica vale per un’azienda, per un ministero, per qualsiasi organizzazione complessa. Prima devi avere la visione globale del sistema. Poi puoi scomporre la complessità. Solo allora puoi capire dove gli agenti AI possono prendere il posto degli umani – e dove quella scelta potrebbe portare vantaggio o costare caro, paradossalmente, in termini di inefficienza o di risultati non desiderati». È un invito ad applicare il pensiero sistemico degli ingegneri spaziali alle organizzazioni terresti. E, aggiunge con ironia, «un ministero italiano potrebbe essere anche più complicato di un sistema spaziale». 

Il concetto di digital twin, spesso percepito come futuristico, è già realtà. Le previsioni meteo, alimentate da dati satellitari, sono esempi concreti di gemelli digitali. E il loro sviluppo sarà centrale per il futuro del welfare globale.

«Prima devi avere la visione globale del sistema. Poi puoi scomporlo. Solo allora capisci dove gli agenti AI possono sostituire gli umani — e dove quella scelta potrebbe portare beneficio o costarti caro»

— PAOLO GAUDENZI, CONSOLATO GENERALE D’ITALIA A BOSTON.

Sul futuro del lavoro, il panel converge su un punto: non si tratta di sostituzione, ma di evoluzione. Le competenze tecniche restano importanti, ma non sono più sufficienti. Servono capacità di giudizio, priorità e delega.

Francesco Signoretti è l’ottimista dichiarato: «Non penso che i lavori di ingegneria stiano scomparendo. Penso che stiano cambiando. Quello che conta non è più solo la capacità tecnica, ma il gusto, la cura, la capacità di prioritizzare. I migliori ingegneri che vedo non sono quelli che sanno implementare meglio un task: sono quelli che sanno cosa fare dopo. E quelli che sanno delegare il resto».

Francesca Sacchi descrive come usa l’AI nel suo lavoro quotidiano di policy: prima di un incontro con un interlocutore pubblico, chiede all’AI di simulare quel punto di vista, di farle domande difficili, di trovare le sue debolezze argomentative. «Chi usa l’AI solo per i compiti noiosi si sta perdendo il meglio. Chi la usa per lavorare meglio sarà sempre un passo avanti».

Antonio Corghi identifica due priorità per i prossimi dodici mesi: agilità organizzativa – la capacità di adattarsi a una velocità di cambiamento che nessuno aveva previsto – e pensiero critico ibrido. «Abbiamo bisogno di persone con background blended: tecnologia, business e, sì, anche humanities. Gli ingegneri puri tendono a non essere creativi. Ho visto colleghi con formazioni diverse fare cose con l’AI che io non avrei mai immaginato».

Pietro Schena sintetizza con efficacia: «Le competenze manageriali diventeranno ancora più importanti. Gestire un agente AI è come avere un collaboratore brillante ma distratto, che ha bisogno di contesto preciso, supervisione e, soprattutto, di qualcuno che faccia il reality check finale. L’AI non sbaglia come sbagliamo noi – ma sbaglia in modi che noi non ci aspettiamo».

La domanda finale arriva dal pubblico, formulata da Carlo, alumnus Bocconi che modera la sessione Q&A: qual è il vero collo di bottiglia che impedisce all’Italia di sviluppare l’AI al suo potenziale? 

Per Corghi, sono le risorse, ma anche la cultura. Racconta di aver proposto in Italia lo stesso hackathon che aveva organizzato a Boston, dove professionisti di C-level e studenti universitari avevano lavorato fianco a fianco, scambiandosi idee senza gerarchie. «In Italia, i miei colleghi avevano paura di proporre la cosa. Paura che i CEO non volessero mettersi in gioco, sbagliare davanti a qualcuno di meno senior. È questo che ci blocca, non la tecnologia».

Per Sacchi, è l’eccesso di regolazione, o meglio, il tipo sbagliato di regolazione. «In Italia siamo molto bravi a fare leggi. Ma a volte la legge diventa un fine in sé, non uno strumento. Siamo tra i paesi con le normative sull’accesso ai dati più restrittive d’Europa. Questo frena la ricerca, frena l’innovazione. E c’è anche un problema linguistico: in inglese si dice venture capital – avventura, rischio, eccitazione. In italiano diciamo capitale di rischio. La parola rischio è già nella definizione. È un segnale culturale, non solo semantico».

Per Signoretti, il quadro non è solo negativo: l’Italia ha già campioni di qualità nell’AI, startup che conoscono il mercato locale e sanno navigare la complessità normativa. «Non dobbiamo costruire modelli fondativi da zero, nessuna startup italiana può permetterselo. Ma possiamo costruire layer applicativi eccellenti, capire i casi d’uso italiani meglio di chiunque altro, e farlo meglio».

È Pietro Schena a offrire la chiave più originale. In un mondo in cui i grandi modelli convergono verso soluzioni simili – Claude, OpenAI, gli open source – il vantaggio non sta più nel modello, ma nel problema che si sceglie di risolvere. 

E forse, proprio lì, l’Italia ha ancora qualcosa da dire.

L’articolo AI e lavoro, la vera rivoluzione è la promozione invisibile proviene da IlNewyorkese.

Torna in alto