Partiamo dal dato che spaventa di più: secondo stime della Banca d'Italia, circa 4,75 milioni di lavoratori italiani risultano altamente esposti al rischio di sostituzione da parte dell'intelligenza artificiale. Goldman Sachs stima che a livello globale l'AI potrebbe sostituire l'equivalente di 300 milioni di posti di lavoro a tempo pieno. Il World Economic Forum prevede la scomparsa di 83 milioni di posizioni entro il 2027. I numeri sono reali, le fonti sono serie, e ignorarli sarebbe disonesto.
Ma c'è un dato che di solito viene menzionato nella stessa frase: il WEF stima anche la creazione di 69 milioni di nuovi posti di lavoro nello stesso periodo. L'ILO — l'Organizzazione Internazionale del Lavoro — in un report del 2025 è ancora più esplicita: un posto di lavoro su quattro nel mondo è esposto all'AI generativa, ma il risultato più probabile è la trasformazione, non l'eliminazione. Non è ottimismo ideologico: è quello che emerge dall'analisi di quasi 30.000 mansioni professionali incrociate con i dati reali del mercato del lavoro.
Il parallelo con l'agricoltura meccanizzata
Nel corso di un'intervista che ho rilasciato per la serie "A Tu per Tu con l'Esperto di Diritto Informatico", ho ricordato un parallelo che trovo molto utile per mettere la questione in prospettiva: l'introduzione delle macchine agricole. Quando i trattori sostituirono i braccianti nel dopoguerra, mezza Italia lavorava nei campi. La migrazione verso le fabbriche del Nord fu traumatica, disorganizzata, e per molte famiglie drammatica. Eppure nessuno oggi direbbe che quell'innovazione fu un errore. Produciamo più cibo, con meno fatica, e i discendenti di quei braccianti fanno lavori che nel 1950 non esistevano nemmeno come concetto.
La differenza cruciale con l'AI è che questa volta il cambiamento non colpisce solo i lavori manuali e ripetitivi. Colpisce anche — forse soprattutto — i lavori cognitivi di routine: data entry, analisi di documenti, redazione di testi standard, contabilità di base. Il paradosso, certificato da più studi, è che un titolo di studio elevato non costituisce più automaticamente una protezione. Tra i lavoratori italiani altamente esposti, il 54% ha un diploma superiore e il 33% ha una laurea. Chi ha costruito la propria carriera su mansioni cognitive ripetitive è più vulnerabile di chi lavora con le mani in settori difficili da automatizzare.
«L'AI non spaventa perché è più intelligente degli umani. Spaventa perché è abbastanza intelligente da fare il lavoro di milioni di persone che fanno sempre la stessa cosa.»
Dove nasce il problema vero
La narrativa rassicurante — "l'AI crea più lavoro di quanto ne distrugga" — è probabilmente vera nel lungo periodo e su scala aggregata. Il problema è che il lungo periodo è fatto di transizioni, e le transizioni fanno male in modo molto concreto e molto disuguale. Quando una fabbrica automatizza, i lavoratori licenziati non diventano automaticamente esperti di machine learning. Ci sono anni di vuoto, riqualificazione difficile, redditi che precipitano, famiglie che si spezzano. I nuovi posti di lavoro spesso richiedono competenze diverse in luoghi diversi.
L'Italia parte in una posizione scomoda. Nel Government AI Readiness Index 2024, si colloca al 25° posto, dietro a 13 paesi europei. Solo l'8,2% delle imprese italiane utilizza l'AI, contro una media europea del 13,5% e il 19,7% della Germania. Il tessuto produttivo italiano è fatto per la gran parte di micro-imprese e PMI, che storicamente investono meno in ricerca e sviluppo. Il rischio non è solo perdere posti di lavoro — è perdere competitività nel momento in cui le aziende che adottano l'AI diventano strutturalmente più efficienti di quelle che non lo fanno.
Il ruolo della normativa europea
Dal mio osservatorio di ricercatore in diritto informatico — il mio dottorato all'Università di Bologna riguarda proprio i sistemi normativi digitali — quello che trovo più interessante nella risposta istituzionale è l'AI Act europeo. Il regolamento classifica i sistemi di AI in base al livello di rischio e impone obblighi proporzionali: i sistemi ad alto rischio — come quelli usati nelle decisioni di assunzione, nel credito, nella giustizia penale — devono essere documentati, trasparenti, sottoposti a supervisione umana.
È un approccio che condivido nelle premesse, ma che ha un limite evidente nell'esecuzione: la definizione di "rischio alto" è ancora troppo rigida per stare al passo con l'evoluzione dei modelli. Un sistema che oggi classifica come "supporto all'assunzione" può domani automatizzare l'intera decisione senza cambiare una riga di codice. La normativa rischia di fotografare una tecnologia che si muove molto più velocemente del ciclo legislativo. Non è un motivo per non fare la norma — è un motivo per costruire meccanismi di aggiornamento più rapidi.
La vera tutela dei lavoratori nell'era dell'AI non passa solo dalla regolamentazione dei sistemi, ma da politiche attive: investimenti in riqualificazione, ammortizzatori sociali pensati per le transizioni tecnologiche, e soprattutto trasparenza su quali mansioni vengono automatizzate e in che misura. Sapere cosa sta succedendo è il prerequisito per rispondere in modo utile.
Cosa fare, concretamente
Se devo sintetizzare la mia posizione: l'ottimismo sul lungo periodo è giustificato, ma il breve periodo è il problema politico reale. La storia suggerisce che le grandi trasformazioni tecnologiche creano più ricchezza di quanta ne distruggano — ma la distribuzione di quella ricchezza non avviene automaticamente. Richiede scelte. E quelle scelte si chiamano politica industriale, formazione professionale, reti di protezione sociale adeguate.
Un ultimo dato su cui riflettere: secondo il Censis, il 20-25% dei lavoratori italiani usa già strumenti AI sul lavoro. Chi scrive mail con l'AI, chi usa AI per redigere report. Non è il futuro — è il presente. La domanda non è se l'AI cambierà il lavoro, ma se chi lavora sarà nella condizione di adattarsi abbastanza velocemente. E quella è, prima di tutto, una responsabilità collettiva.