Nel settembre 2022 la Commissione europea aveva presentato la proposta di AI Liability Directive, un testo pensato per rispondere a una domanda concreta: se un sistema di intelligenza artificiale ti causa un danno, come ottieni un risarcimento? Sembrava il complemento naturale dell'AI Act, che si occupa di prevenire i rischi ma non di riparare i danni già avvenuti. L'11 febbraio 2025, quella proposta è stata ritirata. L'Europa ha detto: non è il momento.

Questo lascia un vuoto preciso. L'AI Act sanziona: prevede multe fino a 35 milioni di euro o il 7% del fatturato globale per le violazioni più gravi. Ma le sanzioni vanno allo Stato, non alla vittima. Se un sistema AI ti dà informazioni mediche errate, o ti discrimina in una procedura di selezione, o prende decisioni automatizzate che ti danneggiano, le sanzioni amministrative non ti restituiscono nulla. Hai bisogno di uno strumento di diritto civile per essere risarcito, e quello strumento non c'è ancora a livello europeo.

Il problema della catena

Quando un sistema AI causa un danno, di solito ci sono almeno due soggetti in mezzo: il provider, cioè chi ha addestrato e sviluppato il modello, e il deployer, cioè chi lo ha messo in produzione in un contesto specifico. Nella proposta ritirata, entrambi avrebbero potuto essere chiamati in causa, con la novità che il carico della prova si invertiva parzialmente: non era la vittima a dover dimostrare la colpa, ma il soggetto convenuto a dover dimostrare di aver rispettato le regole.

In pratica questo meccanismo avrebbe funzionato come segue. Il provider dice: ho rispettato tutte le linee guida dell'AI Act, il modello era conforme. Il deployer dice: il modello base che ho integrato era già difettoso, io l'ho solo usato. La vittima rimane in mezzo a un ping-pong giuridico, che è esattamente il problema che la direttiva avrebbe dovuto risolvere e che adesso, senza di essa, rimane aperto. Come ho analizzato nel caso OpenClaw, questa catena di responsabilità frammentata è già un problema concreto con gli agenti AI autonomi, e lo diventerà sempre di più.

L'informazione non è il problema

C'è però un secondo livello di questo dibattito, spesso confuso con il primo, che ritengo più importante. Alcune correnti di pensiero, sia in Europa sia oltre Atlantico, spingono verso una visione in cui il sistema AI, e quindi i suoi sviluppatori, siano responsabili per le informazioni che il sistema fornisce. Non per le azioni che compie, non per i danni diretti che causa, ma per il contenuto informativo che veicola.

Questa impostazione è sbagliata nel metodo e pericolosa nelle conseguenze. L'informazione, in quanto tale, non può essere vietata in uno Stato di diritto. Quello che può e deve essere regolato è l'uso che se ne fa. Un'enciclopedia che descrive le proprietà chimiche di una sostanza non è responsabile di quello che chi legge decide di farne. Un motore di ricerca che restituisce risultati su un argomento sensibile non è responsabile delle intenzioni dell'utente che ha formulato quella query. Il medium è neutro rispetto all'intenzione del fruitore.

Un sistema AI che risponde a una domanda è un vettore di informazione. La responsabilità nasce nel momento in cui qualcuno trasforma quell'informazione in un'azione dannosa. Il mezzo non è il colpevole.

Applicare questo principio all'AI significa riconoscere che la responsabilità deve essere calibrata su tre livelli distinti. Chi ha sviluppato il modello risponde se il modello ha difetti tecnici che lo rendono pericoloso in modo intrinseco, indipendentemente dall'uso. Chi lo ha messo in produzione risponde se lo ha integrato in un contesto per cui non era adatto, senza le salvaguardie necessarie. Chi lo usa risponde se trasforma un output informativo in un'azione che causa danno a terzi. Confondere questi tre livelli non produce maggiore tutela per le vittime: produce confusione giuridica e incentivi distorti per chi sviluppa tecnologia.

Il rischio della sovraregolamentazione per paura

Il ritiro della AI Liability Directive non è necessariamente una cattiva notizia in sé: la proposta aveva difetti tecnici significativi e avrebbe probabilmente generato più contenzioso di quanto ne avrebbe risolto. Il problema è il vuoto che lascia, e soprattutto la direzione in cui alcune legislazioni nazionali potrebbero muoversi per riempirlo.

Il rischio concreto, a mio avviso, è quello di una corsa alla sovraregolamentazione guidata non da un'analisi precisa dei danni e dei meccanismi causali, ma dalla percezione di pericolosità dello strumento. Legiferare sull'AI come se fosse un soggetto dotato di intenzioni, come se "dicesse" cose anziché elaborare statisticamente distribuzioni di probabilità su testi, è un errore concettuale prima ancora che giuridico. Porta a norme che sanzionano lo strumento per l'uso che ne fa l'utente, scaricando sul settore dello sviluppo tecnologico una responsabilità oggettiva che non ha basi solide né nella teoria della responsabilità civile né nella logica dell'imputazione penale.

Costruire sistemi AI più sicuri è un obiettivo che vale la pena perseguire, e l'AI Act ne indica la direzione in modo ragionevole per la parte che riguarda le categorie ad alto rischio. Ma sicurezza non equivale a vietare le informazioni, e responsabilità non equivale a far pagare chi ha costruito uno strumento per quello che altri hanno deciso di farci. Come già visto con i browser agentici, il nodo non è la tecnologia in sé, ma il contesto in cui viene usata e le garanzie che chi la usa deve rispettare. Il passo successivo, che l'Europa non ha ancora fatto, è costruire uno strumento di risarcimento che funzioni davvero per le vittime senza trasformare ogni sviluppatore in garante universale di tutti gli usi possibili della propria tecnologia.