L’intelligenza artificiale non è più una novità, ma una realtà che incide sulla vita quotidiana e professionale: dai sistemi di valutazione del credito alle selezioni del personale, dalle diagnosi mediche ai servizi digitali della pubblica amministrazione. Questi strumenti sono in grado di assumere decisioni in modo autonomo o semi-autonomo, producendo effetti concreti per le persone. Ma cosa accade quando una decisione algoritmica è errata, discriminatoria o causa un danno? La questione della responsabilità legale degli algoritmi è oggi al centro del dibattito giuridico europeo.
Decisioni automatizzate e diritti degli interessati
Secondo il Regolamento europeo sulla protezione dei dati (GDPR), i cittadini hanno diritto a non essere sottoposti a decisioni basate unicamente su trattamenti automatizzati che producano effetti giuridici o incidano in modo significativo sulla loro vita. Questo diritto si traduce anche nella possibilità di ottenere l’intervento umano, contestare la decisione e ricevere spiegazioni chiare sul processo utilizzato.
La Corte di giustizia dell’Unione Europea, con una sentenza del dicembre 2023, ha stabilito che anche il semplice punteggio di affidabilità creditizia può costituire una decisione automatizzata, se viene utilizzato in modo determinante da terzi per concedere o negare un contratto.
Il nuovo quadro normativo europeo
Il Regolamento europeo sull’intelligenza artificiale (AI Act), entrato in vigore nell’agosto 2024, introduce una classificazione dei sistemi in base al rischio. Sono previste pratiche vietate, come il social scoring o la manipolazione dannosa del comportamento, e regole stringenti per i sistemi ad alto rischio, ad esempio quelli impiegati nella sanità, nella giustizia o nei processi di assunzione.
Per i sistemi a rischio limitato, come i cosiddetti “deepfake” o i chatbot che interagiscono direttamente con gli utenti, è richiesto almeno un obbligo di trasparenza: le persone devono sapere quando stanno interagendo con un sistema di intelligenza artificiale.
Il calendario applicativo dell’AI Act è graduale: alcune norme sono già in vigore, mentre altre entreranno pienamente in applicazione tra il 2025 e il 2027.
Responsabilità civile e difetti del prodotto digitale
Sul piano della responsabilità civile, la regola resta quella generale: chi immette sul mercato o utilizza un sistema che provoca un danno può esserne chiamato a rispondere. Con l’adozione della nuova Direttiva europea sulla responsabilità da prodotto, anche il software e i servizi digitali sono stati ricompresi tra i beni suscettibili di difetto. In pratica, sia il produttore di un algoritmo sia l’impresa che lo utilizza possono essere considerati responsabili, a seconda dei casi.
Inoltre, negli ordinamenti nazionali trovano applicazione le tradizionali regole sulla responsabilità contrattuale ed extracontrattuale, che possono estendere la responsabilità anche a chi gestisce o supervisiona l’uso di un sistema di intelligenza artificiale.
Il problema della trasparenza algoritmica
Uno degli aspetti più delicati riguarda la cosiddetta “opacità algoritmica”. Molti sistemi di intelligenza artificiale, soprattutto quelli basati su tecniche di apprendimento automatico, funzionano come una “scatola nera”: è difficile capire con chiarezza il percorso logico che porta a una decisione.
Questa mancanza di spiegabilità rischia di compromettere la possibilità per gli utenti di difendersi e per i giudici di valutare la correttezza di una decisione. Per questo le nuove regole europee insistono sulla necessità di garantire trasparenza e tracciabilità, specie nei sistemi ad alto rischio.
Casi concreti e interventi delle autorità
Negli ultimi anni, diverse autorità nazionali hanno già sanzionato l’uso scorretto di algoritmi. In Italia, ad esempio, il Garante per la protezione dei dati personali è intervenuto nei confronti di piattaforme di consegna che utilizzavano sistemi opachi di valutazione dei rider, penalizzando alcuni lavoratori in modo ingiusto. Più di recente, la stessa Autorità ha contestato l’uso di sistemi di intelligenza artificiale generativa in assenza di basi giuridiche adeguate, imponendo pesanti sanzioni.
Questi casi dimostrano che la responsabilità degli algoritmi non è un tema astratto: incide direttamente sulla vita dei cittadini e sull’organizzazione delle imprese.
Prevenzione e buone pratiche per le aziende
Le imprese che adottano sistemi di intelligenza artificiale devono dotarsi di strumenti di compliance adeguati. Tra le misure consigliate vi sono:
-
la mappatura degli usi dell’IA e la classificazione del rischio;
-
la valutazione d’impatto sulla protezione dei dati (DPIA) quando necessaria;
-
la predisposizione di controlli umani significativi sulle decisioni algoritmiche;
-
la verifica periodica dell’assenza di bias o discriminazioni;
-
la trasparenza nei confronti degli utenti.
L’intelligenza artificiale rappresenta una straordinaria opportunità di innovazione, ma pone sfide nuove e complesse per il diritto. Il legislatore europeo ha già introdotto regole specifiche, ma la responsabilità finale non può che restare in capo alle persone e alle organizzazioni che sviluppano, distribuiscono e utilizzano questi sistemi.
Per i cittadini è fondamentale conoscere i propri diritti e poterli esercitare. Per le imprese, invece, diventa essenziale integrare nei propri processi non solo l’efficienza dell’IA, ma anche la conformità normativa e il rispetto delle tutele fondamentali.