Intelligenza Artificiale e responsabilità civile: l’Europa a un bivio normativo

L’Unione Europea è indecisa di fronte a un bivio normativo. Dopo aver adottato lo AI Act, il primo quadro normativo complessivo al mondo in materia di Intelligenza Artificiale, la Commissione minaccia di ritirare la proposta di direttiva in materia di responsabilità civile e IA (AILD). Il timore è quello di un eccesso di regolazione che spaventa le imprese.
Andrea Bertolini, professore associato presso l’Istituto Dirpolis della Scuola Superiore Sant’Anna di Pisa, affronta il tema con uno studio richiesto dal Parlamento Europeo su ““Intelligenza artificiale e responsabilità civile – Una prospettiva europea”.
Lo studio rappresenta un contributo fondamentale al dibattito sul futuro giuridico dell’intelligenza artificiale in Europa, evidenziando come l’assenza di un quadro normativo europeo uniforme porti necessariamente a una frammentazione e alla moltiplicazione di soluzioni nazionali, potenzialmente divergenti. In questo caso, l’assenza di norme produce un effetto di overregulation molto dannoso per le imprese.
Lo studio sottolinea alcune criticità della proposta di direttiva su responsabilità civile e IA (AILD) attualmente all’esame, che rischia di essere ampiamente inadeguata. Infatti, prevedendo solo soluzioni procedurali e non stabilendo una chiara regola di responsabilità ben definita, non sarebbe in grado di prevenire la frammentazione e lo sviluppo di soluzioni diverse nei 27 stati membri.
È invece fondamentale focalizzare gli interventi normativi solo sui sistemi di IA ad alto rischio, evitando una regolazione eccessiva delle applicazioni a basso impatto e introducendo modelli di responsabilità alternativi, più efficaci, come regole di responsabilità oggettiva o di colpa presunta per offrire maggiore certezza legale, protezione per gli utenti e sostenibilità per le imprese.