La questione della responsabilità legale nell’utilizzo dei sistemi di intelligenza artificiale è di crescente importanza in tutto il mondo, e Wired ha deciso di parlane nel suo articolo “Chi paga per i danni causati dall’intelligenza artificiale?“, di cui vi consiglio la lettura nel caso l’argomento fosse di vostro interesse. L’Unione europea ha fornito una definizione di intelligenza artificiale, ma in Italia non esiste ancora una regolamentazione specifica sulla materia. Attualmente, la responsabilità civile potrebbe essere attribuita ai principi di “attività pericolosa” e “cosa in custodia” del Codice Civile, ma questi principi potrebbero rivelarsi inadeguati rispetto alla capacità di autonomia dei sistemi di intelligenza artificiale.
La responsabilità contrattuale potrebbe essere applicata solo se esiste una relazione tra il fornitore del servizio di intelligenza artificiale e l’utilizzatore. Tuttavia, in caso di danno causato dall’intelligenza artificiale, la proposta di Regolamento sull’Intelligenza Artificiale prevede che il produttore sia tenuto a dimostrare di aver fatto tutto il possibile per evitare il danno. Inoltre, la Direttiva Macchine potrebbe subire modifiche per introdurre requisiti di conformità specifici per i sistemi di intelligenza artificiale.
In diversi casi, la responsabilità per i danni causati dall’intelligenza artificiale è stata attribuita al produttore, mentre in altri casi è stato individuato il soggetto che aveva il controllo dell’utilizzo della macchina. Un caso interessante è quello della Corte Federale Australiana nel caso Thaler vs. Commissioner of Patents, che ha negato la possibilità di brevettare un’invenzione creata da un sistema di intelligenza artificiale poiché priva di personalità giuridica.
In Italia, la Corte di Cassazione ha affrontato la questione della responsabilità per danno causato da un sistema di intelligenza artificiale di rating reputazionale per illecito trattamento di dati personali. La corte ha individuato la causa del danno nell’assenza di trasparenza sull’algoritmo utilizzato dal sistema stesso per determinare il rating.
In sintesi, la regolamentazione sulla responsabilità legale dell’uso dei sistemi di intelligenza artificiale è ancora in fase di sviluppo, ma è fondamentale tenere in considerazione le possibili implicazioni delle capacità di autonomia e decisionale dei sistemi di intelligenza artificiale. Le normative dovrebbero inoltre prevedere la trasparenza degli algoritmi utilizzati dai sistemi per prevenire eventuali danni causati da un uso improprio dei dati personali.