Gianluigi Guida, l’AI apre i cancelli verso un nuovo mondo

Gianluigi Guida, l'AI apre i cancelli verso un nuovo mondo

Come governare l’opacità intrinseca dell’intelligenza artificiale per evitare errori e rischi. Combinare scienza, innovazione e tecnologia con il diritto è davvero possibile? Lo abbiamo chiesto a Gianluigi Guida, esperto di normativa e intelligenza artificiale

Ultimamente, si è parlato tanto di come regolare l’intelligenza artificiale. E a tal proposito si è espressa anche l’Unione europea. Sinceramente ho fatto sempre fatica a studiare e a fare gli esami di diritto. Così, ho pensato di chiedere lumi all’avvocato Gianluigi Guida. Perché proprio lui? Non solo si è formato alla University of Washington ma è uno dei pochissimi avvocati italiani che ha studiato e lavorato su temi legati all’AI. Infine, è stato lui a scrivere la normativa sandbox per le fintech italiane. Le norme, generalmente, rincorrono la tecnologia e spesso neanche la raggiungono. In altri termini, può capitare che, nel tempo necessario affinché l’uso di una determinata nuova tecnologia possa essere regolamentato, tale tecnologia si sia già evoluta, rendendo obsoleta la norma prima ancora della sua emanazione.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

In questo campo, il lavoro del legislatore non appare semplice. Sicuramente una problematica da affrontare è la imputabilità della responsabilità nel caso in cui qualcosa vada storto. Ad esempio… Non riesco a finire che Gianluigi Guida anticipa le domande: «Come esempi, si possono citare incidenti stradali causati dalle auto a guida autonoma, diagnosi sanitarie o prescrizioni di farmaci non appropriate e altro. In questi casi, che sono già attuali, il punto è: chi è responsabile per il danno causato? L’AI può essere intesa alla stregua di un essere umano al fine di attribuirle una responsabilità, oppure la responsabilità dovrebbe ricadere sul proprietario, sullo sviluppatore, sul produttore dell’apparato hardware dell’IA, o sul venditore del prodotto finale»? Veramente, l’intervista dovrei farla io. Rido. Quindi, che tipo di approccio i legislatori dovrebbero adottare? «A tal riguardo – spiega Gianluigi Guida – ritengo opportuno anzitutto differenziare tra AI e machine learning. Nell’accezione comune, si ritiene che l’AI sia un sistema teso a riprodurre comportamenti decisori umani limitandone il margine di errori. Il ML, un sub-gruppo dell’AI, mira ad apprendere da una moltitudine di dati, offrendo un output all’essere umano o all’AI. In poche parole: l’AI prende decisioni, il ML offre suggerimenti».

Leggi anche:  Evoluzione delle minacce cyber alla luce dei conflitti in corso

RISCHI E RESPONSABILITÀ

Il problema dell’imputabilità della responsabilità è evidente nel caso dell’AI decisoria, soprattutto in quei casi in cui l’intervento umano è assente, ma tale problema può essere marginale nel caso del ML. «Esemplificando – spiega Gianluigi Guida – una Tesla investe una persona e Spotify mi suggerisce una playlist che non mi piace. Nel primo caso, si configurerà una responsabilità per il sinistro; nel secondo, tutt’al più una scarsa user satisfaction. Le norme relative alla responsabilità dell’AI dovrebbero essere il più possibile proporzionate all’attività e agli usi della AI, proprio in quanto non tutti gli usi e le applicazioni comportano i medesimi rischi. In secondo luogo, le norme dovrebbero tendere da un lato a creare fiducia da parte della collettività nell’intelligenza artificiale, e dall’altro a invogliare gli sviluppatori a proseguire nella ricerca e nel perfezionamento degli algoritmi. È sempre il delicato equilibrio accennato poco fa. Come cittadino è mio interesse sapere che, se l’auto a guida autonoma mi investe, saprò a chi imputare la colpa al fine di ottenere un risarcimento. D’altro canto, è del pari mio interesse che l’uso dell’intelligenza artificiale sia sempre più diffuso e migliorato al fine di diminuire proprio il rischio di essere investito. Il maggior numero di incidenti stradali, difatti, avvengono a causa di errori o distrazioni umane. Come detto, l’AI tende a riprodurre i comportamenti decisori umani “epurati” dagli errori. Ragionando per ipotesi, se tutto dovesse essere svolto dall’AI, considerando le capacità dell’AI di auto-apprendere, si giungerebbe a un mondo senza errori. Ma, per quanto io ne sappia, un mondo perfetto non è possibile. Il punto è, dunque, definire cosa sia un errore. Mi spiego meglio richiamando un famoso esempio».

LA VECCHIETTA E IL BAMBINO?

«Beh. Sì. Un bambino e un adulto attraversano la strada sulle strisce. Sopraggiunge un’auto a guida autonoma che non può evitare di investire uno dei due pedoni. Cosa sceglierà di fare? Quale sarà il processo decisorio? Se investirà l’adulto, per comune esperienza, probabilmente si è portati a pensare che avrà agito correttamente in quanto i bambini vanno sempre protetti; ma se si pensa che l’adulto era il sostentamento per un’intera famiglia, inclusi i suoi tre figli, stabilire quale sia l’errore acquista una nuova prospettiva. Qui si va sul filosofico. Ciò che rileva, da un punto di vista di responsabilità, è che sia possibile imputare l’errore (qualunque esso sia) a un soggetto o entità ben precisi al fine di poter essere risarciti. Si stanno proponendo alcune soluzioni, alcune già esistenti, che vanno dalla responsabilità oggettiva unita a copertura assicurativa obbligatoria (esattamente come già avviene per le auto), passando per la responsabilità da prodotto difettoso o per la custodia di animali o cose, fino a dotare i robot più avanzati di vera e propria soggettività giuridica, divenendo così centri autonomi di imputabilità del danno cagionato».

Leggi anche:  5 modi in cui una moderna architettura dei dati può ridurre i costi delle telco

L’OPACITÀ DELL’AI

Responsabilità oggettiva o responsabilità soggettiva. Ognuna delle quali però ha delle criticità. «E non banali» – commenta Guida. «Nel caso, per esempio, della responsabilità oggettiva, il proprietario o chi ha la disponibilità dell’AI è responsabile dei danni causati dall’AI a meno che non riesca a provare che il danno è stato dovuto a un caso fortuito o a causa di un terzo, e tale prova, in genere, non è affatto facile da fornire. Le cose, inoltre, si complicano notevolmente con riferimento al fenomeno “black-box” dell’AI, ossia la intrinseca difficoltà nel riuscire a tracciare e retrocedere nel processo cognitivo e decisorio svolto in autonomia dalla AI. Questa “opacità” dell’AI rende poco agevole fornire la prova liberatoria di cui sopra. Tra l’altro, più i robot diventano autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori».

PRODOTTO DIFETTOSO?

«Anche qui mi sorge il dubbio su come si possa provare la difettosità dell’AI per aver preso una decisione basata sull’autoapprendimento, e quindi non prevedibile dal produttore al momento dell’immissione sul mercato. Sembra la classica “prova diabolica”. Nel caso poi di soggettività giuridica dell’AI, la differenza tra essere umano e macchina sarà sempre meno evidente (giuridicamente parlando), con tutte le conseguenze che ciò comporta anche in termini etici».

QUINDI, COME SE NE ESCE?

«Credo che, specialmente in questo caso, la risposta più appropriata sia quella favorita dagli avvocati: “It depends”. È obiettivamente difficile dare una risposta univoca. Ritengo, però, che il legislatore attento agli impieghi già esistenti e a quelli potenziali dell’AI, con una visione proiettata verso il futuro unita a una ragionevole ponderazione dei rischi, potrà aprire i cancelli verso un nuovo mondo».

Leggi anche:  Solve.it sblocca il potenziale IT delle aziende enterprise. Soluzioni su misura e know-how Made in Italy