BOT economy e le leggi di Asimov

chatBOTday Tour

Nel 1956, John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester dettero l’avvio all’intelligenza artificiale (AI), con l’obiettivo di sviluppare la disciplina IT in grado di svolgere funzioni e ragionamenti tipici della mente umana. Dagli anni 80, con la fase creativa dei “sistemi esperti” a supporto di quasi tutte le attività umane, la tecnologia AI si è evoluta in modo pervasivo. Qualche giorno fa, per esempio, la banca svizzera UBS ha presentato due sistemi “intelligenti” capaci di operare nel complesso lavoro di analisi e investimento mobilare. Da anni, ormai, IBM punta sul sistema cognitivo Watson, in grado di rispondere a domande espresse in un linguaggio naturale. Per non parlare dell’auto a guida autonoma che tanto scalpore sta creando e di robot che scrivono articoli come giornalisti o che incidono album di musica pop.

Adesso, si chiamano BOT: abbreviazione di robot, ma anche di software robot. E molti definiscono questa nuova fase come “BOT Economy”. Su Communication of ACM (7/2016) Emilio Ferrara della Southern California University e Alessandro Flammini dell’Indiana University (insieme con altri) descrivono l’avvento dei “social BOT”, come software robot intelligenti in grado di interagire sulle social network alla pari con gli umani, e con la conseguente necessità di individuarli per non incorrere in evidenti guai. Vengono ipotizzati, addirittura, BOT agenti di spionaggio e di controspionaggio. Mark Zuckerberg lo scorso aprile ha annunciato l’arrivo dei BOT su Messenger, scritti per imitare il nostro modo di conversare e offrire notizie, informazioni o assistenza. Facebook, in effetti, non è la prima società a investire sui BOT come nuova forma di comunicazione e interazione. Google, infatti, usa BOT per raccogliere informazioni su qualsiasi pagina in modo da poterla inserire negli indici. Il report “The Next Era of Human-Machine Partnerships” dell’Institute for the Future, prevede che il 2030 sarà l’anno della nuova era collaborativa fra essere umano e BOT e che la fiducia degli esseri umani nella robotica e nell’intelligenza artificiale è destinata a evolversi in una vera e propria partnership.

Il rapporto uomo-robot è da sempre uno dei temi più avvincenti che riguardano la scienza e l’epistemologia e che ha interessato grandi menti da Leibniz a Popper. Come noto, dagli albori dell’AI, esiste il famoso “test di Turing” definito negli anni 50 del secolo scorso. Il grande matematico Alan Turing teorizzò il test per capire se una macchina fosse in grado di imitare il comportamento umano. Oggi, in effetti, molti BOT superano agilmente il test di Turing e sono in grado di auto-decidere senza l’intervento dell’uomo: come Golem usciti non dalla mitologia ebraica e medioevale ma frutto dello sviluppo tecnologico. È questo il grande rischio prossimo venturo della nostra civiltà? Dobbiamo avere paura dei BOT e della AI? Isaac Asimov, fin dai suoi primi racconti fantastici, si pose il problema e definì le famose tre leggi della robotica: 1) un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno; 2) un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge; 3) un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima o con la seconda legge. Mentre nell’automazione classica, l’individuazione della responsabilità è quasi immediata, con i BOT diventa molto difficile determinare lo status giuridico e le responsabilità nei confronti di terzi, in particolare per il “recar danno” della prima legge. Vi è, quindi, un assoluto vuoto normativo da colmare e il Parlamento Europeo sta cercando di porvi rimedio con nuove regole. Auspichiamo che le tre leggi di Asimov siano prese come riferimento fondamentale per il nuovo corpus normativo.

Leggi anche:  Trasformare la fantascienza in scienza