“Sommate i database di riconoscimento facciale a micro droni sempre più economici e avrete una forza omicida globale del tutto anonima, letale e precisa come mai era stato possibile”.
Si apre così Le Nuove Leggi della Robotica, l’ultimo libro di Frank Pasquale, professore di legge alla Brooklyn University, edito in Italia da LUISS Press. Una ouverture scandalosa, inquietante, ma che lascia già intendere lo spirito che anima l’opera. Un grande pragmatismo, ai limiti del cinico realismo; unica via, però, per inquadrare davvero le questioni che ruotano attorno alle nuove tecnologie.
L’intento del libro, invero, è straordinariamente propositivo ed ottimista, ma secondo l’autore è imprescindibile la necessità di individuare tutte le devianze e le preoccupazioni causate non tanto dall’insorgere di tecnologie rivoluzionarie in sé, bensì dal contesto sociale in cui queste vengono sviluppate ed applicate. Ne consegue che la soluzione forse sia da ricercare non tanto nel tecnicismo, quanto nella natura umana e nel suo rapporto con la tecnologia. D’altronde l’idea di dare leggi, di normare, è squisitamente umana.
Giaà Isaac Asimov nel racconto Il circolo vizioso (1942) aveva elaborato una breve lista di leggi, tre per la precisione, legate alla regolamentazione del rapporto fra uomini e robot:
1. Un robot non può recar danno ad un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Per il professor Pasquale sono enunciazioni complementari, a tratti circolari, con il rischio di creare ambiguità. Da subito nel libro traspare la complessità della regolazione del rapporto fra umanità e mondo delle macchine, presentando esempi di criticità nelle formulazioni asimoviane. Pasquale si chiede infatti se un drone robotico possa attaccare un gruppo di terroristi per neutralizzarli: tale azione andrebbe in verità in contrasto con la prima legge (“Un robot non può recar danno ad un essere umano”), ma rispettando tale imposizione disattenderebbe alla seconda parte della stessa legge (“Né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno”). L’obiettivo del professore è dimostrare l’immensa complessità del tentativo di normare la relazione uomo-macchina e si assume quindi l’onere di suggerire nuove leggi da integrare a quelle di Asimov, la prima di queste è di nostro particolare interesse, poiché è la questione fondamentale al centro delle nostre riflessioni verso le nuove forme “intelligenti” di tecnologia: “I sistemi robotici e le AI (Intelligenze Artificiali) devono essere complementari ai professionisti e non sostituirli”. Sfogliando le pagine di Le Nuove Leggi della Robotica ci si rende conto di quanto in fondo il vero soggetto dell’opera non siano tanto I Robot, bensì l’umanità stessa: dale diverse modalità di gestire i rapporti interpersonali, fino ai livelli più complessi della gestione della cosa pubblica. Di questi temi ne abbiamo parlato con il professor Frank Pasquale.
La parola legge risulta centrale nel libro. Legiferare sulle nuove tecnologie non sarebbe effettivamente un prerequisito per integrarle pienamente nella nostra società?
Per troppo tempo i tecnologi si sono concentrati nell’apportare profondi cambiamenti alla tecnologia, senza prima consultare le comunità che ne sarebbero state colpite. Uno dei modi più importanti per ricondurre un sano dibattito sulla tecnologia, in particolare sull’intelligenza artificiale e la robotica, è insistere sul fatto che queste nuove forme di macchinari e di elaborazione delle informazioni riflettano i valori pubblici. E questo, credo, è ciò che la legge dovrebbe fare. La legge ha lo scopo di tradurre importanti valori pubblici in nuovi contesti e di garantire che questi valori siano effettivamente realizzati e riflessi in ciò che facciamo come società, inclusa la tecnologia.
C’è un tema ricorrente nel libro: quello del sistema socio-economico in cui viviamo. In alcuni passaggi sembra che il contesto sistematico in cui si inseriscono, sia più problematico delle nuove tecnologie in sé.
Sì, penso che una riflessione socio-culturale più ampia sia la vera chiave per affrontare questi temi: quando abbiamo a che fare con molte delle nuove tecnologie di sorveglianza – robot carcerari, robot killer e altro – la questione è più profonda, il vero problema sono le forme di controllo e conflitto, piuttosto che l’introduzione della tecnologia all’interno di queste. Pertanto, un trattato completo sull’etica dell’intelligenza artificiale deve partire necessariamente da un’analisi ad ampio raggio dell’economia, delle strutture sociali e politiche della società in cui le tecnologie vengono sviluppate ed applicate. Ecco perché all’interno del libro analizzo, ad esempio, la politica generale sulle carceri in varie società. Alcune società hanno modalità di gestire la giustizia e l’esecuzione della pena nettamente differenti da altre e qualsiasi intelligenza artificiale o robotica che verrà introdotta probabilmente avrà un impatto migliore in quelle società nelle quali già la filosofia di fondo è orientata alla rieducazione, rispetto a contesti sociali che sono più punitivi e con scarse possibilità di reinserimento, come spesso lo sono gli Stati Uniti. Apportare uno sguardo critico d’insieme costringe il campo dell’etica dell’intelligenza artificiale e della regolamentazione della tecnologia ad aprirsi a una più ampia comprensione di cosa sta andando bene nella società e cosa sta andando invece male, orientando verso il progresso sociale la progettazione delle nuove tecnologie.
La guerra è spesso indicata come il campo più critico in cui integrare intelligenza artificiale e robot. Se in altri settori è possibile lavorare per evitare devianze pericolose da parte delle macchine, l’uso di bellico di queste lascia invece poche possibilità di interpretazione. Molti analisti e scienziati iniziano a lanciare l’allarme sui robot killer e sulla de-personalizzazione dei conflitti, come possiamo intervenire in questo campo?
L’idea che i robot possano intervenire in contesti bellici, ma anche di pubblica sicurezza è difficile da scardinare e, nonostante i numerosi appelli, ci sono alcuni fattori di convenienza che continuano a far spingere verso il senso opposto. Da un lato, parlando come cittadini in un paese con soldati e polizia, vogliamo garantire la loro sicurezza e può sembrare, da una posizione astratta, che il modo migliore per garantirla sia azionare robot da remoto, invece di mettersi in pericolo affrontando un criminale o il nemico in combattimento. E questo è certamente uno dei motivi per cui polizia e militari sono sempre più interessati a queste tecnologie. Tuttavia, il problema si verifica quando così tanta tecnologia da elaborare muta il processo stesso di conduzione dei conflitti: la guerra è diventata caccia. E questo è disumano. È disumano avere una situazione in cui una parte è tanto tecnologicamente superiore da avere essenzialmente il controllo completo dell’altra: una sorta di Hunger Games. Quindi, ad esempio, in contesti in cui un attore bellico dispone di molta più tecnologia rispetto alla fazione avversa, si creerebbe una situazione nella quale la disparità di forze e di mezzi porterebbe a concepire un qualcosa di più simile a un’azione di polizia che a una guerra e nella pubblica sicurezza, rispetto alla guerra, ci sono molti più obblighi da parte della polizia di prendersi cura del benessere delle persone che stanno sorvegliando. E quindi, questo è un primo passo verso il problema, ma il problema più ampio, che approfondisco nel libro, è la corsa agli armamenti. Quando qualcuno inizia a investire in robot killer, altri credono di dover ribattere per non rimanere indietro e non rischiare di venire sopraffatti. La sfida per il futuro è allontanare totalmente l’Intelligenza Artificiale dall’applicazione in questi settori, orientando tutti a studiare, a sviluppare ed anche a concorrere sui suoi possibili benefici.
Insomma, anche pensando a robot, IA e realtà virtuali, l’umanità resta il fattore essenziale…
Si assolutamente. Questa è l’idea chiave che dobbiamo interiorizzare e che ci deve far riflettere profondamente su ciò che rende la vita umana preziosa, utile, significativa quando adottiamo nuove tecnologie. Il management, la politica, la burocrazia, la guerra, sono tutte aree in cui oggi determinate logiche portano a pensare che l’uomo possa essere tagliato fuori o che possa essere sostituito dalla robotica. Poiché quella possibilità diventa sempre più perseguibile, deve esserci un limite e penso che debba essere quello di stabilire quale tipo di relazione con la tecnologia può essere funzionale non a sostituirci o a sostituire chi ci sta intorno, bensì a raggiungere i nostri obbiettivi, i nostri sogni, le nostre aspirazioni con più facilità. Insomma, il centro del mio ragionamento ruota proprio intorno all’idea di mantenere un certo divario fra noi, che pensiamo, sorridiamo, proviamo odio, empatia e mille altre cose e le macchine. È un obiettivo da perseguire anche sul posto di lavoro, cercando di garantire che i robot si limitino ad essere complementari alle risorse umane anziché sostituirle completamente: dobbiamo assumerlo come un impegno per preservare il lavoro umano, per preservare il ruolo umano nella cura, nel lavoro emotivo. La tecnologia non deve sostituire gli esseri umani, ma aiutarli.