Una tiepida penombra contorna una figura in primo piano. Non ho nessuna certezza che l’immagine sul mio schermo non sia un personaggio di una utopia virtuale creata per soddisfare i miei piaceri. Nick Bostrom potrebbe essere un personaggio simulato da una superintelligenza artificiale. O forse sono io una persona virtuale nella sua realtà sintetica? Bostrom mi parla dal Regno Unito. Dietro di lui una libreria vuota, un architrave di pietra e un abat-jour. Il filosofo dell’intelligenza artificiale dice di sentirsi più libero ora che ha lasciato l’accademia. Non è sicuro sia per sempre. Ma per ora si sente meno limitato dall’apparato amministrativo-burocratico universitario.
Fino all’inizio di quest’anno era professore di filosofia all’Università di Oxford, dove aveva fondato il Future of Humanity Institute, che è stato chiuso dopo 21 anni di ricerca multidisciplinare. «Al momento, mi crogiolo nella mia emancipazione». Bostrom è nato in Svezia, dove ha studiato filosofia, fisica, logica della matematica e intelligenza artificiale. Da metà degli anni novanta si è stabilito nel Regno Unito. Il suo inglese sciolto accompagna un carattere imperturbabile e un atteggiamento atarassico. Ha scritto di astrofisica e filosofia neurocomputazionale, ma anche una fiaba su un villaggio che sacrifica a un drago-tiranno alcuni dei suoi cittadini e un settimo della sua economia (che è una metafora sul malfunzionante sistema sanitario degli Stati Uniti d’America). Dieci anni fa ha pubblicato Superintelligenza. Tendenze, pericoli e strategie. Una riflessione sul rischio catastrofico che una superintelligenza artificiale potrebbe comportare per l’umanità: l’estinzione del genere umano.
Bostrom dice che il ruolo dei filosofi potrebbe essere quello di controllori dello sviluppo tecnologico e consiglieri per il controllo della tecnologia nell’era dove le macchine intelligenti sorpassano per capacità cognitive le abilità umane. «Credo che uno dei ruoli del pensiero filosofico sia contribuire al processo deliberativo sui continui sviluppi tecnologici, e in particolare riguardo l’intelligenza artificiale. Penso che la transizione verso un’era delle macchine intelligenti faccia sorgere questioni molto profonde su che cosa vogliamo dal futuro.»
Vede la filosofia come una disciplina malleabile, capace di combinarsi con altre materie e aree di informazione. Un modo di pensare e di approcciare il pensiero. «Gli strumenti filosofici sono particolarmente utili negli stadi della ricerca che potremmo chiamare pre-paradigmatici, ovvero in quei primi momenti quando non è ancora chiaro quali siano le domande giuste da porre o i giusti concetti da indagare.»
Bostrom è un polymath, uno spirito eclettico che si nutre da svariate fonti. «Nella mia vita, non ho mai fatto distinzione tra filosofia e scienza; per me, sono parti che si sovrappongono di un unico continuum.» A marzo, è uscito il suo ultimo libro, Deep Utopia. Bostrom dice che ha cercato in ogni modo di pubblicarlo prima che la singolarità si compisse, in quanto il libro cerca di rispondere alle domande che sorgerebbero in un “mondo risolto”.
«Dove un sacco di problemi pratici che abbiamo ora sono stati risolti e i restanti problemi potrebbero essere risolti meglio dall’intelligenza artificiale che dagli essere umani», dice Bostrom. «Allora, quale ruolo abbiamo in tale mondo? Che cosa, nella nostra vita, potrebbe darci uno scopo [purpose] e un significato [meaning]? E che cosa potremmo fare per tutto il giorno in questa condizione non solo post-lavoro, ma più generalmente, post-strumentale che avremmo raggiunto.»
Questo saggio filosofico, senza avere una specifica tesi da provare, combina sprazzi della ragion poetante di Nietzsche con tecnicismi della ragione accademica. «È più uno sforzo atto a esplorare un tema particolare e aiutare il lettore a fare attenzione a certe domande di valore fondamentale.»
Deep Utopia nasce da un’esplorazione artistica nell’hinterland creativo, combinando riflessioni metaletterarie, scrittura saggistica, una storia breve e una corrispondenza epistolare. Un mix di stili degno di David Foster Wallace, con una simile tensione narrativa e più carico di riflessione profonde.
Il libro esplora come la superintelligenza artificiale riuscirebbe a massimizzare il piacere provato da un singolo, senza che venga richiesto alcuno sforzo, e ottimizzare gli intenti umani senza che questi debbano impiegarsi in alcuna attività. Quest’epoca di “maturità tecnologica” apre le porte a delle utopie post-penuria, post-lavoro e post-strumentale. La povertà di mezzi verrebbe estirpata, il lavoro quotidiano messo da parte e salvato solo come svago, attività ludica da fare per piacere. Insomma, Marx più Rifkin.
Per finire in un mondo plastico, dove l’essere umano è autopotente. Ovvero capace di realizzare i suoi comandi e desideri meramente esprimendoli nel linguaggio naturale. Una celebrazione della leisure culture, cultura dello svago, del divertissement.
Il saggio diventa quasi una lezione sull’inutilitarismo e sui piaceri dell’otium. Ma Bostrom si distacca da ogni scuola di pensiero che lo racchiuda in uno schema rigido, che detti delle condizioni allo sviluppo delle idee. Denuncia gli “ismi” (postmodernismo, postumanismo, transumanesimo) come categorie non fluide e incapaci di contenere un pensiero nomade.
«In generale, mi trovo in difficoltà con queste etichette e ismi», dice Bostrom. «Di solito un ismo porta con sé anche un pacchetto completo di idee correlate che tu dovresti sposare – tutte quante! – e quindi difenderle; e organizzare il tuo pensiero come una campagna promozionale o difesa di questo pacchetto di idee pre-determinate fin dal principio. Credo che questo sia spesso controproducente per una ricerca filosofica di larghe vedute, dove non sai dall’inizio dove potresti andare a parare, e potresti benissimo trovare alcune parti della tua riflessione essere difettose.»
Pensare attraverso una scuola di pensiero rigida è un guinzaglio, una danda, “obbligo ideologico”. «Vuoi avere le idee migliori ovunque le puoi trovare e pensare in ismi è spesso un impedimento a ciò.»
La riflessione di Bostrom echeggia cosa aveva scritto Heidegger nella Lettera sull’umanismo. Il filosofo tedesco aveva denunciato già nel 1946 questa deriva di denominare le filosofie e il pensiero. La fabbricazione di nuovi “ismi” è una semplice trovata per soddisfare il mercato dell’opinione pubblica, scriveva in risposta a Jean Beaufret.
Il pensare in ismi porta spesso con sé un bagaglio culturale e una comunità affine, dice Bostrom, che possono concordare o meno con lo stile della propria riflessione.
«Negli anni novanta, ho co-fondato World Transhumanist Association [ora chiamata Humanity+] e oggi il transumanismo è una sorta di ismo. Di questi giorni non mi definirei proprio transumanista e in parte perché ci sono così tante persone che fanno, scrivono e credono cose profondamente diverse sotto l’etichetta ‘transumanismo’, e non vorrei essere in una posizione dove devo difendere tutto questo. Quindi, preferisco dire semplicemente che cosa penso e che quelle sono le mie vedute.»
In Deep Utopia, Bostrom tratteggia un’utopia plastica dove l’essere umano diventa metamorfico, ovvero: un essere profondamente trasformato da implementazioni tecnologiche. Dove il cervello umano potrebbe diventare grosso come una megalopoli per conservare sempre più memorie a lungo termine, sostituendo la fibra nervosa con una fibra ottica per massimizzare la memorizzazione di eventi e la trasmissione di questi ricordi. E poi, perché no, si potrebbe sviluppare una civiltà di esseri con cervelli grandi come il pianeta Giove.
Ma quale è il confine a tale metamorfismo? Si potrà dire a un certo punto che una persona non è più una persona, o che è un’altra persona? Come nel paradosso della nave di Teseo, cambiando e sostituendo pezzi del corpo umano, o delocalizzando funzioni e organi umani (perché non più ottimi nella loro funzionalità: laddove parti robotiche possono agire meglio), non esisterà un limite oltre il quale una persona diventa un robot o un’altra persona. Non si scorge una fine, né un inizio. Il processo fluido e inarrestabile è già cominciato.
I prodotti della neurotecnologia permetterebbero di non fermarsi agli organi, ma di sostituire emozioni, desideri, pensieri, conoscenze. Nel suo ultimo libro, Bostrom assume un concetto esteso di personalità umana, che permette perfino al carattere umano di affrontare dei cambiamenti sostanziali pur non cambiandone la personalità – essa viene preservata da una trasformazione “sufficientemente graduale e continua”. Il cambiamento/trasformazione, scrive Bostrom, sarebbe simile a una continuazione del processo di crescita da bambino ad adulto.
Sopra questo traversata nel mare della profonda ridondanza – dove lo sforzo umano non è più necessario –, il cielo è di un sinistro e permanente grigio. Color macchina. Dopo aver conseguito la maturità tecnologica, la civiltà umana non abbisogna più del sudore umano per avanzare: lo sforzo diventa obsoleto e non necessario. A un livello di percezione umana, le finzioni prodotte dall’intelligenza artificiale diventano indistinguibili dalla realtà fisica. I mondi alternativi fantastici multimodali si moltiplicano a un livello polinomiale. In questa età post-strumentale, i fini esteriori non vengono preservati e le persone diventerebbero libere di cominciare esclusivamente attività autoteliche. Attività che contengono “desiderabilità” al loro interno, aumentano il valore di una vita umana e vengono svolte per il puro piacere di svolgerle. Poiché i caratteri umani sono traslucidi e attraverso un processo di “intrinsificazione” i mezzi vengono trasformati in fini per se stessi.
«Abbiamo sondato il capo degli ultimi limiti all’automazione», scrive Bostrom in Deep Utopia. Oltre questo capo artificiale, l’umanità potrebbe decidere di costruire degli habitat stellari e sfere di Dyson atte a facilitare nuove imprese interstellari. E oltrepassare ogni capo di cattiva speranza.
Bostrom scrive che non sa se il nostro mondo sia unico nell’universo. Ma se non esiste alcun multiverso, né una superintelligenza aliena, e l’universo non è troppo largo per le nostre imprese; allora, l’intelligenza umana raggiunge un interesse cosmico. «In una notte scura a sufficienza, perfino il flebile bagliore di una lucciola può apparire come uno spettacolo notevole», scrive.
Seppur le sei lezioni che compongono Deep Utopia si svolgono in una classe universitaria, il libro contiene una critica non velata dell’ambiente accademico. Il ciclo di lezioni che compone la parte saggistica del testo è chiamato Philip Morris Lectures in Moral Philosophy e l’aula stessa viene rinominata Exxon Auditorium all’inizio del libro. Piccoli accenni critici a quanto le università cerchino disperatamente finanziamenti senza alcun rimorso etico (in questo caso facendosi sponsorizzare da un brand di sigarette e una compagnia petrolifera).
Bostrom dice che rimanere all’interno dell’accademia equivale a vestire dei paraocchi e non farsi interessare da una moltitudine di temi che appaiono lontani tra di loro. Eppure, in Deep Utopia non riesce ad abbandonare in toto il linguaggio e il tono universitario. Come l’usare un acronimo per semplificare il nome di una teoria morale elaborata da lui: “meaning as encompassing transcendental purpose (“ETP” for short)”.
Al termine del libro, il personaggio fittizio Bostrom si congeda dai suoi studenti e si nega al rettore che lo invita per una cena accademica con benefattori. E invece appare sotto mentite spoglie, con una barba e sopracciglia finte, a una serata di poetry slam.
Al di là delle finzioni letterarie, Bostrom non sa ancora dove andrà in futuro. Ma di una cosa è certo, starà alla larga dall’accademia e dalle sue limitazioni burocratico-amministrative. Se non altro perché negli ultimi anni la ricerca nel campo dell’AI ha traslocato nei laboratori di ricerca delle grandi compagnie tecnologiche private (Google, Microsoft), e anche alcuni entità governative hanno iniziato ad occuparsene.
Abbandonata Oxford, ora è alla ricerca di un posto calmo e tranquillo, dove l’aria è fresca e pulita e il pensiero non ostruito.