“Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti”. Era il 1986 quando Umberto Eco scriveva queste parole, da quella data molta acqua è passata sotto i ponti. Chi poteva, allora, anche solo immaginare gli sviluppi che avrebbe avuto la rivoluzione digitale? Oggi il computer lo teniamo in tasca, più spesso in mano. Il 65% degli abitanti del mondo possiede uno smartphone, uno strumento con una potenza di calcolo da far impallidire i computer degli anni 80. La velocità e la quantità di dati scambiati sono impressionanti e costantemente in crescita (è stato calcolato che nel solo 2012 sono stati prodotti più dati che nei cinquemila anni precedenti). I sistemi di machine learning e deep learning hanno portato Alpha Go, l’Intelligenza Artificiale di Google DeepMind, a battere i migliori giocatori al mondo di Go, l’antico gioco cinese considerato più complesso degli scacchi.
La domanda dunque è quanto mai attuale: riuscirà l’Intelligenza Artificiale (AI) a replicare e poi, forse, anche a superare l’intelligenza umana? I pareri tra gli esperti sono molto discordanti: c’è chi dice mai; chi come Rodney Brooks, direttore fino al 2007 del laboratorio di informatica e intelligenza artificiale del MIT di Boston, pensa che ci vorranno centinaia d’anni; e chi invece, insieme a Demis Hassabis del Deep Mind di Google, è convinto che questo traguardo potrà essere raggiunto in qualche decina d’anni. I risultati, in ogni caso straordinari, raggiunti dall’intelligenza artificiale non sono infatti classificabili come: “AGI” (Artificial General Intelligence), un’AI capace di replicare completamente l’intelligenza umana, appartengono invece all’AI definita debole o limitata, che si pone come obiettivo la realizzazione di un sistema capace di agire con successo in una specifica attività complessa come, ad esempio, la traduzione di testi o il riconoscimento di immagini.
I progressi dell’AI sono comunque tali da aver messo in allarme molte persone riguardo al futuro. Un certo scalpore ha suscitato, ad esempio, l’appello contro i pericoli di uno sviluppo incontrollato dell’AI, che ha avuto come protagonista un personaggio del calibro di Stephen Hawking poco prima della sua morte. Ma, senza spingerci troppo oltre, è il tema del lavoro a generare serie preoccupazioni. Difficile, infatti, parlare di “nuove professioni” senza evocare una paura, sempre più diffusa, verso un futuro ostile e incerto in cui macchine sempre più intelligenti ruberanno i posti di lavoro agli esseri umani. “Il futuro senza lavoro” è il titolo di un libro, pubblicato in Italia nel 2017, che si occupa di questo. L’autore, Martin Ford, un imprenditore della Silicon Valley che opera da 25 anni nel campo dell’AI con la fama di futurologo, pone una seria domanda: questa volta è diverso? Dati alla mano, dimostra che, a differenza delle rivoluzioni industriali passate, durante le quali i posti di lavoro cancellati venivano sostituiti da nuove occupazioni, oggi non è più così. Ford sostiene che è sufficiente leggere i numeri, e quelli disponibili evidenziano come i posti creati sono inferiori rispetto a quelli usurpati dalle macchine. Aggiunge anche che, sempre all’impatto della tecnologia si devono fenomeni come: il ristagno dei salari, la disoccupazione a lungo termine, la sottooccupazione dei neolaureati, il forte aumento della diseguaglianza.
Ma anche nel caso del lavoro le previsioni degli esperti sono molto dissimili. Citiamo, a titolo di esempio, due diverse ricerche: il primo è lo studio di due accademici di Oxford, Carl Benedikt Frey e Michael A. Osborne, i quali hanno calcolato che nei prossimi due decenni, il 47% dei lavori negli Stati Uniti potrebbe essere spazzato via da robot e macchine intelligenti (in uno dei suoi ultimi discorsi il presidente degli Stati Uniti Barack Obama affermò che: il giorno in cui i sistemi di guida autonoma saranno operativi, quattro milioni di camionisti americani perderanno il loro lavoro). Il secondo esempio riguarda una recente indagine dell’Ocse, curata da Melanie Arntz, Terry Gregory e Ulrich Zierahn, che valuta invece in appena il 9% dei posti di lavoro a rischio nei paesi più industrializzati.
Quello che è certo è che siamo di fronte a un cambiamento epocale, prova ne è che, contrariamente a quanto molti pensano, l’impatto delle macchine intelligenti non riguarda soltanto il settore della produzione, ma si sta espandendo anche al modo dei servizi, dove il numero di robot e software intelligenti che si interfacciano con gli utenti, sono già il doppio di quelli del settore industriale. Una rivoluzione che sta coinvolgendo comparti del mondo del lavoro, inimmaginabili fino a poco tempo fa, legati ad attività di relazione: avvocati, giornalisti, militari, infermieri, medici, babysitter, camerieri, ecc. Nessuna professione insomma sembra essere più totalmente al riparo.
La paura che le macchine prendano il sopravvento sul lavoro dell’uomo è una storia antica, che ci riporta con la memoria all’origine della rivoluzione industriale e ai luddisti che distruggevano i telai meccanici. Ma la paura odierna non è più verso la macchina come possibile sostituto della “forza lavoro”, oggi la macchina sfida l’intelligenza dell’uomo, il suo aspetto più nobile. È per questa ragione che dobbiamo essere capaci di definire e descrivere con precisione, cosa distingue l’intelligenza umana e in quali ambiti non è sostituibile.
Può sembrare semplice rispondere alla domanda su quali siano gli elementi distintivi e quindi il vero, e diverso, valore dell’intelligenza umana, ma quando si comincia a indagare si scopre che la vicenda, alla luce dei risultati nel campo dell’AI, è decisamente molto complessa. Il filosofo americano John Searle, noto per i suoi studi sulla “filosofia della mente”, sostiene che una macchina può essere in grado di “simulare” un comportamento intelligente, ma non per questo la si può definire realmente intelligente. Pensare e simulare sono due attività completamente diverse. La macchina si limita ad applicare istruzioni o regole, per quanto complesse, senza comprendere nulla di quanto sta facendo. Dispone solo di una competenza “sintattica” nel combinare simboli, non possiede invece una competenza “semantica”, indispensabile per attribuire un significato ai simboli su cui sta operando. Pensare, secondo Searle, in quanto esperienza cosciente, vissuta dal soggetto, è quindi una attività irriducibile a qualsiasi altra forma che non sia legata all’esperienza cosciente dell’essere umano.
Al contrario di John Searle ci sono ricercatori nel campo del deep learning che, come abbiamo visto all’inizio, sono convinti che la creazione di una macchina cosciente, costituita di neuroni artificiali, sia un traguardo raggiungibile. Da questo punto di vista, chi è scettico riguardo all’intelligenza delle macchine, avrà provato più di un brivido di fronte al computer AIVA, presentato a Vancouver da Pierre Barreau, che compone musica autonomamente (dopo un periodo di apprendimento) ispirandosi a Beethoven, o di fronte a macchine simili nel campo della pittura, come nel caso del progetto “The Next Rembrandt”, capaci di realizzazioni straordinarie in entrambi i casi. Risultati di questo livello, nonostante alla macchina venga “ordinato di creare”, sembrano minacciare un dominio dell’intelligenza, per ora ritenuto esclusivamente umano, come la creatività. Resta, come ultimo baluardo in difesa dell’intelligenza umana, la considerazione che la macchina non è consapevole di quello che sta facendo. Lo spiega bene un pioniere di questa materia come Judea Pearl, che valuta questi risultati come il prodotto di macchine superpotenti, che tuttavia si limitano a “trovare regolarità nascoste in un ampio set di dati”. Affermazione che trova il consenso di altri esperti nel campo dell’AI, convinti che si sia raggiunto un limite difficilmente superabile. Nonostante la quantità di dati, sempre crescente, che queste macchine riescono a elaborare, i software, che operano sulla base di calcoli statistici, non riescono ancora a compiere processi tipici dell’intelligenza umana come: l’abilità di generalizzare e ragionare astrattamente, per arrivare a problemi riguardanti i significati e il buon senso. Ricordo personalmente una lezione di molti anni fa di Massimo Piattelli Palmarini, che spiegava come per un bambino sia facile comprendere che se due persone sollevano singolarmente 30 chili, probabilmente insieme ne solleveranno 60. Ma se le stesse persone saltano individualmente un metro insieme non saltano due metri. Bene, concludeva, provate a spiegare tutto questo a una macchina e capirete molte cose sui processi mentali e sull’intelligenza. Quello che accade, e che sembra difficilmente superabile, è che piccole variazioni di contesto, facilmente gestibili da qualsiasi persona (per esempio all’interno di un dialogo dai confini non precedentemente definiti), può mandare in tilt le migliori AI oggi disponibili.
Il quadro che abbiamo appena delineato lascia intravedere un futuro in cui possiamo dormire sonni tranquilli: nessuna super-intelligenza si profila dietro l’angolo. Se guardiamo al cervello umano con i suoi 100 miliardi di neuroni e trilioni di sinapsi, ci rendiamo conto che nulla del genere è stato mai nemmeno lontanamente costruito (tralasciando il fatto che i tecnici affermano che una macchina simile dovrebbe avere un livello di efficienza energetica di un miliardo di volte superiore ai migliori computer attuali: un traguardo tecnico irrealizzabile con le attuali tecnologie). La sfida con l’intelligenza umana appare dunque rimandata di molti anni o (secondo alcuni) per sempre. Resta del tutto presente invece il problema dell’impatto che l’Intelligenza Artificiale Limitata (sistemi capaci di altissima efficienza nella risoluzione di specifici problemi), può creare in termini di perdita di posti di lavoro, come sostenuto da Martin Ford.
Di fronte a questa reale minaccia, il vero problema di cui dovremmo occuparci, è il nostro atteggiamento nei confronti della tecnologia, per chiederci se siamo ancora capaci di scegliere e di guidare gli eventi possibili. Il rischio di una comoda e passiva dipendenza dalla tecnologia, che da un lato facilita le nostre vite ma dall’altro ci porta ad abbandonare abilità e competenze, apparentemente obsolete, è molto forte. A cosa serve essere capaci di orientarsi se possediamo un GPS capace di portarci a pochi metri dalla nostra destinazione? A cosa serve conoscere le regole dell’ortografia e della sintassi se hai a tua disposizione un correttore automatico? È ancora importante faticare per apprendere le lingue se, di qui a poco, potremo avere tra le mani un piccolo e potentissimo traduttore universale? Serve a qualcosa sviluppare una specifica competenza nella ricerca delle informazioni e nella comparazione delle fonti, se mi basta cliccare su Google per avere “tutta informazione del mondo” a disposizione? (peccato che quasi nessuno si spinga oltre la prima pagina e si chieda quali siano i criteri che hanno generato quella prima pagina). Sono tutte meravigliose opportunità, come negarlo? Ma cosa accade alla nostra testa? Il tutto si aggrava, poi, quando queste opportunità ci vengono fornite senza averle richieste. Innocui suggerimenti, o valanghe di informazioni che distraggono continuamente le nostre menti? (potenti sistemi di AI sono attivi in questo senso, sostenuti da grandi investimenti).
Gli etologi ci hanno insegnato che gli animali che trovano il cibo troppo facilmente, sviluppano una minore intelligenza. Per milioni di anni ci siamo evoluti risolvendo problemi, ora rischiamo di delegare tutto a qualche clic. L’idea che gli strumenti tecnologici siano, nella loro essenza, neutri, per cui dipende da noi l’uso buono o cattivo che ne facciamo, come ci ha insegnato McLuhan, è un pensiero ingenuo. Le modificazioni che producono nella nostra rappresentazione della realtà sono determinanti, perché incidono sul nostro modo di reagire e di pensare. Di questo si occupa in modo ampio Manfred Spitzer, che dirige il Centro per le Neuroscienze e L’Apprendimento dell’Università di Ulm, nel libro “Demenza digitale”. Il sottotitolo, “come la nuova tecnologia ci rende stupidi”, è abbastanza esplicito nel descrivere uno scenario in cui viene minacciata la nostra capacità critica, la capacità di riflettere e di concentrarci; bombardati da stimoli capaci di attivare il rilascio di dopamina, un neurotrasmettitore legato ai meccanismi della ricompensa e del piacere, che genera dipendenza.
Non si tratta di inutile allarmismo, i dati sconfortanti relativi al nostro paese, riguardanti un fenomeno come l’analfabetismo funzionale, al 28%, dovrebbero farci riflettere: quasi un italiano su tre, è capace di leggere e scrivere, ma non riesce a comprendere il significato di un testo minimamente complesso, come un articolo di giornale. Questa triste classifica, che ci vede all’ultimo posto in Europa, è il segnale di una grave perdita di competenza che avviene in una fase storica in cui sarebbe invece fondamentale poter attingere alle nostre migliori risorse cognitive, per affrontare le sfide del futuro pensando lucidamente, ma anche con una punta di orgoglio, al valore dell’intelligenza umana.
C’è un passaggio profetico, che rievoca i romanzi distopici di Orwell e Huxley, nella premessa di un libro del 1985 di Neil Postman, “Divertirsi da morire”, quando internet era un privilegio per pochi specialisti:
“Aspettavamo tutti il 1984. Venne, ma la profezia non si avverò… fummo risparmiati dagli incubi di Orwell. Avevamo dimenticato un’altra visione meno infernale e nota di quella di Orwell ma altrettanto raggelante. Quella contenuta nel: “Mondo nuovo” di Aldous Huxley. Orwell aveva immaginato il Grande Fratello, nella visione di Huxley non sarà un supremo dittatore a toglierci l’autonomia e la cultura. La gente sarà felice di essere oppressa e adorerà la tecnologia che libera dalla fatica di pensare. Orwell temeva che i libri sarebbero stati banditi; Huxley, non che i libri fossero vietati, ma che non ci fosse più nessun desiderio di leggerli. Orwell temeva coloro che ci avrebbero privati delle informazioni; Huxley, quelli che ne avrebbero date troppe, fino a ridurci alla passività e all’egoismo. Orwell temeva che la nostra sarebbe stata una civiltà di schiavi; Huxley, che sarebbe stata una cultura cafonesca, ricca solo di sensazioni e bambinate. Libertari e razionalisti – sempre pronti ad opporsi al tiranno – non tennero conto che gli uomini hanno un appetito pressoché insaziabile di distrazioni. In “1984” la gente è tenuta sotto controllo con le punizioni; nel “Mondo nuovo”, con i piaceri… La cosa che affliggeva la gente del “Mondo nuovo” non era ridere anziché pensare, ma non sapere per cosa ridessero e perché avessero cessato di pensare”
C’è un ultimo insegnamento che possiamo trarre dalle ricerche sull’Intelligenza Artificiale. Chi lavora in questo campo definisce pragmaticamente l’intelligenza come la capacità di affrontare e risolvere con successo situazioni e problemi, abbiamo visto che questo risultato è stato brillantemente raggiunto dalle macchine. Allora forse è arrivato il momento di chiedersi, in sintonia con la ricerca del valore più profondo dell’esperienza umana, se sia più importante l’intelligenza o la saggezza. Lasciamo questa riflessione alle parole, anche queste straordinariamente profetiche, scritte da Thomas Eliot nel 1934:
“Dov’è la saggezza che abbiamo perduto nella conoscenza? Dov’è la conoscenza che abbiamo perduto nell’informazione?”.
Il tuo carrello è vuoto.