Massimo Berlingozzi – pubblicato su Persone e Conoscenze (ESTE) dicembre 2021
Ci vuole qualcosa di più che l’intelligenza per agire in modo intelligente
(Fëdor Dostoevskij)
Il tentativo di dare una definizione unica e omnicomprensiva del concetto di intelligenza, di questa importantissima qualità umana, non ha mai avuto successo. Ci troviamo infatti di fronte a qualcosa di enormemente complesso e in larga parte ancora non compreso. Una sorta di gigantesco mosaico, il cui significato tuttavia sfuggirebbe al “Demone di Laplace”, perché mai riconducibile alla somma delle caratteristiche delle singole tessere. Eppure, tentativi se ne sono fatti, eccome. Dall’antica distinzione dei filosofi greci tra intelletto e ragione, sopravvissuta, con formulazioni diverse, fino alle opere dei grandi filosofi del diciottesimo secolo, per arrivare alla definizione di “Intelligenze multiple” di Howard Gardner (1983), che spazia dall’intelligenza logico matematica a quella linguistica, musicale spaziale e interpersonale.
Più semplicemente molti di noi metterebbero in relazione l’idea di intelligenza con il famoso Q.I. (Quoziente di Intelligenza), nozione che, a partire dai lavori dello psicologo francese Alfred Binet nei primi anni del ‘900, ebbe infatti grande successo, dando vita a numerosi strumenti per la sua valutazione. Ancor oggi i test per la valutazione del Q.I., orientati a sondare prevalentemente capacità cognitive di memoria e di ragionamento, sono ampiamente presenti nei test di ammissione a molte facoltà universitarie.
Per molto tempo, dunque, l’idea di intelligenza come sinonimo di pensiero razionale, ha avuto un ruolo dominante nella nostra cultura, creando un filtro valutativo che ha condizionato profondamente le scelte in molti campi a partire dall’educazione e quindi dalla scuola. L’idea di una “intelligenza sociale” comincia a farsi strada intorno agli anni ’40, e poi, in modo più ampio, con i primi lavori di Gardner negli anni ’70, ma è solo in un articolo pubblicato nel 1990 che Salovey e Mayer danno una prima definizione di Intelligenza Emotiva: “La capacità di controllare i sentimenti e le emozioni proprie e altrui, distinguerle tra di esse e di utilizzare queste informazioni per guidare i propri pensieri e le proprie azioni”.
Con gli anni ’90 si conclude quindi il lungo e faticoso percorso che ha portato a riconoscere le emozioni come una componente essenziale della nostra intelligenza. L’interesse per le emozioni, precedentemente, a partire dall’opera di Charles Darwin, era prevalentemente legato agli studi nel campo della biologia e in seguito affrontato da psicologi particolarmente attenti a comprendere l’aspetto biologico delle emozioni, importanti in questo senso i lavori di Silvan Tomkins (1962) e poi quelli di Paul Ekman e Wallace V. Friesen (1969). Il merito degli studi sull’intelligenza emotiva, approdati poi al grande pubblico attraverso la vasta opera divulgativa di Daniel Goleman, è aver fatto comprendere il ruolo fondamentale che le emozioni svolgono in situazioni per molto tempo immaginate come esclusivo dominio del pensiero logico razionale. Il premio Nobel 2002 per l’economia, assegnato a Daniel Kahneman, è la più importante conferma in questa direzione. Gli studi di Kahneman dimostrano infatti come le decisioni umane, in campo economico (ma non solo), divergano sistematicamente dalla presunta razionalità a lungo sostenuta dalle teorie economiche classiche.
La sintesi di quanto detto finora, anche in assenza di una definizione capace di soddisfare chiunque, ci pone dunque di fronte a una visione ampia e articolata dell’intelligenza umana, che include, oltre al dominio della mente ragionante, anche ciò che della nostra intelligenza è legato alle emozioni e ai sentimenti. Una base importante per avviare un confronto con il concetto di Intelligenza Artificiale. (AI).
Ciò che è intelligente non è mai artificiale
Molti individuano in Alan Turing, famoso per la decrittazione della macchina “Enigma” con cui la Germania nazista cifrava i suoi messaggi, il padre dell’Intelligenza Artificiale. Alcuni suoi lavori, come quello in cui sviluppa l’idea del test che porta il suo nome, sono considerati come i primi importanti contributi di questa disciplina. Ma solo nel 1955 John McCarthy conierà la definizione di Intelligenza Artificiale (A.I.), formulando insieme a Marvin Minsky e Claude Shannon, la cosiddetta “proposta di Dartmouth”, in cui vengono definiti i temi principali della ricerca in questo campo: le reti neurali, la teoria della computabilità, la creatività e l’elaborazione e il riconoscimento del linguaggio naturale.
La domanda se l’Intelligenza Artificiale è, o sarà, in grado di replicare o addirittura superare l’intelligenza umana, è una questione molto aperta e dibattuta, animata da voci autorevoli spesso fortemente discordanti. Lungi dall’idea di poter trarre delle conclusioni definitive, è importante tuttavia fornire un necessario chiarimento: molto del materiale informativo reperibile su questo argomento, è fortemente condizionato dagli enormi interessi economici legati agli sviluppi tecnologici in questo settore. Nell’ambito di una disciplina a cavallo tra futuro e fantascienza, dal sapore inevitabilmente affascinante, diventa dunque fondamentale saper distinguere le conoscenze realmente acquisite dal linguaggio del marketing.
Nel 2015 ha avuto molto risalto un appello firmato dal filosofo Nick Bostrom, autore del libro Superintelligenza, a cui ha aderito anche il celebre astrofisico Stephen Hawking, sulle minacce legate a uno sviluppo incontrollato dell’A.I. C’è chi ha giudicato come eccessive queste preoccupazioni, ma è innegabile che queste valutazioni producano forti suggestioni in una opinione pubblica impressionata dagli straordinari risultati ottenuti da presunte “macchine pensanti”. Negli ultimi anni i sistemi di machine learning e hanno permesso ad Alpha Go, l’Intelligenza Artificiale di Google DeepMind, di battere in più partite i migliori giocatori al mondo di Go, l’antico gioco cinese considerato più complesso degli scacchi, spingendosi quindi ben oltre il risultato conseguito da Deep Blue di IBM nella leggendaria partita del 1997 contro Garry Kasparov. Ancor più meraviglia hanno destato il computer AIVA, presentato a Vancouver da Pierre Barreau, che compone musica ispirandosi a Beethoven e, nel campo della pittura, il progetto “The Next Rembrandt”, entrambi capaci di realizzazioni in grado di confondere gli esperti. Infine, nell’ambito della scrittura, il nuovo generatore di linguaggio GPT-3 che, sfruttando processi di deep learning, è capace di completare un articolo di giornale senza permettere al lettore di riuscire a distinguere il prodotto dell’A.I. con l’intero testo originale.
Sono risultati di questo tipo che fanno dire ad alcuni esperti del settore che il momento in cui sarà possibile replicare l’intelligenza umana è ormai molto vicino. Demis Hassabis, del Deep Mind di Google, è convinto che questo traguardo potrà essere raggiunto in qualche decina d’anni, altri, come Rodney Brooks direttore fino al 2007 del Laboratorio di A.I. del MIT di Boston, sono infinitamente più cauti e pensano che ci vorranno centinaia d’anni.
Ma la stima sull’asse del tempo rischia di essere una lettura molto parziale per chi riflette su questo tema in modo molto più radicale. Luciano Floridi, professore ordinario di filosofia ed etica dell’informazione a Oxford, afferma che non ha senso parlare di intelligenza, poiché “tutto ciò che è veramente intelligente non è mai artificiale e tutto ciò che è artificiale non è mai intelligente”. Tutti, peraltro, sono concordi nell’affermare che i risultati straordinari a cui abbiamo accennato, non siano classificabili come “Artificial General Intelligence” (AGI), un’AI capace di replicare completamente l’intelligenza umana, ma solamente come “Narrow Artificial Intelligence”, “Intelligenza artificiale debole”, che si pone come obiettivo la realizzazione di un sistema capace di agire con successo in una specifica attività complessa come, per esempio, il riconoscimento di immagini. È proprio di questo che parla Floridi, quando invita a riflettere sullo “scollamento” che si è creato tra la “capacità di agire con successo nel mondo” e la necessità di essere intelligenti. Se infatti, per un attimo, ci distacchiamo dallo straordinario risultato raggiunto, e ci chiediamo come l’A.I. ha agito per ottenerlo, scopriamo che questo risultato è stato ottenuto operando, unicamente, attraverso un enorme capacità di elaborazione di dati
Perché solo noi: il discrimine del linguaggio
Ogni vera ricerca genera inevitabili sorprese, esiste infatti un’abilità, apparentemente più semplice di quelle finora descritte, dal momento che per ognuno di noi è molto naturale, che si è rivelata invece come uno scoglio enormemente difficile da superare per una macchina, e che forse, proprio per questa ragione, può essere considerata come una delle porte d’accesso per comprendere l’unicità dell’intelligenza umana: la comprensione del linguaggio naturale (uno degli aspetti di ricerca indicati dalla “Proposta di Dartmouth” 1955).
Perché solo noi è il titolo di un saggio del 2016 di Noam Chomsky e Robert Berwick, in cui il padre della teoria della grammatica universale innata, insieme a Berwick, un linguista computazionale, spiegano l’evoluzione del linguaggio e l’origine della sintassi come qualità esclusivamente umana, non presente in altre specie animali e irriproducibile da parte di apparati artificiali. I problemi, per ora irrisolvibili, che i programmi di A.I. incontrano nella comprensione del linguaggio naturale, inclusi i sistemi più avanzati (NLP Natural Language Processing) in questo settore, come il già citato GTP-3, confermano questa ineliminabile distanza. L’enorme difficoltà che dimostrano nella comprensione di semplici elementi legati al senso comune: contestualizzare i significati, generalizzare e astrarre concetti, comunicare per analogie e metafore, comprendere doppi sensi, allusioni, ironia, ecc., aiutano a definire meglio alcune caratteristiche peculiari del linguaggio e dell’intelligenza umana, ancora poco indagate, e, almeno per ora, non riproducibili. E tutto questo senza scomodare la capacità di comprendere le infinite sfumature della comunicazione emotiva, che molto spesso rappresentano il vero elemento discriminante per interpretare correttamente intenzionalità e reale significato di un messaggio. Ciò che è immediatamente chiaro per un bambino di pochi anni, si rivela tremendamente difficile per la macchina.
Alcune evidenze sperimentali aiutano a chiarire meglio questi aspetti. Andrea Moro, linguista e neuroscienziato allievo di Chomsky, spiega come tutti noi apprendiamo una lingua nei primi cinque anni di vita elaborando un campione di circa venticinque milioni di parole, mentre un esperimento in corso tutt’oggi, con lavori pubblicati, dimostra che un sistema di A.I., anche se esposto a trenta miliardi di parole: “non riesce a convergere neanche a un frammento della grammatica cui converge un bambino”. L’analisi statistica, anche se supportata da enormi capacità di calcolo, non è in grado di dedurre la struttura di una lingua naturale. Risultato che non dovrebbe apparire poi così strano, se si pensa che questi sistemi usano parole disconnesse da qualsiasi esperienza e di cui non conoscono il significato. La macchina non sa che cosa sta facendo, opera in modo statistico, si limita, come afferma Judea Pearl, uno dei pionieri nell’approccio probabilistico all’A.I., ad applicare la sua gigantesca capacità di calcolo per: “trovare regolarità nascoste all’interno di un enorme set di dati”. Affermazione che trova il consenso anche di altri esperti, convinti che si sia raggiunto un limite difficilmente superabile. Nonostante la quantità di dati, sempre crescente, che queste macchine riescono a elaborare, sistemi che operano sulla base di calcoli statistici, non riescono a compiere processi tipici dell’intelligenza umana. La sfida appare pressoché impossibile anche dal lato “hardware”, se guardiamo al cervello umano, con i suoi cento miliardi di neuroni e trilioni di sinapsi, ci rendiamo conto che nulla del genere è stato mai nemmeno lontanamente costruito. Un siffatto apparato, poi, avrebbe bisogno di un livello di efficienza energetica di un miliardo di volte superiore ai migliori computer attuali, un traguardo tecnico irrealizzabile con le attuali tecnologie. Consumerebbe in ogni caso quantità enormi di energia, il nostro cervello riesce a farlo consumando circa 20 Watt.
Abili e consapevoli gestori di macchine straordinarie
Arrivati a questo punto possiamo chiudere il cerchio. Nessuna intelligenza artificiale generale (AGI) si profila all’orizzonte, possiamo dormire sonni tranquilli. La “sfida” con l’intelligenza umana appare rimandata a un tempo lontanissimo o forse per sempre. Le macchine, per quanto capaci di risultati straordinari, possono solo simulare alcuni aspetti dell’intelligenza umana, ma simulare e comprendere sono due processi totalmente diversi, sarebbe grave non cogliere questa fondamentale distinzione: noi utilizziamo una sintassi di cui spesso non ricordiamo le regole, ma siamo consapevoli dei significati che stiamo elaborando. La macchina ha imparato ad usare un insieme di regole, ma ignora i significati che sta producendo. Affascinati dai risultati, rischiamo di dimenticare di chiederci attraverso quale processo sono stati realizzati, perdendo di vista, in questo modo, l’essenza dell’intelligenza umana: il pensiero cosciente.
Resta del tutto attuale, invece, l’impatto che l’Intelligenza Artificiale Limitata (sistemi capaci di altissima efficienza nella risoluzione di specifici problemi) potrà creare in termini di perdita di posti di lavoro. Le previsioni mostrano dati spesso contrastanti, in particolar modo riguardo alla comparsa di nuove professioni. Molte persone, tuttavia, temono questo scenario immaginando di non riuscire a adattarsi a queste trasformazioni. Certo, non possiamo trasformarci in luddisti del terzo millennio, anche perché ormai è tutto immateriale ciò che dovremmo distruggere. Il vero problema è sviluppare le competenze necessarie per poter gestire questi grandi cambiamenti e farlo con la giusta consapevolezza.
Una rinnovata consapevolezza che deve evolvere da una profonda comprensione della straordinaria unicità dell’intelligenza umana, dove s’intrecciano parole, idee, emozioni e sentimenti, dando vita a quell’immenso mosaico che, proprio perché sfugge alla nostra comprensione, non è ancora riproducibile. Il rischio di dimenticare tutto questo, e abbandonarci a una comoda e passiva dipendenza da macchine sempre più potenti e capaci, è reale. Gli etologi ci hanno insegnato che gli animali che trovano il cibo troppo facilmente, sviluppano una minore intelligenza. Per centinaia di migliaia di anni ci siamo evoluti risolvendo problemi e superando grandi difficoltà. Il mondo del lavoro e quello della scuola si trovano di fronte a una grande sfida per il futuro, si tratta solo di decidere se accettarla
Il tuo carrello è vuoto.