Rubrica “PSICOLOGIA DELLE EMOZIONI” di Diego Ingrassia – “ANALISI EMOTIVO-COMPORTAMENTALE E NUOVE TECNOLOGIE”
per PSICOLOGIA CONTEMPORANEA – Futuro – n. 267, Maggio-Giugno 2018 – GIUNTI EDITORE
Nel corso degli anni Ottanta la filmografia statunitense è stata particolarmente prolifica nel genere fantascientifico. Pellicole nelle quali il futuro era rappresentato attraverso due filoni molto diversi: se pensiamo alla trilogia di Robert Zemeckis Ritorno al futuro, eravamo di fronte a un mondo popolato da macchine del tempo, automobili volanti e altri strani congegni, in cui il progresso era visto in modo ottimistico e speranzoso. Negli stessi anni, però, riscuotevano successo anche pellicole di stampo ben diverso, più inclini a riprendere lo spirito della letteratura distopica anglosassone, di cui Orwell e Huxley sono gli esempi più famosi. Film come Blade Runner di Ridley Scott o Terminator di James Cameron mettevano in scena androidi che si ribellavano ai loro creatori, gettando le premesse per un futuro infausto nel quale gli esseri umani rischiavano di perdere il loro primato nella scala evoluzionista, soppiantati da una “specie artificiale” superiore, invulnerabile e più intelligente.
A distanza di trent’anni, quale fra questi scenari si sta avverando? Per quanto riguarda i tre film citati, nessuno. Ma quando ci si interroga rispetto al futuro, le opinioni continuano a dividersi: ottimisti convinti della bontà del progresso, da un lato; critici, preoccupati e pessimisti, dall’altro. Significativa al riguardo la reazione dei media alla notizia che descriveva il comportamento di Alice e Bob, due robot sviluppati all’interno dell’esperimento Facebook AI (Intelligenza Artificiale), divenuti famosi perché, dal nulla, sfruttando la loro intelligenza e velocità nell’elaborazione di concetti astratti, sono stati capaci di inventare una lingua incomprensibile all’équipe dei ricercatori, che, tra la meraviglia e il panico, hanno deciso di interrompere l’esperimento. La tecnologia di cui oggi disponiamo comporta rischi e benefici.
La rivoluzione avvenuta attraverso i mezzi digitali di comunicazione ci permette di fare cose inimmaginabili sino a pochi anni fa, con velocità, facilità e precisione straordinarie. Al contempo ci espone a rischi che non conoscevamo rispetto a privacy, possibili danni economici e tutela dei nostri diritti. È chiaro, quindi, che da qualche anno sia in atto un cambiamento epocale che per essere governato richiede nuove conoscenze, ma soprattutto una rinnovata consapevolezza.
Due esempi, per loro natura vicini ai temi di cui ci siamo occupati su queste pagine, possono aiutarci a comprendere meglio il mutamento in atto.
AVATAR (Automated Virtual Agent for Truth Assessment in Real time) è un progetto in fase di sperimentazione ideato da Aaron Elkins, professore del Fowler College of Business Administration presso la San Diego State University. La sua funzione è supportare i servizi di sicurezza aeroportuali nella valutazione dei passeggeri: un vero e proprio rilevatore di menzogne digitale, a detta dei suoi creatori.
Il suo funzionamento è sofisticato: una volta scansionato il documento d’identità, il “chiosco” (un box nel quale si interagisce con un sistema di intelligenza artificiale dotato di microfoni e telecamere in altissima risoluzione) sottopone il passeggero a una lunga serie di domande. I quesiti riguardano elementi della quotidianità, aspetti personali e dati anagrafici; durante questa fase il sistema analizza e valuta il tono della voce, la dilatazione della pupilla, il movimento degli occhi, le espressioni facciali e la postura.
Analizzando tali elementi comportamentali involontari, il sistema formula una sua valutazione in base ai livelli di stress denunciati dal soggetto in esame. Il sistema, come abbiamo visto, è ancora in fase di sperimentazione, ma rappresenta un grande passo avanti rispetto ai poligrafi tradizionali, che sono inutilizzabili nei contesti molto popolati per fare rapide analisi su larga scala.
Il secondo esempio riguarda un settore specialistico che storicamente ha visto la professione dello psicologo come protagonista. Unilever ha adottato, a partire dal 2016, un processo di selezione del personale che utilizza l’Intelligenza Artificiale e la Gamification. Il primo step riguarda l’apertura di posizioni lavorative su LinkedIn o Facebook da parte dell’azienda. Il candidato si iscrive senza bisogno di inviare il classico curriculum, un algoritmo fa una prima valutazione delle competenze in base al profilo LinkedIn. Il passo successivo, per chi viene ritenuto idoneo, consiste in una serie di giochi che misurano concentrazione, memoria a breve termine, cultura generale, problem solving. Il tutto viene eseguito anche comodamente da casa, dal proprio smartphone. Le persone che superano questa fase devono inoltrare un loro videomessaggio di presentazione che un sofisticato software elabora in base alla voce, alle espressioni facciali, allo stile verbale e ai contenuti. Solo chi supera quest’ultimo passaggio viene convocato in azienda per un classico colloquio di selezione, condotto da psicologi esperti.
Siamo di fronte a tecnologie innovative che chiaramente riducono in maniera drastica costi e velocità di elaborazione delle informazioni, e in questo particolare aspetto risiede il loro valore. Sappiamo di non poter competere con la macchina nella capacità di elaborare in tempi rapidi quantità enormi di dati e informazioni. L’obiettivo “efficienza” è sicuramente raggiunto, ma quale prezzo stiamo pagando in termini di qualità?
Tornando, quindi, al dilemma iniziale tra l’adesione entusiastica alle tecnologie del futuro e la paura di spingersi verso un progresso pericoloso per la condizione umana, è più semplice constatare che è impossibile fermare i cambiamenti, anche imponenti, che stanno avvenendo, ed è per questa ragione che dobbiamo essere capaci di comprendere a fondo gli elementi distintivi e il vero il valore dell’intelligenza umana.
La macchina non è consapevole di ciò che fa, non ha coscienza, non ha emozioni. La capacità di contestualizzare gli elementi di senso, garantire equilibrio emotivo e ragionevolezza nel processo decisionale, comprendere responsabilmente le conseguenze di una determinata scelta, essere capaci di fornire risposte anche di fronte a situazioni ambigue, sono aspetti peculiari dell’intelligenza umana che, per ora, i software non sono in grado di replicare. Opinione condivisa anche dallo psicologo Paul Ekman quando ci ricorda che per adesso il contributo umano è lo strumento più affidabile nella codifica e interpretazione del comportamento (in particolare quando si analizzano gli aspetti emotivi), come potrete leggere in modo più approfondito nell’articolo dedicato al metodo FACS su questo stesso numero della rivista.
Il tuo carrello è vuoto.