Tutti noi vorremmo acquisire competenza nel leggere le emozioni dell’altro: osservando le espressioni del viso possiamo ottenere preziose informazioni dal nostro interlocutore.
Ci piacerebbe acquisire questa abilità, magari ottimizzando i tempi d’apprendimento, oppure addirittura bypassandoli.
Da queste considerazioni molte società stanno investendo per progettare software che possano leggere le espressioni facciali e il comportamento del viso al posto nostro. Possiamo paragonare questo momento storico al periodo in cui abbiamo inventato la calcolatrice scientifica per evitare di eseguire mentalmente calcoli matematici complessi.
Per approfondimenti:
Ma è davvero così semplice sostituire l’essere umano nel capire il comportamento di un altro essere umano?
Le ricerche applicative concernenti la psicologia, il marketing e il neuro-marketing possono fruire di queste applicazioni software: si pensi all’analisi del volto via web-cam, al fine di definire se un particolare stimolo (video proiettato, suono o altro), provoca reazioni emozionali nell’utente. Le società che investono in pubblicità sono interessate a sapere preventivamente se il proprio prodotto, spot pubblicitario o progetto creativo, ha appeal o meno nel potenziale acquirente o fruitore del servizio.
Le applicazioni citate negli articoli ci illuminano su quanto il progresso stia portando beneficio all’analisi del comportamento umano.
Pensate al progetto su cui sta investendo una famosa casa automobilistica che permetterà all’autovettura di riconoscere quando l’autista è troppo stanco o troppo arrabbiato per guidare. Oppure agli occhiali in dotazione alle forze di Polizia di Dubai, che riescono a decodificare le espressioni facciali e a cogliere le emozioni delle persone interrogate. Ma, talvolta, impiegare questi strumenti senza avvalersi di un’esperta consulenza tecnica in merito, porta alla non corretta lettura dei dati da parte degli utenti.
L’uomo è ancora lo “strumento” più affidabile nell’analisi delle espressioni facciali, dato che riesce a contestualizzare e interpretare meglio ogni mimica umana rispetto ad un software.
Quando ci si affida completamente ai software nel riconoscere le espressioni facciali e l’uomo si accontenta di lavorare solo i dati finali emersi, dietro a questi numeri e grafici statistici in output si possono celare potenziali errori d’interpretazione del comportamento.
In questo articolo vi spieghiamo le ragioni tecniche che motivano la nostra conclusione, che ci chiariscono come un esperto analista del comportamento emotivo possa aiutare al corretto uso di questi software, e quanto questa consulenza tecnica sia basilare per evitare macroscopici errori di interpretazione.
Le espressioni facciali possono indicarci quando qualcuno prova un’emozione primaria e universale (o mescolanza di emozioni), ma rimane il fatto che è difficile stabilire, senza effettuare le domande, la causa diretta dell’emozione provata dall’interlocutore.
Qualora un soggetto vedesse un video e venisse monitorato da una web-cam, per desiderabilità sociale legata alle regole di manifestazione culturali, potrebbe inibire le proprie espressioni facciali dato che sa di essere ripreso (“gli uomini non piangono”; “con una telecamera che mi riprende è opportuno esser composti e misurati”).
Un ultimo aspetto riguarda le caratteristiche peculiari di ogni singolo individuo (la sua baseline). Una persona potrebbe eseguire alcuni comportamenti abitudinari che non necessariamente possono essere correlati ad un preciso significato (ad esempio alcune mimiche facciali come: aggrottare le sopracciglia; risucchiare le labbra all’interno della bocca; corrugare il naso quando ride; sollevare il labbro superiore quando pronuncia verbalmente alcune vocali o consonanti). Un software, dato che non può tracciare in ogni contesto la baseline del soggetto, può cadere in errore valutando queste espressioni sottili come un indicatore di emozione attivata.
Un codificatore certificato FACS (Facial Action Coding System) sa che prima di analizzare ogni espressione facciale dell’interlocutore deve sempre analizzarne il volto neutrale.
Che cosa comunica il volto quando è a riposo?
Che tipo di informazioni traiamo dal volto neutrale, a prescindere dal movimento dei muscoli facciali?
Secondo Ekman il volto presenta quattro tipi di segnali, capaci di veicolare l’informazione:
Esistono poi persone che hanno gli angoli della bocca naturalmente rivolti verso il basso o l’alto, persone le cui borse sotto gli occhi o l’apertura delle palpebre superiori possono essere fraintese come attivazioni muscolari. Ognuno di questi elementi va considerato nella nostra analisi, insieme ai segnali a variazione lenta (rughe permanenti) che possono indurci in errore. Oltre al fatto che molti segnali artificiali (frangia, occhialoni “da hipster”, barba folta), possono coprire alcune parti del volto.
Tutte queste variabili vanno considerate, e l’analista del comportamento emotivo sa debitamente tenerne conto, focalizzando la sua attenzione su ogni elemento prima di concentrarsi sui segnali rapidi (espressioni e micro espressioni del volto) che possono essere legati a specifiche emozioni. Sappiamo che attualmente nessun software è in grado di considerare tutti questi elementi con tanta precisione ed elasticità di ragionamento.
Chi osserva un video o uno stimolo, a patto che non sia legato alla sedia o alla poltrona (il che non è esattamente deontologico o confortevole), si muove.
È umano, naturale e inevitabile.
Può grattarsi il naso, inclinare la testa, spostarsi in avanti o indietro con il tronco.
L’osservatore umano non perde il focus sul soggetto per fortuna, e codifica e interpreta senza problemi il comportamento rilevato.
Una web-cam statica invece può interpretare un movimento come un cambiamento di muscolatura.
Ad esempio se guardando la web-cam, con una visione frontale, inclinassimo la testa verso il petto, una bocca dapprima “orizzontale” potrà apparire “sorridente”.
Il rischio di usare in modo esclusivo questi software nell’analizzare le emozioni umane, rischia di creare errori metodologici.
La velocità nell’ottenere il risultato, non sempre è premiata dalla validità e attendibilità che stiamo cercando.
L’analista del comportamento emotivo sa inoltre meglio contestualizzare e tracciare la baseline in tempo reale dell’interlocutore, e osserva contemporaneamente 5 canali della comunicazione.
Avvalersi di un esperto che fornisca consulenza in merito ai dati rilevati dai software, incrementa esponenzialmente la bontà effettiva dei risultati per gli scopi prefissati.Ad oggi non si può ancora prescindere dal contributo di un esperto debitamente formato.
Ma chissà per il futuro la ricerca dove si spingerà?!
Diego Ingrassia
Il tuo carrello è vuoto.