Un computer che capisce come ti senti

Un computer che capisce come ti senti

Un nuovo computer, ispirato al cervello, chiamato EmoNet fornisce importanti indizi su come le immagini influenzano le emozioni.

Un computer potrebbe, a prima vista, distinguere tra un'immagine gioiosa e una deprimente? Potrebbe distinguere, in pochi millisecondi, una commedia romantica da un film horror?

, e così anche il tuo cervello, secondo una ricerca pubblicata dai neuroscienziati dell'Università del Colorado Boulder.

“La tecnologia di apprendimento automatico si sta specializzando sempre di più nel riconoscere il contenuto delle immagini e nel decifrare la tipologia di un oggetto”, ha detto l'autore senior Tor Wager, (1) che ha lavorato allo studio mentre era professore di psicologia e neuroscienze alla CU Boulder. “Attualmente siamo giunti a un nuovo traguardo: la tecnologia riesce a riconoscere le emozioni”.

L'articolo, pubblicato sulla rivista Science Advances, (2) segna un importante passo avanti nell'applicazione delle “reti neurali” - sistemi informatici modellati sul cervello umano – e nello studio delle emozioni. Inoltre, fornisce indizi particolarmente interessanti su come e dove le immagini sono rappresentate nel cervello umano suggerendo che ciò che vediamo, anche se brevemente, potrebbe avere un impatto maggiore e più rapido sulle nostre emozioni di quanto potremmo supporre.

Il dottor Philip Kragel, (3) autore principale e ricercatore post-dottorato presso l'Istituto di Scienze cognitive, ha detto: “molte persone presumono che gli umani valutino il loro ambiente in un certo modo e che le emozioni derivino da specifici sistemi cerebrali ancestralmente più vecchi come il sistema limbico. Noi abbiamo scoperto che anche la stessa corteccia visiva svolge un ruolo importante nell'elaborazione e nella percezione delle emozioni.”

La nascita di EmoNet

Per lo studio, Kragel ha iniziato con una rete neurale esistente, chiamata AlexNet, che consente ai computer di riconoscere gli oggetti. Utilizzando ricerche precedenti, che hanno identificato le risposte emotive stereotipate alle immagini, ha ritoccato la rete per prevedere come si sentirebbe una persona se osservasse una determinata immagine. Ha quindi fatto visionare nella nuova rete, soprannominata EmoNet, 25.000 immagini di diverse tipologie: dalle foto erotiche a quelle raffiguranti paesaggi naturali. Poi gli ha chiesto di classificarle in 20 categorie come brama, desiderio sessuale, orrore, soggezione e sorpresa.

EmoNet avrebbe potuto categorizzare, in modo accurato e coerente, 11 dei tipi di emozione ma è emerso che era meno difficoltoso riconoscerne alcune rispetto ad altre. Ad esempio, il sistema ha identificato foto che evocano un determinato desiderio o un desiderio specifico come quello sessuale con una precisione superiore al 95%, riscontrando però difficoltà nell'analizzare emozioni emotivamente più complesse come confusione, stupore e sorpresa.

Anche un semplice colore ha suscitato una previsione di un'emozione: quando EmoNet ha visto uno schermo nero, ha registrato l'emozione dell'ansia, mentre i cuccioli gli hanno incusso l'emozione del divertimento. EmoNet è stata anche in grado di valutare in modo affidabile l'intensità delle immagini identificando non solo l'emozione ma anche la sua ipotetica intensità.

Quando i ricercatori hanno sottoposto EmoNet alla visione di brevi filmati chiedendogli di classificarli come commedie romantiche, film d'azione o film dell'orrore, hanno ottenuto dal sistema i risultati giusti per tre quarti delle scene proiettate.

Quello che vedi è come ti senti

Per testare ulteriormente e perfezionare EmoNet, i ricercatori hanno quindi portato 18 soggetti umani. Quando una macchina di risonanza magnetica funzionale (fMRI) misurava la loro attività cerebrale, venivano mostrati flash di 4 secondi di 112 immagini. EmoNet ha visto le stesse immagini, essenzialmente come soggetto 19. Quando l'attività nella rete neurale è stata confrontata con quella nel cervello dei soggetti, i modelli si sono adattati.

“Abbiamo individuato una corrispondenza tra i modelli di attività cerebrale nel lobo occipitale e le unità in EmoNet che codificano per emozioni specifiche. Ciò significa che EmoNet ha imparato a rappresentare le emozioni in un modo biologicamente plausibile, anche se non le abbiamo create esplicitamente per la sperimentazione”, ha affermato il dottor Philip Kragel.

Anche l'imaging del cervello stesso ha prodotto alcuni risultati sorprendenti. Anche una breve immagine di base - un oggetto o una faccia - potrebbe innescare l'attività legata alle emozioni nella corteccia visiva del cervello. Diversi tipi di emozioni hanno attivato diverse regioni.

“Questo dimostra che le emozioni non sono solo componenti aggiuntivi che si verificano in seguito in diverse aree del cervello”, ha detto Philip Kragel, ora professore al Dartmouth College. “I nostri cervelli li stanno riconoscendo, li categorizzano e rispondono molto presto.”

In definitiva, sostengono i rivenditori, le reti neurali come EmoNet potrebbero essere utilizzate nelle tecnologie per aiutare le persone a schermare digitalmente immagini negative o a trovarne di positive. Potrebbe anche essere applicato per migliorare le interazioni uomo-computer e aiutare a far avanzare la ricerca sulle emozioni.

“Ciò che vedi e ciò che ti circonda può fare una grande differenza nella tua vita emotiva”, conclude Philip Kragel.

Riferimenti:

(1) Tor Wager

(2) Emotion schemas are embedded in the human visual system

(3) Philip Kragel

Descrizione foto: Il dottor Philip Kragel sta combinando l'apprendimento automatico con l'imaging del cervello per scoprire come le immagini influenzano le emozioni. -
Credit: Glenn Asakawa/CU Boulder.

Autore traduzione riassuntiva e adattamento linguistico: Edoardo Capuano / Articolo originale: A computer system that knows how you feel

Aggiungi un commento

Filtered HTML

  • Indirizzi web o e-mail vengono trasformati in link automaticamente
  • Elementi HTML permessi: <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd>
  • Linee e paragrafi vanno a capo automaticamente.

Plain text

  • Nessun tag HTML consentito.
  • Indirizzi web o e-mail vengono trasformati in link automaticamente
  • Linee e paragrafi vanno a capo automaticamente.
CAPTCHA
Questa domanda serve a verificare se sei un lettore o un robot.
Image CAPTCHA
Enter the characters shown in the image.