Analisi visiva e significato, la Sissa “svela” i segreti del cervello

Studio su percezione e semantica realizzato in collaborazione con il Politecnico di Torino

Aprire gli occhi e vedere il mondo di fronte a noi pieno di oggetti ci pare una cosa tanto semplice quanto scontata. Eppure il nostro cervello è costantemente impegnato in un enorme lavoro di analisi, solo per farci vedere un fiore, una penna, il viso del nostro bambino. Ma dov’è che nel cervello la forma diventa significato?

Un gruppo di scienziati coordinato da Davide Zoccolan della SISSA (Scuola internazionale superiore di studi avanzati) di Trieste, in collaborazione con il gruppo di Riccardo Zecchina del Politecnico di Torino (nell’ambito del Programma Neuroscienze 2008/2009 finanziato dalla Compagnia di San Paolo), ha studiato un’area del cervello che si trova proprio a cavallo fra l’analisi visiva e quella semantica, definendone con maggior chiarezza la funzione. Lo studio è stato appena pubblicato su PLOS Computational Biology.

La corteccia infero temporale (IT) è la più avanzata delle aree sensoriali visive del cervello, l’ultima stazione di elaborazione propriamente visiva dell’immagine che si forma sulla nostra retina, prima che l’informazione passi a essere processata in altre aree cerebrali preposte a funzioni cognitive di più alto livello. O così pensava la maggior parte dei neuroscienziati fino a qualche anno fa, quando nel 2007 e 2008 due studi hanno messo in dubbio questa ipotesi, suggerendo che l’IT potesse essere implicata in funzioni di elaborazione semantica degli oggetti visivi. In pratica gli scienziati fino a quel momento avevano ritenuto che quest’area cerebrale rappresentasse gli oggetti principalmente in base alle loro proprietà visive (quali, ad esempio, la forma), mentre i nuovi studi sostenevano che il significato degli oggetti avesse qui un ruolo predominante.

La nuova ricerca portata avanti dall’equipe della Sissa e del Politecnico ha analizzato dei dati elettrofisiologici raccolti da Davide Zoccolan su primati qualche anno fa, quando lavorava nel laboratorio di James DiCarlo, presso il Mit di Boston. I dati sono stati processati utilizzando diverse tecniche computazionali di machine learning, incluso un algoritmo di clustering recentemente sviluppato dal gruppo di Zecchina. Questi metodi di analisi sono serviti a verificare se la categorizzazione degli oggetti nell’IT avvenisse per gerarchie basate sulla somiglianza della forma o su quella del significato. In poche parole, ci si è chiesto se per l’IT un’arancia assomigliasse di più a un pallone per bambini (entrambi rotondi) o a una banana (entrambi frutta).

«I nostri dati indicano che la maggior parte degli oggetti sono categorizzati in base alla loro somiglianza visiva, mentre l’appartenenza semantica è risultata essere rappresentata in modo robusto solo nel caso di una classe di oggetti: gli animali a quattro zampe» spiega Zoccolan. «Il modello tradizionale dell’IT, intesa come area che codifica informazione principalmente visiva, resta dunque valido, anche se il nostro studio non esclude che alcune classi semantiche particolarmente salienti per i primati possano essere anche qui rappresentate».

«Oltre a questa conferma - precisa Zoccolan - abbiamo anche osservato una cosa inaspettata». È noto da tempo che l’IT è una stazione di elaborazione di informazioni complesse, spiega lo scienziato «in pratica lo stadio più avanzato di elaborazione dell’informazione visiva, dove gli oggetti sono codificati in maniera esplicita, ovvero, l’intera struttura di oggetti complessi viene codificata, piuttosto che singole parti. Quello che invece abbiamo osservato noi è che nell’IT viene conservata anche una codifica “grezza”, di più basso livello, per esempio se un oggetto è scuro o chiaro, se è grande o piccolo, e così via. Si tratta dunque di un osservazione originale che cambia la nostra interpretazione sulla funzione dell’area infero temporale».

Riproduzione riservata © Il Piccolo