quotidianosanità.it

stampa | chiudi


Sabato 11 GENNAIO 2014
Cervello. Ecco come adatta i sensi alla percezione dello spazio. Uno studio che potrà essere utile nella riabilitazione

I ricercatori dell’IIT hanno dimostrato che nella visione tridimensionale il cervello adatta i sensi alle dimensioni del nostro corpo, in particolare alla lunghezza del braccio, ottimizzando la percezione visiva sulla base di queste informazioni. Lo studio potrà avere applicazioni nello sviluppo di robot, protesi e tecniche riabilitative

La capacità di vedere il mondo in tre dimensioni dipende dai nostri sensi, ma in particolare da come il cervello li adatta, modificandone le percezioni, al crescere del nostro corpo. A studiare il meccanismo sono stati i ricercatori dell’Istituto Italiano di Tecnologia (IIT) a Rovereto (Trento), che hanno scoperto che il modo in cui le informazioni visive sono elaborate è influenzato dalle capacità di afferrare gli oggetti con le braccia, e di conseguenza dalla dimensione degli arti: se le nostre braccia fossero più lunghe o più corte, il cervello riadatterebbe, in modo veloce, la sua capacità di interpretare gli stimoli sensoriali. La scoperta potrà avere applicazioni nel campo della robotica e nello studio di protesi e tecniche riabilitative. Lo studio, condotto dall’Active Vision del Center for Neuroscience and Cognitive Systems (CNCS) dell’IIT e coordinato dai ricercatori Robert Volcic e Fulvio Domini, è pubblicato su The Journal of Neuroscience.
 
Insomma, per determinare l’esatta dimensione degli oggetti la vista non è tutto, ma anche il cervello gioca la sua parte. A seconda della distanza da cui lo osserviamo, uno stesso oggetto può apparirci più grande o più piccolo di quanto sia realmente: tuttavia, il cervello è in grado di realizzare la misura con precisione a una distanza di una decina di centimetri. I ricercatori del CNCS hanno mostrato che tale distanza è determinata dalla capacità di afferrare e manipolare gli oggetti in quella posizione.
 
Nello studio, i ricercatori hanno preso in considerazione un campione di quaranta persone, studiando il comportamento singolo di ciascuna in un sistema di realtà virtuale sviluppato al CNCS di IIT. Questo sistema consentiva di alterare visivamente la lunghezza del braccio con il quale i soggetti raggiungevano oggetti virtuali. Prima e dopo questa breve sessione ai soggetti veniva chiesto di valutare la dimensione di oggetti 3D. I ricercatori hanno visto che l’alterazione del braccio, e quindi della capacità di afferrare oggetti, ha un profondo impatto sui processi sensoriali visivi.
Inoltre, come si legge nello studio, i ricercatori hanno trovato un miglioramento nella capacità di distinguere le informazioni tattili nel caso di un’immagine interiore dell’arto ingrandita. Questo suggerisce che il cervello integra i segnali sensoriali con le informazioni della lunghezza del braccio e rapidamente li adatta ad una struttura corporea artificialmente aggiornata.
 
“Il nostro studio evidenzia che le informazioni ottenute attraverso l’interazione con il mondo circostante sono importanti nella costante calibrazione dei processi sensoriali”, dichiara Robert Volcic, ricercatore al CNCS di IIT e primo autore dell’articolo, “Ci fornisce, inoltre, degli indizi sui meccanismi che adottano i sistemi sensoriali per compensare i cambiamenti corporei durante l’ontogenesi, cioè durante lo sviluppo biologico dell’organismo”.
In pratica, lo studio dimostra che questi processi adattivi ottimizzano la percezione visiva proprio alla distanza alla quale è necessario avere una corretta stima della profondità, cioè dove gli oggetti possono essere manipolati e afferrati.
 
“I nostri risultati sono di fondamentale importanza per comprendere come il cervello estrae la profondità tridimensionale di oggetti visivi”, aggiunge Fulvio Domini, coordinatore del gruppo di ricerca al CNCS di IIT, “la scoperta potrà avere applicazioni nello sviluppo di robot biologicamente ispirati e nello studio di protesi e tecniche riabilitative”.
 
Viola Rita

© RIPRODUZIONE RISERVATA