- A Palazzo Ducale, focus su interazione uomo-macchina e adattamento.
- ABBI aiuta i bambini ipovedenti a orientarsi con suoni.
- Il progetto wHiSPER mira a decifrare la percezione spazio-temporale.
Il 12 maggio 2025, Palazzo Ducale a Genova ha ospitato un incontro cruciale intitolato “Apprendimento in sistemi umani e artificiali: un dibattito tra neuroscienze e intelligenza artificiale”. L’evento, parte del ciclo “Scienza Condivisa: Intelligenze Future”, ha visto confrontarsi Monica Gori e Alessandra Sciutti, due figure di spicco nel panorama scientifico italiano. L’obiettivo? Esplorare le sinergie e le differenze tra il cervello umano e le macchine intelligenti, aprendo nuove prospettive sulla progettazione di tecnologie avanzate.
Progettare il Futuro: Umanoidi e Interazione Naturale
Uno dei temi centrali del dibattito è stato come progettare umanoidi capaci di interagire in modo naturale con gli esseri umani, adattandosi alle diverse esigenze generazionali e sociali. La dissertazione ha posto l’accento sui metodi di acquisizione e comprensione della conoscenza, mettendo a confronto il cervello biologico e quello simulato. Una domanda cruciale ha orientato il pensiero: quali processi consentono agli individui di modulare la propria cognizione di spazio e tempo in relazione a quella altrui? La risposta a questa domanda è cruciale per sviluppare tecnologie all’avanguardia, capaci di adattarsi alla percezione individuale e applicabili in ambiti come la riabilitazione, l’istruzione e il gaming.

- 💡 Ottimo articolo! L'idea di un'intelligenza condivisa......
- 🤔 Non sono del tutto convinto. L'enfasi sull'adattamento......
- 🤖 Interessante la prospettiva sull'adattamento percettivo, ma......
- ❤ Che bello questo articolo! Mi ha colpito molto come......
Ricerca all’Avanguardia: Progetti e Applicazioni Concrete
Monica Gori, coordinatrice della linea di ricerca “Unit for Visually Impaired people” presso l’IIT, ha illustrato il suo lavoro pionieristico nello sviluppo di tecnologie multisensoriali per la riabilitazione, l’istruzione e il gaming. Tra le sue realizzazioni di maggior rilievo si distinguono ABBI, un dispositivo da polso che emette suoni per agevolare l’orientamento nello spazio dei bambini ipovedenti, e WeDraw, una piattaforma che integra diversi sensi per facilitare l’apprendimento della geometria negli istituti scolastici. Alessandra Sciutti, responsabile scientifica dell’unità di ricerca Contact dell’IIT, si è concentrata sulle architetture cognitive per tecnologie collaborative, con un focus sulla bioingegneria e le tecnologie umanoidi. Il suo progetto wHiSPER si propone di decifrare i meccanismi attraverso i quali le persone riescono a sintonizzare la propria esperienza di tempo e spazio quando interagiscono con altri esseri umani o con macchine. L’obiettivo finale è sviluppare tecnologie in grado di adattarsi ai problemi percettivi individuali, aprendo nuove frontiere nell’interazione uomo-macchina.
Verso un Futuro di Intelligenza Condivisa
L’incontro a Palazzo Ducale ha evidenziato come la collaborazione tra neuroscienze e intelligenza artificiale sia fondamentale per affrontare le sfide del futuro. La capacità di comprendere e replicare i meccanismi di apprendimento e adattamento del cervello umano rappresenta un passo cruciale verso la creazione di tecnologie più intelligenti, intuitive e personalizzate. L’evento ha offerto una panoramica stimolante sulle potenzialità dell’intelligenza condivisa, aprendo nuove prospettive per la ricerca e l’innovazione.
Comprendere l’Adattamento: Una Chiave per il Futuro
L’adattamento percettivo, un concetto cardine sia in psicologia cognitiva che comportamentale, si rivela essenziale per comprendere l’interazione tra esseri umani e macchine. Fondamentalmente, l’adattamento percettivo si riferisce alla capacità del nostro cervello di modificare la propria interpretazione degli stimoli sensoriali in risposta a cambiamenti nell’ambiente o nel corpo.
Una nozione avanzata in questo campo riguarda la plasticità neurale*, ovvero la capacità del cervello di riorganizzare le proprie connessioni in base all’esperienza. Questo significa che, attraverso l’interazione continua con l’ambiente e con le tecnologie, il nostro cervello può letteralmente rimodellarsi per ottimizzare la percezione e l’azione.
Riflettiamo: come possiamo sfruttare al meglio questa capacità di adattamento per creare tecnologie che siano veramente al servizio dell’uomo, migliorando la qualità della vita e promuovendo l’inclusione? La risposta a questa domanda potrebbe risiedere nella comprensione profonda dei meccanismi che regolano la plasticità neurale e nell’applicazione di questi principi nella progettazione di interfacce uomo-macchina sempre più intuitive e personalizzate.