E-Mail: [email protected]
Come cambierà la nostra interazione con le macchine?

- ABBI supporta l'orientamento spaziale dei bambini con disabilità visive.
- WeDraw insegna la geometria nelle scuole tramite risorse didattiche multisensoriali.
- Il progetto wHiSPER studia la percezione di tempo e spazio.
- L'evento si è tenuto il 12 maggio 2025 a Genova.
Il 12 maggio 2025, alle ore 17:45, il Salone del Maggior Consiglio di Palazzo Ducale a Genova si è trasformato in un crocevia di idee e prospettive sul futuro dell’intelligenza, sia umana che artificiale. L’evento, parte del ciclo “Scienza Condivisa: Intelligenze Future”, ha visto un dialogo stimolante tra Monica Gori, coordinatrice della linea di ricerca “Unit for Visually Impaired people” dell’IIT, e Alessandra Sciutti, responsabile scientifica dell’unità di ricerca Contact dell’IIT. Curato da Alberto Diaspro ed Enrico Paroletti, l’incontro ha esplorato le intersezioni tra neuroscienze e intelligenza artificiale, aprendo interrogativi cruciali sul modo in cui progettiamo il futuro dell’interazione uomo-macchina.
Neuroscienze e Intelligenza Artificiale: Un Binomio Chiave
Il dibattito si è focalizzato su come le diverse modalità di apprendimento del cervello umano e dell’intelligenza artificiale possano essere integrate per creare tecnologie avanzate. Un punto centrale è stato l’adattamento della percezione di tempo e spazio tra individui, un meccanismo fondamentale per l’interazione sociale e la collaborazione. La capacità di sincronizzare la nostra percezione con quella degli altri è essenziale per la comunicazione efficace e la costruzione di relazioni. L’obiettivo è sviluppare tecnologie che si adattino ai problemi percettivi individuali, con applicazioni in riabilitazione, istruzione e gaming.

- 🧠✨ Che bello questo articolo, mi fa pensare a come......
- 🤖🤔 Non sono del tutto d'accordo, l'AI empatica potrebbe......
- 🕰️🔄 Ma vi siete mai chiesti se la nostra percezione del tempo......
Progetti Innovativi per un Futuro Inclusivo
Per un domani che non lasci indietro nessuno: progetti all’avanguardia. Monica Gori ha presentato ABBI, un dispositivo da polso che sfrutta il suono per supportare l’orientamento spaziale dei bambini con disabilità visive, e WeDraw, una risorsa didattica multisensoriale pensata per l’insegnamento della geometria nelle scuole. Questi esempi concreti dimostrano il potenziale della tecnologia nell’abbattere le barriere sensoriali e nell’ottimizzare le modalità di apprendimento. Alessandra Sciutti, con il progetto wHiSPER, sta studiando come la percezione di tempo e spazio si modifica durante l’interazione con altri esseri umani o dispositivi robotici. Queste ricerche sono fondamentali per sviluppare tecnologie che si adattino alle esigenze individuali e promuovano l’inclusione.
Verso un’Intelligenza Artificiale Empatica
Costruire un’Intelligenza Artificiale sensibile: Nel corso dell’incontro, sono emerse questioni cruciali relative alla progettazione di entità umanoidi in grado di relazionarsi in modo spontaneo con gli esseri umani, tenendo conto delle diverse esigenze legate all’età e al contesto sociale.
L’obiettivo è creare un’intelligenza artificiale che non sia solo efficiente, ma anche empatica e in grado di comprendere le sfumature dell’interazione umana. Questo richiede una profonda comprensione dei meccanismi sensoriali e motori alla base della comprensione reciproca.
Il segreto sta nell’intreccio di interazioni tra uomo e macchina, tra persone e tra macchine stesse, al fine di sviluppare tecnologie avanzate capaci di adeguarsi alla specifica percezione di ogni individuo.
Un Futuro di Intelligenza Condivisa: Riflessioni Conclusive
L’evento “Apprendimento in sistemi umani e artificiali” ha offerto una panoramica stimolante sulle sfide e le opportunità che ci attendono nel futuro dell’intelligenza. La convergenza tra neuroscienze e intelligenza artificiale apre nuove prospettive per la creazione di tecnologie che migliorino la vita delle persone, promuovano l’inclusione e favoriscano una comprensione più profonda di noi stessi e del mondo che ci circonda.
Ora, fermiamoci un attimo a riflettere. Avete mai pensato a come il nostro cervello elabora le informazioni sensoriali per creare una rappresentazione del mondo che ci circonda? Questo è un campo di studio affascinante della psicologia cognitiva, noto come percezione. La percezione non è solo una questione di ricevere passivamente informazioni dai nostri sensi, ma è un processo attivo in cui il nostro cervello interpreta e organizza queste informazioni in base alle nostre esperienze passate, alle nostre aspettative e ai nostri obiettivi.
E se volessimo spingerci oltre? Immaginate di poter influenzare la percezione di una persona attraverso la stimolazione cerebrale non invasiva. Tecniche come la stimolazione transcranica a corrente continua (tDCS) o la stimolazione magnetica transcranica (TMS) possono modulare l’attività neuronale in specifiche aree del cervello, alterando temporaneamente la percezione e il comportamento. Questo apre nuove frontiere nella ricerca sulla cognizione umana e potrebbe avere applicazioni terapeutiche per disturbi come la depressione o il dolore cronico.
Non è forse incredibile come la scienza ci permetta di esplorare i confini della nostra mente e di plasmare la nostra realtà?*
Correlati
Urbino capitale della salute mentale: cosa aspettarsi dal festival
Dal 16 al 18 maggio, Urbino ospita il festival “Come…
Medico addormentato: cosa si nasconde dietro i turni massacranti?
Il caso del medico addormentato a Cerignola solleva interrogativi sulle…