Webinar con Carloalberto Treccani

Date: 18,19 e 20 maggio ore 09.00 – 13.00,  13.30 – 16.00
Ammissione: secondo e terzo anno di Pittura e Nuove Tecnologie per un numero massimo di 20 iscritti
Iscrizioni: entro il 15 maggio via mail didattica@accademiabellearti.bg.it
Frequenza: obbligatoria per gli iscritti
CFA: 1

Che cosa significa vedere?
Certamente, la risposta più immediata è identificare dove e cosa è presente nel mondo guardandolo (Marr, 2010). Tuttavia, come dimostrato da numerosi studi, i sistemi visivi biologici – tra cui quello umano – non sono adatti a recuperare le proprietà fisiche del mondo; le immagini retiniche, ad esempio, fondono e confondono le proprietà fisiche degli oggetti, e.g. dimensioni, orientamento, e pertanto non possono essere utilizzate per rivelare l’aspetto del mondo. Per il cervello visivo, ad esempio, in contraddizione con il cervello razionale, la distanza della luna, calcolata tra 350000 e 400000 km, è probabilmente una questione di poche centinaia di metri (Gregory, 1966), tant’è che sembrerebbe di poterla afferrare. Ciononostante, comportamenti e azioni guidate dalle visione, come afferrare un bastone o muoversi in un ambiente, vanno continuamente a buon fine.

Molteplici, negli ultimi 60 anni, sono stati i tentativi di creare sistemi di visione intelligenti – machine vision -, in grado di capire dove e cosa è presente nel mondo (e.g., image recognition, scene recognition, object detection e face recognition). Per un’auto a guida autonoma, ad esempio, è importante capire se un oggetto presente sulla strada è una roccia, e quindi un oggetto da evitare o invece un sacchetto di carta sulla quale poter passare sopra senza problemi. Facebook, ancora, usa sistemi di face recognition per aiutare utenti con problemi visivi a identificare amici e familiari presenti in una fotografia. Tuttavia, questo processo di identificazione e significazione, semplice per un essere umano, risulta ancora particolarmente complesso per i sistemi di visione artificiale. Il lavoro di Karen Zack (2016) in copertina mostra ad esempio le difficoltà di un algoritmo nel distinguere le immagini di un labradoodle da quelle di pollo fritto.

Cosa significa vedere per un essere umano e cosa per una macchina? Come funziona la visione? Quali sono le implicazioni sociali, politiche, estetiche e culturali in un mondo sempre più condiviso con macchine e sistemi di visione intelligenti che guardano e osservano il mondo insieme a noi? Quali sono i rischi e gli scenari futuri? È possibile immaginare una nuova visione, in co-divisione con macchine e animali? È possibile immaginare altri modi di vedere? A queste ed altre domande lo workshop tenterà di rispondere attraverso una serie di letture, esempi ed esercitazioni.

Obiettivi dello workshop sono: a) fornire allo studente la capacità di orientarsi nel complesso mondo della visione – e delle immagini. b) Dimostrare che il ruolo della visione non è rivelare come il mondo appare, ma promuovere comportamenti utili (il mondo lá fuori è completamente diverso da come lo vediamo!). c) Dimostrare che la visione emerge da tentativi ed errori durante l’evoluzione; infine d) fornire una prima, seppur parziale, teoria unificata della visione capace di connettere sistemi visivi biologici e artificiali.

Carloalberto Treccani è ricercatore associato senior e candidato al dottorato di ricerca presso la School of Creative Media, City University of Hong Kong, inoltre fellow presso  la Akademie Schloss Solitude (Stoccarda). Il suo lavoro di ricerca si occupa di indagare la visione biologica e quella artificiale – machine vision – e come questi due regimi visivi interagiscono e informano l’un l’altro. Obiettivo della sua ricerca è fornire una prima teoria unificata della visione in grado di collegare i due sistemi visivi.