Grandi mostre. 1 
Training Humans a Milano


Prova a mettercila faccia


All’Osservatorio della Fondazione Prada il primo grande progetto espositivo dedicato a immagini di “training”: raccolte di fotografie usate dagli scienziati per addestrare i sistemi di intelligenza artificiale a vedere e a identificare volti umani.


Marcella Vanzo

Capire cosa sta succedendo. Kate Crawford e Trevor Paglen si interrogano su come la nuova generazione delle immagini generi a sua volta realtà. Come vengono addestrati i sistemi di riconoscimento umano? Un enorme occhio ci accoglie entrando nell’Osservatorio della Fondazione Prada, la pupilla ci avvolge completamente. La pupilla di chi? Le risposte che Kate Crawford e Trevor Paglen hanno trovato sono piuttosto inquietanti. Lei è una delle massime esperte di intelligenza artificiale (AI), insegna alla NYU - New York University ed è capo della ricerca da Microsoft. Lui è un artista il cui lavoro spazia dal giornalismo investigativo al video, dalla scultura all’ingegneria, vincitore del Nam June Paik Art Center Prize nel 2018. Paglen documenta i sistemi di sorveglianza digitale: fotografa basi militari segrete, stazioni d’intercettazione delle comunicazioni, droni di guerra, satelliti terrestri e prigioni della CIA. Insieme presentano una mostra fotografica che racconta come gli attuali strumenti di AI portino avanti pratiche di classificazione sociale, sorveglianza e segmentazione. Training Humans interroga lo stato attuale dell’immagine nell’intelligenza artificiale e nei sistemi algoritmici, dall’istruzione e dalla sanità alla sorveglianza militare, dall’applicazione della legge e della gestione delle risorse umane al sistema di giustizia. I temi chiave della mostra sono due: la rappresentazione, l’interpretazione e la codificazione degli esseri umani attraverso database di “training” (ovvero set di fotografie usate per addestrare le macchine a identificare volti umani) e le modalità con cui i sistemi tecnologici raccolgono, etichettano e utilizzano questi dati.

Yilong Yin, Lili Liu, Xiwei Sun, SDUMLA-HMT (2011).

Dopo l’enorme pupilla, troviamo L’homme qui marche di Giacometti. Non è una scultura, è un insieme di informazioni, tradotto attraverso un video, dal titolo Casia Gait and Cumulative Foot Pressure e serve per studiare il riconoscimento dell’andatura di una persona. Niente a che fare con quello scultore che diceva di non saper riprodurre nemmeno una testa. La mostra parte dai primi esperimenti in laboratorio di riconoscimento facciale computerizzato, finanziati dalla CIA nel 1963. Nel 1973, esperimenti sullo sviluppo della corteccia visuale dei gatti, dimostrano che vediamo solo ciò che conosciamo. E oggi gran parte delle immagini studiate dalla AI, le forniamo noi attraverso i social network.
Oggi le macchine, che in un futuro prossimo decideranno se sia il caso di darci l’assicurazione, un prestito o un lavoro, le foraggiamo noi con le nostre foto, a cui esperti di AI attingono senza chiedere permesso né consenso ai fotografi o ai soggetti ritratti. Foto da etichettare, spesso in modo automatico, producendo un sistema di classificazione delle persone in base a razza, genere, età, emozione e talvolta tratti caratteriali. Con implicazioni politiche chiare e durevoli nel tempo perché, ci avvertono Crawford e Paglen, quando la classificazione di esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi al loro interno appaiono più evidenti. Atteggiamenti comuni, quotidiani, migliaia di facce, le nostre. Tag semplici: #occhiali #trecce #capelli dritti #allo specchio #teenager #occhiali da sole...
Le straordinarie possibilità dei computer, il fatto di fotografare, comunicare e godere nei mille modi in cui i social media ci affascinano, vengono usate per definirci senza pietà, per decidere cosa faremo e cosa no, senza seconda possibilità. Il mito greco di Narciso vuole che lo splendido ragazzo, innamorato del proprio riflesso nel lago, ci anneghi dentro. Allo stesso modo, rapiti dalle mille possibilità della tecnologia, doniamo più o meno inconsapevolmente i nostri dati a chi li usa per etichettarci e sfruttarci.
LFW (Labeled Faces in the Wild), test di riferimento per valutare l’accuratezza di un algoritmo di riconoscimento facciale: quanto ci piace mostrarci, quanto ci piace guardare. Vediamo moltissime persone famose e non, giovani e anziane, e poi presidenti di Stato, sportivi, attrici, bianchi, rossi, neri, gialli. Le immagini sono tutte diverse e tutte le stesse. Nel 1968 Andy Warhol aveva predetto dieci minuti di fama per chiunque. Sui social sembriamo tutti famosi.
Le emozioni primarie – secondo la classificazione discutibile dello psicologo Paul Ekman – sono sei: disgusto, paura, rabbia, tristezza, felicità e sorpresa. Il Japanese Female Facial Expressions (JAFFE) database le cataloga in una serie di ritratti femminili ma dobbiamo dire però che queste emozioni non sempre riusciamo a interpretarle in modo netto. Le donne orientali, per esempio, ci paiono misteriose. La loro sorpresa può sembrare paura, la loro tristezza disgusto, la rabbia dubbio, ma il dubbio non è previsto.
E ancora ImageNet è un database di immagini creato da ricercatori di Stanford e Princeton per il riconoscimento degli oggetti. Al suo interno un cospicuo numero di immagini classificano moltissime tipologie di persone. Consigliamo di perdersi in questa rete di foto e scritte, ironiche da matti o estremamente piatte. Quello che è spaventoso è che questi dati sono poi quelli che istruiscono le macchine. Che apprendono a differenziare in maniera scientifica ma senza senso. Le persone vengono incasellate in automatico, restringendo pericolosamente la lettura della realtà.
E per finire un sistema di riconoscimento Age, Gender and Emotions in the Wild, messo a punto da Paglen sulla base dei modelli sviluppati dai ricercatori di Facebook e Amazon per stimare l’età, il sesso e la condizione emotiva dei volti che rileva. È possibile provare in mostra questo sistema di riconoscimento sedendosi su un cubo davanti a uno schermo per permettere al computer di leggere e definire la nostra immagine. Non tutto è quel che sembra. Questa è una esposizione fatta per pensare.
Provare per credere.

Atteggiamenti comuni, quotidiani, migliaia di facce, le nostre


Schermo, al centro: Gary B. Huang, Manu Ramesh, Tamara Berg, Erik Learned-Miller, Labeled Faces in the Wild (LFW) (2007).
Fotografie alla parete: Bor-Chun Chen, Chu-Song Chen,Winston H. Hsu, Cross-Age Celebrity Dataset (CACD) (2014).

A sinistra, Colin Blakemore, Development in the Visual Cortex (1973).
In primo piano, Shuai Zheng, Kaigi Huang, Tieniu Tan, Dacheng Tao, Casia Gait and Cumulative Foot Pressure (2001).
Sullo sfondo, Brian A. Smith, Qi Yin, Steven K. Feiner, Shree K. Nayar, Columbia Gaze (2013).
A destra, Nist - National Institute of Standards and Technology, Multiple Encounter Dataset - II (MEDS-II) (2011).

In breve:

Training Humans
Milano, Fondazione Prada - Osservatorio
a cura di Kate Crawford e Trevor Paglen
fino al 24 febbraio 2020
orario 14-20, sabato e domenica 11-20, chiuso martedì
catalogo Fondazione Prada
www.fondazioneprada.org

ART E DOSSIER N. 371
ART E DOSSIER N. 371
DICEMBRE 2019
In questo numero: L'ANNO CHE VERRA'. Le celebrazioni di Raffaello. CURIOSITA' ICONOGRAFICHE. Un occhio ci guarda dal cielo. MAGONZA. Una capitale per molti imperi. IN MOSTRA Training Humans a Milano; Betye Saar a New York; Blake a Londra; Da Artemisia a Hackert a Caserta; De Hooch a Delft; Maes all'Aja; Giulio Romano a Mantova; La collezione Alana a Parigi.Direttore: Philippe Daverio