«Il futuro è già qui, solo che non è equamente distribuito»

William Gibson

mercoledì 16 settembre 2015

L'occhio che legge la realta' ai ciechi. Genesi di un'app utile e geniale

AIPOLY (Artificial Intelligence for the Blind) è una ragione in più per ringraziare la tecnologia “intelligente”. Si tratta di un’applicazione per smartphone pensata per ipovedenti e ciechi: basta scattare una fotografia e l’app è in grado di descrivere perfettamente la scena. In questo modo anche chi non può vedere sa cosa ha di fronte; anzi, riesce a raffigurarselo fin nei minimi particolari. Aipoly sarà disponibile in versione beta, cioè in versione di prova, a partire da ottobre. Per utilizzarla, basterà iscriversi al sito http://aipoly.com/ e farne richiesta. L’app vera e propria sarà invece acquistabile da novembre, in tutti gli Applestore.
Chi è lui. Ad avere ideato Aipoly sono due giovani startupper. Lui si chiama Alberto Rizzoli, ha 22 anni, ed è il figlio di Angelo Rizzoli, l’ex editore del Corriere della Sera morto nel 2013, e di Melania De Nichilo Rizzoli, ex deputato di Forza Italia e ora responsabile sanità del partito. Alberto ha studiato gestione aziendale a Londra e si è poi trasferito a Mountain View (California), dove è stato arruolato dalla Singularity University, un campus di ricerca fondato nel 2008 da Raymond Kurzweil, un pioniere nelle tecnologie per ipovedenti. Singularity è sponsorizzata da Google e finanzia giovani che lavorano a progetti potenzialmente in grado di migliorare le condizioni di vita della popolazione mondiale entro il prossimo decennio. L’anno “accademico” che si è appena concluso ha visto al lavoro ottanta persone provenienti da 43 Paesi diversi, impegnate a sviluppare tecnologie in grado di avere un impatto sociale positivo. Alberto Rizzoli è stato sostenuto, per l’intera durata del progetto, da un finanziamento di Google di 30mila dollari.
Chi è lei. La cofondatrice di Aipoly e collega di Alberto Rizzoli è un’australiana di 26 anni, Marita Cheng. È cresciuta nel Queensland del nord e ha un grande talento per la scienza e la matematica. Ha studiato informatica e meccatronica (una branca dell’ingegneria dell’automazione che integra elettronica, informatica e meccanica) presso l’Università di Melbourne e nell’2008 ha fondato Robogals, un’associazione no-profit il cui scopo è quello di incrementare la presenza femminile nel mondo delle scienze. L’intraprendente Cheng ha poi fondato, nel 2013, la 2Mar Robotics, le cui due “creature” più note solo il Jeva, un robot che aiuta coloro che hanno una mobilità limitata agli arti superiori, e il Teleroo, una sorta di videotelefono su ruote, che permette a badanti e a assistenti domestici di monitorare la situazione delle persone per cui lavorano, ad esempio anziani o malati. Cheng ha già ricevuto importanti riconoscimenti, come il Global Engineering Deands Council Diversity nel 2014, ed è stata nominata giovane dell’anno dell’Australia nel 2012.
Come funziona Aipoly e come è nato. Benché sia molto semplice da usare, Aipoly lavora su una tecnologia sofisticata. Divide l’immagine in sezioni, per poterla analizzare, e la invia a un server. A questo punto, il software cerca tra più di 300mila categorie di immagini e associa la fotografia a una parola e a un aggettivo che possa rappresentarla. A questo punto, l’audio dello smartphone si attiva ed è in grado di descrivere l’immagine dicendo, ad esempio: «macchina rossa», oppure «piatto di ceramica con sopra un hamburger». La reazione delle prime persone che hanno testato Aipoly è davvero emozionante, come si può notare guardando il filmato di lancio del prodotto. Alberto Rizzoli ha ricostruito per il Corriere della Sera gli eventi che hanno portato alla nascita di Aipoly: «Eravamo a Google e un ingegnere ci parlava dei problemi legati alla capacità di vedere di auto e robot e dei problemi che hanno nel riconoscere il mondo fisico». Le macchine, infatti, non riescono a decidere se è meglio evitare di investire un cono di plastica o un bambino. «Poi abbiamo assistito alla dimostrazione di un sistema in grado di fare una narrazione semantica, cioè di contestualizzare autonomamente frasi e parole. Abbiamo pensato a come applicare le due cose». È stata creata così un’applicazione che non solo sa “vedere”, ma sa anche descrivere nel linguaggio umano ciò che vede. In questo modo, non dovrà più essere la macchina a decidere cosa fare; è la persona che ne fa uso a scegliere come muoversi e come interagire con ciò che ha davanti. Ciò rende gli ipovendenti più indipendenti e autonomi: «Abbiamo fatto provare l’applicazione a 88 non vedenti e ne sono stati entusiasti», afferma Alberto Rizzoli.
Prospettive sul futuro. Rizzoli e Cheng stanno già pensando a come migliorare le prestazioni dell’applicazione. Per rendere Aipoly un sistema funzionale a 360 gradi bisognerà infatti aggiungere sempre più immagini al database. A quanto pare, questo compito è già stato assegnato a un gruppo di programmatori. In futuro, Rizzoli spera che l’app potrà essere usata per creare una sorta di Google Street View adatto ai ciechi: «Possiamo creare un modello virtuale del mondo, in modo tale che gli utenti non debbano sempre scannerizzare con foto l’ambiente circostante. Il progetto c’è già e presto Aipoly sarà in grado di restituire feedback in tempo reale».
(fonte: Press-In anno VII / n. 2003 - Bergamo Post del 15-09-2015)

Nessun commento: