Algoritmi genetici, reti neurali, logica Fuzzy… nel mondo dell’Intelligenza Artificiale si possono trovare, oggi, mondi e filosofie molto diverse. Il punto non sta più nella distinzione tra una AI forte e una debole. L’AI forte, il sogno di replicare il cervello umano con tutte le sue funzioni, mi pare declinato, fatta eccezione per qualche sparuto futurologo. Ci si muove in altri ambiti, come quello del machine e del deep learning, della simbiosi uomo macchina, delle tecnologie protesiche, territori altrettanto futuribili ma forse più “realistici”.
Qualche giorno fa su “La Stampa” è uscito un interessante articolo di Bruno Ruffilli a proposito di AI arricchito da una serie di interventi di Marcello Pelillo dell’Università Ca’ Foscari di Venezia (qui). Il pezzo citava i temi che stanno in questo momento investendo il rinato interesse verso la AI… etica, in primis…
Un elemento sostanziale, quello di come comportarci di fronte alle sfide delle nuove tecnologie, e soprattutto quello della comprensione degli impatti che hanno e che potrebbero avere a breve queste tecnologie, come si evidenza anche in due libri recenti, Al passo col futuro di Joi Ito e Jeff Howe (Egea) e L’inevitabile di Kevin Kelly (Il Saggiatore). Due testi, potremmo dire, di Futurologia in cui si analizzano tendenze e impatti delle tecnologie e in cui uno dei fili conduttori è proprio quello di una sempre maggiore autonomia decisionale delle macchine.
Un discorso di stringente attualità, quindi, e che trova un caso emblematico in un software che ha fatto molto discutere. Si tratta di FaceApp, sviluppata dal russo Yaroslav Goncharov, e che permette di ritoccare i selfie usando le reti neurali. Il fine è quello di rendere i ritratti più belli e piacevoli. E lo fa in autonomia. Il problema? La rete adottava filtri che trasformavano le persone di colore in bianchi! E’ la fine che ha fatto il povero presidente americano Barack Obama “sbiancato” da un algoritmo che ha deciso in autonomia di servirsi di una serie di filtri mentali tra cui, evidentemente, i pregiudizi estetici sociali e politici impressi in fase di programmazione dal risultato dell’intelligenza collettiva a cui si è ricorsi per taggare le immagini.
Ma il punto a mio avviso è che non si tratta di capire l’etica della macchina bensì come filtra l’etica umana nella programmazione della macchina. Sembra una differenza capziosa ma è invece strutturale ai tipi di interventi, anche normativi, che si possono attuare sul tema. Il punto è che machine e deep learning lavorano su dati, dati immessi manualmente dall’uomo. Dati che permettono alla macchina, per il tramite di un algoritmo, di elaborare informazioni e dare risposte, ma anche – sempre di più – di cercare da sé altri dati. Si può parlare, a mio parere, di un cervello quantitativo e di un’intelligenza quantitativa.
Anche Pedro Domingos nel suo libro L’algoritmo definitivo (Bollati Boringhieri), oltre a spiegare i diversi approcci al tema dell’intelligenza e dell’intelligenza artificiale, alla fine sembra orientarsi verso una visione quantitativa dell’intelligenza artificiale. I learner, gli algoritmi di machine learning, riusciranno a programmarsi da soli… questo non significa che non hanno più bisogno delle immissioni e delle marcature umane, ma semplicemente che il loro grado di autonomia nel processare le informazioni e nel rintracciarne risulta enormemente più ampio che in passato.
Si tratta di frontiere… Deep Mind, per esempio, è il nuovo algoritmo di Google che ha creato, a sua volta, un algoritmo intelligente: si tratta di una rete neurale dotata di una memoria esterna che le consente di strutturare autonomamente i dati e richiamarli all’occorrenza per fare deduzioni. Il sistema, chiamato “differentiable neural computer”, è stato capace di pianificare il percorso migliore per spostarsi tra le stazioni della metropolitana londinese.
E non potrebbe essere allora questa la strada? Non potrebbe consistere proprio in questo la ricerca dell’algoritmo definitivo? Un algoritmo in grado di raccogliere, archiviare, memorizzare, elaborare un numero così vasto di dati da riuscire a definirsi per una sua propria specifica intelligenza di tipo quantitativo?
Finalmente fuori dall’ingerenza di termini come “intuito”, “emozioni” e “coscienza”, l’intelligenza delle macchine troverebbe consistenza proprio nel dato quantitativo sviluppato in una così ampia portata da sfidare le leggi di complessità.
Il discorso sull’intelligenza delle macchine andrebbe allora a ridefinire i limiti nel prelevamento e nella cessione dei data… andrebbe a ridefinire il senso di patrimonio pubblico e di dati personali in cui rientrerebbero anche quelli prodotti dalle nostre interazioni reali e virtuali.
Lo snodo dell’intelligenza artificiale sta proprio nel suo carattere quantitativo che, proprio in quanto “quantitativo”, può essere “pesato”, normato, definito e negoziato in sede sociale, politica, economica, e ovviamente, in ambito politico.
L’intelligenza artificiale, lungi dall’essere un pericolo fantascientifico legato alla creazione di macchine super intelligenti che ci domineranno, risulta invece un tema più squisitamente politico ed etico.
Ogni nostra azione che, in qualche modo, viene a contatto con un computer è potenzialmente una fonte di dati per un learner. Ora i learner vengono addestrati dai nostri data che sono ispezionati secondo regole più o meno sofisticate di Logica. L’intelligenza degli algoritmi di Google, di Amazon o di Netflix sta tutta qui in quanti dati riesce a immagazzinare e quanto è in grado di processarli. Un problema di pesi che diventa però un problema politico e ideologico. A livello sociale perché implica una presa di coscienza di quanto la nostra società può o vuole implementare server privati per alimentare algoritmi intelligenti. A livello individuale perché ci colloca nella posizione di dover maneggiare i nostri dati, da una parte per proteggere quelli che non vogliamo siano resi pubblici, dall’altra per trattare meglio quelli che invece vogliamo siano utili ai nostri fini.