La collaborazione fra Google e il Pentagono per l'utilizzo del machine learning applicato ai velivoli militari è solo una delle tante facce nascoste dell’intelligenza artificiale. Nel mirino delle critiche anche il riconoscimento facciale di Amazon usato dalle forze dell'ordine.

Il timore che l’intelligenza artificiale possa diventare uno strumento di morte esiste, inutile negarlo. A quella che un tempo era la corsa agli armamenti si è in parte sostituita, nelle strategie militari degli Stati, una corsa all’algoritmo, al robot-soldato, al drone equipaggiato con capacità di analytics video che gli permettono di riconoscere un oggetto a distanza e, potenzialmente, di colpire con precisione.

Google ha scelto di uscire dall’ambiguità prima che fosse tardi e non ha rinnovato oltre la scadenza del contratto (nel 2019) l’impegno in Project Maven, il progetto che la lega al Pentangono per la fornitura di tecnologie di machine learning.

Nella sperimentazione in corso, gli algoritmi creati con TensorFlow, la libreria software della società di Mountain View, permettono di classificare oggetti o persone all’interno delle immagini filmate dai droni del Dipartimento della Difesa: questo coinvogimento non era piaciuto a migliaia di dipendenti, firmatari di una petizione in cui si chiedeva all’amministratore delegato di fare un passo indietro.

E così Sundar Pichai ha fatto, optando per l’uscita dal progetto ma anche ribadendo che “continueremo a lavorare con enti governativi e militari in molte altre aree. Fra queste, la cybersicurezza, l’addestramento, il reclutamento di militari, la salute dei veterani, la ricerca e il soccorso”.

Google non è l’unico colosso tecnologico investito da polemiche. Lo scorso maggio Amazon è finita nel mirino di un’associazione di difesa del cittadino nordamericana, la American Civil Liberties Union, per via della propria  tecnologia di riconoscimento facciale: Rekognition, un servizio basato su cloud che permette di individuare volti e oggetti all’interno di fotografie o video.

Può, per esempio, comprendere lo stato d’animo di un individuo oppure la razza di un cane o la presenza di elementi quali occhiali, baffi, accessori – e fin qui tutto bene – ma anche catalogare l’appartenenza etnica dei soggetti.

Il problema sta nel modo in cui le forze dell’ordine stanno usando o potrebbero usare questa tecnologia, che fra i clienti della prima ora annovera la  polizia di Orlando e l’ufficio dello sceriffo della contea di Washington.

L’American Civil Liberties Union ha protestato, tirandosi dietro una ventina di altre associazioni watchdog, dopo aver letto uno scambio di email tra ufficiali di polizia e dipendenti di Amazon: si discuteva di possibili usi del servizio Rekognition per analizzare filmati registrati da videocamere di sorveglianza, da micro-videocamere nascoste sul corpo dei poliziotti e da droni.

L’immagine di società (futura, ma neanche tanto) che emerge da tutto questo è un po’ inquietante e, se non da vero Grande Fratello, certamente sempre più vicina a scenari orwelliani. E tuttavia è difficile contestare l’argomentazione giunta da Amazon in risposta a queste polemiche: “La qualità della nostra vita sarebbe molto peggiore oggi se avessimo messo fuori legge le tecnologie nuove solo perché qualcuno potrebbe decidere di abusarne”, ha detto un portavoce, ricordando come il servizio Rekognition venga usato per scopi utili quali la ricerca di bambini smarriti.

 

L’occhio volante che smaschera i violenti

La violenza ha vita breve se il drone osserva e ragiona con “intelligenza”. Un sistema sperimentale sviluppato a sei mani da tre ricercatori dell’Università di Cambridge, del National Institute of Technology di Warangal, India, e dell’Indian Institute of Science di Bangalore utilizza i velivoli automatici, il cloud e un software basato sul deep learning (una declinazione dell’intelligenza artificiale che usa schemi di ragionamento gerarchici).

L’algoritmo è stato “allenato” con migliaia di immagini raffiguranti persone intente a compiere o subire atti di violenza, e ha così imparato a riconoscere azioni come calci, pugni, pugnalate e l’atto di sparare.

Analizzando i filmati nel cloud, il programma riconosce i comportamenti violenti in tempo reale e li segnala a chi guarda il video attraverso i colori (con linee rosse applicate sulle persone sospette).

Il sistema ha raggiunto un’accuratezza del 94% nel distinguere i gesti di violenza dagli altri, percentuale che scende al 79% se la scena è occupata da più di dieci soggetti.