Le aziende minimizzano i timori sugli impatti negativi dell'AI sull'occupazione. Ma robot, droni e algoritmi di machine learning potranno rappresentare un pericolo anche per la sicurezza fisica e digitale delle persone.

Osserva, registra, analizza, “ragiona”, influenza il comportamento di software e sistemi hardware, dialoga con le persone in forma di chatbot o di assistente virtuale di uno smartphone, rende più realistici i video-giochi, affina le ricerche Web, prevede l’andamento dei mercati finanziari, fa volare droni, anima i robot e piloterà le automobili senza conducente del futuro.

L’intelligenza artificiale è questo e molto altro, e le sue innumerevoli applicazioni arriveranno nel 2022 a generare per i fornitori di tecnologie un giro d’affari annuo di 16 miliardi di dollari, secondo le previsioni della società di ricerca Markets and Markets.

Colossi come Amazon, Microsoft, Apple, Google, Facebook, Samsung, Ibm, Tesla e moltissimi altri stanno investendo massicciamente in tecnologie e persone, consapevoli del fatto che il machine learning (l’apprendimento automatico, uno dei fondamenti dell’AI) finirà per essere incorporato in ogni servizio o sistema digitale. Nelle cronache giornalistiche questa nuova frontiera è spesso l’oggetto di timori di un suo espansionismo ai danni delle competenze umane, insomma di effetti negativi sull’occupazione non soltanto nelle mansioni manuali oggi già sostituite dai robot, ma anche in quelle intellettuali (figure impiegatizie, consulenti, giornalisti).

Difficile poter smontare totalmente queste paure, ma è anche vero che diversi studi sottolineano la prevalenza nel mondo imprenditoriale di sentimenti di benevolenza e interesse: uno studio presentato da Accenture all’ultimo World Economic Forum di Davos, per esempio, ha raccontato che per il 72% dei top manager (di 14 Paesi, Italia inclusa) l’intelligenza artificiale potrebbe aiutare la propria azienda a ottenere vantaggi competitivi nel proprio mercato di riferimento, mentre per il 63% potrebbe anche creare nuovi posti di lavoro.

Una percentuale poco inferiore, il 61%, prefigura entro tre anni un aumento delle figure professionali che useranno quotidianamente questa tecnologia. Un po’ a sorpresa, anche la maggioranza dei dipendenti che non ricoprono ruoli dirigenziali vede di buon occhio le innovazioni della robotica e del machine learning: per più di sei persone su dieci potranno avere impatti positivi sul proprio lavoro, anche se sarà necessario (per il 69%) sviluppare nuove competenze.

Un doppio filo lega certamente l’intelligenza artificiale al tema della sicurezza, sia quella fisica delle persone, sia quella informatica. Un recente studio firmato da 26 accademici ed esperti (Università di Oxford, Cambridge, Stanford, Yale e Bath, Center for a New American Security, Open AI e altre organizzazioni) dipinge scenari inquietanti e verosimili in cui questa tecnologia diventa involontario complice del crimine. E la casistica è variegata.

Nel cybercrimine, l’intelligenza artificiale potrà aiutare i malintenzionati sia ad ampliare la portata delle loro operazioni “tradizionali” (pensiamo alle botnet e al DDoS) sia a creare nuove tipologie di attacco, sfruttando l’automazione o la generazione di azioni su larga scala, o ancora particolari forme di rilevamento delle vulnerabilità.

Dall’attuale e già alto livello di sofisticazione, le campagne di phishing potranno diventare ancor più chirurighe, personalizzate e dunque efficaci, mentre quelle di social engineering sapranno prepararsi il terreno carpendo informazioni alla vittima ingaggiata da un chatbot che si finge una persona reale. Dopo un dialogo apparentemente non sospetto, il programma potrebbe convincere l’utente a scaricare un allegato malevolo, per esempio.

L’automazione applicata alla ricerca delle vulnerabilità, invece, potrà aiutare i criminali a velocizzare enormemente le loro operazioni di “caccia al bug”.

Lo studio dei 26 esperti arriva persino a immaginare dei “robot assassini”, che nascono come macchine destinate a fare le pulizie o a svolgere altri compiti innocui e che, se riprogrammati, possono attentare alla vita di personaggi politici.

E poi i droni: anche quelli sviluppati per uso “civile”, destinati per esempio all’agricoltura o a catturare riprese aeree, potranno trasformarsi in micidiali armi dotate di autonomia e capaci di individuare con precisione un bersaglio nella folla e di colpirlo da lontano. Si pensi poi anche al rischio di hackeraggio dei futuri veicoli a guida autonoma o al pericolo che un sistema di AI deputato al controllo del traffico (banalmente, dei semafori) possa interpretare erroneamente un segnale visivo.

In tutti questi casi, l’intelligenza artificiale accentua il pericolo poiché, eliminando il ruolo degli individui in molte comunicazioni e sistemi, rende difficile intervenire “manualmente” per arginare un attacco in corso.