L'intelligenza artificiale cambia anche la gestione del rischio
Lo sviluppo dell'intelligenza artificiale (AI) procede a grande velocità. Soprattutto nei settori della visione artificiale, dell'elaborazione dei dati linguistici e dei giochi strategici, negli ultimi anni sono stati raggiunti numerosi risultati. In definitiva, l'IA è una tecnologia onnifunzionale che ha il potenziale per cambiare praticamente tutti i settori della vita. L'uso dell'IA offre anche molte opportunità nella gestione del rischio.
L'intelligenza artificiale è un campo di ricerca emerso negli anni '50 e si occupa dello sviluppo di macchine intelligenti. L'intelligenza è solitamente intesa come la capacità di pensare o agire razionalmente secondo gli standard umani. Il "santo graal" di molti ricercatori di IA è la creazione di una "IA forte" che sia cognitivamente pari o addirittura superiore agli esseri umani. Oggi, tuttavia, esiste solo una "IA debole": modelli statici che sono stati addestrati per un'area di applicazione strettamente definita e che sono inutili al di fuori di essa. La sottoarea più importante dell'IA è attualmente l'apprendimento automatico. In termini semplificati, si tratta di algoritmi che rivelano connessioni latenti tra proprietà e risultati in grandi insiemi di dati. Tre approcci centrali all'apprendimento automatico sono il collegamento di variabili di input a variabili di output basato su coppie input-output classificate manualmente (apprendimento supervisionato), il riconoscimento di cluster o altre strutture in set di dati senza pre-classificazioni (apprendimento non supervisionato) e la massimizzazione di una funzione di ricompensa che corrisponde al comportamento desiderato (apprendimento per rinforzo).
L'IA cambierà molti settori e aree
L'attuale boom dell'IA, iniziato ben cinque anni fa, è dovuto principalmente a tre sviluppi: primo, potenza di calcolo più economica; secondo, set di dati più grandi; terzo, algoritmi di apprendimento profondo che utilizzano un numero enorme di livelli intermedi tra i dati di input e i risultati. Ciò ha portato a progressi significativi nella visione artificiale (ad esempio, prestazioni sovrumane nel riconoscimento degli oggetti e nella classificazione dei tumori della pelle), nell'informatica linguistica (ad esempio, parità umana nel riconoscimento vocale, nella traduzione inglese-cinese e nel test di comprensione del testo GLUE) e nei giochi di strategia (ad esempio, prestazioni sovrumane nel Go, nel Poker e in Dota 2), tra gli altri.
È prevedibile che l'IA, in quanto tecnologia onnifunzionale, cambierà fortemente, se non rivoluzionerà, numerosi settori economici e aree politiche nei prossimi anni. Questo perché l'IA ha una moltitudine di complementarità innovative, come i veicoli autonomi, i veicoli aerei senza pilota o i robot industriali, e quindi un notevole potenziale di applicazione in tutti i principali settori industriali. La sezione seguente illustra alcune delle principali opportunità e sfide che si presentano per la gestione del rischio con l'aumento della diffusione delle applicazioni di IA.
Quali opportunità nella gestione del rischio?
Nei prossimi anni si prevede che le applicazioni di IA saranno utilizzate in tutte le fasi della gestione del rischio, dalla prevenzione del rischio alla gestione delle crisi. Pertanto, l'IA può già dare un importante contributo alla prevenzione e alla prevenzione dei pericoli. Tra l'altro, l'apprendimento automatico può essere utilizzato nella protezione delle infrastrutture critiche per la manutenzione predittiva, l'ispezione e il rilevamento visivo dei danni alle infrastrutture. Ad esempio, l'apprendimento automatico è stato utilizzato per prevedere quali condotte idriche di Sydney sono ad alto rischio di guasto o dove nelle città statunitensi è più probabile che le ispezioni edilizie siano utili. L'apprendimento automatico è stato utilizzato anche in diversi studi per rilevare e quantificare la corrosione o le piccole crepe nelle strutture in calcestruzzo o in acciaio. Questo processo potrebbe presto essere utilizzato per l'ispezione di centrali nucleari, strade, ponti o edifici.
L'IA promette anche processi più precisi e, soprattutto, più rapidi nell'ambito dell'analisi dei rischi e della rilevazione precoce. Poiché l'analisi del rischio basata su esperti, così come prevale oggi, è molto dispendiosa in termini di risorse, di solito può essere effettuata solo a intervalli più lunghi. L'intelligenza artificiale favorisce il passaggio da un'analisi del rischio soggettiva e guidata da esperti a un processo basato sulle macchine. Da un lato, tali approcci sono utilizzati nella modellazione di sfide complesse e a lungo termine, come il cambiamento climatico. D'altra parte, con l'aiuto dell'apprendimento automatico e dei dati meteorologici, ad esempio, i modelli di previsione delle inondazioni o delle frane possono essere aggiornati quotidianamente, ogni ora o addirittura in tempo reale per ottimizzare i sistemi di allarme rapido.
Utilizzabile anche per la sicurezza informatica
I progressi nella visione artificiale supportano la consapevolezza della situazione e la sorveglianza delle infrastrutture critiche in particolare. I sistemi di sicurezza intelligenti consentono, tra l'altro, il riconoscimento di caratteristiche biometriche, emozioni, azioni umane e comportamenti atipici in un'area di sorveglianza. Consentono inoltre di ricercare automaticamente oggetti o persone in un determinato periodo di tempo in base a caratteristiche specifiche quali dimensioni, sesso o colore dei vestiti. Allo stesso modo, l'apprendimento automatico può essere utilizzato per rilevare anomalie e intrusioni nella sicurezza informatica.
Infine, ma non meno importante, l'IA può anche supportare la gestione delle crisi. Ad esempio, utilizzando l'apprendimento automatico per leggere automaticamente l'entità dei danni locali e la necessità di supporto dai post sui social media. Il successo dell'IA nei giochi di strategia indica che in futuro potrebbe essere utilizzata anche per supportare il processo decisionale nella gestione delle crisi. A lungo termine, esiste anche un potenziale futuro nel settore dell'ingegneria della resilienza. Di conseguenza, l'IA potrebbe essere utilizzata, ad esempio, in importanti sistemi infrastrutturali per costruire un'adattabilità generica e quindi aiutarli ad adattarsi alle mutevoli condizioni ambientali.
Rischi e sfide
Anche se l'IA è un campo estremamente dinamico e spesso si ripongono aspettative molto elevate in questa tecnologia, alcuni limiti rimarranno nella sua applicazione per il prossimo futuro. I sistemi di intelligenza artificiale dipendono fortemente dalla qualità e dalla quantità dei dati. Le distorsioni presenti nei dati di addestramento si riflettono successivamente nell'inferenza. Allo stesso modo, sebbene i sistemi di IA catturino correlazioni statistiche da enormi quantità di dati, non hanno ancora una comprensione delle relazioni causali. In assenza di dati o in presenza di dati molto scarsi, come nel caso dei rischi tecnologici emergenti e futuri, l'IA attuale non è in grado di eguagliare le competenze umane.
Inoltre, l'uso diffuso dei sistemi di IA comporta anche nuovi rischi, soprattutto quando gli algoritmi supportano o prendono decisioni importanti, come nel campo della medicina, dei trasporti, dei mercati finanziari o delle infrastrutture critiche. In questi casi, è necessario garantire, tra l'altro, il rispetto dei criteri di equità, accuratezza e solidità. Ad esempio, controllando quanto la rete pesi i diversi input nelle decisioni, in modo da rispettare gli standard etici e non discriminare, ad esempio, in base all'origine o al sesso. Un altro pericolo da prevenire, soprattutto nei mercati, sono le interazioni a cascata tra gli algoritmi, come nel caso del "flash crash" (diversi bruschi cali di prezzo) a Wall Street nel 2010. Inoltre, i sistemi di IA sono vulnerabili ai cosiddetti "esempi avversari", interventi manipolatori per mezzo di immagini o oggetti fisici che confondono deliberatamente l'IA. Ad esempio, i ricercatori del Massachusetts Institute of Technology hanno stampato in 3D una tartaruga di plastica che l'intelligenza artificiale di Google per il riconoscimento degli oggetti ha classificato come arma da fuoco. Un altro gruppo di ricerca americano ha utilizzato veicoli (semi)autonomi con adesivi poco visibili per classificare un segnale di stop come un segnale di limite di velocità.
Gli hacker possono abusare dell'intelligenza artificiale
Infine, va notato che gli strumenti di IA possono essere utilizzati non solo per proteggere dai rischi, ma anche con intenti malevoli, in particolare per gli attacchi informatici. I progressi nell'elaborazione del testo, nella comprensione del testo e nella generazione del linguaggio naturale, ad esempio, potrebbero consentire ad attori malintenzionati di effettuare chiamate ("vishing") e di personalizzare la posta e i messaggi mobili ("spear phishing") per estrarre le credenziali su una nuova scala. Inoltre, le minacce informatiche più intelligenti potrebbero imitare meglio il comportamento umano nei clic e diffondersi in modo più autonomo. Con la rapida crescita del collegamento in rete di dispositivi e sistemi tecnologici, dagli elettrodomestici alle infrastrutture critiche (parola chiave Internet of Things), aumenta anche il potenziale di danni derivanti da attacchi informatici basati sull'intelligenza artificiale.
Conclusione
L'IA è una tecnologia di uso generale e si sta sempre più diffondendo nel campo della gestione del rischio. Ad esempio, la pratica dell'analisi e del monitoraggio del rischio continua a cambiare sulla scia dei progressi della visione artificiale e dell'informatica linguistica. Allo stesso tempo, però, i sistemi di IA di oggi non devono essere sopravvalutati. Ad esempio, la previsione di eventi estremi utilizzando l'IA è spesso difficile a causa della mancanza di dati di addestramento. Lo sviluppo rapido e non sempre lineare dell'IA rende difficile stimare realisticamente le capacità future dell'IA e non c'è consenso tra gli esperti sull'arco di tempo in cui l'"IA forte" potrebbe diventare realtà. L'IA è una statistica avanzata, non è intrinsecamente neutrale, né ha attualmente una comprensione dei concetti simile a quella umana. Gli attori pubblici e privati dovrebbero investire innanzitutto nella formazione e nella qualificazione del proprio personale, in modo da poter formare, utilizzare e valutare correttamente gli strumenti di IA.
Infine, il potenziale di trasformazione dei sistemi di IA in molti settori significa anche che i responsabili politici devono prestare maggiore attenzione a questi sistemi. Ad esempio, la nuova Commissione europea ha presentato il suo libro bianco sull'IA nel febbraio 2020, che prevede lo sviluppo di requisiti giuridicamente vincolanti per le applicazioni ad alto rischio, come le decisioni mediche o l'identificazione biometrica. In Svizzera, il gruppo di lavoro interdipartimentale sull'IA ha presentato il suo rapporto nel dicembre 2019. Ritiene che le attuali disposizioni legali siano sufficienti, ma sottolinea la necessità di chiarimenti nelle aree del diritto internazionale, della formazione dell'opinione pubblica e dell'amministrazione.
Autori:
- Dr. Florian Roth, ricercatore senior, gruppo di ricerca sui rischi e la resilienza, Centro per gli studi sulla sicurezza (CSS), ETH Zurigo
- Kevin Kohler, Assistente di ricerca, Team di ricerca su rischio e resilienza, CSS, ETH Zurigo
Consigli di lettura
- ACLU (2019). L'alba della sorveglianza robotica: intelligenza artificiale, analisi video e privacy. www.aclu.org/sites/default/files/field_document/061119-robot_surveillance.pdf
- Brundage, M. et al. (2018). L'uso dannoso dell'intelligenza artificiale: previsione, prevenzione e mitigazione. https://arxiv.org/pdf/1802.07228.pdf
- Shoham, Y. et al. (2019). The AI Index 2018 Annual Report. https://cdn.aiindex.org/2018/AI%20Index%202018%20Annual%20Report.pdf
- Banca Mondiale (2018) Machine Learning for Disaster Risk Management. https://documents.worldbank.org/curated/en/503591547666118137/pdf/133787-WorldBank-DisasterRiskManagement-Ebook-D6.pdf.