Quando gli algoritmi decidono: opportunità e rischi

L'intelligenza artificiale (AI) sta diventando sempre più potente e viene utilizzata per compiti sempre più complessi. Ciò solleva questioni etiche, ad esempio quando l'IA viene utilizzata per decidere o giudicare le persone. Un nuovo studio di TA-Swiss ha esaminato le opportunità e i rischi dell'IA per la società.

Intelligenza artificiale
© depositphotos, Andrew Lozovyi

L'intelligenza artificiale è uno strumento molto potente per risolvere problemi complessi e gestire enormi quantità di dati non ordinati. Il suo utilizzo permette di tradurre le lingue molto meglio di prima o di sconfiggere avversari umani in giochi di strategia di ogni tipo. L'intelligenza artificiale viene costantemente migliorata e utilizzata per un numero sempre maggiore di attività che prima erano riservate agli esseri umani, come l'individuazione di frodi fiscali o la diagnosi di malattie.

La fiducia è buona, il controllo è migliore

Ma la rapida crescita delle capacità tecniche richiede un occhio attento ai rischi che possono accompagnarle. L'Intelligenza Artificiale potrebbe costare milioni di posti di lavoro? Come cambierà il comportamento dei consumatori se sempre più persone seguiranno i consigli di acquisto di un motore di ricerca intelligente? Cosa succede ai media se l'IA contribuisce alla produzione di "fake news" o non dissolve le bolle di filtraggio ideologico, ma anzi le espande e le rafforza? Cosa può succedere quando lo Stato usa l'IA per polizia proattiva per operare, emanare regolamenti o ridurre il carico di lavoro dei tribunali? In che modo la ricerca e l'istruzione dovrebbero rispondere alle opportunità e ai rischi dell'IA e quali competenze sono particolarmente importanti per i ricercatori di oggi e i futuri decisori per fare il miglior uso dell'IA per la società?

Queste e altre domande simili sono state discusse nel Studio TA-Svizzera è stato realizzato da un team di progetto interdisciplinare guidato da Markus Christen della Digital Society Initiative dell'Università di Zurigo, da ricercatori dell'Empa e dell'Istituto per la valutazione della tecnologia dell'Accademia austriaca delle scienze. Gli scienziati hanno sviluppato i loro risultati con l'aiuto di metodi quali studi mirati sulla letteratura, workshop e sondaggi con più di 300 esperti internazionali.

Istruzioni per l'azione politica

Da questo lavoro sono scaturite nove raccomandazioni per aree diverse come il lavoro, l'istruzione e la ricerca, il consumo, i media e l'amministrazione. Nel campo dell'istruzione, ad esempio, è importante non solo mettere i professionisti in grado di sviluppare e implementare sistemi di IA, ma anche promuovere la capacità di esprimere giudizi sulle implicazioni legali, etiche e sociali dell'IA. Gli autori dello studio chiedono di intensificare la ricerca nelle aree con rischi non chiari. A tal fine, sarebbe auspicabile un finanziamento da parte delle università o di terzi.
Nello studio di TA-Svizzera, gli esperti commentano anche la mancanza di trasparenza dell'IA e le sue possibili proprietà discriminatorie. Vengono discussi i possibili meccanismi di controllo per questi sistemi e gli aspetti legali derivanti dall'uso dell'IA, come la responsabilità o la protezione dei dati.

Comunicato stampa Empa

Confronta anche il documento tecnico L'intelligenza artificiale cambia anche la gestione del rischio

(Visitata 113 volte, 1 visita oggi)
h2> Altri articoli sull'argomento

NOTIZIE SULLA SICUREZZA

Bleiben Sie informiert über aktuelle Sicherheitsthemen – praxisnah und zuverlässig. Erhalten Sie exklusive Inhalte direkt in Ihren Posteingang. Verpassen Sie keine Updates.

Jetzt anmelden!
anmelden
È possibile annullare l'iscrizione in qualsiasi momento!
chiudere il link