Quand les algorithmes décident - chances et risques

L'intelligence artificielle (IA) est de plus en plus performante et utilisée pour des tâches de plus en plus complexes. Cela soulève des questions éthiques, par exemple lorsque l'IA permet de prendre des décisions à la place des humains ou de les juger. Une nouvelle étude de TA-Swiss a examiné les chances et les risques de l'IA pour la société.

Intelligence artificielle
© depositphotos, Andrew Lozovyi

L'intelligence artificielle est un outil très puissant pour résoudre des problèmes complexes et gérer d'énormes quantités de données non triées. Son utilisation permet de traduire des langues bien mieux qu'auparavant ou de vaincre des adversaires humains dans des jeux de stratégie de toutes sortes. L'IA s'améliore constamment et est utilisée pour un nombre croissant d'activités jusqu'ici réservées aux humains, comme l'identification de la fraude fiscale ou le diagnostic de maladies.

La confiance, c'est bien, le contrôle, c'est mieux

Mais la croissance rapide des capacités techniques nécessite de rester vigilant quant aux risques qui peuvent en découler. L'IA peut-elle coûter des emplois en masse ? Comment le comportement des consommateurs changera-t-il si de plus en plus de personnes suivent les recommandations d'achat d'un moteur de recherche intelligent ? Qu'adviendra-t-il des médias si l'IA contribue à la fabrication de "fake news" ou si les bulles de filtrage idéologiques ne se dissipent pas, mais se développent et se renforcent ? Que peut-il se passer si les pouvoirs publics utilisent l'IA pour anticipation du travail de la police de promulguer des règlements ou de réduire la charge de travail des tribunaux ? Comment la recherche et l'éducation doivent-elles réagir aux opportunités et aux risques de l'IA et quelles compétences sont particulièrement pertinentes pour les chercheurs actuels et les futurs décideurs afin d'utiliser au mieux l'IA pour la société ?

Ces questions et d'autres similaires ont été Étude TA-Swiss a été réalisée par une équipe de projet interdisciplinaire dirigée par Markus Christen de la "Digital Society Initiative" de l'Université de Zurich, des chercheurs de l'Empa et de l'Institut d'évaluation des choix technologiques de l'Académie autrichienne des sciences. Les scientifiques ont élaboré leurs résultats à l'aide de méthodes telles qu'une étude ciblée de la littérature, des ateliers et des entretiens avec plus de 300 experts internationaux.

Instructions pour la politique

Ces travaux ont débouché sur neuf recommandations pour différents domaines tels que le travail, l'éducation et la recherche, la consommation, les médias et l'administration. Dans le domaine de l'éducation, par exemple, il est important de former les professionnels non seulement au développement et à la mise en œuvre de systèmes d'IA, mais aussi de promouvoir la capacité de jugement sur les implications juridiques, éthiques et sociales de l'IA. Dans les domaines où les risques sont incertains, les auteurs de l'étude demandent que la recherche soit intensifiée afin d'identifier ces risques. A cet effet, un financement par les universités ou par des fonds de tiers est souhaitable.
Dans l'étude de TA-Swiss, les experts s'expriment également sur le manque de transparence de l'IA et ses éventuelles propriétés discriminatoires. Les mécanismes de contrôle possibles de ces systèmes sont discutés, tout comme les aspects juridiques découlant de l'utilisation de l'IA, par exemple en matière de responsabilité ou de protection des données.

Communiqué de presse de l'Empa

Voir aussi l'article spécialisé L'IA modifie aussi la gestion des risques

(Visité 111 fois, 1 visites aujourd'hui)

Plus d'articles sur le sujet

ACTUALITÉS SUR LA SÉCURITÉ

Bleiben Sie informiert über aktuelle Sicherheitsthemen – praxisnah und zuverlässig. Erhalten Sie exklusive Inhalte direkt in Ihren Posteingang. Verpassen Sie keine Updates.

Jetzt anmelden!
anmelden
Vous pouvez vous désinscrire à tout moment !
close-link