L'IA modifie aussi la gestion des risques

Le développement de l'intelligence artificielle (IA) se poursuit à un rythme soutenu. De nombreuses percées ont été réalisées ces dernières années, notamment dans les domaines de la vision artificielle, du traitement linguistique des données et des jeux de stratégie. En fin de compte, l'IA est une technologie omnifonctionnelle qui a le potentiel de modifier pratiquement tous les domaines de la vie. L'utilisation de l'IA offre également de nombreuses opportunités dans le domaine de la gestion des risques.

intelligence artificielle
© depositphotos, agsandrew

L'intelligence artificielle est un domaine de recherche qui a vu le jour dans les années 1950 et qui s'intéresse au développement de machines intelligentes. L'intelligence est généralement comprise comme la capacité de penser ou d'agir rationnellement selon des critères humains. Le "Saint Graal" de nombreux chercheurs en IA est la création d'une "IA forte", qui soit cognitivement égale, voire supérieure à l'homme. Aujourd'hui, il n'existe cependant que des "IA faibles" : des modèles statiques qui ont été entraînés pour un domaine d'application étroitement défini et qui sont inutiles en dehors de celui-ci. Le domaine le plus important de l'IA est actuellement l'apprentissage automatique. Il s'agit, pour simplifier, d'algorithmes qui mettent en évidence des liens latents entre les propriétés et les résultats de grands ensembles de données. Les trois approches principales de l'apprentissage automatique sont l'association de variables d'entrée à des variables de sortie sur la base de paires entrée-sortie classées manuellement (supervised learning), la reconnaissance de clusters ou d'autres structures dans des ensembles de données sans classification préalable (unsupervised learning) et la maximisation d'une fonction de récompense qui correspond au comportement souhaité (reinforcement learning).

L'IA va transformer de nombreux secteurs et domaines

Le boom actuel de l'IA, qui a commencé il y a un peu plus de cinq ans, est principalement dû à trois développements : premièrement, une puissance de calcul moins chère, deuxièmement, des ensembles de données plus importants et troisièmement, des algorithmes d'apprentissage en profondeur qui utilisent un nombre énorme de couches intermédiaires entre les données d'entrée et les résultats. Cela a conduit, entre autres, à des percées significatives dans les domaines de la vision artificielle (par exemple, des performances surhumaines dans la reconnaissance d'objets et la classification du cancer de la peau), du traitement linguistique des données (par exemple, la parité humaine dans la reconnaissance vocale, la traduction anglais-chinois et le test de compréhension de texte GLUE) et des jeux de stratégie (par exemple, des performances surhumaines dans le jeu de Go, le poker et Dota 2).

On peut s'attendre à ce que l'IA, en tant que technologie omnifonctionnelle, modifie fortement, voire révolutionne, de nombreux secteurs économiques et domaines politiques au cours des prochaines années. En effet, l'IA possède une multitude de complémentarités innovantes, comme les véhicules autonomes, les véhicules aériens sans pilote ou les robots industriels, et donc un potentiel d'application considérable dans toutes les grandes industries. Les paragraphes suivants présentent quelques opportunités et défis clés que la pénétration croissante des applications de l'IA pose à la gestion des risques.

Quelles opportunités dans la gestion des risques ?

Dans les années à venir, il faut s'attendre à ce que les applications de l'IA soient utilisées dans toutes les phases de la gestion des risques, de la prévention des risques à la gestion des crises. Ainsi, l'IA peut déjà apporter une contribution importante à la prévention et à l'évitement des dangers. L'apprentissage automatique peut notamment être utilisé dans la protection des infrastructures critiques pour la maintenance prédictive, l'inspection ainsi que la détection visuelle des dommages aux infrastructures. Par exemple, l'apprentissage automatique a été utilisé pour prédire les conduites d'eau à haut risque de défaillance à Sydney ou les endroits les plus susceptibles de faire l'objet d'inspections de construction dans les villes américaines. De même, l'apprentissage automatique a été utilisé dans différentes études pour détecter et quantifier la corrosion ou les petites fissures dans les structures en béton ou en acier. Ce procédé pourrait bientôt être utilisé pour l'inspection des centrales nucléaires, des routes, des ponts ou des bâtiments.

L'IA promet également des processus plus précis et surtout plus rapides dans les domaines de l'analyse des risques et de la détection précoce. Comme l'analyse des risques basée sur des experts, telle qu'elle prévaut aujourd'hui, nécessite beaucoup de ressources, elle ne peut généralement être effectuée qu'à intervalles prolongés. L'IA favorise ici le passage d'une analyse des risques subjective et dirigée par des experts à un processus basé sur des machines. De telles approches sont utilisées d'une part dans la modélisation de défis complexes et à long terme comme le changement climatique. D'autre part, l'apprentissage automatique et les données météorologiques permettent par exemple d'actualiser les modèles de prévision des inondations ou des glissements de terrain quotidiennement, toutes les heures ou même en temps réel, afin d'optimiser les systèmes d'alerte précoce.

Également utilisé pour la cybersécurité

Les progrès réalisés dans le domaine de la vision artificielle soutiennent notamment la détection de la situation et la surveillance des infrastructures critiques. Les systèmes de sécurité intelligents permettent entre autres de reconnaître les caractéristiques biométriques, les émotions, les actions humaines et les comportements atypiques dans une zone de surveillance. Ils permettent en outre de rechercher automatiquement des objets ou des personnes dans le matériel vidéo au cours d'une période donnée sur la base de caractéristiques spécifiques telles que la taille, le sexe ou la couleur des vêtements. De la même manière, l'apprentissage automatique peut être utilisé pour détecter des anomalies et des intrusions dans le domaine de la cybersécurité.

Enfin, l'IA peut également soutenir la gestion de crise. Par exemple, en utilisant l'apprentissage automatique pour déduire automatiquement l'ampleur des dommages locaux et les besoins d'assistance à partir des messages publiés dans les médias sociaux. Le succès de l'IA dans les jeux de stratégie indique qu'elle pourrait tout à fait être utilisée à l'avenir comme aide à la décision dans la gestion de crise. A plus long terme, il existe également un potentiel d'avenir dans le domaine de l'ingénierie de la résilience. L'IA pourrait par exemple être utilisée dans des systèmes d'infrastructure importants pour développer une capacité d'adaptation générique et les aider ainsi à s'adapter à des conditions environnementales changeantes.

Risques et défis

Même si l'IA est un domaine extrêmement dynamique et que l'on attend souvent beaucoup de cette technologie, certaines limites subsisteront dans son application dans un avenir prévisible. Ainsi, les systèmes d'IA dépendent fortement de la qualité et de la quantité des données. Les distorsions présentes dans les données d'apprentissage se reflètent plus tard dans l'inférence. De même, les systèmes d'IA saisissent certes des corrélations statistiques à partir d'énormes quantités de données, mais ils n'ont pas encore de compréhension des relations de cause à effet. Lorsque les données sont inexistantes ou très limitées, comme c'est le cas pour les risques technologiques émergents et futurs, l'IA actuelle ne peut pas rivaliser avec l'expertise humaine.

En outre, l'utilisation à grande échelle de systèmes d'IA comporte également de nouveaux risques, notamment lorsque les algorithmes soutiennent ou prennent des décisions lourdes de conséquences, comme en médecine, dans les transports, sur les marchés financiers ou dans les infrastructures critiques. Dans de tels cas, il faut notamment s'assurer du respect de critères d'équité, de précision et de robustesse. Par exemple, en contrôlant dans quelle mesure le réseau pondère les différents inputs lors des décisions, de sorte que celles-ci répondent à des critères éthiques et qu'il n'y ait pas de discrimination en fonction de l'origine ou du sexe, par exemple. Un autre danger qu'il convient de prévenir, en particulier sur les marchés, est celui des interactions en cascade entre algorithmes, comme lors du "flash crash" (plusieurs fortes chutes de cours) à Wall Street en 2010. En outre, les systèmes d'IA sont vulnérables aux "adversarial examples", des interventions manipulatrices au moyen d'images ou d'objets physiques qui désorientent délibérément l'IA. Ainsi, des chercheurs du Massachusetts Institute of Technology ont imprimé en 3D une tortue en plastique que l'IA de reconnaissance d'objets de Google a classée de manière cohérente comme une arme à feu. Une autre équipe de chercheurs américains a réussi à faire en sorte que des véhicules (semi-)autonomes classent un panneau de stop comme un panneau de limitation de vitesse à l'aide d'autocollants peu visibles.

Les pirates peuvent abuser de l'IA

Enfin, il convient de noter que les outils d'IA ne sont pas seulement utilisés pour se protéger contre les risques, mais peuvent également être utilisés dans une intention malveillante, notamment pour des cyberattaques. Les progrès en matière de traitement de texte, de compréhension de texte et de génération de langage naturel pourraient par exemple permettre à des acteurs malveillants de passer des appels ("vishing") et d'envoyer des messages électroniques et mobiles personnalisés ("spear phishing") pour obtenir des données d'accès à une nouvelle échelle. En outre, des logiciels malveillants plus intelligents pourraient mieux imiter le comportement de clic humain et se propager de manière plus autonome. Avec la croissance rapide de l'interconnexion des appareils et systèmes technologiques, de l'appareil ménager à l'infrastructure critique (mot-clé Internet des objets), le potentiel de dommages par des cyberattaques basées sur l'IA augmente également.

Conclusion

L'IA est une technologie à tout faire qui s'impose de plus en plus dans le domaine de la gestion des risques. Ainsi, la pratique de l'analyse des risques et de la surveillance évolue au fur et à mesure des progrès réalisés dans le domaine de la vision artificielle et du traitement linguistique des données. En même temps, les systèmes d'IA actuels ne doivent pas être surestimés. Ainsi, la prévision d'événements extrêmes par l'IA s'avère souvent difficile en raison du manque de données d'entraînement. Le développement rapide et pas toujours linéaire de l'IA rend difficile une estimation réaliste des capacités futures de l'IA, et il n'existe pas de consensus d'experts sur le délai dans lequel une "IA forte" pourrait devenir une réalité. L'IA est une statistique avancée, elle n'est pas intrinsèquement neutre et ne possède pas actuellement une compréhension des concepts similaire à celle de l'homme. Les acteurs publics et privés devraient avant tout investir dans la formation et la qualification de leurs collaborateurs afin qu'ils puissent former, utiliser et évaluer correctement les instruments d'IA.

Enfin, le potentiel de transformation des systèmes d'IA dans de nombreux domaines signifie également que la politique doit s'en préoccuper davantage. Ainsi, la nouvelle Commission européenne a présenté en février 2020 son livre blanc sur l'IA, qui prévoit le développement d'exigences juridiquement contraignantes pour les applications à haut risque, telles que les décisions médicales ou l'identification biométrique. En Suisse, le groupe de travail interdépartemental sur l'IA a présenté son rapport en décembre 2019. Celui-ci estime que la législation actuelle est suffisante, mais souligne la nécessité d'une clarification dans les domaines du droit international, de la formation de l'opinion publique, et de l'administration.

Auteurs :

  • Dr Florian Roth, chercheur principal, Risk and Resilience Research Team, Center for Security Studies (CSS), ETH Zurich
  • Kevin Kohler, assistant de recherche, Risk & Resilience Research Team, CSS, EPF Zurich

 

Suggestions de lecture

  • ACLU (2019). L'aube de la surveillance robotique : IA, analyse vidéo et protection de la vie privée. www.aclu.org/sites/default/files/field_document/061119-robot_surveillance.pdf
  • Brundage, M. et al. (2018). The Malicious Use of Artificial Intelligence : Forecasting, Prevention, and Mitigation. https://arxiv.org/pdf/1802.07228.pdf
  • Shoham, Y. et al. (2019). The AI Index 2018 Annual Report. https://cdn.aiindex.org/2018/AI%20Index%202018%20Annual%20Report.pdf
  • Banque mondiale (2018.) Machine Learning for Disaster Risk Management. https://documents.worldbank.org/curated/en/503591547666118137/pdf/133787-WorldBank-DisasterRiskManagement-Ebook-D6.pdf

 

(Visité 588 fois, 1 visites aujourd'hui)

Plus d'articles sur le sujet

INSCRIVEZ-VOUS MAINTENANT
ACTUALITÉS SUR LA SÉCURITÉ
Des informations importantes sur les thèmes de la sécurité - de manière compétente et pratique. Recevez des contenus et des actualités exclusifs directement dans votre boîte de réception électronique.
INSCRIVEZ-VOUS
Vous pouvez vous désinscrire à tout moment !
close-link