KI verändert auch das Risikomanagement
Die Entwicklung künstlicher Intelligenz (KI) schreitet mit grosser Geschwindigkeit voran. Vor allem in den Bereichen maschinelles Sehen, linguistische Datenverarbeitung und Strategiespiele konnten in den letzten Jahren zahlreiche Durchbrüche erzielt werden. Letztlich handelt es sich bei KI um eine omnifunktionale Technologie, die das Potenzial hat, praktisch alle Lebensbereiche zu verändern. Auch im Risikomanagement bietet der KI-Einsatz vielfältige Chancen.
Künstliche Intelligenz ist ein in den 1950ern-Jahren entstandenes Forschungsfeld, welches sich mit der Entwicklung intelligenter Maschinen befasst. Wobei Intelligenz in der Regel als die Fähigkeit verstanden wird, nach menschlichen Massstäben rational zu denken oder zu handeln. Der «heilige Gral» vieler KI-Forscher ist die Schaffung einer «starken KI», welche dem Menschen kognitiv ebenbürtig oder gar überlegen ist. Heute existiert jedoch nur «schwache KI»: statische Modelle, welche für ein eng definiertes Einsatzgebiet trainiert wurden und ausserhalb davon nutzlos sind. Wichtigster Teilbereich der KI ist dabei aktuell das maschinelle Lernen. Hierbei handelt es sich, vereinfacht gesprochen, um Algorithmen, welche latente Verbindungen zwischen Eigenschaften und Ergebnissen bei grossen Datensätzen aufzeigen. Drei zentrale Ansätze zum maschinellen Lernen sind das Verknüpfen von Input-Variablen zu Output-Variablen aufgrund von manuell klassifizierten Input-Output-Paaren (supervised learning), das Erkennen von Clustern oder anderen Strukturen in Datensätzen ohne Vorklassifizierungen (unsupervised learning) sowie das Maximieren einer Belohnungsfunktion, welche dem gewünschten Verhalten entspricht (reinforcement learning).
KI wird zahlreiche Sektoren und Bereiche verändern
Der aktuelle KI-Boom, der vor gut fünf Jahren begonnen hat, geht in erster Linie auf drei Entwicklungen zurück: Erstens billigere Rechenleistung, zweitens grössere Datensätze und drittens Deep-Learning-Algorithmen, die eine enorme Anzahl von Zwischenschichten zwischen Eingabedaten und Ergebnissen verwenden. Dies hat unter anderem zu bedeutenden Durchbrüchen in den Bereichen maschinelles Sehen (z.B. übermenschliche Leistungen bei der Objekterkennung und Hautkrebsklassifizierung), linguistische Datenverarbeitung (z.B. menschliche Parität bei der Spracherkennung, bei englisch-chinesischer Übersetzung und dem Textverständnistest GLUE) und Strategiespiele (z.B. übermenschliche Leistungen bei Go, Poker und Dota 2) geführt.
Es ist zu erwarten, dass KI als omnifunktionale Technologie in den nächsten Jahren zahlreiche wirtschaftliche Sektoren und Politikbereiche stark verändern, wenn nicht gar revolutionieren wird. Denn KI besitzt eine Vielzahl an innovativen Komplementaritäten, wie etwa autonome Fahrzeuge, unbemannte Luftfahrzeuge oder industrielle Roboter, und somit ein beträchtliches Anwendungspotenzial in allen grösseren Industrien. Im Folgenden werden einige zentrale Chancen und Herausforderungen dargestellt, die sich mit der zunehmenden Durchdringung von KI-Anwendungen für das Risikomanagement ergeben.
Welche Chancen im Risikomanagement?
In den kommenden Jahren ist mit dem Einsatz von KI-Anwendungen in allen Phasen des Risikomanagements, von der Risikoprävention bis hin zur Krisenbewältigung, zu rechnen. So kann KI bereits in der Gefahrenvorsorge und -vermeidung einen wichtigen Beitrag leisten. Unter anderem kann maschinelles Lernen beim Schutz kritischer Infrastrukturen zur prädiktiven Instandhaltung, Inspektion sowie zur visuellen Erkennung von Infrastrukturschäden eingesetzt werden. So wurde maschinelles Lernen beispielsweise verwendet, um vorauszusagen, welche Wasserleitungen in Sydney ein hohes Ausfallrisiko haben oder wo in US-Städten sich bauaufsichtliche Inspektionen am wahrscheinlichsten lohnen. Ebenfalls wurde maschinelles Lernen in verschiedenen Studien dazu verwendet, Korrosion oder kleine Risse in Beton- oder Stahlbauten zu erkennen und zu quantifizieren. Dieses Verfahren könnte schon bald bei der Inspektion von Kernkraftwerken, Strassen, Brücken oder Gebäuden eingesetzt werden.
Auch in den Bereichen Risikoanalyse und Früherkennung verspricht KI präzisere und vor allem schnellere Prozesse. Da die expertengestützte Risikoanalyse, wie sie heute vorherrscht, sehr ressourcenintensiv ist, kann sie zumeist nur in längeren Intervallen durchgeführt werden. KI unterstützt hier eine Verschiebung weg von der subjektiven, expertengesteuerten Risikoanalyse hin zu einem maschinenbasierten Prozess. Anwendung finden solche Ansätze einerseits in der Modellierung von komplexen, längerfristigen Herausforderungen wie dem Klimawandel. Andererseits können mithilfe von maschinellem Lernen und Wetterdaten beispielsweise Hochwasser- oder Erdrutschvorhersagemodelle täglich, stündlich oder sogar in Echtzeit aktualisiert werden, um Frühwarnsysteme zu optimieren.
Auch Verwendung für die Cybersicherheit
Die Fortschritte im Bereich maschinelles Sehen unterstützen insbesondere die Lageerfassung und die Überwachung kritischer Infrastrukturen. Intelligente Sicherheitssysteme ermöglichen unter anderem die Erkennung von biometrischen Eigenschaften, Emotionen, menschlichen Handlungen und untypischem Verhalten in einem Überwachungsbereich. Zudem erlauben sie es, Videomaterial in einem bestimmten Zeitraum automatisch anhand spezifischer Merkmale wie etwa Grösse, Geschlecht oder Kleidungsfarbe nach Objekten oder Menschen zu durchforsten. Ähnlich kann maschinelles Lernen auch zur Erkennung von Anomalien und Einbrüchen im Bereich Cybersicherheit verwendet werden.
Nicht zuletzt kann KI auch das Krisenmanagement unterstützen. Zum Beispiel, indem maschinelles Lernen dazu verwendet wird, aus Posts in den sozialen Medien automatisch lokale Schadensausmasse sowie Unterstützungsnotwendigkeiten herauszulesen. Der Erfolg von KI in Strategiespielen ist ein Indiz dafür, dass sie zukünftig durchaus auch zur Entscheidungsunterstützung in der Krisenbewältigung eingesetzt werden könnte. Längerfristig besteht auch Zukunftspotenzial im Bereich des Resilience Engineering. Demnach könnte KI zum Beispiel in wichtigen Infrastruktursystemen dazu genutzt werden, generische Anpassungsfähigkeit aufzubauen, und ihnen so helfen, sich an verändernde Umweltbedingungen anzupassen.
Risiken und Herausforderungen
Auch wenn KI ein äusserst dynamisches Themenfeld ist und häufig sehr hohe Erwartungen in diese Technologie gesetzt werden, bleiben auf absehbare Zeit gewisse Grenzen bei deren Anwendung bestehen. So sind KI-Systeme stark von der Qualität und Quantität an Daten abhängig. Verzerrungen, welche in den Trainingsdaten vorhanden sind, spiegeln sich später bei der Inferenz wider. Ebenfalls erfassen KI-Systeme zwar statistische Korrelationen aus enormen Datenmengen, aber sie haben deswegen noch kein Verständnis von kausalen Zusammenhängen. Wo keine oder nur sehr spärliche Daten vorhanden sind, wie etwa bei aufkommenden und zukünftigen technologischen Risiken, kann derzeitige KI nicht mit menschlicher Expertise mithalten.
Darüber hinaus birgt der breite Einsatz von KI-Systemen auch neue Risiken, insbesondere wenn Algorithmen folgenschwere Entscheidungen unterstützen oder treffen, wie in der Medizin, beim Transport, auf Finanzmärkten oder bei kritischen Infrastrukturen. In solchen Fällen muss unter anderem die Einhaltung von Fairness, Genauigkeits- und Robustheitskriterien sichergestellt werden. Zum Beispiel, indem kontrolliert wird, wie stark das Netzwerk verschiedene Inputs bei Entscheidungen gewichtet, sodass diese ethischen Massstäben entsprechen und es beispielsweise nicht zu Diskriminierung nach Herkunft oder Geschlecht kommt. Eine weitere Gefahr, der insbesondere in Märkten vorgebeugt werden muss, sind kaskadenhafte Interaktionen zwischen Algorithmen, wie etwa im «Flash Crash» (mehrere starke Kurseinbrüche) an der Wall Street im Jahr 2010. Darüber hinaus sind KI-Systeme anfällig gegenüber sogenannten «adversarial examples», manipulativen Eingriffen mittels Bildern oder physischen Objekten, welche die KI bewusst verwirren. So haben Forscher am Massachusetts Institute of Technology etwa eine Plastikschildkröte 3D-gedruckt, welche von Googles Objekterkennungs-KI konsistent als Schusswaffe klassifiziert wird. Ein weiteres amerikanisches Forscherteam hat (semi-)autonome Fahrzeuge mit unscheinbaren Aufklebern dazu gebracht, ein Stoppschild als Tempolimittafel zu klassifizieren.
Hacker können KI missbrauchen
Zuletzt ist zu beachten, dass KI-Instrumente nicht nur zum Schutz vor Risiken eingesetzt, sondern auch in schadhafter Absicht verwendet werden können, insbesondere für Cyberangriffe. Fortschritte in der Textverarbeitung, dem Textverständnis und der Generierung von natürlicher Sprache könnten es bösartigen Akteuren beispielsweise erlauben, Anrufe («vishing») und zugeschnittene Mail- und Mobilnachrichten («spear phishing») zur Gewinnung von Zugangsdaten in einem neuen Massstab durchzuführen. Zudem könnte intelligentere Malware das menschliche Klickverhalten besser imitieren und sich autonomer weiterverbreiten. Mit der rapide wachsenden Vernetzung technologischer Geräte und Systeme, vom Haushaltsgerät bis zur kritischen Infrastruktur (Stichwort Internet of Things), steigt auch das Schadenspotenzial durch KI-basierte Cyberangriffe.
Fazit
KI ist eine Allzwecktechnologie und hält auch im Bereich Risikomanagement zunehmend Einzug. So verändert sich die Praxis von Risikoanalyse und Überwachung im Zuge des Fortschritts im Bereich des maschinellen Sehens und in der linguistischen Datenverarbeitung immer weiter. Gleichzeitig dürfen heutige KI-Systeme aber auch nicht überschätzt werden. So gestaltet sich die Prognose von Extremereignissen mittels KI aufgrund fehlender Trainingsdaten häufig schwierig. Die rasante und nicht immer lineare Entwicklung von KI macht es schwierig, zukünftige KI-Kapazitäten realistisch einzuschätzen, und es gibt keinen Expertenkonsens, in welchem Zeitrahmen «starke KI» Realität werden könnte. KI ist fortgeschrittene Statistik, sie ist weder inhärent neutral, noch besitzt sie derzeit ein menschenähnliches Verständnis von Konzepten. Öffentliche und private Akteure sollten vor allem in die Weiterbildung und Qualifikation ihrer Mitarbeitenden investieren, damit diese KI-Instrumente korrekt trainieren, nutzen und einschätzen können.
Zuletzt bedeutet das transformative Potenzial von KI-Systemen in vielen Bereichen auch, dass sich die Politik verstärkt damit beschäftigen muss. So hat die neue EU-Kommission im Februar 2020 ihr White Paper zur KI vorgestellt, welches die Entwicklung von rechtlich verbindlichen Anforderungen für Anwendungen mit hohen Risiken, wie etwa medizinische Entscheide oder die biometrische Identifikation, vorsieht. In der Schweiz hat die interdepartementale Arbeitsgruppe KI ihren Bericht im Dezember 2019 vorgelegt. Dieser hält die derzeitigen Rechtsvorschriften für genügend, hebt jedoch Abklärungsbedarf in den Bereichen Völkerrecht, öffentliche Meinungsbildung, und Verwaltung hervor.
Autoren:
- Dr. Florian Roth, Senior Researcher, Risk and Resilience Research Team, Center for Security Studies (CSS), ETH Zürich
- Kevin Kohler, Research Assistant, Risk & Resilience Research Team, CSS, ETH Zürich
Lesetipps
- ACLU (2019). The Dawn of Robot Surveillance: AI, Video Analytics, and Privacy. www.aclu.org/sites/default/files/field_document/061119-robot_surveillance.pdf
- Brundage, M. et al. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. https://arxiv.org/pdf/1802.07228.pdf
- Shoham, Y. et al. (2019). The AI Index 2018 Annual Report. https://cdn.aiindex.org/2018/AI%20Index%202018%20Annual%20Report.pdf
- World Bank (2018.) Machine Learning for Disaster Risk Management. https://documents.worldbank.org/curated/en/503591547666118137/pdf/133787-WorldBank-DisasterRiskManagement-Ebook-D6.pdf