Overearth | shutterstock.com
Cybersicherheitsexperten haben in den letzten Jahren immer wieder darauf hingewiesen, dass die Rolle des CISO diversifiziert werden muss, um den Anforderungen der gestiegenen Verantwortung in zahlreichen Kategorien gerecht zu werden. Im vergangenen Jahr wurde dieser Hinweis lauter, insbesondere im Zusammenhang mit dem Thema generative künstliche Intelligenz (Generative AI; GenAI).
Der Fokus auf GenAI wird nicht zuletzt durch various Analysen vorangetrieben, die zu dem Schluss kommen, dass Massive Language Fashions (LLMs) potenziell ein Segen für Cyberkriminelle und ihre Fähigkeiten sind. Die Argumentation: KI-Modelle könnten den Umfang und die Geschwindigkeit von Kompromittierungsaktivitäten im Allgemeinen massiv steigern, indem sie zum Beispiel ermöglichten:
- Angriffsflächen im großen Stil zu analysieren,
- neue, anpassbare Intrusion-Kits einzusetzen, oder
- die zugrundeliegenden, cyberkriminellen Infrastrukturen zu erweitern.
Leicht nachvollziehbar, dass das CISOs Sorgen bereitet. Es gibt nur ein Downside: Die KI-Revolution des Cybercrime-Sektors hat nicht stattgefunden. Zwar wird viel Wind darum gemacht, dass LLMs für eng gefasste Duties eingesetzt werden – etwa, um Phishing-Schemata zu erweitern oder Malware-Stämme anzupassen. Es gibt jedoch bislang keine Hinweise darauf, dass ausgefeilte LLM-Techniken im Rahmen größerer Intrusion-Kampagnen eingesetzt werden, um sich einen Vorteil gegenüber den Verteidigern zu verschaffen.
LLMs drücken Cybercrime-Rendite
Dafür gibt eine ganze Reihe möglicher Gründe. Besonderes Augenmerk verdient dabei der Umstand, wie die technologischen Eigenschaften der generativen künstlichen Intelligenz mit den realen organisatorischen, wirtschaftlichen und politischen Bedingungen interagieren, unter denen die Angreifer operieren. Die Fähigkeit, grundlegende Aktivitäten wie Penetrationstests oder Schwachstellen-Scans zu automatisieren, ist augenscheinlich von immensem Wert. Schließlich ist Effizienz Geld. Aber diese Routineaufgaben unterscheiden sich erheblich von den Cybercrime-Techniken, die wirklich gefährlich sind. Jeder Machine-Studying-Spezialist wird Ihnen bestätigen, dass LLMs nicht wirklich intestine darin sind, kreative Outputs zu liefern oder Schlussfolgerungen zu ziehen.
Für Angreifer ist der Einsatz von LLMs deshalb ein Unsicherheitsfaktor – schließlich wird der Mensch damit zunehmend aus den Prozessen herausgenommen. Das wäre wünschenswert, wenn es um eine große Anzahl von überschaubaren Duties mit relativ geringem Fehlerpotenzial ginge. Im Fall von Cyberkriminellen bedeutet weniger menschliche Entscheidungsfreiheit jedoch, dass es wesentlich schwieriger wird, nicht funktionierenden Code oder das Potenzial für eine Entdeckung abzuschätzen. Diese Unvorhersehbarkeit ist nichts anderes als ein zusätzliches Risiko, das mit der Abhängigkeit von LLMs für Routineaufgaben exponentiell steigt und das Angreifer gegen die potenziellen Gewinne ihrer Intrusion-Aktivitäten abwägen müssen.
Im Ergebnis ist der Einsatz von künstlicher Intelligenz zu Intrusion-Zwecken alles andere als attraktiv für Cyberkriminelle. Diese zusätzliche Unsicherheit ist für die meisten Akteure nicht mit ihrer Motivation zu vereinbaren, aus ihren Aktivitäten maximale Gewinne zu ziehen. Insofern können sie nur von LLMs profitieren, wenn es darum geht, Routinetätigkeiten zu optimieren – etwa Desinformation zu verbreiten oder Social-Engineering-Instruments zu vertreiben. Ransomware-Banden, deren „Geschäftsmodell“ darin besteht, in Unternehmensnetzwerke einzudringen, werden die beschriebenen Risiken hingegen nicht in Kauf nehmen wollen.
Das führt ironischerweise dazu, dass Generative AI raffinierte Bedrohungsakteure eher dazu motiviert, verstärkt auf traditionelle Hacking-Methoden zu setzen. Schließlich sind diese etablierten Ansätze an bekannte Risiko-Rendite-Dynamiken gebunden und stellen somit die einzige Möglichkeit für Cyberkriminelle dar, zusätzlichen Unsicherheiten im Zusammenhang mit KI aus dem Weg zu gehen.
Nicht verrückt machen lassen!
Bei so viel Panikmache über die potenzielle Bedrohung durch generative KI sollten CISOs vor allem eines tun: ruhig bleiben. KI wird sehr wahrscheinlich nicht zur Cybercrime-Revolution führen. Stattdessen sollten Sie damit rechnen, dass die Technologie sowohl die Instruments für Verteidiger als auch für Angreifer weiter beeinflussen und optimieren wird.
Was sich Sicherheitsentscheider dabei bewusst machen sollten: Routinemäßige Automatisierung mit KI ist für die Verteidigungsseite hilfreicher. Schließlich weiß Ihr Sicherheitsteam, welche Bereiche im Angriffsfall related sind. Versuche, Massive Language Fashions für aktive Defensivaufgaben oder andere Bereiche einzusetzen, die adaptiven, kreativen Enter erfordern, erzeugt hingegen dieselben Unsicherheiten, die KI-basierte Kompromittierungsaktivitäten mit sich bringen würden. (fm)
Sie wollen weitere interessante Beiträge rund um das Thema IT-Sicherheit lesen? Unser kostenloser Publication liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, direkt in Ihre Inbox.