KI ist aus der Cybersecurity nicht mehr wegzudenken. Auf Konferenzen, Veranstaltungen oder Messen zur Cybersecurity dreht sich alles um KI-Funktionen. Anbieter von Cybersecurity-Lösungen aus dem gesamten Spektrum werben mit KI in ihren Produkten und Providers. Die Cybersecurity-Branche sendet additionally die klare Botschaft aus, dass KI einen integralen Bestandteil einer effektiven Cyberabwehr darstellt. Vor diesem Hintergrund lässt sich leicht vermuten, dass KI immer die Antwort ist und immer bessere Cybersecurity-Ergebnisse liefert. In der Realität ist die Lage jedoch nicht immer ganz so eindeutig. Unser Report beleuchtet die Nutzung von KI in der Cybersecurity. Der Schwerpunkt liegt dabei auf generativer KI. Zudem bietet der Report Einblicke in die Akzeptanz von KI. Welche Vorteile erhoffen sich Unternehmen von KI? Sind sie sich der Risiken bewusst, die mit KI einhergehen? Erkenntnisse hierzu basieren auf den Ergebnissen einer unabhängigen Befragung von 400 IT-/Cybersecurity-Entscheidern in kleinen und mittleren Unternehmen (50–3.000 Mitarbeiter). Auch zeigt der Report blinde Flecken beim Einsatz von KI in der Cyberabwehr auf. Die Ergebnisse der Befragung liefern Unternehmen einen praxisnahen Vergleichsmaßstab zum Benchmarking ihrer eigenen Cyberabwehr-Strategien. Gleichzeitig zeigen sie klar die mit KI verbundenen Risiken, um Unternehmen zu helfen, sicher von den Vorteilen von KI zu profitieren und ihren Sicherheitsstatus zu optimieren.
KI-Terminologie
Hinter der Abkürzung KI stecken eine Reihe von Funktionen, die Cybersicherheit in vielerlei Hinsicht unterstützen und beschleunigen können. Zwei gängige KI-Konzepte, die in der Cybersecurity eingesetzt werden, sind Deep-Studying-Modelle und generative KI.
- Deep-Studying-Modelle (DL) können das Gelernte bei der Ausführung von Aufgaben ANWENDEN. So können entsprechend geschulte DL-Modelle etwa in Sekundenschnelle erkennen, ob eine Datei bösartig oder unbedenklich ist, ohne diese Datei jemals zuvor gesehen zu haben.
- Generative AI (GenAI)-Modelle sind darauf ausgerichtet, anhand von Trainingsdaten neue Inhalte zu ERSTELLEN. Zur Beschleunigung von Safety Operations kann KI etwa bisherige Bedrohungsaktivitäten zusammenfassen und nächste Schritte für den Analysten in natürlicher Sprache empfehlen.
KI ist keine Einheitslösung. Die unterschiedlichen Modelle variieren stark in ihrem Umfang.
- Große Modelle wie Microsoft Copilot und Google Gemini sind große Sprachmodelle (Massive Language Fashions, LLMs), die mit einem umfangreichen Datensatz trainiert werden und unterschiedlichste Aufgaben übernehmen können.
- Kleine Modelle dagegen werden auf Foundation eines sehr spezifischen Datensatzes konzipiert und trainiert, um eine konkrete Aufgabe auszuführen, z. B. die Erkennung bösartiger URLs oder ausführbarer Dateien.
Nutzung von KI für die Cybersecurity
Wie aus der Umfrage hervorgeht, ist KI bei den meisten Unternehmen bereits weitreichend in die Cybersecurity- Infrastruktur integriert. 98 % nutzen KI:
Aller Wahrscheinlichkeit nach wird sich KI innerhalb kurzer Zeit durchsetzen: Schon jetzt stehen KI-Funktionen bei 99 % (gerundet) der Unternehmen auf der Anforderungsliste bei der Auswahl einer Cybersecurity-Plattform:
Angesichts dieser weitreichenden aktuellen und künftigen Nutzung sollten Unternehmen aller Größen und Branchen die Risiken der KI in der Cybersecurity kennen und wissen, wie sie diese Risiken minimieren.
Nutzt Ihr Unternehmen derzeit KI-Technologien als Teil Ihrer Cyberabwehr? (Anzahl=400)
Erwartungen an GenAI
Die Omnipräsenz von Nachrichten über Generative KI in der Cybersicherheitsbranche sowie im breiteren Geschäfts- und Privatleben hat zu hochgesteckten Erwartungen geführt, wie diese Technologie die Cybersicherheit verbessern kann. Aus der Umfrage geht hervor, welche Vorteile sich Unternehmen hauptsächlich von GenAI-Funktionen in Cybersecurity-Instruments erhoffen (siehe Tabelle unten).
Die große Bandbreite der Antworten zeigt, dass es keinen einzelnen, herausragenden Vorteil gibt, den sich Unternehmen von GenAI in der Cybersicherheit erhoffen. Die am meisten erhofften Vorteile beziehen sich auf einen besseren Schutz vor Cyberbedrohungen oder eine bessere Unternehmensleistung (sowohl finanziell als auch operativ). Zudem weisen die Daten darauf hin, dass GenAI-Funktionen in Cybersecurity-Lösungen Unternehmen die Zuversicht geben, dass sie mit den neuesten Schutzfunktionen Schritt halten können. Dass die Reduzierung von Burnouts von Mitarbeitern relativ niedrig eingestuft wird, lässt vermuten, dass Unternehmen sich des Potenzials von GenAI zur Unterstützung der Mitarbeiter weniger bewusst sind oder sich weniger Gedanken darüber machen. Angesichts des Fachkräftemangels in der Cybersecurity ist die Verringerung der Fluktuation jedoch ein wichtiger Einsatzbereich von KI.
Welche Vorteile erhoffen Sie sich von generativen KI-Funktionen in Cybersecurity-Instruments? Häufigste Antworten (Anzahl=400)
Die erhofften Vorteile von GenAI variieren mit der Unternehmensgröße
Was Unternehmen sich als wichtigsten Vorteil von GenAI in Cybersecurity-Instruments erhoffen, variiert mit zunehmender Unternehmensgröße. Dies liegt vermutlich an den jeweils unterschiedlichen Herausforderungen.
Obwohl die Verringerung des Burnout-Risikos bei Mitarbeitern insgesamt als am wenigsten wichtig eingestuft wurde, warfare dies der wichtigste erhoffte Vorteil für kleine Unternehmen (50–99 Mitarbeiter). Möglicherweise liegt dies daran, dass Mitarbeiterausfälle kleinere Unternehmen stärker belasten, da sie seltener über zusätzliches Private verfügen, das einspringen kann. In Unternehmen mit 100 bis 249 Mitarbeitern liegt der Schwerpunkt hingegen auf einer besseren Rentabilität ihrer Investitionen in Cybersicherheit, da diese Gruppe ihre Budgets streng kontrollieren muss. Größere Unternehmen mit 1.000 bis 3.000 Mitarbeitern legen am meisten Wert auf einen besseren Schutz vor Cyberbedrohungen.
Welche Vorteile erhoffen Sie sich von generativen KI-Funktionen in Cybersecurity-Instruments? Häufigste Antworten. (Anzahl=400)
Bewusstsein für KI-Risiken
Wie viele technologische Innovationen bringt KI zwar viele Vorteile mit sich, birgt jedoch auch Risiken. Wie aus der Befragung hervorgeht, ist das Bewusstsein für diese Risiken unterschiedlich ausgeprägt.
Abwehrrisiko: Schlechte oder schlecht implementierte KI
Da ein verbesserter Schutz vor Cyberbedrohungen ganz oben auf der Liste der erhofften Vorteile von GenAI steht, ist klar, dass die Minimierung von Cybersecurity-Risiken bei der Einführung von KI-gestützten Safety-Lösungen eine zentrale Rolle spielt. Jedoch können qualitativ schlechte oder schlecht bereitgestellte KI-Modelle ein großes Risiko für die Cybersicherheit darstellen. Wie in vielen Bereichen gilt auch in puncto KI die Devise: „Rubbish in, rubbish out“ (GIGO), d.h. die Qualität der Eingabedaten beeinflusst maßgeblich die Qualität der Ergebnisse. Zur Erstellung effektiver KI-Modelle für die Cybersecurity ist ein umfassendes Verständnis von Bedrohungen und KI erforderlich. Unternehmen sind sich des Risikos schlecht entwickelter und bereitgestellter KI in Cybersecurity-Lösungen weitgehend bewusst. Die überwiegende Mehrheit (89 %) der befragten IT-/Cybersecurity-Experten macht sich Sorgen darüber, dass Schwächen der generativen KI-Funktionen von Cybersecurity-Instruments ihrem Unternehmen schaden könnten. 43 % waren eigenen Angaben nach „sehr besorgt“ und 46 % „eher besorgt“.
Inwieweit machen Sie sich mit Hinblick auf KI in Cybersecurity-Lösungen Sorgen darüber, dass Schwächen der generativen KI-Funktionen von Cybersecurity-Instruments ihrem Unternehmen schaden könnten? Überhaupt nicht besorgt, eher besorgt, sehr besorgt (Anzahl=400) .
Daher überrascht es kaum, dass 99 % (gerundet) der Unternehmen angeben, bei der Bewertung der GenAI-Fähigkeiten in Cybersicherheits-Lösungen die Qualität der Cybersicherheitsprozesse und -kontrollen zu prüfen und zu beurteilen, die bei der Entwicklung der GenAI eingesetzt werden: 73 % geben an, dass sie die Qualität der Cybersicherheits-Prozesse und -Kontrollen umfassend prüfen und beurteilen und 27 % geben an, dass sie die Qualität der Cybersicherheitsprozesse und kontrollen teilweise prüfen und beurteilen.
=
Prüfen und beurteilen Sie GenAI-Funktionen in Cybersecurity-Lösungen anhand der Qualität der Cybersecurity-Prozesse und -Kontrollen, die bei der Entwicklung der GenAI eingesetzt werden? Nein, aber haben es versucht; haben eine teilweise Prüfung durchgeführt; haben eine vollständige Prüfung durchgeführt. (Anzahl=390).
Auf den ersten Blick erscheint es durchaus positiv, dass so viele Unternehmen eigenen Angaben nach eine umfassende Prüfung durchführen. Tatsächlich lassen die Zahlen jedoch auf blinde Flecken bei Unternehmen schließen. Die Evaluierung der Prozesse und Kontrollen, die zur Entwicklung von GenAI-Funktionen eingesetzt werden, erfordert Transparenz seitens des Anbieters und hinreichende KI-Kompetenz seitens des Bewertungsteams. Leider ist beides knapp bemessen. Nur selten machen Lösungsanbieter ihre vollständigen GenAI-Entwicklungs- und Rolloutprozesse leicht zugänglich. Gleichzeitig verfügen IT-Groups häufig nur über begrenzte Kenntnisse der Greatest Practices im Bereich der KI-Entwicklung. Für viele Unternehmen bedeutet dies, dass sie „nicht wissen, was sie nicht wissen“.
Finanzielles Risiko: Niedriger ROI aus Investitionen in KI
Wie bereits erwähnt, steht die Verbesserung der Rentabilität von Cybersicherheitsausgaben (ROI) ebenfalls ganz oben auf der Liste der Vorteile, die Unternehmen durch GenAI erreichen wollen. Die Entwicklung und Wartung hochkarätiger GenAI-Funktionen in Cybersecurity-Lösungen sind teuer. IT- und Cybersecurity-Entscheider aus Unternehmen aller Größen sind sich der Konsequenzen dieser Ausgaben bewusst. 80 % der Befragten gehen davon aus, dass GenAI die Kosten für ihre Cybersecurity-Lösungen deutlich erhöhen wird. Trotz dieser erwarteten höheren Kosten rechnen die meisten Unternehmen damit, dass sie mit GenAI ihre Gesamtausgaben für Cybersicherheit senken können. 87 % der Befragten äußerten sich zuversichtlich, dass die Kosten für GenAI in Cybersecurity-Instruments durch die damit verbundenen Einsparungen vollständig ausgeglichen werden. Bei näherer Betrachtung zeigt sich, dass Unternehmen mit zunehmendem Jahresumsatz mehr mit einem höheren ROI rechnen. Im Vergleich zu den kleinsten Unternehmen (weniger als 10 Mio. US$) stimmen die größten Unternehmen (500 Mio. US$ und mehr) um 48 % häufiger zu bzw. voll und ganz zu, dass die Kosten für GenAI in Cybersecurity-Instruments durch die damit verbundenen Einsparungen vollständig ausgeglichen werden.
Inwieweit stimmen Sie den folgenden Aussagen in Hinblick auf die Kosten generativer KI-Funktionen zu oder nicht zu? Die Kosten für GenAI in Cybersecurity-Instruments werden durch die damit verbundenen Einsparungen vollständig ausgeglichen. stimme voll zu, stimme zu. (Anzahl=400)
Gleichzeitig sind sich die Unternehmen bewusst, dass die Quantifizierung dieser Kosten schwierig ist. Die Kosten für GenAI sind in der Regel in den Gesamtpreis von Cybersecurity-Produkten und -Providers integriert. Daher lässt sich nicht leicht ermitteln, wie viel Unternehmen für GenAI für Cybersecurity ausgeben. Angesichts dieses Mangels an Transparenz stimmen 75 % der Befragten zu, dass diese Kosten schwer messbar sind (39 % stimmen voll zu, 36 % stimmen zu). Auch die Schwierigkeit, die Kosten zu quantifizieren, nimmt im Wesentlichen mit dem Umsatz zu. So fällt es Unternehmen mit einem Jahresumsatz von mehr als 500 Millionen US$ um 40 % häufiger schwer, die Kosten zu bemessen, als Unternehmen mit bis zu 10 Millionen US$ Jahresumsatz. Wahrscheinlich ist dieser Unterscheid teilweise darauf zurückzuführen, dass größere Unternehmen über komplexere und umfangreichere IT- und Cybersecurity-Infrastrukturen verfügen.
Ohne effektives Reporting riskieren Unternehmen, dass sich ihre Investitionen in KI für die Cybersicherheit nicht erwartungsgemäß auszahlen. Es kann sogar sein, dass sie Investitionen in KI tätigen, die an anderer Stelle sinnvoller eingesetzt werden könnten.
Inwieweit stimmen Sie der folgenden Aussage in Hinblick auf die Kosten generativer KI-Funktionen zu oder nicht zu? Die Kosten der generativen KI-Funktionen, die im Rahmen von Cybersecurity-Produkten angeboten werden, lassen sich schwer bemessen. stimme voll zu, stimme zu. (Anzahl=400)
Betriebliches Risiko: Zu große Abhängigkeit von KI
Angesichts der Allgegenwärtigkeit von KI verlassen sich viele nicht selten zu sehr auf KI und gehen davon aus, dass KI immer recht hat und bestimmte Aufgaben besser erledigen kann als Menschen. Glücklicherweise sind sich die meisten Unternehmen der Folgen einer übermäßigen Abhängigkeit von KI für die Cybersecurity bewusst und auch besorgt darüber:
- 84 % sind besorgt über den daraus resultierenden Druck, die Anzahl der Cybersicherheits-Fachkräfte zu reduzieren (42 % sehr besorgt, 41 % eher besorgt)
- 87 % sind besorgt über einen daraus resultierenden Mangel an Verantwortlichkeit im Bereich Cybersicherheit (37 % sehr besorgt, 50 % eher besorgt)
Diese Befürchtungen sind in Unternehmen aller Größen über die Branchen hinweg relativ gleich hoch.
Empfehlungen
KI birgt definitiv Risiken. Mit einem intestine durchdachten Ansatz können Unternehmen diese Risiken jedoch bewältigen und die Vorteile von KI sicher und effektiv zur Optimierung ihrer Cyberabwehr und Geschäftsergebnisse nutzen. Die folgenden Empfehlungen dienen als Anregung, um Unternehmen bei der Minimierung der in diesem Report thematisierten Risiken zu unterstützen.
Fragen Sie Anbieter, wie sie KI-Funktionen entwickeln
- Trainingsdaten. Wie intestine und umfangreich sind die Daten, mit denen die Modelle trainiert werden, und aus welcher Quelle stammen sie? Bessere Eingaben führen zu besseren Ergebnissen.
- Entwickler-Staff. Informieren Sie sich über die Experten hinter den Modellen. Über welches Maß an KI-Experience verfügen sie? Wie intestine kennen sie Bedrohungen, Angreiferverhalten und Sicherheitsabläufe?
- Produktentwicklungs- und Rolloutprozess. Welche Schritte durchläuft der Anbieter bei der Entwicklung und Bereitstellung von KI-Funktionen in seinen Lösungen? Welche Kontrollmechanismen sind vorhanden?
Gehen Sie bei Investitionen in KI strategisch und strukturiert vor
- Setzen Sie eindeutige Ziele. Legen Sie klar, spezifisch und detailliert fest, was Sie mit KI erreichen möchten.
- Quantifizieren Sie den Nutzen. Ermitteln Sie, wie viel Ihre KI-Investitionen bewirken können.
- Priorisieren Sie Investitionen. KI kann in vielerlei Hinsicht helfen. In einigen Bereichen lässt sich dabei jedoch mehr erreichen. Ermitteln Sie die für Ihr Unternehmen relevanten Kennzahlen. Dazu gehören beispielsweise finanzielle Einsparungen, Auswirkungen auf die Personalfluktuation, Reduzierung der Angriffsfläche usw. Bewerten Sie im Anschluss die unterschiedlichen Optionen anhand dieser Metriken.
- Bemessen Sie die tatsächliche Leistung. Prüfen Sie, ob Ihre KI auch tatsächlich leistet, was Sie sich davon versprochen haben. Nehmen Sie anhand der Erkenntnisse gegebenenfalls erforderliche Anpassungen vor.
Betrachten Sie KI als Unterstützung zu menschlicher Experience
- KI allein ist nicht die Lösung. KI ist nur eine von vielen Komponenten im Arsenal der Cyberabwehr. Nutzen Sie KI, bedenken Sie dabei jedoch, dass die Verantwortung für die Cybersecurity letztlich beim Menschen liegt.
- KI als Unterstützung – nicht als Ersatz. Konzentrieren Sie sich darauf, wie KI Ihre Mitarbeiter unterstützen kann. KI übernimmt viele einfache, sich wiederholende Sicherheitsaufgaben und liefert umsetzbare Erkenntnisse.
Über die Studie
Sophos beauftragte das Marktforschungsunternehmen Vanson Bourne mit der Durchführung einer unabhängigen Befragung von 400 IT- und Cybersecurity-Entscheidern in Unternehmen mit 50 bis 3.000 Mitarbeitern, die im November durchgeführt wurde. Die befragten Unternehmen sind im privaten oder gemeinnützigen Sektor tätig und nutzen derzeit Endpoint Safety-Lösungen von 19 verschiedenen Anbietern und 14 MDR-Anbietern.