Künstliche Intelligenz, insbesondere generative Intelligenz, kann eine wichtige Rolle bei der Bekämpfung der Cyberkriminalität spielen. Doch während viele Analysten ihren Einsatz verteidigen, wird sie zunehmend von Cyberkriminellen für ihre Angriffe genutzt. Die allgegenwärtige künstliche Intelligenz (KI) und ihre zunehmende Verbreitung in Industrie und Gesellschaft war das Technologiethema des Jahres 2023. Und das wird sie wahrscheinlich auch 2024 bleiben. Obwohl sie noch keinen großen Anteil an den Einnahmen der großen Technologieunternehmen ausmacht, berichteten Microsoft, Alphabet, Amazon, Apple und Meta bereits im Januar, dass die Monetarisierung durch den Einsatz von KI wächst. So wird heute geschätzt, dass die weltweiten Ausgaben für KI bis 2027 mehr als 500 Milliarden US-Dollar betragen werden, wozu auch die Ausbildung von Mitarbeitern gehört, wobei ein besonderer Schwerpunkt auf Maßnahmen zur Cybersicherheit liegt. Markets and Markets prognostiziert derweil, dass KI bis 2026 jährlich um 23,3 % wachsen und bis Anfang 2028 mehr als 397 Milliarden US-Dollar erwirtschaften wird. Bei all diesen vielversprechenden Veränderungen gibt es jedoch auch Wolken, die den Horizont verdunkeln. In dem Maße, wie ihre Nutzung zum Nutzen der Unternehmen voranschreitet, spielt die generative KI eine immer wichtigere Rolle bei der Komplexität von Cyberangriffen. Und sie erschwert zunehmend die Erkennung von Phishing, so die Ergebnisse des ECLAC-Berichts „Digitale Technologien für eine neue Zukunft“.
Feind oder Verbündeter?
In gewisser Weise wird die generative KI zum „besten Freund“ der Cyberangreifer. „Cyberkriminelle nutzen KI, um ihre Techniken zu verfeinern. Sie sind jetzt in der Lage, Schwachstellen im Netzwerk schneller zu finden, Identitäten genauer zu fälschen oder Phishing-Angriffe zu automatisieren“, sagt Gery Coronel, Check Points Country Manager für Chile, Argentinien und Peru. Die Ironie ist, dass dieselbe Technologie das Versprechen ist, diese Bedrohungen aufzuspüren und abzuwehren, und zwar durch Systeme, die Verhaltensmuster lernen und Anomalien genauer identifizieren. „Dies ist ein entscheidendes Werkzeug angesichts einer Ära intensiver Cyberangriffe, die auf menschlicher Ebene immer schwieriger zu bewältigen sind“, warnt Fabiana Ramirez, IT-Sicherheitsforscherin bei ESET Latin America.
Heutzutage können generative KI-Modelle normale Muster im Netzwerkverkehr, Benutzerverhalten und anderen sicherheitsrelevanten Daten erlernen. „Wenn signifikante Abweichungen von diesen Mustern erkannt werden, kann die Möglichkeit eines Angriffs identifiziert werden. Dies ist ein großer Durchbruch, da die Identifizierung von Bedrohungen schneller und effizienter wird“, fügt Fabiana Ramirez hinzu. Neben der generativen KI gibt es im Bereich der künstlichen Intelligenz mehrere Ansätze, die für die Cybersicherheit eingesetzt werden. So gibt es beispielsweise maschinelles Lernen und neuronale Netze, die zur Modellierung von Datensequenzen, wie Netzwerkverkehrsmustern oder zeitlichen Abläufen in Ereignisprotokollen, eingesetzt werden. „Sie sind nützlich, um komplexe Muster und Angriffe zu erkennen, die sich im Laufe der Zeit entwickeln können“, betont Ramirez.
Aber es kostet auch nicht viel, Beispiele für Cyberangriffe zu finden, die auf dem schädlichen Einsatz von KI beruhen. In den Jahren 2022 und 2023 wurden beispielsweise Deepfakes oder gefälschte Videos verbreitet, bei denen mit künstlicher Intelligenz erstellte Bilder berühmte Persönlichkeiten wie Elon Musk und Bill Gates imitierten und zu Investitionen in nicht existierende Projekte und Kryptowährungen aufriefen. Gezielte Phishing-E-Mails mit Erfolgsquoten von bis zu 70 %, Exploits – Funktionsprogramme oder Codes zum Auffinden von Schwachstellen – und bösartige Chat-Bots, die mit KI erstellt und trainiert wurden, um die Opfer zu täuschen, haben sich ebenfalls vervielfacht.
Geschulte Modelle
Um dem entgegenzuwirken, besteht der gängigste Ansatz der Unternehmen darin, Modelle automatisch zu trainieren, und zwar mit großen Datensätzen, die sowohl bekannte Bedrohungen und Angriffsmuster als auch normale, sichere Verhaltensweisen in Systemen enthalten. Wenn das Modell für diese Zwecke trainiert wird, entstehen Modelle, die zur Echtzeitüberwachung eingesetzt werden und anormale Aktivitäten und verdächtige Muster erkennen, die auf einen Angriff hindeuten könnten. Rund 80 % der Unternehmen, die KI in ihren Anwendungen einsetzen, nutzen sie für die Erkennung von Anomalien in der Cybersicherheit“, sagt Pablo Prieto, Digital Business Manager bei TIVIT, einem multinationalen Technologieunternehmen, das sich mit Cybersicherheitsfragen in der Cloud für Unternehmen befasst. Die Entwicklung und Implementierung dieser KI-Lösungen für die Cybersicherheit erfordert laut Prieto interdisziplinäre Teams mit Datenwissenschaftlern, KI-Ingenieuren, Cybersicherheitsanalysten mit Kenntnissen über Bedrohungen und Schwachstellen, Cloud-Infrastrukturarchitekten, Softwareentwicklern und KI-Ethikexperten. Aber solche Fachleute sind nicht leicht zu finden, geschweige denn billig.
Das gilt auch für die geschätzten Investitionen zur Implementierung generativer künstlicher Intelligenz in Unternehmen. Dies hängt laut ESET von einer Reihe von Faktoren ab, wie dem Umfang des Projekts, dem Ausmaß der Implementierung, der Komplexität der erforderlichen Lösungen und den verfügbaren Ressourcen. Hinzu kommen die Anschaffung leistungsfähiger Hardware, insbesondere von GPUs (Graphics Processing Units), sowie die Anschaffung spezifischer Entwicklungswerkzeuge für die Implementierung generativer Modelle. Das Forschungsunternehmen Acumen Research schätzt, dass der weltweite Markt für KI-basierte Cybersicherheitsprodukte bis 2030 ein Volumen von 135 Milliarden US-Dollar erreichen wird. Auf Mikroebene können die Investitionen in KI-Lösungen für die Cybersicherheit ebenfalls stark variieren, je nach den Bedürfnissen der einzelnen Unternehmen. „Einige Open-Source-Optionen mit begrenzter Funktionalität sind kostengünstig, während andere hochentwickelte und spezialisierte Lösungen Millionen von Dollar kosten können. Was uns klar geworden ist, ist, dass die Investition in die Vorbeugung geringer ist als die Kosten nach einem Angriff, sowohl aus technischer Sicht als auch im Hinblick auf den Ruf und die direkten Auswirkungen auf das Geschäft“, sagt der TIVIT-Manager.
Keine Einzellösung
Heute ist klar, dass sowohl die allgemeine als auch die generative KI im Bereich der Cybersicherheit noch einen langen Weg vor sich haben. „Einige Länder arbeiten an spezifischen Vorschriften für künstliche Intelligenz. Diese könnten sich mit Fragen der Ethik, Transparenz und Rechenschaftspflicht befassen“, warnt Rodrigo Stefanini, Country Manager der Stefanini Group für Argentinien und Chile. Tatsächlich hat die UNESCO im Jahr 2021 „Empfehlungen für die Ethik der KI“ herausgegeben, die Grundsätze und Richtlinien für die Entwicklung der Technologie in einem internationalen und ethischen Kontext festlegen. „Auf der Grundlage dieses Dokuments, dem rund 140 Länder beigetreten sind, sind in einigen Ländern Projekte und Vorschriften entstanden“, sagt Ramírez. Obwohl dieses Dokument nicht verbindlich ist, sind die für diesen Artikel befragten Spezialisten heute der Ansicht, dass der Einsatz von KI in der Cybersicherheit wertvoll ist und für die Früherkennung von Bedrohungen und die Analyse großer Datensätze empfohlen wird. Gleichzeitig muss sie jedoch in eine ganzheitliche Sicherheitsstrategie integriert werden, „die sowohl künstliche Intelligenz als auch Sicherheitsexperten einbezieht“, so Rodrigo Stefanini.
Ob das Versprechen einer 100-prozentig effektiven generativen KI in der Cybersicherheit in diesem Jahr realisiert werden kann, ist eine komplexe Aufgabe. „Es wird weitgehend von der spezifischen Art der Implementierung, der Art der verwendeten Modelle, der Qualität der Daten und der Art der Bedrohungen, die sie erkennen sollen, abhängen“, erklärt Ramirez von ESET. Auf dem TIVIT wird darauf hingewiesen, dass es derzeit Studien gibt, die auf eine tatsächliche Genauigkeit von KI in der Cybersicherheit von über 99 % hinweisen. Eine Zahl, die sich mit zunehmendem Ausbildungs- und Anpassungsniveau des Modells sowie der Beteiligung multidisziplinärer Teams und technologischer Fähigkeiten verbessert, mit Ergebnissen von 99 % Effektivität. „Die Fehlermarge bei diesen Modellen ist im Allgemeinen auf falsch positive Ergebnisse bei neuen Bedrohungen oder Zero-Day-Bedrohungen zurückzuführen“, erklärt Prieto.
Klar ist, dass der Einsatz von generativer KI ganz von der Ausbildung und den Zielen abhängt, für die sie eingesetzt wird, ob zum Angriff oder zur Verteidigung. „Deshalb ist es wichtig, dass es einen klaren ethischen Rahmen gibt, der Menschen und Unternehmen, die sich mit diesen Technologien beschäftigen, auf verantwortungsvolle Weise und zum Nutzen der Gesellschaft leitet“, schließt Prieto.
Leider kein Kommentar vorhanden!