How Will AI Affect Cybersecurity?

Künstliche Intelligenz ist nach wie vor ein Thema mit immensem Potenzial und Interesse: Ob es sich um interne Anwendungen zur Steigerung der Mitarbeitereffizienz oder um kundenorientierte Tools zur Minimierung von Supportanfragen handelt, die weit verbreitete Einführung von KI hat erhebliche Auswirkungen auf den Bereich der Cybersicherheit – im Guten wie im Schlechten.

Request a free trial Lösungsüberblick lesen

Herausforderungen durch KI in der Cybersicherheit

Die Fähigkeit der KI, große Mengen an Daten schnell zu integrieren und zu generieren, kann sie zu einer erheblichen Gefahr machen, wenn sie absichtlich für böswillige Zwecke eingesetzt wird.

Die folgenden KI-gesteuerten Bedrohungen können die Absicherung eines Unternehmens erschweren.

Phishing-LLMs

Social Engineering manipuliert Einzelpersonen oder Organisationen, um sensible Daten preiszugeben oder die Sicherheit zu gefährden, indem Vertrauen und menschliches Versagen ausgenutzt werden. Techniken wie Phishing sind dabei von zentraler Bedeutung, bei denen sich Angreifer als legitime Quellen ausgeben, um die Opfer dazu zu verleiten:

  • Klicken auf schädliche Links
  • Weitergabe personenbezogener Daten
  • Überweisung von Geldern

Durch die Schaffung eines falschen Gefühls von Vertrauen oder Dringlichkeit können Angreifer auf Netzwerke, Geräte und Konten zugreifen, ohne technische Abwehrmaßnahmen durchbrechen zu müssen, und sich stattdessen auf die Leichtigkeit der Manipulation des menschlichen Verhaltens verlassen.

Fortschrittliche KI-Modelle wie GPT-4 von OpenAI sind in der Lage, hochgradig personalisierte Spear-Phishing-E-Mails in großem Maßstab zu generieren, mit unglaublichem Realismus und minimalen Kosten. Dies kombiniert die Effizienz von Massen-Phishing mit der Präzision gezielter Angriffe und ermöglicht es Cyberkriminellen so, benutzerdefinierte Angriffe durchzuführen, die authentisch erscheinen. Die Trefferquote dieser Phishing-Nachrichten wird daher deutlich höher, was zu mehr Cyberkriminalität führt.

Das Aufkommen multimodaler generativer Modelle, die Inhalte in folgenden Bereichen interpretieren und erstellen können:

  • Text
  • Bild
  • Audio

Dies bietet Angreifern noch mehr Angriffsmöglichkeiten als nur E-Mails. Diese Modelle ermöglichen es Angreifern, hochgradig personalisierte Phishing-Inhalte zu generieren, indem sie die Bilder und Audioproben der Ziele analysieren.

Zum Beispiel kann Microsofts VALL-E die Stimme einer Person aus einem kurzen Audiobeispiel klonen, was es Angreifern ermöglicht, überzeugende Voice-Phishing-Anrufe (Vishing) zu fabrizieren und Mitarbeiter zu imitieren. Diese Konvergenz mehrerer Modalitäten – Text, Bild und Sprache – erweitert den Spielraum und den Realismus für potenzielle Angriffe erheblich.

CAPTCHA (Englisch)

CAPTCHA-Prüfungen waren in der Regel eine Möglichkeit, bösartige Bots fernzuhalten und sicherzustellen, dass nur Menschen mit Ihren Online-Ressourcen interagieren.

Aber die Fähigkeit der KI, kontinuierlich zu lernen, hat dazu geführt , dass Forscher einen Bot entwickelt haben, der in der Lage ist, reCAPTCHA v2 zu umgehen.

Durch die Kombination eines Objekterkennungsmodells mit einem VPN (um wiederholte Versuche von einer IP-Adresse aus zu verschleiern), einem natürlichen Mausbewegungstool und gefälschten Cookie-Daten war ihr KI-gestütztes Tool in der Lage, menschenähnliches Surfverhalten zu simulieren. Als Ergebnis hat dieses Tool 100% aller CAPTCHA-Tests geschlagen.

Eigene KI-Entwicklung erhöht das Sicherheitsrisiko

Es ist nicht nur die KI in den Händen von Cyberangreifern, über die man sich Sorgen machen muss: Die Sicherheitsrisiken interner KI-Tools können erheblich sein. Zum Beispiel stellen Trainingsdatenlecks eine erhebliche Schwachstelle dar, wie sich zeigte, als Microsoft-Forscher unbeabsichtigt rund 38 Terabyte an sensiblen Daten auf GitHub offenlegten.

Dieser Vorfall trat auf, weil Berechtigungen für eine Azure Storage-URL zum Herunterladen von KI-Modellen fälschlicherweise Zugriff auf das gesamte Speicherkonto gewährten. Zu den offengelegten Daten gehörten vertrauliche Informationen wie:

  • Persönliche Backups
  • Service-Passwörter
  • Geheime Schlüssel
  • 30.000+ interne Microsoft Teams-Nachrichten

Dies verdeutlicht, wie schwerwiegend die versehentliche Offenlegung von Daten in der KI-Forschung sein kann – und warum Sie vorsichtig sein müssen.

Die Vorteile von KI für die Cybersicherheit

In den richtigen Händen sind KI-gesteuerte Tools in der Lage, nicht nur neue KI-Bedrohungen zu negieren, sondern auch einige der traditionelleren Schwierigkeiten, die Sicherheitsteams seit Jahren plagen.

Fähigkeit, viele Daten zu analysieren

SIEM-Lösungen (Security Information and Event Management ) zentralisieren die Protokollerfassung und -analyse aus allen Abwehrmaßnahmen eines Unternehmens. Bei der Aggregation von Daten helfen SIEMs bei Folgendem:

  • Identifizieren von Anomalien
  • Auslösen von Warnungen
  • Sammeln von zusätzlichem Kontext
  • Isolieren Sie betroffene Assets

Dies ermöglicht es Unternehmen, schnell und effektiv auf potenzielle Sicherheitsvorfälle zu reagieren.

Maschinelles Lernen und Mustererkennung geben KI-fähigen SIEM-Systemen die Möglichkeit, historische Sicherheitsdaten viel schneller zu analysieren, als dies bei manuellen Überprüfungen möglich ist: Noch besser ist, dass all diese individuellen Daten dann verwendet werden können, um eine Verhaltensbasis für jeden Benutzer und jedes Gerät zu erstellen.

Im Gegensatz zu herkömmlichen SIEMs, die von Protokollsignaturen und vordefinierten Kritikalitäten abhängen, erkennen KI-SIEMs Bedrohungen dynamisch, indem sie aktuelle Ereignisse mit dieser Baseline vergleichen. Darüber hinaus können diese Systeme dann abnormale Muster analysieren, um eine Verbindung zu bekannten Angriffsvektoren herzustellen, was hochpräzise Warnungen nahezu in Echtzeit ermöglicht.

Erkennung von Phishing-Bedrohungen

Das Hauptziel eines Phishing-Angriffs besteht darin, eine legitime Website genau nachzuahmen, da diese Ähnlichkeit dazu beiträgt, die Opfer zu täuschen und zu glauben, dass sie sich auf einer vertrauenswürdigen Website befinden.

Diese Nachahmung führt dazu, dass Opfer unwissentlich sensible Informationen direkt an Angreifer weitergeben, wie zum Beispiel:

  • Kennwörter
  • Finanzielle Details

Je überzeugender die Phishing-Seite erscheint, desto höher ist die Wahrscheinlichkeit, dass das Opfer erfolgreich zu schädlichen Handlungen manipuliert wird.

Multimodale Large Language Models (LLMs), die sowohl Text als auch Bilder verarbeiten, haben ein großes Potenzial für die Erkennung von markenbasiertem Phishing. Mit umfangreichen Schulungen zu verschiedenen Markendarstellungen analysieren diese Modelle die visuellen und textlichen Elemente einer Webseite, um ihre Markenassoziation zu erkennen.

Diese Funktion ermöglicht es LLMs, Inkonsistenzen in der Markenpräsentation zu identifizieren, die auf einen Phishing-Versuch hinweisen könnten, und verbessert so möglicherweise die automatisierten Erkennungsmethoden für markenbasierte Cyberbedrohungen.

Data Loss Prevention

Es war noch nie so wichtig, sicherzustellen, wie diese KI-Tools ihre Trainingsdaten anwenden. Da KI-Eingabeaufforderungen und ihre Antworten das Format von konversationellen, unstrukturierten Daten haben, ist es unglaublich schwierig, sie mit Schlüsselwörtern zu schützen – wie es bei herkömmlichen DLP-Methoden der Fall ist.

Eine fortschrittliche KI-basierte Datenklassifizierung kann dazu beitragen, sensible Informationen zu schützen, indem sie potenzielle Datenlecks im Zusammenhang mit diesen Anwendungen erkennt und verhindert und so sicherstellt, dass die volle Kontrolle über die Datenflüsse der Plattformen erhalten bleibt.

Wie Check Point eine vollständige Sicherheits-KI-Integration ermöglicht

Um die GenAI-Anwendung in einem Unternehmen zu verstehen, ist es entscheidend, die Risiken zu identifizieren und zu bewerten, die diese Tools darstellen können, insbesondere in Bezug auf Datensicherheit und Compliance. Das sorgfältige Abwägen der Vor- und Nachteile von KI innerhalb der eigenen Anwendungsfälle ist der Schlüssel zur Bestimmung ihrer langfristigen Eignung.

Die GenAI-Sicherheit von Check Point ist in der Lage, alle KI-Projekte Ihrer Teams zu schützen, indem sie Konversationsdaten innerhalb von Eingabeaufforderungen genau klassifiziert und sichert. Wenn Sie bereits eine Reihe von Tools entwickelt haben, bietet es einen detaillierten Einblick in Ihre GenAI-Anwendung und alle damit verbundenen Dienste. Dies verringert das Risiko von Schatten-IT und hilft dabei, den gesetzlichen Anforderungen immer einen Schritt voraus zu sein. Nehmen Sie noch heute an unserem Preview-Programm teil , um die Ausbreitung Ihrer KI-Tools zu erkunden.

Was die Anwendung von KI durch Check Point innerhalb bereits vorhandener Cybersicherheitstools betrifft, so nutzt unsere Infinity-Plattform generative KI, um fortschrittliche Bedrohungsprävention, optimierte automatisierte Bedrohungsreaktion und effektives Sicherheitsmanagement zu bieten. Durch die Kombination von 50 KI-Engines, die die gesamte Bandbreite der Bedrohungsinformationen abdecken, liefert Check Point Infinity die beste Fangrate aller Sicherheitslösungen. Wenn ein neuer Kompromittierungsindikator entdeckt wird, wird das Muster in weniger als 2 Sekunden auf den gesamten Tech-Stack angewendet, um Folgendes zu gewährleisten:

  • Wolken
  • IoT-Netzwerk
  • Alle anderen Endgeräte sogar vor Zero-Day-Angriffen

Grundsätzlich unterstützt Check Point Infinity KI-Innovationen: Es sichert sowohl neu entdeckte Anwendungen als auch die komplexen Dienste, auf denen KI-gestützte Unternehmen laufen. Vereinbaren Sie eine Demo, um zu sehen, wie es funktioniert.

×
  Feedback
Diese Website verwendet Cookies für ihre Funktionalität sowie für Analyse- und Marketingzwecke. Mit der weiteren Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in unserem Cookies Hinweis.
OK