Erstens wird der Begriff KI auf dem heutigen Markt gnadenlos überstrapaziert. Besonders in Bezug auf Cybersecurity ist es gängig, KI so oft und so beiläufig zu erwähnen, dass der Begriff seine Bedeutung verliert. KI liegt im Trend: Immer wieder finden sich Verweise auf "KI-verstärkte" oder "KI-gesteuerte" Sicherheitslösungen, die streng genommen keine KI-Implementierungen sind. Oft handelt es sich lediglich um regelbasierte Systeme oder Workflows vom Typ "Wenn … – dann …".
Zweites Problem: Ein Großteil der Öffentlichkeit versteht KI falsch und ist deshalb anfällig für Sensationsmeldungen in der Mainstream-Presse. Der Google-Ingenieur Blake Lemoine erregte vor Kurzem weltweites Aufsehen: Er behauptete, ein Chatbot-System sei empfindungsfähig geworden. In einem Dialog habe der Chatbot sich als Person ausgegeben und unaufgefordert Ängste über die eigene Sterblichkeit geäußert.
Google hat die Behauptung von Lemoine umgehend entkräftet. Aber für Nicht-Experten entsteht durch derartige Geschichten ein anderer Eindruck.
Im Bereich der Cybersecurity ist KI sicher nicht dafür vorgesehen, sich zu verselbstständigen. Dennoch bietet sie einen weitaus größeren Nutzen als ein einfacher, regelbasierter digitaler Wächter. Dieser meldet automatisch Anomalien, ohne den Kontext zu berücksichtigen. Das bedeutet, er hat weder Kenntnis von Präzedenzfällen, noch von parallel laufenden Ereignissen.
Heute brauchen wir antizipierende Funktionen. Damit können wir Bedrohungen erkennen, die über bekannte Angriffstools hinausgehen, um auf die Ziele eines Angreifers zu schließen. Wir brauchen Lösungen, die skalierbar sind, ohne an Leistung einzubüßen. Lösungen, die bisher unbekannte Formen von Cyberangriffen vorhersehen können. KI ist daher ein unverzichtbares Instrument, um sich gegen aktuelle Bedrohungen zu verteidigen, und nicht umsonst ein Grundpfeiler des Vectra-Lösungsportfolios.
Vectra nutzt maschinelles Lernen und fortschrittliche Analysen. Auf diese Weise lassen sich nicht nur Anomalien erkennen, sondern auch Bedrohungen. Unsere Produkte identifizieren Verhaltensweisen und Muster von Angreifern im Zeitverlauf und Kontext der lokalen Umgebung – und hunderter weiterer Clouds und Netzwerkdomänen, die wir schützen. Wir klassifizieren Bedrohungen nach Schweregrad, heben echte Angriffe hervor und stellen Tools und Daten zur Verfügung, die rasche Abhilfe ermöglichen.
Doch wenn KI nicht gleich KI ist und es Angebote gibt, die nicht so gut sind, wie es den Anschein hat: Wie lässt sich der Unterschied erkennen?
Stellen Sie sich diese vier Fragen: Die Antworten geben Aufschluss darüber, wie effektiv ein KI-Angebot wirklich ist.
Eines ist klar: Die Identifizierung echter KI und ihre Optimierung für die Cyberverteidigung ist eine nuanciertere und komplexere Aufgabe, als manche glauben wollen. Sie kann den menschlichen Einfallsreichtum und das menschliche Urteilsvermögen nicht ersetzen, und schon gar nicht dagegen angehen. Aber sie ist heute das beste Werkzeug, um neue, anhaltende Bedrohungsmuster zu erkennen und sie von harmlosen Anomalien zu unterscheiden. Zwischenzeitlich entwickeln sich die Maßstäbe für KI weiter. Gleichzeitig gehen die Gegenspieler neue Wege, um Technologien in böser Absicht zu nutzen und dabei unentdeckt zu bleiben. Wir sehen es deshalb als unsere Pflicht an, in Vorsprung zu investieren.
Hier finden Sie eine Liste der häufigsten Bedrohungen, die in den Cloud-Anwendungen von Microsoft Office 365 auftreten.
Angesichts immer raffinierterer Bedrohungen benötigen Sicherheitsteams einen sofortigen Einblick in die Cyberbedrohungen, die ihre Umgebungen belasten.
Eines ist sicher: Im Kampf gegen Ransomware sind Reaktionsfähigkeit und schnelles Handeln von grundlegender Bedeutung.