Schlagwort-Archive: Künstliche Intelligenz

Künstliche Intelligenz in den Händen von Cyberkriminellen

Von Trend Micro

Im Jahr 2020 nutzten bereits 37% der Unternehmen und Organisation in irgendeiner Form Künstliche Intelligenz (KI) in ihren Systemen und Prozessen. KI) macht sich noch nie dagewesene Datenmengen zunutze und hat in allen Anwendungsbereichen Potenzial. Sie verspricht die Bewältigung einer Reihe komplexer globaler Herausforderungen. Maschinelles Lernen (ML), ein Teilbereich der KI, soll Computersysteme in die Lage versetzen, aus Daten zu „lernen“ — d.h. die Leistung bei einer bestimmten Aufgabe nach und nach zu verbessern, ohne dass explizite Anweisungen von Menschen erforderlich sind.

Zwar bringen KI- und ML-Algorithmen enorme Vorteile, doch gibt es auch eine Kehrseite der Medaille, denn sie sind ebenso für eine Reihe von digitalen, physischen und politischen Bedrohungen und Formen der Cyberkriminalität verantwortlich. In einem gemeinsamen Forschungsprojekt haben Trend Micro, das Interregionale Forschungsinstitut der Vereinten Nationen für Kriminalität und Justiz (UNICRI) sowie Europol verschiedene bösartige Szenarien untersucht, in denen heute und möglicherweise auch in Zukunft KI und ML eingesetzt werden. Des Weiteren befassten sich die Partner mit den möglichen Gegenmassnahmen und Empfehlungen zur Minderung von Risiken, Bedrohungen und Angriffen, die von KI und ML ausgehen.

So können Kriminelle zum Beispiel KI einsetzen, um ihre Angriffe zu erleichtern und zu verbessern, um in kürzerer Zeit höhere Profite zu erzielen, neue Opfer auszubeuten und innovativere kriminelle Geschäftsmodelle zu entwickeln und gleichzeitig die Risiken zu verringern, erwischt zu werden.

Darüber hinaus wird KI, wenn es auch -as-a-Service sich zunehmend verbreitet die Eintrittshürden für kriminelle Taten senken, weil damit die für den Einsatz von KI erforderlichen Fähigkeiten und technischen Kenntnisse grossenteils wegfallen.

Missbrauch von ML und KI heute

Der Einsatz von KI für höhere Effektivität von Malware steckt noch in den Kinderschuhen. Die Forschung wird immer noch akademisch vorangetrieben, und Angriffe sind meist theoretischer Natur und werden von Sicherheitsforschern als Machbarkeitsnachweis konzipiert. Dennoch unternehmen böswillige Akteure bereits Schritte in Richtung KI-gestützte oder KI-verstärkte Cyberangriffstechniken. Diese sollten weiterhin unter Beobachtung stehen, um sie zu stoppen und sich so früh wie möglich auf zukünftige Angriffe vorzubereiten, bevor die neuartigen Angriffe zunehmen.

Noch können Malware-Entwickler KI im Verborgenen nutzen, ohne von Forschern und Analysten entdeckt zu werden. Infolgedessen ist es nur möglich, nach sichtbaren Anzeichen zu suchen, die von KI-Malware-Aktivitäten erwartet werden können. Ein Typus von Malware-bezogenem KI-Exploit bedient sich KI-basierter Techniken, die darauf abzielen, die Wirksamkeit „traditioneller“ Cyberattacken zu verbessern. So gab es Vorführungen, wie eine Mail-Nachricht Spam-Filter umgehen kann, indem sie generative Grammatik zur Erzeugung eines großen Datensatzes von E-Mail-Texten mit hoher semantischer Qualität nutzen. Diese Texte werden dann zum Verwirren des Antispams verwendet. System und passen sich an verschiedene Spam-Filter an, um Inhalte zu identifizieren, die durch die Spam-Filter nicht mehr erkannt werden.

Eine der heute beliebtesten und sichtbarsten bösartigen Anwendungen von KI ist die „Deepfake“-Technologie, bei der KI-Techniken eingesetzt werden, um Audio- und visuelle Inhalte so zu gestalten oder zu manipulieren, dass sie authentisch erscheinen. Andere nennenswerte Beispiele sind Tools, die das reale Nutzerverhalten bei Diensten wie Spotify nachahmen können, um zu verhindern, dass gestohlene Konten gelöscht werden.

KI kann auch dazu missbraucht werden, um CAPTCHA-Sicherheitssysteme zu auszuschalten, die häufig auf Websites verwendet werden, um schädliche Aktivitäten zu verhindern. XEvil 4.0, ein Werkzeug, das neuronale Netzwerke zur Lösung von CAPTCHAs verwendet, wird in russischen Untergrundforen beworben und kann an Benutzer vermietet werden.

Künftiger Missbrauch von ML und KI

Zusätzlich zur schrittweisen Integration von KI-Techniken zur Verbesserung des Umfangs und der Grössenordnung ihrer Cyberangriffe können Kriminelle KI sowohl als Angriffsvektor als auch als Angriffsfläche ausnutzen. Dank des service-basierten kriminellen Geschäftsmodells könnten die Entwicklung und der Vertrieb von KI-fähigen Toolkits in Untergrundmärkten weniger technologisch versierten Kriminellen erweiterte Möglichkeiten bieten.

Angriffe auf derzeitige KI-Engines sind denkbar, um die Entscheidungsfindung der KI-Engine zu beeinflussen. Dies betrifft insbesondere Schutzsysteme, wie Betrugserkennung, AV-Systeme oder Gesichtserkennung. Der Angreifer könnte die Engine oder die Datensätze korrumpieren, so dass ihre „Erkennungen“ nicht mehr vertrauenswürdig sind

Eine der künftigen Möglichkeiten von ML in den Händen Cyberkrimineller wäre der Missbrauch von ML-geleitete Bilderkennungstraining in selbst fahrenden Fahrzeugen. In einer von einer Sicherheitsfirma durchgeführten Untersuchung wurde ein kleines Stück schwarzes Klebeband auf einem Schild mit einer Geschwindigkeitsbegrenzung von 35 Meilen pro Stunde so angebracht, dass das Bilderkennungsmodell „35“ mit „85“ verwechselte.

KI-betriebene Gesichtserkennungsdrohnen, die ein Gramm Sprengstoff mit sich führen, werden derzeit entwickelt. Diese Drohnen sind speziell für Bombenangriffe auf Mikroziele oder Einzelpersonen gedacht. Sie werden in der Regel auch über das Mobilfunknetz betrieben und sind so konstruiert, dass sie wie Insekten oder kleine Vögel aussehen. Es ist davon auszugehen, dass diese Technologie in naher Zukunft von Kriminellen genutzt werden wird.

Empfehlungen

Ziel dieser Forschung ist es, Verantwortlichen die Auswirkungen von ML- und KI-aktivierten bösartigen Aktivitäten, Angriffen, Bedrohungen und Risiken vor Augen zu führen. Zudem kann die enge Zusammenarbeit zwischen der Industrie und der akademischen Welt dazu beitragen, das Bewusstsein für die potentielle Nutzung und den potentiellen Missbrauch der KI durch Kriminelle zu schärfen und einen Wissensfundus dazu zu entwickeln. Das Wissen über die Fähigkeiten, Szenarien und Angriffsvektoren mit ML und KI ist der Schlüssel zur Verbesserung der Abwehrbereitschaft, zur Erhöhung der Widerstandsfähigkeit und zur Gewährleistung der positiven Nutzung dieser Technologien.

Durchgängiges Deep Learning für Cybersicherheit

Originalartikel von Spark Tsao, Data Scientist

Die Branche der Cybersicherheit ist eine der vielen Bereiche, die ganz erheblich von KI profitiert haben. Effizient eingesetzt verbessert die künstliche Intelligenz die Fähigkeiten von Cybersicherheitslösungen, ein breites Spektrum der Bedrohungen zu erkennen, einschliesslich brandneuer oder nicht klassifizierter Gefahren. Der Prozess der effizienten Nutzung der KI umfasst unter anderem in der Regel modernste Modelle, eine iterative Methode zur Verbesserung der Genauigkeit des Modells und genau gekennzeichnete Daten.

In vielen Cybersicherheitsunternehmen, die KI einsetzen, werden die genannten Anforderungen – insbesondere der Prozess der genauen Kennzeichnung von Daten – durch Bedrohungsexperten unterstützt. Diese kümmern sich neben anderen manuellen Aufgaben oder Prozessen, die handgefertigte Eingaben produzieren, um die Vorverarbeitung der Daten und die Extraktion sowie Entwicklung der Funktionalität. Im Wesentlichen ermöglichen diese von Experten handgefertigten Eingaben eine eindeutigere Ausführung von Modellen, da die zugrunde liegende Struktur der Daten somit genau dargestellt werden kann, wodurch die Fähigkeiten zur Erkennung von Bedrohungen verbessert werden.

Das Aufkommen neuer Methoden zur Erkennung von Bedrohungen mit Hilfe der KI stellt jedoch den Bedarf an handwerklichem Input von Experten in Frage. Insbesondere beinhalten diese Methoden durchgehende, Deep Learning-Lösungen, die von einigen als der nächste grosse Meilenstein in der Malware-Erkennung angepriesen werden. In solchen Lösungen werden die von Expertenerarbeiteten Eingaben durch solche ersetzt, die von automatisierten Prozessen bereitgestellt werden. Während dies in einigen Industriezweigen, die KI für verschiedene Zwecke einsetzen, wohl immer mehr akzeptiert wird, wirft das Fehlen handwerklicher Eingaben von Experten die Frage auf, ob handwerkliche Eingaben von Experten bei der Entwicklung einer effizienten KI-gestützten Cybersicherheitslösung noch relevant sind oder nicht.

Ein Ansatz untersuchte Malware-Binärdateien, die als Graustufenbilder dargestellt wurden, was die textuellen und strukturellen Ähnlichkeiten und Unterschiede entweder zwischen Binärdateien derselben und anderer Malware-Familien oder zwischen Malware und gutartiger Software aufzeigte. Dadurch wird das manuelle Feature-Engineering vermieden, was Zeit spart und den Arbeitsaufwand für Cybersicherheitsunternehmen verringert. Ein weiterer Ansatz umfasst einen Prozess, bei dem die Engine mit Rohdaten gefüttert wird, die aus Byte-Rohwerten bestehen, und Output erzeugt, der die Klassifizierung einer bösartigen oder gutartigen Datei anzeigt.

Informieren Sie sich eingehender über die Entwicklungen im durchgängigen Deep Learning für Cybersicherheit und über die derzeitige und künftige Effizienz.