KI-gesteuerte Malware: Hype oder Realität?
KI-generierte Malware: Was ist Fakt und was ist Fiktion? An der diesjährigen Insomni'Hack-Konferenz im März (Lausanne) werden wir uns mit diesem...
Raten Sie mal! Generative KI ist auch im Jahr 2025 noch ein Thema.
Wir haben in unserem Blog bereits erörtert, wie generative KI bestimmte Aspekte des Phishings verändert hat, z. B. die Erstellung überzeugenderer Textnachrichten und die Skalierung personalisierter Spear-Phishing-Kampagnen. Ihre Auswirkungen gehen jedoch über eine verbesserte Textqualität hinaus. Generative KI fügt auch Mediendateien, einschließlich Bilder und Videos, in den Mix ein, wodurch Social-Engineering-Taktiken weiter verbessert werden.
Es gab eine Handvoll Fälle von Kompromittierung von Geschäfts-E-Mails (BEC), die diese Entwicklung von Deepfakes verdeutlichen. Ein viel diskutierter Vorfall betraf ein britisches Ingenieurbüro, in dem ein Mitarbeiter Opfer eines Videoanrufs wurde, an dem mehrere Deepfake-Teilnehmer beteiligt waren. Der Mitarbeiter vermutete zunächst, dass es sich bei der Nachricht um einen Phishing-Angriff handelte, dachte sich aber, dass es nicht schaden könne, dem Videoanruf beizutreten, um die Sache zu überprüfen. Die Betrüger schickten daraufhin Direktnachrichten im Namen des CFO, was dazu führte, dass mehrere betrügerische Transaktionen in Höhe von insgesamt 25 Millionen Dollar durchgeführt wurden.
Ein weiterer Fall von Deepfakes ereignete sich vor kurzem in Frankreich, wo eine Frau 830 000 Euro an einen Liebesbetrüger verlor, der sich als Brad Pitt ausgab. Die Betrüger erfanden eine plausible Hintergrundgeschichte und behaupteten, der Schauspieler benötige Geld für eine Nierenkrebsbehandlung, könne aber aufgrund eingefrorener Konten nach seiner kürzlichen Scheidung nicht auf sein Geld zugreifen. Das Opfer berichtete später, dass der Betrüger "genau wusste, wie man mit Frauen spricht", was möglicherweise auf KI-generierte Nachrichten oder einen versierten Social Engineer hindeutet. Die gefälschten Bilder von Pitt in einem Krankenhaus haben die Täuschung definitiv verstärkt. Obwohl es sich bei der Aktion wahrscheinlich um eine Mischung aus menschlicher Interaktion und Automatisierungsskripten handelte, wird deutlich, dass KI-gestützter Betrug häufiger vorkommt als ein vollständig von KI gesteuerter Betrug. Dieses Gleichgewicht könnte sich jedoch mit der zukünftigen Entwicklung von KI-Agenten verschieben.
Der Betrug war damit noch nicht beendet. Nach dem Vorfall wurde die Frau von einem anderen Unternehmen kontaktiert, das behauptete, ihr helfen zu können, ihr verlorenes Geld wiederzuerlangen. Ob es sich dabei um den ursprünglichen Betrüger oder einen anderen opportunistischen Betrüger handelte, ist unklar, aber Folgebetrügereien, die darauf abzielen, die Opfer weiter auszubeuten, sind eine gut dokumentierte Taktik von Cyberkriminellen.
Die Sensibilisierung für diese Betrügereien ist von entscheidender Bedeutung, da sie aufgrund ihrer zunehmenden Raffinesse immer schwieriger zu erkennen sind. Grundsätzlich gilt nach wie vor: Seien Sie vorsichtig, wenn es um Geld oder sensible Daten geht. Leider sah sich das Opfer in diesem Fall erheblichem öffentlichen Spott ausgesetzt, nachdem es seine Geschichte erzählt hatte. Solches Cybermobbing schreckt andere Opfer davon ab, sich zu melden, was es noch schwieriger macht, aus diesen Vorfällen zu lernen und die Täter zu verfolgen.
Wenn Sie mehr über Deepfakes und deren Auswirkungen erfahren und diskutieren möchten, dann empfehlen wir Ihnen die Teilnahme an der Konferenz Applied Machine Learning Days (AMLD) Mitte Februar an der EPFL Schweiz. Vier Tage voller tiefer Einblicke in KI/ML und umsetzbarer Erkenntnisse.
Candid Wüest von xorlab wird den AMLD-Track zum Thema "Unmasking the Digital Deception: Defending Against DeepFakes and Disinformation attacks" halten und später am selben Tag im Panel " GenAI Security Threats " über kommende KI-Bedrohungen diskutieren .
Besuchen Sie uns auf der AMLD, um mehr über Deepfakes zu erfahren.
T A L K
Candid Wüest
AMLD I February 12, 14:00
KI-generierte Malware: Was ist Fakt und was ist Fiktion? An der diesjährigen Insomni'Hack-Konferenz im März (Lausanne) werden wir uns mit diesem...
Vorhersage #1: Deep Fakes KI-generierte Deepfake-Videos, -Bilder und -Audiodateien werden immer häufiger für Business Email Compromise (BEC)-Betrug...