Strafrechtliche Risiken des „Social Engineering 2.0“
Im Mai 2024 sorgte ein Betrugsfall aus Großbritannien für mediales Aufsehen. Cyberkriminelle hatten einen konzerninternen Videocall imitiert. Mittels Künstlicher Intelligenz (KI) täuschten sie die Anwesenheit zweier Leitungspersonen vor, woraufhin ein Mitarbeiter vermeintlich weisungsgemäß eine Zahlung in Höhe von 23 Millionen Euro auf das Konto der Cyberkriminellen ausführte. Die Nutzung von KI im Rahmen eines Cyberangriffs steigt zunehmend. Denn es ermöglicht den Angreifern, gezielt den Sicherheitsfaktor Mensch auszunutzen. Mit Hilfe von KI lassen sich nicht nur Bildaufnahmen von Personen manipulieren, Kriminelle können auch Schriftverkehr oder Tonspuren täuschend echt imitieren. Eine solche Art der Manipulation bezeichnet man als „Social Engineering 2.0“, die sich durch den Einsatz von KI kennzeichnet und dadurch zu einer immer realitätsnäheren Täuschung führt. Durch KI werden die Angriffe automatisiert, personalisiert und dadurch in ihrer Glaubwürdigkeit erheblich gesteigert, was die Erfolgswahrscheinlichkeit signifikant erhöht.
Einfallstor „Mensch“ als Schwachstelle im System
Social Engineering spielt bei verschiedenen Arten von Cyberangriffen eine Rolle – namentlich in den Fällen, in denen Angreifer nicht direkt durch Technik, sondern durch das Ausnutzen menschlicher Schwächen in geschützte Systeme einzudringen versuchen. Durch gezielte Täuschung versuchen Cyberkriminelle Menschen dazu zu bringen, Sicherheitsmechanismen zu umgehen, etwa indem sie Passwörter preisgeben, auf einen infizierten Link klicken oder sonst sensible Informationen weitergeben.
Eine spezielle Form des Social Engineerings ist das Kriminalitätsphänomen des „CEO Fraud“, welches dem eingangs geschilderten Falls zugrunde lag. Ziel dieser Angriffe ist es, gerade die Autorität einer Führungsperson auszunutzen, um unter Vortäuschung einer Anweisung aus der Leitungsebene Zahlungen durch das betroffene Unternehmen zu initiieren, die letztlich auf Konten der Cyberkriminellen fließen, oder die Preisgabe von sensiblen Informationen zu bewirken. In der Regel bilden die Täter durch eine E-Mail oder einen (Video-)Anruf die Nachricht des Geschäftsführers eines Unternehmens (CEO) nach, der gegenüber der Buchhaltung die Zahlung auf ein Konto in einem bestimmten Geschäftsvorgang anweist. Tatsächlich handelt es sich dabei um die Konten der kriminellen Angreifer. Oftmals heißt es in der täuschend echten Nachricht, dass der Betrag schnellstmöglich überwiesen werden muss oder es sich um eine vertrauliche Angelegenheit handelt, um die betroffenen Mitarbeitenden unter Handlungsdruck zu setzen und das Entdeckungsrisiko zu minimieren.
Social Engineering kommt auch in der Fallgruppe der Ransomware-Angriffe, auch als Verschlüsselungstrojaner bekannt, zur Anwendung. Diese zielen darauf ab, sensible Daten des Unternehmens abzugreifen und zu verschlüsseln, um damit die Systeme des Opfers „lahmzulegen“. Zur Entschlüsselung fordern die Täter ein Lösegeld (englisch: Ransom). Als Eingangstor dient neben technischen Lücken im System wiederum der Mensch, der auf eine fingierte Phishing-Mail „hereinfällt“ und einen mit der Schadsoftware infizierten Anhang öffnet. Ist der Anhang geöffnet, gelangt die Schadsoftware in die angegriffenen Systeme und kann sich dort ausbreiten.
Was ist „Social Engineering 2.0“?
Das Risiko des Social Engineering lässt sich mit den Mitteln der KI auf ein ganz neues Niveau heben. Angriffe wirken noch echter und es kommen ganz neue Varianten in Betracht. Man spricht daher vom „Social Engineering 2.0“. Die Entwicklung und Verbreitung von KI verschärften die Bedrohung durch Social Engineering erheblich.
Vor der Verbreitung von KI ließen sich gefälschte E-Mails für das wachsame Auge oft noch relativ einfach erkennen: Sprachliche Fehler, seltsame Formulierungen, offensichtlich gefälschte Logos oder unglaubwürdige Absender ließen viele potenzielle Opfer zurecht stutzig werden. Mit KI lassen sich gefälschte Anfragen deutlich verbessern. Neben der Ausmerzung sprachlicher Fehler lässt sich mit KI sogar der übliche Sprachduktus der Leitungskräfte imitieren, indem die Angreifer in Vorbereitung eines Angriffs öffentlich zugängliche Informationen über ein Unternehmen analysieren, um den Echtheitsgrad gefälschter Kommunikation zu erhöhen. Dadurch wird es immer schwieriger, betrügerische Nachrichten als solche zu identifizieren.
Um die Täuschung noch echter wirken zu lassen, können mithilfe von KI sogenannte Deepfakes erstellt werden. Darunter versteht man in diesem Kontext Video- oder Audioaufnahmen, die die Leitungsperson möglichst realitätsgetreu imitieren. Dies ermöglicht Angreifern in der Gestalt eines Vorgesetzten aufzutreten, obwohl die echten Personen nicht zugegen sind und von derartigen Anweisungen auch keine Kenntnis haben. Bei Sprachimitations- und Deepfake-Anrufen bleibt aufgrund des Echtzeitgeschehens typischerweise keine Zeit, ein zweites oder drittes Mal hinzuschauen, wie etwa bei einer E-Mail. Erforderlich ist hierbei also eine deutlich erhöhte Wachsamkeit, um solche KI-gestützten Angriffe zu erkennen und abzuwehren.
Strafbares Handeln der Cyberkriminellen
Es liegt auf der Hand, dass sich die Cyberkriminellen bei den Angriffen mittels Social Engineering 2.0 strafbar machen können. In Betracht kommt etwa das Ausspähen von Daten nach § 202a StGB oder auch die Computersabotage nach § 303b StGB sowie eine Betrugsstrafbarkeit nach § 263 StGB. Im Juli 2024 kam zudem das Bestreben auf, den strafrechtlichen Persönlichkeitsschutz konkret im Zusammenhang mit Deepfakes zu erhöhen. Der über den Bundesrat eingebrachte Entwurf wurde zuletzt durch Beschluss vom 11. Juli 2025 in den Deutschen Bundestag eingebracht. Durch den neu zu schaffenden Straftatbestand § 201b StGB soll die Verletzung von Persönlichkeitsrechten durch digitale Fälschungen unter Strafe gestellt werden. Es bleibt abzuwarten, ob der Gesetzesentwurf letztlich die Zustimmung des Bundestages finden wird.
Konkret sieht der Gesetzesentwurf vor, dass derjenige, der das Persönlichkeitsrecht einer anderen Person verletzt, indem er einen mit computertechnischen Mitteln hergestellten oder veränderten Medieninhalt, der den Anschein einer wirklichkeitsgetreuen Bild- oder Tonaufnahme des äußeren Erscheinungsbildes, des Verhaltens oder mündlicher Äußerungen dieser Person erweckt, einer dritten Person zugänglich macht, mit Freiheitsstrafe bis zu zwei Jahren oder mit Geldstrafe bestraft wird. Der Entwurf sieht eine strafrechtliche Qualifikation unter anderem für den Fall vor, in dem ein Medieninhalt der Öffentlichkeit zugänglich gemacht wird, also beispielsweise in sozialen Medien gepostet wird. Es wird die Frage virulent, ob nicht auch ein Qualifikationstatbestand sinnvoll ist, der die Herbeiführung eines Vermögensverlusts von großem Ausmaß durch den Einsatz von Deepfakes sanktioniert und dadurch zusätzlich zum Schutz des Persönlichkeitsrechts durch das eingesetzte Mittel auch die Vermögensschädigung durch den Einsatz des Deepfakes pönalisiert.
Welche Sanktionsrisiken bestehen für das betroffene Unternehmen?
Für die Strafverfolgungsbehörden gestaltet es sich oftmals als schwierig, die Täter solcher Delikte zu identifizieren und zur Rechenschaft zu ziehen, da diese häufig anonym agieren, technische Verschleierungsmethoden wie verschlüsselte Pfade einsetzen und ihre Spuren gezielt verwischen. Dadurch wird die Rückverfolgung der Angriffe und die Feststellung der verantwortlichen Personen erheblich erschwert. Erschwerend kommt hinzu, dass viele Täter aus dem Ausland operieren, was die grenzüberschreitende Zusammenarbeit und die rechtliche Verfolgung zusätzlich kompliziert.
Zunehmend geraten auch die von einem Cyberangriff betroffenen Unternehmen selbst in den Fokus der Strafverfolgungsbehörden. Das Straf- und Ordnungswidrigkeitenrecht birgt für diese Unternehmen erhebliche Sanktionsrisiken, sodass mittlerweile nicht mehr ausschließlich die Angreifer, sondern auch die unmittelbar geschädigten Unternehmen einer eingehenden behördlichen Prüfung und möglichen Sanktionierung unterliegen.
Denn die Geschäftsleitung trifft die Leitungsaufgabe, Cybersicherheits-Maßnahmen zu implementieren und deren Umsetzung zu überwachen. Hierzu gehört auch die Eingrenzung von möglichen Einfallstoren in die Systeme des Unternehmens. Verletzt die Geschäftsleitung diese Pflicht und kommt es aufgrund einer fehlerhaften Zahlung zu einem Vermögensschaden, steht der Vorwurf einer Untreue nach § 266 Abs. 1 StGB im Raum, weil Compliance-Vorgaben nicht umgesetzt wurden. Gelangen die Angreifer durch Social Engineering in die Systeme des Opfers und entwenden sensible Geschäftsinformationen, können unterlassene Schutzmaßnahmen einen strafbaren Verstoß der Geschäftsleitung gegen strafrechtliche Geheimnisvorschriften bedeuten.
Die Cybersicherheit spielt zudem auf dem Gebiet des Datenschutzrechts und der IT-Sicherheit eine entscheidende Rolle. Hiernach wird verlangt, das Risiko für Cybervorfälle durch geeignete und angemessene technische und organisatorische Maßnahmen (TOMs) zu reduzieren – werden diese Anforderungen erfüllt, kann der betroffenen Unternehmensleitung kein Vorwurf gemacht werden. Denn Cybervorfälle lassen sich nie vollständig ausschließen. Es besteht jedoch die Pflicht, Schutzkonzepte so zu gestalten, dass die gängigen und aktuellen Risiken für die Daten- und IT-Sicherheit Berücksichtigung finden. Verstöße gegen diese Vorgaben können hohe Geldbußen nach sich ziehen. Außerdem können Cybervorfälle, bei denen die Täter als Einfallstor Social Engineering nutzen, einen an die Aufsichtsbehörden meldepflichtigen Sachverhalt begründen. Werden diese Meldepflichten versäumt oder gibt das Unternehmen fehlerhafte Informationen weiter, entstehen dadurch neuerliche Anknüpfungspunkte für ein Bußgeldverfahren.
Wie kann sich das betroffene Unternehmen schützen?
Abseits von Spam-Filtern können sich Unternehmen gegen Social Engineering-Angriffe vor allem durch eine Sensibilisierung der Mitarbeitenden als größtes Sicherheitsrisiko schützen. Viele Unternehmen schulen ihre Mitarbeitenden bereits über Social Engineering oder führen Tests im Unternehmen durch, um die Aufmerksamkeit für die Gefahren gefälschter Nachrichten insbesondere durch Social Engineering 2.0 zu erhöhen. Aufgeklärte Mitarbeitende stellen einen geringeren Risikofaktor dar, weil Verdachtsmomente richtig eingeordnet werden. Die Unterrichtung über Social Engineering Angriffe 2.0 schafft das entsprechende Bewusstsein, hier Vorsicht walten zu lassen und schärft den Blick, um Deepfakes aufgrund von sog. Artefakten zu identifizieren. Artefakte sind kleine sicht- oder hörbare Unregelmäßigkeiten, die durch die KI-basierte Manipulation entstehen – beispielsweise auffällige Übergänge an den Gesichtskonturen, unnatürliche Bewegungen der Augen oder Verzerrungen im Hintergrund. Auch in manipulierten Stimmaufnahmen können digitale Störgeräusche, unnatürliche Pausen oder falsche Betonungen entstehen, die für Deepfakes charakteristisch sind.
Zur Identifikation der Fälschungen können im Rahmen rechtlich zulässiger Grenzen wiederum KI-basierte Analyse-Tools hilfreich sein. Den immer raffinierteren Angriffswerkzeugen mit Hilfe von KI stehen damit innovative Verteidigungsmethoden gegenüber, die ebenso KI gestützt sind – KI wird gleichermaßen zum Angriffswerkzeug wie auch zum Schutzschild.
Daneben sind weitere Schutzmaßnahmen zu etablieren, die etwa bei Zahlungsaufträgen mindestens ein Vier-Augen-Prinzip und zudem die aufmerksame Prüfung der Bankverbindung zwingend vorschreiben. Überdies ist es ratsam, die Zugriffsberechtigungen auf besonders schützenswerte Informationen auf das absolut notwendige Maß zu beschränken. Hier empfiehlt sich die Implementierung eines „Need-to-know“-Prinzips, das sicherstellt, dass nur tatsächlich befugte Personen Zugang zu vertraulichen Informationen erhalten. Je weniger Personen Kenntnis über sensible Zugangsdaten haben, desto geringer ist die Gefahr einer menschlichen Schwachstelle.
Die frühzeitige und gründliche Aufklärung des Vorfalls ist in tatsächlicher wie rechtlicher Hinsicht notwendig, um eine Fehleranalyse durchzuführen und entsprechende Maßnahmen zu treffen bzw. strafbares oder bußgeldbewehrtes Verhalten zu verhindern oder zu minimieren. Daher markiert ein Cybervorfall regelmäßig den Auftakt für eine unternehmensinterne Untersuchung.
Fazit
Zusammenfassend ist hervorzuheben, dass Social Engineering 2.0 eine der größten Herausforderungen im Kontext der Cybersicherheit darstellt. Die Ausnutzung des Menschen als Sicherheitsrisiko durch immer fortschrittlichere KI-Anwendungen stellt ein zentrales Angriffsmittel für Cyberkriminelle dar. Die hinreichende Sensibilisierung und Schulung von Mitarbeitenden tragen dazu bei, das Risiko für den Erfolg eines solchen Angriffs deutlich zu reduzieren. Unternehmen, die keine angemessenen Präventions- und Abwehrmaßnahmen implementieren, setzen sich dabei nicht nur erheblichen operativen Risiken aus, sondern laufen auch Gefahr, bußgeld- und strafrechtlichen Konsequenzen tragen zu müssen.
Für weitergehende Fragen oder eine individuelle Beratung stehen wir Ihnen gerne zur Verfügung!