Identitätsbetrug im Geschäftsverkehr – und die realen Konsequenzen

Social Engineering 2.0: Das alte Thema, aber nun spielt KI mit.

Cyberkriminelle werden immer raffinierter – und Künstliche Intelligenz ist längst Teil ihres Werkzeugkastens. Wenn sich Betrüger heute als scheinbare Geschäftspartner oder Dienstleister ausgeben, dann oft unterstützt durch KI-Systeme, die Mails, Anrufe oder sogar Videos „Deepfakes“ täuschend echt wirken lassen. Der Datenschutz ist dabei schnell in Gefahr.

Was ist Social Engineering – und was macht KI daraus?

Social Engineering bezeichnet Methoden, bei denen Angreifer gezielt menschliches Verhalten ausnutzen, um an vertrauliche Informationen zu gelangen. Klassische Methoden wie Phishing-E-Mails oder gefälschte Anrufe sind weit verbreitet – doch mit KI sind diese noch schwerer zu erkennen.

KI-gestützte Social-Engineering-Techniken umfassen unter anderem:
– Realistische Phishing-Mails: KI-Modelle wie Chatbots können sprachlich perfekt formulierte, personalisierte Mails verfassen,  die sich auf gesammelte Daten aus sozialen Netzwerken oder geleakten Datenbanken beziehen.
– Deepfake-Stimmen oder -Videos: Angreifer können täuschend echte Audio- oder Videonachrichten von Vorgesetzten oder Geschäftspartnern erzeugen, um Druck zu erzeugen oder Vertraulichkeit zu suggerieren.
– Automatisierte Ausspähung: KI analysiert öffentlich zugängliche Informationen (z. B. auf LinkedIn) und identifiziert Schwachstellen im menschlichen Verhalten.

Datenschutz im Fokus.

Wird durch eine solche Täuschung eine E-Mail mit Schadsoftware geöffnet oder ein Passwort weitergegeben, liegt meist ein Datenschutzverstoß vor – mit allen Konsequenzen der DSGVO: Meldepflicht, potenzielle Bußgelder und Reputationsschäden.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt daher deutlich vor Social Engineering in Verbindung mit KI. Entscheidend ist, nicht nur technische Schutzmaßnahmen zu ergreifen, sondern auch das Sicherheitsbewusstsein im Unternehmen zu stärken.
Mehr dazu auf der BSI-Seite zum Thema Social Engineering: https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Empfehlungen-nach-Gefaehrdungen/Social-Engineering/social-engineering_node.html

So können Sie sich schützen – auch vor KI-gestützten Angriffen

– Sensibilisierung und Schulungen: Ein Kernelement, da KI-Angriffe oft subtil sind. Schulungen zeigen neue Angriffsmethoden – konkrete (Deepfake-) Beispiele erleichtern das Wiedererkennen von Methoden.
– Technischer Schutz: Spam-Filter, Zwei-Faktor-Authentifizierung, Endpoint-Protection und KI-basierte Bedrohungserkennung helfen, automatisierte Angriffe frühzeitig zu stoppen.
– Strikte Datenschutzrichtlinien: Weniger öffentlich zugängliche Daten = weniger Angriffsfläche für KI. Personenbezogene Informationen sollten möglichst zurückhaltend geteilt werden.
– Verifikation von Identitäten: unbedingte Identitätsprüfung bei Weitergabe vertraulicher Informationen – dies gilt insbesondere für abweichende oder bei ungewohnten Kommunikationswegen.

Fazit:

Social Engineering ist kein neues Phänomen, aber durch KI wird es gefährlicher. Was früher durch Bauchgefühl auffiel, ist heute oft hochprofessionell gefälscht und kaum sofort zu erkennen. Wer jetzt handelt und dafür im Unternehmen sensibilisiert, kann Schäden vermeiden und wichtige Unternehmensgüter, Daten und Informationen von Beschäftigten und Kunden schützen.