Deepfake-Angriffe auf Führungskräfte – Neue Bedrohung durch KI und biometrischen Betrug

Picture of menger
menger
Deepfake concept
Facebook
Twitter
LinkedIn
XING

Eine aktuelle Studie zeigt, dass 27 % der Führungskräfte, die in den letzten 18 Monaten Opfer eines Cyberangriffs wurden, durch KI-gestützte Deepfake-Angriffe getäuscht wurden. Diese hochentwickelten Imitationsangriffe nutzen künstliche Intelligenz (KI), um biometrische Authentifizierung zu umgehen, die früher als sicher galt.

Die Umfrage von GetApp, einer Plattform für Unternehmenssoftware, befragte 2.648 IT-Experten aus 11 Ländern, darunter 243 aus Deutschland. Die Ergebnisse verdeutlichen, wie IT- und Cybersicherheitsexperten auf die wachsende Gefahr durch Deepfake-Angriffe und biometrischen Betrug reagieren.

Wichtige Erkenntnisse der Studie:

  • 27 % der Führungskräfte, die in den letzten 18 Monaten Ziel eines Cyberangriffs waren, wurden durch KI-gestützte Deepfakes getäuscht.
  • 55 % der befragten Unternehmen haben bereits spezifische Maßnahmen gegen Deepfake-Angriffe entwickelt.
  • 45 % der IT-Experten äußern Bedenken hinsichtlich des Datenschutzes bei der Nutzung biometrischer Authentifizierung, und 36 % befürchten Identitätsdiebstahl.
  • 64 % der Führungskräfte waren in den letzten 18 Monaten Ziel eines Cyberangriffs.

Führungskräfte sind aufgrund ihrer Zugriffsrechte auf sensible Daten und großen Transaktionen besonders gefährdet. In der GetApp-Studie berichteten 32 % der IT-Experten von mindestens einem Angriff auf Führungskräfte, während weitere 32 % mehrere Cyberangriffe auf Führungskräfte verzeichneten.

Biometrische Authentifizierung unter Beschuss

Die Nutzung von biometrischer Authentifizierung ist in vielen deutschen Unternehmen weit verbreitet, um die Cybersicherheit zu erhöhen. 49 % der Befragten gaben an, dass der Einsatz biometrischer Authentifizierung in ihren Unternehmen vorgeschrieben ist. Hacker haben jedoch inzwischen Wege gefunden, diese Schutzmaßnahmen durch Deepfakes zu umgehen, indem sie biometrische Daten stehlen und Führungskräfte täuschen.

Laut Ines Bahr, Content-Analystin bei GetApp, suchen Hacker nicht mehr nur nach Passwörtern, sondern nutzen biometrische Daten, um Deepfakes zu erstellen und sich Zugang zu sensiblen Systemen zu verschaffen.

Sorge um Deepfake-Angriffe

57 % der deutschen IT- und Sicherheitsexperten sind besorgt, dass KI für Identitätsbetrug genutzt werden könnte. Im Vergleich dazu sind 74 % der Experten in den USA besorgt, was auf ein höheres Bewusstsein für diese Bedrohung hindeutet.

Trotz der zunehmenden Bedrohung durch Deepfake-Angriffe auf Führungskräfte, die bereits 27 % betroffen haben, bleiben die Sorgen um biometrischen Betrug in Deutschland relativ gering. Zu den größten Herausforderungen bei der Einführung von biometrischer Authentifizierung gehören Datenschutzbedenken (45 %) und die Kosten für die Umsetzung (45 %).

Wie Unternehmen sich vor KI-Angriffen schützen

Um sich vor KI-basierten Angriffen zu schützen, setzen Unternehmen auf verschiedene Maßnahmen:

  • Verbesserung der Netzwerksicherheit (41 %)
  • Schutz vor Phishing-Angriffen (40 %)
  • Häufige Software-Updates (38 %)

Zudem haben 55 % der deutschen IT- und Sicherheitsexperten spezielle Schutzmaßnahmen gegen Deepfake-Angriffe entwickelt. Dazu gehören:

  • Teilnahme an Cybersicherheitskonferenzen (61 %)
  • Regelmäßige Schulungen und Sensibilisierungsmaßnahmen (56 %)
  • Simulationsübungen (50 %)

Laut Ines Bahr ist es entscheidend, dass Unternehmen ihre Mitarbeiter, insbesondere Führungskräfte, regelmäßig schulen, um Deepfake-Angriffe frühzeitig zu erkennen. „Durch Simulationsübungen lernen Mitarbeiter, die Echtheit von Anfragen besser zu überprüfen“, betont Bahr.

Dieser Artikel wurde für SEO optimiert, um relevante Themen wie Deepfake-Angriffe, biometrischer Betrug, KI-gestützte Cyberangriffe und Cybersicherheit klar hervorzuheben und gleichzeitig auf Schutzmaßnahmen gegen diese Bedrohungen einzugehen.

GATACA kann noch viel mehr.
Schauen Sie mal vorbei.

Kostenlos beraten lassen

+49 7721 / 88 79 79 - 0