Unterbrechung der bösartigen KI: Fünf wichtige Erkenntnisse aus dem OpenAI-Bericht vom Juni 2025
Die KI verändert unbestreitbar die Branchen und fördert Wachstum und Innovation. Doch mit großer Macht kommen auch große Verantwortung und immer raffiniertere Cyber-Bedrohungen. Der jüngste Bericht von OpenAI über die internen Maßnahmen zur Bekämpfung des Missbrauchs ihrer Plattform, Bösartige Verwendungen von KI unterbinden (Juni 2025), liefert wichtige Erkenntnisse darüber, wie GPTs von Bedrohungsakteuren eingesetzt werden. Seit langem wird darüber spekuliert, wie Angreifer diese Tools nutzen. Dieser Bericht ist die direkte Bestätigung dafür, dass die Angreifer sie auch jenseits des Marketing-Hypes nutzen.
1. KI-gestützte Job-Betrügereien mit nordkoreanischen Cyber-Operationen verbunden
OpenAI hat eine alarmierende Zunahme von KI-gesteuerten Beschäftigungsbetrügereien festgestellt, die speziell mit nordkoreanischen Cyberoperationen in Verbindung stehen. Diese Angreifer nutzen KI, um überzeugende gefälschte Lebensläufe, Stellenausschreibungen und ausgeklügelte Rekrutierungspläne zu erstellen und machen so aus gewöhnlichen Arbeitssuchenden unwissende Teilnehmer an Cyberangriffen als “Laptop-Mules”.”
Was das für Sie bedeutet: Es ist von entscheidender Bedeutung, die Einstellungsverfahren gründlich zu überprüfen, neue Mitarbeiter persönlich kennenzulernen und die Mitarbeiter kontinuierlich über die neuesten Betrugstechniken zu informieren.
2. Fortgeschrittene Malware-Kampagnen von staatlich organisierten APTs
Der Bericht von OpenAI bestätigt, wie staatlich gelenkte APT-Gruppen (Advanced Persistent Threats) KI nutzen, um die Entwicklung von Malware zu rationalisieren und zu beschleunigen. Bei diesen Kampagnen setzen etablierte Akteure häufig KI-Tools ein, um den Schadcode ausweichender, anpassungsfähiger und effizienter zu machen.
Ein bemerkenswertes Beispiel ist Emerald Sleet (das auch mit der nordkoreanischen Lazarus-Gruppe in Verbindung gebracht wird), die ChatGPT zur Unterstützung von Spearphishing- und Aufklärungsaktivitäten nutzte, um ihre Kampagnen zu starten.
Keyhole Panda (APT5) und Vixen Panda (APT15), beides mit China verbundene Gruppen, setzten KI für Aufgaben wie das automatisierte Sammeln von Open-Source-Informationen, das Debugging von Code, die Erstellung von Skripten (z. B. für Port-Scans oder Brute-Force-Versuche) und den Aufbau von Infrastrukturen für die Verbreitung von Malware und die Manipulation sozialer Medien ein.
Darüber hinaus nutzte eine russischsprachige Kampagne mit dem Namen ScopeCreep iterativ KI zur Entwicklung eines modularen Windows-Malware-Toolkits. Die Malware enthielt Komponenten für die Ausweitung von Berechtigungen, das Auslesen von Anmeldeinformationen, die Verschleierung und die Kommunikation über eine Telegram-basierte Befehls- und Kontrollinfrastruktur. Die Rolle der KI bestand in diesem Fall nicht in der Schaffung neuartiger Bedrohungen, sondern in der Verbesserung bestehender Entwicklungsmodelle für die legitime Nutzung.
Viele der zugrundeliegenden Fähigkeiten lassen sich zwar auch mit herkömmlichen Methoden erreichen, aber KI macht diese Operationen skalierbarer und schwieriger zu erkennen. Das Eingreifen von OpenAI durch die Durchsetzung von Plattformen und die Löschung von Konten hat wahrscheinlich dazu beigetragen, diese sich entwickelnden Bedrohungen mit ChatGPT zu unterbrechen, aber höchstwahrscheinlich sind die Akteure zu einem weniger überwachten KI-Toolset übergegangen.
KI-Anbieter: Überwachen Sie Ihre Tools auf Missbrauch; verfügen Sie über ein robustes Erkennungsset mit interner KI-gesteuerter Kontrolle über Benutzerabfragen, sammeln und verfolgen Sie gegnerische Konten. Arbeiten Sie zusammen und teilen Sie Cyber-Intelligenz.
3. Das Aufkommen des “Vibe Hacking”
Die Zugänglichkeit von KI-Tools hat ein beunruhigendes neues Phänomen hervorgebracht - ”Vibe Hacking”, das es selbst unerfahrenen Angreifern ermöglicht, Phishing-Methoden und die Verbreitung von Malware effektiv zu automatisieren. Tools wie WormGPT und FraudGPT haben die Einstiegshürde für Cyberkriminelle drastisch gesenkt. Anstatt einfach neue Malware von Grund auf zu generieren, setzen diese Akteure KI ein, um Codeschnipsel zu produzieren, die sie zu einem fertigen Projekt zusammenfügen können, sei es Malware oder ein Powershell-Skript.
In einem Beispiel nutzte ein Akteur den LLM, um Powershell-Skripte zu generieren, die scheinbar routinemäßig abliefen, aber subtile bösartige Verwendungen enthielten, die die wahre Absicht vor OpenAI-Erkennungssystemen verbargen. Dieser Ansatz ist typischen Umgebungen nicht unähnlich, in denen der Code verschleiert oder getrennt wird, um traditionelle Erkennungssysteme zu umgehen.
Kein gutes Gefühl: Jetzt können auch ungelernte Entwickler Code erzeugen, was Malware-Ablegern Wege zur Steigerung der Wirksamkeit und zur raschen Weiterbildung traditioneller ‘Script-Kiddies’ eröffnet.
4. Die Notwendigkeit einer stärkeren Zusammenarbeit
Eine geschlossene Front im Bereich der Cybersicherheit war noch nie so wichtig wie heute. OpenAI unterstreicht die Bedeutung von Partnerschaften zwischen Unternehmen, Regierungen und Cybersicherheits-Communities - einschließlich wichtiger Branchenakteure wie Anthropic, Google, OWASP und NIST - für die Schaffung widerstandsfähiger Verteidigungsmaßnahmen.
Zusammenarbeit mit der Industrie: Förderung starker Industriepartnerschaften und Kooperationsnetze, um sich rasch an neu auftretende Cyber-Bedrohungen anzupassen und ihnen zu begegnen.
5. Die Rolle der Regulierung
Die Entwicklung der KI schreitet schnell voran, viel schneller als unsere Fähigkeit, sie wirksam zu regulieren. OpenAI fordert eine schärfere und klarere Regulierung, die Innovation und Verantwortung in Einklang bringt. Das bedeutet mehr Transparenz bei der Art und Weise, wie Modelle trainiert und verwendet werden, eine stärkere Durchsetzung von Nutzungsrichtlinien und regelmäßiges Red Teaming, um Schwachstellen zu erkennen, bevor sie ausgenutzt werden. Sie betonen auch die Notwendigkeit einer besseren Koordination zwischen Entwicklern, Regulierungsbehörden und Sicherheitsexperten, insbesondere durch verantwortungsvolle Offenlegung und aktiven Informationsaustausch.
OpenAI skizziert mehrere Schlüsselbereiche, auf die Regulierungsbehörden und Entwickler ihre Aufmerksamkeit richten sollten. Dazu gehört, die Entwicklung und den Einsatz von KI-Systemen transparenter zu machen und eine klare Verantwortlichkeit für die Nutzung dieser Technologien zu gewährleisten. Sie empfehlen die Durchsetzung solider Nutzungsrichtlinien mit konsequenten Konsequenzen für Missbrauch, eine zeitnahe Überwachung und die routinemäßige Durchführung von Red-Teaming-Übungen, um potenzielle Schwachstellen aufzudecken und zu beheben. Entscheidend ist, dass sich OpenAI auch für einen effektiveren Informationsaustausch zwischen Anbietern, Regierungen und der Sicherheitsgemeinschaft einsetzt, um eine koordinierte und fundierte Reaktion auf neue Bedrohungen zu fördern.
Bleiben Sie der Zeit voraus: Die Branche muss die politischen Entscheidungsträger antreiben, zu den Diskussionen über die Gestaltung von KI-Rechtsrahmen beitragen und proaktive Compliance-Praktiken einführen, die mit den sich entwickelnden globalen Cybersicherheitsstandards übereinstimmen.
Als Sicherheitsverantwortlicher, der beobachtet, wie sich die KI-Fähigkeiten in einem geradezu schwindelerregenden Tempo weiterentwickeln, hat dieser Bericht einen tiefen Eindruck hinterlassen. Wir haben es jetzt mit Gegnern zu tun, die Täuschung, Code und Einflussnahme in großem Umfang automatisieren. Neu sind nicht nur die Werkzeuge, sondern auch die Geschwindigkeit, der Umfang und die Präzision, mit der die Bedrohungen jetzt auftreten können.
Die Ergebnisse von OpenAI bestätigen, was viele in der Cybersicherheitsbranche bereits spüren: Das Bedrohungsmodell hat ein neues Paradigma. Da ich die Reaktion auf die Sophos Pacific Rim-Angriffe geleitet habe, weiß ich aus erster Hand, wie komplex es ist, den Missbrauch von Plattformen in großem Maßstab zu überwachen. Als Anbieter müssen wir einen Drahtseilakt vollführen, indem wir Zugänglichkeit und Innovation mit der Notwendigkeit in Einklang bringen, Missbrauch vorzubeugen und Richtlinien schnell und fair durchzusetzen. Wir verteidigen nicht nur Netzwerke, wir verteidigen jetzt auch aktiv das Vertrauen.
KI macht es einfacher, Identitäten zu replizieren, Marken zu imitieren und Kommunikation als Waffe einzusetzen.
Wenn ein gefälschtes Stellenangebot ein mehrstufiges Eindringen auslösen kann, das von der anderen Seite des Globus aus orchestriert wird, muss sich unser Playbook weiterentwickeln, und die Angriffsfrequenz erhöht sich. Dies wird sich durch die Einführung von Agent2Agent- oder MCP-Protokollen, bei denen KI-Systeme direkt und mit minimaler menschlicher Interaktion kommunizieren können, noch weiter verschärfen. Diese Fähigkeit wird diese Systeme realistischerweise in die Lage versetzen, Angriffe von A bis Z zu orchestrieren - von A bis Z, unerbittlich.
Bei der Regulierung geht es mir nicht um Bürokratie, sondern um die Grundlage für Vertrauen und Verantwortlichkeit. Transparenz, gemeinsame Erkennung, konsequente Durchsetzung und Red Teaming sind keine theoretischen Nettigkeiten - sie sind die Grundvoraussetzungen für eine sichere Anwendung. Es ist OpenAI hoch anzurechnen, dass sie sowohl die Entwickler als auch die Befürworter in eine Zukunft führt, in der die Innovation die Ethik nicht überholt.
Kurz gesagt, wir treten in eine Ära ein, in der es bei der Cybersicherheit nicht nur darum geht, Sicherheitsverletzungen zu verhindern. Es geht um den Aufbau von Prozessen, Systemen und Kulturen, die Missbrauch vorhersehen, auf Missbrauch vorbereitet sind und sich in Echtzeit anpassen können. Für Teams wie unseres bei Ontinue bedeutet dies, dass wir bei der Nutzung von KI einen Schritt voraus sind und KI-Prinzipien anwenden, die es uns ermöglichen, mit dem Tempo unserer Gegner Schritt zu halten.
Bleiben wir wachsam. Lasst uns menschlich bleiben. Lasst uns der Sache voraus sein.



