Nordkorea und Iran nutzen künstliche Intelligenz zum Hacken, Microsoft enthüllt
Microsoft hat kürzlich bekannt gegeben, dass Nordkorea und der Iran generative künstliche Intelligenz (KI) für offensive Cyberoperationen einsetzen.
Gegner nutzen generative KI aus
Laut Microsoft gehören zu den US-Gegnern hauptsächlich der Iran und Nordkorea, während Russland und China in geringerem Maße beteiligt sind. Diese Gegner nutzen nun generative KI, um offensive Cyberoperationen zu organisieren und durchzuführen. Microsoft hat in Zusammenarbeit mit dem Geschäftspartner OpenAI mehrere Bedrohungen erkannt und unterbrochen, die die von ihnen entwickelte KI-Technologie ausnutzten.
Microsoft erklärte in einem Blogbeitrag, dass diese Techniken noch in einem frühen Stadium seien und nicht besonders einzigartig oder neuartig seien. Es sei jedoch wichtig, sie öffentlich zu machen, da diese Techniken US-Rivalen in die Lage versetzen, Netzwerke zu durchbrechen und Einflusskampagnen mithilfe großer Sprachmodelle durchzuführen.
Traditionell haben Cybersicherheitsunternehmen maschinelles Lernen für die Netzwerkverteidigung genutzt, um anomales Verhalten zu erkennen. Jedoch nutzen auch offensive Hacker und Kriminelle KI, und die Einführung großer Sprachmodelle wie OpenAI's ChatGPT hat die Einsätze erhöht.
Beispiele für KI-Ausnutzung
Microsoft nannte spezifische Beispiele, bei denen KI von böswilligen Gruppen ausgenutzt wurde:
- Die nordkoreanische Cyber-Spionagegruppe Kimsuky verwendete generative KI-Modelle, um ausländische Denkfabriken zu untersuchen, die sich auf ihr Land konzentrieren. Sie erstellten auch Inhalte für Spear-Phishing-Hacking-Kampagnen.
- Die Iranische Revolutionsgarde setzte große Sprachmodelle für Social Engineering, Fehlerbehebung bei Software und Untersuchung von Netzwerk-Evasionstechniken ein. Sie erstellten auch Phishing-E-Mails, darunter solche, die internationale Entwicklungsagenturen imitierten und prominente Feministinnen auf von Angreifern erstellte feministische Websites lockten.
- Die russische GRU-Militärnachrichtendiensteinheit Fancy Bear erforschte mit Hilfe von generativen KI-Modellen Satelliten- und Radartechnologien im Zusammenhang mit dem Krieg in der Ukraine.
- Die chinesische Cyber-Spionagegruppe Aquatic Panda nutzte große Sprachmodelle zur Unterstützung ihrer technischen Operationen.
- Eine andere chinesische Gruppe, Maverick Panda, interagierte mit großen Sprachmodellen, um deren Effektivität bei der Gewinnung von Informationen zu sensiblen Themen, hochrangigen Personen, regionaler Geopolitik, US-Einfluss und inneren Angelegenheiten zu bewerten.
Die Bedrohung und Zukunft von KI
OpenAI stellte fest, dass ihr aktuelles Modell des Chatbots GPT-4 nur begrenzte Fähigkeiten für böswillige Cybersecurity-Aufgaben bietet. Sicherheitsforscher gehen jedoch davon aus, dass sich dies in Zukunft ändern wird.
Einige Kritiker argumentieren, dass die Veröffentlichung von ChatGPT und ähnlichen Modellen öffentlich vorangetrieben wurde und unverantwortlich war, da Sicherheitsbedenken während der Entwicklung nicht angemessen berücksichtigt wurden. Es ist jedoch klar, dass KI und große Sprachmodelle zu mächtigen Waffen für offensive Operationen von Nationalstaaten werden.
In der Cybersicherheitsgemeinschaft gibt es unterschiedliche Meinungen zur Herangehensweise von Microsoft. Einige Fachleute schlagen vor, dass Microsoft sich darauf konzentrieren sollte, große Sprachmodelle sicherer zu machen, anstatt Profit aus den von ihnen geschaffenen Schwachstellen durch Verteidigungswerkzeuge zu ziehen.