Nachrichtenportal Deutschland

Hacker -Gruppen verwenden Ki Gemini von Google zur Klarstellung und Vorbereitung auf den Angriff

Hacker -Gruppen verwenden Ki Gemini von Google zur Klarstellung und Vorbereitung auf den Angriff

Laut Google nutzen mehrere staatlich finanzierte Hacker-Gruppen den AI-basierten Assistenten Gemini, um ihre Produktivität zu steigern und mögliche Ziele zu untersuchen. Wie Bleeping Computer berichtet, hat die Google Threat Intelligence Group (GIG) festgestellt, dass Hacker Gemini hauptsächlich effizienter arbeitet und keine neuen Cyberangriffe auf KI-basierten Cyber-Angriffen entwickeln kann, die traditionelle Abwehrmechanismen umgehen können.

Werbung


Laut Google APT -Gruppen waren der Iran und China besonders aktiv. Eine der häufigsten Anwendungen umfasste:

  • Unterstützung bei Programmieraufgaben für die Entwicklung von Tools und Skripten
  • Forschung zu öffentlich bekannten Sicherheitslücken
  • Übersetzungen und Erklärungen zu Technologien
  • Suchen Sie nach Informationen zu Zielorganisationen
  • Suche nach Methoden zur Umgehung der Anerkennung, der Ausweitung von Rechten oder der internen Exploration in kompromittierten Netzwerken

Die Hacker verwendeten Gemini in verschiedenen Phasen des Angriffszyklus, wobei der Fokus abhängig vom Herkunftsland:

  • Die iranischen Akteure nutzten Gemini am stärksten, einschließlich für Bildung, Phishing -Kampagnen und Beeinflussung von Operationen.
  • Chinesische Gruppen konzentrierten sich auf US -amerikanische Militär- und Regierungsorganisationen, Forschungsergebnisse der Schwächen, Skripte für die laterale Bewegung und die Ausweitung von Rechten sowie Aktivitäten nach Kompromisse.
  • Mit Gemini unterstützten nordkoreanische Apts mehrere Phasen des Angriffszyklus, einschließlich Klärung, Malwareentwicklung und Verschleiern. Ein Fokus lag auf dem versteckten IT -Arbeitsprogramm Nordkoreas.
  • Russische Akteure waren nur minimal involviert, insbesondere für die Unterstützung von Skripts, Übersetzung und Nutzlast. Möglicherweise bevorzugen Sie KI -Modelle, die in Russland entwickelt wurden, oder vermeiden westliche Plattformen aus Gründen der chirurgischen Sicherheit.

Google beobachtete auch Versuche, öffentliche Jailbreaks gegen Gemini zu verwenden oder um die Eingabeaufforderung zurückzukehren, um die Sicherheitsmaßnahmen der Plattform zu vermeiden. Bisher waren diese Versuche erfolglos.

Gleiches hatte bereits Openai, Entwickler des beliebten Chatbots -Chatgpt, im Oktober 2024 gemeldet. Mit der zunehmenden Ausbreitung generativer KI -Systeme wächst das Risiko von Missbrauch, insbesondere in Modellen mit unzureichenden Schutzmaßnahmen. Sicherheitsforscher konnten einige weit verbreitete Systeme wie Deepseek R1 und Alibabas Qwen 2.5 zeigen.


(IMS)

Die mobile Version verlassen