
Eine Reise durch die Zeit für die verbotenen Informationen: Eine neue Chatt -Sicherheitslücke kann sehr einfach beschrieben werden. „Time Bandit“ (Englisch für „Time Robbers“) ist der Name der Sicherheitslücke, in der Chatgpt die Zeitreferenz durch gezielte Anfragen vom Benutzer verliert und damit bereitwillig Anweisungen für illegale Aktivitäten gibt. Normalerweise verhindern dies die gebauten Sicherheitsregeln der Software.
Werbung
Der freiberufliche KI -Sicherheitsforscher David Kuszmar entdeckte die Verwundbarkeit im November 2024, wurde jedoch bei Openaai und verschiedenen US -Behörden nicht gehört. Während er sich im Gespräch mit dem Portal „Pleeping Computer“ meldet, weiß Chatgpt nicht mehr über den Trick, ob es in der Vergangenheit, der Gegenwart oder der Zukunft ist.
„Time Bandit“ war eine zufällige Entdeckung
„Time Bandit“ kann daher ausgenutzt werden, um die KI zu ermitteln, beispielsweise Anweisungen zur Herstellung von Drogen oder Waffen oder zur Entwicklung von Malware. Normalerweise sollte Chatgpt sich weigern, den Benutzer mit solchen bedrohlichen Anfragen zu unterstützen. Kuszmar entdeckte versehentlich die Lücke „TimeBandit“, als er untersuchte, wie das KI -Modell Entscheidungen trifft. Er bemerkte, dass Chatgpt den zeitlichen Kontext nicht mehr erkennen konnte, abgesehen von einer Code -basierten Abfrage, um die Zeit zu bestimmen.
Laut Kuszmar verwendet der Ansatz zwei entscheidende Schwächen. Einerseits wird ChatGPT aus der sogenannten „Timeline-Verwirrung“ (Englisch für „Vorlagenagentur“) zurückgezogen, um unabhängig in welchem Jahr festzustellen. Darüber hinaus wird die „prozedurale Ambiguität“ (Englisch für „Verfahrensdeutigkeit“) verwendet, in denen Fragen so formuliert werden, dass es in der Umsetzung Abweichungen und Unsicherheiten gibt.
Zurück zu 1789
Die Redakteure von Bleeping Computer haben beispielsweise Chatgpt gemacht, um einen Malware -Anweisungen für einen Mathematiker aus 1789 zu erstellen, der jedoch modernen Technologien zur Verfügung steht. Chatgpt gab dann eine detaillierte Schritt-für-Schritt-Anweisungen. Das Coordination Center (Cert) des Computer Emergency Response Team hat auch eine Nachricht zu „Time Bandit“ veröffentlicht. Dementsprechend war ChatGPT besonders anfällig für die Methode, als die Zeiten aus dem 19. und 20. Jahrhundert verwendet wurden.
Das Problem „Time Bandit“ wurde offenbar von Openai ignoriert. Laut Bleeping Computer kontaktierte Kuszmar kurz nach der Entdeckung das Unternehmen, wurde jedoch auf die Sicherheitslücken von Bugcrowd verwiesen. Auch verschiedene US -Behörden, einschließlich des Federal Bureau of Investigation (FBI), zeigten kein Interesse.
„Time Bandit“ ignorierte zunächst
Insgesamt sind Methoden wie „Time Bandit“ jedoch keine Neuheit. In der Vergangenheit gab es in Openaai bereits andere solcher Sicherheitslücken. Für Metas Open-Source-Ki Lama gibt es auch verschiedene Anweisungen im Netz, die dazu beitragen sollten, das Modell unzensierte zu gestalten.
Nach einem weiteren Versuch von Kuszmar, zusammen mit dem Bleeping -Computer in Openai, gab auch Kuszmar seine Ergebnisse an das Cert zu, was schließlich erfolgreich Kontakt zu Openaai aufbauen konnte.
Lücke offenbar weiter verfügbar
Ein Sprecher von Openaai bedankte sich bei Kuszmar für den Austausch seiner Erkenntnisse und betonte auch, dass Openaai ihre eigenen Technologien für illegale Aktivitäten nicht einsetzen wollte. Dazu würde das Unternehmen kontinuierlich daran arbeiten, seine KI -Modelle sicherer zu machen.
Laut Pleeping Computer war die „Zeit-Banditen“ -Plücke nach dem Feedback von Openaai mit einigen zusätzlichen kleinen Small-Specified-Tricks auch einfach zu bedienen.
(Nen)