Warum OpenAI damit droht, Benutzer zu blockieren, die zu genau nachforschen

Warum OpenAI damit droht, Benutzer zu blockieren, die zu genau nachforschen

OpenAI hatte mit dem „Strawberry“-Modell KI-Modelle der „nächsten Generation“ versprochen. Und schon kurz nach der Veröffentlichung wurde klar, dass es sich dabei um eine äußerst behütete Generation handelte.

Wie unter anderem Marco Figueroa zu X berichtete, beobachtet OpenAI genau, wer sich in seinen Augen zu sehr dafür interessiert, wie die sogenannten o1-Modelle funktionieren. Der GenAI Bug Bounty Programs Manager bei Mozilla teilte eine entsprechende E-Mail zu X, woraufhin OpenAI ihn auf eine Sperrliste setzte.

Verstöße gegen die Richtlinien können zur Sperrung führen

Dort heißt es unter anderem, dass bestimmte Anfragen von Nutzern wegen Verstößen gegen Richtlinien zur Umgehung von Schutz- oder Sicherheitsmaßnahmen aufgefallen seien. Darauf folgt folgende Aufforderung: „Bitte beenden Sie diese Aktivität und stellen Sie sicher, dass Sie ChatGPT in Übereinstimmung mit unseren Servicebedingungen und unserer Richtlinie zur akzeptablen Nutzung verwenden.“

Die Empfänger der E-Mail werden außerdem gewarnt, dass weitere Verstöße zum Verlust des Zugriffs auf GPT-4o führen könnten. Ebenfalls auf X meldete ein anderer Benutzer, dass er dieselbe E-Mail erhalten habe, nachdem er den Begriff „Argumentation Trace“ verwendet hatte.

Der Denkprozess des Modells soll geheim bleiben

Wieder andere Nutzer meinten, OpenAI würde jedem schreiben, der das KI-Modell nach seiner Begründung fragt. Und im Fall der o1-Modelle ist das wirklich etwas Besonderes.

Während die bisherigen Modelle vor allem auf generative Aufgaben und die Verarbeitung natürlicher Sprache spezialisiert waren, durchlaufen die neuen Modelle einen Problemlösungsprozess, der es ihnen ermöglicht, komplexe Probleme zu lösen. Wie dieser Prozess genau aussieht, will OpenAI allerdings nicht verraten.

Wettbewerbsvorteile sind besser als Transparenz

Den Nutzern wird lediglich eine gefilterte Interpretation dieses Vorgangs angezeigt, die von einem zweiten KI-Modell generiert wird. Auf seinem Blog begründet OpenAI dieses Vorgehen damit, dass man den Roh-Feed für den eigenen Gebrauch und Wettbewerbsvorteile schützen müsse.

Ars Technica ist nicht der einzige, der darin einen Versuch sieht, die eigene Technologie vor der Konkurrenz zu schützen. Schließlich ist es kein Geheimnis, dass diverse Forscher die Ergebnisse von ChatGPT-4 natürlich genutzt haben, um ihre eigenen KI-Modelle zu trainieren.

OpenAI scheint jedoch bewusst in Kauf zu nehmen, dass diese Entscheidung auch zu einem großen Verlust an Transparenz und Vertrauen in die KI-Technologie führen wird.

15 lustige, von KI generierte Bilder

Eine Drachenfrucht im Schnee mit Karategürtel – Dieses Bild wurde von Google Imagen erstellt.

15 lustige, von KI generierte Bilder

Fast fertig!

Um Ihre Anmeldung abzuschließen, klicken Sie bitte auf den Link in der Bestätigungs-E-Mail.

Du willst weitere Informationen zum Newsletter? Jetzt mehr erfahren

Die mobile Version verlassen