• Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten
Nachrichtenportal Deutschland
  • Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten
No Result
View All Result
  • Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten
No Result
View All Result
Nachrichtenportal Deutschland
No Result
View All Result

Warum OpenAI damit droht, Benutzer zu blockieren, die zu genau nachforschen

Emma by Emma
September 20, 2024
in Wirtschaftsnachrichten
Warum OpenAI damit droht, Benutzer zu blockieren, die zu genau nachforschen

OpenAI hatte mit dem „Strawberry“-Modell KI-Modelle der „nächsten Generation“ versprochen. Und schon kurz nach der Veröffentlichung wurde klar, dass es sich dabei um eine äußerst behütete Generation handelte.

Wie unter anderem Marco Figueroa zu X berichtete, beobachtet OpenAI genau, wer sich in seinen Augen zu sehr dafür interessiert, wie die sogenannten o1-Modelle funktionieren. Der GenAI Bug Bounty Programs Manager bei Mozilla teilte eine entsprechende E-Mail zu X, woraufhin OpenAI ihn auf eine Sperrliste setzte.

Empfohlener redaktioneller Inhalt

Hier finden Sie externe Inhalte von : XCorp.die unser redaktionelles Angebot auf t3n.de ergänzen. Mit dem Klick auf „Inhalte anzeigen“ stimmst du zu, dass wir dir jetzt und in Zukunft Inhalte von : XCorp. auf unseren Seiten angezeigt werden. Personenbezogene Daten können an Plattformen Dritter übermittelt werden.

Hinweis zum Datenschutz

Leider ist etwas schiefgelaufen…

Hier finden Sie in der Regel externe Inhalte von : XCorp.Wir konnten Ihre Zustimmungseinstellungen jedoch nicht abrufen.
Laden Sie die Seite neu oder passen Sie Ihre Einwilligungseinstellungen manuell an.

Verstöße gegen die Richtlinien können zur Sperrung führen

Dort heißt es unter anderem, dass bestimmte Anfragen von Nutzern wegen Verstößen gegen Richtlinien zur Umgehung von Schutz- oder Sicherheitsmaßnahmen aufgefallen seien. Darauf folgt folgende Aufforderung: „Bitte beenden Sie diese Aktivität und stellen Sie sicher, dass Sie ChatGPT in Übereinstimmung mit unseren Servicebedingungen und unserer Richtlinie zur akzeptablen Nutzung verwenden.“

Empfehlungen der Redaktion

Die Empfänger der E-Mail werden außerdem gewarnt, dass weitere Verstöße zum Verlust des Zugriffs auf GPT-4o führen könnten. Ebenfalls auf X meldete ein anderer Benutzer, dass er dieselbe E-Mail erhalten habe, nachdem er den Begriff „Argumentation Trace“ verwendet hatte.

Empfohlener redaktioneller Inhalt

Hier finden Sie externe Inhalte von : XCorp.die unser redaktionelles Angebot auf t3n.de ergänzen. Mit dem Klick auf „Inhalte anzeigen“ stimmst du zu, dass wir dir jetzt und in Zukunft Inhalte von : XCorp. auf unseren Seiten angezeigt werden. Personenbezogene Daten können an Plattformen Dritter übermittelt werden.

Hinweis zum Datenschutz

Leider ist etwas schiefgelaufen…

Hier finden Sie in der Regel externe Inhalte von : XCorp.Wir konnten Ihre Zustimmungseinstellungen jedoch nicht abrufen.
Laden Sie die Seite neu oder passen Sie Ihre Einwilligungseinstellungen manuell an.

Der Denkprozess des Modells soll geheim bleiben

Wieder andere Nutzer meinten, OpenAI würde jedem schreiben, der das KI-Modell nach seiner Begründung fragt. Und im Fall der o1-Modelle ist das wirklich etwas Besonderes.

Während die bisherigen Modelle vor allem auf generative Aufgaben und die Verarbeitung natürlicher Sprache spezialisiert waren, durchlaufen die neuen Modelle einen Problemlösungsprozess, der es ihnen ermöglicht, komplexe Probleme zu lösen. Wie dieser Prozess genau aussieht, will OpenAI allerdings nicht verraten.

Wettbewerbsvorteile sind besser als Transparenz

Den Nutzern wird lediglich eine gefilterte Interpretation dieses Vorgangs angezeigt, die von einem zweiten KI-Modell generiert wird. Auf seinem Blog begründet OpenAI dieses Vorgehen damit, dass man den Roh-Feed für den eigenen Gebrauch und Wettbewerbsvorteile schützen müsse.

Ars Technica ist nicht der einzige, der darin einen Versuch sieht, die eigene Technologie vor der Konkurrenz zu schützen. Schließlich ist es kein Geheimnis, dass diverse Forscher die Ergebnisse von ChatGPT-4 natürlich genutzt haben, um ihre eigenen KI-Modelle zu trainieren.

OpenAI scheint jedoch bewusst in Kauf zu nehmen, dass diese Entscheidung auch zu einem großen Verlust an Transparenz und Vertrauen in die KI-Technologie führen wird.

15 lustige, von KI generierte Bilder

Eine Drachenfrucht im Schnee mit Karategürtel – Dieses Bild wurde von Google Imagen erstellt.

15 lustige, von KI generierte Bilder

Verpassen Sie keine Neuigkeiten rund um Software & Entwicklung 💌

Leider ist ein Problem beim Absenden des Formulars aufgetreten. Bitte versuchen Sie es erneut.

Bitte geben Sie eine gültige E-Mail-Adresse ein.

Hinweis zum Newsletter & Datenschutz

Fast fertig!

Um Ihre Anmeldung abzuschließen, klicken Sie bitte auf den Link in der Bestätigungs-E-Mail.

Du willst weitere Informationen zum Newsletter? Jetzt mehr erfahren

Previous Post

Skorpion in Kiel: 30-Jähriger berichtet von Begegnung

Next Post

Trans-Politikerin Tessa Ganserer sorgt mit Foto für Shitstorm

Nachrichtenportal Deutschland

© 2024 Mix9P

  • Home
  • Conditions d’utilisation
  • Kontaktiere uns
  • DMCA
  • Datenschutzrichtlinie
  • Cookie-Datenschutzrichtlinie

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
  • Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten

© 2024 Mix9P