Google wird bald damit beginnen, von politischen Werbetreibenden zu verlangen, dass sie „deutlich offenlegen“, wann sie ihre Anzeigen mit KI erstellt haben, wie zuvor von berichtet wurde Bloomberg. Laut Google müssen Werbetreibende ab November eine Offenlegung vornehmen, wenn eine Wahlwerbung „synthetische Inhalte“ enthält, die „realistisch aussehende Personen oder Ereignisse“ darstellen.
Dazu gehören politische Anzeigen, die KI verwenden, um jemanden so aussehen zu lassen, als würde er etwas sagen oder tun, was er nie getan hat, sowie das Ändern des Filmmaterials eines tatsächlichen Ereignisses (oder das Fälschen eines realistisch aussehenden), um eine Szene zu erstellen, die nie stattgefunden hat .
Google sagt, dass diese Art von Anzeigen einen Haftungsausschluss an einer „klaren und auffälligen“ Stelle enthalten müssen, und weist darauf hin, dass dieser für Bilder, Videos und Audioinhalte gilt. Auf den Etiketten müssen Angaben wie „Dieser Ton wurde computergeneriert“ oder „Dieses Bild stellt keine realen Ereignisse dar“ stehen Bloomberg. Für alle „unbedeutenden“ Optimierungen, wie das Aufhellen eines Bildes, Hintergrundbearbeitungen oder das Entfernen roter Augen mit KI, ist keine Beschriftung erforderlich.
„Angesichts der zunehmenden Verbreitung von Tools zur Erzeugung synthetischer Inhalte erweitern wir unsere Richtlinien noch einen Schritt weiter und verlangen von Werbetreibenden, offenzulegen, wenn ihre Wahlanzeigen Material enthalten, das digital verändert oder generiert wurde“, sagt ein Google-Sprecher in einer Erklärung Der Hügel. Google reagierte nicht sofort darauf The Verge’s Bitte um Kommentar.