Mit dem KI-Modus Google verabschiedet sich von der klassischen Suchmaschine. Statt Linklisten liefert KI nun direkte Antworten – mit weitreichenden Konsequenzen für Datenschutz und Nutzerkontrolle. Aus Carl Christian Müller Und Tori Gleisinger.
Google hat nachgelegt: Nach der Einführung von „AI Overviews“ Ende März 2025 geht das Unternehmen den nächsten Schritt. Die Suche im Internet wird zur Unterhaltung: Nutzer treten in einen fortlaufenden Dialog mit der KI, die den Kontext und die Geschichte bestimmt. bberücksichtigt.
Der Neue KI-Modus verändert die Grundlage der Informationssuche auf zwei Arten.
Erstens: Während die KI-Übersichten die Trefferliste ergänzten, ersetzt die KI-Modus sie vollständig. Anstelle einer Linkliste erscheint eine formulierte, KI-generierte Antwort, die Inhalte aus verschiedenen Quellen synthetisiert. Nutzer gelangen direkt in einen Konversationsmodus mit der Google-KI, inklusive Anschlussfragen und vertiefenden Informationen.
Zweitens: Der Fokus verlagert sich von der reinen Stichwortsuche hin zur Nutzerabsicht. Der KI-Modus nicht nur Analysen, Was wird gesucht, aber auch Warum.
Offiziell begründet Google diesen Schritt mit veränderten Nutzergewohnheiten. Tatsächlich reagiert das Unternehmen auf die durch ChatGPT ausgelöste Marktverschiebung: Der Chatbot, der inzwischen wöchentlich über 800 Millionen aktive Nutzer hat, hat Google auf seinem ganz eigenen Gebiet herausgefordert: der Internetsuche. Die Antwort von Google darauf lautet: KI-Modus – und es markiert den Beginn einer neuen Ära der digitalen Profilbildung.
Aus Suchanfragen werden Persönlichkeitsprofile
Bisher verfügt Google über überraschend detaillierte Nutzerdaten. Aus Suchverläufen, Standortdaten, E-Mails und Videonutzung lässt sich längst ein aussagekräftiges Verhaltensprofil ableiten. Neu im AI Mode ist jedoch, dass Google nun Zugriff auf eine ganz andere Kategorie von Daten hat: den sprachlichen und kognitiven Ausdruck des Nutzers.
Wer mit der KI spricht, verrät unweigerlich, wie er denkt, wie strukturiert, einfühlsam, unsicher oder ironisch er formuliert, welche Wortfelder er bevorzugt und welche Denkmuster seine Sprache prägen. Aus diesen Dialogen lassen sich Denkstile, Emotionstypen und Bildungsniveaus ableiten, also Informationen, die bisher nur psychologische Tests lieferten.
In Kombination mit Daten aus Gmail, Maps, YouTube oder Wallet würde nicht nur ein Interessenprofil erstellt, sondern eine digitale Charakterbeschreibung, ein psycholinguistisches Bild der Person. Diese neue Form des Profilings ging weit über das bisher technisch Mögliche hinaus. Das Risiko liegt nicht nur in der Datenmenge, sondern auch in der semantischen Tiefe der neuen Signale.
Automatisierte Assessments könnten Kommunikationsfähigkeiten im Rahmen von Bewerbungen beurteilen, psychische Belastungen als Risikofaktor für Versicherungen bewerten oder bestimmte Angebotscluster systematisch ausschließen. Die Gefahr algorithmischer „Soft Discrimination“ ist offensichtlich, insbesondere da sich aus dem Kontext und der Formulierung Merkmale wie sprachliche Unsicherheit, Ironie oder Betonung ableiten lassen.
Diskriminierung durch Daten
Ein Beispiel: Ein Student nutzt den KI-Modus, um Hilfe beim Verfassen eines Motivationsschreibens zu erhalten. Sie bittet die KI, ihre bisherigen Entwürfe zu bewerten und ihren Schreibstil zu verbessern. Aus den Dialogen erkennt Google nicht nur, dass sie an einem Stipendium im Ausland interessiert ist, sondern auch, dass sie unsichere Formulierungen verwendet, häufig Füllwörter verwendet und Schwierigkeiten hat, ihre Argumente zu strukturieren.
Kombiniert mit Standort- und Suchdaten (Universität, Wohnort, bisherige Bewerbungen) entsteht ein psycholinguistisches Kompetenzprofil, ein virtuelles Abbild Ihrer Ausdrucksfähigkeit, Motivation und ggf. auch Ihres sozialen Hintergrunds. Wird ein solches Profil später in automatisierte Auswahlprozesse eingespeist oder für Zielgruppenwerbung genutzt, ist dies möglich zu subtiler Diskriminierung führen – ohne dass die von diesem Beispiel betroffene Person davon erfährt.
Der Algorithmus diskriminiert dann zwar nicht offen, aber er diskriminiert effektiv. Und hier liegt der rechtliche Knackpunkt: Eine solche automatisierte Risikobewertung wäre nach Artikel 22 der Datenschutz-Grundverordnung (DSGVO) rechtswidrig, weil sie ohne ausdrückliche Einwilligung erfolgt und erhebliche Auswirkungen auf die Lebensgestaltung der Menschen hat. Daher lohnt es sich, genauer hinzuschauen, wie Google mit den Daten umgehter den Nutzer tatsächlich umgeht und ob zuvor erteilte Einwilligungen des Nutzers zur Datenverwendung auch für eine solche Profilerstellung gelten.
Was macht Google mit welchen Daten?
Nach den aktualisierten Datenschutzhinweisen für die Gemini-Apps, auf deren Infrastruktur AI Mode basiert, bleibt unklar, welche Datenkategorien konkret verarbeitet werden und vor allem von welchen Diensten sie stammen. Dabei nennt Google geteilte Inhalte, wie Ansagen und Sprachaufzeichnungen, sowie Kontextdaten von angebundenen Diensten, ohne offenzulegen, auf welche Weise Inwieweit diese Daten mit Gmail, YouTube, Maps oder Chrome verknüpft werden können.
Google räumt zudem ein, dass bestimmte Interaktionen, insbesondere manuell überprüfte Chats, bis zu drei Jahre gespeichert und zur Verbesserung des Modells genutzt werden. In der Mitteilung heißt es, dass einige der gesammelten Daten von Prüfern, einschließlich Dienstleistern, gelesen werden, auch wenn die Aktivitätsspeicherung deaktiviert ist. Vollständige Anonymisierung? Keiner.
Es mangelt an transparenten Informationen darüber, welche konkreten Datenarten, Dienste und Zwecke betroffen sind. Angesichts der tiefen Integration von Gemini in Android und seiner Verbindung zur Google-Suche ist es schwer, eine datenübergreifende Zusammenführung verschiedener Produkte auszuschließen. Fest steht jedenfalls: Die genauen Mechanismen der datenübergreifenden Zusammenführung werden nicht offengelegt, ebenso wenig die eingesetzten Algorithmen, was gegen das Transparenzgebot des Art. 5 Abs. 1 lit. a DSGVO verstößt.
Gilt die bisherige Einwilligung auch für die neue? KI-Modus?
Google geht offenbar davon aus, dass die bereits erteilte Einwilligung der Nutzer zu Google-Diensten auch für den AI-Modus gilt, wenn sie in ihren Kontoeinstellungen „Web- & App-Aktivitäten“ aktiviert haben. Nach Auffassung des Unternehmens sollte diese Einwilligung auch eine Verarbeitung im Rahmen des Datenschutzes umfassen KI-Modus Abdeckung. Dies ist zumindest rechtlich riskant.
Nach dem datenschutzrechtlichen Grundsatz der Zweckbindung darf eine einmal erteilte Einwilligung nicht automatisch auf neue, qualitativ andere Verarbeitungsvorgänge ausgeweitet werden. Die ursprüngliche Einwilligung bezog sich auf die klassische Suchfunktion – nicht auf eine KI-basierte, dialogische Interaktion, bei der persönliche Eingaben gespeichert, analysiert und zu Trainingszwecken weiterverarbeitet werden.
Begründet Google die Verarbeitung der im Rahmen der Gemini-Apps anfallenden Daten damit, dass diese für die Vertragserfüllung erforderlich sei, kommt ein neuer Aspekt hinzu: Nach eigenen Datenschutzhinweisen umfasst die Datenverwendung auch Kategorien, die über das zur reinen Vertragserfüllung erforderliche Maß hinausgehen. Hierzu zählen insbesondere Standortdaten, Informationen aus angebundenen Google-Diensten, wie etwa der Such- oder YouTube-Verlauf, sowie Anruf- und Nachrichtenprotokolle bei Nutzung verlinkter Apps.
Damit verbleibt als mögliche Rechtsgrundlage das berechtigte Interesse gemäß Art. 6 Abs. 1 lit. f DSGVO, auf das Google in den Gemini-Hinweisen ausdrücklich verweist. Die Verarbeitung dient dann der Gewährleistung der Sicherheit und der Verbesserung der Modelle.
Meta-Urteil des OLG Köln findet keine Anwendung KI-Modus übertragbar
Dass dies ausreicht, ist aber nicht rechtssicher: Das Oberlandesgericht (OLG) Köln hat in einer Entscheidung zu Meta klargestellt, dass von einem berechtigten Interesse auszugehen ist, wenn die Daten öffentlich zugänglich sind, sie vor der Einspeisung in die Trainingssoftware anonymisiert wurden und die Nutzer der Verarbeitung widersprechen können (Urteil vom 23.05.2025, Az. 15 U Kl 2/25). Im Fall von KI-Modus Nun gibt es ein Problem: Auch bei einer Anonymisierung durch Google blieben die Daten weiterhin mit dem Nutzerkonto verknüpft. Zudem stammen sie nicht aus öffentlich zugänglichen Quellen.
Was die Sache noch schlimmer macht, ist, dass… KI-Modus ist offenbar so konzipiert, dass es künftig auch auf Daten anderer Google-Dienste wie Gmail, YouTube oder Android zugreifen und diese nutzen kann. Entsprechende Hinweise finden sich bereits in den Datenschutzhinweisen und der engen Einbindung des KI-Modi in das Google-Ökosystem. Sofern es tatsächlich zu einer solchen dienstübergreifenden Verknüpfung kommt, zieht Art. 5 Abs. 2 Buchst. b des Digitalmarktgesetzes (Digital Markets Act) eine klare Grenze: Ohne die ausdrückliche, aktive Einwilligung der Nutzer dürfen personenbezogene Daten nicht dienstübergreifend zusammengeführt werden.
Bloße Nutzungseinstellungen oder das Vorhandensein eines Google-Kontos reichen nicht aus, um eine Einwilligung zu akzeptieren. Ohne die ausdrücklich eingeholte, informierte und freiwillige Einwilligung zur dienstübergreifenden Datenverknüpfung wäre es für die Praxis von Google schwierig, die Anforderungen der DSGVO und die Anforderungen des DMA einzuhalten.
Google rechnet mit Milliardenstrafen
Für einen Dienst, der tief in das persönliche Kommunikations- und Nutzungsverhalten eingreift, wird die Forderung nach einem klaren, überprüfbaren Opt-in noch wichtiger. Dass Google diesen Anforderungen gerecht wird, erscheint fraglich, denn das Muster ist immer dasselbe: Erst Fakten schaffen, dann Rechtsfragen klären.
Der Tech-Riese rechnet offenbar von Anfang an mit Milliardenstrafen, solange die unumstrittene Hoheit über Datenmengen und Nutzerprofile nicht ernsthaft gefährdet wird: Erst im Sommer verhängte die EU-Kommission eine Rekordstrafe von 2,95 Milliarden Euro wegen DMA-Verstößen. Dies bleibt für den Konzern, der allein im dritten Quartal 2025 einen Gewinn von rund 34,5 Milliarden US-Dollar erwirtschaftete, finanziell überschaubar.
Der Konzern befürchtet vielmehr die von der Kommission geforderten Strukturvorgaben, die das Geschäftsmodell und die Marktmacht von Google langfristig grundlegend verändern könnten, etwa die organisatorische Trennung einzelner Geschäftsbereiche oder zusätzliche Compliance-Pflichten.
Der Konflikt mit Brüssel ist daher vorprogrammiert. Der Druck ist zu groß, als dass Google im Rennen mit Anbietern wie Perplexity oder ChatGPT einen entscheidenden Vorsprung in Sachen Datenpower behaupten könnte.
Der Autor Carl Christian Müller, LL.M. ist Rechtsanwalt und Partner der Anwaltskanzlei Mueller.legal Rechtsanwälte mit Sitz in Berlin, die sich unter anderem auf Medien-, Urheber-, Presse- und Meinungsäußerungsrecht, Gewerblichen Rechtsschutz sowie Fahrgastrechte und Bankrecht spezialisiert hat. Darüber hinaus ist er Rechtsberater des Deutschen Medienverbandes (DMV).
Die Autorin Tori Gleisinger arbeitet seit 2023 als wissenschaftliche Mitarbeiterin bei Mueller.legal Rechtsanwälte mit einem Schwerpunkt im Plattformrecht, insbesondere der Haftung von VLOPs. Ihr Jurastudium absolvierte sie an der Humboldt-Universität zu Berlin.
Zitiervorschlag
Neuer KI-Modus: . In: Legal Tribune Online, 7. November 2025, https://www.lto.de/persistent/a_id/58558 (abgerufen am: 9. November 2025)
Informationen zum Zitiervorschlag
