KI-Funktion bleibt fest verankert trotz angeblicher Freiwilligkeit
WhatsApp behauptet, die neue KI-Chatfunktion sei freiwillig – obwohl sie nicht aus der App entfernt werden kann.
Das Meta-AI-Logo, ein blauer Kreis mit bunten Akzenten, bleibt dauerhaft unten rechts im Chat sichtbar.
Ein Tipp darauf öffnet einen digitalen Assistenten, der Fragen mit KI-generierten Antworten beantwortet.
Viele Nutzer äußern Frust, da sich die Funktion nicht deaktivieren oder ausblenden lässt.
Ähnliche Kritik traf Microsofts Funktion “Recall”, die nach Beschwerden ebenfalls abschaltbar gemacht wurde.
WhatsApp betont, man höre auf Nutzer und sehe im Anbieten solcher Funktionen einen Mehrwert.
Der Konzern vergleicht den Assistenten mit dauerhaften Features wie ‘Kanäle’ und ‘Status’ in der App.
Zeitgleich kündigte Meta neue Schutzfunktionen für jugendliche Nutzerkonten auf Instagram an.
In den USA testet Meta außerdem KI-Technologie, um falsche Altersangaben auf Instagram zu erkennen.
Beschränkter Rollout sorgt für Verwirrung
Nicht alle Nutzer sehen das neue Symbol – die Funktion wird nur in ausgewählten Ländern aktiviert.
Selbst innerhalb eines Landes kann die Verfügbarkeit unterschiedlich sein – manche sehen sie, andere nicht.
Zusätzlich erscheint oben in WhatsApp eine Suchleiste mit dem Hinweis „Meta AI fragen oder durchsuchen“.
Diese Funktion gibt es auch in Facebook Messenger und Instagram, beides Meta-Dienste.
Die KI basiert auf dem Sprachmodell Llama 4, einem Teil von Metas größerem KI-System.
Vor der ersten Nutzung zeigt WhatsApp einen langen Hinweis, dass Meta AI freiwillig sei und helfen könne.
Man kann etwa nach dem Wetter fragen – die Antwort kommt schnell und mit vielen Details.
Allerdings liefert die KI nicht immer präzise Ergebnisse – etwa mit Wetterdaten aus London statt Glasgow.
Nutzer und Experten warnen vor Datenschutzrisiken
In Europa häuft sich die Kritik auf Plattformen wie X, Bluesky und Reddit.
Kolumnistin Polly Hudson beschwerte sich, dass die Funktion nicht abschaltbar sei – wie viele andere Nutzer.
KI- und Datenschutzberater Dr. Kris Shrishak verurteilte Metas Vorgehen scharf.
Er warf Meta vor, Menschen ungefragt als Testpersonen für ihre KI-Systeme einzusetzen.
Er betonte, niemand dürfe zur Nutzung von KI gezwungen werden.
Shrishak bezeichnete Metas Datenstrategie als grundlegend problematisch und datenschutzfeindlich.
Er erklärte, Meta habe mit Web-Scraping persönliche Daten sowie gestohlene Bücher für Trainingszwecke verwendet.
Laut Shrishak dient die neue Funktion möglicherweise dazu, alternative Datenquellen zu erschließen.
Eine Recherche ergab, dass Meta mutmaßlich Millionen Bücher über die Plattform Library Genesis bezog.
Autorenverbände weltweit fordern nun politische Maßnahmen gegen solche Praktiken.
Meta sieht sich bereits mit Klagen von Schriftstellern konfrontiert, die sich gegen die Nutzung ihrer Werke wehren.
Auf Fragen zu dieser Recherche äußerte sich Meta nicht.
Behörden und Experten warnen vor unbemerktem Datenabfluss
Bei der ersten Nutzung erklärt WhatsApp, dass Meta AI nur direkt eingegebene Nachrichten lesen kann.
Meta betont, dass private Chats weiterhin durch Ende-zu-Ende-Verschlüsselung geschützt bleiben.
Die britische Datenschutzbehörde kündigte an, Metas KI-Einsatz in WhatsApp weiter zu beobachten.
Sie erklärte, Vertrauen sei entscheidend, wenn persönliche Daten für Innovationen genutzt würden.
Organisationen müssten alle Datenschutzpflichten einhalten – besonders beim Umgang mit Kinderprofilen.
Dr. Shrishak warnte, dass bei Meta AI immer das Unternehmen selbst am anderen Ende steht – nicht der Freund.
Er rät, keine vertraulichen oder sensiblen Informationen an die KI weiterzugeben.
Auch Meta selbst rät davon ab, Inhalte zu teilen, die später vom System genutzt oder gespeichert werden könnten.