Fake-Bewertungen auf Google Maps sind für Unternehmen mehr als nur ein Ärgernis. Sie schädigen den Ruf und beeinflussen Kaufentscheidungen nachhaltig. In aktuellen Beiträgen auf dem eigenen Unternehmensblog präsentiert Google kommende Features, mit denen künftig gegen Spam-Reviews vorgegangen werden soll. Besonders interessant ist dabei, wie die Google-KI Gemini zum Einsatz kommt.
Google Maps als kritische Informationsquelle
Google Maps gehört zu den wichtigsten Plattformen für lokale Kaufentscheidungen. Der Anspruch an die Datenqualität ist entsprechend hoch.
Laut Google wurden allein im Jahr 2025 über 1 Milliarde Bewertungen veröffentlicht und rund 80 Millionen Änderungen an Unternehmensprofilen vorgeschlagen.
Diese Menge an nutzergenerierten Inhalten macht deutlich: Ohne automatisierte Systeme ist Qualitätskontrolle in diesem Umfang nicht machbar.
Wie nutzt Google Gemini zur Moderation?
Google hat offiziell bestätigt, dass Gemini-Modelle aktiv zur Erkennung von Missbrauch bei Maps-Bewertungen eingesetzt werden.
Konkret geht es um:
- Gefälschte Unternehmensprofile
- Manipulierte Inhalte
- Spam-Bewertungen (falsche 1-Stern-Reviews)
- Fake-Bewertungen (z. B. künstlich erzeugte positive Bewertungen)
Gemini analysiert Inhalte dabei nicht isoliert, sondern im Kontext von Mustern und Auffälligkeiten.
Quellen:
https://blog.google/products-and-platforms/products/maps/google-business-profiles-ai-fake-reviews/
Wie erkennt Gemini Fake-Bewertungen?
Zentrales Element in Googles Strategie ist die Mustererkennung. Die Systeme sind darauf ausgelegt, ungewöhnliche Aktivitätsmuster und verdächtige Häufungen von Bewertungen zu identifizieren — und damit koordinierte oder betrügerische Aktionen aufzudecken.
Im offiziellen Wortlaut spricht Google von der Erkennung von „scam patterns“.
Es geht also nicht um Einzelfall- oder Stichprobenprüfungen, sondern um die Analyse von Mustern, Verhalten und Zusammenhängen.
Strategiewechsel: Fake-Bewertungen werden vor Veröffentlichung gestoppt
Besonders relevant ist der Wandel in der Moderationsstrategie. Früher lag der Fokus darauf, problematische Inhalte nachträglich zu entfernen.
Google geht jetzt einen Schritt weiter. Verdächtige Inhalte werden bereits vor der Veröffentlichung blockiert.
Konkret heisst das: Fake-Bewertungen werden gar nicht erst sichtbar, weil die Inhalte bei auffälligen Aktivitäten automatisch blockiert werden.
Kommt es zu einer solchen Auffälligkeit, wird ausserdem für kurze Zeit unterbunden, neue Rezensionen zum betroffenen Unternehmen zu posten — und das gilt für alle Google-Maps-Nutzer. Der Unternehmensinhaber wird über diese Einschränkung informiert.
Neu ist ausserdem, dass Google die Rolle der Unternehmen selbst weiter stärken will. Proaktive E-Mail-Benachrichtigungen sollen Inhabern ermöglichen, vorgeschlagene Änderungen an ihrer Unternehmensseite zu prüfen — und bei Bedarf abzulehnen — bevor diese live gehen.
Für Unternehmen ist das ein spürbarer Fortschritt beim Schutz ihrer Reputation.
Setzt Google Maps ausschliesslich KI zur Überprüfung ein?
Nein. Google setzt trotz aller Fortschritte nicht ausschliesslich auf vollautomatisierte Prozesse. Es ist ein hybrider Ansatz: Gemini übernimmt Skalierung und Mustererkennung, menschliche Analysten bewerten weiterhin komplexere Fälle.
Die KI übernimmt die Masse. Der Mensch behält die Feinjustierung.
Die Zahlen aus 2025 zeigen die Dimension: über 292 Millionen Bewertungen wurden entfernt oder blockiert, rund 79 Millionen Änderungen als unzulässig erkannt.
Welche Details sind nicht bestätigt?
Einige Details bleiben offen. Offiziell nicht bestätigt sind bisher die konkreten Prüfmechanismen einzelner Bewertungen sowie die genaue Gewichtung von 1- oder 5-Sterne-Bewertungen beim Vorgehen.
Die offiziellen Aussagen zeigen aber klar, wohin es geht: weg von reaktiver Moderation, hin zu präventiver Erkennung von Fake-Bewertungen durch KI.