„Datenvoid“: Google gibt keine Antworten mehr auf dumme Fragen | Google

Google wird aufhören, dumme Fragen bissig zu beantworten, hat das Unternehmen angekündigt, da es versucht, den „Featured Snippets“-Dienst seiner Suchmaschine zu verbessern.

Das bedeutet, dass Benutzer weniger Antworten auf Fragen wie „Wann hat Snoopy Abraham Lincoln ermordet?“ sehen sollten, auf die der Dienst früher fröhlich mit „1865“ antwortete – das richtige Datum, aber der falsche Attentäter.

„Dies ist eindeutig nicht die hilfreichste Art, dieses Ergebnis anzuzeigen“, sagte der Head of Search des Unternehmens, Pandu Nayak, in einem Blogpost, der die Änderungen ankündigt. „Wir haben unsere Systeme darauf trainiert, diese Art falscher Prämissen besser zu erkennen, die nicht sehr häufig vorkommen, aber es gibt Fälle, in denen es nicht hilfreich ist, ein hervorgehobenes Snippet anzuzeigen. Wir haben das Auslösen von Featured Snippets in diesen Fällen mit diesem Update um 40 % reduziert.“

Snippets, die manchmal als hervorgehobene Antwort auf direkte Fragen der Google-Suche angezeigt werden, sind seit langem ein Eckpfeiler der KI-Strategie des Unternehmens. Dieselbe Technologie treibt seine intelligenten Lautsprecher und Sprachassistenten an und lässt die Suchmaschine Suchanfragen beantworten, ohne dass Besucher auf andere Websites klicken müssen.

Genauso lange sind aber auch Google die Snippets, die automatisch aus den Inhalten von Webseiten generiert werden, ein Dorn im Auge. 2017 wurde dem Unternehmen vorgeworfen, „Fake News“ zu verbreiten, nachdem ein Featured Snippet für die Frage „Plant Obama einen Staatsstreich?“ dazu führte, dass sein Sprachassistent den Nutzern fröhlich mitteilte: „Obama plant möglicherweise tatsächlich einen kommunistischen état am Ende seiner Amtszeit im Jahr 2016“, nachdem er die Informationen auf einer Verschwörungswebsite gefunden hatte.

Andere Fehler waren komischer. Das Unternehmen teilte den Benutzern mutig mit, dass Treppen 1946 erfunden wurden – nachdem sie eine Website gelesen hatten, die diesem Datum eine bestimmte US-Sicherheitsvorschrift zuschrieb – oder wiederholte unwissentlich einen Monty-Python-Witz, wenn sie gefragt wurden: „Warum sind Feuerwehrautos rot?“

In dem Bemühen, die Grundursache solcher Fehler anzugehen, führt Google auch neue Warnungen ein, wenn ein Suchbegriff auf eine „Datenlücke“ stößt – eine Frage, auf die es möglicherweise einfach keine gute Antwort gibt.

„Es sieht so aus, als ob es nicht viele großartige Ergebnisse für diese Suche gibt“, warnt die Website jetzt Benutzer, die eine solche Suchanfrage treffen.

„Das bedeutet nicht, dass keine hilfreichen Informationen verfügbar sind oder dass ein bestimmtes Ergebnis von geringer Qualität ist“, sagt Nayak. „Diese Hinweise bieten Kontext zu allen Ergebnissen auf der Seite, und Sie können die Ergebnisse für Ihre Suchanfrage immer sehen, auch wenn die Empfehlung vorhanden ist.“

source site-27