Google verwendet KI (nicht Bard!), um Google Lens zu verbessern

Wie das Unternehmen feststellt: „Seit den Anfängen der Suche hat uns die KI beim Sprachverständnis geholfen und die Ergebnisse hilfreicher gemacht. Im Laufe der Jahre haben wir unsere Investitionen in die KI vertieft und können jetzt Informationen in ihren vielen Formen verstehen – aus der Sprache vom Verstehen von Bildern zum Verstehen von Bildern, zum Verstehen von Videos und sogar zum Verstehen der realen Welt. Heute teilen wir einige neue Möglichkeiten, wie wir unsere Fortschritte in der KI anwenden, um das Erkunden von Informationen noch natürlicher und intuitiver zu gestalten.”

Google Lens durchsucht jetzt Ihren Bildschirm

Die erste Google-Funktion, über die wir sprechen werden, ist Google Lens, eine KI-gestützte Suchmaschine, die Ihre Fotos oder Live-Kameravorschauen anstelle von Wörtern verwendet. Lassen Sie sich überraschen? Lens wird jeden Monat über 10 Milliarden Mal verwendet. In den kommenden Monaten wird ein Update für Lens verbreitet, das es Android-Nutzern ermöglicht, „Ihren Bildschirm zu durchsuchen“. Nach dem Update können Sie mit Lens nach Fotos und Videos von Websites und Messaging- und Video-Apps suchen, ohne die App verlassen zu müssen. Cool.

Google gibt ein Beispiel. „Angenommen, Ihr Freund sendet Ihnen eine Nachricht mit einem Video, in dem er Paris erkundet. Wenn Sie mehr über das Wahrzeichen erfahren möchten, das Sie im Hintergrund sehen, können Sie einfach lange auf die Ein-/Aus-Taste oder die Home-Taste Ihres Android-Telefons drücken (wodurch Ihr Smartphone aufgerufen wird). Google Assistant) und tippen Sie dann auf „Suchbildschirm. Lens identifiziert es als Luxembourg Palace und Sie können klicken, um mehr zu erfahren.”
Die Multisuche von Google ermöglicht es Benutzern, mit Google Lens nach Text und Bildern gleichzeitig zu suchen. Angenommen, Sie möchten nach einem bestimmten Element suchen. In der Google-App tippen Sie rechts neben der Suchleiste oben auf dem Display auf das Lens-Symbol. Angenommen, Sie möchten herausfinden, wo Sie Lindy’s Homemade Italian Ice kaufen können. Sie machen also ein Foto von einem Container. Aber angenommen, Sie suchen nach einem bestimmten Geschmack. So können Sie diese Informationen hinzufügen.

Multisearch wird bald für lokale Suchen “in Ihrer Nähe” verfügbar sein

Nachdem Sie das Bild aufgenommen haben, werden die Ergebnisse teilweise unten auf dem Bildschirm angezeigt. Ziehen Sie den Tab-Halter nach oben und Sie sehen die Ergebnisse Ihrer Lens-Suche mit einer Schaltfläche oben, auf der „+Zu Ihrer Suche hinzufügen“ steht. Tippen Sie auf diese Schaltfläche und es erscheint ein Feld, in dem Sie Text hinzufügen können. In diesem Fall möchten wir Lindys Wassermeloneneis finden, also geben wir „watermelon“ ein und tippen auf das Lupensymbol unten rechts im QWERTZ (wo normalerweise „Enter“ steht) und Sie erhalten eine gezieltere Ergebnisseite .

Multisearch ist weltweit auf Mobilgeräten und in allen Sprachen und Ländern verfügbar, in denen Sie die Google Lens-Funktion verwenden können. Aber du kannst jetzt lokal suchen, indem du die Wörter „in meiner Nähe“ zu einer Lens-Suche hinzufügst, um zu finden, was du in deiner Nähe haben möchtest. Diese Funktion ist ab sofort in englischer Sprache für US-Benutzer verfügbar und wird in den kommenden Monaten weltweit hinzugefügt. Und noch spannender: In den kommenden Monaten können Sie die Mehrfachsuche für jedes Bild verwenden, das auf der mobilen Google-Suchergebnisseite gefunden wird.

Google gibt mal wieder ein Beispiel. „Zum Beispiel suchst du vielleicht nach „modernen Wohnzimmerideen“ und siehst einen Couchtisch, den du liebst, aber du würdest ihn in einer anderen Form bevorzugen – sagen wir, ein Rechteck statt eines Kreises. Das kannst du Verwenden Sie die Mehrfachsuche, um den Text „Rechteck” hinzuzufügen, um den gesuchten Stil zu finden. Wir schaffen Sucherlebnisse, die natürlicher und visueller sind – aber wir haben nur an der Oberfläche gekratzt. In Zukunft mit Hilfe von KI , die Möglichkeiten werden endlos sein.”

source site-33