Google kündigt Kombi-Suche mit Google Lens an
Bei Google arbeiten viele Entwickler*innen daran, die Suche weiterhin zu verbessern. So soll sich vieles ändern. Die reine textbasierte Suche soll abgelöst werden, durch eine „natürliche Art und Weise“, wie wir nach Inhalten suchen: visuell, mit unseren Stimmen oder multidimensional mit Text, Stimme und Bildern.
Rajan Patel, Google-Entwickler für die Suche, erklärte im Zuge des Search On 2022 Events die Mission, die sich das Unternehmen zum Ziel gesetzt hat: „Wir möchten bei Google ein Sucherlebnis schaffen, das an unser Gehirn angepasst ist. Dazu müssen wir lernen, multidimensionale Sucherlebnisse zu schaffen, die Sinn ergeben.“
Kombi-Suche auf Deutsch
Patel hat diesbezüglich eine Reihe von Neuerungen angekündigt. Einige davon betreffen die visuelle Suche bei Google Lens. Derzeit würden etwa 8 Milliarden visuelle Suchen pro Monat mit Google Lens durchgeführt, heißt es. Man möchte künftig aber vermehrt multifunktionale Sucherlebnisse anbieten. Das könnte dann so aussehen, dass man ein Foto macht, einen Screenshot verwendet und einen Text hinzufügt, um mit Google Lens zu suchen.
Diese Kombi-Suche soll als erstes auf Englisch verfügbar sein und bald in 70 Sprachen folgen, auch auf Deutsch. Ein Beispiel: Gefällt jemandem ein bestimmtes Muster von einem Hemd, kann er die Suche um Krawatten erweitern, um diese mit dem bestimmten Muster angezeigt zu bekommen.
Was noch neu wird
Google kündigt weiter ein Übersetzungs-Update für Google Lens an, das durch eine künstliche Intelligenz (KI) durchgeführt wird. Dank großer Fortschritte im Bereich des maschinellen Lernens ist Google in der Lage, übersetzten Text in komplexe Bilder einzubinden, sodass dieser natürlich in den vorhandenen Hintergrund eingeblendet wird. Dazu wurde ein neuronales Netz darauf trainiert, zu erraten, wie der Hintergrund eines Bildes ohne Text aussieht.
Anstatt den Originaltext zu überdecken, löscht Google diesen, erstellt KI-generierten Hintergrund und legt übersetzten Text über das Bild. Diese Entwicklung soll noch dieses Jahr kommen, auch im deutschsprachigen Raum. In den USA wird es auch bald eine Funktion geben, die für lokale Geschäfte interessant werden dürfte: Mit „In meiner Nähe“ gibt es bereits eine beliebte Funktion, um etwa Restaurants der Umgebung ausfindig zu machen. Im Laufe des Herbsts soll diese „In meiner Nähe"-Funktion in den USA zur „Multisearch“ (Kombi-Suche) werden, ergo man kann danach auch mit Foto suchen. Dann würde es reichen, ein Foto eines Nudelgerichts einzuspielen, um passende Restaurants angezeigt zu bekommen.
Scrollen soll zu wertvollen Ergebnissen führen
Google hat sich aber noch mehr einfallen lassen: Anhand von Shortcuts zu hilfreichen Google-Tools, wie Google News oder Google Bilder, konnten Nutzer*innen bisher über den Desktop-Computer schnell und effizient suchen. Nun bietet Google die Funktion auch in der Google-App an (neben Android auch für iOS).
Man wird künftig auch etwa tiefere und verschiedene Antworten auf Fragestellungen angezeigt bekommen. Wenn man etwa nach Mexiko sucht, bekommen Nutzer*innen auch angezeigt, was die beste Stadt in Mexiko für Familien sei, heißt es bei der Präsentation. Dazu müssen Nutzer*innen lediglich ein Stück nach unten scrollen. „Die Prämisse „je weiter nach unten man scrollt, desto irrelevanter die Ergebnisse“ gilt nicht mehr. Wir wollen auch weiter unten wirklich sinnvolle Ergebnisse anzeigen“, sagt Patel. Man werde sich hier viele Inspirationen über die Suche holen können, heißt es.
In der Praxis läuft das so ab: Wenn Nutzer*innen künftig in das Suchfeld Fragen tippen, bieten Google Optionen für Schlüsselwörter oder Themen an, die ihnen helfen, ihre Frage richtig auszuformulieren. Diese Funktion wird allerdings zu Beginn nur in englischer Sprache verfügbar sein.
Neue Luftbilder von Sehenswürdigkeiten
Auch bei Google Maps, das 2005 eingeführt wurde, wird es einige Verbesserungen geben. Diese stellte Miriam Daniel vom Maps Team vor. Man soll auf Google Maps, etwa bei "Highlights", den „Vibe“ in der Nachbarschaft besser abgebildet sehen, heißt es.
Anhand der Funktion "Highlights" können Nutzer*innen einen Stadtteil auswählen und sehen, wie dort beliebte Orte - dank hilfreicher Fotos und Informationen aus der Google Maps-Community - direkt auf der Karte zum Leben erwachen. Damit sollen Nutzer*innen die Gelegenheit erhalten, sich einen authentischen Eindruck von einer bestimmten Gegend machen zu können. Diese Funktion soll in den nächsten Monaten sowohl für Android als auch für iOS-Nutzer*innen zur Verfügung stehen.
"Live View" vorerst auf 6 Städte begrenzt
Auch soll es bald einen „Live-View“ in Maps geben. Wer etwa in Paris in einem Café sitzt, soll über Google Maps herausfinden können, wo die nächsten Galerien, Bankomaten, etc. sind. Diese Funktion wird allerdings zuerst auf 6 Städte begrenzt sein, darunter London, Paris oder New York.
Von einigen Städten und Sehenswürdigkeiten gibt es zudem bereits Luftbilder, die bestimmte Wahrzeichen von oben aus der Vogelperspektive zeigen. Am Mittwoch kommen 250 neue Fotos mit Luftaufnahmen dazu, etwa vom Tokio Tower oder der Akropolis. Für die Ansicht wird KI mit Milliarden von hochauflösenden Street View-, Satelliten- und Luftbildern kombiniert.
Um sich fotorealistische Luftaufnahmen anzuschauen, können Nutzer*innen in Google Maps nach einer Sehenswürdigkeit suchen und danach direkt in den Fotos-Bereich gehen.
Spritspar-Funktion kann von Unternehmen genutzt werden
Neu präsentiert wurde auch, dass Google die Spritspar-Funktion von Google Maps auch für Entwickler*innen öffnen möchte. In Österreich wurde vor kurzem die Spritspar-Funktion eingeführt, mit der man neben der schnellsten Route auch die spritsparendste in Google Maps einstellen kann. Unternehmen wie etwa Liefer- oder Mitfahrdienste sollen diese Funktion ebenfalls nutzen können. Oder Betriebe können damit Menschen auf einem umweltfreundlichen Weg zu ihrem Geschäft zu lotsen. Diese neue Funktion soll bis "spätestens Ende des Jahres" freigeschaltet werden.