
Google I/O 2025
Google I/O Keynote: Liveticker zum Nachlesen
Die diesjährige Google I/O steht an. Nachdem der Technologiekonzern seinem Android-Betriebssystem vergangene Woche ein eigenes Event gewidmet hat, ist die Entwicklerkonferenz dieses Jahr ganz im Zeichen der Künstlichen Intelligenz gestanden. Eine Übersicht der vorgestellten Neuigkeiten findet ihr hier.
➤ Mehr lesen: Google I/O Keynote: 8 Neuerungen, die präsentiert wurden
Und hier unseren Liveticker der Keynote zum nachlesen.
Google I/O 2025
-
Herzlichen Willkommen zu unserem Liveticker
Es dauert nicht mehr lange, dann startet die diesjährige Google I/O. Wir werden hier über sämtliche Neuerungen berichten, die Google auf seiner Entwicklerkonferenz vorstellt.
-
Schön langsam geht's los
Noch ist das Shoreline Amphitheatre in Mountain View ziemlich leer. Bald werden die Besucherinnen und Besucher hereinströmen.
-
Der Sound ist schon da
Das Musikprogramm im Vorfeld der I/O ist bereits gestartet. Reinhören lohnt sich.
-
10 Minuten noch
So wirklich dankbar ist ein Slot für einen Musiker bei einer Tech-Konferenz halt auch nicht. In 10 Minuten sollte es jedenfalls dann mit dem eigentlichen Event losgehen.
-
Gleich auf der Bühne
Der Google-CEO wartet schon hinter der Bühne auf seinen Auftritt.
-
Der Countdown läuft
Los geht es mit einem Countdown aus KI-generierten Videos. Wir sind gespannt.
© Google / Screenshot
-
Sundar Pichai ist da
Der Google-Chef eröffnet die Konferenz. Er spricht zuerst über die verschiedenen KI-Modelle, die Google in den vergangenen Monaten veröffentlicht hat. Außerdem lobt er die eigenen Gemini-Modelle, wie sie die Konkurrenz bei Vergleichen ausstechen.
© Google / Screenshot
-
Millionen KI-Nutzer
Pichai erklärt, wie die Google-Suche dazu führt, dass so viele Menschen weltweit KI verwenden wie noch nie.
© Google / Screenshot
-
Project Starline wird zu Google Beam
Das Hologramm-Videotelefonie-Tool Project Starline heißt jetzt Google Beam.
© Google / Screenshot
-
Google Meet bekommt Simultanübersetzung
Bei Meet-Videocalls kann man künftig vollautomatisch Simultanübersetzung nutzen.
-
Gemini Kamera-Sharing
Ab sofort können Android-Nutzer auch mit Gemini Live ihre Kamera und Bildschirm teilen und sich natürlich darüber unterhalten, was das Handy sieht. Das ist nun das fertige Produkt, das aus Project Astra entstanden ist.
-
Personalized Smart Replies
Gemini kann künftig Fragen, die einem per Mail gestellt werden, vollautomatisch beantworten und dabei persönliche Inhalte integrieren. Als Beispiel nennt Google das Szenario, in dem man nach Reisetipps für eine vergangene Reise gefragt wird. Künftig muss man dafür nicht mehr selbst eine Antwort formulieren. Gemini schreibt sie automatisch auf Basis von Mails oder Notizen, die es im Kontext der Reise im eigenen Account findet.
-
Gemini 2.5
Jetzt geht es um das neue Modell Gemini 2.5.
© Google / Screenshot
-
Gemini 2.5
Skizzen können in Gemini 2.5 Pro vollautomatisch in 3D-Modelle umgewandelt und in bestehenden Code integriert werden.
-
Die KI-Vision der Zukunft
Demis Hassabis von Google DeepMind legt die Vision eines so genannten "Universal AI Assistant" dar. Der KI-Assistant der Zukunft soll personalisiert, pro-aktiv und leistungsfähig sein.
Wie man sich einen solchen KI-Chatbot in Gemini Live vorstellen kann, zeigt Google im folgenden Video.
-
AI Mode für die Google-Suche
Die neue Art zu suchen wird ab sofort allen Google-Nutzerinnen und -Nutzer in den USA zur Verfügung gestellt.
-
Der nächste Schritt nach AI Overview
Einen ersten Vorgeschmack darauf bietet die „Übersicht mit KI“, die seit einigen Monaten allen Google-Nutzern angezeigt wird. Der neue KI-Modus ist der logische nächste Schritt und wesentlich ausführlicher und detaillierter als der aktuelle KI-Überblick.
Entscheidet man sich für eine Suche im „AI Mode“, bekommt man keine klassische Auflistung von Links zu sehen. Stattdessen wird eine Mischung aus Beschreibungen, Erklärungen, Aufzählungszeichen, Grafiken und Bilder sowie auch einzelnen Weblinks angezeigt.
-
AI Mode ist für komplexe Fragen gedacht
Am besten geeignet für diese Art der Suche sind komplexere Fragen. Gleichzeitig ist es auch möglich, Folgefragen zu stellen. Die KI soll dabei den jeweiligen Kontext erkennen und passende Antworten liefern.
Laut Google werden dafür leistungsstarke KI-Modelle herangezogen, bei denen fortschrittliches Reasoning im Vordergrund steht. Damit die KI nicht völlig halluziniert, werden die Suchanfragen in verschiedene Themengebiete aufgedröselt, die dann parallel durchsucht werden.
Den Link zu einer Website findet man immer noch effizienter über die herkömmliche Google-Suche, die von dem neuen KI-Modus unberührt bleibt.
-
Google wird zur virtuellen Umkleidekabine
Mit Try-on-Feature ist es möglich, Kleidungsstücke aus Online-Stores virtuell anzuprobieren. Dafür lädt man ein passendes Bild von sich selbst hoch und die errechnet daraus die Körperform, Größe usw. und erstellt ein digitales Abbild.
Die KI errechnet aus den Materialien des Kleidungsstückes, wie der Stoff fällt und passt es an die jeweilige Körperform an. Auf diese Weise kann man sich ein Kleidungsstück virtuell anziehen und sehen.
-
Die KI kauft für einen ein
KI-Agenten sollen künftig für uns arbeiten. Mit der Funktion „Agentic Checkout“, kann man den Preis für eine Handtasche beobachten lassen. Fällt der Preis unter eine selbst definierte Grenze, erhält man eine Benachrichtigung, in der eine „Kaufen“-Schaltfläche angezeigt wird.
Mit einem weiteren Klick erledigt der „AI Agent“ die nächsten weiteren Schritte und kauft selbständig die gewünschte Handtasche in einem Online-Shop. Es muss dann nur mehr die tatsächliche Zahlung mittels Fingerabdrucks bestätigt werden.
-
Gemini in Google Chrome
Gemini kommt in den Chrome-Browser – im ersten Schritt für Pro-Abonnenten in den USA. Der KI-Browsing-Assistent hilft direkt auf der aktuellen Webseite beim Verstehen von Inhalten und Erledigen von Aufgaben.
-
Google zeigt den neuen KI-Bildgenerator Imagen 4
Der neue Generator soll wesentlich leistungsfähiger sein und noch deutlich detailliertere Bilder liefern. Außerdem soll Imagen 4 spürbar schneller sein als die Vorgängerversion.
-
Google zeigt den neuen KI-Videogenerator Veo 3
Veo 3 kombiniert einen Video- mit einem Audiogenerator. Erstmals ist es möglich, mit dem Videogenerator auch passende Töne und Dialoge zu erstellen. Außerdem sollen die Clips von Veo 3 natürlich deutlich besser aussehen.
-
Neuer Videogenerator "Flow"
Google hat mit "Flow" ein Tool zum Erstellen von Videos präsentiert, das auf den neuen KI-Modellen von Veo 3 basiert. Damit können mehrere KI-Clips aneinander gefügt und miteinander verbunden werden.
Es soll völlig neue Möglichkeiten für Filmemacherinnen und Filmemachern bieten. Kameraeinstellungen können dabei beispielsweise besonders detailliert angepasst.
-
Google AI Ultra
Google überarbeitet auch seine Abo-Modelle. Neben Google AI Pro gibt es jetzt Google AI Ultra um stolze 250 US-Dollar im Monat. Es enthält mehr oder weniger alles, was Google in Sachen KI zu bieten hat plus YouTube Premium und 30 Terabyte Cloud-Speicher.
© Google / Screenshot
-
Android XR Glasses
Wer erinnert sich noch an Google Glass? Google versucht sich offenbar wieder an Brillen und zeigt eine neue Generation von Smart Glasses auf Basis von Android XR. Dabei handelt es sich derzeit nur um einen Prototyp. Die Brille verfügt über Kamera, Mikrofon und Bedienelemente direkt im Brillengestell. Im Sichtfeld kann man außerdem Informationen eingeblendet bekomme.
In einer Live-Demo wird gezeigt, wie Android XR Glasses funktionieren sollen. So kann man direkt mit der Brille sprechen, während sie die Umgebung filmt und analysiert. Brillenhersteller sollen künftig mithilfe der Plattform entsprechende Geräte bauen, das deutet darauf hin, dass Google selbst kein Produkt für Endkonsumenten bringen wird.
© Screenshot
Kommentare