screenshot2025-05-20at190807.png

Google I/O 2025

© Screenshot

Produkte

Google I/O Keynote: Liveticker zum Nachlesen

Die diesjährige Google I/O steht an. Nachdem der Technologiekonzern seinem Android-Betriebssystem vergangene Woche ein eigenes Event gewidmet hat, ist die Entwicklerkonferenz dieses Jahr ganz im Zeichen der Künstlichen Intelligenz gestanden. Eine Übersicht der vorgestellten Neuigkeiten findet ihr hier.

➤ Mehr lesen: Google I/O Keynote: 8 Neuerungen, die präsentiert wurden

Und hier unseren Liveticker der Keynote zum nachlesen.

Google I/O 2025

  • | Florian Christof

    Herzlichen Willkommen zu unserem Liveticker

    Es dauert nicht mehr lange, dann startet die diesjährige Google I/O. Wir werden hier über sämtliche Neuerungen berichten, die Google auf seiner Entwicklerkonferenz vorstellt. 

  • | Florian Christof

    Schön langsam geht's los

    Noch ist das Shoreline Amphitheatre in Mountain View ziemlich leer. Bald werden die Besucherinnen und Besucher hereinströmen.

  • | Florian Christof

    Der Sound ist schon da

    Das Musikprogramm im Vorfeld der I/O ist bereits gestartet. Reinhören lohnt sich. 

  • | Thomas Prenner

    10 Minuten noch

    So wirklich dankbar ist ein Slot für einen Musiker bei einer Tech-Konferenz halt auch nicht. In 10 Minuten sollte es jedenfalls dann mit dem eigentlichen Event losgehen.

  • | Florian Christof

    Gleich auf der Bühne

    Der Google-CEO wartet schon hinter der Bühne auf seinen Auftritt.

  • | Thomas Prenner

    Der Countdown läuft

    Los geht es mit einem Countdown aus KI-generierten Videos. Wir sind gespannt. 

    Google I/O Screenshot
  • | Thomas Prenner

    Sundar Pichai ist da

    Der Google-Chef eröffnet die Konferenz. Er spricht zuerst über die verschiedenen KI-Modelle, die Google in den vergangenen Monaten veröffentlicht hat. Außerdem lobt er die eigenen Gemini-Modelle, wie sie die Konkurrenz bei Vergleichen ausstechen.

    Google I/O Screenshot
  • | Thomas Prenner

    Millionen KI-Nutzer

    Pichai erklärt, wie die Google-Suche dazu führt, dass so viele Menschen weltweit KI verwenden wie noch nie. 

    Google I/O Screenshot
  • | Thomas Prenner

    Project Starline wird zu Google Beam

    Das Hologramm-Videotelefonie-Tool Project Starline heißt jetzt Google Beam

    Google I/O Screenshot
  • | Thomas Prenner

    Google Meet bekommt Simultanübersetzung

    Bei Meet-Videocalls kann man künftig vollautomatisch Simultanübersetzung nutzen.

  • | Thomas Prenner

    Gemini Kamera-Sharing

    Ab sofort können Android-Nutzer auch mit Gemini Live ihre Kamera und Bildschirm teilen und sich natürlich darüber unterhalten, was das Handy sieht. Das ist nun das fertige Produkt, das aus Project Astra entstanden ist.

  • | Thomas Prenner

    Personalized Smart Replies

    Gemini kann künftig Fragen, die einem per Mail gestellt werden, vollautomatisch beantworten und dabei persönliche Inhalte integrieren. Als Beispiel nennt Google das Szenario, in dem man nach Reisetipps für eine vergangene Reise gefragt wird. Künftig muss man dafür nicht mehr selbst eine Antwort formulieren. Gemini schreibt sie automatisch auf Basis von Mails oder Notizen, die es im Kontext der Reise im eigenen Account findet. 

  • | Thomas Prenner

    Gemini 2.5

    Jetzt geht es um das neue Modell Gemini 2.5.

    Google I/O Screenshot
  • | Thomas Prenner

    Gemini 2.5

    Skizzen können in Gemini 2.5 Pro vollautomatisch in 3D-Modelle umgewandelt und in bestehenden Code integriert werden. 

  • | Florian Christof

    Die KI-Vision der Zukunft

    Demis Hassabis von Google DeepMind legt die Vision eines so genannten "Universal AI Assistant" dar. Der KI-Assistant der Zukunft soll personalisiert, pro-aktiv und leistungsfähig sein. 

    Wie man sich einen solchen KI-Chatbot in Gemini Live vorstellen kann, zeigt Google im folgenden Video.

  • | Florian Christof

    AI Mode für die Google-Suche

    Die neue Art zu suchen wird ab sofort allen Google-Nutzerinnen und -Nutzer in den USA zur Verfügung gestellt.

  • | Florian Christof

    Der nächste Schritt nach AI Overview

    Einen ersten Vorgeschmack darauf bietet die „Übersicht mit KI“, die seit einigen Monaten allen Google-Nutzern angezeigt wird. Der neue KI-Modus ist der logische nächste Schritt und wesentlich ausführlicher und detaillierter als der aktuelle KI-Überblick. 

    Entscheidet man sich für eine Suche im „AI Mode“, bekommt man keine klassische Auflistung von Links zu sehen. Stattdessen wird eine Mischung aus Beschreibungen, Erklärungen, Aufzählungszeichen, Grafiken und Bilder sowie auch einzelnen Weblinks angezeigt. 

  • | Florian Christof

    AI Mode ist für komplexe Fragen gedacht

    Am besten geeignet für diese Art der Suche sind komplexere Fragen. Gleichzeitig ist es auch möglich, Folgefragen zu stellen. Die KI soll dabei den jeweiligen Kontext erkennen und passende Antworten liefern.

    Laut Google werden dafür leistungsstarke KI-Modelle herangezogen, bei denen fortschrittliches Reasoning im Vordergrund steht. Damit die KI nicht völlig halluziniert, werden die Suchanfragen in verschiedene Themengebiete aufgedröselt, die dann parallel durchsucht werden.

    Den Link zu einer Website findet man immer noch effizienter über die herkömmliche Google-Suche, die von dem neuen KI-Modus unberührt bleibt.

  • | Florian Christof

    Google wird zur virtuellen Umkleidekabine

    Mit Try-on-Feature ist es möglich, Kleidungsstücke aus Online-Stores virtuell anzuprobieren. Dafür lädt man ein passendes Bild von sich selbst hoch und die errechnet daraus die Körperform, Größe usw. und erstellt ein digitales Abbild.

    Die KI errechnet aus den Materialien des Kleidungsstückes, wie der Stoff fällt und passt es an die jeweilige Körperform an. Auf diese Weise kann man sich ein Kleidungsstück virtuell anziehen und sehen. 

  • | Thomas Prenner

    Die KI kauft für einen ein

    KI-Agenten sollen künftig für uns arbeiten. Mit der Funktion „Agentic Checkout“, kann man den Preis für eine Handtasche beobachten lassen. Fällt der Preis unter eine selbst definierte Grenze, erhält man eine Benachrichtigung, in der eine „Kaufen“-Schaltfläche angezeigt wird. 

    Mit einem weiteren Klick erledigt der „AI Agent“ die nächsten weiteren Schritte und kauft selbständig die gewünschte Handtasche in einem Online-Shop. Es muss dann nur mehr die tatsächliche Zahlung mittels Fingerabdrucks bestätigt werden.

  • | Thomas Prenner

    Gemini in Google Chrome

    Gemini kommt in den Chrome-Browser – im ersten Schritt für Pro-Abonnenten in den USA. Der KI-Browsing-Assistent hilft direkt auf der aktuellen Webseite beim Verstehen von Inhalten und Erledigen von Aufgaben. 

  • | Florian Christof

    Google zeigt den neuen KI-Bildgenerator Imagen 4

    Der neue Generator soll wesentlich leistungsfähiger sein und noch deutlich detailliertere Bilder liefern. Außerdem soll Imagen 4 spürbar schneller sein als die Vorgängerversion.

  • | Florian Christof

    Google zeigt den neuen KI-Videogenerator Veo 3

    Veo 3 kombiniert einen Video- mit einem Audiogenerator. Erstmals ist es möglich, mit dem Videogenerator auch passende Töne und Dialoge zu erstellen. Außerdem sollen die Clips von Veo 3 natürlich deutlich besser aussehen.

  • | Florian Christof

    Neuer Videogenerator "Flow"

    Google hat mit "Flow" ein Tool zum Erstellen von Videos präsentiert, das auf den neuen KI-Modellen von Veo 3 basiert. Damit können mehrere KI-Clips aneinander gefügt und miteinander verbunden werden.

    Es soll völlig neue Möglichkeiten für Filmemacherinnen und Filmemachern bieten. Kameraeinstellungen können dabei beispielsweise besonders detailliert angepasst.

  • | Thomas Prenner

    Google AI Ultra

    Google überarbeitet auch seine Abo-Modelle. Neben Google AI Pro gibt es jetzt Google AI Ultra um stolze 250 US-Dollar im Monat. Es enthält mehr oder weniger alles, was Google in Sachen KI zu bieten hat plus YouTube Premium und 30 Terabyte Cloud-Speicher. 

    Google I/O Screenshot
  • | Thomas Prenner

    Android XR Glasses

    Wer erinnert sich noch an Google Glass? Google versucht sich offenbar wieder an Brillen und zeigt eine neue Generation von Smart Glasses auf Basis von Android XR. Dabei handelt es sich derzeit nur um einen Prototyp. Die Brille verfügt über Kamera, Mikrofon und Bedienelemente direkt im Brillengestell. Im Sichtfeld kann man außerdem Informationen eingeblendet bekomme. 

    In einer Live-Demo wird gezeigt, wie Android XR Glasses funktionieren sollen. So kann man direkt mit der Brille sprechen, während sie die Umgebung filmt und analysiert. Brillenhersteller sollen künftig mithilfe der Plattform entsprechende Geräte bauen, das deutet darauf hin, dass Google selbst kein Produkt für Endkonsumenten bringen wird.

    Screenshot Google I/O

Hat dir der Artikel gefallen? Jetzt teilen!

Florian Christof

Großteils bin ich mit Produkttests beschäftigt - Smartphones, Elektroautos, Kopfhörer und alles was mit Strom betrieben wird.

mehr lesen
Florian Christof

Thomas Prenner

ThPrenner

Beschäftigt sich mit Dingen, die man täglich nutzt. Möchte Altes mit Neuem verbinden. Mag Streaming genauso gern wie seine Schallplatten. Fotografiert am liebsten auf Film, meistens aber mit dem Smartphone.

mehr lesen
Thomas Prenner

Kommentare