7 Tipps, wie ihr KI-Bilderkennung im Alltag sinnvoll verwendet
Es reicht ein Foto von einem Gebäude, einer Pflanze oder einer Speise zu machen und KI-basierte Bilderkennungssysteme spucken Informationen dazu aus. Durch KI-Tools wie Google Lens, ChatGPT, Claude oder Apple Intelligence kann uns das Smartphone noch besser unterstützen.
Letzteres funktioniert vorerst nur beim iPhone 15 Pro, 15 Pro Max und allen iPhones-16-Varianten. Die anderen KI-Hilfsmittel kann man kostenlos für Android-Smartphones und iPhones, in den jeweiligen App Stores, herunterladen. Google Lens ist schon in der Google-App bzw. der Google-Suche im Browser integriert, alternativ kann Googles Chatbot Gemini als App heruntergeladen werden.
Hier sind fünf Vorschläge, wie man KI-basierte Bilderkennung sinnvoll im Alltag nutzen kann.
1. Texte übersetzen
Vegetarier oder Menschen mit Allergien kennen das Problem: Man ist in einem fremden Land und möchte essen gehen. Doch die Speisekarte wirft mehr Fragen auf, als sie beantwortet. Mit Google Lens kann man diese aber in Echtzeit übersetzen lassen.
Das funktioniert, indem man Google auf dem Smartphone öffnet und in der Suchleiste auf das Kamerasymbol klickt. Dann erscheint die Option Übersetzen. Mit KI-Tools wie ChatGPT oder Claude lädt man einfach das Bild hoch und kann gleich fragen, welches Gericht vegetarisch oder ohne bestimmte Allergene ist.
Bei iPhones funktioniert das, indem man ein Foto macht und dann länger auf den Text drückt. Dann erscheint ein Auswahlwerkzeug und die Option, den Text zu “übersetzen”.
➤ Mehr lesen: Dieses Tool zeigt, was Googles KI aus euren Fotos herausliest
2. Texte erkennen
Texte können so auch digitalisiert werden – von Omas Rezeptsammlung, die aus Zeitungsartikeln der 60er-Jahre zusammengestellt wurde, bis zur Visitenkarte, um Name und Nummer direkt in den Smartphone-Kontakten abzuspeichern. Dafür macht man bei Google Lens ein Foto von dem Text, wodurch eine Markierung an den Ecken des Bildschirms erscheint. Diese zieht man auf die entsprechende Stelle, wodurch die Option „Text auswählen“ und dann „Kopieren“ erscheint.
Bei iPhones funktioniert das ähnlich wie beim Übersetzen, nur, dass man hier stattdessen auf „Kopieren“ klickt. Bei ChatGPT kann man die KI bitten, den Text auf dem Foto digitalisieren zu lassen.
3. Text vorlesen
Für Menschen, die keine Lust haben zu lesen oder jene, die es aus bestimmten Gründen nicht können, kann die KI-Bilderkennung Texte vorlesen. Dafür klickt man bei Google Lens wieder auf „Text auswählen” und dann auf die Option „Anhören”.
Bei KI-Chatbots wie ChatGPT klickt man in der linken unteren Ecke auf das “+”, tippt dann auf das Kamera-Symbol und macht ein Foto. Fordert man die KI dann auf, den Text zu digitalisieren, erscheint bei der Ausgabe ein Lautsprecher-Symbol, wodurch man sich den Text vorlesen lassen kann.
➤ Mehr lesen: Immer mehr KI-Bilder bei Google: So erkennt man sie
Informationen zur KI-basierten Suche
Mit der visuellen Suche ist es möglich, verschiedene Informationen zu einem bestimmten Bildinhalt zu erhalten. Das funktioniert, indem die KI das Bild und darauf zu sehende Details identifiziert und mit einer Bild- und Informationsdatenbank abgleicht.
Auch ohne KI war das bisher möglich, zum Beispiel mit dem wohl bekanntesten Tool namens Google Lens. Dieses nutzt nun auch Gemini, also die KI aus dem Hause Google, die auch auf iPhones genutzt werden kann.
Vorsicht vor Falschinformationen
Egal, welches KI-basierte Bilderkennungstool man nutzt: Bei wichtigen Fragen sollte man die Informationen nochmals überprüfen. Denn die KI-gelieferten Informationen sind nicht immer korrekt. Außerdem sollte man darauf achten, welche Informationen man mit der KI teilt. Gemachte Fotos werden zur Analyse zu den Servern der KI-Provider hochgeladen. Oft werden sie genutzt, um neue KI-Modelle zu trainieren, oder das bestehende Modell weiterzuentwickeln. Dazu kann es auch nötig sein, dass Menschen die Fotos anschauen, um das Bild für die KI zu klassifizieren.
Visual Intelligence
Apples Antwort auf Google Lens heißt Visual Intelligence. Damit man die KI nutzen kann, muss Apple Intelligence in den Einstellungen aktiviert werden und die neueste Version von iOS installiert sein. Visual Intelligence funktioniert derzeit nur beim iPhone 15 Pro, 15 Pro Max und allen iPhone-16-Modellen.
4. Objekterkennung
Neugierige Menschen gehen durch die Welt und fragen sich oft, was es mit einem bestimmten Gegenstand oder Lebewesen auf sich hat. Das betrifft Sehenswürdigkeiten, Steine, Tiere oder auch Pflanzen. So kann man bei Google Lens beispielsweise ein Foto von einer Pflanze machen, wodurch der Reiter “Visuelle Übereinstimmung” erscheint. Man erhält dann Bilder und Links zu Websites von Pflanzen, die ähnlich oder gleich aussehen, wie die Abfotografierte.
Bei iPhones kann man ein Foto machen und dann in der Mediathek auf das eingekreiste “i” unten in der Mitte des Bildschirms klicken, wodurch das Objekt oder Lebewesen analysiert wird. Auch wenn die Ergebnisse nicht immer stimmen, können sie helfen, einen auf die richtige Spur zu bringen.
Bei Sehenswürdigkeiten macht man ein Foto mit Google Lens und gibt in die Suchleiste ein: “Erzähle mir mehr über die Geschichte dieses Gebäudes”. Das funktioniert auch mit ChatGPT.
5. Einkaufshelfer
Google Lens kann beim Einkaufen helfen. Man kann zum Beispiel ein Foto von einem Barcode hochladen und bekommt dann Informationen zum Produkt bzw. kann auf Vergleichsportalen den günstigsten Preis finden. Es reicht auch, wenn man zum Beispiel ein Foto von Schuhen macht, die einem gefallen. Es wird dann das gleiche oder ein ähnliches Modell vorgeschlagen.
Macht man mit dem iPhone ein Foto von einem Produkt wie zum Beispiel Kopfhörern, kommt man mit dem Teilen-Symbol in der linken unteren Ecke zur Option “Finde Produkte auf Amazon”, wenn am iPhone auch die Amazon-App installiert ist. Amazons “lens ai” sucht einem dann das Produkt heraus.
➤ Mehr lesen: „Menschen haben schon jetzt romantische Beziehungen mit KI"
6. Problemlöser
KI-Tools können bei Mathematik-Problemen helfen. Bei ChatGPT lädt man dafür ein Bild hoch und formuliert die entsprechende Frage bzw. den Auftrag.
Bei Google Lens lädt man ebenfalls ein Foto von einer zu lösenden Gleichung hoch. Unter dem Reiter “Aufgaben” erhält man dann die Lösung samt Rechenweg.
Ähnliches funktioniert bei Pflanzen, die nicht mehr ganz fit sind. Man fragt Google Lens, was dieser Pflanze fehlt und bekommt unter dem Reiter "Alle" eine Antwort bzw. Links zu Seiten, die weiterhelfen können.
7. Fakes aufdecken
Nicht alles, was Menschen im Internet von sich geben, stimmt auch. Angenommen, man sieht ein Bild von Papst Franziskus in einem stylischen, weißen Daunenmantel. Das ist eher ein ungewöhnlicher Anblick, der stutzig machen sollte. In solchen Situationen kann man Google Lens nutzen, um “visuelle Übereinstimmungen” zu finden. So würde man in diesem Fall, erkennen, dass das Foto KI-generiert ist.
Unter dem Reiter “Infos zu diesem Bild” erhält man weitere Informationen. Zum Beispiel, wie alt das Bild ist. Ähnlich funktioniert das mit Bildern, die auf Social Media zu besonderen Ereignissen gepostet werden. So findet man zum Beispiel heraus, dass ein Bild eigentlich in einem anderen Kontext als behauptet verwendet wird. Oft findet man auch verlinkte Faktenchecks, die genau erklären, warum das Bild für diese Verwendung nicht zulässig ist.