
Google I/O: «AI» kommt in der Keynote einmal pro Minute vor – das sagt alles

Von der Hausaufgabenhilfe über die Suche nach Fotos bis zur Planung deines nächsten Ferientrips: Googles KI-Tools sollen dir in allen Lebenslagen helfen. Die neuesten Möglichkeiten hat Google auf der Keynote seiner diesjährigen Entwicklerkonferenz I/O vorgestellt.
Zwei Stunden lang ging es zum Auftakt der I/O unter dem Motto «Making AI helpful for everyone» nur um KI. Insgesamt 120 Mal fiel die englische Abkürzung AI in der Präsentation. Google hat seine KI nachzählen lassen. Insgesamt ging es darum, in welche eigenen Produkte Google sie einbaut, wie sie helfen kann und welche Large Language Models (LLM) im Hintergrund laufen. Während einige Tools bald schon auf deinem Smartphone nutzbar sind, wirst du auf andere noch warten müssen. Manche erfordern sogar die Nutzung eines kostenpflichtigen Dienstes von Google.
Die KI hilft bei der Suche
Die Suche ist immer noch Googles Herzstück. Entsprechend versucht der Konzern, sie mit KI-Tools weiter unverzichtbar zu machen. Beispielsweise mit den «AI Overviews». Das sind KI-Übersichten als Suchergebnis, die Antworten auf sehr spezifische Fragen liefern und dabei auf den gesamten Datenfundus von Google zurückgreifen. Dazu gehören auch Google Maps und die Bewertungen von Geschäften, Restaurants und so weiter. Ein Beispiel wäre die Suche nach einem Yoga-Studio, das auch Pilates anbietet, gut bewertet ist und für dich in fünfzehn Minuten erreichbar ist. In den USA sind die «AI Overviews» ab heute verfügbar – und sollen bis Ende des Jahres einer Milliarde Menschen auf der Welt zur Verfügung stehen. Sie dürften also in den nächsten Monaten auch nach Europa kommen.
Du kannst die Suche von Google zur Planung nutzen. Etwa lässt du dir einen Essensplan für vier Personen für eine Woche erstellen, bei dem die eine oder andere Unverträglichkeit beachtet werden muss. Auch Trainingspläne soll die KI anfertigen können.
Der Ausbau von Googles LLMs, wie Gemini 1.5 Pro, ermöglicht das neue Tool «Ask with Video». Wie bei einer Bildersuche kannst du bereits in den nächsten Wochen ein Video ins Suchfenster einsetzen. Google sagt, dass Gemini 1.5 Pro bereits jetzt mit einer Million Tokens das größte Kontextfenster hat. Der Wert gibt an, wie viele Eingabedaten die KI verarbeiten kann. Die Million entspricht Google zufolge einer Stunde Video, 30.000 Zeilen Code, 14.000 Textseiten. Diesen Rahmen will Google in diesem Jahr noch auf zwei Millionen Tokens verdoppeln.

Quelle: Google
Fotos finden lassen
Hast du Bilder bei Google Photos hochgeladen, kannst du dazu Fragen stellen und die KI liefert Antworten. Du musst also nicht mehr alle Urlaubsbilder durchschauen, um zu wissen, wie das leckere Restaurant im Urlaub hieß. Du fragst einfach: «In welchem Restaurant waren wir in Rom?» Hast du es fotografiert, bekommst du die richtige Antwort. Ein Beispiel von Google ist die Frage, wann das eigene Kind schwimmen lernte. Die KI sucht dann die ältesten Bilder des schwimmenden Kindes heraus.
Tools, die Kreative unterstützen sollen
Mehrere neue Tools sollen Kreative bei der Arbeit unterstützen – und nicht ersetzen. Die «Music AI Sandbox» macht Musikern zum Beispiel Vorschläge, was sie bei der Arbeit an einem Song noch ausprobieren könnten. Wyclef Jean gehört zu den Künstlern, die das Tool bereits ausprobieren durften und liefert seinen ersten damit erstellten Song:
Mit «Veo» arbeitet Google an einem generativen Modell für Videos. Wie das Musik-Tool ist es bisher nur für ausgewählte Personen verfügbar. Regisseur und Schauspieler Donald Glover soll demnächst ein mit Veo erstelltes Video oder einen Kurzfilm veröffentlichen.
Für «Imagen 3» nimmt Google dagegen bereits Anmeldungen zum Ausprobieren entgegen. Das Tool zur generativen Erstellung von Bildern soll in der dritten Generation umfangreichere Prompts verstehen sowie mehr Details und weniger Artefakte generieren.
Android bekommt noch mehr KI eingebaut
Unter Android scheint Google langsam den Assistant durch Gemini zu ersetzen. Das KI-Tool soll als besserer, moderner (Sprach-)Assistent agieren. Mit der «On Device AI» kann das Tool persönliche Daten nutzen, die bei der Verarbeitung auf dem Gerät bleiben.

Quelle: Google
Die bereits erwähnten KI-Suchfunktionen wird es ebenfalls unter Android geben. Zusätzlich ergänzt Google Circle-to-search mit seinem neuen KI-Modell LearnLM um Lerninhalte. Du kannst beispielsweise damit Schulaufgaben einkreisen und bekommst nicht einfach die Antwort, sondern eine Erklärung oder den Lösungsweg angezeigt. Themengebiete und Komplexität der Aufgaben will Google dabei weiter ausbauen. LearnLM nutzt Google auch an einer anderen Stelle, um einen Tutor für Lernende oder einen Assistenten für Lehrende zu bauen.
Gemini kann zudem Bezüge herstellen, wenn du auf dem Smartphone etwas wissen willst. Das Tool versteht zum Beispiel, dass sich deine Frage auf das Video bezieht, das du gerade schaust. Du kannst aber auch in Chats über die Tastatur oder genauer die Gemini-Taste ein Bild generieren lassen und in die laufende Unterhaltung einfügen.
Hilfe in vielen Lebenslagen
Musst du für eine Aufgabe verschiedene Punkte abhandeln, hilft dir Gemini beim Erledigen. Beispielsweise sind deine bestellten Schuhe zu klein: Sende Gemini ein Foto mit der Bemerkung, dass die Schuhe zurückmüssen. Die KI erkennt, welcher Paketdienst für die Abholung zuständig ist und vereinbart dir einen Termin dafür – mithilfe der passenden E-Mail zum Rückgabeprozess.
Noch beeindruckender fand ich die Demonstration von Project Astra. Eine sprechende KI mit Zugriff auf Smartphone-Kamera, die auch in einer Datenbrille funktioniert. Sie kann Bescheid sagen, wenn sie etwas erkennt, das du suchst. Sich aber auch merken, wo etwas liegt. Sie erkennt die Umgebung und kann beschreiben, was sie sieht, sowie dazu Fragen beantworten oder sogar Code erklären.
Ein weiteres Tool kann Daten in eine Konversation umwandeln, Google nennt es «Audio Overwiews». Handelt es sich bei den eingepflegten Daten um Schulbücher, können die Inhalte als Dialog erklärt werden. Zudem kannst du jederzeit Fragen dazu stellen, die anschließend beantwortet werden.
KI verantwortungsvoll nutzen
Google schreibt sich auf die Fahnen, KI verantwortungsvoll zu nutzen. Dabei geht es darum, Lücken und Fehler in den eigenen Modellen zu finden, aber auch den Missbrauch der KI zu verhindern. Durch eine KI erstellte Inhalte erhalten über SynthID ein nicht entfernbares Wasserzeichen, das sie eindeutig als künstlich erstellt erkennbar macht. Dieses System weitet Google nun von Fotos auf Musik und Videos auf. Für Texte soll in den nächsten Monaten ein Open-Source-Wasserzeichensytem kommen.


Als Grundschüler saß ich noch mit vielen Mitschülern bei einem Freund im Wohnzimmer, um auf der Super NES zu spielen. Inzwischen bekomme ich die neueste Technik direkt in die Hände und teste sie für euch. In den letzten Jahren bei Curved, Computer Bild und Netzwelt, nun bei Digitec und Galaxus.