Am 14.05.2024 hat Google mit der Google I/O ihre diesjährige Entwicklerkonferenz im Silicon Valley abgehalten. Im Mittelpunkt des Events stand vor allem das Thema „Künstliche Intelligenz“. Mit dem eigenen KI-Modell Gemini will Google bereits in diesem Jahr eine neue Ära einläuten.
„Google ist mittendrin in der Gemini-Ära.“ – so kommuniziert Sundar Pichai, CEO von Google LLC, worauf bei dem Unternehmen aktuell der größte Fokus liegt. Und ziemlich genau vor einem Jahr war es bereits die Google I/O, auf welcher man der breiten Masse erstmals das hauseigene KI-Modell Gemini präsentiert hat. Mit Version 1.5 möchte man nun den nächsten Schritt einleiten – und dieser hat es sicherlich in sich.
Google Gemini – geplant in nahezu allen Google Services
Gemini, auch bekannt als Google’s KI, soll bald überall integriert werden: als Assistent in Gmail, als Überblick und Fragenbeantworter in der Suche, als Ask Photos für Bildsuchen, in Google Meets für Zusammenfassungen und Untertitel oder in Workspaces als eine Art Copilot – wie man es bereits aus dem Microsoft Kosmos kennt. Das Wort „AI (deutsch KI)“ fiel während der Konferenz über 120 mal. Übrigens wurde die Anzahl des Keywords während der Präsentation durch das Modell selbst „mitgezählt“.
Mehr Tokens – für umfangreichere Ergebnisse
Eine der neuesten Ankündigungen betrifft die Erhöhung der Tokens für Gemini. Diese sollen noch innerhalb von diesem Jahr von einer auf zwei Millionen verdoppelt werden. Und bereits die eine Millionen Tokens sind erstaunlich. Zieht man hier einen direkten Vergleich zu ChatGPT-4 von OpenAI, so liegt man hier bislang bei ungefähr 128.000 Tokens. Doch was hat es mit den Tokens auf sich? Vereinfacht gesagt, sorgen die Tokens für die Angabe über die zu verarbeitende Datenmenge (Input von Informationen). Somit kann man Gemini 1.5 Pro mittlerweile mehr als die fünffache Menge gegenüber ChatGPT-4 mitgeben, welche das KI-Modell anschließend auswerten und verarbeiten kann. Gegenüber der Konkurrenz, schafft man in diesem Punkt somit eine enorme Überlegenheit. Inwiefern sich dies auf die Qualität der Outputs auswirkt, das zeigt sicherlich erst ein Test in der Praxis und den passenden Anwendungsfällen. Zusätzlich präsentierte Google auch eine neue Modellvariante namens Gemini 1.5 Flash, die zwar weniger umfangreich ist, aber effizienter und schneller arbeitet als Gemini 1.5 Pro.
Doch was bedeutet das konkret für den Alltag?
Stellt euch vor, ihr bestellt in einem Online Shop und die Artikel versprechen nicht, was ihr euch darunter vorgestellt habt. Gemini kann den darauffolgenden Rücksendeprozess organisieren und einen Abholtermin mit dem Paketdienst vereinbaren. Zusätzlich kann der intelligente Assistent sogar dabei helfen, das passende Produkt für euch zu finden. Wollt ihr eure sportlichen Fortschritte gezielt verfolgen, sei es bei eurem gewöhnlichen Workout oder einer neu ausgeführten Sportart – Gemini ist zur Stelle, um auch dabei zu unterstützen und eure Fortschritte entsprechend aufzuzeigen. Auch bei der Erstellung eines Ernährungsplans für die nächsten Tage kann die KI assistieren. Ein weiteres direkt von Google präsentiertes Beispiel ist die Unterstützung bei defekter Hardware. So können defekte Plattenspieler analysiert werden und euch gleichzeitig noch das korrekte Modell mit bekannten Fehlerbildern aus dem Web vorgeschlagen werden.
Gemini durchsucht innerhalb von Google Photos deine Aufnahmen, um bestimmte Muster oder Fortschritte zu erkennen, organisiert zuvor erwähnte Rücksendungen und kann sogar Kontext-bezogen verschiedene Rechnungen innerhalb deiner E-Mails filtern und in einem Spreadsheet aufarbeiten. Aber das ist noch nicht alles. Kombiniert wird das Ergebnis von Google individuell und zum Teil aus Informationen verschiedener Services (Google Maps, Google Mail, Google Search und mehr) – all das natürlich in Echtzeit.
Und dann gibt es die Kreativen unter uns. Mit Gemini können Bilder, Musik und Videos generiert werden – wie man es bislang bereits von beispielsweise Midjourney kennt.
Google integriert Gemini tiefer in Android
Auch Android wird von Gemini grundlegend aufpoliert. Die KI wird als Bestandteil auf Systemebene integriert und interpretiert Fragen im Kontext der geöffneten App. Das bedeutet, dass ein Android-Telefon die Welt so gut verstehen soll wie der Nutzer selbst, sei es über Text oder Bilder der Umgebung. Im selben Zuge bedeutet es aber auch, dass man zukünftig an solche Möglichkeiten gebunden sein wird und vermutlich durch Nutzung des Systems diese Verarbeitung akzeptiert.
Wann können wir mit all diesen Funktionen rechnen?
Einiges davon wird sofort verfügbar sein, aber die meisten Funktionen sind erst später im Jahr zu erwarten. Im Vergleich dazu hat Microsoft viele dieser Funktionen bereits seit einem Jahr im Einsatz.
Gemini verspricht, unsere digitale Welt zu revolutionieren und uns dabei zu helfen, unsere Aufgaben effizienter zu erledigen. Wir dürfen gespannt sein, wie sich diese KI-Revolution in unserem Alltag bemerkbar machen wird.
Den Zugriff auf Gemini 1.5 Pro erhaltet ihr ab sofort über das kostenpflichtige „Gemini Advanced“ Abonnement. Solltet ihr euch von den neuen Möglichkeiten und Funktionen erstmals überzeugen wollen, bietet Google für jeden User die ersten zwei Monate kostenlos an.