Die Computerwelt ist oftmals von Duellen geprägt. In der Heimcomputerära war das Commodore vs. Atari, die Nachfolge traten Microsoft und Apple an. Mit dem Wechsel auf das Smartphone als bestimmendes Gerät zementierten dann Apple und Google ihre dominante Position. In der KI-Ära scheint sich dieses Spiel nun zu wiederholen: OpenAI vs. Google heißt der derzeit bestimmende Konflikt der Branche.

Gegenseitig die Show stehlen

Es ist einer, der mit genauso harten Bandagen ausgetragen wird wie einige der früheren Duelle, das haben die vergangenen Tage gut gezeigt. So hat OpenAI extra kurzfristig einen Tag vor Googles I/O-Konferenz eine eigene Präsentation platziert, um dem Konkurrenten die Aufmerksamkeit zu stehlen. Eine Taktik, die manchen etwas kindisch vorkommen mag, die das Unternehmen aber bereits mehrfach verfolgt hat. Vor allem aber eine, die durchaus funktioniert.

Google Pichai / Reid
Google-Chef Sundar Pichai und die Leiterin der Suchmaschinenabteilung, Liz Reid, stellten sich den Fragen der Presse.
Proschofsky / STANDARD

Selbst wenn jemand nur einen Tag später etwas herzeigt, wirkt er bereits wie ein Nachahmer. Dass es technisch gesehen absurd ist zu glauben, dass da so schnell wer etwas nachgebaut hat, ist nebensächlich. Psychologisch ist das ein guter Trick, um sich in der öffentlichen Wahrnehmung als treibende Kraft der Entwicklung zu verkaufen. Die dahinterstehende Realität ist natürlich eine andere, nämlich dass alle in der Branche derzeit an sehr ähnlichen Dingen arbeiten, viele der nächsten Schritte einfach logisch sind.

Bei Google nimmt man dieses Vorgehen von OpenAI sportlich: Wie Firmenchef Sundar Pichai in einem Pressegespräch am Rande der Google I/O betonte, hat er die Ankündigung der Konkurrenz mit viel Interesse verfolgt. "Ich bin davon überzeugt, dass Innovation gut für alle ist", gab er zu Protokoll. Der Wettstreit treibe die Branche voran, und das sei schließlich gut für alle – und vor allem die Nutzer.

OpenAI wirkt jünger

Nun mag Pichai das tatsächlich so sehen, gleichzeitig ist das natürlich eine diplomatische Antwort. Denn was er auch weiß: OpenAI wirkt nach außen wesentlich agiler und moderner als Google. Die Präsentationen des ChatGPT-Herstellers sind deutlich emotionaler und doch extrem professionell gemacht, in vielen Punkten erinnern sie dabei an Apple, das der Großmeister dieser Kategorie ist. Google hingegen erzählt all die Neuerungen vergleichsweise nüchtern, egal wie groß und relevant sie auch sein mögen.

Ein Unterschied, der aber durchaus gute Gründe hat: Die beiden Unternehmen haben schlicht unterschiedliche Ausgangspositionen. OpenAI wird als junges, wildes Start-up wahrgenommen. Dass das mit Blick darauf, dass OpenAI mit Milliarden von Microsoft im Hintergrund agiert, eine fast schon absurde Zuschreibung ist, ändert nichts daran, dass sie wirkmächtig ist. Und so kann OpenAI vieles tun, wofür Google wohl öffentlich zerrissen würde.

Live demo of GPT-4o realtime conversational speech
OpenAI

Nehmen wir etwa besagte Demonstration eines Next-Generation-Assistenten vor wenigen Tagen. So unzweifelhaft beeindruckend diese war, sie war nicht nur voller Fehler, der Assistent agierte vor allem dermaßen überdreht, dass man wohl in der realen Nutzung nach wenigen Minuten das Smartphone wütend in die Ecke werfen würde. Gut für die Präsentation eines Start-ups im lockeren Rahmen, bei Google wären aber wohl schnell Fragen aufgekommen, was sich das Unternehmen da jetzt wieder gedacht hat.

Google kann und muss anders agieren

Google muss nicht zuletzt mit Blick auf die Relevanz vieler eigener Produkte für Firmen behutsamer vorgehen. Umgekehrt ist genau die bestehende Hausmacht an Diensten wiederum der Vorteil schlechthin für das Unternehmen. Kein Google-Produkt, in dem man derzeit keine KI in mehr oder weniger sinnvoller Form unterbringt. Selbst für jene, die all das sehr nahe verfolgen, war der diesbezügliche Ankündigungssturm im Rahmen der Google I/O kaum mehr überschaubar.

Eine Zahl macht das besonders deutlich: 121-mal wurde in der Keynote zur Google I/O der Begriff "AI" erwähnt, das dürfte wohl einen neuen Rekord darstellen. Eine Zahl, die übrigens keine besonders eifrigen Journalistinnen oder Journalisten mitgezählt haben, Google selbst hat passenderweise – und mit einem gewissen Hang zur Selbstironie – einfach einer KI diese Aufgabe übertragen.

Auch wenn die I/O-Keynote für viele weniger aufregend als die Präsentation von OpenAI gewirkt haben mag, so hat sich doch gezeigt, dass das Unternehmen in diesem Bereich exzellent aufgestellt ist. Ob bei Basistechnologien oder eben auch der Einarbeitung in konkrete Produkte, es ist alles auf dem Weg, die Cloud-Angebote nicht zu vergessen. Zwar gibt es derzeit fraglos Bereiche, wo OpenAI oder auch Microsoft die Nase vorne haben, langfristig ist das alles aber nebensächlich, solange die Marschrichtung stimmt. Dass dem so ist, davon scheint mittlerweile auch die Börse überzeugt zu sein, die Aktie der Google-Mutter Alphabet hat nach der I/O einen neuen Höchststand erreicht.

Die Vision ist in Wirklichkeit die gleiche

Wenn diese Woche noch etwas gezeigt hat, dann dass beide Unternehmen sehr ähnliche Vorstellungen von der weiteren Zukunft haben. Innerhalb von 24 Stunden zeigten beide neue digitale Assistenten vor, die nicht nur live über die Smartphone-Kamera das Umfeld erfassen und analysieren können, sondern dabei auch deutlich flotter sind und natürlicher klingen als bisher.

Project Astra: Our vision for the future of AI assistants
Google

Möglich wird dies durch sogenannte multimodale KI-Modelle, die neben Text auch Bilder, Videos und Ton verarbeiten können. Anstatt unterschiedliche Modelle für einzelne Aufgaben einzusetzen, kann hier alles an einer Stelle erfolgen – und damit auch wesentlich flotter und konsistenter. Googles Gemini ist übrigens bereits seit seiner Vorstellung Ende vergangenen Jahres multimodal, OpenAI zieht nun mit GPT4o nach.

Ein reger Schlagabtausch

Womit OpenAI besonders beeindrucken konnte, ist die massiv reduzierte Latenz der eigenen KI. Sie reagiert also auf Anfragen erheblich flotter als bisherige Systeme, was Konversationen wesentlich natürlicher wirken lässt. Google hat in dieser Hinsicht zwar ebenfalls Fortschritte gemacht, von denen sich der STANDARD im Rahmen der I/O selbst überzeugen konnte. Trotzdem wirkt Googles "Project Astra" noch immer merklich langsamer als die neue OpenAI-KI.

In einem anderen Bereich hat derzeit wiederum klar Google die Nase vorne, beim sogenannten Kontextfenster. Bis zu einer Million Tokens kann Gemini derzeit verarbeiten, bald sollen es gar zwei Millionen sein. Damit können mit Gemini wesentlich größere Datenmengen verarbeitet werden als mit GPT4o, das weiterhin bei 128.000 Tokens steht. Ein für all jene, die umfassende Dokumente und andere Daten analysieren wollen, durchaus relevanter Unterschied, selbst Videos von mehr als einer Stunde lassen sich mit Gemini nun erfassen und auswerten.

Effizienz

Ein oftmals unterschätzter Bereich ist die Effizienz. Das mag daran liegen, dass die großen KI-Firmen nicht allzu gern darüber sprechen, dass diese Systeme derzeit einen massiven Stromverbrauch haben. Für Firmenkunden ist das hingegen das Thema schlechthin. Immerhin ist es unweigerlich mit der Kostenfrage gekoppelt.

Insofern mag eine der wichtigsten Ankündigungen der I/O eine gewesen sein, die die breite Masse wenig interessieren dürfte. Mit Gemini Flash gibt es eine neue Version von Googles großem Sprachmodell, die in vielen Dingen fast so stark wie Gemini Pro sein soll, aber um ein Vielfaches effizienter ist. Passend dazu platziert Google Gemini Flash nicht nur deutlich unter Gemini Pro, sondern auch klar unter allen derzeit verfügbaren Modellen von OpenAI.

Was dabei aber noch einmal betont werden muss: All das ist eine Momentaufnahme. Derzeit herrscht ein dermaßen reger "Austausch" der Ideen, dass sich diese Verhältnisse dauernd ändern können – und werden.

Der Apple-Deal

Über der I/O hing übrigens auch der Schatten eines riesigen bevorstehenden Deals: Wie mehrfach durchgesickert ist, sucht Apple derzeit nach einem Partner, um neben eigenen KI-Diensten direkt am iPhone auch anspruchsvollere Aufgaben in der Cloud abzuwickeln. OpenAI und Google sind jene zwei Unternehmen, die dem Vernehmen nach um diesen Auftrag wetteifern.

Derzeit sieht es so aus, als habe OpenAI die besseren Karten, was für Google natürlich eine Niederlage wäre. Wie relevant diese ist, wird sich aber wohl erst mittelfristig zeigen. Könnte es doch durchaus sein, dass Apple die Dienste der Konkurrenz ohnehin nur als Brückentechnologie einsetzen will, bis man alles auf dem lokalen Gerät laufen lassen kann. Zudem hat Apple wohl nicht ohne Hintergedanken zuletzt eine Fülle von KI-Start-ups gekauft, um sich unabhängig von anderen Technologieanbietern zu machen.

Am Rande sei erwähnt, dass in dieser Frage auch die Regulatoren eine Rolle spielen dürften. Dass diese sonderlich glücklich wären, wenn Apple und Google ihre Zusammenarbeit noch weiter vertiefen, darf bezweifelt werden. Immerhin ist jener Milliardendeal, der die Einstellung von Google als Default-Suche am iPhone garantiert, zuletzt zunehmend unter Druck gekommen. Ob die Wettbewerbsbehörden mit einem maßgeblich von Microsoft finanzierten Unternehmen wie OpenAI dann glücklicher sind – oder sein sollten –, wäre dann noch mal eine andere Frage.

Android ist fix in Google-Hand

Google bleibt bei all dem aber ein Trost, und der heißt Android. Dass dort künftig "KI im Kern" stehen soll, hat man auf der I/O ebenfalls betont. Das heißt übrigens nicht, dass das Betriebssystem durch eine KI ersetzt wird, es geht um den Kern der User Experience, also die prominente Platzierung der Gemini-App oder auch von "Circle to Search" wie Android-Entwicklungschef Dave Burke auf Frage des STANDARD präzisiert.

AI at the Core Android
Auch für Android ist die Vorgabe klar: KI steht im Mittelpunkt.
Google

Die Zukunft des Webs?

Über all dem schwebt ein Thema, über das all die Beteiligten merklich weniger gern reden, nämlich: Was das eigentlich für die Zukunft des Webs bedeutet. Immerhin zeichnen sowohl OpenAI als auch Google die Vision eines persönlichen, digitale Assistenten, der im Alltag quasi allwissend zu Seite steht. Das würde dem klassischen Web natürlich massiven Schaden zufügen, es in Teilen gar obsolet machen. Woher dann die Grundlagen für die KI kommen sollen, wenn es kein Geschäftsmodell für die Erstellung neuen Wissens und aktueller Berichterstattung mehr gibt, ist dann noch einmal eine ungeklärte Frage.

Doch man muss nicht so weit in die Zukunft blicken, um Dinge zu entdecken, die den Medien derzeit Sorgen bereiten. Dass Google die Suche umkrempelt, und künftig einen KI-Überblick zum Thema über die Liste der Suchergebnisse stellt, lässt viele befürchten, dass die Zugriffe über Google einbrechen könnten.

Eine Angst, die Googles Suchmaschinen-Chefin Liz Reid im Gespräch nicht so stehen lassen will. Die KI-Suche führe dazu, dass die Nutzer einfach mehr suchen und ihre Recherche vertiefen, wovon wieder Webseiten profitieren, versichert sie. Vor allem aber: Jene Links, die im AI Overview auftauchen, würden wesentlich mehr Traffic bekommen als es sonst bei klassischen Suchergebnissen der Fall ist. Eine Perspektive, die wohl nicht alle teilen werden, die bisher auf Platz 5 oder 6 in der Linkliste standen.

Das alles ist schon lange in Bewegung

Nun kann man das betrüblich finden, die Realität ist aber, dass die Entwicklung schon länger von der klassischen Suche mit ihren Aufzählungen von Webseiten weggeht. So liefert Google seit Jahren immer mehr direkte Antworten statt Suchergebnisse, die aktuelle Entwicklung ist insofern schwer aufzuhalten. Dazu kommt, dass auch die Personalisierung immer wichtiger wird, viele einfach direkt von für sie vertrauenswürdigen Personen oder Organisationen hören wollen. Gerade jüngere Generationen suchen entsprechend auch immer mehr direkt auf Tiktok oder auch bei Youtube statt in der Google-Suche.

Project Astra demo | Explaining physics drawings
Google DeepMind

Wer mit all diesen neuen KI-Spielereien nichts anfangen kann, für den hatte Google bei der I/O eine kleine Überraschung parat: Es ist nämlich ab sofort optional möglich, eine klassische, traditionelle Websuche bei Google durchzuführen. Eine, die nicht nur ohne KI-Tools, sondern auch ohne in den vergangenen Jahren eingeführte Erweiterungen wie den Knowledge Graph, der seitlich passende Informationen anzeigt, auskommt. Klingt alles irgendwie ironisch, aber wer wirklich nur eine Linkliste wie in früheren Jahren haben will, bekommt damit das purste Google seit Jahren.

Nächster Schritt: Eine Brille?

Doch zum Schluss noch einmal zum Thema digitale Assistenten, immerhin sowohl bei OpenAI als auch Google die wohl beeindruckendsten Demos dieser Tage. Gerade angesichts dessen ist es überraschend, dass ein Detail der Google-Präsentation nicht für mehr Aufsehen gesorgt hat – war darin doch eine Brille mit einer integrierten Version von Gemini zu sehen.

Auf Nachfrage betont Google-Chef Pichai ungewohnt offen, dass das kein Konzeptvideo war. "Als Unternehmen fühlen wir uns zutiefst verpflichtet, bei der Entwicklung von Computern jenseits von Telefonen an der Spitze zu stehen." Insofern investiere man – gemeinsam mit den eigenen Partnern – auch in AR-Brillen. Mit der Zeit werde es "interessante Produkte geben, über die man reden kann", liefert Pichai einen Teaser für kommende Ankündigungen. (Andreas Proschofsky aus Mountain View, 18.5.2024)