Google führt eine wesentliche Änderung in der Nutzung von künstlicher Intelligenz auf Android-Smartphones ein. Gemini kann jetzt im Splitscreen-Modus neben anderen Anwendungen betrieben werden. Das bedeutet, dass der Benutzer nicht mehr die E-Mail, den Browser oder den Messenger verlassen muss, um die Hilfe der KI in Anspruch zu nehmen. Der Assistent erscheint in einem separaten Panel und arbeitet im Kontext dessen, was wir gerade auf dem Bildschirm sehen. Dies ist ein Schritt in Richtung einer stärker "integrierten" künstlichen Intelligenz, die die Arbeit in Echtzeit unterstützt, statt als separate Anwendung zu fungieren.
KI hört auf, ein separates Fenster zu sein
Bis jetzt sah die Nutzung von KI-Assistenten auf dem Telefon ähnlich aus: Du öffnest den Chat, gibst einen Befehl ein, kopierst das Ergebnis und kehrst zu deiner App zurück. Die neue Lösung von Google verändert dieses Schema.
Gemini kann jetzt parallel mit einer anderen App im Split-Screen-Modus arbeiten. In der Praxis bedeutet das:
Hilfe beim Verfassen von E-Mails und Nachrichten in Echtzeit,
Zusammenfassung von Artikeln, ohne den Browser zu schließen,
Generierung von Antworten in Messengern basierend auf dem sichtbaren Gespräch,
Schnelles Überarbeiten von Texten, ohne sie in ein separates Fenster zu kopieren.
KI wird Teil des Arbeitsablaufs und kein zusätzliches Tool, das „nebenbei“ läuft.
Weniger Wechsel, mehr Produktivität
Die größte Veränderung ist die Reduzierung des sogenannten „context switching”. Der Benutzer muss Inhalte nicht mehr in eine separate AI-Anwendung kopieren und mit dem generierten Text zurückkehren. Gemini analysiert, was sich derzeit auf dem Bildschirm befindet, und reagiert, ohne die Arbeit zu unterbrechen.
Das ist besonders nützlich für:
Studenten, die an Quellenmaterial arbeiten,
Personen, die beruflich E-Mails und Berichte schreiben,
Benutzer, die lange Dokumente analysieren,
jeden, der schneller auf Nachrichten antworten möchte.
Obwohl die Veränderung auf den ersten Blick gering erscheint, kann sie im täglichen Gebrauch die Durchführung routinemäßiger Aufgaben erheblich beschleunigen.
Neue Richtung im Design von mobiler KI
Die Bewegung von Google passt in einen breiteren Trend. Technologieunternehmen hören zunehmend auf, künstliche Intelligenz als separates Produkt zu betrachten, und beginnen, sie direkt in das Betriebssystem einzubauen. Microsoft experimentiert mit KI in Windows-Anwendungen, Apple entwickelt eigene Lösungen in iOS, und Google zeigt bereits jetzt eines der fortschrittlichsten Beispiele für die kontextuelle Integration von KI in Android.
Der Split-Screen mit Gemini ist erst der Anfang. In Zukunft könnten Entwickler umfassendere Integrationen bereitstellen, durch die der Assistent Daten in bestimmten Anwendungen noch besser verstehen kann.
Die Funktion wird derzeit schrittweise eingeführt und nicht alle Geräte und Anwendungen unterstützen sie. Der Kurs ist jedoch klar – KI soll im Hintergrund arbeiten und in Echtzeit helfen, anstatt auf ein Kommando in einem separaten Fenster zu warten. Wenn dieses Modell ankommt, wird das Smartphone nicht mehr eine Sammlung von Anwendungen sein, sondern sich zu einer Arbeitsumgebung entwickeln, die von einem intelligenten, kontextbezogenen Assistenten unterstützt wird. Das könnte eine der bedeutendsten Veränderungen in der mobilen Welt der KI in den kommenden Jahren sein.
Quelle: digitaltrends.com
Katarzyna Petru












