Google I/O 2018

Machine Learning - Google-Dienste werden generalüberholt

09.05.2018
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Bots im Zwiegspräch, Augmented Reality, personalisierte Karten- und News-Dienste: Auf der Entwicklerkonferenz Google I/O gab es jede Menge Neuigkeiten. Und fast immer sind Künstliche Intelligenz und Machine Learning mit von der Partie.
Google I/O 2018 - eine Pflichtveranstaltung für viele Software-Entwickler, aber auch für Technologie- und Google-Fans.
Google I/O 2018 - eine Pflichtveranstaltung für viele Software-Entwickler, aber auch für Technologie- und Google-Fans.

Auf seiner jährlichen Entwicklerkonferenz hat Google eine Reihe neuer Entwicklungen präsentiert. Keine Rolle spielte in diesem Jahr die Hardware: Weder ein neues Chromebook, noch ein Pixel Phone oder ein verbesserter Google-Home-Speaker waren zu sehen. Dafür wurden zahlreiche Verbesserungen an Software und Services gezeigt.

Gmail Smart Compose

Der E-Mail-Client vervollständigt den Satz, den der Autor - vielleicht - schreiben möchte: Gmail Smart Compose macht's möglich.
Der E-Mail-Client vervollständigt den Satz, den der Autor - vielleicht - schreiben möchte: Gmail Smart Compose macht's möglich.
Foto: Google

Googles CEO Sundar Pichai startete mit Smart Compose, einem Feature, das den E-Mail-Client Gmail mit mehr Intelligenz ausstatten soll. Beim Verfassen von E-Mails werden dem User in einem grau hinterlegten Textfeld künftig nicht nur Wörter, sondern ganze Satzbausteine vorgeschlagen, die sich bei Interesse mit der Tab-Taste einfügen lassen.

"Smart Compose hilft Ihnen Zeit zu sparen, indem es die Wahrscheinlichkeit von Rechtschreib- und Grammatikfehlern reduziert", heißt es bei Google. "Es kann sogar kontextbezogene Ergänzungen anbieten. An einem Freitag könnte vorgeschlagen werden: "Habt ein schönes Wochenende!" Unklar ist, wie derzeit noch bei allen Diensten, wann Smart Compose deutschen Nutzern zur Verfügung stehen wird.

Google Photos

Auch dieses Tool will Google in den nächsten Wochen mit Machine Learning aufwerten, indem viele Verbesserungsvorschläge zu Fotos automatisch angeboten werden. Das ging bislang auch schon, etwa mit Helligkeits- oder Farbempfehlungen, aber diese Elemente mussten in der Navigation extra angesteuert werden. Künftig sollen Verbesserungsvorschläge automatisch eingeblendet werden.

Neue Funktionen bietet Google Photos.
Neue Funktionen bietet Google Photos.
Foto: Google

Neu ist die Funktion, einzelne Personen aus einem Bild optisch hervorheben zu können, indem sie farbig und der Hintergrund Schwarz-Weiß dargestellt werden - oder umgekehrt. Auch sollen sich demnächst Schwarz-Weiß-Fotos nachträglich kolorieren lassen. Zudem sollen Personen auf Bildern durch den Einsatz von KI erkannt und als Empfänger für einen Versand vorgeschlagen werden.

Google Lens

Zu den Photo-Ankündigungen passen die Ausführungen zu Google Lens: Die automatische Bilderkennung ist ein Bereich, der besonders stark von Machine Learning und Computer Vision profitiert. Lens soll nun direkt in die Google-Kamera-App integriert werden und damit nicht nur bereits abgespeicherte, sondern auch Live-Bilder analysieren. Damit werden neue Szenarien rund um Augmented Reality (AR) möglich. In einer Demo zeigte Google, wie Lens, auf ein Konzertplakat gerichtet, die Songs der Band auf Youtube zur Wiedergabe vorschlägt.

Das Bild wird interpretiert und nach Bedarf mit weiteren Angaben und Empfehlungen angereichert.
Das Bild wird interpretiert und nach Bedarf mit weiteren Angaben und Empfehlungen angereichert.
Foto: Google

Neu ist auch die intelligente Textauswahl, mit der sich abfotografierte Texte erkennen und als PDF abspeichern lassen. Dabei werden Textauszüge auch interpretiert: "Angenommen, Sie sind in einem Restaurant und sehen den Namen eines Gerichtes, das Sie nicht erkennen. Wir können automatisiert ein entsprechendes Bild einspielen, das Ihnen eine bessere Vorstellung gibt", heißt es bei Google. "Dazu muss man nicht nur Buchstabenformen erkennen, sondern auch die Bedeutung und den Kontext hinter den Wörtern."

Google Assistant

Der digitale Sprachassistent Google Assistant, der sich auf vielen Smartphones, Smart Watches und Lautsprechern breitgemacht hat, soll eine ganze Reihe von Upgrades bekommen. Die Kunden können künftig zwischen sechs verschiedenen - auch männlichen - Stimmen wählen und, zumindest im englischsprachigen Raum, auch ein Voice-Pack des R&B-Sängers John Legend beziehen können. Google verspricht, dass der schlaue Assistent den natürlichen Dialog besser beherrschen wird und auch komplexe mehrstufige Abfragen bewältigen kann.

Der Google Assistant steckt in vielen Lautsprechern, unter anderem im LF-S50G von Sony.
Der Google Assistant steckt in vielen Lautsprechern, unter anderem im LF-S50G von Sony.
Foto: Sony Europe Limited

Künftig soll der Assistant auch höflicher werden. Anwender kennen das: Irgendwann gewöhnen sich insbesondere Kinder in der Konversation mit ihrem digitalen Gefährten einen Befehlston an, der eine gewisse Verrohung in der Sprache zur Folge haben kann. Der Google Assistant soll deshalb künftig höfliches Verhalten, etwa Worte wie "Danke" und "Bitte", goutieren. Schließlich will Google seinen Assistenten auch weiter als bisher verbreiten und ihn vom Sommer an vermehrt auf Geräten anderer Hersteller sowie in den eigenen Services, zum Beispiel Google Maps, anbieten.

Google Duplex

Mit der neuen Technologie Google Duplex sorgte der Internet-Gigant auf der I/O für einen Aha-Effekt, indem er einen Blick auf die nächste Generation der digitalen Sprachassistenten ermöglichte. Google-Chef Sundar Pichai demonstrierte in seiner Keynote anhand von zwei - allerdings zuvor aufgezeichneten - Telefongesprächen, wie Computer auch längere, komplexere Konversationen führen können.

Im ersten Fall ruft eine Frau in einem Frisiersalon an, um dort in einer längeren Konversation mit einer anderen Dame einen Termin auszumachen. Im zweiten Fall, einem etwas holprigeren Dialog, will eine Frau in einem Restaurant einen Tisch reservieren. Sie spricht mit starkem Akzent und ihre Informationen kommen eher abgehackt und unvollständig rüber.

Der Witz: in beiden Telefonaten waren die Bots unter sich - aktiviert und gesteuert durch ein intelligentes Backend-System. Sie ließen Bemerkungen wie "Aha" oder "Ich verstehe" in den Dialog einfließen und veränderten die Satzmelodie, wenn etwa eine Frage gestellt wurde. Auch ließen sie sich auf einen Smalltalk ein, indem zum Beispiel diskutiert wurde, ob eine Reservierung überhaupt notwendig sei oder man einfach auf gut Glück das Lokal aufsuchen solle.

Google Duplex kombiniert Natural Language Processing (NLP), Deep Learning und Text-to-Speech-Technologie in einem Dienst. Dabei wird das Modell so trainiert, dass es bestimmte Erwartungen bezüglich Verzögerungen, Pausen oder Ansprachen erfüllt und seine Intonation verändert, je nachdem wie eine Konversation verläuft. Das System lernt also, sich im Gespräch so wie ein Mensch zu verhalten, der telefoniert. Google hat das Feature, das in den Assistant integriert und damit auf Smartphones und anderen kompatiblen Endgeräten und Speakern laufen soll, noch nicht veröffentlicht. In den USA dürfte das aber noch in diesem Sommer passieren.

Android P Beta

Android P mit Gesten und Google Assistant ruft Frisör an
Android P mit Gesten und Google Assistant ruft Frisör an
Foto: Google

Eine weitere Ankündigung betraf das Android-Betriebssystem, dessen nächste Version - der endgültige Name von Android P wurde noch nicht verraten - in Kürze als Beta für Entwickler zum Download bereitstehen soll. Eine Entwickler-Vorschau war bereits im März zur Verfügung gestellt worden, aber die aktuelle Betaversion fügt neue Features hinzu, die erst auf der I/O 2018 vorgestellt wurden. Dabei sollen nicht nur Googles eigene Smartphones und Tablets, sondern auch High-End-Geräte anderer Hersteller unterstützt werden - das Sony Xperia XZ2 etwa, das Nokia 7 Plus und auch das noch nicht vorgestellte OnePlus 6.

Android P ist ein größeres Update, das eine veränderte Navigation, mehr Gestensteuerung (auch aus den Apps heraus) und eine verbesserte kontextsensitive Unterstützung der User mitbringen wird. Interessant am Rande: Google will Nutzern dabei helfen, ihr Nutzungsverhalten zu analysieren und ihre gegebenenfalls vorhandene Daddel-Sucht zu bekämpfen. So lassen sich Nutzungszeiten festlegen und ein "Nicht-Stören-Modus" einrichten, so dass gar keine oder nur ganz bestimmte Anrufe und Messages ankommen.

Google Maps

Auch der Kartendienst Google Maps erhält neue, ebenfalls von Machine Learning unterstützte Funktionen. Hier zielt Google stark auf persönliche Empfehlungen ab, die ortsabhängig gegeben werden und das Verhalten des Users - zum Beispiel seine Vorliebe für Fast-Food-Restaurants - berücksichtigen. Dabei gibt der ständig dazulernende Kartendienst auch Wahrscheinlichkeiten an, mit denen eine Location oder ein Restaurant dem User gefallen wird.

Die Funktion "Erkunden" wurde übersichtlicher gestaltet und listet Veranstaltungen, Restaurants und andere Aktivitäten auf. Neu ist der Menüpunkt "Für Sie": Hier erfährt der Nutzer, was in seinem Wohnviertel vor sich geht, welche lokale Veranstaltungen stattfinden oder welche Restaurants neu eröffnen oder welche Aktionen laufen. Für alle, die sich mit Google Maps ihren Weg durch die Straßenschluchten fremder Städte bahnen, gibt es zusätzliche Hilfe: Maps nutzt künftig die Smartphone-Kamera, um das Straßenbild mit einem aktuellen Kartenausschnitt zu synchronisieren, was die Orientierung deutlich erleichtern soll.

Google News

Auch der Nachrichten-Aggregator "Google News" wird sowohl in der App als auch im Browser-Dienst generalüberholt. Wie bei anderen Google-Diensten sind auch hier Personalisierung und KI Trumpf: Nutzer erhalten in einem "Für-Sie-"Bereich ständig individuell zusammengestellte News, die auf ihre jeweiligen Interessen abgestimmt sind. Der Dienst lernt dabei nach und nach, was den User beschäftigt und welche Infos ihn aufgrund seines Verhaltens interessieren könnten. Darauf wird sein Informationsangebot abgestimmt. Die User sollen dabei aber die Kontrolle behalten und eingeben können, von welchen Nachrichten sie mehr oder weniger erhalten möchten.

In den neuen "Newscasts" bekommen die Google-News-User zu bestimmten Nachrichten ein kleines Karussell an Snippets, Bildern, Videos, Tweets, Zitate etc. serviert, um sich einen schnellen Überblick zu verschaffen. Wollen sie tiefer in ein Thema eintauchen, können sie sich entweder auf die Website der Nachrichtenquelle durchklicken oder sich im neuen Service "Full Coverage" einen Überblick verschaffen.

Diesen Dienst kann man sich wie eine erweiterte Version von Newscast vorstellen, mit den wichtigsten Headlines aus verschiedenen Quellen, Videos, lokalen Nachrichtenquellen, FAQs und Kommentaren aus dem Social Web. Interessant am Rande: Aufkommende Geschichten werden chronologisch nachvollziehbar, so dass anhand einer Timeline die Genese einer Story zurückverfolgt werden kann.

Google legt Wert auf die Feststellung, dass "Full-Coverage-Stories" allen Google-News-Usern in gleicher Art präsentiert werden. Man wolle sich nicht vorwerfen lassen, Fakten zu verzerren, indem die Nachrichtenauswahl hier individualisiert wird. Vielmehr gehe es darum, Usern viele Quellen zu zeigen, damit nicht der Fokus auf wenige einschlägige Quellen die Perspektive verzerre.

Linux auf Chromebooks

Eher am Rande der I/O kündigte Google an, dass Chromebooks künftig Linux-Unterstützung erhalten sollen. Man wolle es Entwicklern erleichtern, auf den Browser-basierten Laptops zu programmieren. "Die Unterstützung für Linux ermöglicht Ihnen das Erstellen, Testen und Ausführen von Android- und Web-Anwendungen", hieß es.

Linux läuft in einer virtuellen Maschine, die speziell auf Chromebooks zugeschnitten wurde. Dem Hersteller zufolge starten die Linux-Chromebooks in Sekundenschnelle und nutzen die Funktionen der leichtgewichtigen Rechner. Linux-Anwendungen können demnach mit einem Klick gestartet, Fenster beliebig verschoben und Dateien direkt aus den Anwendungen heraus geöffnet werden.