Next 2017: Datenbank Cloud Spanner und AI für viele Produkte

Google baut Tools-Portfolio für seine Cloud-Services aus

10.05.2017 von Jürgen  Hill
Mit der Cloud-Datenbank Spanner, offenen APIs und neuen Tools für die G Suite will Google künftig bei professionellen Usern punkten. Zudem sollen die Produkte der G Suite künftig mit künstlicher Intelligenz ausgestattet werden.
In Sachen Datenbanken und AI rüstet Google in nächster Zeit kräftig auf.
Foto: Hill

Eine Skalierbarkeit fast ohne Grenzen, eine Performance die sich den Anforderungen automatisch anpasst, SQL-Schemata zur Programmierung und nur das Budget des Anwenders setzt dem Grenzen? So bewirbt Google seine Datenbank Cloud Spanner, die nach der Betaphase ab 16. Mai offiziell verfügbar sein soll. Finanziell müssen die Anwender pro Node und Stunde Rechenzeit mit 90 US-Cent kalkulieren und mit 30 US-Cent pro GB und Monat rechnen.

Cloud-Datenbank Spanner

Dafür verspricht Google einen relationalen Datenbankdienst, der sowohl stark konsistent als auch horizontal skalierbar sei. Im Gegensatz zu anderen relationalen Datenbank-Services skaliere Cloud Spanner horizontal auf hunderten oder tausenden Servern. So könne die Datenbank auch sehr große Transaktions-Workloads abarbeiten. Gleichzeitig verspricht Google eine Verfügbarkeit von bis zu 99,999% (fünf 9er) und sichert die Konsistenz der Transaktionen zu. Allerdings gilt die horizontale Skalierbarkeit derzeit nur für die Datenbanken in den Rechenzentren einer Region. Eine Cross-Region-Replizierung soll gegen Ende 2017 verfügbar sein. Innerhalb einer Region verspricht Google Roundtrip-Zeiten von 5 Millisekunden. Spanner selbst verarbeitet nach Konzernangaben bis zu 1,3 Milliarden Datensätze pro Datenbank.

Mit Spanner und den entsprechenden Tools verspricht Google
Foto: Hill

Seine Feuertaufe hat Spanner laut Google bereits hinter sich: Auf Spanner läuft nämlich auch das 80 Milliarden Dollar Business des Konzerns selbst. Wie gut das System skaliert, zeigte Google zudem auf der hauseigenen Cloud-Konferenz Next 2017 in London. Ein imaginärer Ticket-Verkäufer, verteilt über drei Kontinente, vermarktete pro Minute Millionen von Tickets - selbst dann noch, wenn über eine Query die Datenbank live im Betrieb bearbeitet wurde. Beim Bestücken bewältigt die Datenbank 500 MB/s. Dabei optimiert sich die Datenbank, wie es bei Google heißt, im Betrieb selbst und reserviert sich die erforderlichen Ressourcen. Der User muss sich als nicht mit der Zuweisung von CPUs, Speicher etc. auseinandersetzen.

Datenbank-Tools

Ergänzend zu Snapper stellte Google auf der Next zudem zahlreiche Tools für die Cloud-Datenbank vor, die ein Ende-zu-Ende integriertes Analytics ermöglich soll. Dazu gehört etwa das bereits bekannte BigQuery zur Datenanalyse. Zum Bestücken und Aufbereiten einer Datenbank offeriert Google künftig mit Dataprep, Dataflow und Dataproc drei Data Transfer Services. Mit Dataprep lassen sich etwa Daten visuell erkunden, bereinigen und für die Analyse vorbereiten.

Google und die AI

Das Rendern von Videos in nahezu Echtzeit sowie das Erkennen von Video-Content verspricht Google mit seinen AI-Werkzeugen und einem GPU-Cluster.
Foto: Hill

Einen großen Raum nimmt bei Google 2017 auch das Thema Künstliche Intelligenz (AI/KI) respektive Machine Learning ein. Der Konzern hat sich nicht weniger als die "Demokratisierung der AI" als ein Ziel auf seine Fahnen geschrieben. Dabei blickt der Konzern in Sachen AI nach eigener Darstellung bereits auf eine längere praktische Erfahrung zurück: Die Autocomplete-Funktion in der Google-Suche sei eines der ersten Beispiele für AI beziehungsweise Machine Learning und bereits 12 Jahre alt. Aktuell will Google bei der Demokratisierung der AI zweigleisig fahren: Einerseits stellt man mehrere APIs zur Verfügung, die Kunden in ihren eigenen Programmen verwenden können, anderseits baut man die eigene G Suite konsequent aus und achtet immer stärker darauf, AI-Element zu integrieren, um die Produktivität zu verbessern.

Offene APIs

Mit AI-Bezug plant Google derzeit 5 APIs freizugeben:

Cloud Natural Language API,

Cloud Speech API,

Cloud Translate API,

Cloud Video Intelligence,

Cloud Vision API.

Letztere API, die seit etwa einem Jahr verfügbar ist und deren Funktionen - wie Image Search oder OCR - sich noch in der Beta-Phase befinden, soll etwa in kurzer Zeit bis zu 1,5 Milliarden Bilder analysieren und auswerten. Und die API Cloud Video Intelligence soll als einer der ersten ihrer Art in der Lage sein, den Inhalt von Videos zu verstehen und somit Videos automatisch nach Gegenständen etc. ("Such den Roboter") durchsuchen können.

Performance dank GPU-Cluster

Laut Dave Starlin, CTO bei seenit.io, einem auf Video-Collaboration und Videoschnitt spezialisiertem Unternehmen, hat Video Intelligence die gesamte Art zu arbeiten im Unternehmen verändert. Benötigte man früher um einen Frame zu rendern fast drei Stunden, so geschieht das heute fast in Echtzeit. Zudem werde der Content automatisch getaggt. Allerdings ist dies nicht alleine dem intelligenten API geschuldet. Hier macht sich bezahlt, dass Google im Hintergrund in der Cloud die AI mit GPU-Clustern paart. On demand, so Starlin begeistert, könne er auf eine Cluser von 128 GPUs zugreifen, was einer Rechenleistung von einem halben Petaflop entspreche und das Rendern in nahezu Echtzeit erlaube.

Shazam-Show: Mensch gegen Roboter

Die neuen Addons für die G Suite.
Foto: Hill

Von der Paarung aus AI und GPU-Cluster profitiert auch Shazam, ein auf das Erkennen von Musiktiteln spezialisiertes Unternehmen. Die Musikerkennung nehmen täglich bis zu 20 Millionen User in Anspruch. Eine Menge, die laut Richard Sharp, CTO von Shazam, nur noch mit Machine Learning und per GPU-Cluster zu bewältigen ist. Hierzu nutzt Sharp unter anderem Elastic Cloud Services und Googles Cloud API. Überzeugt von der Leistungsfähigkeit des Systems will Shazam demnächst auf dem US-Sender Fox TV, moderiert von US-Schauspieler Jaime Foxx - die Show Beat Shazam starten. In der Show, die am 25. Mai Premiere feiert, sollen Teilnehmer im Wettlauf gegen die AI Musiktitel schneller und korrekt erraten.

G Suite wird intelligent

Mittels Machine Learning trimmt Google auch die Produkte seiner G Suite auf AI und verspricht damit ein effizienteres und produktiveres Arbeiten. Mittels Explore in Docs, Slides and Sheets können Benutzer etwa in Spreadsheets eine Datenabfrage in natürlicher Sprache formulieren. Quick Access for Team Drives soll dagegen die Suche nach Dateien vereinfachen, indem die Maschine vorhersagt, nach welchen Files der Benutzer vermutlich sucht. Diese Dateien werden dann zuerst anzeigt. Andere neue, bereits verfügbare Ergänzungen für die G Suite sind:

Bei Hangouts Meet handelt es sich um eine überarbeitete Version von Hangouts, das um die Komponente der Team-Connectivity verfügt. Oder anders formuliert, Hangouts Meet verfügt jetzt wie andere Collaboraion-Tools über virtuelle Konferenzräume zum Abhalten von Meetings. Zum Einladen der Konferenzteilnehmer steht ein meet bot zur Verfügung, der Einladung und Terminsuche in natürlicher Sprache erlaubt. Dabei läuft das System komplett im Browser und könnte laut Google selbst auf einem zwei Jahre alten Chromebook genutzt werden. Eine nützliche Ergänzung zu Hangouts ist das virtuelle, Cloud-basierte Whiteboard. Es soll ab Sommer etwa in Großbritannien verfügbar sein. Im Gegensatz zu anderen Whiteboard-Lösungen wird hier ein passiver Stylus verwendet, was die Kosten senkt und den Ärger über verlegte digitale Stifte in Grenzen hält.

In der Pipeline

Andere G-Suite- Erweiterungen befinden sich noch im Early Adopter Program oder sind lediglich als Developer Preview erhältlich. Dazu zählen folgende Tools:

Allerdings traf dieses Neuigkeiten-Festival nicht bei allen Besuchern der Google-Cloud-Konferenz-2017 auf ungeteilte Begeisterung. In den Pausen war von dem einen oder anderen Teilnehmer durchaus zu hören, dass sie es lieber sähen, wenn sich Google auch einmal den Integrationsfragen mit vorhandenen Legacy-Applikationen von Drittherstellern befassen würde, statt ständig neue Tools vorzustellen.