Best in Big Data 2013

"Noch nutzen wir die Big-Data-Anwendungen wie die Kleinkinder"

24.09.2013 von Simon Hülsbömer
Zum zweiten Mal veranstaltet die COMPUTERWOCHE heute den Kongress "Best in Big Data" und kürt die besten Projekte und Tools. Lesen Sie hier alles zum Event.
Vorjahressieger Klaas Bollhöfer fordert neue Interfaces zwischen Daten und Menschen.
Foto: IDG Business Media GmbH / Foto Vogt GmbH

"Daten sind in der Mitte unseres Lebens angekommen. Sie bestimmen staatliche, wirtschaftliche, technische und persönliche Entscheidungen.“ Dieser einführende Satz aus der Keynote-Ankündigung von Data Scientist Klaas Bollhöfer von The unbelievable Machine Company und Stephan Thiel von Studio NAND steht auch sinnbildlich für den gesamten Kongress „Best in Big Data“. Die Entscheidung, einen Vortrag oder eine Präsentation kürzer zu halten als geplant, wird den Sprechern durch eine große Countdown-Uhr am Bühnenrand abgenommen: Ist die Zeit abgelaufen, ist die Show zu Ende – die Daten, in diesem Fall die Zahlen, haben gesprochen.

Fast 200 Teilnehmer haben sich in der prominenten Kulisse der Frankfurter Commerzbank-Arena eingefunden – terminlich eingerahmt von UEFA Europa League und DFB-Pokal. So lassen die Konferenzpausen nicht nur Networking-Gespräche während des Besuchs der Ausstellung zu, sondern auch einen kurzen Ausflug auf die VIP-Tribüne im Innenraum des Stadions – wenige Meter oberhalb des sattgrünen Rasens, auf dem morgen Abend bereits wieder Fußball gespielt wird.

Neue Schnittstellen, neues Design

Andreas Seufert präsentierte die Ergebnisse einer noch laufenden Studie über die Wettbewerbsvorteile durch Big Data.
Foto: IDG Business Media GmbH / Foto Vogt GmbH

Auf der Bühne stellen Spezialisten wie Andreas Seufert, Professor an der Berliner Steinbeis-Hochschule, oder der letztjährige Publikumspreisgewinner Bollhöfer neue Studien („Die Nutzung von Big Data wird zunehmen“) und mögliche Anwendungsszenarien („Das Wichtigste ist die Schnittstelle zwischen Daten-Anwendung und Mensch“) vor. Eine provokante These hat beispielsweise Stephan Thiel gleich zu Beginn in petto: „Noch nutzen wir die Big-Data-Anwendungen wie die Kleinkinder. Wir nehmen das hin, was uns von den Systemen vorgesetzt wird. Wir müssen vielmehr die Gestaltung neuer Prozesse ermöglichen.“ Gemeinsam mit Bollhöfer fordert er neue modulare Interfaces, grundlegend neue Visualisierungsansätze, damit Anwender ihre Daten besser auswerten und vor allem neue Erkenntnisse für die Zukunft gewinnen können.

Nicht der Nutzer müsse sich auf das System einstellen, sondern das System auf den Nutzer. Das das nötig ist, bestätigt Frank Theisen aus der Smarter-Analytics- und -Commerce-Abteilung der IBM: „Wir haben das Zeitalter des mächtigen Kunden erreicht.“ Vor-Ort-Preisvergleiche mit dem Smartphone im Geschäft oder das starke Vertrauen in die Produktbewertungen anderer Käufer verlangten von Anbietern eine neue Ausrichtung ihrer Kundendatenanalyse.

Wer stellt schon Dr. House ein?

In den Pausen lohnt sich ein Besuch der Ausstellung, die auch reichlich Raum fürs Networking bietet.
Foto: IDG Business Media GmbH / Foto Vogt GmbH

Dass Big Data aber nicht nur die Anpassung der eigenen Prozesse erfordern, sondern auch neue Geschäftsmodelle ermöglichen, stellte Wolfgang Hackenberg vom Steinbeis-Transferzentrum pvm in den Mittelpunkt. Nicht unbedingt vorteilhaft für IT-Abteilungen, die sich nicht darauf einstellen: „Neue Technologien entmachten die IT. Der CIO braucht die eigene IT-Abteilung nicht mehr, was die Veredelung von Daten angeht.“ Er spielt auf die Nutzbarmachung von Daten an, die sich in erster Linie durch Cloud-Services realisieren lasse, die kürzere und flexiblere Anpassungen möglich machten.

Wie also muss der Big-Data-Experte aussehen, wenn der klassische IT-Spezialist der falsche Ansprechpartner für entsprechende Projekte ist? Hackenberg zeichnet seinen Wunschcharakter: "Er braucht mathematisches Verständnis, Business-Skills, er muss Daten visualisieren können, fähig sein, mit diversen Technologien umzugehen- Er braucht Neugierde, Ungeduld, aber auch Faulheit und muss eine gewisse Hybris sein - mit Gier, Überheblichkeit und Stolz auf die eigene Leistung ausgestattet." Weil er aber niemanden kenne, der alle Kriterien erfülle, schlug er sogleich eine fiktionale Figur vor, die aus einer amerikanischen Fernsehserie bekannt ist: Dr. House. Die Frage sei aber, ob ein Unternehmen sich traue, so jemanden wirklich einzustellen, und in welcher Abteilung er dann beschäftigt werde.

"Innovative" Datenschützer gesucht

Allesamt Fragen, die von deutschen Unternehmen noch nicht abschließend beantwortet werden konnten. Genauso wenig wie die Frage nach dem Datenschutz und den Sicherheitsaspekten von Big Data. Klassische Big-Data-Projekte stünden meist konträr zum Thema Datenschutz - zumindest soweit es um personenbezogene Daten gehe, erklärt Hackenberg.. Es sei aber keine Frage nach dem "ob", sondern allenfalls eine Frage nach dem "wie". "Wir werden den Big-Data-Zug nicht aufhalten können, weil sich Unternehmen wie Google nicht um unsere Gesetze scheren", stellt er klar. Er schiebt provokant hinterher: "Unsere Datenschützer halten den Zug unnötigerweise auf. Wir brauchen neue innovative Datenschützer, die nicht immer nur blockieren und verhindern."

Im Anschluss an die Vorträge präsentieren die 18 Finalisten ihre Projekte und Tools der Jury und dem Publikum. Am späten Abend findet dann die Bekanntgabe der "Master in Big Data" samt Preisverleihung statt. Alles zu den Gewinnern lesen Sie hier.

Einen Event-Live-Ticker zum Nachlesen gibt es auf unserer Facebook-Seite. Ausführliche Beschreibungen der nominierten Projekte und Tools finden Sie in unserem Online-Special und in folgender Bildergalerie:

Best in Big Data 2013 - Die Finalisten
Die COMPUTERWOCHE kürt zum zweiten Mal die besten Big-Data-Projekte und -Tools. Am 24. September stellen sich die Anbieter der Jury und dem Publikum. Lesen Sie auf den folgenden Seiten, welche Teilnehmer in den Ring treten.
Actuate: BIRT Analytics
Actuate geht mit „BIRT Analytics“, einem Tool für Big-Data- Analytics, Visual Data Mining und Predictive Analytics, an den Start. Das Werkzeug enthält neben den Analysefunktionen ein integriertes Workflowund Kampangen-Management.
Berliner Morgenpost: Flugrouten-Radar
Die „Berliner Morgenpost“ hat eine interaktive Datenjournalismus- Anwendung umgesetzt, die Informationen zu Flügen sowie Flugspurdaten rund um die Hauptstadt auswerten und visualisieren kann.
Clueda "News Analytics" - Lotse durch den Informationsstau im Handelsraum
Nachrichten treiben Börsen. Deshalb müssen Börsenhändler in der Lage sein, in kürzester Zeit die Tragweite einer Nachricht zu verstehen und Entscheidungen zu treffen. Die Münchner Big-Analytics-Spezialisten der Clueda AG haben gemeinsam mit ihrem Kunden, der Baader Bank AG, ein Analyse-System entwickelt, das aus großen unstrukturierten Textmengen alle relevanten Informationen und Stimmungen in Echtzeit herausfiltert und so die Handelsentscheidung erleichtert.
Delphit: Social Forecast
Delphit schickt sein Tool „Social Forecast“ ins Rennen um die diesjährigen Best-in-Big-Data- Awards. Das Werkzeug erstellt quantitative Prognosen auf Basis von Mitarbeitereinschätzungen, um Entscheidungen in Unternehmen zu unterstützen.
Empolis Competitive Intelligence hört auch die schwachen Signale
Um im Wettbewerb zu bestehen, müssen Unternehmen der Konkurrenz immer einen Schritt voraus sein. Empolis hat mit "Competitive Intelligence" ein Tool entwickelt, das mittels semantischer Technologien große Mengen an unstrukturierten Daten automatisch analysiert und dabei auch die entscheidenden "schwachen Signale" ermittelt.
HP Big Data Discovery Experience - Big Data richtig pilotieren, validieren und umsetzen
Hewlett-Packard unterstützt mit "HP Big Data Discovery Experience" Anwender dabei, einen Business Case für Big-Data-Projekte zu rechnen sowie Pilotumgebungen zügig produktiv zu setzen.
hfp Informationssysteme GmbH: hfp openAnalyzer
Der „openAnalyzer“ von hfp stellt eine Datenanalyse-Plattform dar, die App-basiert strukturierte und unstrukturierte Daten einlesen, verarbeiten und wieder ausgeben kann.
IBM Infosphere Streams filtert Datenströme in Echtzeit
Um Daten effizient analysieren und nutzen zu können, benötigen die Unternehmen heute neue Methoden und Werkzeuge. IBM hat mit "Infosphere Streams" ein Tool entwickelt, das Daten in Echtzeit analysieren kann, ohne dass diese gespeichert werden müssen.
Michulke & Ringsdorf: INTTRA
Mit „INTTRA“ wendet Michulke & Ringsdorf sein System künstlicher Intelligenzen auf den europäischen Energiemarkt an. Dort wird aufgrund der immer stärkeren Integration unstet produzierender Energieträger wie Sonne und Wind die Planung von Angebot und Nachfrage an Strom für Energiehändler, Übertragungsnetzbetreiber und Kraftwerksbetreiber immer schwieriger.
Mindbreeze: InSpire
Mindbreeze bietet „InSpire“ als vorkonfigurierte, aufeinander abgestimmte Komplettlösung aus Hardware-Appliance und Softwarepaket an – für eine schnelle und umfangreiche Suche in allen Unternehmensdatenquellen.
n3 data & software science: Immobilien bewerten
ImmobilienScout24 bietet für seine Kunden neben der Vermarktung auch ein Online-Immobilienbewertungssystem an. Ein großer Teil der Metadaten der darin enthaltenen Objekte – wie etwa Baujahr, Baustil oder Heizanlage – liegt allerdings in Form von Fließtext in unstrukturierten Freitextfeldern vor und ist damit nur schwierig zu verarbeiten.
Pentaho Business Analytics ordnet Sounds im Netz
Über 200 Millionen Musiker stellen ihre Stücke in die SoundCloud. Um diese Daten sinnvoll zu sortieren und zu ordnen benötigten die Betreiber effiziente und leistungsstarke Big-Data-Werkzeuge. Mit Pentaho Business Analytics kann SoundCloud gezielter auf Wünsche und Anforderungen seiner Nutzer eingehen.
r4apps: PerForm
r4apps verspricht Anwendern mit „PerForm“ schnelle, interaktive Analysen von massiven strukturierten und unstrukturierten Daten.
Splunk holt die Informationen aus den Maschinendaten
Um Betrieb und Geschäft möglichst effizient zu betreiben, müssen Unternehmen aus ihren Maschinendaten alle wichtigen Informationen herausholen. Splunk bietet mit "Splunk Enterprise" eine Lösung, die sich flexibel konfigurieren und anpassen lässt, um Daten zu erfassen, auszuwerten und darzustellen.
Synop Systems: Synop Analyzer
Mit dem „Synop Analyzer“ bietet Synop Systems eine modular aufgebaute Big-Data-Analysesoftware an, mit der Fachanwender und Data-Mining-Experten interaktiv Zusammenhänge und versteckte Muster entdecken sowie Prognosen erstellen können.
Tableau Software: Tableau Desktop und Server
Die hohe Kunst von Big Data heißt für die Anwender, viele unterschiedliche Daten aus verschiedenen Quellen in den Griff zu bekommen sowie in diesem komplexen Zusammenspiel auch noch den Durchblick zu behalten und zudem die richtigen Schlüsse zu ziehen.
Talend Open Studio verbindet Big-Data-Quelle und -Ziel
Mit Open Studio for Big Data bietet Talend Anwendern ein grafisches Tool, mit dessen Hilfe sich der Austausch von Big Data zwischen beliebigen Quellen und Zielen einfach konfigurieren lässt.
VMS AG: SCOOP
Die VMS AG bringt mit „SCOOP“ ein Big-Data-Werkzeug für Predictive Operational Analytics zum diesjährigen Best-in-Big- Data-Award an den Start. SCOOP steht für „Seeking Cash Opportunities in Operational Processes“.