"Datensammlungen sind erst dann sinnvoll, wenn sie zeitnah analysiert und komplexe Zusammenhänge aus ihnen herausgelesen werden", sagt Bodo Körber, Director of Information Management bei IBM Deutschland. Davon können nicht nur Handelsunternehmen und Hersteller von Markenartikeln profitieren, die genauer und schneller als bisher erfahren, was die Endverbraucher wünschen. Pharmaunternehmen können bei der Suche nach Wirkstoffen teure Fehlentwicklungen durch Simulationen vermeiden oder Banken Finanztrends analysieren.
Big Data bedeutet aber nicht, dass nur Unternehmen, die über gewaltige Rechnerressourcen oder große Budgets verfügen, die Vorteile dieser Entwicklung nutzen können. Um datenintensive Aufgaben in Anwendungsbereichen wie Webindizierung, Data-Mining, Protokolldateianalyse, maschinelles Lernen, Finanzanalyse, wissenschaftliche Simulation und bioinformatische Forschung durchzuführen, brauchen Unternehmen keine eigenen Rechnerparks mehr.
Weiterentwicklungen von Googles Datenverarbeitungs- und Analysesystem Map-Reduce sind der technische Kern vieler Lösungen in diesem Bereich. Doch nicht nur
Google selbst bietet die Analyse von Big Data in der
Cloud an. Das standortbezogene soziale Netzwerk Foursquare etwa setzt auf eine Big-Data-Lösung aus der Cloud von
Amazon. Mit Amazon Elastic Map-Reduce können Unternehmen sich auf das Zerlegen oder Analysieren ihrer Daten konzentrieren, ohne sich um die zeitraubende Einrichtung und Verwaltung von Rechen-Clustern kümmern zu müssen.
Microsoft bietet über seinen Cloud-Dienst Azure Zugriff auf das Massendatenverarbeitungssystem Hadoop. Datenbankanbieter wie
IBM und
Oracle entwickeln cloud-basierte Big-Data-Angebote. Selbst die Simulationssoftware von Autodesk ist mittlerweile in einer Cloud-Version zu haben.
In Echtzeit durch den Datenwust
Startup-Unternehmen nutzen mit Hilfe der Cloud bereits die Chance, in den Datenfluten Wissens-Nuggets zu entdecken und sinnvoll aufzubereiten. Block-Avenue aus Boston etwa versucht, Kunden zu gewinnen, indem das Unternehmen Noten an Wohngebiete in den Vereinigten Staaten vergibt. Mithilfe von 50 Millionen Datenpunkten, die aus Kriminalstatistiken, Fahrplänen des öffentlichen Nahverkehrs oder Restaurantbewertungen ermittelt werden, sollen Nutzer eine Orientierungshilfe bekommen: Liegen Hotelzimmer, Häuser oder Wohnungen, für die sie sich interessieren, in sehr guten oder weniger empfehlenswerten Gegenden?
Auch Unternehmen in Deutschland haben PAC zufolge das Potenzial der Massendatenanalysen erkannt. Rund 60 Prozent der 102 IT-Verantwortlichen, die die Berater befragten, planen Investitionen in Data-Warehouse, Datenmanagement und -integration sowie in Technologien wie die In-Memory-Datenanalyse, um schnell große Mengen an Daten verarbeiten zu können. Die Herausforderung für Unternehmen liegt dabei neben der Datenflut auch in der Vielfalt und Geschwindigkeit, in der Daten entstehen. Nicht nur alte Datenberge, sondern auch und gerade alle aktuellen Impulse aus den Netzwerken müssen durchforstet und analysiert werden - im Idealfall in Echtzeit.
Mit dem Kauf von Technologie allein werden Unternehmen allerdings auch dann kaum vom Phänomen Big Data profitieren können, wenn die Probleme hinsichtlich der Hard- und Software gelöst sind, warnen Experten. "Es ist nicht einfach, aus der Flut der Daten die richtigen Korrelationen herauszuarbeiten", sagt PAC-Analyst Niemann: "Weil der Beratungsbedarf hier hoch ist, reden wir hier nicht nur von einem wachsenden Lösungs-, sondern auch von einem wachsenden Dienstleistungsmarkt."