Schon seit den 1950er Jahren werden in Unternehmen Analysewerkzeuge verwendet. Zwar hat in letzter Zeit das öffentliche Interesse an diesem Thema stark zugenommen, doch die Art der Datenanalyse hat sich in den meisten Unternehmen seitdem nicht stark verändert: Eingesetzt werden klassische Analysesysteme mit Reports und Dashboards, die in ihrer höchsten Ausbaustufe operationale Business Intelligence hervorbringen. Sie sind einzelnen Business-Applikationen nachgelagert, sodass jede Applikation ihre eigene Analyse bzw. ihre eigenen Schlussfolgerungen hat, ohne jedoch mit anderen Ergebnissen verknüpft zu werden. Früher mag diese Methode ausreichend gewesen sein, doch die heutige Realität stellt die Analysewelt vor vollkommen neue Herausforderungen: Wahre Datenmassen werden generiert, immer mehr Maschinen sind miteinander vernetzt, eine Vielzahl von Prozessen läuft computergesteuert. Können die Analysemethoden aus den 50er Jahren angesichts dieser Entwicklungen tatsächlich noch Stand halten? Reicht es wirklich aus, einzelne Analysen in Dashboards abzubilden oder vorherzusagen, was morgen passiert? Tatsächlich stehen wir vor einem Paradigmenwechsel im Analyse-Bereich, der für Unternehmen zwingend notwendig ist, um am Markt bzw. wettbewerbsfähig zu bleiben. Wir zeigen, was sich genau dahinter versteckt und welche Stationen auf dem Weg dahin liegen:

Analytics 1.0 – Klassische Business Intelligence

Die ersten Analysemodelle entstanden in den 1950er Jahren. Damals waren die Datenmengen noch relativ klein, strukturiert, stammten aus internen Quellen und wurden meist in Enterprise Data-Warehouses gespeichert. Die Analysemodelle, die wir unter Analytics 1.0 zusammenfassen, beschränkten sich größtenteils auf beschreibende Analysen bzw. das Reporting interner Aktivitäten. Ein Großteil der Unternehmen benutzt noch heute diese (veralteten) Analysewerkzeuge, obwohl sich die Paradigmen mit dem Aufkommen von Big Data in den 2000-er Jahren grundlegend änderten.

Analytics 2.0 – Ära von Big Data

Das Analysebild wird nun von riesigen Datenmengen bestimmt. Sie stammen aus unterschiedlichen internen und externen Quellen, sind unstrukturiert und werden in Massen generiert. Dies erfordert völlig neue Analyseansätze und -systeme, die unter dem Begriff Analytics 2.0 zusammengefasst werden. Um den schnellen Datenfluss umgehend speichern und verarbeiten zu können, arbeiten sie mit einer Vielzahl von parallelen Servern. Die Analysen beschränken sich nicht mehr nur auf interne Geschäftsprozesse, sondern werden auch für kundenorientierte Prozesse angewandt. Außerdem entstehen über deskriptive (beschreibende) Analyse-Modelle hinaus erste prädiktive (vorhersagende) und präskriptive Ansätze (vorschreibende – „was muss ich tun, um ein bestimmtes Ziel zu erreichen?“).

Diese Stufe stellt für die meisten Unternehmen kapitalen Aufwand dar: Sie benötigen Spezialisten, sog. Data Scientists, die darauf spezialisiert sind, die Daten zu modellieren und Schlüsse aus ihnen abzuleiten. Der Arbeitsmarkt jedoch weist hier erhebliche Lücken auf, so dass sich die Unternehmen veranlasst sehen, sich nach einer anderen – einer technischen – Lösung umzuschauen.

Analytics 3.0 – Die Analyse im Zentrum aller Unternehmensaktivitäten

Diese Lücke versucht Analytics 3.0 zu schließen – die nächste Entwicklungsstufe in der Datenanalyse. Ausgestattet mit entsprechenden Technologien und Tools kann Analytics 3.0 (s. auch Operational Intelligence Plattform), Datenmassen im großem Stil zu nützlichem Wissen automatisiert verarbeiten. Die 3.0-Modelle kombinieren beschreibende, prädiktive und präskriptive Analysen mit der Fähigkeit, Big Data „on the fly „auszuwerten bzw. zu nutzen. D.h. das Wissen, das die Systeme selbstständig aus den Daten ableiten, wird in intelligente Front Ends und operative Prozesse integriert. Dies ermöglicht schnelle, aussagekräftige Einblicke in Unternehmensprozesse und -aktivitäten sowie darauf basierende automatisierte Entscheidungen und Maßnahmen. Die Vision: Mithilfe der Datenanreicherung für jede existierende Branche kundenzentrierte und passgenaue Angebote in Echtzeit zu schaffen.

Erste Unternehmen beginnen bereits, eine Analytics 3.0-Strategie umzusetzen – doch dabei muss vielen systemischen Herausforderungen begegnet werden und die Entwicklung der Modelle ist noch jung. Es gibt jedoch erste vielversprechende Ansätze – so auch von odoscope. Lesen Sie im nächsten Beitrag über „Operational Intelligence“ – die Plattform zur automatischen Optimierung von Online-Angeboten auf Basis präskriptiver Datenanalysen.

Weitere Literaturtipps zum Thema Anayltics 3.0 / Operational Intelligence:

http://dataconomy.com/2014/12/operational-intelligence-the-next-generation-of-business-intelligence/

odoscope-newsletter
Download-Shopping-4.0