Im letzten Jahrzehnt haben sich Business Intelligence (BI) und Datenvisualisierung zu entscheidenden Geschäftsfunktionen entwickelt. Doch obwohl BI- und Datenvisualisierungstools zunehmend an Bedeutung gewinnen, haben die meisten Unternehmen weiterhin Schwierigkeiten, daraus zeitnahe und umsetzbare Erkenntnisse zu gewinnen.
Das Problem ist nicht die Akzeptanz oder der Zugang. Unternehmen erkennen den Bedarf. Es geht sowohl um Leistung als auch um Leistungsfähigkeit. Heutige Business-Intelligence-Plattformen sind immer noch durch architektonische Einschränkungen eingeschränkt, die aus einer anderen Zeit stammen: einer Zeit, in der Daten aus einer Handvoll Quellen stammten und sich nur selten änderten.
Im Gegensatz dazu umfasst die heutige Datenumgebung riesige Data Warehouses, Event-Streaming, Echtzeit-IoT-Sensoren und sich ständig ändernde Eingaben, die in Zeiträumen von Tagen bis Millisekunden aggregiert, angereichert, vorverarbeitet und verstanden werden müssen.
Mitbegründer und CEO von Row64.
Das Ziel von BI selbst hat sich nicht geändert, aber die schiere Menge, Vielfalt und Geschwindigkeit der Daten in Kombination mit der Geschwindigkeit des heutigen Geschäfts erfordern, dass sich BI von einer veralteten Architektur zu dynamischen, entscheidungszentrierten Systemen entwickelt, die in der Lage sind, das zu liefern, was heute als „Entscheidungsintelligenz“ bezeichnet wird.
Der Fokus liegt heute nicht nur auf dem, was passiert ist, sondern auch darauf, was jetzt passiert und was man dagegen tun kann. Dennoch bleiben die zugrunde liegenden technischen Einschränkungen der Kategorie bestehen. Den meisten Plattformen fällt es schwer, riesige Datenmengen schnell zu verarbeiten oder nahtlose, interaktive Benutzererlebnisse zu bieten. Dies sind Hürden, die Unternehmen daran hindern, ihre Daten voll auszuschöpfen.
Um zu verstehen, wohin sich BI entwickelt und warum diese Herausforderungen weiterhin bestehen, ist es hilfreich, eine Branche und Technologie zu untersuchen, die sie bereits gelöst hat: Gaming.
Warum Videospiele die richtige Analogie sind
Moderne Videospiele verarbeiten riesige Datenmengen in Echtzeit, reagieren sofort auf Benutzereingaben und liefern immersive, visuelle Erlebnisse mit 30 bis 120 Bildern pro Sekunde. Dieses Maß an Reaktionsfähigkeit war einmal unerreichbar.
Spiele mussten aufgrund von Hardware- und Softwarebeschränkungen die visuelle Komplexität und Reaktionsfähigkeit begrenzen. Der Sprung zu den heutigen flüssigen Echtzeitumgebungen erfolgte nicht durch ein Umdenken im Gameplay. Es entstand aus einem Umdenken darüber, wie Daten, Grafiken und Rechenleistung interagieren.
Die Spielebranche ist seit langem ein Testfeld für Innovationen. Computergrafik, Scannen, Hardwarebeschleunigung mit CPUs und GPUs, Spiele-Engines – all diese Technologien wurden durch die Anforderungen der Gamer und das Streben nach noch fesselnderen Erlebnissen vorangetrieben.
Diese Technologie hat sich immer wieder auf andere Branchen ausgeweitet. KI ist nicht anders. Rudimentäre KI tauchte bereits 1951 in einem Dame-Programm auf, und in den späten 70er und frühen 80er Jahren nutzten Videospiele unterschiedliche Bewegungsmuster und In-Game-Ereignisse, die von einfacher KI unterstützt wurden.
Heute sehen wir die Ergebnisse dieser technologischen Entwicklung überall, auch im Bereich Business Intelligence. Grafiken in allen Branchen sind weitaus besser als früher. KI kann jetzt Milliarden von Datensätzen analysieren und Trends in Millisekunden erkennen. Während die menschliche Aufsicht weiterhin von entscheidender Bedeutung für die Entscheidungsfindung ist, beschleunigt KI den Prozess der Gewinnung wichtiger Erkenntnisse erheblich.
Und doch hat BI noch nicht ganz den Sprung geschafft, den Videospiele gemacht haben. Ältere BI-Systeme sind immer noch an veraltete Architekturen gebunden, was Unternehmen dazu zwingt, nur Teilmengen von Daten zu analysieren und Entscheidungen auf der Grundlage historischer Informationen zu treffen. Die Erstellung von Berichten kann immer noch Stunden oder Tage dauern und oft sind technische Experten erforderlich, nur um Visualisierungen vorzubereiten oder Abfragen zu ermöglichen.
Das Ergebnis? Benutzer müssen darauf warten, dass jemand anderes die Erkenntnisse gewinnt, während das Geschäft weitergeht.
Die Latenzlücke
Ältere BI-Plattformen basierten auf Stapelverarbeitung und statischen Dashboards. Das hätte vielleicht in einer Zeit funktioniert, in der Geschäfts- und Datenmengen überschaubar waren. Mittlerweile generieren Unternehmen weltweit schätzungsweise 328,77 Millionen Terabyte an Daten pro Tag und benötigen sofort Antworten, nicht erst Stunden oder Tage später.
Bei einem Cyberangriff beispielsweise können es sich Unternehmen nicht leisten, auch nur wenige Minuten mit der Reaktion zu warten. Stellen Sie sich im Einzelhandel ein Unternehmen vor, das regionale Trends sofort erkennen und darauf reagieren kann, anstatt tagelang auf Analysen warten zu müssen.
Und in kritischen Infrastrukturen können Strom-, Wasser- und Telekommunikationsanbieter ihre Kunden schneller wieder online bringen, indem sie Millionen von Anlagen – bis hin zu jedem Turm, jeder Leitung oder jedem Rohr – in einer Hochgeschwindigkeits-Echtzeitumgebung visuell untersuchen. Schnelle Einblicke sind kein Luxus; Es ist die aktuelle Grundlage für Wettbewerbsvorteile und Widerstandsfähigkeit.
Dennoch erfordern die meisten BI-Tools immer noch, dass Benutzer Daten in kleinere Teilmengen aufteilen, nur um eine Leistung zu erzielen, die ihre Tools nicht überlastet. Und selbst dann sind diese Ansichten statisch. Wenn Sie den Bereich ändern oder eine andere Frage stellen, müssen Sie auf einen weiteren Abfragezyklus warten.
Hier ist die Analogie zum Gaming stark. Heutige BI-Lösungen ähneln einem „rundenbasierten“ Spiel, das bei jeder Bewegung pausiert. Unterdessen erwarten Geschäftsanwender, dass Informationen schnell, visuell und interaktiv sind, da sie auf diese Weise in jedem anderen Teil ihres digitalen Lebens mit Daten interagieren.
Die Dashboards, auf die sie sich bei der Arbeit verlassen, sind oft unzureichend, da sie mit der Größe und Geschwindigkeit moderner Unternehmen nicht mithalten können.
Diese Latenz ist nicht immer ein Softwareproblem. In vielen Fällen handelt es sich um ein Nebenprodukt der Dateninfrastruktur, die keine Echtzeitberechnungen, keine sofortige visuelle Darstellung umfangreicher Datensätze oder keine Aggregation von Daten aus mehreren Quellen unterstützt.
Diese Einschränkungen zwingen Teams dazu, mit statischen Zusammenfassungen oder stark kuratierten Datenteilmengen zu arbeiten. Analysten verbringen wertvolle Zeit damit, Daten herunterzurechnen und Muster abzuleiten, anstatt sie in ihrer Entwicklung zu beobachten.
Von statischen Dashboards bis hin zu Streaming-Schnittstellen
Entscheidungsintelligenz verspricht, uns über eine reaktive Haltung hinaus zu proaktivem Handeln zu bewegen. Um dieses Versprechen einzulösen, müssen BI-Systeme jedoch eher wie Live-Service-Umgebungen als wie statische Repositorys funktionieren.
So wie Spiele Echtzeit-Feedback („Twitch“) liefern, wenn sich ein Spieler bewegt, springt oder einen Befehl erteilt, müssen BI-Plattformen in der Lage sein, die visuelle Darstellung sofort zu aktualisieren, wenn Benutzer Daten aufschneiden, würfeln oder aufschlüsseln.
Das bedeutet, die visuellen und Datenverarbeitungsfunktionen näher an die Hardwareebene zu rücken und dabei hardwarebeschleunigte Architekturen und leistungsstarke APIs mit geringem Overhead zu nutzen, die Daten mit interaktiven Bildraten streamen und visualisieren können – alle 30 Millisekunden, nicht alle fünf Sekunden – genau wie die meisten modernen Spiele.
Reaktionsfähigkeit ist nicht nur für die Benutzererfahrung wichtig. Es ermöglicht sichere Entscheidungen in Umgebungen mit hohem Druck. Wenn Benutzer in Echtzeit mit großen Datensätzen interagieren können, können sie bessere Fragen stellen, mehr Szenarien erkunden und schneller zu Erkenntnissen gelangen. Die Erkundung wird zu einer kontinuierlichen Schleife aus Input und Feedback, ähnlich wie in einer Spielumgebung.
Dieses Leistungsniveau erfordert eine hardwarebeschleunigte Infrastruktur, die in der Lage ist, Daten in großem Maßstab zu streamen, zu analysieren und zu visualisieren, ohne die Genauigkeit dieser Daten zu beeinträchtigen. Das ist die Lücke, die die meisten BI-Systeme noch nicht geschlossen haben.
BI als Live-Service
Die meisten Spiele werden heute als Live-Dienste betrieben. Sie entwickeln sich weiter, erhalten Aktualisierungen in Echtzeit und reagieren dynamisch auf Spieler. BI muss den gleichen Übergang vollziehen, von einem Reporting-Tool zu einer reaktionsfähigen, serviceorientierten Plattform.
Eine echte Live-Service-BI-Plattform geht über die Anzeige historischer Kennzahlen hinaus. Es erfasst kontinuierlich neue Daten, reagiert sofort auf Benutzereingaben und aktualisiert Visualisierungen in Echtzeit. Auf diese Weise wird BI zu einer lebendigen Ebene des Unternehmens: immer aktuell, immer interaktiv und immer auf die aktuellen Bedürfnisse der Entscheidungsträger ausgerichtet.
Das bedeutet, Funktionen wie Echtzeit-Datenstreaming und Schnittstellen zu nutzen, die sich parallel zum Unternehmen weiterentwickeln. Es bedeutet auch, Leistungsstandards zu überdenken. Wenn das Laden einer Visualisierung Minuten dauert, sind die darin enthaltenen Erkenntnisse möglicherweise bereits veraltet oder gehen vollständig verloren.
Dahinkommen
Um BI in diese neue Ära der Entscheidungsintelligenz zu bringen, braucht es mehr als auffällige Dashboards oder Echtzeitdiagramme. Es erfordert eine vollständige Überarbeitung der Datenpipeline – von der Aufnahme und Transformation bis hin zum Rendering und der Interaktion. Hardwarebeschleunigte Leistung spielt eine entscheidende Rolle, aber ebenso wichtig ist die architektonische Denkweise, die Reaktionsfähigkeit und Interaktivität in den Vordergrund stellt.
Außerdem müssen Unternehmen ihre Datenökosysteme gründlich prüfen. BI-Tools sind nur so effektiv wie die Systeme, auf denen sie basieren. Ohne die Rationalisierung isolierter Systeme oder Investitionen in eine Infrastruktur, die den Echtzeitdurchsatz unterstützt, werden selbst die fortschrittlichsten visuellen Tools nicht ausreichen.
KI wird ebenfalls eine wachsende Rolle spielen und Muster und Erkenntnisse ans Licht bringen, die zu komplex oder subtil sind, als dass Menschen sie alleine erkennen könnten, insbesondere wenn Unternehmen von reaktiver zu proaktiver Entscheidungsfindung übergehen.
Da Unternehmensteams immer datenkompetenter und digitaler werden, werden die Erwartungen an Geschwindigkeit und Interaktivität weiter steigen. Business Intelligence muss sich weiterentwickeln, um diesen Erwartungen gerecht zu werden und eine proaktive Entscheidungsfindung zu ermöglichen.
Die nächste BI-Generation wird nicht mehr wie die statischen Berichte der Vergangenheit aussehen. Es wird den Spielen ähneln, die wir bereits spielen. Schnell. Visuell. Immersiv. Und reagiert auf jede Veränderung in der Umgebung.
Wir listen die besten Datenmigrationstools auf.
Dieser Artikel wurde im Rahmen des Expert Insights-Kanals von TechRadarPro erstellt, in dem wir die besten und klügsten Köpfe der heutigen Technologiebranche vorstellen. Die hier geäußerten Ansichten sind die des Autors und nicht unbedingt die von TechRadarPro oder Future plc. Wenn Sie daran interessiert sind, einen Beitrag zu leisten, erfahren Sie hier mehr: https://www.techradar.com/news/submit-your-story-to-techradar-pro


