Quantcast
Channel: Der Info-ArchitektDer Info-Architekt » Category » Big Data
Viewing all articles
Browse latest Browse all 10

Smart Data: Algorithmen sind nur eine Seite der Medaille

$
0
0

“Gerade die großen Online-Händler müssen sich fragen, wie sie ihre Lager bestücken. Akribisches Datensammeln und schwierige Algorithmen sind da nur die halbe Miete”. Das Goldschürfen aus dem schier endlosen Fluss Big Data geht weiter – und bewegt die Großen unter den Online-Händlern wie Amazon, Zalando und Konsorten. Das kritische Hinterfragen von Algorithmen, wie es das Handelsblatt im obigen Zitat aus dem Artikel “Woher wissen Online-Händler, was der Kunde morgen bestellt?” tut, ist durchaus gerechtfertigt. Fakt ist: Das richtige Interpretieren der gesammelten Daten ist nach wie vor von großen Unsicherheiten geprägt. Algorithmen sind nur eine Seite der Medaille, um Big Data auch zu Smart Data zu machen.

Big Data geht weit über tausende Excel-Sheets hinaus

Wie komplex sind große Datenmengen wirklich? Können wir überhaupt erahnen, was Big Data eigentlich ist, auch wenn dieses Thema an jeder Ecke begegnet? Die Realität ist, dass die meisten Entscheider und Mitarbeiter die Dimension großer Datenmengen nicht erfassen. Dies stellt auch Marcello Vena fest. Er lenkte den Aufbau des Online-Buchhandels für die RCS Verlagsgruppe und berät mit seiner Firma All Brain Führungskräfte aus dem Verlagswesen. Seine Diagnose zum Umfang von Verlagen mit Big Data hat Vena gegenüber Buchreport gestellt: “Viele in der Branche verstünden unter „Big Data“ alles, was über ein paar Tausend Excel-Reihen hinausgeht. Tatsächlich seien aber selbst komplexe Daten, die nur mit Datenbank Management Systemen (DBMS) und Visualisierungstools analysiert werden können, noch lange nicht „Big Data“”, so der erfahrene Verlagsstratege und -berater.

Statt zig verschiedener Sichten, die mitunter weit auseinander gehen, rät Vena zu einem ganz eng gefassten Verständnis von Big Data und sieht folgende Kriterien als entscheidend:

  • “ein sehr große Menge an unstrukturierten Daten, die von Standard-Datenbanken nicht mehr verarbeitet werden kann,

  • eine Datengröße von ca. 1 Exabyte – verbunden mit großen Herausforderungen an den Workflow und an Lagerung, Wartung, Austausch, Transfer, Sicherheit und Verfügbarkeit,

  • die fehlende Möglichkeit, die Daten in kleinere Datensätze zu zerlegen.”

Diese enge Eingrenzung schränkt den Anwendungsbereich von “Smart Data” (diesen Begriff sieht Vena als passender an im Gegensatz zu Big Data) nicht ein – sondern öffnet ihn sogar für KMUs bzw. kleinere Verlage. Der Grund:

“Dieses neue Verständnis ermögliche es auch kleineren Unternehmen, größeren Nutzen aus Daten zu ziehen und über Verkaufszahlen, Wachstumsraten und Durchschnittspreise hinauszudenken [...]. Und auch wenn „Big Data“ nur für wirklich große Player relevant sein werde, so könnten die „Big Data“-Technologien auch kleineren Unternehmen von Nutzen sein.”

Zusammenfassend lässt sich feststellen, dass Algorithmen nicht das alleinige Hilfsmittel in der Analyse großer Datenmengen ist. Wichtig ist ein fachlicher und konzeptioneller Überbau, um die Daten sinnvoll zu erschließen und zu strukturieren. Quasi das passende Schubladensystem, damit die Daten nicht wild “umherfliegen”. Der Einsatz von “Smart Data”-Technologien ist für Unternehmen jeder Größe wichtig.


Viewing all articles
Browse latest Browse all 10