Deprecated: __autoload() is deprecated, use spl_autoload_register() instead in /customers/d/c/f/dominikschauer.com/httpd.www/wp-includes/compat.php on line 502 Warning: Cannot modify header information - headers already sent by (output started at /customers/d/c/f/dominikschauer.com/httpd.www/wp-includes/compat.php:502) in /customers/d/c/f/dominikschauer.com/httpd.www/wp-content/plugins/wp-super-cache/wp-cache-phase2.php on line 62 Deprecated: Function create_function() is deprecated in /customers/d/c/f/dominikschauer.com/httpd.www/wp-includes/pomo/translations.php on line 208 CeBit-Besuch 2015 – Welche Trends zeichnen sich im Bereich Big Data ab – Dominik Schauer

CeBit-Besuch 2015 – Welche Trends zeichnen sich im Bereich Big Data ab

Heute, Mittwoch dem 18. März 2015, organisierte die Hochschule Wismar für Studierende der Wirtschaftsinformatik sowie weitere Interessenten einen konstenlosen Besuch der IT-Messe CeBit. Ich selbst nahm daran ebenfalls teil. Durch einen unserer Professoren wurde dabei die Aufgabe gestellt, sich auf der Messe gezielt mit einem Thema der eigenen Wahl zu beschäftigen und im Rahmen der nächsten Lehrveranstaltug seine Ergebnisse zu präsentieren. Entsprechende meiner Neigung habe ich mich mit dem Thema Big Data beschäftigt.

Für das Thema relevante Vorträge fanden parallel in Halle 5 und Halle 9, so dass ich nur an einem Teil der Vorträge teilnehmen konnte.

In der folgenden Gegenüberstellung habe ich die Vorträge markiert, an denen ich teilgenommen habe.

cebit 2015 halle 5 halle 9

    Im Einzelnen sind das also:

  • – Digitale Transformation: BI und Big Data treiben neue Geschätsmodelle
  • – Data Virtualization als Motor für Big Data in Unternehmen
  • – Multiprojektcontrolling im Big Data Zeitalter
  • – Massiv parallele Datenverarbeitung mit Microsoft PDW
  • – Wouldn’t Analytics be easier if Hadoop was Code-free?
  • – Lernen sichtbar machen: Big Data, Smart Data und Open Data im Bildungsbereich
  • – Visual Business Analytics
  • – Industrie 4.0 startet ins Web of Things

Zu sehen sind auch vortragsfreie Zeiten. In denen hatte ich mich umgesehen, was es sonst noch an Ausstellungen gibt sowie mit einigen Leuten geredet. Am interessantesten ist jedoch welche Beobachtungen ich denn nun gemacht habe. Vor allem zwei große Schlagwörter haben sich in den Vorträgen wiederholt. Das sind zum einen (Big) Data Visualization und zum anderen Data Virtualization.

Data Visualization

Im Kern geht es darum, aus großen Datenmengen für Menschen möglichst intuitiv interpretierbare Illustrationen zu schaffen. Das ist an sich nichts Neues. Unter dem Begriff Visual Analytics ist diese Bestrebung spätestens seit 2004 bekannt. Allerdings scheint sie aktuell an Bedeutung gewonnen zu haben. An mindestens jedem dritten  bis zweiten Stand in Halle 9 fand sich in irgendeiner Form das Versprechen, komplexe Daten einfach verständlich zu illustrieren. Im “future talk”  “Visual Business Analytics” durch Dr. Kohlhammer vom Fraunhofer Instituts für Grafische datenverarbeitung(IGD) wurde der Nutzen an erster Stelle mit dem entstehenden Zeitgewinn genannt. Der Mensch verarbeite visuelle Darstellungen einfach schneller als Zahlen. Ein weiterer Nutzen entsteht nach ihm außerdem durch ein besseres Verständnis der Daten an sich. Durch die graphische Darstellung ergäbe sich womöglich sogar neues Wissen über die Daten, das Analyseverfahren entgangen wäre. Zuletzt würde durch die Möglichkeit der Visualisierung auch das Vertrauen in Analyseergebnisse gestärkt werden.

Data Virtualization

Data Virtualization ist in seinem Grundgedanken ebenfalls nichts wirklich Neues. In den Vorträgen zum Thema wurde deutlich, dass Data Vistualization als Nachfolge-Konzept zum Data Warehousing verstanden werden kann. Es geht darum, den über verschiedene Anwendungen und Datenbanken(ERP-System, Data Warehouse, Cloud, Hadoop etc.) verstreuten Daten eines Unternehmens mittels Middleware eine einheitliche Schnittstelle zu verleihen. Für den Nutzer soll sich der Eindruck eines uniformen Datensatzes einstellen. Der Nutzen wird darin gesehen, Datenanalysten den Rücken von freizuhalten von den Mühen der Datenzusammenführung. So sollen mehr Freiräume für die eigentliche Analysearbeit geschaffen werden. Ein zusätzlicher Nutzen entstehe nach Dr. Kurze (denodo) durch die Reduktion von Redundanzen. Derzeit sei ein Datensatz innerhalb eines Unternehmens durchschnittlich 8-10 Mal hinterlegt und durch die Zusammenführung in der Middleware trete eine Vereinfachung ein.  Zudem würde die Zugriffskontrolle auf die Daten (“wer kann was sehen”) erheblich vereinfacht.

Leave a Reply

Your email address will not be published. Required fields are marked *