„Daten sammeln allein, ist zu wenig“

Damit AT&S schneller auf Marktänderungen reagieren kann, hat ein Team vom Know-Center interne Datenquellen mit externen verknüpft. Robert Ginthör im Interview mit Factory.

Herr Ginthör, sind für Sie Daten das Öl der Zukunft?

Robert Ginthör: Nur, wenn man sinnvoll damit umgeht.

Mit Big Data haben Sie dem Leobner Leiterplattenhersteller AT&S geholfen. Wie genau?

Gemeinsam mit AT&S und dem Institut für Innovation und Industrie Management an der TU Graz haben wir ein Projekt durchgeführt, bei dem es darum ging, einen ersten Schritt in Richtung eines agilen Unternehmens zu machen.

Warum dieser Schritt?

Angesichts der Tatsache, dass AT&S Produktionsstandorte in Österreich, China, Korea und Indien betreibt und weltweit Kunden beliefert, sieht es sich mit einer steigenden Globalisierung und einer immer schnelleren technologischen Entwicklung konfrontiert. Dieses Umfeld beinhaltet neue Hersteller, aufstrebende Regionen und disruptive Technologien. In Summe bringt das ein erhöhtes Maß an Unsicherheit und somit schwierige Planbarkeit hervor. Klassische Methoden der Produktionsplanung stoßen hier einfach an ihre Grenzen.

Und wie macht man jetzt AT&S agiler?

Indem wir interne Datenquellen, unter anderem SAP und Google Analytics, mit externen Datenquellen wie Finanzmarktdaten und Wirtschaftsindikatoren verknüpft haben. Damit haben wir eine mittelfristige Vorhersage der Nachfrage sowie frühzeitige Hinweise auf unerwartete und schnelle Veränderungen in der Nachfrage erhalten. Diese Nachfrageprognosen basieren auf einem mehrstufigen Selektionsprozess der Daten, auf welchen sogenannte Klassifikationsalgorithmen und Multivariate Regressionen angewandt werden.

Daten sammeln allein ist also zu wenig?

Ja. Es macht wenig Sinn, Daten einfach nur zu sammeln und sie dann nicht weiter anzuwenden. Der Mehrwert für Unternehmen liegt darin, mit dieser Datenmenge zu arbeiten, Korrelationen zu finden und Kausalitäten zu erkennen.

Interessant, dass es genau hier wieder den Menschen und nicht die Maschine braucht.

Das Zusammenspiel von Mensch und Maschine ist für die Analyse, aber auch die Ver- und Bearbeitung der Daten entscheidend. Denn der Mensch legt fest, mit welchen Tools die Daten analysiert und wie die generierten Daten interpretiert werden, die dann die maschinelle Seite entsprechend verarbeitet.

Es entsteht der Eindruck, dass nicht jeder das gleiche mit Big Data meint.

Dieser Eindruck täuscht nicht. Der Punkt ist, dass der Begriff vielschichtig verwendet wird und tatsächlich jeder etwas anderes darunter versteht. Einerseits redet man von Big Data und meint damit die enorme Menge an Daten. Andererseits werden auch der Umgang damit, also die Erfassung, Analyse und Auswertung der Daten, aber auch die dafür notwendigen Technologien und Verfahren so bezeichnet. Weil der Begriff so breit ist, ist er übrigens im „Hype Cycle for Emerging Technologies von Gartner“ gar nicht mehr drin.

Das heißt, es gib keine einheitliche Definition?

Genau. Big Data hat nicht nur mit der Menge und der Größe der Daten zu tun, der ursprünglichen Definition von Big Data. Derzeit wird heftig darüber diskutiert, um wie viele „V`s“, also Kriterien von Big Data, es sich handelt. Die Zahlen schwanken von drei bis zehn.

Welche Kriterien sind für Sie die wichtigsten?

Wir reden von fünf V`s: Volume, Velocity, Veracity, Variety und Value. Ersteres bezeichnet die Menge an Daten. Mit Velocity meinen wir die Geschwindigkeit, mit der Daten generiert, ausgewertet und weiterverarbeitet werden, mit Veracity deren Qualität. Variety steht für die Vielfalt der Datentypen und -quellen. Und unter Value versteht man den Wert, den die Daten für ein Unternehmen haben bzw. die Erkenntnisse, die ich durch die Datenanalyse gewinne.

Variety und Value sind dennoch das Spannendste für Sie?

Natürlich. Rund 80 Prozent der Daten weltweit sind heute unstrukturiert und weisen auf den ersten Blick keinerlei Zusammenhänge auf. Aber wenn man sich näher damit beschäftigt, lassen sich doch welche herstellen.

Können Sie ein Beispiel aus der Industrie geben?

Stellen Sie sich eine Industrieanlage vor, die regelmäßig ausfällt und keiner weiß warum. Dann nimmt man die Daten der Anlage auf und erkennt, dass es immer zu bestimmten Zeiten Probleme gibt. Also zieht man die Wetterdaten hinzu und bemerkt, dass es die Ausfälle immer gibt, wenn es warm ist. An diesen Tagen ist die Halle, in der die Anlage steht, überhitzt und in Folge dessen auch die Maschine.

Wie professionell gehen Österreichs Unternehmen mit Big bzw. Smart Data um? Bildet AT&S eine Ausnahme?

Der Umgang professionalisiert sich. Vor allem in der Industrie wird dieses Thema zunehmend wahrgenommen. Die Industrie 4.0 ist der Treiber.

Was sind die größten Stolpersteine?

Zum einen, wie bereits erwähnt, dass oft Unmengen an Daten gesammelt werden, mit denen dann aber nicht gearbeitet wird. Zum anderen können viele Betriebe nicht gleichsam auf der grünen Wiese starten. Das heißt, sie haben Maschinen, aber bisher keine Daten gesammelt – und jetzt wissen sie nicht, wie sie beginnen sollen. Ein anderer Punkt ist, dass Firmen oft mit einer Lösung, also mit Tools kommen, und gar keine Fragestellung dazu haben.

Das heißt zuerst die Frage, dann das Tool?

Genau. Ich kann Nägel mit allen möglichen Hämmern einschlagen, aber ich muss mir vorher überlegen, wo ich das tue. Genau so ist es mit Big Data: Bevor ich Daten zu sammeln, analysieren und verknüpfen beginne, sollte ich wissen, wofür ich sie brauche.

Gibt es weitere Aspekte, die für Unternehmen wichtig sind?

Einige. So hilft das beste System nichts, wenn es nicht in Prozesse eingebettet ist. Oder anders gesagt: Es bringt mir nichts, wenn mir das Super-System sagt, dass die Maschine in zwei Tagen ausfällt, wenn das Gesamtsystem mit dieser Info nichts anfangen kann. Das ist ein Stückwerk und sonst nichts. Wichtig ist auch, wo die Daten gespeichert werden. Denn Speicherplatz kostet Geld, vor allem, wenn es sich um große Datenmengen handelt.

Und wo sind diese Datenmengen sicher?

Wichtig ist zu verstehen, dass Rechenzentren von Cloudanbietern sehr wahrscheinlich eine höhere Sicherheit bieten als die Datenbanken von Firmen. Aber achten Sie darauf, ob diese in den USA oder in Europa sitzen.

Welche Vorgangsweise schlagen Sie also Unternehmen vor?

Als erstes sollte man die vorhandenen Daten sichten und herausfiltern, welche Mehrwert bringen. Danach fragen Sie sich, welche Probleme damit gelöst werden sollen und welche Hypothesen damit bestätigt werden sollen. Und als Letztes zerbrechen Sie sich den Kopf über die dafür erforderlichen Tools und den Partner.

Zur Person: Dr. Robert Ginthör studierte technische Informatik und Telematik an der TU Graz. Nach einigen Jahren als Universitätsassistent wechselte der IT-Spezialist in die Privatwirtschaft. Seit 2015 ist Ginthör CTO und Head of Big Data Lab des Know-Center der TU Graz.

Pressespiegel
Wie smarte Daten Leiterplattenhersteller AT&S agiler machen
Zurück
Kontakt Karriere

Wenn Sie diese Seite nutzen stimmen Sie der Verwendung von Cookies zu mehr Information

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close