Industrie 4.0, IoT und Big Data im Mittelstand: Die richtigen Werkzeuge stehen schon bereit

Industrie 4.0, IoT und Digitale Transformation: in vielen Unternehmen beschäftigen sich Entscheider auf allen Ebenen bereits intensiv mit diesen und weiteren, verwandten Themen. Doch in vielen Fällen führen Arbeitskreise, Think-Tanks und Hubs in den diversen Formen kaum zu greifbaren Ergebnissen. Das ist nicht nur frustrierend, sondern auch unwirtschaftlich. Deshalb möchten wir Wege aufzeigen, wie mittelständische Unternehmen mit bereits vorhandenen Werkzeugen schnell erste Tests ermöglichen und Ergebnisse erzielen können.

Matthias Kübert ist Master of Science der Physik und Teil des interdisziplinären Teams der „Wolkenmacher“. Sein Schwerpunkt liegt in der Analyse von großen Datenmengen im Kontext von Industrie 4.0, IoT und Big Data. Matthias Kübert beschäftigt sich dabei insbesondere mit der Nutzung innovativer Cloud Services, die es auch mittelständischen Unternehmen schon heute ermöglichen, schnell und kostengünstig erste Digital-Projekte zu starten.

Industrie 4.0 und IoT (Internet of Things) stehen vor der Tür und viele Unternehmen haben sie bereits zu sich hereingebeten. Im Zuge dessen werden Produktionsstätten mit Sensoren ausgerüstet und nahezu alles, was messbar ist, digitalisiert und gespeichert. In vielen Fällen jedoch ist dort die Reise bereits zu Ende, denn die meisten Unternehmen verwerten die gewonnenen Daten kaum gewinnbringend weiter. Das höchste der Gefühle ist dann womöglich ein kleines Dashboard, auf dem die eine oder andere Kennzahl abzulesen ist – ohne jedoch aus den verschiedenen Datentstrukturen Zusammenhänge abzuleiten, um gar eine intelligente Auswertung der Daten zu entwickeln. Ein oft ernüchterndes Fazit: das Potential wird nicht genutzt.

 

Die richtigen „Tools“ kennen wir bereits

 

Nun stelle man sich beispielsweise vor, in einer Produktionsstätte wäre ein bestimmtes Werkzeug in mehrfacher Ausführung vorhanden. Nach einer gewissen Nutzungshäufigkeit muss es jedoch wieder geschliffen werden. Sind diese Werkzeuge nicht voneinander unterscheidbar, werden häufig alle Exemplare nach „Bauchgefühl“ geschliffen, anstatt entsprechend ihrer tatsächlichen Nutzungshäufigkeit. Eine sinnvolle Anwendung im Kontext von Industrie 4.0 wäre es nun, den einzelnen Werkzeugen eine individuelle ID zuzuordnen und für diese ID die Nutzungshäufigkeit zu protokollieren. In einem zweiten Schritt kann man dann, bevor eine kritische Schwelle erreicht wurde, das jeweilige Werkzeug warten.

 

Um Überwachung gewisser Systeme in Echtzeit zu ermöglichen, müssen die Sensoren große Datenmengen in hoher Frequenz liefern. Da hierbei aber ein Input entstehen kann, der manche Systeme an die Grenzen ihrer Kapazität führt, ist eine Vorverarbeitung nötig, für die der Dienst Kinesis eine Lösung darstellt. Datenströme können hiermit eingefangen, transformiert und geladen werden, um Ergebnisse in Echtzeit zu liefern. Der Dienst wird von Amazon Web Services (AWS) aus der Cloud bereitgestellt, ist schnell einsatzbereit und verfügt über potenziell unendliche Ressourcen.

 

Weiterhin kann die Qualität des Produktes bis auf einige µm festgestellt werden. Wenn diese Daten alle in einem zentralen Data Warehouse abgelegt werden, kann in den Abweichungen eine Systematik erkannt werden und mittels Data Mining Techniken zur Mustererkennung offengelegt werden. Für derartige Fälle ist das vollständig verwaltete Data Warehouse Amazon Redshift eine geeignete Lösung. Redshift wird ebenfalls vollständig verwaltet von AWS angeboten und kann die Kosten gegenüber  herkömmlichen Lösungen um bis zu 90% reduzieren, sodass gerade mittelständische Unternehmen ohne große Investitionen starten können.

 

Sobald der Zeitraum, von dem Daten existieren, eine gewisse Größe erreicht hat, wird es erst richtig spannend. Dann können Machine Learning Algorithmen die Daten analysieren und Modelle entwickeln, um Vorhersagen zu treffen, wann z.B. ein Maschinenschaden entstehen kann. In der Folge können Wartungsintervalle proaktiv angesetzt werden, um die Ausfallraten signifikant zu verringern. Der laufende Strom an Daten kann weiterhin genutzt werden, um kontinuierlich die Modelle auf Validität zu prüfen und obendrein zu optimieren, damit robustere und präzisere Aussagen getroffen werden können. Hierfür stellt AWS den Dienst Amazon Machine Learning bereit, der mit verschiedenen modernen Algorithmen arbeitet. Auch hier gilt: Die Einstiegshürden sind gering, alle benötigten Funktionalitäten sind gleichsam auf Knopfdruck verfügbar.

 

Die richtigen Ansatzpunkte finden

 

Wir befinden uns in einer spannenden Zeit. Die enormen Datenmengen, die bereits heute existieren, bergen noch eine unendliche Anzahl an Informationen, die bis zum heutigen Tag noch völlig ungenutzt sind. Mit ein wenig Phantasie kann man sich leicht vorstellen, welche Schlüsse aus dieser Vielfalt an unverknüpften Daten gezogen werden könnten – mit unmittelbaren Auswirkungen auf den Geschäftserfolg und womöglich ganze Business Modelle. Auf diesem Weg möchten wir gerne mit Ihnen die ersten Schritte gehen und gemeinsam das Potential Ihrer Daten erkunden und ausschöpfen. Für Ihre weiterführenden Fragen stehe ich Ihnen mit dem Wolkenmacher Team gerne zur Verfügung.

Nehmen Sie mit unserem Wolkenmacher Team Kontakt auf:

 

Christoph Waschkau

kontakt@vintin.de

www.wolkenmacher.rocks

+49 (0)9721 67594 10

Abonnieren Sie die Beiträge unseres VINTIN IT-Journals! In Zukunft werden Sie bei neuen Inhalten per Email kurz und bündig informiert.



Spread the Word!Email this to someoneShare on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInPrint this page


T: +49 (0) 9721 / 67594-10

VINTIN GROUP Löwe

HABEN SIE NOCH FRAGEN?