Schlüsseltechnologie für das Industrial Internet of Things
Warum Edge Computing wichtig ist
Mit stärkerer Vernetzung steigt die Menge übertragener Sensordaten und damit die Anforderungen an IIoT-angebundene Geräte, Maschinen und Anlagen. Dabei gewinnt die Echtzeitverarbeitung dieser Daten an Bedeutung, obwohl das gerade bei großen Datenmengen weitere Herausforderungen stellt. Mit Edge Computing stellen Industrieunternehmen sicher, dass erfasste Daten entlang der Wertschöpfungskette keine Prozesse blockieren.

Als Edge (zu Deutsch Kante) bezeichnet man den Rand eines technischen Informationsnetzwerks, an dem virtuelle und reale Welt aufeinander treffen. In einer dezentralen IT-Architektur werden anfallende Daten nicht im Rechenzentrum, sondern direkt an diesem Übergang verarbeitet und bei Bedarf in die Cloud verschoben. Edge Computing ermöglicht an dieser Stelle die Datenvorverarbeitung in Echtzeit: Gesammelte Daten werden lokal nach definierten Kriterien verdichtet. Erste Analyseergebnisse können nun direkt an die Endgeräte rückgekoppelt oder weiterverarbeitet werden. Anschließend besteht die Möglichkeit, nur relevante und damit kleinere Datenpakete in die Cloud zu transferieren, die nicht für sich allein nutzbar sind. Durch die Reduzierung der Datenmenge werden stationäre Server entlastet, aber auch die laufenden Kosten für die Datenübertragung und die Cloud reduziert. Diese dezentrale Verarbeitung schont nicht nur Ressourcen, sondern reduziert auch das Risiko des Datenverlustes außerhalb der Anlage beziehungsweise bei Cyber-Attacken auf die Cloud. Mittels Edge Computing können Latenzzeiten verkürzt, Datenströme optimiert und Produktionsflüsse sowie Prozesse verbessert werden.

Die 6 Stufen des Industrie 4.0-Entwicklungspfads
Die 6 Stufen des Industrie 4.0-EntwicklungspfadsBild: Acatech, Industrie 4.0 Maturity Index Update 2020; FIR e. V. an der RWTH Aachen

Schlüsseltechnologie für die Industrie 4.0

Im Industrie 4.0-Reifegradmodell der Acatech ist die Vorverarbeitung von Daten auf der 3. Stufe zu verorten: Sensoren erfassen eine Vielzahl an Datenpunkten und bilden damit Prozesse von Anfang bis Ende ab. Im nächsten Schritt werden die Daten sichtbar, die in der Vorverarbeitung nach ersten Relevanzkriterien analysiert werden. Die Erkenntnisse aus dieser Datenauswertung werden auf der 4. und 5. Stufe des Modells automatisiert in die Prozesse gespiegelt und finden dort Anwendung, um Wirkungszusammenhänge ableiten und die Prognosefähigkeit verstärken zu können (beispielsweise für Predictive Maintenance). Mobile Arbeitsmaschinen (Automated Guided Vehicles, Automated Guided Cars) beispielsweise nutzen das Edge Computing zur lokalen Datenanalyse und schicken nur Änderungsdaten in Echtzeit in die Cloud. Von dort erhalten sie weitere Aufgaben oder das Update für ihre Navigationsdaten.

Gateways zur Datenverwaltung nah an der Maschine

Bei der Integration eines IIoT müssen OT (Operational Technology) und IT (Informational Technology) zunehmend stärker miteinander verbunden werden. Hier kommt das Edge Gateway zum Einsatz. Die Ebenen Steuerung und Datenverarbeitung sowie die Schnittstelle zur Cloudebene können auf einem Gerät vereint werden. Diese Edge Gateways bündeln fünf wichtige Funktionalitäten: Daten, die aus der Maschine extrahiert werden, die Steuerung/HMI und die Datenvorverarbeitung beschreiben das eigentliche Edge Computing. Das Gateway übernimmt zusätzlich die Cloud-Anbindung und den Remote-Zugriff bis auf die Sensorebene. Die Komprimierung auf ein Gerät bedeutet Kostenersparnis, weniger Maintenance- und Ressourcen-Aufwand und mehr Platz im Schaltschrank. Die Anwender haben statt mehrerer nur einen Ansprechpartner für Steuerung, Cyber Security sowie die Datenverarbeitung. Letztere ist durch die Edge-Computing-Lösung unabhängig von der eigentlichen Prozessaufgabe der Maschine. Damit läuft die Maschine weiter, wenn die Cloud beziehungsweise Internetanbindung einmal ausfallen sollte. Die benötigten Daten werden in diesem Fall lokal zwischengespeichert und gesichert, bis sie wieder in die Cloud transferiert werden können. Durch die Vorverarbeitung bleiben Rohdaten außerdem bei der ursprünglichen Quelle. Unternehmenskritische oder sensible Daten sind leichter zu schützen, das Risiko des Datenmissbrauchs wird reduziert. Die prozessnahe Datenanalyse vereinfacht außerdem die vorausschauende Wartung und Qualitätssicherung. Dies verspricht neben der Erfüllung der Echtzeitanforderungen einen unmittelbaren, positiven Effekt auf die Produktivität.

Hardware follows Software

Der Erfolg anwendungsgerechter IIoT-Lösungen wird künftig stark von adäquaten Softwarekomponenten abhängen, während Hardware und Mechanik als generischer Anteil des Gesamtkonzepts die Basis bilden. Skalierbare Plattformen kombinieren beide Teile und ermöglichen die Realisierung individueller Anforderungen. War Vernetzung früher sehr teuer und aufwendig, ist die optimale Anbindung von Sensoren aus der OT-Ebene an die Cloud heute mittels Edge Computing günstig und unkompliziert realisierbar. Durch die Reduzierung der Datenmenge kann die Anbindung mit einfacher und zugleich robuster Technologie erfolgen. So ist beispielweise der Netzwerkstandard NarrowBand IoT, der auf LTE und 5G basiert, auf eine geringe Bandbreite ausgerichtet. Die einfachen Funkmodule bilden nur die notwendigen Funktionen ab, wodurch die Technologie besonders preisgünstig, robust und ressourcenschonend ist. Sie ermöglicht die direkte Anbindung an die Cloud ohne die teils aufwendige Integration in eine lokale IT-Infrastruktur.

Wissen für den Einstieg

Das besonders große Datenvolumen, das im IIoT und im Kontext der Industrie 4.0 erzeugt wird, bringt einen hohen Grad an Komplexität mit sich. Unternehmen müssen sehr genau definieren, was mit den Daten geschehen soll und wie sie sie bestmöglich einsetzen können, etwa für Predictive Maintenance oder Produktionsprozesse. Während große Unternehmen all das noch vergleichsweise leicht adaptieren, fällt vielen KMU der Umgang mit IIoT und Edge Computing noch schwer, meist weil Wissen oder andere Ressourcen fehlen. Diese Unternehmen sind auf kompetente Partner angewiesen, die sie im Entwicklungsprozess der Systemarchitektur begleiten und beraten: von der Sensorik über die Steuerungsebene inklusive der Definition leistungsfähiger Plattformen in Hard- und Software und der Auswahl von Betriebssystemen oder Virtualisierungs- und Hypervisor-Lösungen bis zur Anbindung an die Cloud unter Berücksichtigung von Sicherheitsaspekte für die jeweilige Automatisierungsarchitektur.

www.schubert-system-elektronik.de

Schubert System Elektronik GmbH
http://www.primecube.de

Das könnte Sie auch Interessieren

Produktion für mehrere Tage lahmgelegt

Produktion für mehrere Tage lahmgelegt

Bild: Trend Micro Deutschland GmbH Im Auftrag von Trend Micro hat das unabhängige Marktforschungsinstitut Vanson Bourne eine Online-Umfrage unter 500 IT- und OT-Fachleuten in den USA, Deutschland und Japan durchgeführt. Daraus ging hervor, dass mehr als drei Fünftel...

Bachmann übernimmt Condition-Monitoring-Startup

Bachmann übernimmt Condition-Monitoring-Startup

Bild: Bachmann Electronic GmbH "Unsere Organisationen passen gut zusammen, wenn es darum geht, die Grenzen der Zustandsüberwachung zu verschieben. Diese Partnerschaft ist eine spannende Entwicklung, unsere Anwendungen mit neuen Verfahren wie die der KI und des Machine...

Zusammenarbeit: Open Robotics und Canonical

Canonical und Open Robotics haben eine Partnerschaft für die erweiterte Sicherheitswartung (ESM) für das Robot Operating System (ROS) und den Enterprise-Support als Teil von Ubuntu Advantage, dem Servicepaket von Canonical für Ubuntu, geschlossen.

Secure Remote Service mit neuen Funktionen

Zum zehnjährigen Bestehen des Fernwartungssystems mGuard Secure Remote Service bringt Phoenix Contact mit der Version 2.11 Erweiterungen und neue Funktionen des Systems auf den Markt.

Industriesoftware automatisiert Datenanalyse und Prozessüberwachung

Symate, Spezialist für die Verbesserung von Fertigungsprozessen mit den Methoden der künstlichen Intelligenz (KI), unterstützt die Fachhochschule Bielefeld. Das Center for Applied Data Science (CfADS) an der FH hat die intelligente Industriesoftware Detact als festes Tool in ihren Software-Stack übernommen. Auf dieser Basis können die Forscher den Produktionsablauf in einer digitalen und weitgehend automatisierten Fertigung nun deutlich leichter und schneller simulieren sowie große Datenmengen (Big Data) systematisch analysieren.