Logo
Logo

06501 Prädiktive Instandhaltung an Altanlagen durch Hardwarenachrüstung und Anomalieerkennung

Die prädiktive Instandhaltung basiert auf der Kombination und Analyse unterschiedlicher Daten zur Vorhersage eines Anlagenausfalls. Altanlagen besitzen in vielen Fällen jedoch nicht die Hardware zur Datenaufzeichnung. Da in vielen Fällen eine Neuinvestition aus reinen Instandhaltungsgründen nicht wirtschaftlich ist, werden diese Anlagen mit der nötigen Hardware nachgerüstet. Die gewonnenen Daten können in weiterer Folge ausgewertet werden. Ein bewährter Prozess dafür ist das CRISP-DM-Prozessmodell, das die wesentlichen Schritte eines Data-Analytics-Projekts umfasst. Da an kritischen Anlagen Ausfälle möglichst vermieden werden und es bei Altanlagen noch keine Herstellerinformationen zu bekannten Ausfallmustern in den Daten gibt, wird die Anomalieerkennung angewandt, um im ersten Schritt ein Warnsystem zu installieren, das auf ungewöhnliches Verhalten der Anlage hindeuten soll.
von:

1 Einleitung

Ein moderner Instandhaltungsstrategiemix setzt sich aus unterschiedlichen Instandhaltungsparadigmen zusammen. Neben der reaktiven und präventiven Instandhaltung findet die zustandsorientierte Instandhaltung verstärkten Eingang in das Instandhaltungsportfolio von Unternehmen. Hier werden Daten gesammelt und Grenzwerte festgelegt, die nicht unter- oder überschritten werden dürfen [1]. Sollten unterschiedliche Daten zu neuen Mustern kombiniert werden, um einen Anlagenausfall vorherzusagen, spricht man von der prädiktiven Instandhaltung. Diese Art der Instandhaltung greift auf Statistik, mathematische Modellierung und Algorithmen des maschinellen Lernens zurück.
Abbildung von Ausfallszenarien
Um signifikante Ergebnisse zu erzielen und eine ausreichend hohe Prognosequalität von den Modellen zu erhalten, ist es nötig, eine Vielzahl unterschiedlicher Ausfallszenarien abzubilden. Ausfälle kommen jedoch selten vor, da in vielen Fällen die präventive Instandhaltung bereits vor einem Ausfall eingreift. Wie früh vorher ist jedoch unbekannt. Je später vor dem Ausfall eine präventive Maßnahme ergriffen wird, desto mehr Informationen können über den Ausfall gesammelt werden und desto geringer sind die Kosten der Instandhaltung.
Retrofit mit Sensoren
Sensoren liefern wichtige Daten für die Modellierung von prädiktiven Instandhaltungsalgorithmen. Sie sind jedoch in vielen Fällen in den noch in Betrieb befindlichen Anlagen serienmäßig verbaut [2]. Eine Neuanschaffung ist technologisch nicht immer nötig und wirtschaftlich meist nicht sinnvoll [3]. Daher ist der Retrofit von Anlagen mit Sensoren in den letzten Jahren ein oft gewählter Weg. Khazraei gibt eine detaillierte Übersicht von Ausfallursachen und den Messmöglichkeiten [4]. Ein wesentlicher Nachteil von Nachrüstungen ist, dass es kaum Informationen über die Fehlerbilder gibt. Es ist daher schwer, eine genaue Zuordnung von der Messung zum Fehlerbild vorzunehmen, wie es in der prädiktiven Instandhaltung nötig wäre. Die Anomalieerkennung ist eine Methode, um die Nachteile der geringen Ausfälle und unbekannten Fehlerbilder wenigstens zu einem gewissen Grad zu kompensieren.

2 Data-Analytics-Prozess

Für die erfolgreiche Abwicklung von Data-Analytics-Projekten wurden unterschiedliche Referenzmodelle entwickelt. Zu den wichtigsten gehören der KDD (Knowledge Discovery in Databases) von Fayyad [5], und der CRISP- DM (Cross Industry Standard Process Data Mining) von Wirth und Hipp [6]. In Feinheiten unterscheiden sich diese Modelle, das generelle Vorgehen ist identisch. Zu Beginn werden die relevanten Daten ausgewählt. Das erfolgt durch eine Analyse der Prozesse und der entstehenden Daten. Die Daten werden in weiterer Folge aufbereitet, damit sie den Ansprüchen des mathematischen Modells des Data-Mining-Algorithmus entsprechen. Das Ergebnis des Algorithmus wird nach einer Überprüfung im Geschäftsprozess eingesetzt. An unterschiedlicher Stelle erfolgen Rückkopplungen an vorgelagerte Schritte, für den Fall, dass Zwischenergebnisse für das weitere Fortschreiten im Prozess nicht zufriedenstellend sind. Im hier beschriebenen Projekt wird nach dem CRISP- DM vorgegangen.

2.1 CRISP- DM

Schritt 1: Geschäftsmodell verstehen
Das CRISP-DM-Modell besteht aus sechs Prozessschritten (s. Abb. 1), die sich in 24 Subschritte (s. Tab. 1) unterteilen. Im ersten Prozessschritt werden die Ziele und Grundlagen für den Prozess genau beschrieben, in dem Data Mining zur Anwendung kommt. Wichtige Rahmenbedingung ist die Beurteilung der Infrastruktur zur Datenbereitstellung. Für die spätere Implementierung ist es wichtig, dass Daten möglichst in Echtzeit über definierte Schnittstellen zur Verfügung gestellt werden. Mit diesen Informationen kann das Ziel des Data-Mining-Projekts festgelegt und ein Projektplan erstellt werden [6].
Abb. 1: CRISP-DM-Prozessmodell [6]
Schritt 2: Daten verstehen
Der zweite Prozessschritt schärft das Verständnis für die vorhandenen Daten. Dazu werden die ersten für den Geschäftsfall relevanten Daten gesammelt und mit Experten des Unternehmens beschrieben. Dieses Verständnis ist wichtig für den Data Scientist, da hier grundlegende Fragen über die Interpretation der Daten geklärt werden. So können Zahlen entweder metrisch skaliert sein, wie die Messung von physikalischen Größen, oder einen Code repräsentieren, auf den keine mathematischen Funktionen wie z. B. die vier Grundrechnungsarten angewandt werden können. Dieser Unterschied hat einen wesentlichen Einfluss auf den einsetzbaren Algorithmus der Modellierungsphase und auf die Data-Mining-Ziele. Daher ist es möglich, dass diese überdacht werden müssen. Die Daten werden in weiterer Folge genauer untersucht. Das geschieht mit deskriptiven Methoden oder einfachen statistischen Auswertungen. Es wird nach Ausreißern, Fehlstellen oder bereits generellen Trends gesucht. Am Ende des Schritts wird die Datenqualität beurteilt. Reichen die Daten in der Aufzeichnungsgenauigkeit, der Erfassungsfrequenz und in der Häufigkeit relevanter Muster aus, um das geplante Ziel zu erreichen?
Schritt 3: Daten aufbereiten
Die Datenaufbereitung als dritter Schritt legt den Grundstein für die weitere Analyse. Mithilfe der Ergebnisse des Vorschritts und Expertenwissen werden die für den Prozess und das Data-Mining-Ziel relevanten Daten ausgewählt. Im Falle von Ausreißern durch Falschmessungen oder Lücken durch fehlende Aufzeichnungen müssen diese entfernt oder befüllt werden. Aus dem bereinigten Datenbestand können, wenn nötig, neue Merkmale extrahiert werden. Dazu zählen statistische Werte, wie der Mittelwert, die Standardabweichung oder der Modus, oder frequenzbasierte Merkmale aus einer Fourier-Transformation [7]. Die neuen Merkmale müssen in den Gesamtdatenbestand integriert werden. Als letzten Schritt ist es unter Umständen nötig, die Daten neu zu formatieren und Daten von einem hohen in ein niedrigeres Skalenniveau zu transformieren.
Loading...