Das Potenzial von Agentic AI für Unternehmen
Agentic AI promises to revolutionize how enterprises operate, enabling systems to make decisions and take actions independently. But without high-quality, harmonized data, even the most advanced AI initiatives are likely to fail.
Autor

Dr. Steele Arbeeny
CTO North America at SNP
Blog teilen
KI-Benutzeroberflächen: Ein neues Zeitalter beginnt
Anbieter von Unternehmenssoftware spezialisieren sich zunehmend auf Benutzeroberflächen mit agentenbasierter KI. Dabei handelt es sich um Systeme, die traditionelle GUIs durch intelligente, autonome Agenten ersetzen. Diese Agenten können Aufgaben ausführen, Entscheidungen treffen und auf Ziele hinarbeiten, die auf Parametern wie Kosten, Zeit und Komplexität basieren. Viele verstehen sogar Anweisungen in natürlicher Sprache, ähnlich wie Smart-Home-Assistenten.
Namhafte Anbieter von ERP-Systemen planen, traditionelle Benutzeroberflächen weitgehend durch Benutzeroberflächen mit agentenbasierter KI zu ersetzen. Das autonome Handeln und die Orchestrierung der agentenbasierten KI hängen jedoch stark von der Qualität und Konsistenz der Daten ab. In Branchenberichten heißt es, dass erstaunliche 87 % der KI-Projekte in Unternehmen fehlschlagen – und das liegt größtenteils an der schlechten Datenqualität. So gilt der sogenannte GIGO-Effekt (Garbage In Garbage Out) mehr denn je.
Der Aufschwung von Agentic AI und ihre Risiken
Über 70 % der Fortune 500 implementieren derzeit eine agentenbasierte Lösung in ihren Unternehmen. Angesichts der oben genannten Misserfolgsquote von 87 % ist ein Erfolg dieser Projekte mit hoher Wahrscheinlichkeit ausgeschlossen. Dennoch wird der Anteil agentenbasierter Lösungen auf dem Markt bis zum Jahr 2028 voraussichtlich 33 % erreichen, verglichen mit weniger als 1 % im Jahr 2024. Dies spiegelt das Potenzial und den Bedarf an solchen Lösungen wider. Die einhergehenden Produktivitätssteigerungen von über 200 % verstärken diesen Trend.
Agentic AI im Enterprise Asset Management
Enterprise Asset Management (EAM) gehört zu den Bereichen, die am meisten von agentenbasierter KI profitieren können. Branchen wie die Automobilindustrie, die Öl- und Gasindustrie, der Bergbau, die Luftfahrtindustrie und andere komplexe Fertigungsindustrien nutzen die Prozesse am häufigsten, da sie stark von Anlagen abhängig sind, die Downtime kostenintensiv ist und die Wahrscheinlichkeit schwerwiegender Verletzungen bei unsachgemäßer Instandhaltung steigt.
Jahrelang wurde für Arbeitsaufträge zur präventiven Instandhaltung eine Orchestrierung verwendet, die agentenbasierten KI-Modellen ähnelt. Diese Arbeitsaufträge, bestehend aus einem Auftrag und einer Anweisung zur Erfüllung einer spezifischen EAM-Aufgabe, können automatisch mit Hilfe von Messwerten oder sogar einem IoT-Sensor erstellt werden, der Anlagenmetriken an ein zentrales System übermittelt. Sobald bestimmte Voraussetzungen erfüllt sind, erfolgen die automatische Erstellung eines neuen Arbeitsauftrags zur Lösung des Problems, die Bestellung notwendiger Teile und Werkzeuge und die Zuweisung des Auftrags an einen Techniker mit den entsprechenden Kompetenzen. Dabei handelt es sich durchaus um ein gewisses agentenbasiertes Verhalten, auch wenn dies schon seit Jahrzehnten ohne die Unterstützung von KI der Fall ist.
Eine schlechte Datenqualität kann jedoch sowohl traditionelle, präventive Instandhaltungsprozesse als auch neue intelligente agentenbasierte Prozesse beeinträchtigen. Falsche Messwerte, schlecht definierte Grenzwerte und inkonsequente Anlagenmetadaten führen zu falschen Entscheidungen, ausbleibender oder nicht ordnungsgemäßer Instandhaltung und somit zu möglichen Verletzungen oder sogar Todesfällen. In modernen Unternehmen ist es üblich, dass Daten in mehreren Systemen von verschiedenen Anbietern verstreut sind. Getrennte ERP-Landschaften sowie Systeme für die Anlagenverwaltung, die Zuweisung von Arbeitsaufträgen und die Beschaffung machen es für jeden automatisierten Prozess praktisch unmöglich und äußerst riskant, alle Daten zusammenzuführen und zu harmonisieren und so Entscheidungen zu treffen, die Auswirkungen auf Menschenleben haben könnten. Viele Vorfälle im Jahr 2024 wurden auf ungeeignete Verfahren und Daten im Enterprise Asset Management zurückgeführt. So wurde im April 2024 bei einem Reifenhersteller eine Anlage bei Arbeiten unsachgemäß gestartet. Im selben Jahr im Oktober verursachte der Riss eines Kabels an einem Kran einen schweren Bergbauunfall. Laut einer Studie des Magazins Plant Services sind 41 % der Anlagenausfälle auf ungenaue oder fehlende Daten zurückzuführen. Eine schlechte Datenqualität wird so zur Grundursache für vermeidbare Anlagenausfälle.
Getrennte Systeme und isolierte Erkenntnisse: Die Herausforderung von Datensilos in EAM
Ein Faktor, der EAM in großen Unternehmen erschwert, ist die Tatsache, dass EAM-Daten über mehrere Systeme verteilt sind. Oftmals gibt es mehrere Work-Management-Systeme wie ERP, in denen Aufträge und Kosten erfasst werden. Außerdem gibt es Systeme, die den Zugang zur laufenden Anlage aufrechterhalten, sogenannte Lockout-Tagout-Systeme (LOTO), oder SCADA-Systeme (Supervisory Control and Data Acquisition), die zur Erfassung von Überwachungsdaten und zur Steuerung von Anlagen dienen. All diese Systeme erstellen oft voneinander getrennte Ansichten derselben Anlagen sowie ihrer Metadaten und Eigenschaften. Dies kann schwerwiegende Folgen haben.
Eine Zentralisierung, bei der Daten in ein einziges System zusammengeführt werden, ist ein entscheidender Schritt auf dem Weg zu einer sicheren und intelligenten Anlagenverwaltung. Heute unterstützen alle führenden ERP-Systeme komplexe EAM-Prozesse, eine zustandsorientierte Instandhaltung sowie eine automatische Erstellung und Zuweisung von Aufträgen. Die Konsolidierung von Daten ist jedoch ein schwieriges Unterfangen. Verschiedene Systeme führen Prozesse oft auf unterschiedliche Art und Weise aus, sodass eine sorgfältige Abstimmung und Standardisierung von Stamm- und Bewegungsdaten notwendig ist. Aus diesem Grund ist es wichtig, die Stamm- und Bewegungsdaten sorgfältig zu migrieren und zu standardisieren und dabei die alten Prozesse den neuen Prozessen zuzuordnen. Ebenso sind historische Daten erforderlich, um Modelle zur Vorhersage von Fehlern mit realen Informationen zu trainieren. Außerdem ist es ratsam, die Standardisierung gemäß der Taxonomien für Industrieanlagen durchzuführen, wie der ISO 14224. Das bedeutet, dass eine umfangreiche Datenanalyse, ein Mapping von Geschäfts- und Systemdaten sowie eine Migration und Validierung durchgeführt werden muss. Auch wenn diese Schritte komplex und kostenintensiv sind, bringen sie viele Vorteile: Die Pflege einzelner Stammdatensätze, eine konsistente Vorhersage und Lösung von Fehlern sowie niedrige Anlagenkosten und sichere Arbeitsbedingungen.
Skalierbarer Erfolg durch Automatisierung
Automatisierung ist entscheidend, um nachhaltige Ergebnisse erzielen zu können. Unsere Erfahrung bei SNP zeigt, dass manuelle Ansätze zur Systemkonsolidierung und Datenmigration eine schlechte Datenqualität liefern und in der Regel zwei oder mehr Jahre in Anspruch nehmen, sofern sie überhaupt abgeschlossen werden. Sowohl Gartner als auch eine wissenschaftliche Studie (Wong, Ada & Scarbrough, Harry & Chau, Patrick & Davison, Robert. Critical Failure Factors in ERP Implementation) nennen eine Misserfolgsquote von 70-90 %. Wir können diese Zahlen bestätigen, da wir oft zur Problembehandlung hinzugezogen werden.
Der Schlüssel zum Erfolg liegt in der Reproduzierbarkeit und dem Einsatz von vordefinierten Inhalten. Indem Sie auf bewährte Regeln und Ansätze aus vorherigen Migrationsprojekten zurückgreifen, sparen Sie Zeit, minimieren Risiken und profitieren von bereits gewonnenen Erkenntnissen. Eine typische Systemkonsolidierung gepaart mit einem heterogenen Systemwechsel besteht aus den bekannten Phasen des Wasserfall-Modells: Analyse, Design, Implementierung und Verifizierung. Für eine umfassende Reproduzierbarkeit muss jeder Prozessschritt durch Automatisierung beschleunigt werden. Dies verkürzt nicht nur die Projektlaufzeiten, sondern liefert auch bereits bewährte Ergebnisse, wodurch das Projekt erheblich beschleunigt wird und Testaufwände und Unterbrechungen minimiert werden. Unsere Plattform Kyano ermöglicht genau das: Sie umfasst 30 Jahre Erfahrung im Bereich der Datentransformation und ermöglicht es Ihnen, von den Fähigkeiten der agentenbasierten KI zu profitieren und Ihre Umgebung zu planen, zu migrieren und zu verwalten – unabhängig von Ihrem Anbieter.
Sind Sie bereit, Ihre Transformation auf das nächste Level zu bringen? Kontaktieren Sie uns, um zu erfahren, wie SNP Sie dabei unterstützt.
Autor

Dr. Steele Arbeeny
CTO North America at SNP