XPM: Förklarligt prediktivt underhåll
XPM-projektet syftar till att integrera förklaringar i lösningar med artificiell intelligens (AI) inom området prediktivt underhåll.
Sammanfattning
I XPM-projektet kommer vi att utveckla flera olika typer av förklaringar (allt från visuell analys via prototypiska exempel till deduktiva argumentativa system) och visa deras användbarhet i fyra utvalda fallstudier: elfordon, tunnelbanetåg, stålverk och vindkraftsparker.
I var och en av dem kommer vi att visa hur rätt förklaringar av beslut som AI-system tar leder till bättre resultat över flera dimensioner, bland annat följande:
- Att identifiera den komponent eller del av processen där problemet har uppstått
- Förstå svårighetsgraden och framtida konsekvenser av upptäckta avvikelser
- Välja den optimala reparations- och underhållsplanen från flera alternativ skapade utifrån olika prioriteringar
- Förstå orsakerna till att problemet har uppstått i första hand som ett sätt att förbättra systemdesignen för framtiden
Bakgrund
Verkliga tillämpningar av prediktivt underhåll blir allt mer komplexa, med intrikata interaktioner av många komponenter. AI-lösningar är en mycket populär teknik inom det här området, och speciellt svarta lådan-modellerna baserade på djupinlärningsmetoder visar mycket lovande resultat när det gäller prediktiv noggrannhet och förmåga att modellera komplexa system.
Men de beslut som tas av dessa svarta lådan-modeller är ofta svåra för mänskliga experter att förstå – och därför att agera på. Den fullständiga reparationsplanen och underhållsåtgärder som måste utföras baserat på de upptäckta symtomen på skador och slitage kräver ofta komplexa resonemangs- och planeringsprocesser som involverar många aktörer och balanserar olika prioriteringar. Det är inte realistiskt att förvänta sig att den här kompletta lösningen skapas automatiskt – det är för många sammanhang som måste beaktas. Därför kräver operatörer, tekniker och chefer insikt för att förstå vad som händer, varför det händer och hur man ska reagera. Dagens mestadels svarta lådan-AI ger inte dessa insikter och stöder inte experter i att fatta underhållsbeslut baserat på de avvikelser den upptäcker. Effektiviteten hos systemet för prediktivt underhåll beror mycket mindre på noggrannheten hos de larm som AI höjer än på relevansen av de åtgärder som operatörerna utför baserat på dessa larm.
XPM-projektet fokuserar på att skapa metoder som kan förklara driften av AI-system inom området för prediktivt underhåll. Det som gör skapandet av underhållsplanerna utmanande är att införliva AI-resultatet från prediktivt underhåll i den mänskliga beslutsprocessen och integrera den med mänsklig expertis. Att göra AI användbar och pålitlig innebär att sätta felförutsägelser i ett relevant sammanhang och göra dem begripliga för de inblandade personerna. Det kräver förklaringar som är anpassade till olika aktörers roller och behov – till exempel till ingenjörer på lägre nivå genom koppling till ritningarna av den tekniska installationen, samtidigt som andra medel används för cheferna som utvärderar kostnaderna för systemavbrott, eller företagsjurister som bedömer det eventuella ansvaret vid ett säkerhetshotande fel.
Det underliggande temat för förklarlig AI är att bygga upp förtroendet för AI-system, men för att maximera den verkliga användbarheten av prediktivt underhåll måste vi gå ett steg längre. I synnerhet är den primära nyheten i XPM-projektet att utveckla tekniska lösningar som uttryckligen tar upp fyra konkreta skäl till varför förklaringarna behövs. Inom dessa fyra skäl kommer förklaringarna av AI-beslut att leda till den mest betydande förbättringen av de reparations- och underhållsåtgärder som vidtas av mänskliga experter.
Motivering 1
Den första motiveringen är att identifiera (isolera och karakterisera) felet. I komplexa industriella system kan AI ofta identifiera avvikelser från normalt beteende, men på grund av ett stort antal komponenter med komplexa interaktioner krävs experter och deras domänkunskap för att hitta den faktiska platsen.
Motivering 2
Den andra är att förstå felkonsekvenser. Rätt underhåll beror på hur problemet kommer att utvecklas, vad som är Remaining Useful Life (RUL) och vad som kan vara följdskador eller produktivitetsförlust. Dessa frågor kräver att man överväger det bredare sammanhanget, utanför AI-systemets omfattning.
Motivering 3
Den tredje motiveringen är att stödja domänexperter genom att hjälpa mänskliga operatörer att skapa rätt reparationsplan, inklusive att optimera systemets prestanda (t.ex. drifttid eller säkerhet) i närvaro av försämringen. Den måste också göra rätt avvägning mellan olika kvalitetskriterier.
Motivering 4
Slutligen är den fjärde motiveringen att förstå orsakerna till att felet har uppstått och hur man kan förbättra systemet i framtiden. Det kan relateras till felaktig användning, suboptimal design, såväl som själva övervakningsprocessen. Till exempel vilken optimering av sensortyper och placering som kommer att möjliggöra tidigare upptäckt i framtiden, eller vilka förändringar av tillverkningsprocessens parametrar som kommer att förlänga livslängden för vissa kritiska komponenter.
Om projektet
Projektperiod
- 1 mars, 2021–28 februari, 2023
Projektledare
- Slawomir Nowaczyk, professor
Andra deltagande forskare
Samverkanspartner
- Inesc Tec, Portugal
- Jagiellonian University, Polen
- IMT Lille-Douai, Frankrike
Finansiärer
- CHIST-ERA (EU-projekt) genom Vetenskapsrådet