Prediktiv analys mognar inom tillverkningsindustrin
I slutet av 2010‑talet arbetade jag för en av världens ledande tillverkare av hushållsapparater som Six Sigma Master Black Belt, där jag ledde projekt för att förbättra kvaliteten. Vi var mycket framgångsrika och sparade omkring 30 miljoner dollar per år genom att träna och coacha nya Six Sigma Black Belts i problemlösning. Vid den tiden minns jag tydligt motviljan mot att använda prediktiva analysverktyg i arbetet. Lite visste vi vad vi gick miste om.
Långsamma tillvägagångssätt för problemlösning
Då fick Black Belts lära sig att angripa problem genom databaserade, planerade experiment. Till exempel: När serviceanmälningar började staplas för ett nytt fel i en av våra tvättmaskiner, skulle vi först verifiera att vi kunde mäta problemet exakt, förstå variationen kring problemet och eventuellt använda design of experiments (DOE) för att analysera orsak och verkan för våra teorier och förutsagda lösningar.
I den nya eran av tillverkning (ibland kallad Industri 4.0) blev allt mer data tillgänglig, och ledningen började kräva svar snabbare än någonsin.
Vår problemlösnings-community hade etablerade metoder för att prioritera problem. Ofta väntade vi på en Service Incident Rate (SIR)-rapport för att se vilka problem som förekom mest frekvent. Tyvärr var SIR ett eftersläpande mått, ofta sex månader efter att problemen uppstått hos kunderna. Dilemmat var tydligt – vi behövde lösa problemen snabbare.
Att integrera Big Data i tillverkningen
Förutom den tid det tog att identifiera problem hade vi också utmaningar med att gå från “small data” till “big data”. Våra Black Belts reducerade ofta stora datamängder till ett faktoriellt experiment-upplägg (DOE), helt enkelt för att det var så det alltid gjorts, och för att de trodde att det var så deras Master Black Belt hade lärt dem.
Till slut började tekniska ledare som principal engineers och master black belts inom tillverkningsområdet att ta i bruk verktyg för det då nyintroducerade konceptet “Big Data”. Förhoppningen var att big data kunde användas för att koppla fältfel till produktionsdata, för att prediktera och minska kostnader för garanti samt förbättra kvaliteten. Jag kallar detta ett nytt koncept för oss eftersom vi hade haft denna data i åratal eller årtionden, men aldrig kopplat ihop den.
Service-tekniker som arbetade med incidenter samlade in testdata och serienummer på trasiga apparater hos kunder… men varken utvecklingsdata eller produktionsdata kopplades någonsin explicit till fältservicedata.
En del av problemet låg i de olika lagringsmetoderna för data. Människor visste inte hur de skulle hantera dessa enorma datakällor – och det fanns oftast ingen budget för att lära sig hur de kunde kombineras. Även om vi kunde kombinera dem, fanns det inget gemensamt sätt att utvinna insikter från all data.
Att bygga data‑sjön
Slutligen investerade vi flera miljoner för att anlita konsulter som kunde hjälpa oss samla in våra omfattande datakällor och förbereda dem för analys. Processen med att “gräva fram data‑sjön” är ingen enkel uppgift.
En data‑sjö är ett begrepp inom big data som jag här använder för att beskriva hur alla dessa stora datakällor sammanfördes. Nu hade vi en större datamängd som gjorde det möjligt att koppla fältfel via serienummer till produktionsdata med samma serienummer. Vi kunde nu börja söka efter mönster och gemensamma nämnare hos de apparater som gick sönder.
Att identifiera insikter är dock svårare än man kan tro bara genom att läsa detta. Inom tillverkningen samlas det in så många testmått, variationen är liten och multikollineariteten mellan alla prediktorer är hög. Om man bara kör en regressionsmodell med y = ventilfel mot hundratals prediktiva x‑variabler blir datan för rörig och regressionsanalysen hittar väldigt lite. R^2‑värdet blir mycket lågt, och vårt förtroende för de äldre modellmetoderna var begränsat.
Prediktiv analys kommer till undsättning
Till slut föreslog våra konsulter att vi skulle börja utforska prediktiv analys. Vi såg snabbt att det var ett mycket bättre sätt att hantera rörig data på! Vi identifierade några signaler och gjorde ett antal förbättringar på vår pilotanläggning, där vi testade dessa nya metoder. Vi hade nu metoder för att aggregera och förbereda data för att hitta insikter.
Vår vice VD hade dock ställt krav på att få stor avkastning på investeringarna i datahantering och konsultstöd. Vid den tidpunkten hade vi nya konsulter som hjälpte till att hitta många insikter, men de var inte ingenjörer, så resultaten från den prediktiva analysen var ofta svåra för dem att tolka. De hade ingen kunskap om hur en hushållsapparat fungerade – de visste bara att flera sluttester kunde förutsäga ett fel.
Efter bara några år i denna kostsamma process beslutade företaget att de hade lärt sig tillräckligt från konsulterna för att själva ta över analysen. Specifikt blev “skunk works”-teamet, bestående av VP för kvalitet, lead Master Black Belt och några ingenjörer från pilotanläggningen, tillräckligt kompetenta för att replikera konsulternas resultat.
Att demokratisera prediktiv analys internt
Vårt lilla team blev nu mycket kompetent inom prediktiv analys. Att skala upp denna metodik till hela organisationen visade sig dock vara mycket svårt. Problemet var att prediktiv analys var så komplicerat att endast ett fåtal kände sig kompetenta. Resten av organisationen var inte ens medvetna om att detta pågick – hur skulle vi då börja träna fler?
Beslutet blev att lead Master Black Belt skulle samla insikterna och coacha ingenjörsteamen när de fick resurser att lösa problem. Det var inte särskilt effektivt. Det var för svårt att bygga expertis och utveckla fler interna experter inom prediktiv analys vid den tidpunkten.
Upptäck hur du kan stärka dina kunskaper i prediktiv analys i detta webinar.
Analysverktyg och prediktiva modeller
När man arbetar med prediktiv analys behöver man förstå verktyg och metoder som Classification and Regression Trees, Random Forests och TreeNet. Man kan inte bara öppna en stor datamängd och klicka på “analysera”. Det krävs omfattande kompetens – det är därför data science är ett eget område.
Under slutet av 2010‑talet och början av 2020‑talet hade vi en uppdelning: vissa produkter använde prediktiv analys medan andra fortfarande arbetade med äldre metoder. Prediktiv analys möjliggjorde bland annat garanti‑prediktion, snabbare kvalitetsförbättringar och förebyggande av fel. De som fortsatte med äldre metoder fick fortfarande vänta upp till sex månader på sina Service Incident Rate‑rapporter och använda Six Sigma‑verktyg för att lösa de mest frekvent förekommande problemen.
Dagens prediktiva analys
Dagens prediktiva analys är ljusår före det som fanns när jag började använda det för mer än tio år sedan. Det behöver inte längre vara en komplex och specialistdomän. Minitab Predictive Analytics med Auto ML gör prediktiv analys mer tillgängligt för fler användare. Systemet kan föreslå de bästa modellerna baserat på din data och erbjuder med ett enkelt gränssnitt möjligheten att testa alternativa modeller.
Jag uppmuntrar dig att utforska hur kombinationen av Minitab Connect för att aggregera och förbereda data, tillsammans med Minitab Predictive Analytics med Auto ML för att hitta insikter, kan förenkla arbetet och snabba på resultaten. Genom att använda Minitabs verktyg på detta sätt inom tillverkning möjliggörs kvalitetsförbättring och garanti‑prediktion praktiskt taget i realtid. Innan dessa verktyg tog kvalitetsförbättringar ofta ett halvår eller längre, och garanti‑prediktion baserades på tidigare års data snarare än aktuell information. För våra kunder och intressenter motsvarar detta värden på flera miljoner dollar.
This blog post was written by Jim Oskins for Minitab