Hoppa till innehållet
Foto: Melina Granberg
Visa originalbild , Öppnas i nytt fönster/flik

Big Data blir svåranalyserad

Publicerad: 19 december 2016

Idag samlar processindustrin in en mängd mätningar, som i vissa fall kanske är onödiga eller inte relevanta, vilket resulterar i mängder av svåranalyserad data. Problemet blir allt värre och företagen behöver nya metoder som kan skapa bättre förståelse för deras komplexa processer. Detta ska ett forskningsprojekt vid Luleå tekniska universitet fokusera på.

Stål-, pappersmassa-, livsmedels- och läkemedelsindustrin är exempel på processindustrier där framställningen sker i ett kontinuerligt flöde. Felaktigheter i tillverkningen eller produktionsstopp blir därför kostsamma.

Industrierna gör täta mätningar för att försöka övervaka sina processer; mätningar som i vissa fall inte är befogade, vilket resulterar i mängder av svåranalyserad data. 

– Den allmänna uppfattningen är att mycket data är likvärdigt med mycket information. Och om du har mycket information om din process, borde du förstå och veta allt om den. Det vill säga förmåga att styra, förbättra och optimera processen – men trots dessa stora datamängder kämpar industrin för att förstå hur sina tillverkningsprocesser fungerar, säger Murat Kulahci, professor i kvalitetsteknik vid Luleå tekniska universitet samt verksam vid Danmarks Tekniske Universitet.

Genom observationsdata och designade experiment, försöker Murat Kulahci få en överblick över den data som genererats, utvärdera om den bär tillräckligt mycket information samt hitta sätt att förbättra processen där den inhämtades. Målet är att skapa mening av tillgänglig data, och om nödvändigt skaffa fram mer relevant data.

– Vi kan mäta temperaturen i det här rummet på 20 olika ställen vid taket med några sekunders mellanrum och med lätthet samla in tusentals temperaturmätningar under ett kort tidsspann, eftersom det är enklare och billigare än någonsin att göra mätningar som detta, förklarar Murat Kulahci och fortsätter:

– Men hur snabbt kan temperaturen i ett rum ändras, eller hur olika kan två mätningar bli om de utförs nära varandra? Det kan alltså vara bättre att kombinera dessa mätningar till ett enda värde för att kunna bestämma temperaturen i rummet. Detta gör att problemets dimensionalitet minskas en hel del genom att vi drar fördel av hur mätningarna korrelerar. 

Murat Kulahci menar att det finns stora problem med hur Big Data hanteras i processindustrin och problemen eskalerar. Därför är denna forskning extremt relevant.

– Genom att bättre förstå processens tillstånd genom empiriska data, kan vi förbättra och optimera den. Detta leder i sin tur till mindre spill, ökad produktivitet och kvalitet. Men allt börjar med en bättre förståelse för processen genom tillgänglig data, avslutar Murat Kulahci.

Forskningen genomförs med professor Bjarne Bergquist, universitetslektor Erik Vanhatalo och doktorand Francesca Capaci, verksamma vid forskningsämnet kalitetsteknik, Luleå tekniska universitet.

I media

Taggar