[wideo] Big Data zakładu produkcyjnego

W kolejnym nagraniu, dr Piotr Wiśniewski przedstawia czym jest Big Data oraz jakie wymogi musi spełniać.

-> Jakie dane możemy pozyskiwać na terenie zakładu produkcyjnego?
-> Na czym polega różnica między danymi płaskimi a głębokimi?
-> W jaki sposób możemy zbierać dane?

Na te pytania znajdziesz odpowiedzi w filmiku ⬇️ ⬇️ ⬇️ 

Pełna treść nagrania dostępna jest poniżej.

Tematem dzisiejszego spotkania jest: Big Data zakładu produkcyjnego. 

Termin big data podobnie jak inne hasła, które używam w nagrywanych dla Państwa filmach można już spokojnie określić mianem buzzwordu. Dźwięk terminów tego typu wprowadza nas w świat digitalnych tematów, ale precyzyjnego znaczenia tego terminu często nie znamy. Dziś zajmiemy się właśnie tematem danych jakie możemy pozyskać na terenie zakładu produkcyjnego. Spróbujmy szybko omówić co to jest  big data i dlaczego właśnie teraz powinniśmy się zająć tym tematem.

Zacznijmy może od poukładania podstawowej terminologii. W świecie analizy danych, symulacji i algorytmów zwykliśmy uważać, że big data musi spełniać wymóg 6V’s. Nazwa ta wynika z pierwszych liter słów opisujących stawiane przed danymi wymagania to jest:

1. Volume – czyli ilość punktów danych powinna być wystarczająco duża. Brak jest wśród specjalistów jasności jak duży musi być zbiór danych aby uznać, że jest on wystarczająco duży. Warto jest jednak podkreślić, że nie jest też prawdą proste stwierdzenie „Im więcej tym lepiej”. Możliwy jest przecież także powstały z nadmiaru danych szum informacyjny.

2. Variety – dane powinny opisywać różnorodne zjawiska. Aby zrozumieć zachodzące pomiędzy zjawiskami relacje, koniecznym jest poszukiwanie i pomiar zachodzących między nimi korelacji. Do tego celu potrzebne są rozmaite obserwacje. Ich dalsza analiza pozwoli na lepsze zrozumienie badanego otoczenia bądź procesu. Ten wymóg jest szczególnie ważny w przypadku budowy bliźniaka cyfrowego całego zakładu produkcyjnego.

3. Variability – dane powinny obrazować różnorodne wyniki danego pomiaru. Jeżeli wyniki są powtarzalnie identyczne, nie stanowią one wartości poznawczej. Dopiero gdy możemy opisywać różnorodne rozkłady wyników danej operacji, możemy poszukiwać przyczyn odchyleń. Tutaj dzieje się właśnie proces poznawczy. Dla przykładu – analiza pracy robota, który ma z góry zaprogramowany cykl produkcyjny nie da nam żadnej dodatkowej wartości poznawczej, ponad opisem cyklu opisanego w programie wykonawczym robota.

4. Varacity  – zbiory danych powinny być prawidłowe, tj. nie mogą być fragmentarycznie niekompletne bądź różnie indeksowane. Ubytki w bazach danych mogą istotnie zakłamać analizę realizowaną na ich podstawie.

5. Velocity – czyli szybkość zbierania, przekazywania i przetwarzania danych musi być wystarczająca, aby na ich bazie można było wnioskować. Przykładowo, dane opisujące czasy cykli produkcyjnych realizowanych w ubiegłym roku dają pewną wartość ale jest ona niewielka. Dużo większą wartość dają bieżące dane opisujące działania realizowane w realnych zadaniach produkcyjnych. To właśnie one pozwolą tworzyć algorytmy wsparcia procesów decyzyjnych.

6. Visualization – możliwość prezentacji graficznej danych. W przypadku danych dla bliźniaka cyfrowego, kluczowym wymogiem jest indeksowanie informacji według czasu pomiaru. Dla wszystkich decyzji podejmowanych na hali produkcyjnej, kluczowym parametrem jest bowiem czas. On definiuje zarówno koszt działalności jak i dostępne moce wytwórcze. Dlatego efektywnym sposobem budowania tabel danych opisujących procesy jest właśnie indeksowanie ich linią czasu.

Ostatnio coraz częściej mówi się także o siódmym ”V” to jest  Value – dane opisane wymogami big data powinny dawać możliwość monetyzacji. Wymóg ten, w przypadku danych pozyskiwanych w obszarze środowiska produkcyjnego wiąże się z odpowiedzią na pytanie, czy opisujące zjawisko dane będą miały wpływ na poprawę funkcjonowania procesów logistycznych i produkcyjnych. Innymi słowy czy wiedza dzięki danemu zbiorowi danych pozyskamy będzie warta więcej niż koszty zebrania tych danych.

Warto tutaj wprowadzić jeszcze jedno ciekawe rozróżnienie. Mam na myśli pojęcie „danych głębokich”. Przeważająca większość dostępnych na świecie dziś zbiorów danych stanowi strukturę płaską i obszerną. Dla przykładu każdy z nas poruszający się samochodem po drogach jest biorcą i dawcą danych o aktualnej lokalizacji. Mapa Google zbiera te informacje i dzięki nim jest wstanie analizować obciążenie na drogach sugerując nam konkretne działania. To co ciekawe potrafi także przewidzieć obciążenia w określonych, przyszłych jednostkach czasu. Funkcjonalność ta jest oczywiście bardzo wartościowa dla nas. Zwróćmy jednak uwagę na to, że cała ta użyteczność sprowadza się do jednej, prostej informacji to jest naszej lokalizacji w danej jednostce czasu. Zbiory dane opisujące to zjawisko są zatem bardzo płaskie.

 

Dane głębokie to takie zbiory, które opisują dane zjawisko w szerokim zakresie, opisując wieloaspektowo i wielowymiarowo charakter samego zjawiska, jak także szereg czynników współistniejących mogących mieć wpływ na dane zjawisko. Przykładem danych głębokich może być właśnie zbiór danych opisujących pracę linii produkcyjnej. Budując szeregi czasowe danych opisujących jej pracę będziemy zbierali wiele informacji takich między innymi jak: wydajność na stanowiskach produkcyjnych, jakość produktu, odpad technologiczny, stan techniczny maszyn, ale także wiele pozornie mniej ważnych parametrów jak choćby okres zatrudnienia operatora na maszynie, temperaturę w pomieszczeniu, oraz wiele, wiele innych. Tak wyczerpujący opis zdarzeń współzależnych, oddziałujących na proces produkcyjny jest właśnie typowym zbiorem danych głębokich. To dzięki niemy możemy usprawniać procesy produkcyjne oraz logistycznie w sposób wcześniej jeszcze nie znany.

Budowa bliźniaka cyfrowego całego zakładu produkcyjnego jeszcze 5 lat temu była praktycznie nieosiągalna. Technologia sprawia, że możliwe stało się zebranie danych spełniających wymogi założeń big data także w zakładzie produkcyjnym. Technologia ta, to kolejny osławiony termin, którym jest Internet rzeczy. IoT przemysłowy to dostęp do danych, bezpieczny ich przesył i magazynowanie oraz rozproszone moce obliczeniowe.

Najbardziej oczywistym źródłem danych są zapisy z pracy maszyn produkcyjnych. Większość obecnie produkowanych maszyn i urządzeń zbiera informacje o ich sprawności i efektywności pracy. Niestety nie są one jeszcze masowo wykorzystywane z bardzo prozaicznego powodu jakim jest koszt. Dla przykładu, wszyscy dostawcy robotów zbierają dane z pracy ramion robotów. Jednakże dostęp do nich wymaga zakupu dodatkowych funkcjonalności. Moje obserwacje pokazują, że ciągle jeszcze mało które przedsiębiorstwo decyduje się na ich zakup z powodu dodatkowych kosztów tego rozwiązania.

Drugim źródłem informacji o pracy maszyn mogą być czujniki montowane już po ich zainstalowaniu. Na rynku, jak grzyby po deszczu powstają firmy dostarczające tego typu sensory (np. wibracyjne lub optyczne). Ich montaż praktycznie nie ingeruje w maszynę, jednocześnie pozwalając na zebranie szerokiego zbioru danych o pracy stanowiska.

Obecnie zakłady produkcyjne, na bazie różnej formy czujników, mają dostęp do technologii pozwalających na obserwacje niemalże wszystkich zdarzeń mających miejsce na ich terenie. Wszystko to, co dzieje się z ludźmi, materiałami, maszynami, robotami, środkami transportu od momentu wejścia materiału do zakładu, aż po wyjście wyrobu gotowego, może być rejestrowane i analizowane. Technologa ta staje się także ekonomicznie uzasadniona co sprawia, że wdrożenie jej do praktycznego zastosowania jest finansowo opłacalne.

Dane możemy także kupić od zewnętrznych dostawców. Przykładem mogą być zbiory danych awaryjności maszyn albo standardowe czasy dla operacji na linii produkcyjnej. Nie jest oczywiście łatwo kupić takie dane, ale znane mi są przykłady legalnych transakcji tego typu.

Wreszcie dane można także deklarować bądź estymować. Dane deklarowane mogą być przez pracowników na liniach produkcyjnych na przykład na tabletach. Estymować można natomiast te parametry, których pomiar może być nieuzasadniony ekonomiczne.

Dyrektorem zarządzającym dużym zakładem produkcyjnym zostałem pierwszy raz w 2008 roku. Obserwując od tego czasu rozwój dostępnych technologii pomiarów procesów mogę śmiało powiedzieć, że to właśnie teraz następuje ten czas, kiedy możemy łatwo zgromadzić i przechowywać dane głębokie opisujące praktycznie wszystkie zdarzenia zachodzące na terenie zakładu produkcyjnego. Spełnionych zatem jest szereg wymogów stawianych przed formatem oraz zakresem zbiorów danych starających się o miano big data.

Drugą przełomową zmianą, jaką obecnie obserwujemy jest łączność na terenie zakładu produkcyjnego. Tak prozaiczne wyzwania jak szybkość i bezpieczeństwo przesyłu danych, powstrzymywało gwałtowny rozwój IoT przemysłowego. Rewolucja przyszła wraz z upowszechnieniem się technologii 5G w środowisku przemysłowym, wprowadzając dwie kluczowe zmiany. Pierwszą z nich było zwiększenie szybkości przesyłu danych. Drugą, i może nawet ważniejszą zmianą jest umożliwienie bezpośredniej komunikacji pomiędzy urządzeniami. W ten oto sposób urządzenia oraz sensory zaczęły komunikować się bez opóźnień oraz stabilnie na terenie zakładu. Informacja zbierana jest na czas i bez błędów.

Spełniane są dzięki temu kolejne wymogi z grupy 6Vs w zakresie szybkości oraz jakości danych.

Trzeci obszar zmiany technologicznej to szybkość realizowanych obliczeń. Przyrost mocy obliczeniowych opisanej prawem Moora sprawiło, że praktycznie każdy ma dziś na wyciągnięcie ręki moce obliczeniowe wymagane do tego, aby zbierać i analizować duże zbiory danych. Ta zmiana ma jeszcze jedno, ważne oblicze. Jesteśmy obecnie świadkiem decentralizacji mocy obliczeniowej w kierunku urządzeń brzegowych. Innymi słowy, nie są już potrzebne duże, scentralizowane jednostki obliczeniowe dla realizacji obliczeń potrzebnych w zakładach produkcyjnych. Stosowne obliczenia, w tym zaawansowane symulacje graficzne bądź algorytmiczne, mogą być realizowane blisko zdarzeń, czyli właśnie na linii produkcyjnej.

Reasumując, dokładnie teraz, na naszych oczach dokonuje się prawdziwa rewolucja w obszarze digitalizacji procesów przemysłowych. Dzieje się tak nie tylko dlatego, że technologia dla produkcji jest dostępna i ekonomicznie uzasadniona. Przemysłowy Internet rzeczy sprawił, że zbierane w halach produkcyjnych dane noszą znamiona big data. Możliwe zatem staje się głębokie rozumienie zdarzeń oraz relacji zachodzących na produkcji. Możliwe staje się także budowanie doskonałych symulacji oraz skutecznych oraz efektywnych algorytmów wspierających procesy decyzyjne. Ale o tym opowiem już  przy innym spotkaniu.

Jeżeli przedstawione tematy zainteresowały Państwa zapraszam do zapoznania się z innymi treściami edukacyjnymi w obszarze digitalizacji procesów produkcyjnych znajdujących się w sekcji bazy wiedzy na stronie DBR77.com.

Tradycyjnie zapraszam także do kontaktu z zespołem DBR77 bądź bezpośrednio ze mną.

Do zobaczenia.

Piotr Wiśniewski, CEO Platformy DBR77

#blizniakcyfrowy #digitaltwin #przemysl #robotyzacja #algorytmy AI #produkcja #efektywnosc

Data publikacji: 5 grudnia 2022