Jacek Olszewski
Senior Principal & Partner
“What gets measured gets managed” – zarządzać możemy tylko tym, co potrafimy zmierzyć. Ta stara prawda dotyczy praktycznie wszelkich form działalności – gospodarczej, naukowej, a nawet prywatnej. W ramach tych działalności korzystamy z różnorodnych aplikacji: od dużych systemów zarządzania zasobami przedsiębiorstw, sterowania produkcją czy przepływem materiałów w magazynie, po „apki” zainstalowane na telefonach lub zegarkach, wspomagające nas w codziennych czynnościach. Dzięki ich stosowaniu pozostawiamy za sobą masę cyfrowych śladów – danych, które stwarzają nam szansę monitorowania, mierzenia, analizowania i wyciągania wniosków – czyli zarządzania naszą działalnością. Czy potrafimy tą szansę wykorzystać? Spójrzmy na ten problem z punktu widzenia naszego logistycznego podwórka. Do czego nam są tutaj potrzebne dane i jak je wykorzystujemy?
Perspektywa operacyjna.
W codziennej działalności operacyjnej zarządzamy bieżącymi procesami logistycznymi. Ich celem jest przyjęcie i alokowanie towarów w magazynie oraz następnie przygotowanie i dostarczenie produktów do klientów – we właściwym czasie, we właściwe miejsce i za właściwy koszt. Aby wypełnić te trzy „w” musimy odpowiednio planować, monitorować i optymalizować procesy magazynowe. W tym celu należy je we właściwy sposób mierzyć oraz porównywać w dwóch wymiarach:
• czasowym: jak zmienia się nasza jakość lub efektywność w czasie – czy mamy do czynienia z postępem, czy z regresją
• przestrzennym: jak wygląda nasza jakość lub efektywność w porównaniu z innymi -zespołami lub osobami w przedsiębiorstwie, oddziałami w ramach większej organizacji lub firmami (tzw. benchmarking)
Do tych pomiarów i analiz stosujemy tzw. KPI (Key Performance Indicators). Mierzymy nimi zarówno jakość (np. słynny OTIF – On Time in Full – % zamówień, pozycji lub sztuk dostarczonych bezbłędnie na czas) jak i efektywność (np. ilość sztuk na godzinę skompletowanych przez pracownika w magazynie lub koszt logistyki w przeliczeniu na sztukę). Takich KPI możemy zdefiniować mnóstwo.
I tu zaczyna się problem…
W wielu przedsiębiorstwach spotkałem się z szeregiem sytuacji zaburzających przejrzystość KPI i utrudniających korzystanie z nich. Na przykład:
• KPI nie były jednoznacznie zdefiniowane (np. ten sam proces mierzony przez różne osoby pokazywał KPI o różnych wartościach),
• różne KPI mierzyły ten sam proces w tym samym aspekcie lub wybrane cechy tego procesu, mniej istotne dla jego wydajności,
• KPI nie odzwierciedlały istoty procesu (np. wydajność kompletacji w kg/h, podczas gdy parametrem decydującym o wydajności są sztuki lub linie zamówieniowe)
• KPI nie były właściwie uporządkowane i zestrukturyzowane.
Wszystkie te problemy utrudniają analizę, wyciąganie wniosków i zwiększają nakład pracy na zarządzanie procesem. Dobrą praktyką jest tutaj zestrukturyzowanie KPI w swoistą piramidę (rys.). Pozwala nam ona na stosowanie ich dwukierunkowo:
• bottom-up: definiując targety w formie jakościowych i efektywnościowych KPI dla poszczególnych pracowników, zespołów i działów osiągamy wzrost globalnych wskaźników dla firmy;
• top-down: gdy któryś z globalnych wskaźników nie osiąga oczekiwanej wartości, jesteśmy w stanie zidentyfikować, który proces, pracownik, urządzenie lub asortyment odpowiada za ten fakt i podjąć odpowiednie działania naprawcze.
W ślad za wyżej wspomnianą strukturą powinniśmy oczywiście zaopatrzyć się we właściwe narzędzia do bieżącego monitoringu KPI (np. kokpity w WMS lub wizualizacje w systemach zarządzania automatyką) oraz do raportowania i analiz (moduły Business Intelligence, raporty generowane z WMS, itp.)
Perspektywa strategiczna
Co jest celem przedsiębiorstwa? Zadowolenie klientów, wysoka jakość produktów, image, zysk? To tylko cele cząstkowe, które zmierzają do osiągnięcia celu nadrzędnego, który jest bardzo prosty: to zadowolenie właściciela – osiągane nie tylko przez generowany zysk zapewniający właścicielowi (lub właścicielom) dywidendy, ale również przez ciągły rozwój zapewniający wzrost tego zysku i minimalizujący ryzyko jego utraty. Aby zapewnić ten długofalowy rozwój, zarząd przedsiębiorstwa buduje długoterminowe strategie i podejmuje decyzje o skutkach długofalowych. Decyzje te oczywiście muszą być oparte na rzetelnych przesłankach – czyli danych. O jakich danych tu mówimy? Ponieważ dotyczą one długofalowego rozwoju, są to po pierwsze prognozy tego rozwoju. Natomiast prognozy są ekstrapolacją danych historycznych, które na potrzeby analizy lub projektu również należy zgromadzić. Pamiętajmy, że poruszamy się w obszarze logistyki, więc mówimy przede wszystkim o danych związanych z przepływami materiałów, poziomami zapasów i kosztami operacji logistycznych.
I tu zaczyna się problem…
Biznes (produkcja, sprzedaż) posługuje się danymi i prognozami finansowymi i operuje ilościami sztuk sprzedawanych lub produkowanych asortymentów. Natomiast logistyk musi te dane przełożyć na swój język: wolumenów, pobrań, ruchu towarowego. Potrzebne są do tego dokładne dane logistyczne: wymiary, wagi, jednostki ładunkowe, ilości sztuk per te jednostki, parametry składowania, itp. Zawarte sa one w tzw. danych bazowych artykułów (Master Data). W ponad 90% firm, z którymi miałem do czynienia dane te zawierają dużo błędów i nie są na bieżąco pielęgnowane. Prowadzi to do sytuacji, w kórej podczas realizacji projektu trzeba kluczowe dla niego dane estymować i uzupełniać – zawsze pod presją czasu i często przy niedoborze zasobów. Nie mówiąc już o tym, że w działalności operacyjnej szef logistyki nie ma dobrych narzędzi analitycznych do podejmowania decyzji, bo dane do tej analityki są błędne lub niedostępne. To trochę tak, jakby polonista z wyższym wykształceniem ciągle robił błędy ortograficzne.
Powyżej opisane dane i perspektywy ich stosowania to poziom szkoły podstawowej – minimum niezbędne do sprawnego zarządzania procesami logistycznymi i prowadzenia złożonych projektów. Kto odrobił starannie zadania w szkole podstawowej, może dostać się na uniwersytet Big Data.
Ocean Big Data
Wszystkie dane z działalności firmy są gromadzone w różnorodnych bazach danych systemów, które posługują się tymi danymi. Można je też gromadzić w centralnym repozytorium (tzw. Data Lake) i korzystać z nich w celach analityki wykraczającej poza ramy tych systemów. Skoro tutaj używamy pojęcia „jeziora danych” to Big Data jest już oceanem danych. Big Data to termin oznaczający ogromne ilości danych, które są gromadzone, przetwarzane i analizowane za pomocą specjalnych narzędzi informatycznych. Z reguły są one tak obszerne i złożone, że tradycyjne metody ich przetwarzania i analizy stają się niewystarczające. Wyróżniają się trzema głównymi cechami: ogromną ilością, różnorodnością i szybkim tempem generowania. W zależności od tego, czego dane te dotyczą, mogą one pochodzić z różnych źródeł:
• zewnętrznych względem przedsiębiorstwa: wszelkie „ślady cyfrowe” pozostawiane przez użytkowników aplikacji (np. kliknięcia w mediach społecznościowych, zakupy online, transakcje bankowe)
• wewnętrznych: opomiarowanie i sensoryka: parametry i czasy pracy urządzeń, transakcje w systemach wspomagających zarządzanie procesami, telegramy interfejsów pomiędzy tymi systemami, itp.
Jak wspomniano, ilość i tempo generowania danych wymagają zastosowania specjalistycznych narzędzi i technologii informatycznych (w tym uczenia maszynowego), które pozwalają na szybkie i efektywne przetwarzanie oraz analizę tych danych. Dzięki temu możliwe jest wykrycie wzorców i zależności, które nie byłyby zauważalne przy użyciu tradycyjnych metod. Stwarza to olbrzymie możliwości w bardzo wielu obszarach, na przykład:
• Zrozumienie i przewidywanie zachowań klientów i prognozowanie popytu z uwzględnieniem wspomnianych wzorców i zależności – a w ślad za tym właściwe planowanie logistyki na poziomie zarówno operacyjnym, jak i strategicznym
• Precyzyjniejsze zarządzanie procesami magazynowymi: planowanie zasobów, obsługa szczytów, zarządzanie strefami buforowymi, itp.
• Sterowanie i parametryzacja pracy automatyki magazynowej, planowanie przeglądów, utrzymanie ruchu, symulacja złożonych scenariuszy pracy w cyfrowym bliźniaku
Bogactwo oceanu danych jest już dziś do naszej dyspozycji. Pojawia się też coraz więcej narzędzi, które pozwalają nam z tego bogactwa korzystać. Pamiętać należy tylko, że zanim wypłyniemy na ocean, musimy nauczyć się żeglować po jeziorze. Podstawowa analityka i dbałość o dane bazowe powinny znaleźć się wśród priorytetów każdego szefa logistyki. Dzięki nim można przejść od zarządzania reaktywnego i permanentnego „gaszenia pożarów” do zarządzania proaktywnego, opartego o przewidywanie przyszłych zdarzeń. Dzięki nim można też realizować projekty przy mniejszym ładunku stresu i z mniejszym ryzykiem popełniania kosztownych błędów.





