LEAN PRODUCTION E LEAN MANUFACTURING Tutte le aziende hanno interesse nel raggiungere l’obiettivo di aumento della redditività, il che può essere fatto, generalmente, in due modi: o aumentando le vendite, a parità di struttura di costo, oppure cercando di ridurre i propri costi (a parità di fatturato o, ancor meglio, incrementandolo). Poiché, nell’economia moderna, aumentare le vendite è diventata ormai una leva che dà solo benefici marginali (i mercati sono tutti abbastanza consolidati e stabili, in termini di quote), in genere, il focus è alla riduzione dei costi; nell’approccio strategico “tradizionale” (che si basa, tuttavia, su uno sviluppo della strategia secondo un modello evoluto, che fa coesistere strategia deliberata ed emergente) quello che fanno i principali responsabili funzionali è riunirsi ad un tavolo e chiedersi come sia possibile ridurre i costi connessi ad un certo prodotto. Sono, ovviamente, possibili differenti soluzioni: Possibilità di eliminare alcune funzionalità del prodotto: ridurre le specifiche e le caratteristiche di un bene consente, come ovvio, di sobbarcarsi un onere inferiore per realizzarlo; tuttavia, occorre sottolineare come, spesso, questa sia una strategia non di facile applicazione, poiché va incontro alle obiezioni di commerciale e marketing, che non vedono “di buon occhio” un’azione di questo tipo (benchè sia dimostrato che, più del 95% dei clienti che acquista un prodotto multifunzionale, in realtà poi non utilizza più del 3% di queste caratteristiche); Ridurre l’utilizzo dei materiali di consumo impiegati in un prodotto, o cambiarne la natura: dopo aver condotto un’analisi ABC a valore, che abbia fatto emergere le materie prime ed i componenti di maggiore impatto, si può pensare di portare avanti un’opera di razionalizzazione, cercando di migliorare e/o cambiare le politiche di acquisto per raggiungere maggiore efficienza; Trovare dei modi per ridurre il tempo di lavorazione, il che significa incorrere in minori costi di lavoro e del personale operativo. Se queste sono le soluzioni “classiche”, va invece sottolineato come, l’approccio lean, segua una visione differente nel raggiungere questo obiettivo, e complementare. Il punto di partenza è il fatto che, qualunque processo aziendale, dal più semplice al più complesso, una volta scomposto in attività elementari, ed opportunamente analizzato, fa emergere come, più del 50% di tali attività che lo caratterizzano, sono targettizzabili come “non a valore aggiunto” per il cliente; ciò significa che, se si decidesse di eliminare, da tale processo, una o più di queste attività, il cliente finale non ne risentirebbe, in quanto riuscirebbe ad ottenere lo stesso output. È proprio qui che l’approccio lean concentra la sua attenzione: se si fosse in grado di eliminare queste attività, senza compromettere la creazione di valore per il cliente, si sarebbe in grado di ottenere un grande vantaggio, in quanto si sarebbe in grado di ridurre i propri costi a parità di risultato finale. Le soluzioni “tradizionali” (riduzione delle funzionalità, razionalizzazione dei materiali, ottimizzazione dei tempi di lavorazione) sono senza dubbio efficaci ma, proprio perché sono gli approcci che vengono utilizzati da tutti, rappresentano campi ampiamente esplorati, in grado di far ottenere dei benefici contenuti o, 1 comunque, marginali; d’altra parte, il “lean management” guarda ad una “montagna” che vale il 50% dei costi e che, se fosse anche solo dimezzata, significherebbe una riduzione dei costi del 25%. Il principio di base è, quindi, il seguente: piuttosto che porre l’attenzione su quello che il prodotto fa, sul contenuto di lavoro e sui materiali che esso incorpora, tentando di efficentare questi aspetti, occorre riflettere sul fatto che, in realtà, ciò che le aziende svolgono interessa al cliente solo per la metà, e quindi, è anzitutto necessario concentrare l’attenzione su quello che viene realizzato e che il cliente non richiede poiché, un risparmio in tal senso, consentirebbe di ottenere un vantaggio non indifferente. Questo fu proprio il punto sul quale decise di focalizzarsi Taiichi Ohno, ingegnere giapponese considerato il padre dell’organizzazione dei sistema di produzione di Toyota (il Toyota production system) che, per primo, promosse proprio quelli che sono i principi alla base della “lean organization”. Il passo di partenza, per applicarlo, consiste proprio nell’andare a classificare le attività in differenti tipologie, distinguendo tra: - Attività che aggiungono valore, ovvero che sono richieste dal cliente e, per le quali, il cliente è disposto a pagare, in quanto funzionali al soddisfacimento diretto del suo bisogno; - Attività che non aggiungono valore, ovvero per le quali il cliente non paga volentieri (poiché non ne ha fatto esplicita richiesta), ma che non risultano eliminabili nel breve periodo; - Attività che non aggiungono valore, quindi non richieste dal cliente, ma che sono eliminabili nel breve termine. È ovvio che, sull’ultima categoria, gli interventi sono immediati: a seguito della mappatura e della classificazione, è sufficiente andare a cancellare tutte le attività di processo che risultano effettivamente non richieste (un esempio potrebbe essere l’elaborazione di un report periodico al management, contenente informazioni non richieste e non consultate: è, a tutti gli effetti, uno spreco di risorse); più delicato è, invece, il discorso legato alle attività non a valore aggiunto ma difficilmente eliminabili: rientrano in questa categoria tutte quelle azioni che, benchè NVA, siano imprescindibili per il processo proprio perché, essendo questo strutturato in un certo modo, eliminarle istantaneamente significherebbe far cadere l’impianto stesso del processo. Inoltre, proprio per tale motivo, poiché tutti conoscono la struttura del processo e le caratteristiche delle attività, nessuna delle risorse coinvolte ne riconoscerà la natura (ma, anzi, potrebbe innescarsi un processo di accusa reciproca, dove ognuno riconosce come NVA le attività svolte dagli altri), quindi sarà ancora più difficile mettere in atto azioni di miglioramento. Si sottolinei comunque che, proprio per quanto detto, il fatto che queste attività risultino essere uno spreco non significa siano inutili: per come è strutturato il processo, sono imprescindibili ma, a valle di un miglioramento, potrebbero essere eliminate; ciò significa che, il loro inserimento in una configurazione non ottimale rappresenta, a tutti gli effetti, uno spreco (assumendo tanto la prospettiva dell’azienda, quanto quella del cliente, che non le ha richieste e non sarebbe disposto a pagarle). Un esempio particolarmente calzante, in tal senso, è l’attività svolta da un operatore che, in una linea di assemblaggio, controlla continuamente il livello dei materiali presenti; al raggiungere di un livello minimo, inoltra, quindi, una comunicazione a monte, al fine di far evitare che, la linea, debba poi successivamente fermarsi per mancanza di materiali in ingresso. È evidente che, il cliente, non ha chiesto nulla di tutto ciò: questa attività non aggiunge valore per il mercato ma, nel caso in cui non venisse svolta, ci sarebbe ala probabilità che la produzione debba fermarsi per assenza di alimentazione fatto, questo sì, che va ad impattare direttamente sulla soddisfazione del cliente. 2 La presenza dell’operatore di controllo è diretta conseguenza di una carenza organizzativa: è uno spreco dovuto al fatto che, l’impresa, non è stata in grado di strutturarsi in modo tale da poter ovviare ad una figura di questo tipo che, sulla linea, deve quindi affiancare la presenza dei “classici” operatori addetti all’assemblaggio. Questo è solo un esempio, che può essere mutuato a tutta una serie di altre attività (e, nel caso, veri e propri processi): chi si occupa di fare il cost acconting, il responsabile della programmazione, i capireparto che supervisionano la produzione, sono tutti esempi di sprechi organizzativi, ovvero figure e ruoli che l’azienda deve necessariamente prevedere perché non è stata in grado di configurarsi in modo tale da poterne fare a meno. Il primo passo per un approccio lean, consiste quindi proprio nell’andare ad identificare queste attività, non a valore aggiunto, e di “spreco”, proprio perché, solo in questo modo, si ha la possibilità di fare emergere il “mare” di opportunità che sono presenti in azienda: ad esempio, con riferimento al caso dell’operatore che monitora il flusso ed il livello dei materiali, questo potrebbe essere eliminato nel caso in cui si fosse in grado di instaurare, con il proprio fornitore, una relazione tale da garantire, con buona certezza, una costante alimentazione del processo, che minimizzi la probabilità di mancanza di materiali. Al fine di discernere al meglio quelle che sono le attività realmente a valore aggiunto da quelle che, invece, non sono richieste dal cliente, è anzitutto interessante dare una classificazione di quelli che, Ono, chiamò i principali “sprechi” aziendali, che sono inseribili in otto differenti categorie: 1) Difetti qualitativi: è evidente che, il cliente, non si aspetta che l’azienda esegua lavorazioni difettose; 2) Sovraproduzione: tutta la produzione realizzata in un certo istante e che, il cliente (interno e/o esterno) non ha esplicitamente richiesto (mediante un ordine), rappresenta uno spreco; si tenga presente che, rientra in questa categoria, anche tutto quanto viene prodotto a scorta per anticipare la domanda: questo è uno “spreco” poiché, l’azienda, non è riuscita a configurarsi in modo tale da riuscire ad esaudire l’ordine (in termini di tempi richiesti) nell’esatto momento cui si manifesta, dovendo quindi ricorrere alla scorta ed alla realizzazione anticipata (ovviamente, il principio di “soddisfare istantaneamente un ordine” è un obiettivo solo ideale, in quanto esiste sempre un livello minimo di scorte fisiologico; tuttavia, l’idea è quella di tendere ad una situazione che spinga al miglioramento continuo, al fine di strutturarsi in modo tale da ottenere il massimo dal proprio sistema); 3) Materiali ed informazioni in attesa di essere processati: tutto quello che è WIP, in coda, e che subisce un tempo di attesa, rappresenta uno spreco organizzativo non indifferente; 4) Lavorazioni non di valore per il cliente: è spreco tutto ciò che viene realizzato e tutti i passaggi che non sono funzionali alla realizzazione del valore per il cliente finale (ad esempio, il fatto di dover ottenere l’autorizzazione d’acquisto da parte dei tre livelli gerarchici superiori rappresenta, a tutti gli effetti, uno spreco, poiché sono passaggi non necessari alla creazione di valore); 5) Spostamenti non di valore per il cliente: dal punto di vista propriamente operativo e pratico, si vadano ad analizzare tutti i movimenti compiuti da una persona nell’eseguire una determinata attività; si potranno notare una miriade di passaggi che non sono funzionali alla creazione di valore per il cliente (anche in questo caso, il principio è ideale: è evidente che, alcuni di questi, siano ineliminabili ed imprescindibili, ma la logica è quella di organizzare il lavoro in modo tale da minimizzare questi sprechi, sfruttando tutte le opportunità possibili per migliorarla); 3 6) Trasporti non di valore per il cliente: l’accezione, qui, non è intesa solo ai trasporti su lunghe distanze, ma propriamente anche all’interno di uno stesso stabilimento/reparto; l’onere (grande o piccolo che sia) di questa attività viene comunque sostenuta dall’impresa che, quindi, se fosse in grado di razionalizzarla, sarebbe anche in grado di ridurre i suoi costi, così come il prezzo finale fatto al cliente; 7) Attese delle risorse (prima si parlava di attese di materiali ed informazioni): è forse lo spreco più grande, facilmente calcolabile ma estremamente difficile da correggere; se si andasse a calcolare il costo opportunità del tempo speso nell’attesa di informazioni, prodotti, raggiungimenti di accordi, scambi di idee… si potrebbe osservare un costo aziendale sostenuto di un ordine di grandezza inimmaginabile; 8) Funzionalità non in linea con le esigenze dei clienti: è evidente che, se un prodotto reca in sé delle caratteristiche che il cliente non ha chiesto (ma che sono comunque state realizzate, richiedendo utilizzo di risorse), questo rappresenta, a tutti gli effetti, uno spreco; ovviamente, ai tempi in cui Ono elaborò questa classificazione, non erano ancora così sentiti altri temi (oggigiorno importantissimi) quali la sicurezza, l’utilizzo energetico, l’inquinamento, la compliance alle normative; se si riflette, tuttavia, si può facilmente vedere come, ciascuno di questi aspetti più “moderni”, che può comportare degli sprechi, possa essere inglobato in una o più delle precedenti categorie. Nascita e sviluppo dei principi di lean management Questa nuova filosofia nacque in conseguenza del fatto che, la Toyota, dopo la seconda guerra mondiale, che aveva devastato il Giappone sotto ogni punto di vista, ricevette un chiaro input dal suo consiglio di amministrazione: era necessario risollevare le sorti della nazione, ed ognuno doveva dare il suo contributo; dal punto di vista dell’azienda, questo significava recuperare ed aumentare la propria produttività portandola, nel giro di tre anni, allo stesso livello di quella dell’industria americana. Era, questo, tuttavia, un obiettivo che sembrava abbastanza irrealizzabile: rispetto ai livelli di allora, significava un aumento, su un orizzonte temporale comunque limitato, di quasi nove volte in confronto di quello che era realizzato. Per fare ciò, fu incaricato il già citato ingegnere Taiichi Ono il quale, la prima cosa che fece, fu andare ad analizzare e studiare i processi produttivi delle aziende americane, osservando che, essi, si caratterizzavano per: Una (leggera) maggiore automazione; Una diversa organizzazione del processo di assemblaggio, che veniva realizzato manualmente, ed era solo parzialmente supportato dalla tecnologia; queste osservazioni furono di conforto ad Ono: benchè gli americani avessero nove volte la produttività dei giapponesi, questo non era né perché avessero sostituito capitale con lavoro né perché lavorassero nove volte più voci dei giapponesi (ovvero, tutti fattori che, altrimenti, non sarebbero stati colmabili nel breve termine); al contrario, ciò accadeva perché avevano organizzato la produzione in modo tale da non svolgere tutte le attività che, invece, venivano svolte nelle industrie giapponesi. È evidente che, non realizzando tutte quelle che sono le attività “not value added”, si ha la possibilità di far crescere la produttività: la cosa è evidente poiché, se si realizzasse un’attività compiendo cinque movimenti, invece che quindici, il volume di output realizzato cresce inevitabilmente, ma non perché le si fa in maniera più veloce, ma perché ne si fa meno. Si pensi, ad esempio, ad un operazione che avvita i bulloni di una ruota; nel farlo, compirà essenzialmente cinque passi: 4 1) Prendere il bullone; 2) Avvitare il bullone manualmente (quattro bulloni per ruota); 3) Prendere l’avvitatore; 4) Saldare il bullone; dal punto di vista del cliente, l’unica vera parte a valore aggiunto è la saldatura del bullone, mentre, tutto il resto, rappresenta uno spreco (l’importante, per il cliente, è che la vita venga avvitata). Come già detto, ovviamente, la logica non è quella di passare completamente “da nero a bianco” da un giorno con l’altro: la riduzione delle attività NVA è un percorso graduale, che può essere raggiunto con un processo di miglioramento continuo; ad esempio, con riferimento al caso della vite, si potrebbe pensare: - Di avvicinare del 30% l’avvitatore; - Di introdurre avvitatori a quattro punte, in grado di avvitare tutte e quattro le viti contemporaneamente (riducendo il tempo unitario di lavorazione); - Di far arrivare le viti in una “cassetta” insieme alla ruota, evitando all’operaio di doverle andare a cercare (se le si avvicina del 50%, si riduce del 50% il tempo di movimentazione del particolare “vite”). In via riassuntiva, Ono arrivò quindi ad elaborare un sistema ed una filosofia di organizzazione, testata e trasportata all’interno di Toyota, che può essere rappresentata mediante la seguente struttura: L’architrave sovrastante rappresenta quelli che sono gli obiettivi, che portano ad un miglioramento continuo al fine di ottenere un prodotto di sempre migliore qualità, con costi sempre più bassi e consegnato in tempi brevi; questo è possibile farlo tendendo ad un unico macro obiettivo, che mira ad accorciare il flusso produttivo, ovvero il tempo intercorrente dal momento in cui la materia prima viene ricevuta a quando il prodotto finito risulta essere pronto per essere consegnato. Per poter ottenere questo risultato, bisogna, come già detto, eliminare gli sprechi, e non andare più veloce: solo riducendo gli sprechi, si ha la possibilità di costruire un sistema che “ha meno tempo” per fare cose che non funzionano; il principio alla base della filosofia Toyota, quindi, individua in un indicatore “fisico” (il throughput time) e non monetario, come esemplificativo dello stato di salute del sistema. Un tempo di flusso contenuto, come detto, non lascia al processo spazio per intoppi ed inefficienze: nel caso in cui ci fossero intoppi, difatti, non si potrebbe avere un tempo così contenuto; un tempo di attraversamento “ideale” significa che tutto procede come un orologio svizzero, e che le operations 5 funzionano in maniera corretta; al contrario, un tempo lungo significa poter incorrere in una serie di intoppi, che potrebbero essere poi coperti con degli sprechi (come le scorte). Come si può osservare, questa architrave poggia su due pilastri: uno a livello di singolo operatore e risorsa, l’altro a livello di sistema. IL LIVELLO OPERATORE: JIDOKA Anzitutto, emerge il concetto di “built in quality” ed autocontrollo; il principio è che non è possibile mandare a valle l’output prodotto da un operatore a meno che, questo, non risulti qualitativamente perfetto. Questo ha un’implicazione molto forte: chi realizza quel dato output, deve avere possesso degli strumenti per capire se, quella cosa, l’ha fatta bene oppure no. È questo il primo elemento manageriale di discontinuità con quelli che sono i principi “tradizionali”: non vi è più separazione tra controllore e controllato (dove c’è un soggetto che esegue ed un secondo che controlla tale operato: in questo caso, la logica che porta a costruire un sistema di questo tipo, vede con sospetto un autocontrollo, che influenzerebbe il giudizio), ma il sistema Toyota rovescia questa prospettiva, proponendo proprio che, chi esegue un’attività, sia lo stesso che poi dovrà capire se l’ha svolta in maniera giusta o no e, soprattutto, nel caso in cui vi sia errore, capire il perché e dove si è sbagliato, poiché è solo capendo le cause che si ha la possibilità di migliorare il proprio operato (per migliorare le performance di qualità del sistema bisogna rimuoverne le cause, principio più volte sottolineato). Questo porta a parlare di quella che è la principale caratterizzazione della filosofia lean, che delinea sistemi nei quali non possono essere fatti difetti, proprio perché possono essere fatte solo le cose “giuste”; è questo l’obiettivo a cui tendere: si vuole progettare un sistema tale da non produrre difetti, introducendo un cambiamento forte nel rapporto tra uomo e macchina. Con l’introduzione della spinta automazione, difatti, la seconda rivoluzione industriale aveva concepito un ruolo dell’uomo “a servizio della macchina” (è la macchina a lavorare e, nel caso in cui qualche cosa andasse storto, toccherebbe all’operatore intervenire e risolvere il problema); la filosofia lean, invece, vede la macchina al servizio dell’uomo, in una logica proattiva e funzionale al raggiungimento degli zero difetti (la macchina lavora ed avvisa, in maniera preventiva, l’operatore, prima che si verifichi qualche cosa di anomalo). Un telaio automatizzato consente di eseguire le attività in maniera più veloce, tuttavia necessita di un operatore, addetto al controllo qualità, che ne verifichi continuamente l’operato; come detto, tutto ciò che è controllo è spreco, spreco che potrebbe essere evitato se si progettasse la macchina in modo tale da non dover controllare le eventuali difettosità, in quanto essa non ne produce (proprio perché, come detto, la macchina deve essere concepita in modo tale da “avvisare” preventivamente prima che accada qualche cosa che potrebbe portare al difetto). Tutto ciò, come detto, porta alla costruzione di sistemi “built in quality”, che prevengono la possibilità di fare difetti. Attenzione, dire “difetto” non significa dire “errore”: mentre l’errore rappresenta un’attività eseguita in modo sbagliato da parte di un operatore (un assemblaggio erroneo, l’inserimento di una cifra scorretta in un modulo..), il difetto è un qualche cosa che arriva al cliente finale (interno o esterno); l’approccio lean predica gli zero difetti, non gli zero errori, il che è una distinzione molto importante da avere presente. Fare errori è umano, e non si può richiedere alle proprie persone di non farne, proprio perché significherebbe non riconoscere che sono umane e che possono sbagliare, il che risulterebbe avvilente e 6 poco motivante (dare un obiettivo di “zero errori”, significherebbe dire “si è bravi solo se non si commettono sbagli”; poiché, però, questo è impossibile, ciò significherebbe non essere “bravi”, con il risultato di demotivazione). Il messaggio è un altro; l’approccio lean sa che la risorsa può sbagliare, ma il sistema deve essere progettato in modo tale da permettere di intercettare quell’errore, identificandolo, dando agli operatori gli strumenti per capire il prima possibile questo errore, trovandone la causa, evitando che sia passato allo stadio a valle e cercando di evitare che, in futuro, questo si ripeta. Le operations sono “full proof”, ovvero a prova d’errore, in quanto costruiscono un sistema che consenta di rendersi conto non appena venga commesso uno sbaglio, aiutando che, tale errore, non si trasformi in un difetto. Ecco quindi il concetto chiave: bisogna rendere manifesti ed espressi i possibili errori commessi proprio perché, solo in questo modo, si ha la possibilità di avere l’aiuto da parte degli altri per cercare di risolverlo ed evitare che venga ripetuto in futuro; la risorsa non viene “punita” se sbaglia, ma richiamata se, tale errore, non lo segnala. Cambia, ovviamente, in maniera totale l’approccio aziendale: la nuova filosofia deve essere il fatto che “far emergere gli errori è bello e positivo”, senza cercare di coprirli, accusare gli altri e scaricare le colpe; solo rendendoli espliciti si ha la possibilità di capire le cause dei problemi, risolverli e migliorare la qualità dell’organizzazione. In definitiva, quindi, questo primo pilastro identifica i principi in base ai quali la singola risorsa deve lavorare: essa deve essere consapevole di quello che fa, potendo intervenire per migliorare tale operatività, rendendosi conto se lo sta facendo “bene” o “male”. JUST IN TIME Il secondo pilastro è relativo alle modalità con cui, le differenti risorse, interagiscono tra loro, il che realizza un sistema cosiddetto “just in time”. Ono partì dalla seguente domanda: “com’era possibile programmare, seguire e gestire tutte le attività di realizzazione di un’autovettura, di modo tale da avere il pezzo giusto, nella quantità giusta, al posto giusto?” La risposta tradizionale del settore era, a fronte di un ordine ricevuto ed una data prevista di consegna richiesta dal cliente, mettere in piedi un sistema caratterizzato da: - Un efficace flusso informativo verso i fornitori, che permetta di comunicargli, in maniera tempestiva, date di scadenza e previsioni di consegna da rispettare; - Una definizione di scansioni temporali precise e definite per ciascun reparto (MRP, sheduling…); tutto questo, delineava un sistema integrato, complesso e capace di rispondere alle richieste del cliente in maniera più o meno efficace. Ono giudicò, questa soluzione, inadatta poiché, nel 90% dei casi, una progettazione di questo tipo fa sì che si arrivi fuori tempo; il che è evidente: benchè si siano pianificate in dettaglio tutte le attività, anche senza margine di errore apparente (si parte dalla data di consegna, e si pianificano tutte le attività a ritroso per rispettarla: ogni azione, da oggi in poi, sarà legata e funzionale all’evento “consegna”), nel mondo reale 7 accadono poi una serie di cose non prevedibili ed aleatorie, che vanno a “sconvolgere” questi piani di dettaglio. Un’organizzazione di questo tipo va bene se e solo se si ha l’assoluta certezza che, da oggi alla consegna, tutto vada in perfetto orario e come pianificato: in realtà, accadono cose che non sono state previste e, ciò, determina una riprogrammazione ed un cambiamento dei piani (ogni evento “turbante” richiede una revisione dei piani). Una configurazione di questo tipo, quindi, non si può collocare correttamente nel quadro delineato da Ono: il pezzo giusto, al posto giusto, e nella giusta quantità deve esserci sempre, non con margine di probabilità. Ma come si fa ad essere sicuri che serve quel componente, in quella versione, in quel luogo, in quella quantità, senza ovviamente partire dall’approccio classico, che, come detto, non funziona? L’unico modo è agire “just in time”: l’incertezza è azzerata solo nel momento in cui, mentre si sta realizzando un prodotto, il cliente richiede che, su tale prodotto, venga montato il componente X nella versione A; solo in quel momento si ha l’assoluta certezza sulla domanda finale. Un sistema che consentisse di produrre in questa logica sarebbe, ovviamente, a velocità “infinita” (si sta montando il prodotto, il cliente richiede un certo componente, il produttore lo richiede e, istantaneamente, questo gli risulta disponibile: ovviamente, è una situazione ideale); un buon compromesso potrebbe tuttavia essere l’organizzarsi in modo tale da avere una certa quantità di componenti da tenere in process e, quindi, immediatamente disponibili, non appena ne si ha bisogno. Attenzione, le scorte sono sì spreco ma, in certi casi, imprescindibili; tuttavia, andando a vedere da ciò che dipende il livello di materiali da tenere in process per ciascuna tipologia, si ha la possibilità di minimizzarne la quantità. È evidente che, la causa principale, è rappresentata dal lead time di riordino e, in seconda battuta, dalla cadenza della linea (se avanza una macchina ogni 5 minuti, ed il componente ha un tempo di riordino di 20 minuti, occorrerà averne, al minimo, 4 a servizio del processo). La logica tradizionale ragiona come segue: - Ci sono tempi di riordini lunghi; - Adottare delle scorte significherebbe aumentarne eccessivamente il livello; - Per tentare di livellare queste problematiche, ci si rifà a sistemi previsionali, dicendo esattamente ai fornitori cosa mandare e quando (sapendo cosa si dovrà produrre per un certo periodo, vengono inoltrati gli ordini proprio in base a questo piano, avendo la garanzia che, queste scadenze, vengano rispettate); come detto, se tutto andasse come previsto, il sistema consentirebbe di avere scorte nulle (vengono rispettati i piani, i fornitori consegnano alle date previste, il produttore realizza quanto pianificato), ma ciò non è così (arriva il componente X nella tipologia A, in realtà di deve produrre un prodotto che richiede il componente X nella tipologia B). il nuovo approccio, ribalta la prospettiva; se, prima, dato un tempo di approvvigionamento lungo, era necessario fare una previsione e dare un ordine in logica anticipativa (per non incorrere in scorte eccessive), incorrendo, tuttavia, nel rischio di cambiamento di tale previsioni, ora si vuole ragionare sulle informazioni che siano il più certe possibili (perché sono questi dati che consentono di ottenere il giusto prodotto, nella giusta quantità, nel giusto posto), posticipando, quindi, il più in là possibile, l’ordine. 8 Da una logica in azione (si costruiscono piani per rispettare le scadenze previste), si passa ad una in reazione: poiché le previsioni sono sbagliate, non si può far perno su queste, ma ragionare solo in prossimità delle richieste del cliente. Se non si è preparati a farlo, però, si torna al limite che ha portato a sviluppare l’approccio previsionale (si rischierebbe di annegare nelle scorte: occorre avere tutti i principali componenti che il cliente potrebbe richiedere, il che è una forma di spreco); per far sì che ciò non accade, occorre agire sulla rapidità, andando a lavorare con i fornitori al fine di avere i lead time che siano più brevi possibili; non a caso, ridurre il tempo di consegna consente di ridurre anche il tempo di risposta del sistema (principale prestazione). Da sistemi “push”, spinti dalla produzione, a sistemi “pull”, ovvero tirati da una richiesta cliente, e non da una previsione che, essendo riferita al futuro, non potrà che essere sbagliata; un sistema rapido consente di operare in reazione alle richieste del cliente (viene richiesto un componente di tipo X, viene detto al fornitore di realizzare un componente di tipo X; viene consumato un componente di tipo Y, viene richiesto al fornitore di rifornire il componente Y consumato), utilizzando solo un minimo di scorta: questa è la soluzione ottimale, a patto, però, come detto, di essere rapidi. La reattività alle richieste del cliente è però solo una parte caratterizzante il sistema. In genere, i modelli tradizionali si strutturano secondo una logica gerarchica, nella quale si ha un unico centro che, tramite tecnologie e sistemi informatici avanzati, è in grado di controllare, coordinare e valutare l’operatività della sua fabbrica e della sua intera Supply Chain, ottimizzando la gestione e dando indicazioni su quello che deve essere fatto. Questo, tuttavia, è un modello vincente solo sulla carta: benchè, in teoria, sembri ottimizzare, in realtà, ha due grossi svantaggi - Richiede dei grandi investimenti; - È “bottleneck”, nel senso che c’è un unico management che si erige sopra l’intera filiera e pretende di controllare tutto. Ono bocciò anche questa soluzione: poiché, oramai, i sistemi sono sempre più complessi, è impensabile gestire, gerarchicamente, questa complessità (non si può controllare un sistema complesso imbastendo un sistema ancora più complesso). Al contrario, è opportuno creare una serie di automatismi e delegare una serie di decisioni che non vengono più prese a livello centrale; il management, interviene centralmente solo “per eccezioni”: nel 95% dei casi, il sistema deve poter camminare da solo, lasciando il compito di prendere le decisioni al singolo soggetto, il quale possiede tutte le informazioni adatte e funzionali per farlo. Il ruolo del manager e del responsabile, quindi, non è più quello di coordinare centralmente, gestire e prendere decisioni, ma di governare un sistema basato su una serie di regole, informazioni, competenze e struttura dei ruoli tali che, nella maggior parte dei casi, gli permettano di funzionare correttamente senza che vi sia bisogno di un intervento “centrale”. È questo ciò che rende di successo e funzionante un sistema di operations: l’organizzazione funziona se e solo se al management non è continuamente richiesto l’intervento, potendo dedicare il suo tempo non a risolvere problemi, ma ad aiutare il sistema a migliorare, lavorando per far crescere le risorse e migliorare continuamente. La quotidianità deve scivolare via in automatico, e non essere gestita: solo se non sono sommersi dagli aspetti più operativi, i managers possono effettivamente spingere i miglioramenti di sistema. 9 Si tenga presente che, questi due pilastri, si basano su due importanti prerequisiti: 1) Standardizzazione delle procedure di lavoro: tutti svolgono le operazioni allo stesso modo; 2) Tensione e ricerca del miglioramento continuo. Al di là di quello che il senso comune possa far pensare, in realtà, queste due cose non risultano essere in contrasto: il fatto di implementare una regola, che può essere replicata da più persone, che svolgono la medesima attività ma che operano in condizioni differenti, non significa porre un freno all’innovazione ma, anzi, in questo modo, si ha la possibilità di far leva su più “voci” che pensino ad un modo per migliorarla, provandola, testandola e verificandola; ovviamente, nel momento in cui ne venga verificata la validità, sarà possibile estenderla al fine che diventi la nuova procedura standard per tutti, di modo che tutti possano “godere” dei benefici di questa scoperta. In questo modo, il tasso di miglioramento del sistema è molto più rapido: non è che ognuno migliora per solo per sé stesso, confinando possibili miglioramenti nel suo ambito; ogni intuizione deve essere goduta dagli altri, e questo è possibile, ovviamente, solo se si lavora sulla stessa cosa. Per questo la standardizzazione risulta essere fondamentale: realizzare una procedura significa non dover pensare e prendere decisioni, poiché si tratta di seguire un protocollo definito, il che consente di dedicare la propria mente ad altre cose, oltre che avere la certezza che, tale regola, funzioni. Attenzione: questa cosa non è assolutamente demotivante, per due motivi: - Non viene eseguita una procedura ed una regola imposta dall’esterno, bensì un protocollo sviluppato e migliorato dalle stesse risorse che andranno ad eseguirlo e mettere in atto; - Nel caso in cui qualche cosa dovesse andare storto, si può far leva sul fatto che non è il singolo ad aver sbagliato, ma il protocollo; ad essere messa in discussione non è il singolo, ma la regola: nel caso in cui si verifichi un caso in cui, tale procedura, si rivela essere non funzionante, è possibile modificarla ed adattarla per farla funzionare anche in quello specifico caso. La filosofia lean, è quindi orientata a Eliminare tutte quelle che sono le attività non a valore aggiunto; Eliminare qualunque forma di spreco; in particolare, nel rappresentare questi principi, è possibile fare riferimento ad una interessante metafora, quella della barca che naviga nel mare, che vuole far passare il seguente principio: il sistema non deve essere progettato in modo tale da coprire e cercare di far manifestare i pinti di debolezza ma, anzi, favorirne e spingerne l’emersione, per far sì proprio che essi vengano affrontati e superati. 10 La barca rappresenta l’azienda, mentre gli scogli tutte quelle che sono le cose che potrebbero non funzionare (ritardi dei fornitori, carenze della rete, mancanza nella formazione del personale); il livello dell’acqua, invece, rappresenta il livello di coda / scorta / pazienti / prodotto in attesa. L’approccio tradizionale porta a ridurre e minimizzare questi scorte, ad un livello però tale da permettere alla barca di navigare appena sopra gli scogli; in sostanza, l’azienda funziona incorrendo in meno problemi possibili (in sostanza, ci sono delle scorte di sicurezza che garantiscono un certo livello di servizio: probabilità minore dell’X% che si vada a sbattere contro lo scoglio X). L’approccio lean, al contrario, ribalta la prospettiva, dicendo che non esiste un livello minimo di scorte; poiché le scorte sono uno spreco, occorre abbassarne il livello al fine di fare emergere i problemi: in questo modo, la barchetta andrà a sbattere contro uno di questi scogli (ovviamente, questa diminuzione, sarà graduale, consentendo di affrontare un problema alla volta). Così facendo, tuttavia, diventa chiaro a tutti che c’è un problema che, per poter proseguire, deve essere affrontato e superato, andando ad identificarne le cause per capire come eliminarlo (e non alzando il livello delle scorte per coprirlo!). Messe in atto delle azioni in modo tale da abbassare l’altezza di questo scoglio, la barca ricomincerà a navigare, andando inevitabilmente a sbattere contro un altro scoglio: altro problema, altra risoluzione (e così via). Come si può osservare, per far sì che l’azienda navighi, sono gli scogli ad abbassarsi (quindi i problemi vengono superati), non le scorte ad alzarsi; una volta spianati tutti i problemi, si potrà quindi pensare di abbassare ulteriormente il livello delle scorte: la barca andrà a scontrarsi con altri problemi, che dovranno essere risolti, in una sorta di “never ending process”. In questo modo, inoltre, facendo emergere i problemi in maniera razionalmente graduale, si ha la possibilità di dare urgenza ed oggettività su qual è il problema: non ci sono litigi e conflitti per identificare quello che è il problema che dovrà essere risolto, poiché la barca si è incagliata, e la cosa è esplicita e manifesta a tutti. La situazione “ideale”, a cui tendere, è quella dove si ha una superficie così liscia da poter navigare senza problemi. L’APPROCCIO AL PERSONALE Ma qual è il profilo che si delinea per le risorse inserite in un sistema lean? 11 Persone di medie capacità che ottengono risultati brillanti perché c’è eccellenza di processo: può effettivamente funzionare questo nel moderno mondo industriale? All’interno di un’organizzazione minimamente complessa, il contributo che il singolo individuo può dare al processo, viene superato dall’importanza della struttura del processo stesso (informazioni, attività, loro sequenza, passi da seguire; la persona più “brava”, all’interno di un sistema complesso che non funziona, difficilmente potrà avere un impatto significativo e determinante. Al contrario, in sistemi più semplici, una persona brillante, potrebbe cambiare, anche in maniera decisiva, i risultati e l’orientamento dell’organizzazione. Poiché, la maggior parte dei sistemi, è complessa, allora è opportuno concentrarsi sull’aspetto in grado di influenzarli maggiormente, ovvero il processo, abbandonando tuttavia il classico approccio “militare” (i responsabili dicono cosa, fare ed i sottoposti eseguono): persone di medie capacità operano su un processo che è sì centrale rispetto all’individuo, ma va sottolineato come sia stato lo stesso individuo che lo esegue a disegnare il processo, proprio perché ci opera quotidianamente e lo migliora. Per la parte di sua competenza, ciascuna risorsa contribuisce ed assume il ruolo di disegnatore del processo, modificando ed influenzando il sistema con cui lavora, e partecipando al processo di miglioramento delle procedure. Come già detto, inoltre, poiché centrale è il processo, nel momento in cui si ottenesse un risultato finale sbagliato, la colpa non sarebbe da ricercarsi nell’individuo, ma nella struttura del processo stesso; è questo l’unico scenario veramente credibile e sostenibile affinchè si possa pensare che, una volta rilevato un errore, l’individuo sia portato a dichiararlo; è stata eseguita un’operazione, è stato commesso un errore, e questo potrebbe generare un difetto: proprio perché, centrale, è il processo, la risorsa sarà più spinta ad ammettere questo fatto, comprendendo l’errore, provando a ripararlo ed andando, così, ad operare in un sistema che andrà meglio (quindi, la logica non è quella del “rimprovero per l’errore” ma, addirittura, quasi un “ringraziamento”: identificando e facendo emergere lo scoglio, la risorsa ha consentito di migliorare il processo). È evidente come si trattai di una visione completamente diversa dell’azienda, forse un po’ ideale, ma comunque rivoluzionaria: per attuarla, si parte con mettere in atto un approccio incrementale, migliorandola, via via, nel tempo. Inoltre, si vada a guardare a quella che è la distribuzione delle categorie di risorse (in termini di caratteristiche); ipotizzando una distribuzione normale, si avranno: - Un 6% di persone non adatte a prescindere per il sistema; - Un 6% di persone particolarmente brillanti; - Un 88% di persone di “medie capacità”; l’approccio lean, tolto il 6% di persone non adatte alla realtà, dice al restante 94% che vanno bene per il sistema e, nel caso in cui non riuscissero a farlo funzionare correttamente, ad essere non idonee non sarebbero le risorse, ma la procedura ed il processo (ad esempio, per una struttura sbagliata, o una mancanza di informazioni). Si disegna un’organizzazione dei processi che vada bene per la gran parte delle persone, proprio perché, le operations, verranno fatte funzionare, con alta probabilità, da persone che non sono né non idonee, né particolarmente brillanti (puramente per un fatto statistico). Questo non significa che, le persone più brillanti, che vanno nelle società per poter mettere in atto le loro capacità, non sono attratte da un’organizzazione come quella di Toyota, nella quale, centrale, è il processo 12 (e non l’individuo, come loro vorrebbero): le persone brillanti vanno laddove hanno la possibilità di realizzarsi, ma questo accade anche in Toyota, proprio perché possono dare il loro contributo nel migliorare il sistema, miglioramento che può essere sfruttato da tutti. In linea teorica, questi principi sono mutuabili a tutti i contesti; è senza dubbio vero che, possono adattarsi meglio a configurazioni più orientati ai mass service piuttosto che a professional service, ma non ne si deve fare tanto una questione di natura dell’attività e sue caratteristiche, quanto di struttura delle conoscenze. Quanto più un’attività è indefinita, con difficoltà a prevederne l’evoluzione, quanto meno si sarà in grado di lavorare con un metodo (proprio perché, questo metodo, non è ancora conosciuto); tutti i principi descritti come basilari dell’approccio lean risultano quindi, applicabili in maniera molto più circoscritta. Tuttavia, in un futuro, potrebbe essere possibile che, in funzione dell’esperienza accumulata, sia possibile effettivamente costruire questo metodo, trasformando, quindi, quell’attività da “professionale” a maggiormente “mass”, potendo così mutuare i concetti visti. Se la struttura delle conoscenze evolve, si ha la possibilità di mettere a punto delle procedure e dei modi di operare e cercando poi di lavorare su questi: lavorare con una procedura non è svilente, nel momento in cui, chi ci lavora, è il padrone stesso del metodo (nessuno impone niente dall’alto, ma ognuno è in condizione ed in potere di introdurre miglioramenti, senza separare la decisione di “come farlo” dal “chi lo fa”). La procedura è uno strumento di burocrazia, che ingessa l’organizzazione, solo quando è utilizzata come strumento di controllo; nell’approccio lean, invece, viene creato un sistema in cui la procedura è uno strumento operativo: essa “insegna” alle risorse quello che devono fare, ed è uno strumento di formazione che si presta ad adattamento nel momenti in cui la realtà richiede qualche cosa di diverso (il singolo può modificarla senza che questo richieda l’intervento di livelli gerarchici superiori, in un sistema estremamente dinamico, che passa da un dato stato stabile ad un altro stato stabile, facendo evolvere tale procedura). I PRINCIPI LEAN Approfondite quelle che sono le “guidelines” generali, è possibile entrare più nel dettaglio di quelli che sono i principi alla base dell’approccio lean; Taiichi Ono li declina in quattro categorie: 1. Flusso: è fondamentale riuscire a “vedere” il flusso delle attività di trasformazione del prodotto, analizzandone attentamente la crescita di valore all’interno dello stabilimento, seguendone tutti i passi e le fasi; 2. Cadenza: è fondamentale riuscire a dare un ritmo a tutta l’azienda poiché, tale ritmo, è ciò che consente di avere dei feed – back più o meno ravvicinati su come si sta lavorando (dire che devono essere realizzati 80 prodotti al giorno è molto diverso che dire che devono essere prodotto 10 oggetti l’ora; sono due ritmi differenti, che indicano controlli di processo più o meno stringenti); 3. Pull: bisogna lavorare solo in reazione alle richieste del cliente; 4. Zero difetti: bisogna operare per ottenere una qualità (interna) sempre più alta, senza far giungere difettosità al cliente. Questo stessi principi sono poi stati rielaborati da altri studiosi (come Womack e Jones), che li hanno dettagliati in alcuni principi più chiari. Definire il valore Ciò che è di valore lo definisce il cliente, non l’azienda; è quindi fondamentale chiedersi ed identificare cosa, per lui, è effettivamente di valore e cosa non lo è. L’azienda, quindi, deve assumere la prospettiva del 13 cliente e, da questo punto di vista, cercare di comprendere a che cosa egli attribuisce maggiore importanza. Come già, a suo tempo, si era avuto modo di sottolineare, il comprendere che cosa vuole il cliente è uno dei punti cruciali per un’azienda di servizio, un mondo che, più di quello manufatturiero, presenta ancora molti ambiti di miglioramento in quanto, spesso, non in grado di incontrare perfettamente ancora tutte le esigenze e/o soddisfarle nella maniera corretta. Dal punto di vista economico, questo si è tradotto in un ribaltamento nelle logiche di valutazione strategiche. Nell’approccio tradizionale, le aziende si trovano a fare un pricing basato sul modello del mark – up, che spinge a - Realizzare il prodotto al costo più basso possibile; - Maggiorare, tale costo, di un mark – up che serva a remunerare il capitale; - Ottenere il prezzo finale come , che dovrebbe rappresentare il valore più basso e competitivo possibile. Questa logica ha, nel costo e nel mark – up fissato, le due variabili indipendenti, che determinano univocamente il prezzo (variabile dipendente); tuttavia, facendo l’assunzione di un prezzo rappresentativo di quello che è il valore dell’oggetto per il cliente, ciò significa che, entità e contenuto del valore viene definito dall’azienda stessa. Al contrario, la filosofia lean adotta un approccio differente; a fronte di un prodotto/servizio concepito, con certe caratteristiche, l’azienda deve “mettere gli occhiali” del cliente, al fine di capire quanto, questo, sarebbe disposto a pagarglielo. Il prezzo, diventa quindi la variabile indipendente, al quale si affianca la seconda variabile fissata, il mark – up desiderato: posto questo, ciò che è univocamente fissato è, ora, il costo (minimum allowable cost), che diventa l’obiettivo da raggiungere se si vogliono rispettare le analisi fatte. È possibile realizzare il prodotto/servizio (con le caratteristiche definite) a quel costo, al fine di riuscire a dare al cliente il valore “equo” (identificato dal prezzo) e raggiungere la marginalità desiderata (mark – up)? In caso di risposta affermativa, allora si può procedere, altrimenti è necessario trovare altre soluzioni (cambiamento delle caratteristiche, modifiche all’organizzazione…). Il cambiamento è forte: si passa da una logica inside – out (costo + mark – up = prezzo) ad una logica completamente outside – in (prezzo + mark up = costo), che parte sempre e comunque da considerazioni su quello che è il valore associato dal cliente alla value proposition. Identificare il flusso La necessità di far scorrere il flusso, in questo caso, non pone tanto l’accento sull’esigenza di avere una cadenza (come detto prima), bensì sulla necessità di avere un continuo avanzamento delle attività (avere un blocco significa che, l’oggetto della trasformazione, è in attesa in qualche punto del sistema: questa è un’inefficienza, in quanto emerge un problema: bisogna quindi andare ad identificarlo e analizzare le opportunità per ridurlo / eliminarlo); il sistema ideale, nella prospettiva lean, è quello dove si ha uno scorrere continuo, e tutte le risorse lavorano incessantemente alla trasformazione. Il flusso diviene quindi insieme di attività rappresentative del processo di trasformazione per giungere all’output da consegnare al cliente: identificare tale flusso significa, quindi, seguire propriamente quello che è tale percorso di trasformazione, mettendone in evidenza le caratteristiche (risorse e competenze richieste, funzioni attraversate, tecnologie utilizzate…). È possibile identificare tre diverse tipologie di flusso: 14 Flusso di trasformazione degli input nell’output finale: altro non è che l’insieme dei processi operativi che si occupano della produzione del bene/servizio; Flusso d’informazione: ovvero, tutte quelle che sono le informazioni ed i dati che è necessario gestire per portare correttamente l’output al cliente finale; Il flusso di innovazione: ovvero, quel processo che porterà alla realizzazione di nuovi prodotti, e che va dall’idea generation, fino all’effettiva produzione di quel nuovo prodotto/servizio. Per ognuno di questi flussi, vanno separate le attività che aggiungono valore da quelle che non aggiungono valore, cercando, quanto più possibile, di eliminare quest’ultima categoria. Far scorrere il flusso In un sistema di operations ideale, il flusso identificato non viene mai fermato: deve scorrere, senza intoppi, e con continuità; si parte a t = 0 con valore nullo e, ad ogni attività svolta, il valore viene incrementato di una certa percentuale, a crescita costante e mai assente. Bisogna, quindi, evitare - Attività che non contribuiscano a questa crescita; - Attività/eventi che fermano tale flusso (che sono spreco, come le attese di processo); ecco quindi che, in una logica di miglioramento continuo, è necessario identificare tutto ciò che potrebbe potenzialmente fermare il flusso, identificarne i motivi di blocco, quelle che sono le cause che lo determinano e, dove possibile, rimuoverlo; nel corso del tempo, questo porterà il processo ad essere sempre più fluente. Legare il tutto al cliente Il principio basilare di un’azienda lean è proprio quello di operare sempre in reazione a quanto vuole il cliente, e mai in azione; ciò è un cambiamento molto forte, in quanto significa stravolgere tutto quello che ha portato allo sviluppo della conoscenza: le tecnologie dell’informazione, ad esempio, nascono proprio per dare ai managers la possibilità di controllare maggiormente il sistema, gestendone ed integrandone tutte le parti in maniera coordinata (si pensi ai software di previsione della domanda, ai sistemi di programmazione controllo della produzione, ai programmi di riordino automatico…). Purtroppo, le cose, non stanno così: non sarà mai possibile governare ad un livello nullo di incertezza sistemi sempre più complessi ma, anzi, questo desiderio (non raggiungibile) potrebbe portare a conseguenze indesiderati; la risposta, quindi, deve essere quella di semplificare i sistemi, senza avere la pretesa di controllarli, ma dando così la possibilità di poter operare in reazione. Si consideri il seguente esempio; si supponga che un prodotto abbia un tempo di attraversamento di 3 settimane, in uno stabilimento abbastanza complesso (vari reparti, outsourcer, attese…); il management, tuttavia, vuole sempre essere informato ed avere sotto controllo la posizione del prodotto, istante dopo istante (lavorazioni effettuate, stato di avanzamento…) per poter dare al cliente feed – back immediati sulla produzione: in un contesto di questo tipo, l’approccio tradizionale porta ad investire, ad esempio, in bar code e sistemi di tracciamento. Il lean, invece, ribalta la logica: si ha bisogno di questi sistemi perché ci si impiega 3 settimane invece che 3 giorni; se si riuscisse a portare il lead time al valore obiettivo richiesto dal cliente, non si avrebbe necessità di investire in nulla poiché si saprebbe con certezza che, un prodotto lanciato in produzione un giorno fa, tra massimo due giorni, sarà pronto: non si ha quindi bisogno di alcun sistema di controllo. Attenzione: il fatto di voler legare tutto al cliente non significa far lavorare le proprie persone più velocemente (proprio perché devono operare in reazione e non più in azione); poiché, il 90% del tempo in cui operavano in azione era spreco, per lavorare efficacemente in ottica pull, sarà sufficiente eliminare 15 tutte quelle inefficienze, semplificando il sistema e depurandolo di tutti quelli che erano gli aspetti non a valore aggiunto, senza quindi avere esigenza di sovrastrutture che supportino il controllo di sistemi complessi. È proprio questo il significato del termine “pull”: farsi tirare dalla richiesta del cliente, impostando sistemi in grado di reagire istantaneamente alla domanda, nel rispetto degli obiettivi di rapidità e di riduzione del tempo di attraversamento. Perseguire la perfezione Infine, l’ultimo aspetto riguarda la capacità di cercare sempre di migliorarsi: non esiste mai un livello di difettosità o di scorta sufficientemente basso da potersi ritenere soddisfatti (il livello ideale è, ovviamente, 0). Non bisogna ragionare per target ed obiettivi intermedi (bisogna passare da A, con date caratteristiche, a B, con altre caratteristiche), ma per tendere alla situazione migliore possibile: bisogna puntare ad avere scorte nulle ed una difettosità dello 0% e, finchè non si sarà in questa condizione, bisognerà continuare a cercare di migliorarsi. L’obiettivo è la perfezione, proprio perché l’unico ragionevolmente in grado di spingere ad un miglioramento continuo (proprio perché irraggiungibile); in tal senso, la perfezione è intesa come obiettivo di direzione: dire “zero scorte” e “zero difettosità” consente di dare una rotta, che poi dovrà essere analizzata in termini di velocità (ovvero, quanto il sistema, con miglioramenti incrementali, è in grado di tendervi). Quando si definisce un target, un obiettivo raggiungibile, e lo si utilizza per direzionare il miglioramento, le risorse sono focalizzate anzitutto sul processo e su quello che bisogna fare per perseguirlo; al contrario, se l’obiettivo definito è solo ideale, il valore aggiunto non è “l’azione fatta per ottenere il target” (proprio perché, questo, non potrà essere ottenuto), bensì l’esperienza ed il percorso fatto per arrivare quanto più possibile in quella direzione: l’attenzione viene quindi posta alla capacità di migliorare, quindi alla velocità di navigazione verso quella configurazione ideale. Applicare questi principi porta due grossi vantaggi: la riduzione del lead time, eliminando tutti quelle che sono sprechi per attese e code, ed una richiesta di limitato investimento. Sembra essere una situazione ideale; ma allora, perché tutte le aziende non abbracciano questa filosofia? La grande barriera consiste nel fatto che, l’approccio lean, non consiste semplicemente nell’applicazione delle metodologie e degli strumenti, ma in un vero e proprio cambiamento culturale ed organizzativo: non solo va ad incidere sulla struttura delle operations dell’azienda, ma comporta modifiche alla cultura ed alla visione manageriale dell’organizzazione e delle risorse umane. Da ultimo, è possibile citare due eventi, che dimostrano proprio che, questo mondo ideale, non sia inseribile solo in un contesto puramente orientale, ma sia del tutto esportabile e mutuabile ad altri contesti. Ad inizio anni Ottanta, General Motors manteneva uno stabilimento ancora organizzato e gestito sulla base die principi dell’organizzazione scientifica del lavoro, dove l’obiettivo primario era la produttività e le risorse erano considerate quasi “oggetti” perfettamente intercambiabili; vi era, inoltre, come caratteristico di questi sistemi, una netta separazione tra chi definiva le regole e chi le eseguiva. Ad un certo punto, gli operatori, decisero di ribellarsi a questa situazione, rivolgendosi al loro sindacato e richiedendo che venissero apposti dei “paletti” ai loro contratti: in questo contesto, proprio conoscendo il 16 trattamento ricevuto, il sindacato continuava a difendere ad oltranza i suoi iscritti, quasi per principio, nonostante la loro bassa insoddisfazione gli facesse compiere dei comportamenti poco idonei (come, ad esempio, l’assenteismo forzato dal lavoro). Fu così che, in queste condizioni, nel 1982, General Motors si trovò di fronte ad una scelta drastica: dinnanzi all’impossibilità di produrre al livello desiderato, data l’opposizione dei lavoratori, decise di chiudere questo stabilimento, lasciando tuttavia, con questa decisione, senza lavoro un alto numero di operai. Nello stesso periodo però, la Toyota era proprio alla ricerca di uno stabilimento che le permettesse di entrare nel mercato americano, cercando tuttavia di contenere i costi di investimento di questa operazione; fu così che Toyota e General Motorso, stipularono un accordo di tipo joint ventures, basato sulle seguenti condizioni: General Motors avrebbe messo tutti quelli che sarebbero stati gli aspetti hardware dell’alleanza (stabilimento ed operatori), Toyota si sarebbe occupata di gestire il sito produttivo, che avrebbe realizzato modelli definiti da Toyota stessa, ma che poi sarebbero potuti essere venduti con marchi differenti. Fu così che, per un certo periodo, il management di Toyota organizzò dei corsi di training del personale, inviandolo a rotazione nei suoi siti gaipponesi per osservare ed imparare proprio quelli che erano i principi alla base del Toyota production system, soprattutto per quanto riguardava la cultura e gli approcci nel rapporto tra manager ed operai. I risultati furono immediati: in breve tempo, crebbe la soddisfazione degli operai, crollò l’assenteismo, diminuì la difettosità ed aumento la produzione. Questo risultato fu formalizzato in un agreement stipulato tra Toyota ed il sindacato dei lavoratori, che rimandava proprio a dei messaggi significativi e piuttosto forti: il successo dell’azienda dipende sia dalle sue risorse, che da come è organizzata e gestita la struttura; deve esistere un principio di fiducia reciproca e volontà di minimizzazione dei contrasti tra le parti; ogni differenza e malinteso deve essere risolto e discusso apertamente, confrontando punti di vista differenti e cercando di far convergere verso una soluzione soddisfacente per tutti; Prima del licenziamento di qualunque dipendente, a causa di un calo della domanda, l’azienda dobvrà prendere attivamente misure volte a cercare di evitare questo accadimento, quali la riduzione dello stipendio dei manager (meglio ridurre la retribuzione dei quadri dirigenziali, piuttosto che licenziare persone), insourcing (se si è dato qualche cosa all’esterno, piuttosto che lasciare inoperose delle risorse, riportare dentro queste attività e farle svolgere a tali risorse umane insature)… Si sottolinei che, nello stesso periodo, in Europa stava avvenendo una cosa simile: la Nissan, in cerca di uno stabilimento da aprire, decise di rivolgersi al mercato inglese dove, nonostante il costo del lavoro fosse più elevato rispetto ad altri paesi (come, ad esempio, l’Italia), questa maggiore retribuzione era giustificata da una maggiore produttività dello stabilimento (l’Inghilterra, già di per sé, si caratterizzava per una cultura produttiva basata su “pochi sprechi e tanto lavoro”, con un alto numero di autovetture per addetto). La Nissan che, per cultura, si caratterizzava per lo stesso approccio, avrebbe potuto mantenere gli stessi stipendi poiché, un alto stipendio è sostenibile solo se si ha un’alta produttività. Addirittura, fu possibile aumentare la produttività del 50%; questo incremento dell’output a parità di risorse consentì proprio di trasferire una parte di questa percentuale in un aumento della retribuzione e soddisfazione del personale. 17 Tecniche di lean management: VALUE STREAM MAPPING Una “value stream mapping” rappresenta una mappa in grado di dare una visione semplificata della realtà, all’interno della quale viene inserito solo tutto quello che risulta essere strettamente funzionale agli obiettivi dell’analisi che si vuole condurre. In particolar modo, si tratta di andare a mappare la struttura dell’azienda a livello di singolo sito produttivo (potendo, tuttavia, poi andare a specificarlo ad un livello di macro, passando alla mappatura di più stabilimenti di una stessa azienda, nonché di stabilimenti appartenenti ad aziende differenti). Il primo passo consiste nell’andare ad identificare una famiglia di prodotti di riferimento, ovvero un insieme di prodotti che condividono una serie di risorse (come mostrato dalla seguente rappresentazione nella quale, ogni X, identifica una data tecnologia richiesta da un prodotto): Come si può osservare, i prodotti A, B e C rappresentano una famiglia, poiché hanno delle similitudini in termini di tecnologie utilizzate; ovviamente, la sovrapposizione non è totale (B e C sono simili ad A, anche se richiedono una risorsa in più): i prodotti sono tanto più simili quanto più richiedono gli stessi processi e le stesse risorse. Ovviamente, data una famiglia di prodotto, e scelto uno particolare di questi (sugli altri, so potrà andare a lavorare per analogia), occorre tenere presente che, esso, andrà a comporsi di più componenti: ovviamente, la pretesa non è quella di mappare tutti i flussi possibili e immaginabili, ma di focalizzarsi solo su quelli principali (i “main streams”). Nel costruire la VSM, il processo da seguire è, tuttavia, opposto rispetto a quello che si potrebbe pensare: la logica non vuole che si parta dalle materie prime per arrivare al prodotto finito, bensì che si vada al contrario, il che risulta essere opportuno per due motivi 1) L’analisi deve partire dall’oggetto che si ritrova nelle mani il cliente, ed al quale, esso, attribuisce direttamente il valore; 2) Nel procedere a ritroso, nel momento in cui si raggiunge una biforcazione della distinta base, la decisione su cosa mappare è conseguente, in quanto viene immediatamente messo in evidenza quelli che sono gli elementi più e meno importanti (proprio perché si è partiti dall’oggetto già assemblato); al contrario, se si partisse da monte, e si procedesse verso valle, in corrispondenza di “bivi” nella distinta base, sarebbe più difficile comprendere che strada seguire, proprio perché non si avrebbe ancora ben chiaro quello che potrebbe essere l’impatto, sul prodotto finito, di ognuno dei dati componenti. 18 Tra l’altro, va altresì detto che, con riferimento a quest’ultimo punto, anche nel caso in cui si “trascurassero” degli aspetti che, solo in un secondo momento, si rivelassero invece importanti, si deve ricordare che, tale mappatura, non rappresenta un processo statico “una tantum”, ma può (e deve) successivamente essere rivisto e riconsiderato; inoltre, è spesso possibile ragionare per analogia e semplificazione (ovvero: gli interventi progettati per una tipologia di flusso, spesso, sono facilmente adattabili e mutuabili anche ad altre tipologie). Ad ogni modo, va detto che, nella rappresentazione, la variabile principale è il tempo, che può essere intesa in tre accezioni: - Tempo di ciclo / Cycle time: tempo che intercorre tra l’uscita di due unità successive da una data risorsa ((ogni quanto esce un pezzo dal sistema); nel caso delle linee, se il sistema risulta essere perfettamente bilanciato, il tempo di lavoro di ogni risorsa risulta proprio essere pari al tempo di ciclo del sistema produttivo; - Tempo a valore aggiunto / Value Added time: sottoinsieme del tempo di ciclo, identifica quella quota parte del tempo di lavoro della risorsa che aggiunge realmente valore al prodotto finale; - Tempo di attraversamento / Lead time: tempo che intercorre tra l’inizio e la conclusione di una data attività (può, ovviamente, essere riferito a più livelli di dettaglio: lead time di una linea, di un processo, di tutto lo stabilimento, della filiera…); si tenga presente che, in genere, vale la relazione Value Added Time < Cycle Time < Lead Time. IL CASO ACME: MAPPATURA DEL CURRENT STATE Si consideri il caso didattico di un’azienda produttrice che ha identificato nella sua famiglia di prodotti due staffe: la staffa destra e la staffa sinistra; vuole, quindi, avvalersi dello strumento della VSM per esaminare la struttura della sua produzione, identificare possibili criticità di sistema ed apporvi miglioramenti. Anzitutto, è necessario identificare e caratterizzare la tipologia di cliente dal quale arriverà la domanda per quelle staffe; per farlo, è possibile avvalersi della simbologia base della VSM, il “data box”, ovvero un riquadro in grado di far emergere quelle che sono le informazioni più importanti sull’entità cui fa riferimento: Nel caso, il cliente “state street” fa pervenire una domanda di 18400 staffe al mese, in un mix di 12000 staffe sinistre e 6400 staffe destre (dun que, un rapporto quasi 2:1); in genere, è solito fargli pervenire un “vassoio” omogeneo composto da 20 pezzi: è questa l’unità minima di consegna (un lotto minimo è composto da 20 staffe sinistre o 20 staffe destre). Posto questo, occorre identificare quelli che sono i propri stadi di lavorazione: 19 C’è un magazzino prodotti finiti “shipping”; Una fase di assemblaggio finale, all’interno della quale opera una risorsa umana; Una fase di preassemblaggio che, anch’essa, vede operare una risorsa umana; Una fase di saldatura finale, con una risorsa umana dedicata; Una fase di presaldatura, con anch’essa una persona; Una fase di stampaggio che, invece, oltre alla risorsa umana, vede la presenza di una pressa da 200 tonnellate; si tenga presente che, mentre le risorse delle saldature e degli assemblaggi sono dedicate, non lo è la pressa di stampaggio, che si occupa della realizzazione di più prodotti all’interno del mix aziendale; in particolare, il data box mette in evidenza come, tale pressa, produca per la famiglia considerata una volta ogni due settimane (il che significa che, ogni volta, realizza un lotto di dimensioni tali da coprire il fabbisogno pari a due settimane). Ciascuno dei data box degli stadi, presenta una serie di informazioni, che sono state raccolte propriamente recandosi fisicamente all’interno dello stabilimento ed osservando quelle che sono modalità, tempistiche e logiche di funzionamento del processo, e non avvalendosi di mere tecnologie informatiche di rilevazioni dei dati (senza, quindi, “toccare” con mano il problema). Si tenga presente che, la revisione e l’ottimizzazione del flusso, tenderà proprio a far ottenere un sistema semplice, nel quale sarà sufficiente guardare ed analizzarlo fisicamente per poter subito intuire e comprendere eventuali problemi; il sistema, ed il suo flusso, dovranno essere tali da rendere visibile e trasparente la sua situazione, permettendo di avere una visione chiara non solo al suo responsabile ma anche (e soprattutto) a chi ci opera a stretto contatto, che deve essere messo in condizione di suggerire eventuali miglioramenti. Tali informazioni, riportate all’interno del data box, risultano essere: - Il tempo di ciclo dello stadio (in presenza di una persona, significa che essa lavora su quel pezzo per X secondi); - Il tempo di set – up / change over: nel caso, per ogni stadio, viene riportato quanto tempo è necessario per preparare le macchine e le risorse umane a produrre una staffa sinistra (dopo che si è prodotta una o più staffe destre) o a produrre una staffa destra (dopo che si è prodotta una o più staffe sinistre). Come si può osservare, come spesso accade per le operazioni di assemblaggio manuale, questo tempo risulta essere nullo; per la saldatura, che non è completamente manuale, invece, tale tempo non è nullo (per passare da una staffa destra ad una sinistra o viceversa, 20 - - occorre, quantomeno, cambiare la maschera di saldatura), così come non lo è (a maggior ragione, non essendo una risorsa dedicata) per lo stampaggio; Il tempo di disponibilità / up time: esso indica la disponibilità della risorsa; è evidente che, nel caso in cui sia coinvolta una risorsa umana, tale tempo sarà pressochè il 100% mentre, in caso di macchinari, è possibile che vi siano dei guasti che vadano a “deprimere” la completa disponibilità (nel caso della saldatura finale, ad esempio, nel 20% dei casi potrebbe esserci un guasto); Il numero di turni: tralasciando la risorsa dedicata, il processo saldatura – assemblaggio realizza le staffe su due turni di 8 ore al giorno. Una volta identificato il cliente e caratterizzato le fasi ed i processi con i dati chiave, occorre mettere in evidenza che, tra le differenti fasi, esiste un disaccoppiamento (simboleggiato dal triangolo, che è proprio simbolo di attenzione, proprio in quanto, le scorte, sono sintomo di spreco ed inefficienza): ecco quindi che, tra ognuna di esse, vengono misurate le scorte in composizione per ciascun prodotto (staffe destre e sinistre). Una domanda che potrebbe sorgere potrebbe essere la seguente: a che valore corrispondono le scorte mappate (il valore attuale, il valore medio, il valore desiderato…)? Il livello di scorte riportato è quello registrato al momento dell’osservazione del sistema; questa è una buona approssimazione, e non fa commettere errori, per due motivi: - Ammettendo che, i valori registrati, non siano quelli usuali (magari perché, al momento della fotografia del sistema, era accaduto qualche cosa di particolare), comunque la variazione che, queste scorte subiscono nell’avanzare del normale ciclo operativo, sarà comunque sempre minore rispetto al decremento percentuale che si vorrà ottenere a valle della revisione del flusso; - Ai fini dell’analisi, si è interessati al valore complessivo delle scorte, quindi alla somma lungo tutto il processo: benchè si possano avere variazioni di valore in base al contenuto di lavoro ed allo stadio di avanzamento, tali variazioni si compenseranno, lasciando, il valore complessivo, un numero abbastanza stabile nel tempo. A questo punto, è necessario collegare il mondo interno del processo con l’esterno: Come si può osservare, si consegna al cliente una volta al giorno, e si ricevono dal fornitore due consegne alla settimana (il martedì ed il giovedì), ognuna con un certo carico. 21 Lo stato attuale è stato dipinto nel flusso “fisico”; manca tuttavia una seconda tipologia di flusso, quello delle informazioni: Si nota che: Il cliente invia le sue previsioni sui fabbisogni a 90, 60 e 30 giorni e, tali dati, vengono ricevuti in input dalla programmazione della produzione; inoltre, invia le richieste d’ordine giornaliere; La programmazione della produzione, una volta la settimana, elabora: - Un piano di previsione dei fabbisogni per il fornitore di sei settimane (richiamato, poi, con un fax settimanale); - Un programma di produzione per ciascun reparto (che gli indica, appunto, quanto dovrà produrre in ciascuna settimana); la programmazione della produzione, giornalmente, elabora un programma delle spedizioni sulla base degli ordini ricevuti (giornalmente dal cliente): tale piano, inviato al reparto spedizioni, indica sostanzialmente lo scheduling di cosa dovrà essere spedito il giorno successivo. Va inoltre sottolineato come, nel grafico, la linea a forma di “saetta” descriva un flusso informativo elettronico mentre, quella “retta”, un flusso informativo cartaceo. La freccia striata tra i reparti, invece, indica come, la produzione, segua una logica “push”, diretta conseguenza della struttura del sistema: a differenza del modello “pull”, dove è lo stadio a valle a dire quando e cosa produrre a quello a monte, in questo caso ognuno produce quanto gli è stato programmato e richiesto, “spingendolo” verso gli stadi più a valle. Attenzione: non si scada nel luogo comune che usa pensare che “i sistemi in cui si opera su ordine cliente sono organizzati in logica pull, quelli che operano in MTS, invece, sono push” (il che farebbe classificare, il sistema in esame, come un sistema “pull”); questa considerazione è vera guardando all’impresa come “scatola chiusa” (l’azienda è “pull” se si attiva solo nel momento in cui riceve un ordine da parte del cliente), ma potrebbe non esserlo più intendendo l’approccio “pull” nei termini del lean management: un’azienda esternamente “pull” non è detto che sia anche internamente “pull” (ovvero, tale logica deve essere ribaltata anche nei rapporti interni: se il reparto a valle, che è il cliente interno più diretto, smette di produrre, dopo un certo sfasamento temporale, un approccio “pull” obbliga alla fermata anche il fornitore). Nel caso in esame, difatti, è proprio così: benchè si operi su ordine cliente, non esiste alcuna logica “pull” 22 interna poiché, ogni reparto, produce ed agisce guardando solo al piano che deve realizzare, indipendentemente da quello che viene fatto a valle. IL CASO ACME: VALUTAZIONE DELLE PRESTAZIONI A partire dalla mappatura precedente, si provi a valutare quelli che sono i parametri fondamentali e le prestazioni offerte dal sistema. Anzitutto, utilizzando la legge di Little (L = λW), si trasformino i magazzini di disaccoppiamento, in termini di pezzi per ogni stadio, in un equivalente di tempo. Il cliente domanda 18400 pezzi al mese, il che significa, ipotizzando il mese composto da 20 giorni, un valore di λ = tasso di arrivo = domanda giornaliera = 960 pezzi al giorno. Si ottiene, quindi, la seguente situazione: Si veda, a titolo di esempio, quello che è stato il calcolo per l’assemblaggio finale; si parta dalla seguente domanda: “una volta uscito un pezzo da questa fase, quanto dovrà aspettare, mediamente, prima di essere spedito?” Un pezzo assemblato viene inserito alla fine di una coda media di 2700 + 1440 = 4140 pezzi; poiché nel vengono spediti 960 al giorno, significa che, in media, esso dovrà attendere circa 4140/960 = 4,5 giorni prima di essere spedito. Ovviamente, per ogni stadio, il ritmo di smaltimento della coda sarà sempre quello del cliente finale (960 pezzi/giorno); non avrebbe senso utilizzare quello dello stadio immediatamente a valle: benchè potrebbe essere differente dal 960 pezzi/giorno del cliente, questo non varierebbe le considerazioni sul sistema poiché, così facendo, si otterrebbe la sola conseguenza di avere un maggior numero di scorte spostate verso gli stadi a valle (in caso di ritmo di richieste maggiore) o verso gli stadi a monte (ritmo minore); tuttavia, indipendentemente da dove esse siano posizionate, fuoriusciranno dal sistema se e solo se il cliente le “chiama” (è quindi sensato rifarsi al ritmo finale). Come si può osservare, la time line di attraversamento è resa in maniera particolare: i segmenti più in alto rappresentano i tempi di attesa, in corrispondenza dei quali non si ha alcuna crescita di valore nel prodotto; quelli inferiori, invece, sono i tempi di processo che, per ipotesi, è considerato tutto come tempo 23 a valore aggiunto (anche se, come avuto modo di sottolineare, non è sempre vero). Si mette quindi chiaramente in evidenza quello che è il ciclo di attraversamento di una qualunque staffa: - arriva la lamiera allo stampaggio, attende 5 giorni in coda per essere lavorata un secondo; - poi viene immessa nel magazzino della presaldatura, dove attende per 7,6 giorni, per poi essere lavorata 39 secondi; - … Fatto questo, è possibile derivare quello che, nell’ottica del lean management, è uno dei principali indicatori prestazionali di un sistema: l’indice di flusso. A fronte di un dato tempo di attraversamento (che, nel caso, è nell’ordine dei 24 giorni), esso lo va a rapportare al tempo a reale valore aggiunto (che, nel caso, è nell’ordine dei 188 secondi); l’indice di flusso indica, perciò, quanto il sistema attuale risulti essere vicino a quello “ideale”, che dovrebbe avere un valore tendente ad 1 (tutto il tempo di attraversamento è tempo a valore aggiunto: non ci sono sprechi). Nel caso della ACME, è evidente che le cose non siano così: l’indice di flusso è di circa 10-4, il che sottintende un’infinità di possibilità ed opportunità di miglioramento. Prima però di identificarle, ci si soffermi ancora un attimo sulla situazione attuale: perché si è in questa situazione? Perché si ha un così alto livello di scorta (che, come evidente, causa un aumento della coda e del tempo di attraversamento del sistema? Attenzione: non si pensi che, le scorte, nascano per disaccoppiare delle fasi in virtù del fatto che, esse, hanno ritmo differente; mettere delle scorte tra stadi che operano a ritmi differenti comunque con modifica l’output complessivo del sistema. Al contrario, una motivazione potrebbe essere il fatto che, essendoci stadi che devono fermarsi a causa di set – up e/o down time, il disaccoppiamento consente che il problema non venga trasmesso agli stadi successivi. Tuttavia, la determinante più grossa della presenza di scorte è, senza dubbio, il processo di programmazione settimanale, supportato dall’MRP (sapendo che, il prodotto finito, dovrà essere consegnato il giorno X, occorrerà che, i vari sottoassiemi, siano disponibili il giorno Y < X; a loro volta, i componenti di ciascun sottoassieme dovranno essere disponibile il giorno Z < Y < X; infine, i materiali per realizzare tale componenti dovranno essere consegnati dal fornitore il giorno W < Z < Y < X). Ogni reparto, difatti, viene proprio misurato in termini di produttività ed aderenza al programma prestabilito: quanto più, esso, è in grado di produrre esattamente quanto previsto (né più, né meno), nei tempi richiesti, tanto più sarà alta la sua valutazione. Inoltre, proprio per tale motivo, poiché, ogni reparto, viene valutato solo ed esclusivamente in base alla sua aderenza ai piani, è quanto meno auspicabile che, la sua attività, non venga a dipendere da quella degli altri stadi: in sostanza, deve essere messo in condizione di raggiungere i suoi obiettivi, il che significa che, nel momento in cui ne ha bisogno per lanciare la sua produzione, ogni stadio non deve essere ritardato per la mancanza di materiali che gli servirebbero per rispettare questo programma. La logica di programmazione dell’MRP garantisce proprio questo: affinchè, lo stadio A, possa produrre quanto richiesto per il giorno X, sarà “ordinata” al fornitore una consegna per il giorno Y < X. Riassumendo, quindi, l’esigenza di disaccoppiare deriva da due ordini di motivi: 1) Far sì che, i problemi di ciascuno stadio, non si ripercuotano sugli altri; 2) Dare i margini, a ciascuno stadio, di poter realizzare il programma assegnatogli indipendentemente da quanto possa accadere a monte, di modo che, esso, possa gestirsi ed organizzarsi in maniera 24 autonoma e solo in base ai suoi vincoli, non in base alle esigenze del reparto successivo o di quello precedente. Il processo di programmazione, così come è stato strutturato, imposta una logica dipartimentale in funzione della quale, ogni stadio, viene valutato e giudicato solo in base all’aderenza ai programmi dipartimentali: per tale motivo, ciascuno di essi non vorrà vedere le sue performance degradate dalle possibili inefficienze di qualcun altro; è inevitabile, quindi, disaccoppiare, al fine di rendere indipendenti i vari stadi. Questa soluzione, tuttavia, determina grossi sprechi, sprechi che vengono messi in evidenza proprio dall’indicatore di flusso, che quantifica la percentuale di inefficienza del processo; come già più volte avuto modo di dire, le scorte sono un indicatore di quanto il sistema sia perfettibile e non stia funzionando bene: tramutandolo in tempo, poi, tale misura (comparando tempo di attraversamento e tempo di trasformazione) diventa ancora più evidente. Bisogna quindi andare a comprendere quelle che sono le varie cause ed i problemi alla base della generazione di queste scorte, risolvendo e migliorandole, ed andando, così, ad incrementare le prestazioni del sistema. QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: TAKT TIME L’attuale livello di scorte determina un valore della performance chiave Tempo a valore aggiunto / tempo di attraversamento (dove “tempo a valore aggiunto”, in prima istanza, viene approssimato a “tempo di processo”) molto bassa; bisogna capire come intervenire. Anzitutto, andando a misurare, per ogni stadio il tempo effettivo di lavoro su ciascun pezzo, si ottiene la seguente situazione: Si può osservare come, i carichi, per ciascuno di essi, siano molto differenti (grosso sbilanciamento): tralasciando lo stampaggio (che lavora si un solo secondo, ma è dedicato ad altre risorse), tutti i reparti specificatamente dedicati alla famiglia sono caricati molto diversamente. Ma allora, quale dovrebbe essere il valore ideale? Dal punto di vista dell’azienda, ogni stadio dovrebbe equamente caricato, suddividendo il tempo tra ciascuno di essi secondo la media (nel caso, sarebbero 47 secondi a reparto); tuttavia, uno dei “must” 25 dell’approccio lean è il fatto che “comanda il cliente”: il ritmo giusto a cui lavorare sarà quindi quello che richiede il cliente. In tal senso, viene introdotto il concetto di “takt time”, che identifica proprio il “ritmo” al quale, il cliente, richiede i prodotti (non a caso, “takt”, è un termine di origine germanica che si rifà al metronomo: questo sta proprio ad indicare la cadenza ed il ritmo a cui va il mercato, ed al quale sarà necessario adattarsi). Per calcolarlo nel caso in esame, è sufficiente partire dal tempo lavorativo disponibile, depurato delle pause previste per il personale a termini contrattuali: Alla fine, emerge come, il ritmo del mercato, risulti proprio essere pari a “1 pezzo ogni 60 secondi”; questa è la cadenza ideale alla quale il sistema deve tendere, poiché: - Andasse più lento, non sarebbe in grado di produrre quanto richiesto; - Andasse più veloce, incorrerebbe in sovraproduzione e, quindi, in spreco. È evidente che, rispetto a questo valore ideale: - Ci sono alcuni reparti (presaldatura, saldatura finale e assemblaggio finale) il cui il tempo di processamento risulta essere inferiore al takt time; - C’è uno stadio (preassemblaggio) il cui tempo di lavoro risulta essere superiore al takt time; il primo principio di ridisegno dei flussi è proprio quello di uniformare il tempo di lavoro degli stadi al takt time, essendo così allineato al ritmo richiesto dal mercato. Come è possibile risolvere questa situazione? Il problema, in particolare, è allo stadio di preassemblaggio: se opera ad un ritmo inferiore a quello richiesto dal mercato (62 secondi invece che 60), non sarà in grado di soddisfare la domanda. Attualmente, questo vincolo è superato facendo scorta e lavorando in straordinario: affinchè l’azienda possa soddisfare la domanda, benchè un reparto operi ad un ritmo superiore ai 60 secondi richiesti, è necessario prevedere dei turni al sabato; tuttavia, affinchè il preassemblaggio possa lavorare in maniera efficace il sabato, è necessario che gli venga messo a disposizione un certo quantitativo di materiale tale da alimentare almeno mezza giornata di lavoro (è, difatti, l’unico reparto che lavora il sabato: dovrà quindi essere stata creata una scorta sufficiente per permettergli di lavorare); ovviamente, al termine del turno dio straordinario, quanto ha prodotto questa fase, diventa scorta spostata verso il reparto immediatamente più a valle. Ovviamente, quindi, la risposta al problema in esame non è quella di fare scorta di prodotto: questo potrebbe risolvere la situazione nel breve periodo ma, nel lungo, oltre che a causare sprechi ed inefficienze, sarebbe del tutto inutile, proprio perché, chi va ad un ritmo più veloce, la assorbirà gradualmente, obbligando, quindi, ad andare in straordinario. Una possibile prima soluzione, potrebbe essere quella di line balancing: si vanno a ridistribuire i carichi in maniera più o meno uniforme tra le fasi di saldatura e di assemblaggio, al fine, tuttavia, di rispettare il valore del “takt time” 26 Nella filosofia lean, tuttavia, questo non è l’approccio e la soluzione più corretta; non è bilanciando che si risolvono i problemi, bensì cercando di operare quanto più possibile vicino al mercato: ciò significa saturare, via via, ogni reparto, al fine di fare tendere il suo tempo di lavoro a quello del “takt time” Prima si satura il primo stadio con il massimo carico di lavoro possibile (quello corrispondente al “takt time”), poi il secondo, poi il terzo ed, infine, rimane una risorsa alla quale verrà assegnata la quota parte di processo “residua”; questa è la struttura coerente con un sistema che si basa su un approccio che non è focalizzato sulle risorse, bensì sul prodotto e sull’ interesse del cliente. Il procedimento è, quindi, il seguente: - Definire tutte le operazioni per realizzare la staffa, nel modo migliore possibile per realizzarla; - Calcolare il “takt time”; - Assegnare un ammontare di attività pari al “takt time” alla prima risorsa, un ammontare pari al “takt time” alla seconda risorsa e così via fino a saturare il carico richiesto; ovviamente, come accade anche nel caso in esame, è facile che, l’ultima risorsa, si veda assegnato un carico resiudale, potendo risultare, così, molto insatura. Il vantaggio di questa configurazione è il fatto di mettere in evidenza quelli che sono tutti gli sprechi: in questo modo, difatti, si separano le risorse e le attività, facendo emergere quelle che fanno spreco da quelle che, invece, non lo fanno; in particolare, nel caso in esame, emerge come, mentre le prime tre risorse operano a pieno ritmo di mercato, l’ultima risorsa presenta un’inefficienza, essendo molto insatura (notare che, invece, nelle configurazioni precedenti, ognuno dei reparti presentava un’inefficienza; in questo caso, invece, il problema è stato ridotto ad una sola fase). Avere 10 secondi di insaturazione in ognuno dei quattro reparti, è molto peggio che averne 40 concentrati in un unico, per tutta una serie di motivi: 27 È molto più facile riuscire a risolvere un problema circoscritto ad una fase, piuttosto che esteso a tutte le fasi; Se ogni reparto ha un disavanzo di 10 secondi, questo è, a tutti gli effetti, tempo perso (non si potrà pensare di fargli svolgere nessun altra attività, proprio perché troppo contenuto); se, invece, è un unico reparto ad avere un disavanzo sensibile, si potrebbe pensare di occuparlo, durante questa insaturazione, con altre attività (ad esempio, dedicarlo all’assemblaggio di un altro prodotto). In particolare, si guardi alla prima alternativa: se si fosse in grado di aumentare l’efficienza dei primi tre reparti (ad esempio, portando il tempo di processo da 188 a 170 secondi), è possibile pensare di eliminare la risorsa insatura, ovviando, così, alla fase di assemblaggio finale (e spostandola nelle mani delle risorse precedenti): Ecco quindi il perché, è corretto questo approccio invece che quello di “line balancing”: è il primo che consente di mettere in evidenza le possibilità di miglioramento (nel caso, il risparmio di una risorsa, ovvero del 25% del costo del lavoro: questo significa risparmio di costi ma anche aumento della produttività delle altre risorse lavorative), opportunità che possono emergere però, solo avendo ribilanciato i carichi in questo modo, non seguendo l’approccio del current state o del perfetto bilanciamento. Questa trasformazione non è, ovviamente, priva di difficoltà; in particolare, l’evidente ostacolo è rappresentato dalla riprogettazione della mansione della seconda risorsa, che dovrà essere allargata all’esecuzione delle attività di assemblaggio e saldatura. Si tenga presente che, spesso, le barriere non sono tanto legate all’impossibilità pratica (per la gran parte delle operazioni manuali, basta un addestramento di pochi giorni / settimane per mettere le risorse in condizione di fare l’attività di qualcun altro), bensì si legano ad un limite culturale, di immagine e di retaggio dell’organizzazione, che concepisce e descrive le attività in termini di competenze e funzioni, e non in termini di prodotto / servizio. Si assuma l’ottica del saldatore, che ha studiato e si è specializzato per fare questa attività: il dirgli di dover fare anche un'altra mansione, magari meno specializzata, potrebbe incontrare una resistenza non indifferente; la barriera non si lega quindi tanto all’ incapacità delle persone di imparare attività di altri campi, bensì per una resistenza all’allargamento della propria, cosa che viene quasi avvertita come una “depauperazione” della propria connotazione (come saldatore, ad esempio). Il modello lean funziona in maniera rivoluzionaria se, e soprattutto, si ha la possibilità di trasformare l’approccio con le risorse da conflittuale a collaborativo: le risorse devono essere portate, con piacere, ad ampliare le proprie mansioni, il che può essere fatto andando a lavorare sulle competenze e sulla cultura di base. 28 Superati questi ostacoli, si ha la possibilità di ottenere i miglioramenti ricercati: nel caso, la situazione ideale consiste nell’andare a lavorare con il numero minimo di persone indispensabile per poter seguire il ritmo del mercato: ⇒ ⇒ Questo indicatore dà anche una misura di quello che è lo spreco di risorse umane rispetto allo stato attuale: se, invece che con 3 – 4 persone si lavorasse con 10, significherebbe uno “spreco” di 6 persone. Impostare un tempo di processo coincidente con il “takt time” è solo la prima delle linee guida che deve essere seguita per riprogettare il current state in logica lean: in azienda non vale l’idea dell’ “andare più in fretta che si può”, bensì di “andare esattamente come chiede il cliente”, il che implica meno stress e minore continua sensazione di essere in ritardo, dando una “cadenza” opportuna a cui uniformarsi. Se tutto ciò è chiaro, è del tutto lecito porsi la seguente domanda: “che cosa accade se, da un momento all’altro, il cliente dovesse variare il takt time?” Per rispondere la domanda, bisogna distinguere l’orizzonte temporale di riferimento nelle tre “classiche” dimensioni: breve, medio e lungo termine; questo è necessario farlo perché, semplicemente dire “si riconfigura il sistema per adeguarlo al nuovo valore”, è senza dubbio una soluzione teoricamente corretta, ma praticamente non sempre fattibile (inseguire le variazioni di takt time risulta essere estremamente oneroso: significa rivedere l’allocazione di tempi di lavoro, aggiunta o dismissione di nuovi macchinari, eventuale esigenza di straordinario…). Nel breve termine, ciò che viene fatto per cautelarsi da possibili variazioni del takt time, è utilizzare degli accorgimenti che consentano di assorbire la “piccola” variabilità: Scorte di prodotto finito: si tenga presente che, in un’ottica lean, provare ad assorbire la variabilità di brevissimo termine mediante scorte non significa né produrre in anticipo, né fare ingenti scorte di magazzino; semplicemente, a valle di un’opportuna analisi di marketing. si tratta di identificare quello che è il prodotto della famiglia, tra gli n realizzati, che risulta essere più richiesto e/o più volatile, decidendo di cautelarsi solo da questo “prodotto regolatore” (che, in genere, è un codice richiesto in grandi volumi, variabili, ma con basso rischio di obsolescenza); Prevedendo brevi periodi di straordinario: si decide per un aumento del tempo lavorativo commisurata alla variazione del takt time (è evidente che, questo è sostenibile solo se si prevede che, questa variazione, riguardi comunque un periodo contenuto); Mantenendo un portafoglio di ordini di “backlog”: si tratta, in sostanza, di tenere sempre una piccola coda di ordini in arretrato che, nel momento in cui si verifichi una contrazione della domanda, consenta comunque di mantenere attive le risorse, ma, anche in periodi ad alta domanda, lo smaltimento di tale coda è tale da garantire al cliente le prestazioni attese (come ovvio, difatti, la dimensione di questa coda si ordini deve essere tale che, comunque, per qualunque ordine successivo che si vada ad accodare, il tempo di attraversamento ottenibile risulti in qualunque caso inferiore a quello atteso). Una variazione del takt time che si prevede si estenderà su un periodo di medio termine, invece, si potrà pensare di gestirla in maniera controllata: a parte il fatto che, spesso, le variazioni di media durata non sono frutto di casualità (ma, anzi, quasi sempre, dipendono e sono dovute all’azienda stessa ed al modo in 29 cui ha organizzato il sistema), si può comunque cercare di attivarsi in logica anticipativa, in modo tale da strutturarsi in funzione di questa variazione prevista, provando a livellare e smorzare la domanda. Infine, per tutte quelle variazioni di lungo periodo, non si può che riconfigurare il sistema in maniera coerente: tutta la Supply Chain deve condividere questa previsione di cambiamento, e modificarsi per arrivare ad operare al nuovo ritmo; l’investimento e lo sforzo necessario a queste modifiche sono, tuttavia, ripagate da una totale rispondenza alle esigenze del cliente (in questi caso giustificati perché l’ottica è di lungo periodo). Il messaggio di queste considerazioni è quindi il seguente: quando si progetta un sistema in logica lean, quindi compatibilmente al takt time richiesto dal cliente finale, bisogna essere abili e capaci di strutturarlo in maniera flessibile anche in tal senso (la struttura che, attualmente, opera al ritmo di X unità/secondo, dovrà essere in grado di “cambiare il proprio schema di gioco” in corrispondenza di ogni variazione, in positivo o in negativo, del ritmo imposto dal cliente). QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: MODALITA’ DI RISPOSTA ALLA DOMANDA A questo livello, occorre comprendere come, nella nuova configurazione, si sarà deciso di realizzare la produzione delle staffe: si produce e si spedisce a valle dell’ordine (MTO/ATO) oppure si decide di produrre a scorta? La soluzione può essere duplice: - Directly to shipping: si produce e si consegna attivando il processo dopo l’arrivo dell’ordine cliente - Make to stock: il materiale è già presenta a magazzino; una volta arrivato l’ordine cliente, il magazzino prodotti finito lo allestisce, prelevando un certo numero di vassoi di staffe; a questo punto, viene comunicato a monte che vi è stato un prelievo di materiale, e ciò significa attivare i processi di produzione che, quindi, lavoreranno tutti al fine di fare il replenishement del magazzino, ripristinando esattamente quanto è stato prelevato 30 Quali sono i driver che fanno optare per l’una o per l’altra configurazione? Valore delle scorte: ovviamente, nel momento in cui, il prodotto da tenere a scorta, incorpora un valore sensibile, allora è meglio organizzarsi per non produrre a scorta poiché, altrimenti, significherebbe immobilizzare un alto valore di capitale; Variazioni della domanda: quanto più la domanda si caratterizza per alta variabilità, tanto più sarà necessario assorbire, tale incertezza, mediante le scorte (a meno che non si sia in grado di farlo con una flessibilità di sistema e di capacità); Valore del tempo di attraversamento: sarà possibile operare su ordine se e solo se il processo ed il sistema sono configurati in modo tale da rispettare i tempi di consegna richiesti dal mercato anche operando in questa logica; nel caso della ACME, il cliente ha un’esigenza di consegna di un giorno mentre, il processo di produzione, ha un tempo di attraversamento di più di quattro giorni: è evidente che, operare in logica MTO non è sostenibile, dovendo quindi produrre a magazzino (si noti comunque che, nel caso in cui si riuscissero ad eliminare gli sprechi, il tempo di processo sarebbe di soli 187 secondi, il che significherebbe una capacità di risposta nell’ordine di alcune ore, potendo pensare di passare ad una logica MTO). Si tenga comunque presente che, con riferimento a quest’ultimo driver, anche nel caso in cui si fosse in grado di rispettare il tempo di consegna richiesto al cliente, non è detto che questa sia condizione sufficiente per potersi organizzare il logica MTO, poiché: Questo sarà possibile se e solo se gli ordini cliente, in termini di tasso di arrivo, risultano essere costanti e poco variabili nel tempo (il ragionamento, difatti, è: sulla base di una certa domanda X proveniente dal cliente, si è in grado di rispondere in un tempo Y inferiore a quello richiesto); - D’altra parte però, in presenza di forte variabilità, è possibile e frequente il formarsi di una coda: il tempo di attraversamento sarebbe quindi quello medio, in funzione di un tasso d’arrivo medio che, tuttavia, in presenza di variazioni, potrebbe non essere più garantito. In conclusione, si può quindi concludere che, condizione necessaria affinchè sia possibile organizzarsi senza un magazzino finale è quella di avere un sistema tale per cui, il tempo di risposta che si è in grado di garantire, calcolato anche in funzione del livello medio di coda che l’ordine cliente potrebbe incontrare, risulta essere inferiore a quanto richiesto dal cliente; è evidente che, ciò, può accadere solo in quei contesti caratterizzati da bassa variabilità della domanda, con un tasso degli arrivi uguale o simile al livello medio (se così non fosse, difatti, il livello medio di coda salirebbe, e, inevitabilmente, il tempo di risposta eccederebbe quello atteso dal mercato). Al contrario, nel caso in cui, tale tempo di risposta, al netto del tempo medio di attesa, non incontri le esigenze del cliente, sarà “obbligatorio” operare in MTS. 31 Ovviamente, in pura logica lean, il fatto di operare in MTS non significa che, questo sistema, risulta essere dato e configurato in questo modo: nel corso del tempo, sarà necessario migliorarsi, andando ad agire sul tempo di servizio, quindi sulle risorse interne, e/o sulla variabilità della domanda, tendendo così alla situazione “ideale” dove sarà possibile organizzarsi in logica MTO. QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: COSTRUZIONE DI UN FLUSSO CONTINUO La terza importante questione riguarda la produzione a flusso; bisogna chiedersi: dove ha senso produrre a stadi interconnessi ed accoppiati? Un sistema non interconnesso si presenta come segue: Gli stadi non sono accoppiati: A realizza quanto programmato prelevando dal magazzino a monte i materiali che gli servono e mettendo, quanto realizzato, a scorta; così fanno B e C, attingendo dai magazzini nei quali, gli stadi precedenti, hanno riversato i prodotti Al contrario, in una logica a flusso continuo, non esistono disaccoppiamenti, né lotti di produzione, né lotti di trasporto: non ci sono scorte tra le varie fasi, ma solo a monte e a valle del processo interconnesso. Il vantaggio di un flusso continuo è evidente: accoppiare le fasi consente di eliminare le scorte, quindi le code e, da ultimo, ciò significa “tagliare” i tempi di attraversamento. Ma quali sono le condizioni che fanno spingere per un accorpamento a flusso continuo? Si guardi all’esempio della ACME, e si facciano alcune considerazioni: - Si potrebbe pensare di mettere insieme i due stadi di saldatura: la problematica, tuttavia, risiede nel fatto che, le due macchine, sono caratterizzate da un tempo di set – up non nullo e da una disponibilità non del 100%; ciò significa che, nel caso in cui uno dei due impianti dovesse fermarsi causa guasto o attrezzaggio, anche l’altra dovrebbe bloccarsi (al contrario, questo non sarebbe “sentito” in caso di presenza di scorte); 32 - - Si potrebbe pensare di unire tutte le fasi caratteristiche (saldatura ed assemblaggio): emerge, tuttavia, la stessa considerazione fatta in precedenza (quando le saldature si fermano per i 10 minuti di set – up o per un guasto, anche l’assemblaggio dovrebbe fermarsi, perdendo capacità produttiva che dovrà, poi, essere recuperata: ad esempio, nel caso di set – up, significa perdere 10 minuti di produzione, che corrispondono ad una produzione di 10 pezzi, essendo il “takt time” richiesto dal mercato di un pezzo ogni 60 secondi) Senza dubbio, quello che risulta difficile mettere a flusso è la pressa di stampaggio che, non essendo dedicata, lavora per la famiglia del prodotto solo periodicamente, e per brevi campagne (la cui entità deve essere tale da soddisfare il fabbisogno temporale all’interno del quale, tale macchina, sarà dedicata ad altri prodotti). Nel fare queste considerazioni, sono emersi alcuni criteri di riferimento (durata del tempo di set – up, probabilità di guasto, risorse dedicate o meno…); ci si chieda, quindi: esiste una regola generale? Il passaggio da una logica disaccoppiata ad una accoppiata a flusso, non è di tipo “on – off”, ma esiste un continuum di configurazioni: La prima soluzione è quella “classica” del sistema push: tutti gli stadi sono indipendenti, e la produzione avviene in logica “push”, dove, ognuno, segue lo shedule che è stato stabilito dall’alto (e, come detto, viene valutato proprio in base all’aderenza ed il rispetto di tale schedule). Il passaggio successivo consiste nell’adozione di un sistema supermarket che, in sostanza, viene a coincidere con l’introduzione di un sistema kanban; si provi , anzitutto, a fare chiarezza su quella che è la logica alla base di un sistema di questo tipo. 33 In un sistema kanban, quindi, gli stadi sono inevitabilmente legati: se lo stadio immediatamente a valle dovesse, per qualunque motivo, fermarsi, anche quello a monte, una volta finito di produrre tutti i kanban arretrati, dovrà necessariamente fermarsi, ricominciando la sua attività solo quando, quello a valle, ricomincerà a consumare. Posto questo, qual è la differenza tra un sistema push ed uno supermarket? In entrambi i casi si ha la presenza di scorte, solo che: - Nel caso dei sistemi push, la quantità di materiale presente nel magazzino è indefinita e, soprattutto, potrebbe riguardare tutti, alcuni o solo pochi dei prodotti presenti nella gamma; - Con il supermarket, il valore delle scorte è limitato (non ci sarà mai una quantità superiore a “numero di cartellini in circolazione * numero di prodotti per cartellino”: se così fosse, significherebbe che, quello a monte, avrebbe prodotto senza un effettivo consumo e presenza di 34 cartellino, il che “violerebbe” la regola del sistema); inoltre, esso deve essere gestito in maniera tale da garantire sempre la presenza di tutti i possibili prodotti che potranno essere richiesti dallo stadio immediatamente a valle. In definitiva, quindi, è possibile dire che, mentre in un sistema push avviene una produzione “cieca”, ovvero, ogni stadio realizza le quantità solo ed esclusivamente guardando al suo schedule, in un supermarket la produzione dello stadio a monte parte solo a seguito della ricezione di un ordine di replenishement del magazzino (quindi se e solo se c’è stato un consumo da parte dello stadio a valle): c’è un collegamento di quantità (la dimensione delle scorte è predefinita e limitata), ma non di sequenza (lo stadio a monte può seguire la logica di produzione degli ordini in maniera libera). La terza configurazione è quella first in – first out (FIFO), tale da avere: - Un flusso informativo che mantiene la sequenza tra gli stadi: il primo materiale – componente – prodotto che viene inserito nella corsia FIFO tra gli stadi è anche il primo ad essere processato dallo stadio a valle; - Una limitazione alla lunghezza della corsia: ogni qual volta la coda ha raggiunto la massima capacità, non sarà più possibile inserire altro materiale; - L’accoppiamento tra le fasi risulta essere ancora più forte: se lo stadio a monte non produce, non produce neanche quello a valle; solo nel momento in cui, lo stadio a valle, preleva un componente/prodotto/materiale, allora quello a monte si attiva per il ripristino; è ovvio quindi che, quanto più la coda FIFO risulta essere corta, tanto più i due stadi successivi risultano essere accoppiati. Si tenga presenta quella che è una peculiarità dei sistemi FIFO rispetto a quelli supermarket, ovvero il mantenimento della sequenza: mentre, in una configurazione supermarket, non è detto che, la sequenza di ordini dettata da valle, venga rispettata anche a monte (se, lo stadio successivo, invia un cartellino di tipo X, uno di tipo Y, ed uno di tipo Z, non è detto che, quello più a monte, li soddisfi nella stessa logica XYZ), questo è assolutamente rispettato nel sistema FIFO (ogni qual volta si ha un prelievo, si ha un replenishement di quell’esatto prelievo). Infine, l’ultimo passo consiste nel “one piece flow”, che rappresenta il limite, al tendere a 0, della lunghezza della coda del modello FIFO: la logica è quella del “make one, move one”, dove gli stadi sono esattamente in sequenza e totalmente accoppiati. Come anche evidenziato dalla rappresentazione, passando dalla prima all’ultima configurazione, si è sempre più vicini a quello che è il sistema “ideale” a cui tende l’approccio lean. Posto questo, è quindi possibile fare chiarezza su quelli che sono i criteri che spingono a passare da un sistema “push” ad uno a “one piece flow” cui, in particolare, si fa riferimento come alle condizioni DeCAF: Dedicated: le risorse presenti negli stadi da accoppiare devono essere dedicate l’uno all’altro, e specifiche per la famiglia di prodotti in esame; Capable: gli stadi devono essere “capaci”, sia in termini di qualità che di quantità (deve esserci sufficiente capacità da consentire di rispondere, nei tempi, nelle quantità e nella conformità richieste dal cliente finale: se così non fosse, sarebbe necessario interporre delle scorte che facciano fronte a queste possibili carenze); Available: non deve esserci impatto del down – town; se uno stadio ha una bassa disponibilità, difatti, meno è la quantità di scorte di disaccoppiamento, maggiori saranno le ripercussioni sulle varie fasi nel caso in cui si verificasse un fermo; 35 Flexibility & chage - over: i tempi di set – up di ciascuno stadio devono tendere al valore minimo, di modo tale da riuscire a produrre a lotti unitari (se così non fosse, una produzione a lotti di grandi dimensioni, ad ogni cambio di prodotto, obbligherebbe a fermare tutti gli stadi, per un tempo pari a quello massimo richiesto dalle risorse presenti). Attenzione che, queste condizioni, non vanno approcciate nella logica “se sussistono i fattori DeCAF, allora si può accoppiare, se non sussistono, allora bisogna utilizzare un sistema che preveda la presenza di scorte”, bensì nell’ottica “il sistema ideale vuole un flusso continuo ed un’interconnessione tra le fasi: ci si organizzi così, si facciano emergere i problemi e si identifichino quelli che sono i fattori sui quali agire per ottenere un miglioramento nelle prestazioni”; nulla è impossibile: occorre invece chiedersi che cosa deve essere cambiato, dei vincoli attuali, per potersi muovere nella direzione desiderata (miglioramento nei tempi di ciclo, riduzione dei tempi di set – up, aumento della disponibilità…). Questa è propria la filosofia alla base del miglioramento continuo, ed è per questo che, le configurazioni, vanno a comporre un continuuum: tramite una logica graduale, sarà anzitutto possibile passare da un sistema push ad un sistema supermarket, facendo emergere le problematiche da affrontare con questa nuova configurazione; rilasciati i vincoli, si potrà pensare di adottare una logica FIFO, il che farà sorgere nuovi problemi; risolti anche queste difficoltà, si potrà, infine, adottare il “one piece flow”, migliorandolo ed affinandolo continuamente. Approcciare il problema in questo modo consente, quindi, di ottenere i reali vantaggi di un sistema interconnesso (vantaggi che, apparentemente, sembrano non esserci: accoppiare significa dover affrontare molto più problematiche, irrigidendo la produzione): per mettere a flusso, non è necessario avere tutte le condizioni DeCAF, bensì migliorarle nel tempo; solo in questo modo si ha la possibilità di far emergere i problemi ed essere “obbligati” a risolverli. Non è una questione di “si può fare / non si può fare”, bensì di identificazione dei target minimi cui si deve mirare per ottenere un flusso accoppiato; occorre, in sostanza, esplicitare la relazione tra le grandezze (identificando il lotto minimo di produzione per poter soddisfare la domanda, il tempo di set – up minimo che ne deriva, la disponibilità necessaria, il tempo di ciclo minimo ottenibile…). I target minimi sono solo degli obiettivi intermedi: una volta raggiunti e soddisfatti, il passo successivo consiste nel migliorarli, al fine di incrementare le prestazioni ottenibili dal sistema messo (sostenibilmente) a flusso. Accoppiare, se fatto in maniera efficace, consente di accorciare il tempo di trasformazione del prodotto dalle materie prime al prodotto finito, riducendo, così, gli sprechi: se un sistema risponde in tempi brevi, difatti, non ha alcuno spazio per “sprecare” risorse; ecco quindi che, come più volte detto, l’obiettivo non è quello di ridurre i tempi e le scorte, ma questi sono solo indicatori e conseguenze; al contrario, il focus è quello di migliorare il sistema: fatto questo, la diminuzione del tempo è delle scorte sarà logica conseguenza. Posto questo, si torni all’esempio della ACME; nel caso, l’approccio lean vuole che vengano messe a flusso, in un’unica cella, sia le fasi di saldatura, che quelle di assemblaggio: 36 Si noti come, la struttura della cella, è tale da favorire il teamwork, l’aiuto reciproco e l’interazione tra le risorse; essa, difatti, assume una struttura ad U non casuale, per due motivi: - Accoppiando, si ha la possibilità di ridurre il tempo di processo, avvicinando le risorse e potendo, così, risparmiare una persona (come ragionato in precedenza: lavorare per ridurre il tempo di ciclo e poter ovviare all’ultima risorsa insatura); - Questa configurazione è quella che permette alle risorse di essere più vicine possibile tra loro e di interagire, fattori abilitanti del processo di miglioramento continuo. È evidente come non si abbia il corretto valore di disponibilità e di set – up per poterlo fare; questo, tuttavia, non deve essere la “scusa” ed il “vincolo” per rinunciare a farlo: si cominci con il realizzare la cella, si facciano emergere i problemi e, nel corso del tempo, li si vada a risolvere (aumento della disponibilità delle saldatrici e riduzione dei tempi di set – up per la fase di presaldatura). Due possibili interventi migliorativi potrebbero essere i seguenti: Miglioramento della disponibilità: definizione di programmi di manutenzione preventiva; Riduzione dei tempi di set – up: l’attrezzaggio alla presaldatura (nel passaggio dalla staffa sinistra alla destra, e viceversa) è necessario poiché, da un prodotto all’altro, è necessario sostituire la macchina di saldatura; per ovviare a questo tempo (10 minuti = perdita di flusso per 10 pezzi), si può pensare di allestire due differenti tavoli, su ognuno dei quali vengono fissate le macchine, una dedicata alla saldatura della staffa destra (con relativa maschera), una dedicata alla saldatura della staffa sinistra (con relativa maschera): facendo questo investimento, si ha la possibilità di azzerare completamente il tempo di set – up. QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: ADOZIONE DEL SISTEMA SUPERMARKET La quarta domanda che occorre farsi è: dove posizionare i sistemi supermarket? Come detto, non tutti i punti del sistema consentono sostenibilmente l’adozione di una logica di flusso continuo; ad esempio, anche ragionando nell’approccio proattivo prima descritto, sarebbe impensabile, allo stato attuale, accoppiare a flusso lo stampaggio: le condizioni DeCAF sono troppo lontane dall’essere raggiunte per poter anche solo pensare di tentare un’interconnessione (si pensi, ad esempio, alla differenza di ritmo: la pressa, non essendo dedicata, lavora per la famiglia solo in certi periodi di tempo e, in cinque ore, riesce a produrre il fabbisogno necessario a soddisfare le esigenze di un mese di produzione). Ecco quindi che, tra lo stampaggio e la cella di lavoro, occorrerà mettere un supermarket che permetta, a monte, di utilizzare sequenze produttive e logiche gestionali parzialmente indipendenti rispetto a quanto richiesto dallo stadio a valle (è evidente che se, la cella, si mettesse a produrre nella stessa sequenza di quanto fatto dallo stampaggio, dovrebbe inevitabilmente produrre, per due settimane, solo staffe sinistre e, per le seguenti due settimane, solo staffe destre). Si adotta quindi un sistema kanban supermarket del seguente tipo: 37 Quando il cliente comincia un contenitore, stacca il cartellino da tale vassoio (kanban di movimentazione), che viene indirizzato verso il fornitore; questo è il segnale, per lo stadio a monte, che deve fare replenishement del magazzino: il kanban di movimentazione viene trasformato in un kanban di produzione, che, una volta ripristinato il vassoio, consentirà di andare a “ricoprire” il buco lasciato nel magazzino a seguito del prelievo. Si tenga presente che, il sistema supermarket, dovrebbe essere prossimo al fornitore, poiché, le scorte, sono l’espressione della sua incapacità nel seguire puntualmente la domanda. Nella logica di miglioramento continuo, il supermarket deve essere una soluzione “tampone” solo temporanea: nel lungo periodo, sarà necessario progettare e mettere in atto opportuni interventi che consentano di far evolvere questa configurazione verso una soluzione più “lean” (come, ad esempio, il pull sequenziale in logica FIFO: nel momento in cui la corsia risulta essere piena, il fornitore è “obbligato” a fermare la produzione; la denominazione, inoltre, rimanda proprio al fatto che, lo stadio a valle, mantiene la stessa sequenza di produzione della fase a monte). Arrivati a questo punto, si può quindi già cominciare ad osservare quello che è l’aspetto del future state con gli accorgimenti definiti fino a questo momento: 38 L’avere: - Ridotto il contenuto di lavoro complessivo; - Migliorato la disponibilità della saldatrice (facendo manutenzione preventiva per ridurre le probabilità di guasto); - Azzerato i tempi di set – up (con nuovi investimenti); ha consentito di creare la cella di “saldatura ed assemblaggio”, che diventa, a tutti gli effetti, un’unica risorsa, senza fare più alcuna distinzione tra gli attori interni (risorse umane e macchinari); il suo databox, mostra proprio come si abbia un tempo di ciclo inferiore al “takt time”, e pari a 56 secondi, che diventano 168 secondi complessivi di attraversamento (questi 56 secondi, se perfettamente bilanciati, saranno quelli di lavoro relativi a ciascuna risorsa; sennò sarà semplicemente il valore massimo tra quelli richiesti dalle singole risorse). A monte della cella vi è, poi, la presenza del supermarket, che mette in evidenza il kanban di prelievo da parte del cliente, e quello di produzione verso il fornitore; si tenga presente che, il fatto che, il cartellino di produzione del cliente, abbia forma triangolare, significa che, il fornitore, non è in grado di lanciare una campagna di produzione mettendo, in macchina, un lotto esattamente pari alla dimensione di un contenitore, ma deve lottizzare con dimensioni maggiori (ad esempio, potrebbe essere che 1 lotto = 5 vassoi: fino a che, il cliente, non stacca almeno cinque cartellini, il fornitore non può attivare la produzione). Attenzione: il future state già deve ragionare nell’ottica, in un futuro più o meno prossimo, di eliminare questo supermarket (che, interrompendo il “one piece flow”, rappresenta comunque uno spreco); difatti, si può osservare come, la fase di stampaggio, abbia ridotto il suo tempo di set – up (che passa da 1 ora a 10 minuti), a seguito della progettazione di interventi migliorativi; questo cambiamento potrà essere utilizzato per: - Produrre di più: si realizzano lotti della stessa dimensione, ma con più tempo a disposizione (avendone liberato parte con il risparmio in set – up); - Ridurre la dimensione del lotto: si reimpiega il tempo risparmiato con la diminuzione dei set – up per poter fare altri set – up, e produrre a lotti di più piccole dimensioni). Anche lo stampaggio deve quindi tendere a quella che è la situazione ideale: bisogna migliorare al fine di fare lotti sempre più piccoli, livellando la produzione, seguendo la domanda del cliente e cercando di 39 mettere sempre più frequentemente in produzione la gamma; questo, ovviamente, è anche una condizione che consente, nel lungo periodo, di azzerare le scorte. Proprio come accaduto (rispetto al current state) tra i vari stadi di produzione: essendo, ora, le fasi di saldatura ed assemblaggio all’interno di un’unica cella, viene eliminata qualunque tipologia di scorta di disaccoppiamento; permangono le scorte nel magazzino di prodotto finito e quelle a valle della pressa (che, tuttavia, si riducono: ora, lo stampaggio, produce per la famiglia mediamente ogni giorno, contro le due settimane del current state; ciò significa che, da un fabbisogno di copertura pari ad una settimana, maggiorato delle scorte di sicurezza, si è passati ad una copertura di mezza giornata, più le scorte di sicurezza). Anche la gestione del sistema verso il fornitore cambia, il che può essere notato osservando la quantità che, ora, si tiene a scorta che, quantificata in termini di tempo, passa da una copertura di 5 giorni ad un fabbisogno di soli due giorni: questo è possibile ottenerlo andando ad incrementare la frequenza delle consegne. In sostanza, nel current state, il fornitore consegnava due volte la settimana (martedì e giovedì), il che significava che: Ciascun ordine aveva dimensioni abbastanza corpose poiché avrebbe dovuto coprire il fabbisogno di 3 giorni + 2 giorni (ad esempio, l’ordine del martedì potrebbe coprire per 2 giorni, quello del giovedì per i restanti 3); Con una consegna due volte la settimana significa che, quanto meno al venerdì, bisogna aver inviato il fax al fornitore per comunicargli il fabbisogno richiesto: nel caso in cui la previsione fosse sbagliata, bisogna attendere almeno 10 giorni prima di poter porre rimedio (il seguente ordine sarà inviato con il fax del venerdì successivo, con ricezione della consegna, al più presto, il lunedì); ciò significa quindi che, per far fronte ad un’eventualità di questo tipo, bisognerà tenere un “cuscinetto” di scorta in grado di cautelare su 7 giorni lavorativi, ovvero il tempo necessario a correggere la decisione. Se, invece che questa logica, ci si riuscisse ad accordare per delle consegne giornaliere, si avrebbe: Un singolo ordine molto meno pesante dal punto di vista quantitativo (il fabbisogno consegna, ogni giorno, il fabbisogno di un solo giorno: ciò significa avere, a scorta, solo un quantitativo operativo); Nel caso in cui si effettuasse un errore di previsione, la dimensione della scorta di sicurezza dovrà esser tale da cautelare solo per due giorni (da 7 giorni lavorativi, a due: se oggi si ordina e si sbaglia la previsione, domani si reinoltrerà un altro ordine, che verrà consegnato dopodomani, e si avrà possibilità di farvi fronte in maniera molto più tempestiva). È proprio per questo motivo che, il sistema messo in piedi con il fornitore viene denominato “milk run” (letteralmente il “giro del latte”): il fornitore si comporta come un lattaio che, ogni giorno passa, consegna il prodotto, e registra l’ordine ed il quantitativo che dovrà consegnare il giorno successivo. È evidente che, un approccio di questo tipo, è tanto più fattibile quanto più si può far leva sulla vicinanza dei fornitori: è per questo motivo che, spesso, la logica lean suggerisce l’allaccio di relazione con fornitori “globali” solo per codici a bassa incertezza di volume e relativamente poco critici, sui quali, quindi, non si ha esigenza di un quantitativo elevato di scorte di sicurezza per cautelarsi dai lunghi lead time. L’impatto delle iniziative messe in atto è evidente: non solo si è ridotto il tempo di processo, ma propriamente quello di attraversamento che, da 23,6 giorni, è ora di soli 8 giorni (4,5 + 1,5 + 2 giorni, al quale si somma il tempo di produzione); l’indice di flusso è comunque basso (il che significa che ci sono ancora ampi spazi di miglioramento) ma, senza dubbio, molto migliore rispetto alla situazione di partenza. 40 QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: POSIZIONAMENTO DEL PACEMAKER I maggiori sprechi ed inefficienze del current state derivavano dal fatto che, la programmazione centrale, dava a ciascuno stadio dei piani da seguire, i quali venivano seguiti “ciecamente” in ottica dipartimentale, senza alcuna visione sistemica. Ogni stadio produceva sulla base del suo schedule: questo portava a formazione di scorta e disallineamento (i piani definiti a livello centrale, per vari motivi, possono essere disallineati: ognuno di essi, difatti, è pensato per ottimizzare il lavoro di ciascuno stadio, proteggendolo da un qualunque evento che potrebbe succedere negli altri; tuttavia, essi derivano da previsioni: nel momento in cui le cose vanno diversamente da come si era pensato, è possibile che il sistema collassi, a meno che non si abbia la presenza di un quantitativo sufficiente di scorte per assorbire questa variabilità). Tutto questo, nel future state, deve sparire: esiste un unico punto di programmazione, in funzione del quale, tutti gli altri stadi, si adeguano e reagiscono; solo in questo modo si minimizza la probabilità di disallineamento tra gli stadi, costruendo un sistema altamente flessibile e facilmente governabile (nel momento in cui, per qualunque motivo, lo stadio “centrale” si trova a rivedere i suoi piani, anche tutti gli altri devono reagire di conseguenza, riallineandosi a questo cambiamento). Per realizzare questo sistema flessibile e reattivo, guidato da un unico stadio, si potrebbe pensare a due differenti modelli: Il primo è condotto dal magazzino prodotti finiti: tutto il processo produce per il magazzino finale, il che significa che, la programmazione, avviene in funzione di quelle che sono le richieste pervenute, a questo stadio, da parte del cliente finale (in sostanza, se il cliente esprime una richiesta di 640 staffe sinistre e 360n staffe destre, il magazzino prodotti finiti staccherà un kanban di 1000 pezzi di programmazione per tutta la filiera alle sue spalle). Questo caso pone, quindi, il punto di programmazione in corrispondenza dell’ultimo stadio: ogni prelievo che questo fa per soddisfare la domanda finale, attiva gli stadi precedenti al fine di ottenere il ripristino di tale prelievo (l’azione di schedule in un punto crea una serie di azioni di adeguamento); La seconda possibilità consiste nell’andare a schedulare in un particolare punto del processo, quello che si trova a ricevere direttamente gli ordini cliente (pur non essendo alla fine). Con riferimento alla figura sottostante, si pensi al processo 2 come allo “stadio di fabbricazione”: è questa la fase che riceve gli ordini cliente e ne definisce la sequenza (prima l’ordine per il cliente A, poi quello per il cliente B, e così via); è evidente che, le fasi immediatamente a valle (come potrebbero essere i successivi processi di assemblaggio), reagiranno e seguiranno a loro volta questa sequenza e, il fornitore, a monte, agirà a sua volta in reazione (nel momento in cui la fabbricazione comincerà a produrre, dovrà attivarsi per ripristinare i consumi). Programmando in questo modo non c’è possibilità di disallineamento: ci sarà giusto il quantitativo si scorta massima ammesso per un sistema FIFO. 41 Si tenga presente che, l’adozione dell’una o dell’altra logica, richiede, sempre e comunque, che gli stadi che devono reagire siano caratterizzati da un elevato livello di flessibilità, propri perché devono essere in grado di reagire tempestivamente a cambiamenti; non si dimentichi che, il processo di pianificazione centrale (quello che, nell’approccio tradizionale, portava a disallineamento), era proprio fatto perché, il sistema, si caratterizzava per bassi tempo di reazione (rendendo quindi necessario il “guardare avanti” e stilare un programma); ovviamente, più le risorse hanno un tempo di reazione immediato, più è possibile evitare di dover programmare. Il sistema progettato deve operare nella logica del “what’s next”, ovvero, ogni stadio, deve essere nella condizione di avere una chiara fonte di indicazione su cosa deve essere prodotto, ed in che modalità; è per questo motivo che, a valle del punto di schedulazione, se non c’è un “one piece flow”, sarà ammessa, al massimo, una coda FIFO: proprio perché deve esserci un unico flusso, ed una direzione univocamente determinata, un sistema supermarket non sarebbe idoneo poiché, permettendo sequenze indipendenti, è possibile che lo stadio successivo, una volta terminata la realizzazione di un prodotto, non sappia esattamente quello che dovrà produrre successivamente (a chi dare la priorità, se questa priorità non emerge dal sistema?). Nel caso della ACME, la soluzione più razionale consiste nella prima configurazione: il punto di programmazione, il pacemaker del sistema, diventa il magazzino prodotti finiti. Si guardino i risultati: 42 Si è ottenuto un sistema migliore e più efficiente rispetto a quello di partenza, e la prova è proprio data dal fatto che, in questa configurazione, è possibile un funzionamento con un livello di scorta molto più basso. QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: LIVELLAMENTO DEL MIX E DEL VOLUME DA PARTE DEL PEACEMAKER Deciso dove andare a programmare, ponendo gli altri stadi in reazione, bisogna chiedersi: con che criteri il punto di scheduling, livella il volume ed il mix di produzione? Per effettuare questo livellamento, lo strumento è il load leveling box, ovvero uno schedario che Sulle righe, presenta i differenti prodotti; Sulle colonne, invece, viene evidenziato il pitch, ovvero l’intervallo/di controllo, ed il lotto di informazione che viene passato al peace maker, ovvero lo stadio che programma le attività (a questo punto, difatti, non solo viene programmata la sequenza di produzione, ma anche la sua velocità: dare ordini ad intervalli temporali più ravvicinati significa implicitamente comunicare di andare più veloce mentre, diminuendo la quantità, si sta dicendo di rallentare). Si chiarisca con un esempio: si supponga che, un kanban, corrisponda ad un vassoio di 20 pezzi e che, la domanda finale (takt time) corrisponda ad un pezzo al minuto; ciò significa che, evidentemente, verrà richiesto un contenitore ogni 20 minuti. Se si decide che, questo, è lo slot di controllo, andando a programmare la produzione, ogni colonna avrà, al massimo un kanban, proprio perché, un cartellino, corrisponde proprio a 20 minuti (chi segue quello scheduling deve produrre un kanban ogni 20 minuti: non di più, poiché altrimenti sovraprodurrebbe, non di meno, poiché altrimenti non rispetterebbe il ritmo richiesto dal mercato). Questa è la programmazione in termini di volume (ogni 20 minuti deve essere realizzato un vassoio); riportandosi al caso della ACME, quando il magazzino riceve l’ordine giornaliero di 600 staffe sinistre e 360 staffe destre, dovrà staccare 48 kanban (ciascuno da 20 pezzi): mettendone uno ogni 20 minuti e, quindi, uno per colonna, in due turni non si sarà in grado di assegnare tutta la domanda giornaliera. Si tenga comunque presente che, la richiesta, da parte del mercato, di 960 pezzi al giorno, su due turni, ad un takt time di 1 minuto (il che significa un kanban di 20 pezzi ogni 20 minuti), rappresenta un valore 43 medio: non è detto che, ogni giorno, la domanda sia esattamente pari a questo valore (difatti, si ha sempre e comunque l’esigenza di un magazzino prodotti finiti in grado di assorbire parte della variabilità). Il sistema, però, è tarato per andare a questo ritmo: nel momento in cui la domanda risulta essere superiore (ad esempio, 1100 pezzi), benchè si spediscano i pezzi richiesti, e si stacchino più kanban (55, e non 48), comunque il sistema procederà al valore target stabilito, il che significa che, il peacemaker, andrà a programmare e livellare il volume sempre e comunque andando ad inserire, per la giornata, 48 kanban (e non 55); quelli in eccedenza verranno schedulati per i giorni successivi, fornendo le unità in soprannumero appoggiandosi al magazzino prodotti finiti. Questo concetto è fondamentale: si programma e si livella la produzione sempre al valore target determinato dal takt time (1 pezzo al minuto, 1 kanban ogni 20 minuti, 48 kanban al giorno); se la domanda dovesse eccedere questo valore, la parte in surplus verrà destinata alla produzione del giorno successivo, in aggiunta ai successivi che si manifesteranno (ci sarà, prima o poi, un giorno in cui l’ordine sarà inferiore a 960: in quel momento, allora, la situazione di riequilibrerà). Anche nel caso in cui vengano teoricamente richiesti più kanban, il sistema produce comunque in base al valor medio: sarà compito del magazzino prodotti finiti assorbire la variabilità di questa domanda, permettendo proprio al sistema di funzionare in base alla media calcolata con il takt time. Attenzione che, mentre questo ragionamento vale in caso di domanda in suprlus, non vale con richieste inferiori alla media: se la domanda è inferiore, non è che il sistema produca comunque 48 kanban (a meno che non si abbiano arretrati dai giorni precedenti); senza kanban, non ci deve essere produzione. Si tenga presente che, l’obiettivo, non è quello di avere un punto di partenza con un magazzino in grado di coprire, con le scorte, 4,5 giorni, ed un load leveling box che non abbia, al suo interno, kanban; più “normale” è avere una situazione iniziale che, ad esempio, abbia a magazzino 2,5 giorni di scorta e, nello schedario, già presenti 2 giorni di kanban, che guideranno la produzione per l’immediato futuro. Va tuttavia sottolineato che, questo discorso, vale a livello generale parlando di volume complessivo; poiché, tuttavia, il ridisegno del processo riguarda un sistema che si occupa della produzione di una famiglia di prodotti, è opportuno comprendere quali siano le logiche di livellamento e sequenziamento del mix. Il sistema ideale è quello che produce esattamente quanto e come è stato chiesto dal mercato; ciò significa che, nel momento in cui il cliente richiede 600 staffe sinistre e 360 staffe destre, la soluzione migliore non è certamente quella di produrre in una sequenza del tipo “lotto da 600 sinistre” e “lotto da 360 destre” (o viceversa), poiché questo significa anticipare la produzione ed incrementare il livello delle scorte. Esistono differenti alternative di scelta delle logiche di livellamento. La prima è quella di non livellamento: il cliente invia l’ordine al magazzino, il magazzino preleva i contenitori necessari e prepara la spedizione; prelevando i vassoio, viene staccato uno o più kanban di movimentazione, che vengono inviati alla cella (come input al replenishement) senza alcun livellamento (la cella vede arrivare i cartellini in base a quelle che sono state le logiche di prelievo di chi si occupa del magazzino). 44 La seconda alternativa vuole che, prima che siano passati alla cella, i kanban vengano livellati, nel senso che, il sistema non riceve più il “batch” complessivo, ma ne vede uno alla volta, in base a quelle che sono le logiche di livellamento (i kanban staccati dal magazzino finale, quindi, passano dapprima attraverso la cassetta di livellamento): Ovviamente, esistono differenti approcci; tenendo presente il fatto che, le staffe sinistre, sono richieste in rapporto 2:1 rispetto alle destre, l’alternanza Sinistro – sinistro – destro; sinistro – sinistro – destro; sinistro – sinistro – destro… Rappresenta la situazione in cui il mix è livellato alle dimensioni del lotto più piccole possibili: si riproduce, sull’orizzonte temporale più breve, quella che è la domanda media. Difatti: Sul mese, vengono richieste 12000 staffe sinistre e 6400 staffe destre; Settimanalmente, vengono richieste 4000 staffe sinistre e 1600 staffe destre; Giornalmente, vengono richieste 600 staffe sinistre e 360 staffe destre; In ogni turno, vengono richieste 300 staffe sinistre e 180 staffe destre; … Istantaneamente, vengono richieste 2 staffe sinistre per una staffa destra: questo mix corrisponde all’orizzonte temporale più breve sul quale è possibile replicare il mix richiesto sul mese; ovviamente, per poter realizzare una produzione di questo tipo, si ha assoluta esigenza di flessibilità (i set – up devono essere azzerati, proprio come è il caso in esame). Il livellamento antecedente la cella dà garanzia che venga messo in produzione solo un kanban per colonna presente nel load leveling box, a prescindere da quello che è stato il prelievo a magazzino; il concetto è 45 sempre il solito, ovvero che bisogna seguire il takt time e, quindi, alla cella deve arrivare un kanban ogni 20 minuti: questo è quanto dettato dallo stadio peace maker, che detta il ritmo a tutti gli altri, che devono proprio reagire a quella fase (il magazzino) che, mediamente, si muove ad un pezzo al minuto (non possono né andare più veloci, né andare più lenti; è comunque evidente che, al ridursi del numero di kanban, gli stadi risultano essere sempre più accoppiati: la situazione limite è rappresentata dal caso in cui si abbia in circolo un solo kanban, che viene staccato ogni 20 minuti, il che significherebbe che, gli stadi a monte, reagirebbero solo all’unica richiesta di quello a valle). In tal senso, il “decisore” è colui che governa e gestisce la cassetta di livellamento, in quanto dà l’impulso a chi dovrà produrre; è difatti lì che viene definito il programma di produzione, ed è l’unico punto in cui questo avviene, con tutti gli altri stadi che operano in reazione (come detto, se ce ne fosse più di uno, ci sarebbe forte probabilità di creare disallineamento, che porta ad un’elevata esigenza si scorte, a meno che non si voglia rischiare di incorrere in stock out). In sostanza, il peacemaker è il magazzino prodotti finiti, che preleva materiale in modo tale da determinare un’esigenza di un kanban ogni 20 minuti mentre, chi governa il load leveling box, programma in modo tale da seguire questo ritmo. Ecco quindi che, il posizionare una cassetta di livellamento prima della cella, consente di controllare più puntualmente il volume e di definire il mix: Controllo del volume: viene inviato un kanban ogni 20 minuti, il che significa che, la cella, non può produrre ad un ritmo differente da questo (se andasse più lenta, i kanban si accumulerebbero, se andasse più veloce, violerebbe il “vincolo” di impossibilità a produrre in assenza di kanban); Definizione del mix: inviando un kanban per volta, e non ricevendo il “batch” di kanban (come nella situazione A), la cella non può decidere di produrre ad un lotto differente da quello definito dal singolo kanban (“sinistro – sinistro – destro” e non “un certo numero di sinistri + un certo numero di destri”, quindi non aumentando arbitrariamente le dimensioni di lottizzazione); più tardi, approfondendo le caratteristiche degli altro strumenti lean, verranno messe in evidenza motivazioni più puntuali ed approfondire sul reale vantaggio di produrre a questo mix definito piuttosto che a lottizzazioni differenti. L’ultima opzione, infine, consiste in un livellamento addirittura a monte del magazzino prodotti finiti, quindi prima del punto di programmazione: In sostanza, al magazzino prodotti finiti, non si manda l’ordine di spedizione, ma un “kanban di produzione”: in questo modo, si è costruito un sistema tale da livellare la produzione ancor prima che avvenga la spedizione, che riceve, in input, una programmazione già livellata. 46 Il beneficio di questa soluzione, rispetto al caso precedente, è quella di minimizzare le scorte nel magazzino prodotti finiti: mentre, nell’alternativa B, a magazzino, si ha la necessità di avere, a scorta, tutta la possibile varietà che potrebbe chiedere il cliente (che, nel caso, su un ordine medio di 960 staffe, dovrebbe essere una scorta di circa 1500 pezzi, equamente suddivisa nelle due tipologie: è, difatti, questo, il valore massimo che potrebbe essere richiesto), poiché, arrivato l’ordine, lo si soddisfa proprio basandosi sui prodotti già presenti nel magazzino, nell’alternativa C, poiché la programmazione avviene prima che il piano degli ordini arrivi al magazzino, si ha la possibilità di distribuire il quantitativo e le spedizioni lungo la giornata, al ritmo di “un ordine ogni 20 minuti” (in coerenza con il takt time), potendo, con ciò, tenere a scorta un quantitativo di prodotto finito inferiore. Sorge tuttavia una domanda: si è parlato più volte di “ritmo” e di “seguire la cadenza”; ma chi è responsabile del controllo che, effettivamente, il takt time venga rispettato? In una fabbrica lean, l’addetto a questo aspetto è il runner, ovvero una persona che si occupa, propriamente, di girare all’interno della fabbrica, occupandosi della movimentazione dei cartellini: ogni qual volta la spedizione preleva un vassoio e stacca un kanban di movimentazione, il runner ha il compito di trasferire questo cartellino alla cella, diecndogli cosa dovrà fare; inoltre, se il ritmo è stato rispettato, poiché è stato staccato il kanban dopo 20 minuti, la cella dovrà aver prodotto il quantitativo necessario a riempire il precedente consumo, che verrà quindi prelevato e inserito all’interno del supermarket; successivamente, il runner prenderà il nuovo kanban di movimentazione staccato e ricomincerà il giro. Questa persona compie il suo giro ad un ritmo cadenzato: se la frequenza definita è quella di “un kanban alla volta”, allora lo compirà ogni 20 minuti. Questo fa da feed – back alle risorse: nel momento in cui la cella vede arrivare il runner, ma non ha ultimato la produzione richiestagli con il kanban precedente, significa essere in ritardo; questa mansione viene quindi istituita “ad hoc” per dare un “check” al ritmo produttivo degli stadi, fungendo da vero e proprio metronomo. Ovviamente, possono esserci casi semplici O più complessi 47 In questa seconda situazione, che prevede un livellamento, il kanban di movimentazione staccato dal magazzino finale non viene trasferito direttamente alla cella di produzione, bensì a chi gestisce il load leveling box, che si occuperà di inserirlo opportunamente nella colonna; il runner, prenderà poi il kanban presente nella prima colonna più a sinistra, portandolo allo stadio di competenza. QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: DEFINIZIONE DEL PITCH DI CONTROLLO Come visto, il “runner” (detto anche “water spider”), è colui che si occupa di portare in giro i cartellini e dare la cadenza; è evidente che, il ritmo al quale, questa figura, compie il suo giro, dipende da come è stato definito l’intervallo di controllo e di trasferimento dei kanban; nella cassetta di livellamento, è possibile programmare di modo da trasferire 1 kanban ogni 20 minuti, 3 kanban ogni ora, 6 kanban ogni due e così via(il che singnifica organizzare, in modo differente, le colonne: una colonna potrebbe corrispondere a 20 minuti di domanda cliente, estremamente puntuale, oppure a tre ore di domanda, aggregandola maggiormente). È ovvio che, una soluzione più puntuale, consente di controllare in maniera più stringente la cadenza ed il ritmo di produzione; in un caso si controlla quanto si è prodotto ogni 20 minuti, nell’altro ogni 3 ore: si capisce bene come ci sia differenza! Con un controllo esattamente pari ad un kanban, il check è molto più stringente ed efficace: questo vantaggio trova, come contr’altare, un maggiore spreco in termini di movimentazione della personma che addetta ai vari trasferimenti. Al di là di quello che si potrebbe pensare, tuttavia, occorre sottolineare come, tanto più il timing di controllo è puntuale, quanto più significa che, la produzione, lavora nel rispetto di questa cadenza e senza incontrare problemi: controllando su un intervallo così stretto, difatti, se sorgessero frequenti problemi (a meno di eccezioni), non si avrebbe il tempo di risolverli. Ecco quindi che, la logica (forse anti intuitiva, ma del tutto razionale), vuole un controllo progressivamente più restringente al migliorarsi del sistema: Si comincia, ad esempio, controllando e trasferendo una volta a turno: emergeranno dei problemi che, una volta risolti, porteranno ad una situazione che, con un certo livello di confidenza (molto elevato), ad ogni check si ha la probabilità di trovare che tutto venga rispettato; Si restringe il controllo, ad esempio a mezzo turno: emergeranno nuovi problemi che, quindi, dovranno essere risolti, portando ad una situazione efficace; … Via via che si fanno controlli sempre più puntuali, si sarà obbligati ad identificare le cause dei problemi ed a rimuoverli, arrivando alla situazione “ideale” dove si è in grado di operare nel rispetto dei tempi sull’orizzonte temporale più piccolo (un kanban). Il concetto di “pitch” rappresenta proprio questa dimensione: è l’intervallo manageriale di controllo (ogni quanto il “runner” effettua il suo giro e dà il check alla produzione). Si tenga presente che, spesso, il pitch risulta essere correlato ai volumi ed al contenuto di lavoro dei prodotti: più il prodotto è complesso (alto contenuto di lavoro) e realizzato in alti volumi, quanto più sarà necessario istituire un controllo stringente (se si realizzano 20000 pezzi in un turno, non si può pensare di effettuare un controllo alla fine di ogni turno: nel caso ci fossero problemi, questo significherebbe aver potenzialmente compromesso un volume di prodotti molto alto). 48 In definitiva, si ottiene la seguente configurazione per il future state: Si è optato per un livellamento antecedente il magazzino: livellando quello che viene prelevato, si ha la possibilità di livellare, conseguentemente, anche quello che viene realizzato in produzione; inoltre, se il livello di incertezza della domanda risulta essere basso, la sua variabilità si abbatte, il che significa che, questa soluzione, oltre che ad abbattere le scorte operative, fa diminuire anche quelle di sicurezza. Si ritorna a quanto già si era affermato: livellando la domanda al magazzino, si ha la possibilità di livellare la domanda anche verso gli stadi a monte (i quali possono seguirla solo se caratterizzati da flessibilità e bassi tempi di set – up), potendo così ridurre il quantitativo di scorte di sicurezza. Con il fornitore a monte, invece, viene messo in piedi un sistema pull del tipo “vuoto per pieno” che, idealmente, richiede l’invio di un quantitativo ogni qual volta viene staccato un kanban: non appena viene svuotato un contenitore, questo vassoio viene inviato al fornitore, il quale lo riempie, lo consegna, e ritira quelli, nel frattempo, svuotatisi. È evidente che, un approccio di questo tipo, non è operativamente realizzabile con tutti i fornitori; laddove non sia possibile, l’alternativa più efficace consiste nell’invio del kanban al production control centrale, il quale si occuperà di emettere l’ordine al fornitore (in sostanza, si adotta l’approccio tradizionale: invece che integragire direttamente con il production control del fornitore, si passa da quello dell’azienda): una volta inoltrato, il kanban staccato viene posizionato all’interno di una tabelliera, in corrispondenza del giorno previsto di arrivo l’ordine emesso. In questo modo, si ha una visione complessiva di quando si riceveranno le varie consegne: ovviamente, nel momento in cui quest’ordine verrà ricevuto, il kanban verrà staccato dalla tabella; se si hanno ancora cartellini facenti riferimento a giorni precedenti, significa che si ha della merce in ritardo che deve, quindi, essere sollecitata. Principi ed utilizzi dei principali strumenti lean Uno dei principi alla base della riprogettazione “lean” (come anche avuto modo di vedere parlando delle condizioni che portano alla costituzione delle celle nell’ambito della Value Stream Mapping) è la possibilità di dedicare delle risorse; tuttavia, soprattutto in quelle realtà caratterizzate da alta varietà, le singole tipologie di prodotti non hanno dei volumi sufficientemente alti da potergli dedicare delle risorse: è quindi necessario metterne insieme più d’uno, formando, così, delle famiglie. 49 Questa è, quindi, l’unità di analisi alla base della riprogettazione di un sistema produttivo: per identificarle, il punto di partenza è la cosiddetta “production flow analysis”, ovvero un’analisi che, partendo da una matrice che va ad incrociare, ogni prodotto realizzato, con le competenze/risorse/processi richiesti, sfruttando opportuni algoritmi, consente di arrivare ad un raggruppamento più o meno preciso: Nel caso dell’esempio di cui sopra, si può notare come, ad esempio, i prodotti A – B – C – F – G risultino essere più o meno simili (nel dettaglio, B – F – G sono identici dal punto di vista delle risorse richieste, mentre A e C hanno delle differenze: in particolare, A avrebbe bisogno di una risorsa potenzialmente fuori cella, mentre C l’esecuzione di un passaggio in meno); essi rappresentano, quindi, una famiglia. Questo processo consente di scorporare un sistema più complesso, riconducendolo alla sommatoria di n sottoinsieme di prodotti che hanno le stesse necessità in termini di risorse richieste; in questo modo, potendo trattare questi sottosistemi in maniera indipendente, si ha la possibilità di analizzarli autonomamente, semplificando il problema (si ricordi quanto detto parlando di Value Stream Mapping: si analizzava il flusso e la struttura produttiva per una particolare famiglia di prodotti, non per l’intera gamma realizzata dall’azienda). Alla fine, questa è poi la logica alla base della realizzazione delle celle: ha senso costituire un’organizzazione di questo tipo laddove si ha la possibilità di mettere insieme delle risorse che hanno, come elemento comune, la realizzazione di prodotti simili. Da questa analisi, è anche possibile che emergano dei “bottleneck”, ovvero delle risorse che si occupano di più famiglie (si parla, quindi, di collo di bottiglia non tanto dal punto di vista della capacità, bensì con riferimento al fatto che non si può parlare di una risorsa completamente dedicata ad una famiglia): ciò significa che, parte della loro capacità, sarà dedicata ad un particolare insieme di prodotti, la restante parte agli altri (nel caso dell’analisi presentata, la risorsa 3 è il collo di bottiglia, in quanto è l’unica che si occupa di entrambe le famiglie di prodotto: ciò significa che, ad esempio, parte della capacità sarà impegnata per i prodotti A – B – C – F – G, e la rimanente a D – E). Si tenga presente che, in questo contesto, l’elemento unificante delle varie risorse non è più la competenza (ad esempio: le n persone che lavorano per l’ufficio Acquisti), ma quello che viene realizzato (le n risorse che si occupano della famiglia di prodotti X): l’aspetto – chiave diventa, quindi, non tanto l’integrazione con le altre sue risorse “simili” (le varie persone che operano nella funzione Acquisti, nel caso dell’esempio), 50 bensì con tutte le altre stesse risorse che sono dedicate alla realizzazione della particolare tipologia di prodotti. Effettuare un’analisi di questo tipo risulta quindi dare grandi benefici dal punto di vista gestionale, non solo perché dà la possibilità di scomporre un sistema complesso in molteplici sottosistemi più piccoli e semplici da organizzare e migliorare, non solo dal punto di vista produttivo; si pensi, ad esempio, agli impatti in termini di contabilità: se si riuscisse ad arrivare (all’estremo) ad una situazione in cui ciascuna risorsa risulta essere dedicata solo ed esclusivamente ad una particolare tipologia di prodotto, si sarebbe nella condizione di “azzerare” i costi indiretti, proprio perché, essendo ogni risorsa dedicata, ogni voce diverrebbe un costo diretto; si semplifica così, enormemente, la gestione dell’accounting, che diventa, inoltre, più preciso e meno arbitrario (il prodotto X avrà la sua macchina, il suo magazzino di stoccaggio, le sue risorse umane dedicate…). Un esempio di algoritmo molto utilizzato, per effettuare la production flow analysis, è quello noto come il “rank oreder clustering”, la cui logica di funzionamento è la seguente. I passi dell’algoritmo verranno presentati con riferimento ad un particolare esempio. Anzitutto, si guardi a quelle che sono le caratteristiche dei dati di input: Si ha una matrice “pezzi – macchine”, dove ogni riga i rappresenta un particolare tipo di macchina (a prescindere dal numero di ognuno di essi che dovranno essere distribuite tra le celle), ed ogni colonna j un pezzo; il generico elemento d’incrocio xij varrà 1 se il pezzo j richiede, nel suo ciclo tecnologico, l’intervento della macchina i, 0 altrimenti. Per creare una tabella di questo tipo, è sufficiente conoscere tutte le tipologie di macchine che rientrano nella realizzazione del mix produttivo in questione, e la loro distribuzione sui vari pezzi; non è invece richiesta alcuna analisi di tipo morfotecnologico (non interessa il perché un prodotto j richieda la particolare lavorazione sulla macchina i ). A partire da tale matrice, occorre: 1) Associare, ad ogni macchina, un numero binario, e tradurne il valore su scala decimale (cosa già fatta nella rappresentazione precedente); 2) Ordinare le righe dall’alto in basso secondo valori decrescenti del numero binario (decimale) associato ad ogni riga: 51 3) Associare, ad ogni prodotto, un numero binario, e tradurne il valore su scala decimale (cosa già fatta nella rappresentazione precedente); 4) Ordinare le colonne da sinistra a destra secondo valori decrescenti del numero binario associato: A questo punto, intervengono i passi di riciclo: 5) Se nei passi 2) e 4) non è stato necessario nessuno scambio, allora andare al passo 6), altrimenti andare al passo 1); 6) Stop. Poiché nei passi 2) e 4) sono stati effettuato degli scambi, è possibile che le righe e le colonne non siano più ordinate in maniera decrescente (nel riordinare le colonne, difatti, è possibile che il valore delle righe cambi, e viceversa, facendo sì che non vi sia più l’iniziale ordinamento); occorrerebbe tornare al passo 1) e ripetere la procedura. Nel caso dell’esempio, pur avendo effettuato degli scambi, si può osservare come permanga il corretto ordinamento, potendo così arrestare la procedura. A ciclo terminato, è evidente come il posizionamento degli 1 e degli 0 determini dei raggruppamenti automatici; nel caso: - I pezzi 2, 1 e 5 individuano una cella con i tipi macchina A ed F; I pezzi 3,6 e 7 individuano una cella con i tipi macchina C ed E; I Pezzi 4 ed 8 individuano una cella con i tipi macchina B e D. È evidente comunque come i risultati ottenuti non siano perfetti, poiché le famiglie non sono esattamente caratterizzate; ad esempio, per il pezzo 2, incluso nella cella con i tipi macchina A ed F, sarebbe necessaria anche la macchina di tipo C (che non serve, tuttavia, ai prodotti 1 e 5): si pone quindi il problema di come gestire situazioni di questo tipo (se viene realizzato un volume di pezzi di tipo 2 tale da saturare e giustificare l’inclusione di tale macchina nella cella, allora verrà inserita al fianco di A ed F; nel caso in cui invece questo non avvenga, ed includere la macchina significherebbe andare incontro a pesanti 52 sottoutilizzazioni, allora bisognerà guardare ad altre strade, come l’outsourcing della produzione di tale pezzo, oppure modifiche al ciclo tecnologico, valutando la fattibilità di poter realizzare l’operazione in questione sui macchinari già inclusi nella cella). L’esempio, e la considerazione che ne è seguita, mostra proprio il concetto che è stato introdotto all’inizio; è vero che, in linea teorica, l’algoritmo non richiede alcuna necessità di analisi e razionalizzazione degli aspetti tecnici e costruttivi dei pezzi, determinando automaticamente famiglie e composizione delle celle, ma è altresì vero che, a partire dai risultati forniti, sono poi necessarie una serie di azioni correttive e decisioni da parte delle risorse umane che, spesso, ritornano in questi ambiti. FAR SCORRERE IL FLUSSO L’analisi di “production flow”, come lo stesso nome rimanda, ha l’obiettivo di identificare e caratterizzare quelli che sono i differenti flussi che “attraversano” l’azienda; ciò significa, appunto, andare ad associare, ad ogni prodotto/famiglia di prodotti, un insieme univoco di risorse che le caratterizza. Fatto questo, scatta il secondo “principio – chiave”, quello che vuole lo scorrere del flusso: poiché, tutto ciò che ferma tale avanzare può essere categorizzato come “spreco”, bisogna andare a capire quelle che sono le possibile cause di arresto. Si identificano cinque categorie di “sprechi”: 1. Cambi produzione e set – up dei macchinari; 2. Scarti, mancanza di informazioni necessarie e ricircoli inutili; 3. Guasti; 4. Politiche di lottizzazione i termini di quantità (si pensi al seguente esempio: se il lotto minimo è di 100, il primo prodotto che arriva dovrà aspettare il formarsi di una coda di altri 99 prodotti prima di poter essere messo in produzione); 5. Politiche di lottizzazione in termini di tempo (facendo riferimento a tutte quelle che sono i momenti schedulati per le varie attività: lo svolgimento del servizio A avviene solo nel giorno X, la tipologia di prodotto B viene processata solo il giorno Y…). Per ciascuna di queste cause, quello che si farà, sarà andare a mettere in evidenza le possibili soluzioni per evitarne l’insorgenza. Riduzione dei tempi di set – up L’approccio lean, per risolvere il problema dei tempi di set – up, si rifà al principio del “single minute exchange of die - SMED”, teorizzata dall’ingegnere giapponese Shigeo Shingo, che arrivò ad elaborarlo in tre differenti istanti. Il primo risale al 1950 e si può considerare come la vera e propria nascita dello SMED. In uno stabilimento giapponese della Mazda si chiese a Shingo di risolvere un problema di produzione legato ad un collo di bottiglia in prossimità di tre grandi presse. Il datore di lavoro era ormai rassegnato ad acquistare un’altra pressa, visto che per le crescenti richieste del mercato era necessario aumentare la produzione. Siccome le potenzialità delle tre presse non era in grado di garantire l’incremento di produzione richiesto, l’unica soluzione possibile per risolvere il problema sembrava l’acquisto di una nuova pressa. Shigeo Shingo invece chiese di poter analizzare nel dettaglio il modo in cui erano utilizzate le presse. Egli credeva infatti che i difetti di produzione fossero legati alla cattiva gestione delle macchine e pensava inoltre che fosse inutile acquistare una nuova macchina quando si poteva garantire un incremento di produzione sfruttando meglio 53 le macchine in possesso. Anche se con qualche difficoltà, Shigeo Shingo venne accontentato e lo stabilimento rimase fermo per una settimana, dando l’opportunità di effettuare tutte le analisi necessarie. Shigeo Shingo scoprì che tutte e tre le macchine erano utilizzate al di sotto della loro capacità produttiva e che bastava effettuare degli accorgimenti per migliorarla. L’analisi effettuata dall’ingegnere giapponese si basava su un principio semplice; per prima cosa individuò tutte le attività di setup; in seconda battuta fece una classificazione tra le operazioni che vanno eseguite a macchina ferma e quelle che devono essere effettuate con la macchina in movimento. Shingo fece in modo che le attività svolte a macchina ferma vennero ridotte del 50% e così riuscì nell’intento di aumentare la capacità produttiva pur senza acquistare una nuova macchina. Il secondo episodio che merita un cenno per lo sviluppo della tecnica SMED risale al 1957 e riguarda lo stabilimento della Mitsubishi a Hiroshima. In questa circostanza venne chiesto, sempre all’ingegnere Shingo, di aumentare la capacità produttiva di una piallatrice che si utilizzava per piallare blocchi di motori navali. Il problema che si riscontrò analizzando il funzionamento della piallatrice era dovuto al fatto che essendo i motori di grosse dimensioni era molto difficile cambiare le attrezzature della piallatrice. Non potendo effettuare un corretto setup, lo sfruttamento della macchina era inferiore al 50% della sua potenzialità. L’analisi mostrava inoltre che gran parte del tempo di setup si perdeva nel centraggio e nel posizionamento del motore sulla piallatrice perché veniva effettuato a macchina ferma. L’idea avanzata da Shingo fu quella di effettuare le operazioni di setup riferite al motore successivo su una seconda tavola della piallatrice perché in questo modo bisognava spostare solo la tavola e non tutto il motore. Introducendo questa novità nel processo produttivo si ridusse il tempo di fermo della macchina e si riuscì a fornire un incremento della produttività del 40%. Il principio che portò all’ aumento di produttività era molto semplice: anche qui bastava modificare le operazioni svolte a macchina ferma in modo tale renderla un’attività esterna. Dopo questi due episodi non si può non citare il più importante, cioè quello avvenuto nel 1970 presso lo stabilimento principale della Toyota. L’obiettivo richiesto dal management era dimezzare il tempo di setup richiesto dal una pressa da mille tonnellate che fino ad allora aveva un tempo di messa a punto di circa quattro ore, equivalente pertanto a quasi la metà di un turno di lavoro. I dirigenti giapponesi erano al corrente che le stesse operazioni di settaggio presso gli stabilimenti della Volkswagen duravano circa la metà del tempo. In base all’esperienza dell’azienda si decise di effettuare una classificazione rigorosa delle operazioni che richiedevano setup interno ed esterno e successivamente si decise di analizzare lo svolgimento vero e proprio dei processi di settaggio così da perfezionarli in più possibile. Un’analisi approfondita dei processi di attrezzaggio consentì quindi un abbassamento del tempo di setup dalle quattro ore a circa due ore e mezza, anche se il management non era ancora totalmente soddisfatto dei progressi ottenuti. Dopo questa riduzione venne posto come obiettivo quello di abbassare il tempo in maniera drastica portandolo a soli tre minuti. Tecniche dell’approccio SMED La prima tecnica mira a identificare chiaramente quali sono le attività che si devono effettuare a macchina ferma e le attività che invece possono essere svolte con la macchina in funzione ossia in “ombra alla macchina”. Le attività a macchina ferma si definiscono IED (Inside Exchange of Die), mentre le attività che si possono effettuare si definiscono OED ( Outside Exchange of Die). Ad esempio tutte le preparazioni, il trasporto delle maschere degli stampi e delle varie attrezzature può essere effettuato mentre la macchina funziona. Il montaggio dei pezzi sella macchina invece è un’attività che può essere effettuata soltanto quando la macchina è ferma. Se si riesce a organizzare in maniera ordinata le attività da svolgere nel setup 54 e a suddividere correttamente le IED dalle OED si ottiene una riduzione del tempo di setup intermo che va dal 30% al 50% La seconda tecnica, probabilmente la più importante in assoluto, mira a convertire per quanto possibile le IED in OED: è importante perché se non riuscissimo ad applicare questo principio non sarebbe mai possibile portare il tempo di set up nell’ordine di qualche minuto. sono riportati alcuni metodi industriali per ridurre le IED, gli effetti che si possono ottenere dalla loro riduzione e le ripercussioni sul processo produttivo. Nel caso di sostituzione di parti pesanti di delicato inserimento in macchina conviene studiare un’unità di movimentazione versatile e che si possa gestire con facilità come ad esempio i carrellini speciali per inserire stampi || Si riduce il rischio di errore nell’ inserimento degli stampi;inoltre avere carrellini permette di preparare come OED gli stampi da istallare sulla macchina Nel caso di regolazioni e di inserimenti di parti meccaniche sulla macchina conviene posizionare sulla macchina stessa delle scale graduate ||Le scale graduate hanno la funzione di semplificare enormemente le operazioni di settaggio e garantiscono una maggiore precisione In operazioni semplici e standard come ad esempi il serraggio gli agganci e il centraggio di parti bisogna semplificare il più possibile le attrezzature utilizzate; lo situazione ideale è aspirare ad attrezzature universali. Esempi concreti di questa semplificazione sono le asole a forma di pera. Le rondelle a U e le viti con un numero limitato di filetti visti in precedenza || Lo scopo di queste attrezzature è quello di garantire una maggiore velocità di esecuzione delle operazioni Azioni che riducono IED Studio di dime, serraggi e agganci rapidi,che consentono di eliminare dadi viti o altri sistemi più complessi da gestire Evitare il trasporto di pari smontate o di semilavorati da una parte all’altra dello stabilimento durante le IED Porre nelle immediate vicinanze della macchina un carrello portautensili Effetti Attraverso dei dispositivi di aggancio rapido si abbreviano le operazioni di setup e si evitano anche errori di montaggio poiché le parti che si devono gestire sono più semplici Si riduce enormemente il numero delle movimentazioni La presenza di un carrellino garantisce una semplificazione delle operazioni di reperimento degli utensili e riduce il tempo impiegato per la selezione degli utensili La terza tecnica è la standardizzazione delle funzioni . Standardizzare le funzioni è un principio in contrasto con le funzioni dello SMED in quanto quest’insieme di approccio mira a trovare il metodo migliore per ogni attività di setup. Per ottenere importanti miglioramenti è sufficiente standardizzare solo ed esclusivamente quelle parti che sono utilizzate per effettuare il settaggio. Per esempio aggiungere uno spessore agli angoli per l’aggancio dello stampo, serve a standardizzare le dimensioni dei componenti di fissaggio e rende possibile utilizzare lo stesso tipo di aggancio nei diversi set up. La standardizzazione garantisce pertanto un notevole risparmio di tempo e di costi Il quarto principio invece ha come scopo ridurre l’impiego dei fissaggi con filettatura con lo scopo di rendere più veloce le operazioni di serraggio La quinta tecnica riguarda l’utilizzo di maschere intermedie sulle presse: Questi strumenti rendono veloce il cambio di lavorazioni sulla pressa:ad esempio passare da un’operazione a un’altra (da foratura a tranciatura) e variare la dimensione del grezzo di lavorazione richiede l’ausilio di maschere intermedie. L’aspetto critico dell’utilizzo di questa tecnica riguarda la particolare attenzione richiesta nelle operazioni di fissaggio e di centraggio della maschera rispetto allo stampo. La sesta tecnica mira svolgere le operazioni in parallelo (parallelizzare): Il suo principio di funzionamento è molto semplice: assicurarsi che il lavoro prima svolto da un solo operaio venga effettuato da più persone, garantendo una limitazione della zona di lavoro visto che ogni operaio si occupa della sua zona di competenza. Questa tecnica permette di ridurre spostamenti dell’operatore e questo semplifica lo 55 svolgimento delle attività da compiere facendo leva sull’aspetto motivazionale e sulla riduzione della fatica. Per descrivere meglio come avviene un processo di parallelizzazione è stato pensato di fornirne un esempio Prima della parallelizzazione IED zona b IED zona a IED zona b IED zona a IED zona b IED zona a Se non si dovesse applicare la paralleizzazione un unico operaio dovrebbe spostarsi su più zone dell’impianto per effettuare le attività di setup interno sulle macchine. Dopo la parallelizzazione: IED zona b|| IED zona b|| IED zona b IED zona a IED zona a IED zona a Applicando la palallerizzazione grazie all’ aggiunta di un altro operaio si riduce fortemente il tempo del setup anche perché ogni operaio è responsabile della sua area di lavoro .La tecnica descritta presenta però due punti deboli: il primo è legato al costo della manodopera in quanto se si aumenta il numero di operai aumenta anche il costa della manodopera, Il secondo invece secondo è legato all’aspetto sicurezza. Se ci sono più operai nella stessa zona di lavoro bisogna evitare gli intralci e la ripetizione di operazioni. L’obiettivo è far capire agli operatori quando un'operazione è già stata svolta, da chi e se è stata svolta nel modo corretto, fornendo informazioni precise e tempestive. La settima tecnica riguarda l’eliminazione delle prove e degli aggiustamenti: Normalmente gli aggiustamenti e i cicli di prova pesano dal 50 al 70% circa del tempo di set up interno e quindi è importante contenere il più possibile la loro incidenza. L’eliminazione delle prove e degli aggiustamenti inizia riconoscendo che il settaggio e l’aggiustamento sono due operazioni separate e distinte. Il settaggio è quando la posizione di un limit switch viene cambiata. Si ha un aggiustamento quando il limit switch viene testato e ripetutamente messo in nuove posizioni. Il termine limit switch indica i parametri limite a cui far funzionare un dispositivo. Gli aggiustamenti possono essere eliminati se si utilizza ad esempio un maschera per determinare con precisione la corretta posizione del limit switch e quindi il settaggio diventa l’unica operazione richiesta. L’aggiustamento diventa sempre meno importante man mano che il settaggio diventa più accurato. L’ottava tecnica mira a rendere meccaniche le operazioni. La meccanizzazione (i giapponesi definiscono questo principio Jidoka) è spesso essenziale per effettuare la stragrande maggioranza delle operazioni industriali in quanto l’esecuzione meccanica di un processo evita di commettere errori e velocizza le operazioni. Alla luce di quanto descritto nelle prime sette tecniche che costituiscono lo SMED si ottengono delle riduzioni di tempo molto consistenti uno stesso processo che prima richiedeva qualche ora di tempo per essere impiegato dopo l’implementazione di quest’approccio ne richiede soltanto pochi minuti. Nonostante il notevole impatto della tecnica sullo svolgimento di un processo di setup, è importante sottolineare che la sola non è sufficiente per risolvere le lacune di un processo mal organizzato. L’aspetto cruciale della teoria di Shingo consiste nel distinguere due tipologie di set – up: I set – up interni, ovvero tutte quelle attività che vengono svolte quando la macchina è ferma; I set – up esterni, ovvero tutte quelle attività che possono essere svolte quando la macchina è in funzione; il punto di partenza consiste, quindi, nell’andare a “filmare” propriamente quelle che sono le attività necessarie allo svolgimento del set – up, e classificare, ognuna di esse, come interna o esterna. 56 Si pensi, ad esempio, all’attrezzaggio necessario per cambiare uno stampo: ci saranno tutta una serie di attività elementari che dovranno essere svolte, ognuna con certo ammontare di tempo, e che richiederanno che la macchina venga arrestata (sgancio dello stampo, rimozione dello stampo, caricamento della nuova maschera…), ed un altro insieme di attività che, invece, potranno essere fatte a macchina ancora in funzione (pulitura dello stampo). È evidente che, quanto più si è in grado di spostare la percentuale di attività di set – up verso la categoria “esterna” (quindi, non richiedendo il fermo macchina), tanto più si sarà in grado di contenere la perdita di produttività; si tenga presente che, questo, è spesso un fattore che presenta tantissime opportunità di miglioramento: Attrezzature portate a bordo – macchina quando la macchina è già stata arrestata; Utensili dimenticati lontano dalla macchina da attrezzare; Attrezzature rotte; Mancata verifica prima dell’inizio della produzione della corretta funzionalità delle attrezzature; sono solo alcuni esempi di inefficienze che, spesso, vengono compiute e che, se evitate (o, quanto meno, traslate ad attività esterne), consentono di limitare la riduzione del flusso dovuta al set – up. Ci si rifaccia all’esempio di cambio di uno stampo; se, invece che la procedura “classica” (inefficiente), si progettasse un sistema in cui fosse prevista una doppia rulliera, una d’entrata ed una di uscita che faccia sì che: Mentre la pressa continua a produrre, dia all’operatore la possibilità di prendere il successivo stampo e prepararlo sulla rulliera di entrata (che sarà, quindi, già pronto per il successivo cambio); In corrispondenza del cambio produzione, l’operatore non dovrà quindi far altro che far scivolare lo stampo corrente sulla rulliera di uscita, ed inserire quello nuovo da quella in entrata; A questo punto, l’unica attività “interna” sarà quella di aggancio del nuovo stampo alla macchina che, una volta eseguita, renderà la macchina perfettamente in condizioni di essere avviata alla nuova produzione; è chiaro come, in questo nuovo scenario, il tempo di fermo macchina risulta ridotto al minimo. Lo SMED, quindi, porta a riorganizzare le attività in modo tale da avere il maggior numero di attività esterne raggruppate insieme e all’inizio del set – up; passando il maggior numero di attività (in termini di tempo) da interne ad esterne, si ha la possibilità di preparare tutto in logica preventiva, in modo tale che, senza che vi sia bisogno di un tempo di fermo eccessivo, sia possibile intercambiare la produzione in modo flessibile. In questa nuova logica, il tempo di set – up diventa quasi come una sorta di “pit – stop” automobilistico: tutto è studiato nei dettagli al fine di minimizzare l’incidenza (in termini di tempo richiesto per l’esecuzione di queste attività a macchina ferma) del riattrezzaggio. Ovviamente, tutto poi deve essere fatto con l’ottica del miglioramento continuo: nel tempo, sarà necessario andare a semplificare e diminuire progressivamente la durata di queste operazioni, anzitutto di quelle interne, ma anche di quelle esterne. Si tenga presente che, nel fare questo, fondamentale è riuscire ad oggettivare il fenomeno: non a caso, in precedenza, si è utilizzato il termine “filmare”, proprio per sottolineare l’esigenza di dare una base oggettiva; l’approccio funziona se si riesce a fare capire alle risorse umane coinvolte che, l’analisi condotta, non è finalizzata alla valutazione delle loro capacità, bensì al miglioramento della procedura (si analizza 57 criticamente l’esecuzione del set – up non per capire se l’operatore esegue bene o male le attività, ma perché, solo così facendo, si ha la possibilità di identificare possibili miglioramenti della procedura): l’obiettivo non è quello di cambiare il modo di realizzare i set – up perché “gli operatori non sono in grado di farli velocemente a macchina ferma”, ma perché esiste un modo migliore, più efficiente e razionale per poterlo fare. Rifacendosi all’esempio, fatto, chi definisce una procedura di cambio dello stampo utilizzando il metodo tradizionale, lo fa richiedendo un forte carico di lavoro e committment alla sua forza lavoro, ma questo sforzo risulta spesso “frustrante e penalizzante”, non tanto per incapacità stessa della forza lavoro, ma per natura stessa della procedura: anche profondendo il massimo sforzo ed impegno, gli operatori non saranno mai in grado di rendere il set – up un’attività a basso spreco, proprio per inefficienza intrinseca della procedura; al contrario, seguendo i principi dello SMED che, appunto, agisce andando a lavorare sulle metodologie di lavoro (e non sui comportamenti), spingendole al miglioramento, si ha la possibilità di massimizzare le proprie prestazioni. La riduzione del numero e delle tipologie di viti utilizzate, l’utilizzo di attrezzature di svitamento ed avvitamento automatiche per il cambio piastra, il supporto di magneti di contatto, sono tutte soluzioni in linea con la filosofia SMED; come ben si può intuire, ognuna di queste soluzioni, può essere “pensata” e messa in atto da ognuna delle n risorse che operano in azienda: benchè, la singola innovazione, avrà un impatto minimo sul sistema (banalmente, migliorerà una specifica attività svolta dalle poche risorse che se ne occupano), il beneficio complessivo ed integrato di tutte queste sarà elevato, e difficilmente copiabile. Mettere in piedi un sistema di questo tipo è così difficile che, passo dopo passo, è in grado di generare un vantaggio competitivo sostenibile: copiare un prodotto o una tecnologia è possibile, copiare un sistema, improntato al miglioramento continuo, nel quale si è sviluppata una cultura ed una ideologia in base alla quale il management è portato a valutare (e, eventualmente, attivare) qualunque suggerimento proveniente dai livelli più operativi. In contesti di questo tipo nascono, inoltre, tutta una serie di nuovi indicatori di misurazione delle prestazione, non più specificatamente improntati a valutazioni di tipo economico, ma anche di innovazione; ne è un esempio, all’interno della produttività della forza lavoro, il “numeri di suggerimenti annui dati da ciascun operatore”: ovviamente, tutto questo funziona se e solo se, a monte, si ha la presenza di un management culturalmente flessibile a questa filosofia (c’è bisogno di una realtà in grado di assorbire i contributi provenienti da tutti i livelli: anche l’operatore più umile, deve sentirsi valorizzato, e sapere che, anche il suo contributo, potrebbe trovare ascolto da parte del management). Eliminare scarti e rilavorazioni Questo secondo aspetto riguarda delle considerazioni più volte fatte: ridurre gli scarti e le rilavorazioni significa non tanto migliorare la qualità del prodotto, ma del sistema; occorre individuare, analizzare e rimuovere tutte quelle che sono le eventuali cause che determinano le non conformità. Esistono, difatti, due dimensioni della qualità, quella interna e quella esterna: Quella esterna riguarda, appunto, l’aspetto “prodotto”: si tratta di minimizzare, quanto più possibile, la percentuale di difettosità che arriva nelle mani del cliente; questo, tuttavia, potrebbe essere ottenuto semplicemente in logica reattiva (ovvero, migliorando il proprio controllo finale: si produce allo stesso tasso di difettosità, ma si aumenta la propria capacità di intercettare queste difettosità; il cliente finale sente un miglioramento benchè, dal punto di vista interno, i costi e le inefficienze in cui l’azienda incorre sono esattamente le stesse); 58 Quella interna, invece, riguarda l’aspetto “processo”: è possibile migliorare la qualità in maniera proattiva, ovvero senza bisogno di aumentare la rigidità dei propri controlli, bensì andare ad agire alla fonte, migliorando il governo del proprio processo; questo, come detto, consiste nell’andare a ricercare le effettive cause di inefficienza e rimuoverle: avendo sotto controllo l’input ed il processo di trasformazione, l’output sarà univocamente determinato, potendo (all’estremo) ovviare ad un controllo finale. In sostanza, l’approccio tradizionale vedeva, per ottenere una maggiore qualità, la necessità di sostenere maggiori costi (come detto: bisogna irrigidire i controlli finali, il che significa maggiori rilavorazioni e/o scarti da non far arrivare al cliente finale); in realtà, l’approccio lean predica come, una migliore qualità, consenta di ottenere minori costi: se si è in completo controllo del proprio processo, l’output risulta essere univocamente determinato e, quindi, non si ha necessità di dover rilavorare o scartare alcuna unità realizzata; una migliore qualità significa anche maggiore efficienza e, maggior efficienza, significa anche migliore servizio reso al cliente finale. Ridurre l’impatto dei guasti La capacità produttiva utilizzabile risulta sempre essere espressa al netto di eventuali fermi e guasti, che riducono quella che è la potenzialità di targa delle risorse: una disponibilità minore del 100%, quindi, riduce la quantità di output teoricamente ottenibile. Per migliorare questo parametro, è possibile agire su due fattori: Riduzione del tempo necessario al ripristino della risorsa (Mean Time To Repair); Cambiamento nelle logiche di manutenzione: in tal senso, la filosofia Lean predica i principi della “Total productive Maintenance”, che spinge a passare da una manutenzione a guasto ad una preventiva, e da una preventiva ad una predittiva; si tratta, anche in questo caso, di agire in logica proattiva, accorgendosi ed intervenendo prontamente su segnali di malfunzionamento, evitando, così, il guasto (in sostanza, si cerca di anticipare la probabilità che accada qualche cosa di non desiderato); nel riuscire a fare tutto questo, fondamentale è il supporto che possono dare i fornitori dei macchinari, che devono cambiare ottica di realizzazione degli impianti, assumendo la prospettiva del cliente: in sostanza, si tratta di cooperare affinchè, tali produttori, progettino e realizzino i prodotti in modo tale già da favorirne la gestione da parte del cliente, facilitandogli eventuali interventi di razionalizzazione nel tempo di ripristino e nella manutenzione. Eliminare le lottizzazioni sul mix Fino agli anni Ottanta, le principali linee di assemblaggio di prodotto finito erano, essenzialmente, di due sole tipologie: Dedicate, quindi finalizzate alla realizzazione di un singolo prodotto; Multi model, ovvero capaci di realizzare più modelli di prodotto, ma potendolo sostenibilmente fare solo operando secondo logiche di lottizzazione; in sostanza, si trattava di produrre prima una data tipologia di prodotto, eliminare tutti quelli che erano i componenti specifici alla sua realizzazione dal sistema (mantenendo quelli specifici), portare quelli necessari alla realizzazione della successiva tipologia e ricominciare la produzione (ad esempio: AAAA – setup – BBBB – setup – CCCC…). 59 Oggigiorno, invece, la metodologia consolidata e diffusa prevede una produzione in logica mixed model: semplificando il concetto se, in un dato istante, si andasse a fare una fotografia della linea di produzione, quello che si vedrebbe sarebbe la produzione non di un unico modello alla volta, ma la contemporanea presenza di più tipologie di prodotto, che possono essere quindi assemblati in maniera consecutiva, ed in logica del tutto casuale (non è necessario definire una sequenza) da parte delle risorse (ad esempio: AABCABBCCACAA…). In un sistema di questo tipo è stato fatto uno sforzo, non indifferente, al fine di ridurre a zero il tempo di set – up necessario per passare da una tipologia all’altra (condizione necessaria per l’adozione di una linea multi model), ad esempio, mediante: La riduzione della dimensione dei contenitori a bordo linea, permettendo così la presenza di più contenitori, che possono alimentare la produzione di più prodotti; La razionalizzazione della componentistica: è fondamentale condurre un’analisi approfondita su quelli che sono componenti e parti da inserire nei vari prodotti, verificando l’effettiva esigenza di questa varietà e, laddove possibile, andando a semplificare questa gestione (bisogna essere in grado di capire quella che è la varietà che veramente interessa al cliente, dandogli un effettivo valore aggiunto, e quella che, invece, è superflua: molto spesso, la varietà rappresenta solo un elemento di marketing). Produrre azzerando i tempi di set – up consiste di ottenere la massima flessibilità, riuscendo ad inseguire perfettamente la domanda cliente, minimizzando il tempo di attraversamento del sistema, eliminando le scorte e le code di attesa, e riuscendo ad offrire, al cliente finale, un migliore servizio. Cosa si ottiene in cambio di questo investimento in flessibilità? In tutto questo, è fondamentale comprendere l’importanza del fare di tutto per livellare la domanda (in termini di volume): nella gran parte delle realtà, difatti, è dimostrato come, l’80% delle variazioni di mix, volume, e quantità, siano determinate dall’azienda stessa, che si “autoinfligge” delle complicazioni che, con un attimo di accorgimento, potrebbero essere evitate. Occorre anzitutto avere presente che, più la domanda è aggregata, più è possibile livellarla: è evidente che, andando a guardare l’andamento delle richieste per uno specifico modello di una particolare tipologia di prodotto appartenente ad una famiglia, si otterrà una domanda con una certa variabilità; guardando all’andamento della domanda di tutti i modelli della tipologia di prodotto, si otterrà un andamento più regolare; guardando, infine, alla domanda di tutti i prodotti appartenenti alla famiglia, l’andamento darà ancora più regolare. Assemblare, su una linea, in logica multi model (quindi investire per ottenere flessibilità), significa ottenere, in cambio, una maggiore stabilità di volume, proprio per quanto detto: una linea che produce prima un lotto di prodotto X, poi un lotto di prodotto Y, e poi un lotto di prodotto Z, subisce una variabilità cumulata (in termini di volumi) connessa alla domanda di X, Y e Z; al contrario, una linea in grado di produrre in maniera flessibile un’ampia gamma di prodotti (XYZXYZXYZ…) subirà una variabilità molto minore, proprio perché, la reciproca incertezza delle differenti domanda, riesce a compensarsi. Questo, da ultimo, si traduce: In certi periodi, in minore insaturazione delle risorse; In altri periodi, in minore esigenza di straordinario; l’investimento in flessibilità riduce la variabilità del sistema, permettendo, così, di utilizzare al meglio le risorse di cui si dispone. 60 Se ancora non si è convinti di questa cosa, si consideri un semplice esempio numerico: Prodotti realizzati e loro domanda settimanale Componenti per ciascun modello Di fronte a questa domanda, si ipotizzi di stilare il seguente piano di produzione: La capacità produttiva di 40 unità al giorno viene così ripartita sulla settimana: - Il primo giorno si realizzano 40 unità del prodotto A; - Il secondo giorno si realizzano le restanti unità di 1 (35) e si comincia con la realizzazione del prodotto 2; - Il terzo giorno si ultima la produzione del prodotto 2; - … In sostanza, il piano prevede una produzione a lotti: si realizzano progressivamente i prodotti che sono richiesti dal mercato, in logica successione. Si guardi, tuttavia, cosa succede dal punto di vista dei fornitori (notando che, nel caso, si hanno due fornitori, ognuno dei quali produce un insieme di componenti): nonostante la produzione dell’azienda sia schedulata e sequenziale, la variabilità che essi vedono è molto elevata (tanto più per il secondo fornitore: il venerdì, ad esempio, egli si ritrova ad avere una domanda che è quattro volte quella del lunedì). Per cautelarsi da questa variabilità, tutto ciò che i fornitori possono fare è installare una capacità pari alla domanda media, cercando di effettuare una previsione e produrre, in anticipo, quello che il cliente potrà chiedergli (altrimenti, se così non facesse, rischierebbe o di essere fortemente insaturo, se scegliesse di installare una sovracapacità per poter inseguire la domanda cliente, oppure, a parità di capacità, di dover spesso ricorrere a straordinario); tutto ciò, comunque, porta a quegli effetti di cui si è già avuto modo di discutere: il fornitore produrrebbe sempre e comunque in funzione di un piano previsto, che potrebbe, in ogni momento, variare. Le conseguenze, dunque, sono: Formazione di scorte; Maggiori costi; Possibili ritardi; 61 Forti inefficienze di sistema. Per tutti questi motivi, è necessario cambiare la prospettiva: non si produce più in sequenza ed a lotti, bensì in un’ottica livellata puntando, in sostanza, a replicare su ogni giornata lo stesso mix richiesto per la settimana; ogni giorno, il sistema produttivo dovrà puntare a produrre della domanda settimanale di ciascun prodotto: in questo modo, si ha la possibilità di replicare, su un periodo più micro, lo stesso profilo di mix La flessibilità del sistema livella la domanda, il che consente di ribaltare, al fornitore, una domanda che, giorno per giorno, risulta essere assolutamente regolare: lui ha, quindi, la possibilità di organizzarsi al meglio e di vedere una variabilità ridotta al minimo, non ribaltando in alcun modo sull’azienda cliente qualunque possibile inefficienza. Attenzione che, tale livellamento, può poi essere esteso a livello sempre più dettagliato; ad esempio, si potrebbe andare ad analizzare la produzione giornaliera (in termini di scheduling al mattino ed al pomeriggio): anche in tal caso, si potrebbe pensare di replicare, su ciascun turno (o sottoturno), lo stesso mix, in proporzione, che si ha sull’intera giornata; più si riesce ad ottenere questa situazione “ideale” , più le cose, nell’azienda e lungo la Supply Chain, si regolarizzano. Il fatto di replicare, su un orizzonte sempre più piccolo, lo stesso mix, era una cosa che già si era visto quando si era parlato della mappatura nel caso Acme: nel future state, il livellamento prevedeva l’andare a replicare il mix su un orizzonte temporale più piccolo possibile (dalle 360 staffe destre e 600 staffe sinistre si passava a sinistra – sinistra – destra, il periodo più di breve che era possibile affrontare). Quindi, sempre con riferimento al caso Acme, il fatto di produrre nella logica “staffa sinistra – staffa sinistra – staffa destra”, in realtà, non apportava alcun beneficio in termini di organizzazione della cella (ma, anzi, a questa era richiesto “solo” sforzo e tempo per fare di tutto al fine di ridurre i set – up), ma, i vantaggi, erano tutti verso il fornitore, il quale ha la possibilità di vedere una domanda molto stabile, potendo così organizzare una produzione livellata; questo tuttavia, è del tutto coerente con quella che è la logica di visione “complessiva” del flusso: l’obiettivo è quello di riuscire a far scorrere il flusso lungo tutta la filiera, e non solo all’interno della singola azienda. È, questa, ovviamente, un’ottica difficile da raggiungere, ed è una delle principali “side” dell’approccio lean: il fatto che, un’azienda, debba investire tempo e risorse per far ottenere dei benefici ad un attore esterno, non è un concetto facile da far passare; per questo motivo, affinchè gli obiettivi possano efficacemente 62 essere raggiunti, non si può prescindere da un elemento di forte integrazione: l’intera filiera deve essere consapevole che, spesso, sforzi e benefici si trovano in punti distinti della Supply Chain e che, quindi, è fondamentale scardinare la tradizionale logica dipartimentale e funzionale, assumendo non solo una visione di processo, ma ancora più dettagliata, di flusso, ragionando, come più volte sottolineato, per singolo flusso facente riferimento ad ogni famiglia di prodotto. Eliminare lottizzazioni di tempo Come già sottolineato, l’eliminazione delle lottizzazioni ed il livellamento della domanda non riguarda solo il mix, ma anche il tempo: in molti uffici ed attività si servizio, difatti, non è raro che avvenga una schedulazione “per tempo” delle attività; si pensi, ad esempio Ad un ufficio Acquisti che processa le fatture passive solo una volta alla settimana; Ad un back office che processa le richieste di iscrizione a giorni alterni; Ad una funzione di design e progettazione che processa le richieste di modifica dei disegni di prodotto da parte del cliente una volta ogni quindici giorni; … Questo non deve avvenire: il sistema deve strutturarsi ed organizzarsi in modo tale da essere in condizione di erogare, ogni attività, “exactly when needed”, aderendo perfettamente a quelle che sono le richieste del cliente. LEGARE TUTTO AL CLIENTE È evidente come, qualunque principio e strumento facente riferimento all’approccio lean, abbiano tutti un unico, grande denominatore comune: l’obiettivo di riuscire a legare, qualunque attività, alle esigenze ed alle richieste del cliente; un sistema è lean se è strutturato in modo tale da riuscire a reagire, il più possibile, a ciò che il cliente chiede (ovviamente, in modo efficiente ed efficace). Non si deve produrre se il cliente non ha richiesto, altrimenti si incorre in sovraproduzione e scorte (quindi, in sprechi): proprio perché le previsioni sono quasi sempre sbagliate, ed i piani sono, quindi, destinati a cambiare, per essere efficienti bisogna lavorare su informazioni certe; tuttavia, poiché il mercato non è disposto ad aspettare, serve costruire un sistema estremamente veloce. Questo è proprio il circolo virtuoso dell’approccio lean: Soddisfare le esigenze del cliente slegarsi dalle previsioni lavorare su informazioni certe costruire un sistema veloce e reattivo soddisfare le esigenze del cliente Si tenga presente che, per raggiungere questi obiettivi, non basta semplicemente che la singola azienda ragioni in logica pull, ma l’intera supply chain deve assumere questa prospettiva: nel momento in cui uno stadio si ferma, anche tutti gli stadi immediatamente a monte devono arrestarsi, e riprendere solo nel momento in cui, quest’ultimo, si riattiverà. Per ragionare in questa logica, è possibile costruire: Una pull supply chain, basata su sistemi di coordinamento di tipo kanban; 63 Una sequential pull supply chain, basata su sistemi di coordinamento attraverso corsie FIFO. Building a continuous flow Organizations are very happy when they are able to implement a pull system using a kanban. The success should be one to celebrate, because it is not easy and it is a step in the direction of moving from Traditional Batch & Queue to the Ideal State of Continuous Flow. As the chart below shows, it is just the first step in moving towards the ideal state. This chart is one of my favorites from “The Toyota Way” by Jeffrey Liker. The chart shows the stages of moving from a traditional batch and queue system to continuous flow. The immediate realization is that pull using a kanban is just one step better than traditional batch and queue. The difficulty of implementing a pull system and using a kanban is great enough that companies feel they are successful when this is achieved. The misunderstanding is people believe this is the end state, so this is where a lot of companies stop. For some cases, this may be what is best for their business. For many others, they can push further towards the ideal state of continuous flow. Many companies need help in seeing how they can move further down the continuum. First, we should clarify two words that I hear used interchangeably, pull and kanban. There seems to be a misunderstanding of what each really means. The definitions below were taken from Wikipedia. They are short and concise and seem to describe each nicely. 64 Pull – a system where the consumer requests the product and “pulls” it through the delivery channel Kanban – a signaling system to trigger action Supermarket Pull – Just like in a supermarket, there is a variety of product to choose from. The customer (next process) chooses what it needs and pulls the product. Once so much of the product is pulled out a kanban signal is sent to the supplier that more product is needed. The supplier will then produce a batch of parts to fill back into the supermarket. The difference between batch and queue and supermarket pull is the customer is telling the supplier when to produce, not the supplier deciding on their own when to produce. Sequenced Pull – When I worked in the auto industry we would get orders from our customers for car grills. For certain programs, the plant would sequence the grills in the packaging in the order they would be used on the assembly line. So as the cars came down the line, the operators were not pulling from a supermarket, but rather a bin that had the grills in order, so they didn’t have to search a supermarket for the right part. Two other benefits were a decrease in floor space needed to store the parts and it highlighted production issues immediately. If something was wrong with the part, there was nothing there to replace it with, so the line had to stop and a team leader notified. FIFO Sequenced Pull - This method is like the Sequenced Pull with the addition of having standard WIP between the unlinked processes. The standard WIP is the pull signal for the previous process to produce more work and it is placed into the flow on a First-In-First-Out basis. When the standard WIP is full, stop producing parts. This is similar to the Supermarket Pull, but the next process does not schedule the work. The only way they know what to produce is from the FIFO lane. I toured a facility a few years ago where they did this very well. The molding presses were lined up on one side of the small building. They produced product and filled the lanes in the middle of the building using FIFO. The assembly cells were on the opposite side of the FIFO lanes. They would produce whatever was next in the lane. They did not use a schedule for the assembly cells. They pulled just pulled the next cart of work. Continuous Flow – This is the ideal state. Processes are linked together so there is no inventory between them. The work is passed from process to process with no interruptions in the flow. Don’t get hung up on the definition of 1-pc. I see many people get caught up that 1-pc means one individual item at a time. 1-pc could mean one bin of parts at time. The bin is moving through the process with no interruptions and there is only one single bin of parts being worked on and no bins waiting. I know the thought of one bin as 1-pc can be controversial. This does not mean that 1 bin = 1-pc is the right choice all the time. Understanding the business and the situation makes this a case-by-case call. There may be times where you have more than one of these types of flow in your facility. Different value streams progressing along at different rates along the continuum of flow. This is OK. In fact, it would be surprise if you could implement a type of flow all the way through your value stream at once. Use this as an opportunity to create an experiment and see what works best for you. Numerosi sono I vantaggi di un sistema pull, tra i quali: Semplicità di gestione; Limitate scorte (si pensi al caso delle corsie FIFO: non è possibile riempirle più della loro capacità); Nessuna sovraproduzione da parte del fornitore; 65 Modo semplice per spingere al costante miglioramento (si pensi, ad esempio, al caso del sistema kanban: riducendo progressivamente il numero di cartellini in circolazione, il sistema, inizialmente, si troverà in difficoltà; andando, tuttavia, ad analizzare questi problemi ed a risolverli, sarà possibile “disincagliare la barca”, permettendole di viaggiare al nuovo livello di galleggiamento, potendo successivamente pensare di abbassarlo ulteriormente); Un unico punto di programmazione, lasciando operare tutto il resto in reazione; Limitata amplificazione di produzione e di scorte lungo la Supply Chain (come detto, viene limitato l’effetto “Forrester”: se lo stadio a valle vede una variabilità dell’X%, gli stadi a monte, se operano tutti in logica pull, vedranno la stessa variabilità, proprio perché non si ha alcun effetto di modifica e/o amplificazione). In particolare, con riferimento alla logica del miglioramento continuo, è opportuno sottolineare come, nel perseguirlo, è opportuno seguire quello che è l’approccio PDCA di Deming, una metodologia rigorosa e scientifica che consente di migliorare la qualità e le prestazioni delle fasi di lavorazione, e che ricalca perfettamente quello che è il principio lean del considerare potenzialmente validi i suggerimenti provenienti da qualunque livello dell’azienda; esso, difatti, descrive quello che è il metodo scientifico ed oggettivo per approcciare i problemi: ogni qual volta si abbia una proposta di miglioramento, quello che bisogna fare è analizzarla, testarla, verificarne le conseguenze e, in caso di contributo positivo, renderla parte integrante (o sostitutiva) delle procedure precedenti. In particolare, si distinguono quattro differenti momenti: 1) Plan: definizione del metodo (potenziale); 2) Do: applicazione del metodo; 3) Check: verifica degli effetti; 4) Act: valutazione critica dei risultati (come ha funzionato? Perché qualche cosa ha funzionato bene/male? Cosa si potrebbe migliorare? È necessario cambiare qualche cosa?); in questo modo, si ha la garanzia che, qualunque sia l’idea, e da chiunque essa arrivi, vadano avanti e siano considerate di successo solo quelle “buone” ed effettivamente valide. È quindi evidente come, tale approccio scientifico, non solo consente di testare la bontà di un metodo, ma anche di derivare tutta una serie di considerazioni strategiche (se la procedura funziona bene, allora la si consolida, altrimenti è opportuno comprendere se esistano altre strade per poterla migliorare). APPROCCIO TOYOTA: REGOLE DI SINTESI Benchè, uno dei principi base della “filosofia Toyota” sia quello dell’apprendimento sul campo, c’è stato comunque qualcuno che, nel tempo, ha provato a sintetizzarne l’essenza in alcune regole, sistematizzando questa conoscenza in quattro postulati, che definiscono proprio quello che è il DNA dell’azienda e la base del metodo. Regola 1: ciascun compito deve essere specificato in dettaglio con riferimento al contenuto (che cosa di deve fare), alla sequenza (esecuzione delle attività), al tempo (richiesto per ciascuna attività) ed al risultato (output atteso) 66 Si ipotizzi che, il compito in questione sia “fissare un sedile”: una descrizione del tipo “posizionare il sedile verticalmente, avvitare i quattro bulloni e saldarli correttamente” non rispetta la regola sopra descritta (dove l’operatore andrà a prendere i bulloni? In che sequenza dovrà avvitarli? Che pressione dovrà applicare nel fissaggio?). Al contrario, se tutto è approfonditamente specificato e definito nei minimi particolari, si avrà la certezza che, ogni operatore, eseguirà la sequenza di attività richieste esattamente nei modi e nei tempi desiderati, il che consente di ottenere un grande vantaggio: quanto più le procedure sono chiaramente definite ed uguali per tutti, tanto più, il metodo applicato ed il risultato ottenuto da ciascun operatore differirà solo ed esclusivamente per fattori esogeni, che non sono sotto il suo diretto controllo (una differente qualità dei materiali in ingresso, variazioni nella temperatura esterna…). In sostanza, questo fa sì che sia possibile valutare un metodo uguale per tutti in condizioni ambientali differenti: se così non fosse, ed ognuno eseguisse le attività in modo differente, non si saprebbe identificare quelle che sono le cause di influenza interna ed esterna. Ma non è tutto: definire delle regole chiare e dettagliate consente, a chiunque, di essere in grado di comprendere se, effettivamente, abbia svolto più o meno bene l’attività a lui assegnata, correggendosi così, opportunamente, nel caso in cui l’output ottenuto non rispetti quello desiderato. Regola 2: deve esserci una chiara e diretta relazione “cliente – fornitore”, per ogni aspetto del flusso Sia per quanto riguarda i materiali, sia per quanto riguarda flussi informativi e procedurali, deve sempre esserci una chiara referenza: per ogni eventuale mancanza di materiale, deve esserci una persona cui fare riferimento; per ogni possibile problema che potrebbe insorgere, deve esserci un soggetto a cui rivolgersi; nel caso in cui si abbia una mancanza di questo tipo, significa avere un’inefficienza organizzativa: per un dato aspetto, non si ha un responsabile, dovendo, quindi, far fronte a questa carenza. Regola 3: flussi dei prodotti diretti semplici Il percorso che, ciascun prodotto, segue all’interno dello stabilimento, deve essere semplice, chiaro ed univoco; in ultima istanza, questo si traduce nel fatto che, ogni prodotto, deve prevedere un unico cammino possibile da poter seguire (ma questo, ovviamente, non significa che, ogni cammino, debba necessariamente avere solo un unico prodotto). L’approccio tradizionale vuole che, in un sistema formato da quattro torni (T1, T2, T3, T4) e quattro fresatrici (F1, F2, F3, F4), con tre prodotti da realizzare (A, B e C), si manderà, ciascuno di essi, sulla macchina al momento più scarica; ciò significa che, ad esempio, A1 potrebbe andare su T1 e F1, ma A2 potrebbe andare su T2 ed F1; B1 potrebbe andare su T2 ed F3m ma B2 su T3 ed F4; C1 potrebbe andare su T4 ed F4, ma C2 su T1 ed F2, e così via. L’approccio lean, invece, vuole che, per ognuno dei prodotti, venga definito un cammino chiaro, univoco ed invariante: I prodotti A vanno su T1 e F1; I prodotti B su T2 ed F2; I prodotti C su T3 ed F3; … Questo, ovviamente, è molto più complesso ed oneroso da realizzare, ma consente anche di ottenere un grande vantaggio: realizzare un prodotto seguendo sempre lo stesso percorso, significa testare n volte sempre tale percorso; ecco quindi che, nel momento in cui ci fosse un problema, solo questo approccio 67 consentirebbe di farlo emergere (al contrario, con lo scheduling tradizionale, poiché il percorso potrebbe, ipoteticamente, essere sempre diverso, si avrebbe molta più difficoltà ad identificare eventuali inefficienze). Inoltre, il definire percorsi in maniera chiara ed univoca, consente di dare indicazioni definite e specifiche ai macchinari ed a chi li gestisce: ogni operatore, che si occupa di programmazione, gestione e manutenzione, sa sempre ed esattamente che prodotti si troverà a lavorare e da chi proverranno. Regola 4: ogni miglioramento deve avvenire in accordo con il metodo scientifico Questo è un aspetto cui si è più volte fatto riferimento: deve esserci una guida (un “sensei”) che metta in condizione, tutti i livelli dell’organizzazione, ivi compreso quelli più operativi, di contribuire al miglioramento; in sostanza, non c’è alcun bisogno dell’intervento del management, che deve intervenire solo per “eccezioni”: a garantire il normale ciclo operativo ed il miglioramento continuo devono essere gli operatori a diretto contatto con lo stabilimento. In conclusione, si può dire che, l’approccio tradizionale, usa adottare una prospettiva lineare ai fenomeni; in questa visione, la conformità e l’affidabilità rappresentano un prerequisito per poter applicare gli strumenti e le metodologie lean (kanban, riduzione delle scorte, raggiungimento della flessibilità): si può pensare di volgere lo sguardo a questa innovazione se e solo se si posseggono queste caratteristiche. Al contrario, bisogna abbandonare questo “tunnel della mente” statico, volgendo lo sguardo ad una versione dinamica: non deve esserci nessun prerequisito, ma deve essere la volontà di applicare la filosofia Lean che deve spingere a portare al livello di affidabilità e conformità compatibile con le prestazioni necessarie per soddisfare le esigenze del mercato finale; in sostanza, si tratta di adottare questa logica e, affinchè possa essere resa sostenibile, lavorare per ottenere la giusta configurazione: in questa visione, quindi, l’approccio e le metodologie lean rappresentano lo stimolo per migliorare e non, invece, l’obiettivo del miglioramento. Si passa quindi da “si applicano gli strumenti lean solo se si ha un livello qualitativo ed un’affidabilità tale da poterlo fare” a “si applicano gli strumenti lean perché, in questo modo, si sarà obbligati a migliorare il sistema, al fine di fargli erogare i parametri prestazionali desiderati”: non bisogna attendere ad applicare tale filosofia fino a che “non si è pronti per poterlo fare” ma, al contrario, in base a quelle che sono le prestazioni attuali, ci si spingerà ad applicarla fino ad un certo livello; di qui in poi, tutta l’azienda sarà improntata a lavorare per migliorare ed aumentare questo grado di adozione. In tal senso rappresenta uno stimolo al miglioramento; è il discorso già fatto con riferimento all’esempio del kanban: si parte, ad esempio, con 30 cartellini (attuale livello ottimale) ma, in un certo istante futuro, li si abbasserà a 20; in questo nuovo scenario, si evidenzieranno dei problemi che dovranno essere risolti: una volta risolti, si sarà in una condizione più avanzata (si sarà, ora, in grado di lavorare efficacemente con soli 20 cartellini), che metterà in grado di compiere i passi successivi (l’andare ad operare con 15, 10, 5 cartellini: si diventa sempre più lean, partendo sempre da nuovi punti di partenza). 68 Metodi e procedure: definizione dei tempi standard Arrivati a questo punto, un aspetto che è particolarmente interessante andare ad approfondire è quello relativo alla misura del lavoro: si è, difatti, parlato più volte di tempo di ciclo e tempo di set – up (e di loro riduzione); risulta, tuttavia, opportuno domandarsi: ma come, questi valori, risultano essere determinati? La misura del lavoro rappresenta la procedura attraverso la quale si misura, o si prevede, il tempo necessario per realizzare un’operazione esistente o progettata, produttiva o non produttiva, di un processo o di un’operazione. In particolare, fondamentale è il concetto di tempo standard, ovvero il tempo teoricamente necessario per realizzare una certa operazione, seguendo un determinato metodo: è questo il valore di riferimento, utilizzato nella quantificazione dei tempi di ciclo e di set – up. Sotteso al concetto di “standard”, c’è quello di “normalità”: esso è, difatti, il tempo necessario ad un esecutore normale, non incentivato, che lavora in condizioni normali, ad una velocità normale, per realizzare un’operazione con risultati qualitativi accettabili; ovviamente, è sottointeso che, chi esegue tale metodo, deve conoscere ed avere competenza su quello che sta facendo (in sostanza, deve seguire un metodo a lui noto). Il tempo teorico differisce da quello effettivo, ovvero il tempo che è stato effettivamente impiegato dall’esecutore per eseguire l’attività, per tutta una serie di motivi (condizioni ambientali, natura ed attitudine dell’esecutore, tipo di materiali utilizzati…); di qui, deriva il concetto di efficienza, definita come il rapporto tra Si supponga, ad esempio, che un esecutore abbia eseguito, in una settimana, composta da un turno di 8 ore, 10 volte una stessa attività, il cui tempo standard risulta essere noto; l’efficienza settimanale di questa risorsa sarà quindi pari a In sostanza, quindi, proprio il rapporto tra l’output (misurato a tempo standard) e l’input. L’efficienza può poi essere declinata in termini di rendimento ed utilizzo: Il rendimento mette in evidenza quanto l’esecuzione ha rispettato le procedure predefinite (si tratta, difatti, del rapporto tra il tempo teoricamente necessario all’esecuzione e quello effettivamente impiegato); L’utilizzo, invece, mette in evidenza un eventuale situazione di sotto o sovra saturazione di una risorsa (l’efficienza potrebbe essere bassa non a causa di come la risorsa opera, ma perché, ad esempio, essa ha registrato una diminuzione del carico di lavoro a lei richiesto). I tempio standard, quindi, rappresentano la base delle principali misurazioni di performance di produttività; si tenga comunque presente che, essi, non sono universali, ma vengono determinati con riferimento ad una 69 specifica azienda, e rispecchiano le condizioni, le attrezzature, i metodi e le tecnologie adottate in quella specifica realtà. Essi possono poi essere utilizzati per le finalità più disparate: studio dei metodi, calcolo della produzione (oraria, giornaliera, mensile, annuale), calcolo delle risorse, programmazione della produzione, previsione delle date di consegna per i clienti, valutazione dei rendimenti, equilibratura dei carichi di lavoro, calcolo del fabbisogno di risorse… Bisogna capire però, da ultimo, come sia possibile stimarli; in tal senso, si distinguono quattro metodi di determinazione: 1) Stima basata sull’esperienza; 2) Time study (cronometraggio); 3) Tempi standard predeterminati (MTM); 4) Campionatura (work sampling). STIMA BASATA SULL’ESPERIENZA Trattasi di una tecnica piuttosto approssimativa e soggettiva, basata sulla conoscenza dei dati storici relativi a lavori analoghi e sull’esperienza dei valutatori; è valida quando non è necessaria una grande precisione. In sostanza, a fronte di un’attività da eseguire, ci si rifà ad un esperto per la stima del tempo di esecuzioni, il quale, spesso, fa riferimento ad attività simili, delle quali già è noto il tempo standard. Il vantaggio è quello di riuscire ad ottenere un valore in tempi rapidi e con un ridotto fabbisogno informativo; al contrario, però, occorre considerare che: L’efficacia del metodo dipende dalla disponibilità dei dati (i valutatori devono poter almeno fare riferimento ad un’altra attività quantomeno minimamente comparabile e compatibile); Spesso, il risultato che si ottiene, è molto impreciso, e soggettivo (stime fatte da soggetti diversi, danno risultati differenti); È fondamentale l’esperienza e l’aggiornamento del metodista. CRONOMETRAGGIO Trattasi di una tecnica per determinare il più accuratamente possibile, mediante un numero limitato osservazioni, il tempo necessario ad eseguire una determinata attività ad un determinato standard efficienza. Una volta che sono state definite tutte le caratteristiche dell’attività che si vuole misurare, si tratta realizzare e ricostruire fisicamente l’ambiente di lavoro, inserirvi all’interno l’operatore, chiedergli eseguire l’attività un numero n di volte, andandolo a misurare. di di di di Sono quindi due le peculiarità di questo metodo: Ha senso applicarlo solo se l’attività è ne determinata, in termini di metodo, caratteristiche dei materiali e dell’oggetto, attrezzature ed utensili da utilizzare, livello qualitativo desiderato ed organizzazione del posto di lavoro; La realizzazione concreta dell’ambiente di lavoro e dell’attività (anche se, le moderne tecnologie, stanno spingendo verso la programmazione di applicazioni per effettuare “prove virtuali”). 70 Scelto il processo da analizzare, i passi del metodo sono: 1. Suddivisione del processo in fasi identificate da precisi istanti di inizio e fine (ogni fase deve richiedere almeno qualche secondo per l’esecuzione ma non più di qualche minuto); 2. Definizione del tempo di riferimento ̅; 3. Definizione del numero di cicli di cronometraggio e del grado di precisione adeguato; 4. Cronometraggio e registrazione delle misure; 5. Calcolo del tempo standard (ST), che passa attraverso il: Calcolo del tempo medio di ciclo (o tempo base): - Calcolo del tempo normale (NT) tenendo conto del fattore di resa (RF) e della velocità dell’operatore: Eseguire la somma dei tempi normali dei singoli elementi per ottenere quello del processo considerato (NTC); Calcolare il tempo standard considerando le maggiorazioni per necessità personali e riprese (quindi tutti quei fattori che dipendono solo dall’operatore): SINTESI DI TEMPI PREDETERMINATI Il principio di base di questa terza tecnica è il fatto che, ogni movimento elementare richiede, se compiuto da un esecutore sufficientemente abile, praticamente sempre lo stesso tempo, a parità di condizioni; di qui la nascita dell’approccio “Methods – Time Measurement”, che si basa su di una tabella, all’interno della quale vengono riportati i i tempi di esecuzione standard per lo svolgimento delle varie attività (espressi in unità particolari, il “time measurement unit”, dove 1 TMU = 0,036 sec) I passaggi del metodo sono, quindi, io seguenti: 1. scomposizione del lavoro nelle suoi micromovimenti di base; 2. trovare il valore appropriato relativo ai micro-movimenti dalle tabelle relative; 3. eseguire la somma dei valori per ciascuno dei movimenti riscontrati; 4. aggiustamento dei valori attraverso i fattori correttivi; 71 5. determinazione tempo standard. I numeri riportati in specifiche tabelle sono il frutto di analisi svolte al fine di individuare dei valori universalmente applicabili per la misurazione dei tempi relativi ai movimenti riconosciuti di base per: arti superiori, occhi ed arti inferiori (per gli arti superiori, ad esempio, sono nove i possibili movimenti eseguibili: Raggiungere (Reach), Muovere (Move), Ruotare (Turn), Applicare pressione (Apply Pressure), Prendere (Grasp), Rilasciare (Release), Posizionare (Position), Disaccoppiare (Disengage), Girare la chiave(Crank)). Ad ogni movimento corrisponde una tabella che fornisce i dati di tempo in funzione dei fattori che ne condizionano la durata (pesi, distanze, forme degli oggetti, ecc.) I vantaggi del metodo MTM sono il fatto che: ha un minore costo di applicazione (ad esempio, rispetto al time study); gli standard possono essere predisposti prima dell’avvio della produzione (con il Time Study non è possibile); nuovi metodi di lavoro possono essere comparati senza che siano implementati, e senza che sia necessario realizzare prodotto e posto di lavoro; sono ridotte le possibilità di errore nella registrazione dei tempi e delle prestazioni; vi è una facile applicabilità: è possibile simulare qualunque cosa “a tavolino”, scomponendo e ricomponendo metodologie senza doverle realizzare fisicamente; definito metodo e la sequenza, poi, il tempo che ne deriva è del tutto oggettivo: si tratta solo di definire con il metodista quella che è la sequenza, e poi determinare univocamente il tempo necessario da tabella. Di contro, però, bisogna tenere conto che il lavoro deve essere frazionato in micro-operazioni e diventa inaccettabile se l’attività non è ripetitiva (il metodo diventa, quindi, piuttosto oneroso ad elevati livelli di dettaglio); i parametri scelti per la determinazione dei tempi potrebbero non adattarsi a qualsiasi situazione lavorativa (sono infatti innumerevoli i fattori che potrebbero introdurre una variabilità nei tempi di esecuzione e non tutti sono presi in considerazione nelle tabelle). CAMPIONATURA La campionatura, o work sampling, è un metodo particolarmente indicato per tutte quelle attività poco strutturate, per le quali non esiste un metodo universale di svolgimento che possa essere univocamente strutturato e derivato mediante le tecniche precedenti (rientrano, in questa categoria, le attività dei progettisti, il tempo di utilizzo di una risorsa da parte di un particolare ufficio / funzione, la quantificazione del tempo di set – up di una macchina, la valutazione del tempo di funzionamento di un impianto…). In sostanza, si può dire che il work sampling, più che aiutare nel definire i tempi delle attività, si propone di valutare le percentuali di tempo che una certa risorsa spende svolgendo differenti compiti: le proporzioni temporali osservate durante lo svolgimento del lavoro preso a campione sono, quindi, le medesime proporzioni di tempo spese nell’attività in generale. I suoi possibili utilizzi riguardano, quindi: il rapido ottenimento di una comprensione generale di un processo (ad esempio, comprendere il livello di utilizzo di gruppi di macchine); 72 l’ottenimento di maggiori informazioni per problematiche specifiche, oggettivando impressioni e valutazioni soggettive (ad esempio, rilevare la ripartizione dei compiti fra membri di un gruppo per una riallocazione delle attività e delle competenze); la fissazione di standard (non tanto in termini di derivazione dei tempi di esecuzione, bensì per quantificare le maggiorazioni, quali sono i tempi delle riprese, le pause fisiologiche e così via). In generale, comunque, trattasi di una tecnica tipicamente impiegata nelle seguenti circostanze: studio dei ritardi: serve a stimare la percentuale di tempo che i lavoratori perdono in ritardi inevitabili; i risultati sono utilizzati nello studio dei metodi di lavoro e nella valutazione dei costi delle attività; impostazione degli standard lavorativi: per impostare adeguatamente gli standard lavorativi l’osservatore deve possedere un’esperienza sufficiente a classificare le performance dei lavoratori; misurazione delle performance: il campionamento può sviluppare un indice delle prestazioni per la valutazione periodica dei lavoratori. È necessario compiere una serie di passi successivi. Anzitutto, occorre definire le attività che dovranno essere osservate. In secondo luogo, sarà necessario definire come compiere le osservazioni, in termini di “lunghezza dello studio”: ogni quante volte, a caso, sarà necessario recarsi per osservare l’oggetto dell’analisi? (se, ad esempio, la lunghezza dello studio sarà di 1000 osservazioni, nel caso in cui, in 350 casi, si osserverà una macchina intenta a fare set – up, significa che, nel 35% delle volte, questa risorsa sarà ferma per fare attività di riattrezzaggio; se, invece, 450 volte, si trova l’operatore intento a scaricarla, significa che, nel 45% del suo tempo di funzionamento, l’operatore sarà occupato a scaricare quella macchina). Bisogna, poi, considerare un campione preliminare, per ottenere la stima dei valori di alcuni parametri; questi parametri sono necessari per calcolare la dimensione richiesta del campione: A questo punto, è possibile preparare una tabella dove inserire i valori relativi alle osservazioni della risorsa, in momenti scelti casualmente; una volta osservate le attività, sarà possibile andare ad inserirvi, all’interno, i dati: 73 Alla fine dell’analisi, occorre decidere se continuare nelle osservazioni; nel caso in cui si ritenga di aver raccolto un sufficiente numero di osservazioni, sarà possibile: calcolare il tempo normale per unità o parte: calcolare il tempo standard per unità o parte: In sostanza, quindi, bisogna: 1. definire il problema, gli obiettivi e gli elementi da analizzare: in sostanza, si tratta di identificare quelli che saranno i possibili stati che potranno essere osservati (mutuamente esclusivi: ad esempio, se si sta analizzando la distribuzione del tempo di una macchina, si tratta di distinguere il tempo di lavorazione, il tempo di set – up, il tempo di carico, il tempo di scarico, il tempo di guasto…); 74 2. effettuare un breve periodo di prova, per verificare la completezza delle categorie e degli stati identificati; 3. definire il numero di osservazioni che si intende fare, eseguendole facendo attenzione alla loro casualità (bisogna arrivare in ogni momento possibile, non sempre a certi intervalli prestabiliti, proprio perché bisogna dare eguale probabilità, ad ogni stato, di potersi manifestare), e cercando di stratificarle il più possibile lungo la giornata (ad esempio: da 400 osservazioni al giorno, a 200 al mattino e 200 al pomeriggio, a 100 le prime due ore del turno e 100 le restanti due ore…); 4. verificare che il numero di osservazioni sia sufficiente e statisticamente significativo; 5. calcolare il tempo richiesto da ciascuna categoria e stato (definito, appunto, come il prodotto tra il tempo di lavoro osservato e la percentuale di trovarsi in quello stato, eventualmente corretto con fattori di precisione, come mostrato dalla formula di cui sopra). Per valutare la precisione del risultato ottenuto, ed il numero di osservazioni necessarie da effettuare, è possibile fare riferimento ad una tabella del seguente tipo: La prima colonna riporta la percentuale di tempo che, una qualunque attività, potrebbe occupare la risorsa; in corrispondenza di ciascun valore, viene riportato, in base del grado di precisione desiderato, il numero di osservazioni che è necessario effettuare. Ad esempio, per un’attività che occupa il 10% del tempo della risorsa in esame: se si vuole che, per tale attività, il tempo effettivo di occupazione oscilli tra il (quindi, che il tempo sia il 15% o il 5% effettivo), allora saranno necessarie 14400 osservazioni; per un grado di precisione più alto, del (quindi, che il tempo stia tra il 13% ed il 7% effettivo), saranno necessarie 40000 osservazioni; … In sostanza, più si desidera una bassa variabilità nel risultato ottenuto, più osservazioni sarà necessario andare a fare, aumentando l’onerosità dell’implementazione. 75 È questo uno dei principali limiti del work sampling: sarebbe poco sensato cercare di andare ad analizzare le attività più micro, che occupano poca parte del tempo della risorsa poiché, per ottenere delle informazioni precise, sarebbe necessario effettuare un numero di osservazioni particolarmente alto (si guardi allo stato che occupa solo l’1% del tempo totale: se si vuole, su di esso, la precisione massima, ovvero che il tempo atteso trovato si collochi in una variabilità del , dovranno essere necessarie 3960000 osservazioni!). Se utilizzato con le dovute cautele, tuttavia, consente di dare una rapida idea su come viene utilizzato il tempo di una data risorsa. In definitiva, è quindi possibile dire che, i vantaggi del campionamento, sono: Accettazione da parte dei lavoratori: mentre, ad esempio, il cronometraggio, è un qualche cosa che crea quasi fastidio all’operatore, il campionamento, se spiegato nelle sue finalità, risulta essere molto meglio accettato (si mostra in che cosa consiste, si descrivono gli stati possibili e si sottolinea che, a caso, si andrà a guardare lo stato in cui, la risorsa, si trova: non si sta in alcun modo valutando le sue modalità di svolgimento, cosa che, invece, potrebbe sembrare nel campionamento); Permette l’analisi di attività poco strutturate; Si può utilizzare contemporaneamente per più operatori e macchine (si può pensare di fare un campionamento su tutte le macchine di un reparto, di tutte le risorse di una funzione…); Chiunque può effettuare queste rilevazioni, senza alcun particolare tipo di addestramento: è sufficiente dire quando esse dovranno essere registrate, dopodichè si potrà ottenere, in tempi rapidi, una panoramica di ciò sta succedendo; Basso costo di implementazione. Di contro, i limiti, sono rappresentati da: La bassa idoneità agli studi di metodo: si va a guardare solo qual è l’istante in cui ci si trova, non come viene eseguita l’attività caratterizzante quello stato; Non è uno strumento per definire i tempi standard, ma semplicemente aiuta a capire come vengono utilizzate le risorse e come, queste, impiegano il loro tempo; Come visto, risulta poco preciso nel caso di attività di breve durata e poco incidenti sul tempo di utilizzo delle risorse. Chiusa questa panoramica sulle principali metodologie di misura del lavoro, è opportuno sottolineare, in conclusione, come, i tempi standard, non siano delle variabili statiche, bensì dinamiche: essi cambiano ogni qual volta vengono introdotte delle modifiche ad uno o più elementi che lo influenzano; nel particolare, si fa riferimento a cambiamenti in termini di processo e/o prodotto (se, la cassa di un prodotto, non dovesse più essere montata ad avvitamento, ma con un meccanismo automatico a scatto, l’esecuzione dell’attività di montaggio sarà, ovviamente, più breve; se, all’operatore, viene dato un avvitatore elettrico in luogo della chiave in acciaio, è altresì evidente come, tale tempo, diminuirà). Teoricamente, quindi, ad ogni cambiamento sarebbe necessario un riaggiornamento dello standard; in realtà, poiché, questo, sarebbe estremamente oneroso, la logica seguita è quella di rivederlo solo ogni qualvolta si registri un disallineamento sensibile, il che segue, in genere, la regola delle curve di esperienza: tale tempo tende a decrescere, con una certa legge, al raddoppiare della produzione cumulata (in sostanza, 76 percorrendo le curve di esperienze, modifiche di prodotto, di capacità, di processo e di attrezzature inducono modifiche allo stesso tempo standard teorico). APPROCCIO LEAN E TEMPI STANDARD Fino ad ora, si è approcciato il problema della misura del lavoro seguendo la filosofia tradizionale; ma qual è il ruolo di tali standard nell’ambito dei principi lean? Se è vero tutto quanto è stato detto, è facile concludere come, nell’approccio lean, la definizione degli standard sia un aspetto frenante, mal visto, poiché rappresentano un blocco all’innovazione ed al miglioramento; il tempo standard, nella sua ottica più semplice, significa, difatti “questo è il tempo teorico, che si deve ottenere eseguendo l’attività in quel determinato modo”; l’operatore non è stimolato né ad andare più veloce, né ad andare più lento (ovviamente). In maniera più precisa, è possibile dire che, nell’ambito lean, il riferimento non dovrebbe essere il tempo standard, ma il working standard: ciò che si mira a standardizzare non è il tempo di esecuzione delle attività, bensì la metodologia di svolgimento delle stesse; se, invece, si pone solo l’accento sul tempo, tutti saranno invitati ad usare lo stesso metodo, salvo poi misurare la prestazione solo in termini di tempo (non si guarda chi esegue correttamente la procedura definita, ma chi va più veloce o più lento). Un obiettivo basato sul tempo standard pone la completa attenzione all’ “andare in fretta”, il che è totalmente all’antitesi dei principi lean, che non vogliono spingere gli operatori ad “andare più veloci”, bensì a “farli lavorare meglio”. L’operatore che va più in fretta, non lo fa perché è diventato effettivamente più veloce, ma perché è riuscito a migliorare il suo metodo di esecuzione: l’operatore è stato “bravo” perché è stato in grado di seguire un metodo, migliorarlo, ottenendo una configurazione nella quale è in grado di risparmiare del tempo rispetto a prima (in sostanza: la velocità deve essere una conseguenza del miglioramento, non la manifestazione dello stesso; non è che il metodo migliora perché l’operatore va più veloce, ma l’operatore che va più veloce perché il metodo migliore). Il tempo standard segue, quindi, l’approccio tradizionale: non solo, il metodo, le regole, e le procedure, vengono imposte dall’alto, ma vengono anche dettati i tempi entro cui, tali metodi, regole e procedure, devono essere svolte; al contrario, laddove il focus è migliorare il metodo, la velocità ed il tempo hanno un’importanza marginale: l’operatore deve essere incentivato a migliorare il metodo, non ad andare più in fretta; in tutto questo, ovviamente, è fondamentale la presenza di un management che accetti il fatto che, non sono (solo) i livelli gestionali a definire ed innovare i metodi, ma anche quelli più operativi devono poter dire la loro. Ma allora, qual è la differenza tra un incentivo basato sul takt time ed uno sul tempo standard? Il takt time, come visto, è il ritmo al quale il mercato richiede vada l’azienda: sia produrre di più, che produrre di meno, sarebbe controproducente, poiché significherebbe andare contro la cadenza richiesta dal mercato; al contrario, un incentivo basato sul tempo standard, spinge le risorse a produrre quanto più possibile e quanto più velocemente possibile, proprio al fine di dimostrare di essere “bravi quanto il tempo teorico” (il takt time, inoltre, rappresenta anzitutto un riferimento: mostra se e come si è in ritardo, facendo sorgere la necessità di recuperare; tuttavia, nel caso in cui si sia in anticipo, è assolutamente necessario rallentare, a meno che non si vogli incorrere in spreco e sovraproduzione). La logica di fondo, quindi, è la stessa, in quanto, per entrambi i casi, si tratta di seguire un metodo; tuttavia 77 - Il metodo basato sul tempo standard è un qualche cosa che arriva dall’alto: il management l’ha disegnato così, lo impone, e gli operatori devono cercare di seguirlo alla velocità più alta possibile; Il metodo basato sul takt time è modulato dagli stessi operatori, e deve essere disegnato in modo tale da andare esattamente a quel ritmo, che è poi la cadenza richiesta dal mercato. L’impatto della variabilità e la misura delle prestazioni A differenza di quello che, il senso comune, porta a pensare, l’obiettivo di eliminazione degli sprechi è solo uno dei punti cardine della filosofia lean; altri due aspetti, parimenti importanti, sono la variabilità ed il sovraccarico. Per capire cosa si vuole intendere, si consideri il seguente esempio: come è possibile trasportare 12000 kg di merce su un carrello di capacità di 5000 kg? Nel caso in cui si optasse per 4 viaggi da 3000 kg ciascuno, si sarebbe nell’ambito dello spreco: si sta facendo “overprocessing”, mettendoci più viaggi del minimo necessario; Nel caso in cui si optasse per 2 viaggi da 6000 kg ciascuno, invece, si sarebbe nell’ambito del sovraccarico: si sta caricando oltre il lecito la risorsa che, in tempi non lunghi, potrebbe rompersi; Nel caso in cui si optasse per 2 viaggi da 5000 kg ed un viaggio ad 2000 kg, infine, si sarebbe nell’ambito della variabilità: si starebbe introducendo maggiore variabilità nel flusso di ciascun viaggio, rispetto alla soluzione “livellata” (3 viaggi da 4000 kg ciascuno). In particolare, trattato l’aspetto relativo agli sprechi, e tralasciando quello connesso al sovraccarico, è interessante parlare della gestione della variabilità, aspetto per il quale, la gran parte delle organizzazioni, risulta essere carenti: si presta troppa poca attenzione al livellare le attività e ad avere un ritmo. Attenzione che, variabilità e spreco, sono due temi comunque connessi: come emerge dal caso dell’esempio, non è raro che, la variabilità stessa, se mal gestita, possa indurre sprechi indesiderati. Interessante è andare a vedere quello che è il trade – off che si trovano ad affrontare le aziende, con riferimento al livello di WIP, la saturazione delle risorse ed il livello di variabilità di tali risorse: Se si volesse aumentare, ad esempio, l’utilizzo delle proprie risorse, a parità di variabilità aumenterà, inevitabilmente, il livello delle code; allo stesso modo, se si vuole diminuire il livello di code, senza intervenire sulla variabilità, bisognerà accettare un maggiore inutilizzo delle proprie risorse. 78 Tuttavia, risulta altresì evidente come, a parità di saturazione, un’altra efficace possibilità per poter ridurre le code è rappresentata dalla possibilità di agire sulla variabilità della domanda: se si è in grado, su uno stadio, di contenere la variabilità degli arrivi, si ha la possibilità di ottenere meno code a parità di saturazione. VARIABILITA’, INCENTIVI E MISURA DELLE PRESTAZIONI Fatta questa introduzione, risulta interessante andare a fare chiarezza su quella che è l’incidenza dell’effetto variabilità, in termini di prestazioni ottenute dal sistema, e dai singoli operatori, e di progettazione di un sistema di incentivazione adeguato. Per approfondire questo punto, si consideri un esempio: si supponga di considerare un call center, del quale si dispone dei dati, a diverso livello di dettaglio temporale, relativi alle telefonate processate da ciascun operatore su di un certo periodo. Il problema che ci si pone è il seguente: chi merita di essere premiato? In prima istanza, si sarebbe tentati a dire che, ad essere premiato, dovrebbe essere l’operatore che ha gestito il maggior numero di telefonate, in quanto significherebbe aver ottenuto il miglior output a parità di tempo lavorato; nel caso in esame, quindi, con riferimento alla settimana numero 40, l’operatore più “bravo” sarebbe Giacomelli. Sono, tuttavia, possibili altre logiche; ad esempio, poiché si dispone anche dei valori medi, relativi al pregresso dell’operatore, si potrebbe pensare di andare a premiare quello che, su un periodo più lungo (l’anno, non la settimana), è stato più produttivo: il migliore risulterebbe, quindi, Soldini. O ancora, si potrebbe pensare di premiare quello che, in quella settimana, è stato in grado di migliorare di più rispetto alla sua prestazione media: in questo terzo caso, a risultare il migliore sarebbe un operatore ancora differente, ovvero Sandri. Ci si concentri, in particolare, sul criterio che stabilisce un “premio” per chi è in grado di ottenere prestazioni che risultano essere superiori al suo valor medio storico: come poi si avrà modo di approfondire, un sistema di incentivi di questo tipo, risulta essere abbastanza iniquo; se difatti, esso viene introdotto in un sistema, senza che, a tale sistema, siano apportate modifiche (in termini di regole, metodi e procedure), ciò significherebbe dare, ad ogni operatore, il 50% di probabilità di essere premiato: 79 ipotizzando, difatti, che le sue prestazioni siano disposte casualmente come una gaussiana, nel 50% dei casi egli potrà ottenere un valore superiore alla media, nel restante 50% dei casi egli otterrà dei valori inferiori. Si provi, allora, a cambiare logica; si supponga di mappare le prestazioni degli operatori nel tempo, identificandone la media: Poiché, come detto, dargli la media come obiettivo target risulta essere poco stimolante (ed anche troppo facile da raggiungere: come detto, semplicemente per un puro fatto statistico, egli avrà il 50% di probabilità di riuscire a fare meglio di questo target, senza dover sforzarsi particolarmente), una logica più “equa” sembra essere quella di dargli un valore superiore alla media, ma comunque realistico, in quanto già fatto registrare in passato. Benchè questa possa apparire una logica più razionale, anch’essa non è esente da critiche e limiti. Fissare degli obiettivi numerici senza dare alcuna indicazione su quello che è il metodo opportuno per raggiungerli, risulta solo frustrante per gli operatori: l’obiettivo è solo un’esortazione a raggiungere una particolare meta ma, tuttavia, occorre considerare che, ogni sistema, è in grado di erogare un output che non è fisso, ma che è affetto da variabilità; per questo motivo, a procedure date, si possono creare situazioni in cui vi sono risorse che rallentano perché pensano di aver già fatto quello che serve, ed altre che, invece, si vedono in situazioni sfavorevoli, “correndo a più non posso” per riuscire a raggiungere gli obiettivi assegnati. Come detto, tutti i sistemi sono caratterizzati da una variabilità dell’output; tale variabilità, tuttavia, non è tutta uguale, ma deve essere distinta in quella quota parte insita naturalmente nel sistema e quella, invece, definibile “eccezionale”: All’interno della variabilità “normale” ci sono quelle note come cause comuni, ovvero eventi di tipo casuale che rientrano nell’ambito del normale funzionamento del sistema, e che - Sono responsabilità del management; - Il personale operativo non deve tentare di correggere con azioni per compensarle (otterrebbe solo un effetto di aumento della variabilità); - Coprono il funzionamento del sistema (rendendo complesso il processo di miglioramento); All’interno della variabilità “eccezionale”, invece, ci sono quelle note come cause speciali, ovvero eventi particolari ed anomali che influenzano l’andamento del sistema e che: - Rendono il sistema instabile; - Sono occasioni per identificare sprechi ed opportunità di miglioramento; - Possono essere responsabilità dell’operatore. 80 È evidente come non sia possibile andare a premiare, né punire, una risorsa che ottiene una prestazione all’interno di una variabilità normale: proprio perché, come detto, si è nell’ambito di una variabilità normale e casuale, statisticamente, metà delle sue prestazioni e del suo output sarà sopra la media, l’altra metà sotto. Il fatto che esista questa variabilità intrinseca è dimostrato dal fatto che, in uno stesso sistema, con stesse regole e procedure, differenti team ed ambiti aziendali sono in grado di ottenere dei risultati anche molto discrepanti; non per questo, però, sarà lecito andare a premiare il team X perché ha ottenuto una prestazione migliore del team Y (e, viceversa, andare a punire quest’ultimo). Le risorse non fanno altro che seguire fedelmente le procedure ed i metodi “dettati dall’alto”: ammettendo, appunto, che vi sia una perfetta aderenza a queste consegne, è del tutto normale che, l’output, vari rispetto ad un valore medio; è il sistema che, per come è progettato, è in grado di determinare questa variabilità e casualità. Se tutti si comportano allo stesso modo, seguendo le stesse regole, non ci si deve stupire se si ottengono risultati differenti: è del tutto “normale”, e ciò non dipende dal fatto che uno ha agito meglio o peggio rispetto agli altri, ma dal management, che ha definito quelle procedure in modo tale da determinare quel possibile range di risultati. È per questo motivo che, parlando delle “cause comuni”, si era detto che, esse, possono essere fatte risalire al management: sono i livelli dirigenziali che definiscono le regole e le procedure e che, quindi, si fanno carico della maggior parte delle responsabilità sull’output e sulla variabilità del sistema; tale elemento, può proprio essere messo in evidenza andando a studiare quello che è l’andamento del sistema, ed andando a riconoscere quelle che sono le cause di variabilità normale e quelle che, invece, sono fattori eccezionali. È per questo motivo che, fissare un numero ed un target a prescindere (sia esso la media, sia esso un valore più elevato e già ottenuto), senza mettere l’operatore in condizione di poter modificare le procedure del sistema e le sue modalità di lavoro, risulterà solo frustrante: l’unica leva che egli avrà a disposizione sarà l’impegno e lo sforzo personale. Al contrario, quando si fissano gli obiettivi, bisogna proprio tenere conto di questa variabilità “normale” insita nel sistema, mettendo quindi le risorse nella condizione di disporre di tutti gli elementi per poter gestire questa eventuale variabilità, migliorando le procedure, cambiando i risultati, ed avendo effettivamente, sotto il loro controllo, la possibilità di raggiungere il risultato. Come detto, ciascuna di quelle che sono state definite “cause comuni”, la si può ipotizzare come una variabile casuale; la somma di tali variabili casuali darà una distribuzione gaussiana: Controllo statistico: dato il valor medio, l’intervallo 𝜇 𝜎 conterrà circa il 99,7% degli eventi; tutti i fenomeni che ricadono all’interno di questa banda possono, appunto, essere considerati “normali” mentre, quelli nelle code, fanno riferimento a cause speciali; è per questi che varrà la pena andare ad analizzare quanto successo, cercando di identificare la causa, comprenderla e, possibilmente, rimuoverla 81 Quindi, l’obiettivo dell’analisi è quello di identificare le cause specifiche, che non dipendono dalla variabilità del sistema, ed andare ad analizzarle (sono quelle i “veri” problemi): tutto ciò che, invece, è variabilità naturale, è da imputare al management, ed è compito del management ridurla; neanche a ricordarlo, si è più volte sottolineato come, rimuovendo tutti quegli eventi che dipendono dalle procedure e dalle modalità di funzionamento del sistema, la variabilità che impatta sul sistema è molto minore, il che consente di ottenere automaticamente una riduzione del tempo di attraversamento atteso, riuscendo ad aumentare l’output, a parità di saturazione e senza dover ricorrere a straordinario. LE CARTE DI CONTROLLO STATISTICO Come ampiamente sottolineato, dare semplicemente un target di miglioramento delle prestazioni, senza tuttavia andare ad agire sul metodo, e cambiando le dinamiche di funzionamento del sistema, risulta essere inutile: semplicemente si sta dicendo alle risorse di “impegnarsi” di più, senza, tuttavia, metterle in condizione di poter ottenere degli effettivi ritorni da quei maggiori sforzi (non vi è alcun cambio nelle procedure). Far dipendere le prestazioni dall’atteggiamento e dalla voglia di lavorare degli operai e degli impiegati non è l’approccio corretto: è fondamentale che, il management, comprenda ed accetti il fatto che, il sistema, ha in sé insita un certo range naturale di variabilità, che determina incertezza nelle prestazioni e nell’output ottenuto; tale variabilità, si lega proprio a come è strutturato lo stesso sistema (in termini di procedure, regole e sistema informatico): qualunque prestazione che varia all’interno di quel range non è imputabile a chi esegue le procedure ma a chi, quelle procedure, le ha definite (responsabilità manageriale). Nel comprendere quella che è una variazione naturale, che determina un’esigenza di azione sul sistema, e quella che è una variazione anomala, per la quale occorre intervenire andando a rimuoverne le cause specifiche, in ambito manufatturiero si utilizza uno strumento che, nel 1945, fu introdotto dallo stesso Deming (e che, egli, elaborò quando fu mandato in Giappone per supportare la ricostruzione dell’economia dopo i disastri della Seconda Guerra Mondiale): la carta di controllo. Le carte di controllo permettono, appunto, di analizzare lo stato di controllo del processo: esse, in sostanza, sono strutturate in modo tale da monitorare l’andamento del sistema in tempo reale, permettendo di individuare, in tempo reale, l’eventuale passaggio tra stati (nello specifico, da “in controllo” a “fuori controllo”). Tramite un’analisi grafica, le carte di controllo permettono, quindi, di monitorare l’andamento dei principali attributi e variabili del sistema. Il punto di partenza lo si è già accennato in precedenza: il sistema si caratterizza per una variabilità casuale (normale ed eccezionale), che si distribuisce come una normale; per tutti gli eventi che si collocano nelle code, la casualità diventa sempre meno probabile e, quindi, ha senso andare ad approfondirli; al contrario, per tutti gli altri, non ha senso un’analisi, in quanto rientrano nel “normale” funzionamento del sistema. La logica alla base delle carte di controllo è quella di verificare le condizioni di stabilità del processo prendendo, in successione, diversi campioni della produzione: 82 Come detto, si considera “naturale” la variabilità compresa nell’intervallo ; se, tutti gli eventi, rientrano in questa banda, allora il sistema può dirsi in controllo, e tutta la variabilità dipende solo ed esclusivamente dalle regole e da come il sistema è stato disegnato; in un caso di questo tipo, la responsabilità del miglioramento, e della qualità in uscita, è tutta del management: non avrebbe alcun senso assegnare degli obiettivi agli operatori, a meno che non si ammetta di farli agire sul metodo. La media è data, e tutti gli eventi oscillano tra , anche se tutti seguono le regole e le procedure predefinite: imporre che venga raggiunto un nuovo livello di output, senza cambiare la struttura procedurale di base, è del tutto irrazionale (proprio perché, in base a queste regole, è “normale” che si abbia quella certa variabilità). Il management “cieco”, che non si accorge di questo, e che decide comunque di assegnate dei target iniqui al proprio personale, mette questi ultimi nella condizione in cui, non avendo altre leve a disposizione, essi saranno portati a “barare” e “giocare” con i numeri (ad esempio, allocando ad una commessa costi che non sono di sua competenza, oppure modificando i valori sul livello di output effettivamente ottenuto). Il controllo statistico, comunque, conferma quanto già si era concluso in precedenza: il 95% delle cause rappresentano delle anomalie normali ed insite nel sistema, che dipendono dal management e dalle regole definite (e, come detto, gli effetti di questi eventi non possono essere imputati agli operatori, che non ne hanno alcuna colpa); al contrario, solo il 5% delle cause sono dettate dalle risorse, e sono degli eventi del tutto eccezionali. La conclusione è presto tratta piuttosto che focalizzarsi su come operano gli operatori, appare più opportuno ed efficace focalizzarsi su come sono state definite le regole in quanto, un miglioramento nella gestione del sistema, consentirebbe di ottenere dei benefici ben maggiori rispetto al miglioramento dell’esecuzione delle attività da parte del personale. Ma, quindi, com’è possibile costruire una carta di controllo? La base di tutto è il campionamento; la media di un campione, difatti, risulta essere un buon estimatore della media della popolazione e, inoltre, la distribuzione delle medie dei campioni tende ad una normale. Inoltre, il campione, ha una varianza che può essere utilizzata per ottenere ulteriori informazioni: la varianza delle medie dei campioni è, difatti, pari alla varianza della popolazione al quale viene rapportata la numerosità del campione. In sostanza, è possibile costruire delle semplici carte di controllo (le più elementari sono quelle cosiddette “X bar”) andando a graficare: - L’andamento della media di ciascun campione considerato; 83 - Il range di ciascun campione (ovvero la differenza tra massimo e minimo); Come si può osservare, per ognuna di queste due variabili monitorate (media e range), è possibile stabilire dei limiti superiori ed inferiori: Per la carta della media, il valore centrale rappresenta la media delle medie calcolata per ciascun campione, mentre l’upper ed il lower limit sono ricavati sulla base di costanti tabellate (A2) che dipendono dalla dimensione del campione; Per la carta della varianza, il valore centrale rappresenta il range medio calcolato sui campioni, mentre, anche in questo caso, l’upper ed il lower limit sono ricavati in funzione di costanti tabellate (D3 e D4). La logica di lettura è la seguente: - Tutti i punti che fuoriescono i limiti rappresentano delle anomalie: è necessario andarle ad analizzare, capirne la causa e, se possibile rimuoverla; - Tutti i punti che rientrano nella banda dei limiti si muovono all’interno della normale variabilità del sistema, che risulta essere in controllo; se si vuole limitare questa varianza, sarà necessario andare ad agire sulle procedure. Si tenga presente che, all’aumentare della dimensione del campione considerato, i limiti di questi strumenti diventano più stringenti, non tanto perché si ha bisogno di un controllo più rigido, ma perché è la varianza stessa dei valori delle medie a ridursi: più il campione è ampio, più si ha probabilità che, i singoli valori puntuali, si compensino, rendendo quindi i valori medi molto più simili da campione a campione. In sostanza, le medie di campioni di grandi dimensioni, avranno valori poco differenti l’uno con l’altro: sarà quindi necessario restringere la banda di controllo, al fine di riuscire a cogliere anche i minimi spostamenti. Attenzione che, anche nel caso in cui tutti i punti rientrassero all’interno della banda, giudicando il sistema in controllo statistico, si potrebbe pensare di andare a suddividere ulteriormente la carta in sotto aree (non solo , ma anche o ): 84 Questo consente di cogliere ulteriori comportamenti anomali o pattern particolare; ad esempio, nel caso della rappresentazione di cui sopra - Si hanno ben 9 punti superiori alla media, il che, comunque, rappresenta un’anomalia poiché, la probabilità che questo accada, è la probabilità composta 0,59 (probabilità che un punto stia sopra la media posto che, altri n, sono già superiori a questo valore); varrebbe, dunque, la pena analizzarne le ragioni; - Si hanno 6 punti di fila in costante crescita (anomalo); - Due punti su 3 figurano sempre essere nella zona A; - Possono poi emergere dei pattern e/o dei comportamenti ripetitivi (ovvero un qualche cosa che si ripete e che è strutturale dentro il sistema). CONCLUSIONI: GESTIONE DELLE RISORSE, DELLE PROCEDURE E DEL SISTEMA Il messaggio è quello più volte ripetuto: il management dovrebbe dedicare più tempo a gestire il sistema, le regole, l’input ed il training delle persone, piuttosto che concentrarsi semplicemente sul gestirle in maniera rigida e misurarle, progettando dei sistemi di incentivi per capirne la bravura. Far ruotare il tutto attorno alla misura delle prestazioni, invece che sui metodi di lavoro, porta solo a stressare di più le proprie risorse, non aiutando a migliorarne le performance: come detto, assegnare un target, pur challenging che sia, senza dare gli strumenti per poter modificare le procedure ed agire sul sistema, è frustrante e contraddittorio, poiché significa far impegnare le risorse al massimo senza permetterle di ottenere veramente il massimo (statisticamente, la risorsa “normale”, il 50% delle volte, farà meglio della media, il 50%, invece, peggio; una risorsa che profonde il massimo impegno, al massimo potrà fare meglio il 60% delle volte e peggio il 40%, ma non riuscirà ad ottenere tanto di più). Bisogna cambiare ottica: la misura non deve più essere fatta con l’obiettivo di valutare le risorse, ma per capire come dare alle persone gli strumenti per migliorare il sistema; in definitiva, si tratta di andare a misurare il sistema, non le persone. Valutando l’output e le prestazioni serve a capire quelli che sono gli elementi che permettono di migliorare il sistema: per questo, è essenziale che l’operatore sia coinvolto in questa misura; è lui la persona esperta e competente e, insieme a lui, sarà opportuno analizzare criticamente queste misure per metterlo in condizione di apportare successivi miglioramenti. In sostanza, le misure devono essere integrate nel lavoro e, soprattutto, essere funzionali ad un dato flusso di valore: l’operatore deve essere in grado di “misurare come lavora”, ed avere visibilità su queste misure, perché questo gli permette di correggersi e/o saper cogliere eventuali opportunità di miglioramento. Al contrario, se si chiedesse, agli operatori, di compensare autonomamente un fenomeno che non ha cambiamenti strutturali, ma casuali, si otterrà solo un deterioramento delle prestazioni, con più alta variabilità: per assurdo, si otterrebbe una dispersione più alta che se non si tentasse di fare nulla; come detto, nel caso, si starebbe cercando di correggere un qualcosa che è naturale nel sistema, aumentandone inesorabilmente la variabilità. Si sottolinei inoltre come, per ottenere un output più regolare e maggiormente aderente alle caratteristiche desiderate, non è solo sufficiente andare a lavorare sulle regole che governano il sistema, ma anche sull’input. 85 Soprattutto nell’ambito dei servizi, troppo poco tempo è dedicato all’analisi della domanda ed alla sua composizione: tanto più la domanda e l’input risulta essere caratterizzato da variabilità, difatti, quanto più alta sarà la probabilità di ottenere prestazioni ed output affetto da medesima (o amplificata) variabilità. Si consideri, ad esempio, il caso di un call center: il management, spesso, è focalizzato su misure di produttività del tipo “telefonate gestite dall’operatore nell’unità di tempo”, senza, tuttavia, analizzare effettivamente la composizione di tale domanda, ovvero il perché il cliente ha chiamato. Il primo principio della filosofia lean è il fatto che “ogni attività dell’azienda deve creare valore per il cliente”; ciascuna richiesta del cliente, tuttavia, non è detto che rientri sempre all’interno del valore, in quanto occorre distinguere tra: Value demand: richiesta, da parte del cliente, fatta specificatamente per ricevere il prodotto/servizio erogato dall’azienda; Failure demand: tutte quelle richieste che vengono ricevute, da parte del cliente poiché, con la prima risposta, non si è riusciti a dare un output completo e soddisfacente (in termini di tempi e modi richiesti). Si pensi, ad esempio, ad un’azienda che offre il servizio di riparazione dei suoi prodotti in garanzia, con un tempo medio di restituzione pari a 2 giorni: - Il cliente invia la richiesta di riparazione ed il prodotto: value demand; - Passati 2 giorni, non avendo notizie, il cliente contatta l’azienda per avere un aggiornamento: failure demand; - Passati altri 2 giorni, non avendo ancora notizie, il cliente contatta l’azienda per avere un ulteriore aggiornamento: failure demand; - … È evidente che se, in principio, invece che vendere una prestazione media, si fosse dato un valore più verosimile (non 2 giorni di attesa, ma 4 o più), il cliente non si sarebbe trovato nella condizione di dover contattare altre due volte l’impresa; si sono avuti tre contatti, invece che uno, semplicemente perché si è avuto un sistema che non ha funzionato correttamente, in quanto crea dello spreco (in termini di failure demand): il contact center ha un input che è il triplo di quello che dovrebbe essere effettivamente semplicemente perché incapace di dare le giuste informazioni al cliente. Ecco quindi che, invece che analizzare passivamente i dati di input, e studiare i metodi di ottimizzazione delle risorse più complessi, sarebbe sufficiente approfondire la natura della domanda in ingresso e, eliminando sprechi inutili, si avrebbe la possibilità di razionalizzare la gestione in maniera automatica (nel caso, si divide per tre l’output, potendo così liberare risorse…). Al solito, cambiando l’ottica di visione dei problemi, si ha la possibilità di far emergere opportunità fino ad un certo punto, inesplorate: nel caso, si tratta di porre attenzione all’analisi della domanda, assumendo soprattutto l’ottica del cliente, e cercando di capire le caratteristiche della domanda (in termini di natura e contenuto delle richieste; si ritorna a quella classificazione “runners – repeaters – strangers” che già si aveva avuto modo di approfondire). Questo è particolarmente critico nell’ambito dei servizi: mentre, difatti, nel manufatturiero, l’obiettivo è quello di ridurre a zero la variabilità, nei servizi questo non è possibile, poiché significherebbe azzerare la diversificazione nelle esigenze delle richieste del cliente; questo, al limite, è possibile per i mass services; 86 laddove, tuttavia, c’è anche una minima interazione con il cliente, la variabilità non è eliminabile, e deve essere efficacemente gestita, in particolare dal front office, che deve farsi carico di impattarla, smorzarla, e comunicarla, in maniera quanto più possibile livellata, al back office. Il modello ideale per la gestione della domanda e della variabilità in aziende di servizio, orientate all’approccio lean ed alla soddisfazione del cliente, è quello ad imbuto che: - In ingresso al front office, si può avere tantissima variabilità, che deve tuttavia essere opportunamente gestita e smorzata; - Incanala poi, al back office, richieste riconducibili a processi e servizi standard; il back office, in sostanza, deve ricevere un input che, in larga parte, risulta riconducibile a procedure standard e predefinite, tenendo aperto, al più, un canale di tipo “strangers” per poter gestire le eccezioni. Si ritorna a considerazioni già fatte: è necessario dare grande autonomia al front office, conferendogli grande discrezionalità, dandogli obiettivi ampi e possibilità di comprendere e interpretare le esigenze del cliente. Criteri ed approcci per la realizzazione delle celle e del flusso continuo Parlando di Value Stream Mapping, si è avuto modo di vedere come, uno dei principi fondamentali nel ridisegno dell’azienda in ottica future state fosse proprio l’esigenza di mettere a flusso opportunamente degli stadi, andando a creare una cella di produzione; arrivati a questo punto, è opportuno fare chiarezza su quelle che, in realtà, sono le effettive modalità e condizioni di realizzazione di un’organizzazione di questo tipo, facendo riferimento al caso della Apex, azienda che realizza tubi per impianti frenanti. Il suo current state risulta essere così rappresentabile: Riprogettando l’azienda in ottica lean (facendo riferimento agli 8 punti ampiamente discussi), si è deciso di andare a realizzare un future state caratterizzato da una cella produttiva che include l’assemblaggio ed il testing, a monte della quale si trovano i macchinari per la deformazione delle estremità (fase immediatamente a monte) e quello per l’estrusione dei tubi (primo stadio): 87 Benchè, il miglioramento, sia sensibile, in realtà, i risultati ottenuti e le nuove prestazioni non risultano essere effettivamente allineate ad i risultati che ci si sarebbe aspettati sulla carta; in particolare, andando a raffrontare quello che è l’output orario previsto, rispetto a quello effettivamente ottenuto, emerge un forte disallineamento: Come si può osservare, non solo l’output risulta essere differente rispetto a quello pianificato ed atteso (il che porta ad esigenza di straordinario), ma altamente instabile e variabile (ovvero: non è sempre dell’X% più basso, ma questo dislivello può variare di ora in ora); ciò significa che, questo stadio, che rappresenta il metronomo dell’azienda, non segue un ritmo costante. Perché si hanno questi problemi? Potrebbe essere che - La macchina non risulti essere sufficientemente capace; - La macchina abbia una disponibilità troppo bassa; - Ci sono materiali in ingresso che mancano per effettuare le operazioni di assemblaggio; - La difettosità in ingresso abbia raggiunto un livello critico; - … Ma soprattutto: ogni qual volta uno di questi fenomeni si verifica, chi se ne fa carico? 88 Se ben si ricorda, esistono delle regole basilari che devono essere rispettate per portare avanti un approccio realmente lean (Toyota’s DNA); la prima cosa da fare, quindi, è verificare se, effettivamente, si abbia il rispetto dei principi basilari: Come le persone lavorano: ogni compito ed attività deve essere dettagliatamente specificata in termini di contenuto, sequenza, tempo richiesto ed output atteso; Come le persone si relazionano: per ogni problema, bisogna sempre sapere chi avvisare; ciò significa che, non è l’operatore ad essere incoraggiato a risolvere le problematiche da sé ma, per ciascuna categoria di problemi, deve esistere un punto di accumulazione; Come è organizzato lo stabilimento di produzione: il cammino di ogni prodotto deve essere chiaro, semplice, ed univoco (il che, lo si ricordi, non significa che, ciascun cammino, è dedicato solo ed esclusivamente alla realizzazione di un prodotto, ma che, invece, ogni specifico prodotto segue sempre e solo il percorso che è stato progettato “sulla carta”); Come migliorare: ogni miglioramento deve provenire dal basso, in quanto, ciascun livello, fino ad arrivare anche al più umile operatore, ha in mano gli strumenti per poter contribuire all’innovazione della procedura; ogni suggerimento viene testato e validato seguendo il metodo scientifico. Posto questo, si analizzi quella che è la struttura della cella (dalla rappresentazione di cui sopra): - Dapprima si ha la macchina piegatrice, che prende, in input, il tubo che è stato deformato alle estremità: i vari tubi deformati giacciono all’interno di un cassone, il che significa che si ha esigenza di un operatore che carichi il tubo sulla macchina e, successivamente, lo scarichi; - Dopo si hanno le fasi di assemblaggio: sempre con il supporto degli operatori, le macchine vengono caricate e scaricate con i tubi, sui quali vengono eseguite le attività; - Infine, un terzo operatore si occupa del carico e scarico sulla macchina destinata al fissaggio ed alla saldatura delle parti; - Nel momento in cui, dalle fasi precedenti, vengono accumulati un certo numero di tubi, li si dà in ingresso alla macchina di testing, che ne valuta la tenuta: tutti quelli che passano questa valutazione sono, a tutti gli effetti, prodotto buono, che verrà trasportato dalla cella al magazzino prodotti finiti. Da questa descrizione, emergono almeno quattro aspetti che possono essere migliorati: 1. L’operatore addetto alle prime due stazioni (piegatura e primo assemblaggio) non lavora in modo continuativo, bensì a “lotti” di 25 tubi (in sostanza, aspetta che la macchina piegatrice abbia riempito il contenitore con almeno 25 tubi prima di portarli all’assemblaggio); 2. Ciò fa sì che, la cella di produzione, sia in realtà una “one piece flow” solo apparentemente: ci sono, difatti, delle scorte interoperazionali tra una stazione e l’altra; 3. Ogni operatore è strettamente legato alla macchina di sua responsabilità (che carica e scarica con continuità); in realtà, come poi si avrà modo di vedere, la filosofia lean porta a disaccoppiare l’operatore dalla sua macchina; 4. La cella, benchè progettata secondo uno schema ad U, risulta essere molto ampia, proprio per permettere il posizionamento delle scorte: ciò significa maggiore occupazione di spazione maggior strada che gli operatori devono fare per muoversi. In sostanza, benchè, dalla situazione inziale, si sia già ottenuto un sensibile miglioramento, è necessario (e possibile) fare di più: 89 Rendere stabile l’output realizzato (e, possibilmente, allineato a quanto atteso); Diminuire lo spazio occupato; Ridurre ulteriormente il tempo di attraversamento; Ridurre ulteriormente il numero di operatori ed aumentare la produttività; Dare alla cella la sua effettiva funzione di metronomo OPZIONI DI RIPROGETTAZIONE E PAPER KAIZEN PER LA GESTIONE DELLE RISORSE UMANE In generale, quando si decide di costruire una cella per una famiglia composta da due prodotti (semplificando la situazione: famiglia composta da due prodotti A e B), sono due le alternative possibili: 1) Dedicare una cella al prodotto A, ed una al prodotto B; 2) Moltiplicare il numero di celle, rendendo tuttavia ciascuna capace di realizzare tutti i prodotti della famiglia (A e B). È evidente che, a parità di flessibilità di volume di entrambe le strutture (non si ha alcuna differenza in tal senso), questa seconda soluzione risulta essere molto più flessibile al mix; come già avuto modo di dire parlando di gestione della variabilità, più si è in grado di aggregare, più si è in grado di dare stabilità al sistema (se la domanda del prodotto A è caratterizzata da una certa variabilità, così come quella del prodotto B, senza dubbio, i volumi aggregati dei prodotti A + B sono caratterizzati da una dispersione minore): uno dei concetti fondamentali per passare ad una visione di tipo lean è proprio il principio che vuole lo “scambio” tra un investimento in flessibilità al mix e l’ottenimento di una diminuzione della variabilità; è difatti dimostrato come, nella maggior parte dei sistemi, sia assolutamente più conveniente fare uno sforzo per investire in flessibilità, arrivando a produrre in sequenza anche prodotti differenti, piuttosto che perseguire una strategia di volume (quindi produrre a lottizzazione), dovendo però affrontare una variabilità di gran lunga maggiore. È difatti evidente come, un’azienda che decide di organizzarsi secondo lo schema previsto dall’opzione A, sarà esposta pesantemente ad una doppia variabilità di volume (quella del prodotto A e quella del prodotto B) che, per essere efficacemente affrontata, dovrà prevedere o la presenza di scorte, o il lavoro in straordinario (quindi, sempre e comunque, inefficienza: il rischio è quello di far variare continuamente l’utilizzo delle risorse); al contrario, nel secondo caso, le celle di assemblaggio sono costruite in modo tale da essere in grado di realizzare modelli di prodotti differenti, limitando le inefficienze e migliorando le prestazioni: in generale, si può dire che, più sono i modelli che la cella è in grado di realizzare, minore è la variabilità che dovrà essere gestita, maggiori sono le performance che si è in grado di ottenere. 90 La flessibilità è quindi un primo driver che deve essere considerato, e che sposta la decisione verso l’una o l’altra soluzione: se l’obiettivo è quello di ottenere maggiore stabilità di volume, andando a legare il mix alla domanda, e stabilizzandolo, la soluzione ideale è proprio la seconda configurazione (che, inoltre, consente di ribaltare questo vantaggio anche e soprattutto sui fornitori, esterni o interni che siano, che ricevono una domanda totalmente livellata). Esistono però altri elementi che devono essere considerati, quali: Il contenuto di lavoro: è evidente che, più i prodotti considerati si caratterizzano per delle attività simili da eseguire, più sono candidati ad essere lavorati all’interno della stessa cella (se, invece, il contenuto fosse molto diverso, le condizioni per realizzare un flusso continuo sarebbero più difficoltose da raggiungere); Le similitudini nel processo: qui non si parla tanto di attività da eseguire, bensì di risorse necessarie per eseguire tali attività (se così non fosse, la cella sarebbe “invasa” da macchinari, ognuno che si occuperebbe di soli pochi prodotti; diverrebbe quasi una situazione di mini reparti all’interno della cella); Il valore del takt time: se i prodotti hanno un takt time molto diverso tra di loro, si potrebbero avere dei problemi; in tutto questo, incide fortemente il volume richiesto per ognuno di essi (se, l’azienda, si trovasse a realizzare il prodotto B molto raramente rispetto ad A, metterli all’interno di una stessa cella potrebbe non essere più così conveniente: magari, si potrebbe pensare di dedicare, a B, una postazione fissa di realizzazione); Il posizionamento del cliente: se i prodotti fanno riferimento a mercati geograficamente distanti (ad esempio, A potrebbe essere venduto in Europa, B in Nord America), sarebbe insensato creare un'unica cella centrale (capace di realizzare entrambi i prodotti) che poi dovrebbe spedire alle differenti zone; più sensato sarebbe, invece, localizzare, realizzando due distinte celle più vicine ai mercati di riferimento. Posto questo, nel rivedere la struttura della cella, di modo da renderla più idonea al contesto operativo in cui si trova ad essere inserita, il punto di partenza è rappresentato dalla realizzazione di un documento che, nell’approccio lean, prende il nome di “paper kaizen”; in sostanza, si tratta, per ogni operatore inserito attualmente nella struttura, di andare a definire, in dettaglio, quelle che sono le attività da lui svolte in corrispondenza di ciascuno stadio di lavorazione. In che modo l’operatore risulta essere coinvolto? Che tempo gli richiede ciascuna attività? 91 Questa analisi consente, inoltre, di far emergere un interessante fattore: dettagliando le attività, si ha la possibilità di quantificare il tempo necessario alla macchina per effettuare le lavorazioni, il che si traduce in un conseguente tempo di inattività dell’operatore (l’operatore attende che la macchina abbia terminato la trasformazione prima di ricominciare il ciclo di attività). Questo tempo risulta essere particolarmente critico con riferimento alla fase di piegatura; in particolare, se si sommano i tempi, il primo operatore, che si occupa di piegatura e primo assemblaggio, ha un attesa di 17 + 4 = 21 secondi, il che è un’inefficienza non indifferente. A partire da questo documento, è quindi necessario migliorare la situazione, nel seguente modo: Eliminando i possibili inutili sprechi di attesa, soprattutto per il primo operatore; Introducendo uno scarico automatico delle macchine: benchè il lean, in genere, non sia molto favorevole all’automazione spinta, sono, in realtà, ammesse delle eccezioni; in particolare, ciò che è mal vista è la meccanizzazione a livello di singola operazione mentre, maggiormente considerata, è quella in termini di scarico dei pezzi (si tenga presente che, si parla di automazione della fase di scarico e non di quella di carico poiché, questo secondo caso, è molto più complicato da supportare: mentre, difatti, automatizzare lo scarico non è un’operazione assai complessa poiché, una volta finito di lavorare il pezzo, la macchina sa esattamente dove esso si trovi, riuscendo facilmente a recuperarlo e posizionarlo nel luogo desiderato, per il carico le cose sono diverse, poiché il pezzo potrebbe trovarsi dovunque; si tratterebbe di costruire un sistema che preveda il posizionamento dei pezzi in input sempre nella stessa posizione, il che è gestionalmente più difficile da ottenere); Trasformando quelle che, attualmente, sono attività realizzate a lotti (logica batch), in attività svolte in modo continuativo: ad esempio, invece che far spostare i tubi all’operatore solo ogni accumulo di 25, riprogettare il sistema in modo tale che, su base continuativa, l’operatore sia in grado di prendere il pezzo in ingresso alla cella, caricarlo sulla piegatrice, prendere il pezzo scaricato (in maniera automatica) dalla piegatrice e darlo in ingresso al primo assemblaggio; in questo modo, non si hanno sprechi, e gli operatori sono in grado di lavora di più ed in modo continuativo. In questo modo, il paper kaizen ha consentito di eliminare sostanziali affaticamenti agli operatori del processo di assemblaggio e della linea combustibile dell’Apex; in particolare, il contenuto di lavoro totale per fare un pezzo si è abbassato di 30 secondi, portandosi da 118 secondi a 88 secondi; questo miglioramento è attualmente più evidente perché, il ridisegno degli elementi di lavoro, ha aggiunto il passaggio del carico del tubo ogni ciclo invece che ogni 25 cicli. Infine, con gli elementi di lavoro ed i tempi alla mano, il management dell’Apex è da ultimo in grado di creare uno strumento “criticamente” utile, la tabella di bilanciamento dell’operatore, che rappresenta un grafico all’interno del quale viene rappresentata la distribuzione del lavoro tra gli operatori, in relazione al takt time. In tale tabella, ciascuna linea orizzontale corrisponde ad un secondo; viene, inoltre, messa in evidenza la linea del takt time (che, nel caso dell’azienda in questione, risulta essere pari a 40 secondi), ottenendo la seguente rappresentazione: 92 L’altezza di ciascun istogramma rappresenta il tempo relativo al contenuto di lavoro di ciascun operatore; è interessare notare che, i tempi di carico e scarico impiegati da ciascun operatore vengono inclusi nel diagramma, ma non il tempo di ciclo delle macchine, poiché, lo strumento della OBC, somma il solo lavoro umano, e non quello delle risorse materiali. Attenzione: la tabella fa riferimento alla situazione corrente (quindi dopo la realizzazione della cella, ma prima dei successivi miglioramenti); da essa, emerge in maniera evidente la situazione di inefficienza: ogni operatore ha un contenuto di lavoro considerevolmente più basso dei 40 secondi (takt time); in particolare, in due casi su quattro, il contenuto di lavoro totale dell’operatore risulta essere inferiore alla metà del takty time. Non solo quindi il materiale non fluisce in maniera continuativa nella cella (certe attività sono svolte lottizzando), e l’output ottenuto ha un andamento fortemente instabile, ma è anche chiaro come l’azienda stia utilizzando troppi operatori per realizzare la sua linea di prodotti. Si ricordi comunque che, tutti questi aspetti, non sono una critica alle performance dell’operatore, ma al processo: tutti questi sprechi trovano le loro radici nella progettazione e nella gestione del processo stesso. LA GESTIONE DI MACCHINARI E DEL LIVELLO DI AUTOMAZIONE Analizzata la situazione dal punto di vista degli operatori, occorre ora volgere lo sguardo ai macchinari ed agli impianti; in sostanza, una volta determinati i prodotti da realizzare nella cella, ed il relativo takt time, occorre domandarsi se, gli impianti che si stanno spostando per realizzare la cella sono effettivamente in grado di soddisfare il takt time; per farlo, ovviamente, è necessario che le operazioni siano assegnate in modo tale da: - Bilanciare correttamente i carichi; - Far sì che, ogni impianto, sia in grado di completare il ciclo, in ogni sua parte, all’interno del takt time (come più volte avuto modo di sottolineare, difatti, per ottenere la condizione di flusso continuo, è indispensabile che il “tempo di ciclo effettivo” di ogni macchina risulti notevolmente inferiore al takt time). Intendendo, con il termine “tempo di ciclo effettivo” Tempo ciclo macchina per pezzo (tempo di processamento) + tempo di carico e scarico (durante la quale la macchina non può lavorare il pezzo) + tempo di attrezzaggio diviso per il numero di pezzi tra gli attrezzaggi stessi Si ottiene la seguente tabella riepilogativa dei tempi di ciclo effettivi di ciascun impianto: 93 Come emerge, il tempo di ciclo richiesto da ciascun impianto è ben al di sotto del takt time, se si eccettua per quello del secondo assemblaggio: qualora la domanda dovesse aumentare (diminuzione del takt time), o gli impianti non fossero completamente capaci (in termini di percentuali di scarto realizzate), o completamente disponibili, tale macchinario potrebbe sorgere come collo di bottiglia del sistema. Osservando la distribuzione dei tempo, tra l’altro, è evidente qual è l’attività su cui occorre andare ad agire: bisogna assolutamente migliorare i tempi di carico e scarico spesi dall’operatore. In generale, in un contesto dove, gli impianti, non risultano mai completamente capaci e disponibili, e la domanda cliente è in continua evoluzione, il miglioramento continuo deve porre un obiettivo di tempo di ciclo effettivo delle macchine della cella che non superi mai l’80% del takt time; questo, non solo consente agli operatori di non dover aspettare gli impianti nell’esecuzione del loro intero ciclo, ma anche di disporre di un’eventuale extracapacità per poter fronteggiare picchi di domanda senza la necessità di dover effettuare degli investimenti in incrementi di capacità o ricorrere a straordinario. Nel caso in cui non fosse possibile lavorare al takt time, mantenendo quel margine desiderato del 20%, occorrerà fare una serie di interventi, quali: Migliorare i processi di carico, avvio e scarico (ovvero: diminuire i tempi di set – up e/o aumentare la disponibilità del macchinario); Eliminare lo spreco nel ciclo stesso, riducendo il tempo di processamento (ad esempio: accorciare i tempi e le distanze delle parti in movimento della macchina); Separare alcune delle attività compiute dalla macchina collo di bottiglia ed utilizzare una o più macchine per realizzarle; Utilizzare impianti più semplici e “mono funzione”, in grado di lavorare simultaneamente ed a tempi di ciclo più bassi; Installare, nella cella, due macchine dello stesso tipo, in corrispondenza del collo di bottiglia, alternandole ad ogni ciclo; Creare due celle invece che una (ciò può essere particolarmente adatto quando si desidera avere un vantaggio nel posizionare celle peacemaker separate vicino a clienti diversi); ovviamente, se nessuna di queste azioni darà risultati sperati, allora si sarà obbligati a portare fuori cella la/le macchina/e problematiche, disaccoppiandole dalla cella interponendo un sistema di tipo supermarket, e facendola operare, se necessario, su più turni; il disaccoppiamento del bottleneck dal peacemaker, mediante una logica a lotti, rappresenta comunque una logica estrema, e deve essere adottata solo ed esclusivamente di fronte a manifesta inefficacia di tutte le alternative precedenti. 94 Verificate che, gli impianti, possano effettivamente incontrare le esigenze in termini di takt time, bisogna guardare alla tipologia degli impianti da mettere nella cella. Nel caso della Apex, l’azienda possiede già tutti gli impianti di cui ha bisogno, essendo quindi possibile procedere rapidamente nella realizzazione della cella, riducendo i costi di investimento ed aumentando la responsabilità del proprio personale. Tuttavia, non è sempre detto che sia così: alcuni parti e macchinari potrebbero non essere adatti alla logica del flusso, rendendo la miglior scelta quello di sostituirle; quali sono le linee guida necessarie a progettare gli impianti richiesti nell’ottica di ottenere il flusso continuo? In genere, le alternative sono di due tipi: 1) Effettuare la progettazione nell’ottica di sfruttare una o più “super macchine”, in grado di eseguire molteplici attività con tempi complessivi di ciclo relativamente lunghi; 2) Optare per una serie di piccole macchine, ciascuna delle quali in grado di processare una parte del ciclo totale con (a differenza del caso precedenti); ovviamente, siccome il tempo di ciclo di una macchina “multi – funzione” sarà più lungo, la sua capacità sarà inevitabilmente più bassa rispetto ad una serie di macchine mono – funzione, in grado di operare più rapidamente. È evidente la differenza tra le due situazioni: Impianti semplici, che operano velocemente, sono in grado di fornire maggiore flessibilità alla cella nel momento in cui si ha la necessità di operare un cambio di produzione; se, ad esempio, si ammette di avere acquistato due macchinari multi – funzione, con tempi di processo molto prossimi al takt time (come nel caso della situazione di cui sopra), non c’è molto potenziale per affrontare un aumento di domanda o un’espansione della gamma, e l’unica via è quella di acquistare un’altra macchina; con una serie di impianti semplici (come il caso della seconda rappresentazione), invece, la linea o la cella ha la possibilità di richiedere incrementi di domanda e/o aumenti della gamma di prodotto senza il ricorso all’acquisto di ulteriori attrezzature. Inoltre, le macchine mono – funzione tendono ad essere più affidabili e meno costose rispetto a quelle più grandi e multi – funzione, riducendo anche l’eventuale tempo di attesa per il loro approvvigionamento (se non estremamente complesse, le competenze per realizzarle potrebbero essere possedute dalla stessa azienda manufatturiera). Si può quindi riassumere che: Le macchine grosse, più costose e con un maggiore grado di automazione, consentono di ottenere dei vantaggi in termini di economie di scala: si tratta di acquistare un unico grande macchinario, in grado di eseguire una molteplicità di operazioni su diverse linee di prodotto, potendo, così, spalmare il costo orario del macchinario su un volume di prodotti maggiore. La conseguenza di tutto ciò, tuttavia, è una centralità dell’elemento macchina, che consente di ottenere un costo 95 effettivamente più basso se e solo se, poi, in produzione, si è in grado di ottenere effettivamente la saturazione prevista in fase di pianificazione valutazione dell’investimento (al momento dell’analisi di fattibilità, il ragionamento sulle economie di scala era stato dimensionato sulla base di una certa percentuale X di saturazione: il vantaggio di costo troverà, tuttavia, effettivo corrispettivo solo se poi si sarà in grado di ottenere quel livello di saturazione); Le macchine più semplici, più piccole e meno complesse, sono più affidabili e flessibili, potendo essere idealmente dedicata ad una specifica linea di prodotto; questa scelta la si pagherà con una minore saturazione, aspetto però non così problematico ed incidente in quanto, rispetto alla soluzione “a grosso impianto”, il costo unitario di investimento risulta essere molto più contenuto. Nella filosofia lean, e per supportare la logica di flusso continuo, appare quindi evidente come, la seconda soluzione, risulti essere la più indicata; spesso, però, le aziende fanno di tutto per cercare di “incastrare” la prima soluzione, cercando di galleggiare in una configurazione che utilizzi più macchinari multi – funzione. Questo perché, la visione tradizionale, vede nell’efficienza anzitutto il massimo utilizzo delle macchine: un’azienda efficiente, e che non fa sprechi, è un’azienda che è in grado di saturare al massimo i suoi impianto. La filosofia lean mette in discussione questa “massima”; in realtà, gli elementi fisici di produzione non sono solo le macchine, ma anche le persone ed i materiali, inevitabilmente in trade – off tra di loro: se si prova a massimizzare l’utilizzo di uno di questi, necessariamente si deteriora l’utilizzo delle altre due categorie. Ad esempio: se l’obiettivo è quello di saturare al massimo i propri impianti, facendoli lavorare costantemente ed al ritmo più veloce possibile, si avrà bisogno di personale “extra” che garantisca questo continuo funzionamento, nonché si quantità “extra” di materiale tra i vari processi, per mascherare eventuali problemi e mantenere in funzione le macchine stesse. Analogamente, se si cercasse di massimizzare l’utilizzo dei materiali, nella condizione ideale in cui non si hanno magazzini, si avrà bisogno di personale “extra” e di un numero superiore di macchinari per far fronte ad eventuali fluttuazioni della domanda e guasti. Di grande interesse, però, è la massimizzazione dell’utilizzo delle risorse umane poiché, questi ultimi, rappresentano la risorsa più flessibile in assoluto: nell’ottica pull, se un codice non è stato richiesto dal processo successivo, è corretto che materiali e macchinari stiano fermi e non producano; al contrario, gli operatori possono spostarsi da un impianto all’altro, occupandosi di quelli che devono invece produrre, perché il loro codice è stato richiesto; la macchina non è molto flessibile (se è ferma, non può realizzare il prodotto richiesto da un altro processo, ce che attualmente previsto da un altro impianto), l’operatore, invece, lo è. Ciò significa che, quando si progettano le celle o le linee peacemaker, invece che guardare anzitutto alla massimizzazione dell’utilizzo degli impianti (spingendo verso l’adozione della soluzione con macchine multi – funzione), è anzitutto opportuno guardare a quella delle risorse umane: ciò che è conveniente avere come collo di bottiglia non sono le risorse immateriali, bensì gli operatori, in quanto caratterizzati da massima flessibilità. La filosofia lean è disposta ad accettare una sotto – saturazione degli impianti in cambio di una saturazione delle risorse umane, che deriva dal fatto di poterne sfruttare la flessibilità; tra l’altro, il fatto che le macchine restino ferme per un breve lasso di tempo ad ogni intervallo di takt time non è il massimo dell’inefficienza: al contrario, il peggiore spreco lo si avrebbe sovraproducendo, quindi facendole andare continuamente (per saturarle) e facendole produrre più velocemente del ritmo richiesto dal mercato. 96 È il fattore umano che deve essere saturato, in quanto sono queste le risorse critiche, in grado di far ottenere maggiore flessibilità: saturare al massimo un operatore, difatti, significa fargli eseguire differenti tipologie di attività e/o farlo operare su più linee di prodotto, il che significa che, la risorsa in questione, risulta essere destinata ad un volume aggregato più elevato (egli non segue solo l’operazione di tornitura, ma anche altre fasi del ciclo; egli non segue solo i prodotti di tipo X, ma anche quelli di tipo Y e di tipo Z; tutto questo è, ovviamente, possibile ammettendo una formazione multiskilled dell’operatore). Più si aggrega, però, più si è in grado di stabilizzare i volumi, rendendo la domanda in ingresso molto meno variabile: dotandosi di risorse flessibili, sarà quindi proprio possibile dedicarle a diverse attività e/o diversi prodotti, riuscendo a gestire meglio la variabilità che impatta sul sistema, proprio perché, quello che ogni singolo operatore vede, è un volume aggregato. È un circolo virtuoso: avere risorse flessibili consente di allocarle in diversi ambiti, quindi di aggregare i volumi in ingresso, riducendo la variabilità, e potendo saturare tali risorse senza, tuttavia, creare delle ulteriori code; banalmente, questo consente di aver bisogno di meno risorse per eseguire le stesse attività. Se, al contrario, si tentasse di saturare le macchine, per farlo, significherebbe semplicemente fargli realizzare più volumi di uno stesso prodotto e/o differenti prodotti, senza però intervenire in alcun modo in termini di flessibilità (non è una risorsa umana, che può essere formata per la gestione di diverse attività e/o prodotti: per rendere flessibile un impianto è necessario un investimento molto più ingente): in sostanza, non si contribuirebbe a diminuire la variabilità del sistema e, l’effetto che si otterrebbe, sarebbe quello di, a parità di variabilità, aumentare la saturazione il che, come noto, comporta un aumento della coda potenziale. Se si ottiene una maggiore saturazione della risorsa umana, invece, significa che, inevitabilmente, quella risorsa è (o è diventata) anche più flessibile, il che consente di diminuire la variabilità del sistema. La conclusione cui si giunge, è quindi, il fatto che non ha senso andare ad investire in macchine costose e di grandi dimensioni, per cercare di saturarle il più possibile ed ottenere dei vantaggi di costo; al contrario, è opportuno dotarsi di impianti di più piccole dimensioni, comunque avanzati dal punto di vista tecnologico, e di per sé già flessibili, spostando l’investimento in saturazione e flessibilità della risorsa umana (come detto, avere un elemento umano più flessibile significa maggiore possibilità di poterlo saturare, proprio perché abilitato ad occuparsi di differenti ambiti; dargli la possibilità di eseguire più operazioni, tuttavia, significa aggregare maggiormente i volumi, il che ha la desiderabile conseguenza di diminuire la variabilità del sistema: è proprio questo che fa sì che, nonostante la risorsa sia più satura, non si abbiano aumenti delle code potenziali). LIVELLO DI AUTOMAZIONE Dopo aver definito tipologia e configurazione dei macchinari, è interessante andare ad analizzare quanta automazione occorre introdurre, nella cella, al fine di creare un flusso continuo, efficiente e flessibile di materiale. Si tenga presente che, come già detto, il lean guarda con sospetto a questo elemento: questo perché, se da un lato è indubbio che, l’automazione, può supportare efficacemente la realizzazione del future state, in realtà, un’automazione mal progettata o mal utilizzata potrebbe interrompere e/o impedire il flusso stesso. Per evitare che questo accada, e per determinare il corretto livello per il proprio sistema, bisogna analizzare come interagiscono, tra di loro, il flusso del materiale e gli operatori. A tale proposito, esistono diversi livelli di automazione che possono caratterizzare la cella: 97 In generale, in una cella a flusso continuo, per permettere agli operatori di muoversi e di aggiungere valore durante il funzionamento e lo svolgimento delle attività, è necessario almeno un livello 2 di automazione (meccanizzazione del ciclo della macchina); eventualmente, come messo in evidenza, si può pensare ad un livello successivo di automazione, prevedendo lo scarico automatico della macchina (il pezzo finito viene scaricato in automatico dall’impianto al termine del ciclo, con la macchina che si presenta pronta al carico ogni qual volta l’operatore ritorna con il nuovo componente), soluzione, in genere, poco costosa. Al contrario, più del livello 3 di automazione potrebbe essere eccessivo, in quanto si andrebbe incontro ad un aumento dei costi e della complessità tecnologica (la fase di carico richiede tecnologie particolari per essere automatizzata, così come il trasferimento, che poggia su robot o linee transfer automatiche; questo, inoltre, ha l’effetto di ridurre l’affidabilità e la disponibilità del sistema). Il secondo livello, difatti, consente quanto meno agli operatori di occuparsi di più processi all’interno del takt time, come mostrato dalla seguente rappresentazione: L’operatore carica la prima macchina ma, essendo il suo ciclo automatizzato, mentre la macchina lavora, egli può muoversi al passo successivo di lavorazione: l’operatore non aspetta mai la macchina, ma segue processi multipli Questa automazione ribalta quella che è l’usuale concezione presente nelle aziende manufatturiere: - Quando l’operatore aspetta una macchina che sta eseguendo le sue attività, allora l’operatore sta lavorando per la macchina; - Quando invece, durante il ciclo della macchina, l’operatore si sposta per processare altri elementi di lavoro, allora è la macchina che lavora per l’operatore. Nella logica lean, la macchina deve sempre lavorare per l’operatore: tutte le risorse che stanno sugli impianti per supervisionarli sono, a tutti gli effetti, uno spreco; al contrario, gli operatori devono giungere ai macchinari solo ed esclusivamente nel momento in cui sono necessari. 98 Per ribaltare questa visione, è sufficiente installare, sulle macchine, dei sensori che siano in grado di rilevare l’insorgere dei problemi, di allertare qualcuno e, se fattibile, di arrestare addirittura automaticamente la macchina: il costo di questi semplici sensori, che consentono alle macchine di comunicare direttamente l’eventuale presenza di un guasto, è quasi sempre inferiore al costo di un operatore dedicato all’impianto (e, inoltre trattandosi di un controllo automatico, si ha la sicurezza di un’efficacia al 100%, cosa che potrebbe non essere con l’operatore, al quale potrebbero sfuggire delle cose). In definitiva, è possibile riassumere quelle che sono le linee guida per gli impianti da inserire all’interno di una cella: Utilizzare impianti di piccole dimensioni, e dedicati ad una singola funzione, piuttosto che di grosse dimensioni e multifunzione; Quando l’operatore necessita di utilizzare entrambe le mani per movimentare un componente, è opportuno automatizzare anche la fase di scarico; Ove possibile, introdurre sistemi di automazione “ad un tocco”: l’operatore deve essere in grado di caricare il pezzo nella macchina, dare l’avvio al ciclo e spostarsi; Evitare l’accumulo di lotti: idealmente, ogni impianto dovrebbe essere in grado di processare un pezzo alla volta in un tempo inferiore al takt time; Adottare sensori per la segnalazione di condizioni di anormale funzionamento delle macchine: le macchine devono essere al servizio dell’operatore (e non viceversa); Progettare il sistema secondo criteri di manutenibilità (adottare impianti facilmente accessibili per attività di manutenzione e riparazione, che possano così essere sistemati rapidamente); In corrispondenza del processo peacemaker, definire dei dispositivi che permettano veloci set – up, contenuti all’interno di un takt time. DEFINIZIONE DEL LAY – OUT DELLA CELLA Il passo successivo, consiste nel comprende come sia possibile organizzare la struttura della cella, in termini di lay – out fisico, disposizione delle attrezzature e materiali. L’approccio lean si basa sulla seguente idea: al di là di alcune linee guida di progettazione che è possibile seguire, la situazione ideale è rappresentata dalla possibilità di lasciare, questa scelta, nelle mani dell’operatore, in quanto è lui che dovrà poi, operativamente, lavorare all’interno della struttura; la logica dovrebbe quindi essere quella di organizzare una prima struttura di “prova”, testarla, per poi poter prevedere successive modifiche e miglioramenti. Si tenga presente che non è possibile ragionare in termini di ottimizzazione: poiché, per principio, l’ottimo non esiste (o, comunque, non può essere raggiunto), starà all’operatore contribuire a determinare l’organizzazione della struttura, testarne la disposizione, individuare possibili opportunità di miglioramento, implementarle e vedere se, effettivamente, portano ad una configurazione migliore; ovviamente, affinchè tutto questo possa accadere, l’operatore deve essere stimolato da parte del management a pensare questi cambiamenti, ed essere messo in condizione di poterli fare. La sfida di questo principio, ad oggi, non è tanto nel mondo manufatturiero (all’interno del quale l’importanza della “voce” del personale operativo risulta essere un elemento di rilevanza riconosciuta), ma nel mondo dei servizi, dove il concetto di “progettazione del lay – out della cella” può essere mutuato a quello di “realizzazione del software per il supporto delle attività”. Nei servizi, difatti, gli applicativi sono proprio l’equivalente dell’ambiente di lavoro in uno stabilimento, in quanto è attraverso questi che la risorsa umana può interagire con il cliente e/o soddisfarne le esigenze: per questo motivo, è opportuno che sia disegnato sulla base delle esigenze e delle capacità di chi ci dovrà 99 operare, abbandonando, quindi, la logica tradizionale, che mira a progettarlo cercando di prevedere tutto in anticipo, portando l’operatore a mettere in atto e ricreare quelle che sono le procedure e le regole definite dall’alto; al contrario, la rivoluzione consiste nel realizzarlo in maniera flessibile, quindi permettendogli di essere adattato e modificato al nascere e/o evolvere delle caratteristiche del contesto, delle esigenze del cliente e dell’operatore. Posto questo, limitando l’analisi ai contesti produttivi, il primo passo per arrivare ad una disposizione fisica che rispetti i principi lean consiste nell’andare a separare, chiaramente, tutte quelle che sono attività di spreco da quelle che, invece, sono a valore aggiunto. In sostanza, si tratta di definire una configurazione tale da concentrare, ad un gruppo di operatori, tutte le attività a valore aggiunto, ed ai restanti tutte le attività non a valore aggiunto; questo è fatto sì per allontanare e tirare fuori il più possibile gli sprechi e, benchè non li si abbia eliminati, si è stati in grado di cumularli tutti ad un certo gruppo di risorse, il che consente di: - Identificare chiaramente tutto quello che è spreco, isolandolo e mettendolo da parte; - Concentrare maggiormente le persone su quello che è il flusso di valore: quando, ad un operatore, sono assegnate in parte attività non a valore aggiunto, ed in parte attività a valore aggiunto, è difficile distinguere l’una e l’altra classe; - Concentrando lo spreco su un più ridotto numero di persone, fare economie di scala su tale spreco: queste risorse, troveranno senza dubbio un modo efficiente e migliore per gestire queste attività non a valore aggiunto (cosa che sarebbe più difficile se, invece, ognuno si ritrova a fare solo una piccola percentuale di esse). Fatto questo, rientra nella progettazione del lay – out anche la gestione dei materiali: lavorando sulla progettazione fisica della cella di linea, difatti, diventa indispensabile capire come sia più opportuno realizzare un sistema di movimentazione dei componenti che permetta alla cella di avere i materiali in corrispondenza del loro punto di effettiva utilizzo. Nel farlo, il principio fondamentale che deve essere rispettato è il fatto che non deve esserci interruzione del ciclo di lavoro dell’operatore per il rifornimento delle parti; questo, ad esempio, può essere ottenuto realizzando una movimentazione mediante una scaffalatura a gravità con rullo: Le parti dovrebbero essere rifornite in piccoli contenitori provenienti dall’esterno della cella e, dove possibile, dovrebbero scivolare verso il punto di utilizzo con scaffalature a gravita o a cascata: in questo modo, non è l’operatore che deve andare a ricercarsi i materiali, ma questi giungono ad esso mediante delle “comode” corsie. Tali strutture, inoltre, sono progettate in modo tale che, quando un contenitore vuoto vie tolto, il contenitore successivo scivola in posizione per andare di nuovo ad alimentare l’attività; l’operatore, poi, fa scivolare tale contenitore vuoto in una scaffalatura di ritorno verso l’esterno della cella 100 o della linea: questo verrà preso in carico dal water spider, che si occupa anche della movimentazione dei materiali, sgravando l’operatore del compito di gestire la disponibilità dei componenti sugli scivoli. Nella nuova configurazione, quindi, non ci sono operatori che prendono o staccano loro stessi le parti ma, per consegnare i componenti e portare via i prodotti finiti si usa quello che si è chiamato il “movimentatore di materiali”, gestito secondo un percorso regolarmente schedulato e standardizzato (ad esempio, un’ora: per quello si è fatto coincidere, tale figura, con quella del water spider); si ottiene, quindi, la seguente situazione: Detto questo, ed analizzate quelle che sono le linee guida generali per la gestione delle risorse, dei materiali, e delle risorse umane, è possibile sfruttare alcune di esse per riprogettare il lay out fisico della cella che, allo stato attuale Prevede un’eccessiva distanza percorsa dall’operatore; Ha un interno della cella troppo ampio; Presenta una distanza troppo elevata tra punto di inizio e punto di fine della cella (il che fa sì che, ogni operatore, dovrà compiere lunghi percorsi per giungere all’inizio del ciclo successivo); Tra ciascun impianto, ha un eccessivo spazio per l’accumulo di materiali tra processi; Necessita di una modifica nell’attività di piegatura del tubo, al fine di poterne caricare uno ad ogni ciclo, eliminando il lotto da 25 pezzi necessario fino ad ora; Mette il carrello di evacuazione per la piegatura nella linea di cammino dell’operatore, ostruendolo. È quindi necessario fare tutta una serie di cose quali, ad esempio, il tagliare il telaio della macchina di piegatura per poterci far passare sotto il carrello di evacuazione (liberandone lo spazio occupato), il ridurre lo spazio tra i macchinari, eliminando la possibilità di creare delle scorte, e la chiusura ad U della cella, di modo da avvicinare il punto iniziale e finale. Tra questi interventi, tuttavia, di particolare interesse risulta essere quello di come trattare le operazioni e le attrezzature batch (ovvero, tutte quelle attrezzature ed operazioni che, per poter essere utilizzate, necessitano dell’accumulo di un certo numero di pezzi: ne è un esempio la piegatura dei tubi per il caso dell’Apex, che si è risolta modificando il processo di carico, così come il trattamento termico nel caso di alcune lavorazioni di materiali industriali, come la ceramica, che, per essere effettuato, ha bisogno di un certo volume produttivo). 101 Sono possibili differenti soluzioni: - Separare questi stadi dal flusso continuo, trattandoli come un processo orientato a lotti, e gestendoli mediante un sistema supermarket pull o (meglio) buffer FIFO; - Mantenerli all’interno del flusso continuo, se è possibile trasformare l’operazione di tipo batch mediante un convogliatore, rendendo, così, l’attività, un’operazione di processo continua: ad esempio, per i casi di riscaldamenti, raffreddamenti e formature, si può pensare di dotarsi di un nastro trasportatore che, grazie alla rulliera, è in grado di far scorrere nell’attrezzatura di supporto i pezzi con logica continuativa (ad esempio, nel caso del trattamento termico, si tratta di passare da un forno che lavora per lotti, ad un forno più lungo, suddiviso in zone, ciascuna caratterizzata dalla sua temperatura, nel quale scorrono, lungo il nastro, i prodotti che, via via, gli operatori caricano dopo averli lavorati all’interno del takt time; in questo modo, l’attività non viene più svolta in logica batch, ma su base continuativa: entrano ed escono delle unità ogni tempo di ciclo); - Decidere di ignorare la capacità di produrre a lotti delle attrezzature, ed utilizzarle “a pezzo singolo”; ovviamente, affinchè ciò sia possibile, il tempo di ciclo impiegato dalla macchina per processare un solo pezzo deve essere inferiore al takt time; - Sostituire la macchina che produce a lotti con una macchina (in genere, poco costosa) in grado di produrre “a pezzo singolo”. Riorganizzando la cella secondo le linee guida sopracitate, si ottiene, in definitiva, una configurazione completamente diversa rispetto alla situazione di partenza: LA DISTRIBUZIONE DEL LAVORO Il processo fisico, a questo punto, risulta essere riordinato: bisogna ora arrivare ad integrare, al suo interno, gli operatori che dovranno lavorarci. Per farlo, bisogna anzitutto andare a definire il numero minimo di operatori di cui è necessario disporre: Nel caso in esame, essendo il takt time pari a 40 secondi, ed il contenuto di lavoro riprogettato pari a 88 secondi, si ottiene un’esigenza minima di operatori di 2,2: poiché, in precedenza, ne erano impiegati 4, significa che si ha quasi il 50% di opportunità di miglioramento. 102 Non potendo operare a decimi, senza migliorare in alcun modo i metodi gestionali, l’Apex dovrà dotarsi di tre operatori per essere in grado di soddisfare la domanda del cliente; d’altra parte però, è chiaro che, essendo 2,2 non molto lontano da 2, uno dei tre operatori si ritroverebbe a lavorare con una bassa produttività: ecco quindi che, questa cella, potrà essere avviata con due operatori nel caso in cui, l’intero team, sarebbe disposto a darsi questo come obiettivo e, quindi, a migliorare. Ad ogni modo, è possibile tenere presenti le seguenti linee guida per determinare il numero di operatori in una cella; se, il residuo nel calcolo degli operatori (dopo il paper kaizen): Risulta essere inferiore a 0,3, in linea di principio non di dovrebbe aggiungere un operatore addizionale: al contrario, sarebbe opportuno guardare ad un ulteriore riduzione di spreco e di lavoro accidentale, in modo tale da portare il contenuto di lavoro che determini un valore intero di risorse; Risulta essere compreso tra 0,3 e 0,5, ancora una volta il principio è quello di non aggiungere un operatore addizionale, ma di ricorrere (eventualmente) a straordinario: questo perché, lo straordinario, ha proprio la funzione di dare, agli operatori, un messaggio di “eccezionalità”, rendendoli più tesi e spinti al miglioramento, al fine di riuscire ad operare con quel dimensionamento delle risorse senza dovervi più ricorrere (al contrario, mettere un operatore in più, molto saturo, anche associato ad un obiettivo di miglioramento, rende il sistema molto meno stressato e proteso al kaizen); Risulta essere superiore a 0,5, allora è opportuno aggiungere un operatore addizionale, comunque continuando a ridurre lo spreco ed il lavoro accidentale per, un giorno, eliminare il bisogno di questo operatore (non completamente saturo) nella cella. Attenzione a prendere con le dovute cautele questi principi, che dipendono molto dall’ordine di grandezza del quale si sta valutando il decimale: un conto è discutere se si abbia bisogno di 10 o 11 operatori, un conto se di 2 o di 3! Si può quindi dire che, tali linee guida, rappresentano un ottimo punto di riferimento in presenza di un numero di operatori almeno oltre la decina; sotto, invece, la situazione va analizzata opportunamente. Ad ogni modo, nel momento in cui è stato definito tale numero, il problema successivo consiste nel capire come distribuire un contenuto di lavoro non pieno tra gli operatori; in tal senso, si è già avuto modo di parlare (introducendo il Value Stream Mapping) di quelle che sono le differenze, nel fare questo, tra l’approccio tradizionale e quello lean: La logica “classica”, quella di bilanciamento della linea, va a dividere uniformemente il contenuto di lavoro tra gli operatori, al fine di soddisfare una condizione di equità tra gli operatori; questo, tuttavia, ha la controindicazione, nel contempo, di distribuire anche gli sprechi e le attese tra gli operatori (il tempo di ciclo di ciascuno di essi è correttamente bilanciato, ma ognuno di essi è caricato solo parzialmente): questa pratica rende, quindi, più arduo il processo di eliminazione degli sprechi, creando anche un potenziale per la sovrapproduzione; 103 La logica lean, invece, va a ridistribuire gli elementi di lavoro in modo tale da caricare gli operatori quasi per l’intero intervallo di takt a loro disposizione, andando così ad accollare la maggior parte dello spreco di attesa sull’ultimo operatore, rendendo, così, evidente l’opportunità di miglioramento (successivamente, difatti, una volta che la cella sarà in condizione di operare con un operatore in meno, l’organizzazione potrà rendersi conto dell’effettivo risparmio di costo). La realizzazione del precedente grafico, tuttavia, porta solo ad una distribuzione del lavoro in termini percentuali (95% del takt time, 90% del takt time…), ma non dice nulla in termini di attività effettivamente eseguite da ciascun operatore: bisogna capire, a questo punto, come andare ad allocare i singoli elementi di lavoro (che derivano dalla riprogettazione mediante paper kaizen); anche in tal caso, i possibili approcci sono molteplici. Quello più “classico” è la divisione del lavoro, che porta ad assegnare, a ciascun operatore, alcune delle attività necessarie alla realizzazione del prodotto; attenzione però: esistono diverse combinazioni di divisione del lavoro! Quella più immediata vuole una divisione “in sequenza”; ad esempio, su un ciclo di 8 attività: - All’operatore 1 si danno le attività 1, 2 e 3; - All’operatore 2 si danno le attività 4, 5 e 6; - All’operatore 3 (più scarico) si danno le attività 7 e 8. Fare questa cosa, in una cella ad U, significa introdurre una serie di sprechi relativamente alla distanza percorsa da ciascun operatore: 104 L’operatore lavora il prodotto con le attività assegnategli in sequenza di ciclo, e poi torna indietro in attesa dell’altro; tutta la distanza percorsa senza eseguire alcuna operazione è spreco: non è questa la configurazione desiderabile per l’approccio lean Al contrario, nella divisione del lavoro è una buona idea quella di assegnare allo stesso operatore i primi e gli ultimi elementi di lavoro nel flusso, del materiale, in quanto questo minimizza la distanza percorsa “senza aggiungere valore”, oltre che a creare un effetto di andatura automatica per la cella intera: Questa configurazione, inoltre, ha un altro grande vantaggio: poiché, il primo operatore, esegue la prima e l’ultima attività del ciclo, ciò garantisce che, un nuovo pezzo, non verrà fatto entrare e cominciata la lavorazione se, prima, non è stato ultimato quello precedente; in sostanza, tale risorsa svolge il ruolo di metronomo della cella, garantendo: 1) Assenza di sovraproduzione; 2) Impossibilità di accumulo delle scorte; al contrario, nella precedente configurazione, tutti i vari stadi della cella lavoravano i pezzi e li “buttavano avanti”, essendoci lo spazio per poter accumulare dei pezzi: ora, questo non è possibile, non solo perché non c’è spazio, ma proprio perché è razionalmente impossibile (il primo operatore non potrà continuare a mandare avanti pezzi ad un ritmo superiore a quelli di uscita, essendo lui stesso a dettare il ritmo di uscita). La logica di sottosaturazione di una risorsa, inoltre, consente che, nel caso in cui uno degli operatori dovesse trovarsi in difficoltà nel rispettare il takt time, questi potrebbe intervenire a “dare una mano”; e ancora, nel caso in cui dovesse, per caso, variare il volume di produzione: - Se dovesse aumentare, si potrebbe far leva su una risorsa comunque non totalmente satura (o, al limite, introdurne temporaneamente una aggiuntiva); - Se dovesse diminuire, sarà necessario semplicemente togliere una risorsa (il takt time è aumentato), andando a riallocare operazioni e percentuale di distribuzione nella stessa logica, ottenendo una configurazione in grado di mantenere la stessa saturazione del caso precedente (a livello produttivo diminuito). 105 Una seconda alternativa, anch’essa molto diffusa, è quella del circuito, che porta ad assegnare, a ciascun operatore, tutti gli elementi del ciclo di lavoro, facendo tuttavia partire il successivo operatore prima che quello precedente abbia terminato (come ovvio, altrimenti non si avrebbe la possibilità di rispettare il takt time): I vantaggi di questa soluzione sono: - Offre un effetto di andatura naturale; - È di facile implementazione; - Può ridurre le distanze di spostamento nel momento in cui gli operatori si trovano ad affrontare un percorso di ritorno breve per avviare il successivo ciclo al completamento del circuito; - Aumenta automaticamente la rotazione del lavoro, e lo rende più interessante; tuttavia, bisogna tenere conto che: - È una soluzione generalmente limitata a due operatori, in quanto risulta difficile coordinarne di più; - Generalmente non funziona se più del 40% del contenuto del lavoro di un operatore viene effettuato in una singola postazione di lavoro, in quanto gli operatori si caricheranno alla stazione ad alto contenuto; - È richiesta la presenza di operatori specializzati e qualificati per far funzionare ogni elemento (esecuzione dell’intero ciclo, utilizzo delle apparecchiature, realizzazione dei controlli qualità…). REGOLAZIONE DEL FLUSSO Integrate le risorse umane, i materiali, i macchinari ed i metodi per la progettazione di un flusso continuo, occorre, infine, come programmare la cella e come prevedere una sua reazione al fine di gestire eventuali variazioni nella domanda da parte del cliente finale: non è difatti realistico aspettarsi che la domanda del cliente risulti essere perfettamente livellata, così come non è realistico aspettarsi che sia costante la sua richiesta di mix. Nel caso in cui i volumi richiesti dal cliente, sul processo peacemaker (la cella) si dimostrassero avere delle variazioni notevoli su periodi molto lunghi, si dovrà inevitabilmente adattare la capacità produttiva per farvi fronte (manodopera, macchinari, materiali); per la tipologia più frequente di “picchi e valli” nella domanda, invece, a fronte di una richiesta di lungo termine abbastanza stabile, per gestire questa fluttuazione sarà possibile andare a realizzare un supermarket di prodotti finiti da interporre tra lo stadio pacemaker ed il cliente, il che permette, alla cella, di livellare molto più la domanda ed essere in grado di soddisfare meglio le esigenze del cliente: 106 In tal senso, però, risulta opportuno andare a distinguere quelle che sono le tre differenti tipologie di scorte che possono essere previste all’interno di tale magazzino: Le scorte di ciclo, che dipendono dal fatto che, chi sta a monte, non consegna in modo continuativo, ma in base ad un ciclo di ordini che arriva periodicamente da parte dello stadio a valle (si effettua un riordino ogni certo periodo: le scorte di ciclo servono proprio a coprire questo intervallo temporale); Le scorte di buffer che, invece, sono finalizzate ad assorbire la variabilità e le possibili fluttuazioni della domanda; Le scorte di sicurezza, infine, sono quelle unità che si stoccano per proteggersi dal fatto che, chi effettua l’approvvigionamento, potrebbe generare dei problemi (difettosità, ritardi…). In una struttura lean, il punto chiave nella realizzazione del magazzino, consiste nel separare chiaramente queste tre categorie, di modo che sia possibile identificarle in maniera univoca; benchè, questo, appare illogico dal punto di vista dell’efficienza (trattandosi di medesime unità, separarle in tre blocchi significa dimensionare un quantitativo di scorta maggiore, rispetto al caso in cui, i tre problemi, vengano uniti e dimensionati contemporaneamente, potendo sfruttare degli effetti di correlazione e compensazione), è del tutto in linea con i principi del miglioramento continuo: si può pensare di separarle perché, in realtà, un livello ottimale e minimo di scorta non esiste (o meglio, esiste ed è il valore nullo), e l’interesse è quello di ridurle quanto più possibile; ecco quindi che, l’approccio più ragionevole, sembrerebbe proprio quello di partire da un livello “ragionevole”, che consente di non avere problemi ed operare in maniera sostenibile, per poi migliorare gradualmente. In particolare, la separazione consente proprio di identificare eventuali problemi, capendo cosa si sta riducendo e cosa no e dove, eventualmente, si ha necessità di intervenire; che tipologia di scorta si è prelevata? - Nel caso in cui sia stato effettuato un prelievo ordinario (scorta di ciclo), allora è tutto nella normalità; - Nel caso in cui sia stato effettuato un prelievo a causa di una variazione della domanda (scorta di buffer), occorrerà andare a capire le motivazioni e la natura di questa fluttuazione; - Nel caso in cui sia stato effettuato un prelievo a causa di una disruption di qualunque natura (scorta di sicurezza), occorrerà andare a comprendere motivazioni e caratteristiche di tale evento; la stessa cosa in termini di miglioramenti (che risultato è stato ottenuto? Un miglioramento della qualità del fornitore potrebbe portare a diminuire la quantità di scorte di sicurezza; un miglioramento nella gestione della domanda cliente potrebbe portare a diminuire la quantità di buffer stock…). 107 Infine, occorre focalizzare l’attenzione proprio sull’aspetto della variabilità: molti stabilimenti sono soggetti a piccole fluttuazioni giornaliere della domanda, in quanto il cliente può richiedere, all’interno di una domanda stabile nel lungo periodo, un poco più oggi ed un poco meno domani; come detto, queste piccole fluttuazioni vengono gestite al meglio con l’uso di un supermarket di prodotti finiti, che permette ai responsabili di definire il takt time, di organizzare il numero di operatori e gestire il flusso continuo su periodi estesi. Nel caso però in cui cambi propriamente il valore medio della domanda cliente (e, con esso, il takt time), il processo pacemaker dovrà essere organizzato in modo tale da poter reagire; il sistema deve essere in grado di rispondere opportunamente ad una variazione della domanda, in quanto Nel caso in cui si abbia una diminuzione del valore medio, senza alcun intervento gestionale, mantenendo inalterato il numero di operatori, si avrebbe un tracollo della produttività, nonché aumenteranno le premesse per la sovrapproduzione (proprio perché gli operatori, maggiormente insaturi, saranno portati a massimizzare la loro produttività); D’altra parte, nel caso in cui si abbia un aumento del valore medio, senza alcun intervento gestionale, il takt time della cella diminuirà e, senza alcun intervento gestionale (aggiunta di personale, capacità macchina…), potrebbe non essere più in grado di continuare a produrre rispettando tale ritmo. La necessità periodica di aumentare / ridurre il numero di risorse è una delle ragioni principali per le quali le celle sono utilizzate mediante una struttura ad U stretta: la grande varietà di schemi di spostamento che questa configurazione offre apre numerose opzioni per ridistribuire (a seguito di queste variazioni) le attività lavorative su un numero diverso di operatori. In sostanza, nel progettare la cella, è sempre necessario preparare delle “analisi per scenario”, che consentano alla struttura di rispondere opportunamente ad eventuali a cambi di volume della domanda; si tratta, quindi, di disegnare dei diagrammi di carico per il numero attuale di operatori previsto, ma anche per configurazioni con più o meno risorse. La cella diventa una sorta di “interruttore”, perché può modificare la sua struttura ed il suo livello di produzione variando il numero di operatori in essa attivi in risposta alle variazioni della domanda cliente; ogni operatore, quindi, è tenuto a conoscere l’organizzazione (configurazione, allocazione delle attività, valore del takt time, suddivisione delle attività…) per ogni possibile scenario predefinito: in questo modo, si ha la possibilità di cambiare, ma muovendosi da una situazione standard ad un'altra situazione standard; si gestisce la dinamicità del sistema spostandosi tra standard noti e già conosciuti. Obiettivi dei sistemi Lean: Level and Pull Agganciandosi al tema della variabilità, affrontato nell’ultima parte del paragrafo precedente, risulta opportuno spendere un approfondimento per comprendere come sia possibile, in un’azienda manifatturiera progettata in ottica lean, gestire la variabilità ed i cambiamenti nelle richieste al sistema. Per farlo, si consideri la seguente azienda, caratterizzata da sette diversi stadi produttivi finalizzati alla produzione di specchietti retrovisori, per la quale è stata realizzata la current state map dal punto di vista del flusso dei materiali, riprogettata in ottica future state: 108 Nella riprogettazione, l’unico aspetto che non è stato toccato è quello relativo alle modalità di programmazione: essendo un punto di grande impatto sul sistema, in quanto si occupa di integrare le modalità di azione dei differenti attori, si è deciso di non modificarlo (per ora); ecco quindi che, anche a valle della revisione, si ha una programmazione distribuita sui tre stadi caratteristici, che operano, così, in logica push. Questa modifica gestionale e fisica (in termini di lay – out), inizialmente ha consentito di ottenere dei miglioramenti che, tuttavia, sono risultati essere solo di breve termine (quindi, non sono perdurati nel tempo): dopo un certo periodo, difatti, si è tornati indietro. Ciò era accaduto perché, nell’effettuare le considerazioni relativamente alla riprogettazione, non era stato effettuato un dovuto approfondimento con riferimento alle caratteristiche della domanda; si guardi, difatti, a quella che è la variabilità in termini di volumi e di mix: 109 Si può osservare come, benchè la domanda aggregata vari in un range che va da 550 a 450 unità (in modo relativamente stabile), il mix (considerando i dieci prodotti più venduti) al contrario, abbia una variazione molto più significativa. Questo non è tutto; se si estende l’analisi andando a vedere come, tale domanda, si distribuisce lungo la catena interna dell’azienda, ciò che si verifica è un fenomeno interessante: La variazione nel volume di domanda, e nella composizione del mix, si amplifica sempre di più procedendo a ritroso tra i vari reparti, fino ad arrivare al fornitore più esterno; questo è noto come “effetto bullwhip”, che dice proprio che, a causa di eventi quali - Politiche gestionali definite da ciascuno stadio; - Ritardi temporali e differenze in termini di lead time; - Eventi imprevisti (scarti, difettosità, guasti…); - Politiche di gestione del rischio; - Sistemi di previsione; - … Fanno sì che, la variabilità della domanda, aumenti lungo la filiera, man mano che ci si allontana dal mercato finale e si risale verso la catena di fornitura: accade così che, lo stadio prossimo al mercato, percepisce la reale domanda del cliente finale (in genere abbastanza stabile o quantomeno prevedibile) mentre, quelli più a monte, sono soggetti ad una domanda apparentemente fuori controllo, con oscillazioni amplificate. Questo fa sì che, poiché le prestazioni di efficienza e livello di servizio di ciascun attore dipendono dalla variabilità della domanda, in presenza di un effetto bullwhip, gli stadi e le aziende più lontane dal mercato offrono performance peggiori. A fronte di questo fenomeno, l’approccio gestionale tradizionale propone alcune soluzioni, quali: Condivisione dell’informazione e visibilità: dare a tutti gli attori la possibilità di vedere i dati reali di domanda, di monitorare lo stato di avanzamento degli ordini e dei materiali lungo la filiera, nonché di avere informazioni relative alle scorte presenti nei diversi stadi, attenuando così l’effetto “filtro” fatto da ciascun reparto; Integrazione e collaborazione tra i vari stadi; 110 in tutto questo, ovviamente, il fattore enabler è rappresentato dalle tecnologie dell’informazione, che favoriscono questi processi. Si provi, tuttavia, ad assumere un’ottica differente, e ad adottare un approccio diverso: poiché fornire informazioni, integrarsi e collaborare sono tutte attività che hanno un loro costo, e che sono realmente efficaci, a livello di sistema, solo in presenza di un grande big player in grado di dettare il ritmo all’intero stabilimento (e, inoltre, hanno il limite di basarsi su un obiettivo di ottimizzazione e pianificazione di un sistema troppo complesso per poterlo fare), è possibile pensare di volgere lo sguardo ad altre soluzioni. In particolare, con riferimento allo schema precedente, quello che si deve capire è che, la domanda che attraversa la filiera, non risulta essere tutta della medesima natura: La domanda finale, proveniente dal mercato, risulta essere domanda indipendente, nel senso che, provenendo dal cliente, risulta essere più difficilmente controllabile e influenzabile; Le domande “intermedie”, invece, tra uno stadio e l’altro, sono domande dipendenti, le cui caratteristiche sono determinate dalla Supply Chain stessa, e dal modo in cui essa è gestita ed organizzata; proprio per questo, però, è anche quella più facilmente modificabile ed influenzabile, potendola portare verso una situazione maggiormente desiderata. Posto questo, ciò che bisogna fare è tentare di lavorare per livellare e rendere stabile la domanda dipendente, che causa il degrado di prestazione dei vari stadi: andando a lavorare su quelle che sono le cause che determinano l’amplificazione della variabilità (attenzione: andando ad eliminarle, quindi evitare che si verifichino, e non mettendo il “tampone” della visibilità e dell’integrazione per cercare di contenerne gli effetti), e che sono strutturali nel sistema, si eliminano, di conseguenza, le problematiche: se i tempi di consegna sono deterministici, ciascuno stadio non avrà esigenza di tenere delle scorte di sicurezza per cautelarsi da possibili disruption; se si dà certezza sul livello di riordino, sulla frequenza di riordino, e sui tempi di consegna, la domanda è completamente prevedibile e stabile: non c’è alcun bisogno di visibilità, condivisione dell’informazione ed investimenti in coordinamento. L’obiettivo è quello di arrivare ad una domanda dipendente di tipo level pull: ogni stadio sa esattamente quando e quanto lo stadio successivo effettuerà il riordino (livellamento), sebbene possa comunicare, anche all’ultimo, la composizione di quel riordino (pull); in sostanza, deve essere raggiunta una flessibilità tale che, ogni stadio, deve permettere a quello immediatamente a valle di comunicare all’ultimo momento la composizione del mix richiesto in cambio, tuttavia, di ricevere un ordine livellato (per capire, con un esempio: lo stadio cliente X ordina sempre 100 pezzi ogni due giorni, e questo è il target per livellare; d’altro lato, lo stadio fornitore Y deve ripagare questo livellamento mettendo a disposizione una flessibilità tale da permettere allo stadio X di variare il mix richiesto fino a 8 ore prima della conferma definitiva dell’ordine); solo una configurazione di questo tipo consente di minimizzare la quantità di scorte presenti nel sistema. Benchè sembri paradossale, però, per arrivare a gestire opportunamente la domanda dipendente, arrivando a questa configurazione ideale, bisogna anzitutto capire come gestire la domanda indipendente proveniente dal cliente finale: il prerequisito, difatti, per poter creare un sistema level pull, è la possibilità di riuscire a smorzare qualunque possibile fluttuazione proveniente dalle richieste di mercato, che sono il primo fattore di “caos” all’interno dell’organizzazione della produzione e dello stabilimento. Per fare questo, la soluzione più opportuna è rappresentata dalla possibilità di mettere un buffer supermarket di prodotti finiti finalizzato all’assorbimento della variabilità: 111 Ma non si è detto che, le scorte, sono uno dei sette sprechi peggiori nel lean manufacturing? Perchè, allora, istituire uno “spreco” per assorbire un fattore che non si riesce a gestire? La risposta a questa domanda è semplice: poiché, non avere una quantità sufficiente di scorta, potrebbe creare conseguenze peggiori che prevedere un magazzino di prodotti finiti (ritardi, insoddisfazione, necessità di “correre”, attese, ricorso a straordinario…), il “male minore” è proprio rappresentato dall’istituzione di un magazzino con queste finalità. D’altra parte però, se questo consente di costruire un sistema che, a monte del buffer, è totalmente livellato, ha dei lead time contenutissimi, nessun vincolo di capacità produttiva, nessuna scorta intermedia, tali vantaggi controbilanciano l’inefficienza della scorta finale; e ancora, una volta costruito un sistema effettivamente level pull (corretta gestione della domanda dipendente), si potrà pensare di andare a migliorare la gestione di quella indipendente, andando a lavorare con il cliente con l’obiettivo di ridurre progressivamente le scorte nel buffer finale. Le scorte, quindi, non sono un bene ma, in questo caso, sono un elemento necessario: le si istituisce e mantiene fino a che, un giorno, non si sarà lavorato in modo tale da riuscire a smorzare “naturalmente” non solo la domanda dipendente, ma anche quella finale. Poiché, questo buffer, serve a proteggere tutta la filiera, ed è istituito proprio per poter livellare e rendere pull la domanda a ritroso, dovrà essere pagato dall’intera Supply Chain: si tratta, progressivamente, di spostare le scorte tutte a valle dello stadio finale, in modo tale che possano essere completamente assorbite le fluttuazioni. GESTIONE DELLA PRODUZIONE E DELLE SCORTE Per arrivare alla configurazione desiderata, occorre rispondere a tutta una serie di domande; le prime tre riguardano, nello specifico, la gestione della produzione e le caratteristiche del magazzino finale. La prima porta a chiedersi: qual è la logica di produzione più adatta per ciascun prodotto? 112 In genere, l’approccio classico, porta a ragionare nel seguente modo: nel caso in cui si sia in grado di realizzare l’ordine in un tempo compatibile con quello richiesto dal cliente, dopo averne ricevuto comunicazione, allora sarà possibile lavorare in MTO; altrimenti, non si avrà altra scelta che andare a produrre per un magazzino prodotti finiti. Si provi, però, a ragionare in un altro modo: si supponga di condurre un’analisi ABC sui codici realizzati, distinguendoli in tre categorie: Prodotti di tipo runners, caratterizzati da alti volumi ed alta frequenza di richiesta (generalmente, ogni giorno); Prodotti di tipo repeaters, caratterizzati da volumi medi, e frequenza di acquisto più sporadica (generalmente, massimo 1 – 2 volte la settimana); Prodotti di tipo strangers, caratterizzati da bassi volumi, e frequenza di acquisto estremamente rara. A fronte di questa classificazione, si può quindi pensare di gestire, ciascuna categoria, con una particolare logica di produzione. La prima, e più semplice, soluzione, consiste nel realizzare un sistema di tipo replenishement pull: Come evidente dalla rappresentazione e dalla descrizione, si tratta di inserire tutte le categorie (A, B, C) in magazzini prodotti finiti di tipo supermarket, che consentono di consegnare istantaneamente ai propri 113 clienti, pagando tuttavia lo svantaggio con un alto livello di scorte (ogni prodotto presente nella gamma deve essere presente all’interno del supermarket). La seconda alternativa, invece, consiste nel fare tutto su ordine, realizzando un sistema di tipo sequential pull: Ricevuto l’ordine da parte del cliente, questo viene inviato al programmatore della produzione, livellato, e gestito nel sistema attraverso una serie di code FIFO; al contrario del caso precedente, si hanno pochissime scorte nel sistema (le code FIFO hanno una dimensione contenuta, il che ha, come prerequisito, la possibilità di accoppiare fortemente gli stadi), ma si deve essere in grado di rispondere al cliente in un tempo compatibile con quanto da lui richiesto; inoltre, una qualunque variazione della domanda finale, si traduce in un’elevata probabilità di ritardi nella produzione. La terza soluzione comincia a distinguere le classi, in quanto prevede di tenere a scorta i soli prodotti di tipo C (richiesti in bassi volumi), realizzando, invece, su ordine quelli A e B: in questo caso, l’obiettivo è quello di minimizzare la quantità di scorte dei prodotti richiesti in alti volumi; per renderlo sostenibile, tuttavia, si ha la necessità che, ogni stadio, abbia sempre la disponibilità di componenti per poter effettivamente realizzare i codici di tipo A e B come previsto dal piano degli ordini. Inoltre, come nel caso del sistema sequential pull, realizzando su ordine i prodotti dai volumi più grandi, una variazione (anche non elevata) nella loro domanda si tradurrà in impatti sul sistema e ritardi imponenti. La quarta soluzione, invece, è opposta alla precedente, in quanto si tratta di tenere a scorta i codici A e B, e realizzare in MTO quelli strangers di tipo C: in questo modo, i vantaggi / svantaggi sono duali rispetto al caso precedente, con il magazzino prodotti finiti finalizzato ad assorbire la domanda sui prodotti dal volume significativo, destinando la produzione su ordine a quelli richiesti più raramente. Entrambe queste ultime due soluzioni realizzano un sistema pull misto, all’interno dei quali diverse classi di prodotto non vengono gestite allo stesso modo, ma differenziati in base alle caratteristiche della loro domanda ed alla frequenza di riordino: 114 Definito questo, la seconda domanda consiste nel capire: quanta scorta mettere in ciascun magazzino per ciascuna tipologia di prodotto? Qua si ritorna alla distinzione di cui già si era parlato nell’ambito della riprogettazione delle celle: La scorta di ciclo dipende dalla domanda media e dal tempo di approvvigionamento (sono, difatti, le scorte che occorre tenere in quanto, il sistema, produce con una frequenza inferiore alla richiesta del cliente); La scorta di buffer dipende dalla variabilità della domanda (difatti, si tratta di una scorta dimensionata su base statistica, che consente di cautelarsi da possibili variazioni nella domanda); La scorta di sicurezza deve cautelare dal funzionamento dei processi del fornitore (occorre, infine, coprirsi da tutti quegli elementi più “rari”, che possono derivare da eventuali disruption dello stadio a monte; notare come, tali scorte, sono pensate per cautelare il caso peggiore in una logica “ragionevole”); si può, quindi, pensare di calcolarle nel seguente modo: 115 Queste formule, come ben si può osservare, non sono né generali, né complete; tuttavia, il principio sui cui si fondano è sempre il solito: meglio avere poche scorte, calcolate in maniera “grossolana”, piuttosto che un’ingente quantità ottimizzata. Si noti, in particolare, l’impatto della frequenza di riordino: raddoppiare tale valore significa andare esattamente a dimezzare le scorte di ciclo e, di conseguenza, tutte le altre categorie (calcolate come percentuali delle stesse); è quindi un aspetto fondamentale andare a lavorare con il fornitore, proprio al fine di riuscire ad aumentare, quanto più possibile questa frequenza. Infine, bisogna chiedersi: come viene organizzato e controllato il magazzino? Come già detto, in termini di organizzazione, ciò che risulta fondamentale fare è mantenere ben distinte le tre tipologie di scorta, al fine di identificare chiaramente dove si preleva, quando si preleva, perché si preleva ed eventuali miglioramenti. In genere, una efficiente gestione dei magazzini prevede, mediante l’ausilio di un software informatico, prevede una locazione automatica delle parti che devono essere stoccati: al fine di ottimizzare l’occupazione di spazio, per stoccare un prodotto, si va a verificare quella che è la prima cella libera, e lì si andrà ad inserire il codice; questo, tuttavia, contraddice il principio precedente in quanto, qualunque categoria, relativa a qualunque codice, potrebbe trovarsi in qualunque parte del magazzino (e, per essere identificata, si dovrebbe consultare il software). Per questo motivo, l’approccio lean predilige un secondo metodo gestionale, quello delle “location dedicate”: benchè più inefficiente (in quanto, per ogni categorie cycle stock, buffer stock e safety stock, per ogni tipologia di prodotto, lo spazio da dedicare dovrà essere dimensionato sulla previsione di massimo stoccaggio, anche se quasi mai presente; ciò significa prevedere, spesso, spazi vuoti), rappresenta il prerequisito per poter ridurre le scorte e migliorare il sistema; meglio quindi avere un magazzino di dimensioni contenute, gestito in logica inefficiente, che un supermarket ottimizzato negli spazi ma grande n volte tanto! In questo modo, quindi, per ogni parte, si sanno esattamente quelle che sono le unità di scorta di ciclo, di buffer e di sicurezza e, nel caso di utilizzo, si ha così la possibilità di far emergere chiaramente quello che è il problema in cui si è incorsi. Questa ultima considerazione porta ad approfondire le possibili modalità di controllo, che devono prevedere che: Ogni qual volta venga effettuato il prelievo di un’unità che non sia scorta di ciclo, ma safety stock, occorrerà ricevere l’autorizzazione da parte del responsabile del plant manager: in questo modo, difatti, si ha la sicurezza che, a tale responsabile, viene portata all’attenzione la presenza di un problema (è stato effettuato un prelievo perché si è incorsi in un ritardo di consegna da parte del fornitore, in una partita eccessivamente difettosa…), che egli dovrà farsi carico di analizzare e, se possibile, risolvere; Ogni qual volta venga effettuato il prelievo di un’unità che non sia scorta di ciclo, ma buffer stock, occorrerà ricevere l’autorizzazione da parte del controllo della produzione: in questo modo, difatti, responsabile delle operations e della programmazione si occuperanno di analizzare il motivo per cui, quel prelievo, è avvenuto, in particolare se in seguito ad una variazione casuale della domanda (e, quindi, normale e non gestibile: oggi il cliente ha domandato X + 20, domani domanderà X – 2, riportando, in media, il magazzino), oppure anomala, sintomo che, qualche cosa, potrebbe essere in cambiamento (ovvero, questa fluttuazione potrebbe non compensarsi con le successive, il che 116 significa esigenza di prendere opportune contromisure: aumentare il livello di produzione, avvisare i fornitori, aumentare il livello di ripristino…); ancora una volta, come tipico dei sistemi lean, l’obiettivo del controllo è, anzitutto, quello di rendere chiara la differenza tra quella che è una situazione normale e quella che è una situazione anormale, in quanto è quest’ultima che può offrire l’opportunità per un miglioramento. Ancora una volta, il sistema è costruito con l’obiettivo di rendere assolutamente chiaro ciò che è “normale” e ciò che è “anormale”, in quanto si tratta di eventi che dovranno essere trattati in maniera totalmente differente; ovviamente, tale finalità può essere raggiunta se e solo se, l’organizzazione e le procedure, sono state definite in modo tale da non far “pesare”, ed avere conseguenze negative sulle persone, il fatto di “fare qualche cosa di anormale”: come più volte detto, bisogna abbandonare il tradizionale approccio di comando e controllo (dove, la responsabilità, ricade sempre sulle persone e sul loro modo di affrontare le cose: lo sbaglio è quindi punito e, le singole risorse, cercano di fare di tutto per nasconderlo), diffondendo un principio volto alla condivisione ed alla manifestazione degli errori proprio perché, ognuno di questi eventi, rappresenta una possibile opportunità per il miglioramento. Infine, è interessante sottolineare il “sofisticatissimo” metodo che viene implementato per controllare il livello di queste scorte: semplicemente, alla fine di ogni turno, un addetto si farà carico di andare a quantificare il livello di scorte rimanente, segnandolo nell’apposito spazio previsto sullo spreadsheet corrispondente; si è quindi stati in grado di costruire un sistema così semplice, da poter effettuare un controllo “a mano”, potendo, quindi, prescindere da qualunque tecnologia informatica (RFID). L’approccio, ancora una volta, si è ribaltato: non si ragiona più in termini di “si utilizza l’informatizzazione per poter gestire un sistema complesso”, bensì “si costruisce il sistema più semplice possibile, in modo tale da poter ovviare a queste tecnologie” (ovviamente, comunque, nel caso in cui lo si voglia, nulla vieta di andare ad utilizzare l’RFID: potenzialmente, però, non se ne avrebbe la necessità). DARE IL RITMO ALLA PRODUZIONE: LA CREAZIONE DEL PACEMAKER A questo punto, la domanda successiva da farsi consiste nel chiedersi: dove programmare il flusso? Che tipo di sistema pull realizzare? Anche dopo la riprogettazione, alla Apogee, il fatto di avere mantenuto un processo di pianificazione centralizzato, che invii settimanalmente, i piani di produzione ai vari reparti, in modo tale da mantenere costante il livello del magazzino, genera dei disallineamenti: non è mai possibile prevedere tutte le possibili evenienze, il che fa sì che, spesso, si generino eventi inattesi che “obbligano” i reparti a coordinarsi e ad interagire telefonicamente per capire come far fronte alla situazione imprevista. Tutto ciò, ovviamente, oltre che a creare scompiglio, ha l’indesiderata conseguenza di rendere molto più variabili le prestazioni: in sostanza, quindi, una schedulazione destinata a più punti nel sistema, basata su previsioni spesso sbagliate, determinano - Alti tempi di risposta (è un circolo vizioso: lo sbaglio nella previsione aumenta il tempo di risposta, e l’aumento del lead time spinge sempre più ad operare su previsione); - Una produzione in grandi lotti (ovvero, non si è in grado di produrre esattamente quanto richiesto dal cliente); - Un focus delle performance a livello di funzione (il che può causare comportamenti che risultano essere in contrasto con gli obiettivi complessivi). 117 È proprio per questo motivo che, come già detto in precedenza, il sistema deve essere trasformato da “push” a “pull”, per il quale occorre definire il pacemaker, ovvero quell’unico punto in corrispondenza del quale verrà schedulata la produzione; in particolare: Per tutti quei prodotti che sono inseriti in un sistema di tipo replenishement pull (alti volumi, alta rotazione), in genere, lo stadio “metronomo” risulta essere la fase di assemblaggio finale (o similari), con tutti i reparti a monte che reagiscono alle istruzioni di tale stadio; Per tutti quei prodotti che sono inseriti in un sistema di tipo sequential pull (bassi volumi, richieste sporadiche e tempo di attraversamento in linea con quello richiesto dal cliente), in genere, lo stadio “metronomo” risulta essere il primo reparto del processo a flusso, che coordina, poi, l’attività di tutti i successivi; in questo caso, come visto, il prodotto procede attraverso una logica di corsie FIFO tra i vari reparti: sono proprio queste corsie a controllare la sequenza in cui, i vari stadi, devono produrre, che avanzano in base al ritmo definito dal primo stadio. Ovviamente, nulla vieta di definire, come pacemaker, uno stadio più avanzato di quello all’inizio del flusso: tuttavia, in un caso di questo tipo, bisogna tenere conto del fatto che, a monte di tale stadio, sarebbe necessario operare attraverso dei magazzini di tipo supermarket. Attenzione però: come visto, un sistema non può essere solo “replenishement” o “sequential” ma, queste organizzazioni, possono coesistere, creando un “mixed pull systems”; in casi di questo tipo, bisogna fare particolare attenzione a definire chiare regole di priorità su ciascun reparto, per evitare che, i diversi ordini e segnali, creino confusione nel processo. Definito il “metronomo”, il passo successivo consiste nel chiedersi: come livellare la produzione in corrispondenza del pacemaker? Per livellare la produzione, è possibile agire su due variabili: volume e mix; entrambe, ad ogni stadio, devono essere attentamente prese in considerazione ed analizzate. Attualmente, alla Apogee, non si ha alcun livellamento (anche perché, in origine, non era stato previsto alcun pacemaker): a fronte di un certo andamento della domanda, corrisponde un andamento, completamente differente, della produzione, che dipende dalle politiche di lottizzazione definite da ciascuno stadio (ad esempio, una domanda di 140 unità di prodotto 14509 di classe A, genera una produzione di 500 unità di tale prodotto, in quanto questo è il lotto minimo di produzione che, la cella di assemblaggio, ha previsto). 118 Questo genera una grossa inefficienza, che si propaga lungo tutta la Supply Chain interna: Il cliente avrebbe bisogno di uno specchietto destro ed uno sinistro; in realtà, l’ordine minimo che l’azienda richiede è di 10 S + 10 D. per realizzare questa quantità: 1. L’assemblaggio lottizza in quantità 500; 2. La verniciatura lottizza in quantità 1000; 3. Lo stampaggio lottizza in quantità Questo accade perché, la visione produttiva vede il set – up come una grossa inefficienza aziendale, in quanto causa perdita di produttività; per farvi fronte, tuttavia, nel caso in esame, la logica utilizzata è quella di aumentare la dimensione del lotto di ciascun prodotto realizzato, il che minimizza la perdita di produttività sul singolo stadio, ma induce tutta una serie di altri costi negli altri (aumento delle scorte, ritardi, obsolescenza, impossibilità di individuare eventuali problemi…). D’altra parte, senza modificare la visione del set – up come inefficienza e perdita dio produttività, è possibile approcciare il problema in altro modo: invece che considerare, tale tempo, come una variabile data, cercando di andare ad agire sulle logiche produttive per contenerne i costi (aumento dei lotti), ciò che bisogna fare è lavorare per ridurre il tempo di attrezzaggio di produzione, minimizzando, così, le inefficienze complessive del sistema (e non solo a livello di singolo stadio). Questo è proprio il punto di partenza per poter livellare il mix produttivo sul peacemaker; la riduzione dei tempi di set – up, difatti, non è fatta per produrre di più (il takt time non è variato), ma per produrre più frequentemente: per ogni prodotto realizzato dallo stadio “metronomo”, difatti, bisogna essere in grado di organizzarsi in modo tale da rendere minimo l’EPE (“every part every…”). In generale, tanto più frequente è l’EPE interno, quanto più si è in grado di realizzare il volume richiesto nel giusto mix di componenti, essendo quindi sicuri di consegnare, tali prodotti, “on time” allo stadio più a valle. Come ovvio, l’aumento del lotto di produzione diminuisce la probabilità di riuscire a consegnare “il giusto prodotto al tempo richiesto”; al contrario, la combinazione dell’intervallo di EPE più idoneo con le capacità produttive di ciascuno stadio determina un miglioramento delle prestazioni di consegna verso il reparto più a valle. Il tradizionale approccio di organizzazione della produzione, basato sul calcolo del “lotto economico”, risulta essere fortemente disallineato con quelli che sono i principi lean: esso, difatti, determina un livello “ottimo” che è solo funzione del costo di produzione che ne scaturisce, senza in alcun modo considerare le possibili esigenze di cambiamento di mix da parte dello stadio cliente (si irrigidisce la produzione per perseguire l’efficienza locale, senza tuttavia tenere conto delle conseguenze che, questa bassa flessibilità, ribalta sugli stadi a valle). 119 Il fatto di riuscire a mettere in produzione, i prodotti finiti, più frequentemente, accorcia notevolmente i tempi di attraversamento e, con ciò, il livello di disaccoppiamento tra i reparti: nel caso della Apogee, andare a lavorare per ridurre i set – up della cella di assemblaggio, consente di ottenere una diminuzione dell’80% delle scorte di prodotti A, e del 60% per le scorte di prodotti B. Quindi, a prescindere da che tipo di sistema produttivo è stato organizzato (mixed, replenishement, sequential…), fondamentale è calcolare e stabilire l’intervallo di Epe al quale deve lavorare il pacemaker: per alcuni prodotti, questo sarà giornaliero, per altri settimanale, per altri ancora mensile; ad ogni modo, il principio da seguire è quello ampiamente discusso: tanto più flessibile risulta essere lo stadio pacemaker (ovviamente, in linea con gli altri stadi che operano, invece, in logica batch), tanto più si avrà la possibilità di consegnare il giusto volume, nel giusto mix, all’istante desiderato; per fare questo, il “prezzo” che occorre pagare è un investimento finalizzato alla riduzione dei tempi di set – up. Attenzione, però: il principio di “minimizzare la dimensione del lotto” in corrispondenza del processo pacemaker, deve tenere conto di alcuni vincoli, quali: I differenti volumi e contenuti di lavoro tra i prodotti: è evidente che, tanto più si hanno prodotti caratterizzati da tempi di ciclo e volumi di domanda differenti, quanto meno sarà conveniente definire una dimensione comune del lotto, andando così, continuamente, ad alternarli (sarebbe, invece, controproducente: si ha quindi la necessità di definire dei valori di lotti di produzione tali da consentire di bilanciare queste differenze); Le differenze in termini di set – up (aspetto, comunque, marginale, in quanto, come detto, l’obiettivo è rendere quanto più possibile basso questo valore, indipendentemente dalla tipologia); L’intervallo di pitch definito per la produzione. È proprio su quest’ultimo aspetto che risulta interessante soffermarsi. Livellare il mix in corrispondenza del pacemaker, consente di ottenere un flusso ancora più continuo e lineare che, per sua natura, è in grado di far emergere istantaneamente possibili problemi, consentendo di prendere opportuni interventi correttivi. Per questo motivo, un buon punto di partenza, consiste nello stabilire l’intervallo entro il quale si va a rilasciare e controllare parte della produzione allo stadio pacemaker, in modo tale da essere in condizione di poter intervenire nel caso in cui sorgessero eventuali problemi (che determinerebbero l’impossibilità di rispettare il takt time): come già avuto modo di vedere, questo intervallo prende proprio il nome di pitch, e rappresenta ogni quanto si rilascia il successivo ordine di produzione e si prelevano i prodotti finiti realizzati da ordine precedente. In genere, tale valore, è calcolato come multiplo del takt time; in particolare, esso è dato dal prodotto tra il takt time ed il numero di componenti che è in grado di contenere ciascun contenitore: 120 Nel caso della Apogee, Questo significa che, ogni 9 minuti, quello che si è visto essere il “water spider” dovrà dare, allo stadio pacemaker, l’ordine di produrre un nuovo contenitore, e ritirare quello realizzato nei precedenti 9 minuti; il pitch diventa, a tutti gli effetti, l’unità di riferimento per lo scheduling della produzione. Ovviamente, questo, dal punto di vista del tutto teorico; nella realtà, ciò che si fa, è maggiorare questo valore tenendo anche conto dell’eventuale tempo necessario a risolvere possibili problemi, nonché di quello richiesto alla movimentazione dei materiali. Risulta del tutto evidente che, quanto più questo valore è piccolo, tanto più significa che la dimensione del contenitore risulta essere piccola: ciò corrisponde ad un controllo della produzione molto stretto, che va a verificare sempre più puntualmente il rispetto del takt time. Pensando al pitch come a “quanto spesso si prende consapevolezza delle capacità di risposta alla domanda dello stadio cliente”, nel definirlo, bisogna quindi bilanciare il seguente trade – off: - Stabilire un livello troppo ampio (ad esempio “una volta alla settimana”), significa dare un margine di azione troppo ampio allo stabilimento, non orientandolo verso alcun “takt time approach” (oltre che dover gestire contenitori di dimensioni sempre più grandi); - Stabilire un livello troppo ristretto significa sì essere in grado di rispondere rapidamente a possibili problemi, e rispettare il takt time ma, nel caso in cui il sistema non risulti essere pronto a lavorare a quel valore, si rischia di dover passare più tempo ad “aggiustare” possibili ritardi che a produrre. Attenzione: avere un pitch di controllo pari a 9 minuti, non significa che, ogni questo intervallo, c’è una persona che va dallo stadio pacemaker a chiedere e controllare come le cose stiano andando, bensì che, 9 minuti, rappresenta la base di programmazione della produzione, ovvero quel tempo che coordina il prelievo del materiale realizzato e la messa in produzione del successivo. Su un tempo disponibile di 450 minuti/turno, questo significa realizzare, ogni turno, 50 contenitori, i quali devono essere ripartiti sui differenti prodotti da realizzare, il che può essere fatto con riferimento ai volumi di produzione delle singole classi: Una volta definito il numero di contenitori da destinare a ciascuna classe, bisogna capire le unità che dovranno essere realizzate per ogni specifica tipologia: La classe A si compone di 5 diversi prodotti: essendo 10 la dimensione del contenitore, al giorno, per ciascuna tipologia, dovranno essere realizzate ; 121 La classe B si compone di 5 differenti prodotti: essendo 10 la dimensione del contenitore, al giorno, per ciascuna tipologia, dovranno essere realizzate ; tuttavia, poiché i prodotti di classe B non vengono ordinati ogni giorno, si decide che, ogni tipologia, viene realizzata in un lotto da 50 u/turno; Infine, per la classe C, non si deve stabilire alcun valore: poiché si è deciso di lavorare su ordine cliente, non c’è “dimensione del lotto di produzione”; si sa solo che, in base a quanto definito, restano 90 minuti da dedicare a questa produzione, ogni turno (10 intervalli = 10 contenitori = 100 unità). Sulla base di questa considerazione, si potrebbe pensare di organizzare la produzione come segue: La pianificazione presentata ragiona come segue: Primo turno (t): produzione di A 60 u14509 + 60 u14502 + 60 u14504 + 60 u14506 + 60 u14508 produzione di B 50 u14501 + 50 u14510 produzione di C ?? Secondo turno (t): produzione di A 60 u14509 + 60 u14502 + 60 u14504 + 60 u14506 + 60 u14508 produzione di B 50 u14507 + 50 u14503 produzione di C ?? Primo turno (t + 1) produzione di A 60 u14509 + 60 u14502 + 60 u14504 + 60 u14506 + 60 u14508 produzione di B 50 u14505 + 50 u14501 produzione di C ?? … 122 con questa logica, si può osservare che, mentre su A, si è in grado di ripristinare il mix su ogni turno, per B, invece, i turni richiesti sono 3; tutto il tempo che rimane a disposizione, invece, può essere allocato alla produzione di C. in realtà, la soluzione presentata non è quella massimamente “ideale”, in quanto potrebbe livellare ulteriormente il mix all’interno del turno: è difatti prevista una produzione sequenziale di tutti i codici di tipo A, poi di tutti quelli di tipo B, poi di C; poiché, i tempi di set – up, dovrebbero essere tali da permetterlo, è necessario mischiare quanto più possibile la sequenza (ad esempio, sul singolo turno: 60 u14509 + 60 u14502; 50 u14501; 60 u14504 + 60 u14506; 50 u14510; 60 u14508; produzione di C) A questo punto, sono stati definiti tutti gli aspetti “software” (individuazione del pacemaker, definizione dello scheduling, del lotto minimo…); occorre passare agli aspetti più operativi: come convogliare la domanda al pacemaker per creare un sistema pull? Che tipologia di kanban verrà utilizzata? È fondamentale aver reso chiaro come, la domanda di produzione, viene fatta pervenire allo stadio pacemaker, e che tipo di “information signal” viene utilizzato: la parola “kanban” fa proprio riferimento al cartellino che viene movimentato e che va a regolamentare la produzione da parte del processo pacemaker (tutti gli altri stadi, poi, reagiranno di conseguenza a come agisce tale reparto: o attraverso replenishement pull, o mediante pull sequenziale tramite FIFO lane). In realtà, possono esistere differenti kanban che possono asservire allo scehduling della produzione: Gli “instruction kanban” sono quei cartellini che dicono al processo “che cosa deve essere fatto”, e possono essere distinti in “kanban in – process” (ovvero, la logica “classica” del cartellino, che asserve alla produzione “one piece flow”: ad ogni stacco corrisponde un lancio di produzione da parte dello stadio fornitore) e “signal kanban” (ovvero, un cartellino che va a schedulare una produzione batch: poiché, lo stadio fornitore, non è in grado di produrre esattamente quanto richiesto dal reparto cliente, egli stacca il cartellino ogni qual volta il suo fabbisogno ha raggiunto il lotto di produzione del fornitore); I “kanban di movimentazione” sono quei cartellini che dicono “che cosa deve essere prelevato”, ovvero specificano il tipo ed il quantitativo di materiale che deve essere movimentato tra differenti reparti (anche in tal caso, si può distinguere tra kanban di movimentazione tra i reparti interni all’azienda, oppure tra un reparto ed un fornitore esterno). Il kanban può presentarsi nelle forme più disparate (può essere un pezzo di carta, un segnale informatizzato, una comunicazione telefonica…); a prescindere dalla logica adottata, è l’obiettivo di base che rimane invariato: trattasi di un metodo che rende chiaro ed univoco ciò che deve essere realizzato e portato allo stadio successivo. Per livellare il volume ed il mix, è stato quindi definito: - Una dimensione opportuna di lottizzazione (dipendente dal pitch); - Un sistema di movimentazione di cartellini che schedulino opportunamente questa produzione; rimane però il problema di come controllare la produzione in modo tale da verificare che, tale livellamento, venga effettivamente rispettato. Come detto, l’approccio lean, risponde a questa esigenza mediante la cassetta di livellamento: 123 L’unica riga identifica la pianificazione della produzione per la cella pacemaker: in corrispondenza di ogni turno, ci sono colonne verticali corrispondenti ad identici intervalli di produzione (9 minuti, il tempo di pitch). Nel caso, il turno comincia alle 7 del mattino, ed i cartellini sono movimentati dal “water spider” dell’azienda ogni 9 minuti: nei primi 9 minuti, il pacemaker dovrà produrre un contenitore pieno del primo codice di tipo A, nei secondi 9 minuti un contenitore di unità del secondo codice di tipo A e così via (come da pianificazione vista in precedenza, anche se non ottimale). In questo modo, la cassetta di livellamento consente di livellare la domanda su incrementi di intervalli temporali pari a 9 minuti: questo, come evidente, risulta essere totalmente in contrasto con il tradizionale approccio produttivo, che schedula la produzione di un certo codice per turno, o, in casi peggiori, su giorni e/o settimane. A gestire il tutto, come detto, ci pensa il “water spider” dell’azienda che, a tutti gli effetti, diventa colui che detta il ritmo a tutto il processo: Giro e attività compiute dal “water spider” Si tenga comunque presente che, tutte le attività che vengono svolte da questa persona, risultano essere “spreco”, inefficienza tuttavia necessaria (la situazione ideale sarebbe di un sistema talmente perfetto da riuscire a funzionare “da solo”): il percorso che deve compiere deve tuttavia essere dimensionato con attenzione e, evidentemente, la sua durata deve essere inferiore a 9 minuti (intervallo di pitch). Il fatto che, il “water spider”, rappresenti il metronomo, è evidente: ad ogni giro compiuto, egli arriva per prelevare i prodotti finiti, rilasciano il successivo kanban di produzione; nel caso in cui non dovesse trovare la produzione, questo risulterebbe essere il sintomo di un problema (il che dovrebbe innescare il processo di identificazione della causa, rimozione e nuovo funzionamento a regime). All’atto pratico, tuttavia, la Apogee ha verificato che, un controllo ogni 9 minuti, rappresenta un intervallo troppo stretto per garantire la stabilità di sistema (si avrebbero problemi ad ogni controllo): per questo motivo, è stato deciso di allungare l’intervallo di pitch a 18 minuti 124 La cassetta ha una struttura equivalente alla precedente, con la differenza che, in corrispondenza di ogni incrocio, si ha un numero doppio di kanban (il “water spider” passa ogni 18 minuti, portando 18 minuti di lavoro, ovvero il doppio rispetto al caso precedente). La differenza la si ha in termini di spreco: in questa nuova situazione, il “water spider” compie un giro, della durata di 7 minuti, ogni 18 minuti (prima lo faceva ogni 9), il che significa tenerlo inattivo per un lungo periodo di tempo; per evitare di incorrere in questa inefficienza, si può quindi pensare di farlo lavorare per più celle, aggregandogli il lavoro e facendogli distribuire lo scheduling e la movimentazione per più flussi: IL CONTROLLO DELLA PRODUZIONE PRIMA DELLO STADIO PACEMAKER L’aver definito le variabili ai punti precedenti, non risulta essere sufficiente: un sistema basato sull’utilizzo di kanban, difatti, deve essere supportato da opportuni meccanismi di gestione delle informazioni e dei materiali tra i processi che si trovano a monte ed a valle dello stadio pacemaker, al fine di scongiurare l’ipotesi di sovraproduzione, nonché sincronizzare meglio i reparti. Per quanto riguarda il controllo della produzione tra reparti, in genere, si può scegliere tra due soluzioni: - Farsi “guidare” dal mercato finale; - Impostare una logica basata su corsie FIFO Il farsi guidare dal mercato finale significa adottare la configurazione propria dei sistemi di tipo replenishement: in presenza di prodotti richiesti frequentemente, ed abbastanza standard, le istruzioni di produzione tra due stadi del flusso sono governati dalle movimentazioni di un magazzino di tipo supermarket: Ogni qual volta avviene il prelievo di un contenitore, un kanban di produzione viene staccato, e quello rappresenta il segnale di attivazione per lo stadio a monte; Ogni qual volta un area del magazzino risulta essere satura di un certo prodotto, significa che, lo stadio a monte, non dovrà più produrne fino al prossimo prelievo. Questa soluzione, tuttavia, non rappresenta la configurazione ideale per l’approccio lean: al contrario, ciò che bisogna fare, laddove possibile, risulta opportuno cercare di gestire la produzione tra i reparti del flusso con il minor quantitativo possibile di scorta, istituendo un sistema basato su corsie FIFO; questo, inoltre, come ampiamente discusso, consente di assicurare che, tra uno stadio ed il successivo, i prodotti vengano 125 processati esattamente nella stessa sequenza nella quale sono stati realizzati, sgravando gli stadi a valle del pacemaker delle decisioni di scheduling. Alla Apogee, attualmente, il grosso problema consiste proprio nel fatto che, non avendo optato né per l’una né per l’altra logica (ma, al contrario, avendo adottato un sistema “ibrido”: in parte gestito in logica push, in parte gestito in logica pull), c’è una forte mancanza di coordinamento tra i reparti, il che fa sì che, spesso, la cella si trovi ad essere inattiva a causa della mancanza di alcuni componenti che alimentano la sua produzione (in particolare, sono le parti stampate ad interrompere, più spesso, il flusso). Per questo motivo, per la realizzazione dei componenti standard in grandi volumi, è necessario istituire un sistema di produzione supportato da magazzini supermarket; nel costituirli, in genere, i principi da seguire sono: Posizionare il magazzino vicino a chi produce: poiché, le scorte, sono sempre e comunque sovraproduzione, è opportuno che esse siano localizzate vicino al reparto produttivo, di modo da fargli memoria di una sua inefficienza, caricargli i costi, e spronarlo al miglioramento; Dimensionarli in modo tale che, il processo immediatamente a valle, abbia sempre a disposizione i componenti necessari ad alimentare la sua produzione; In presenza di più magazzini interni, è ovviamente razionale mantenere tutte le tipologie di componenti in un unico supermarket; ci penserà poi il “water spider” a distribuirli opportunamente ai vari reparti; Per tutti i prodotti provenienti dall’esterno, è opportuno andare a creare un piccolo magazzino di stoccaggio in prossimità della ricevitoria. Da ultimo, è necessario rispondere all’ultima domanda: come organizzare la produzione al di fuori del pacemaker (ovvero, per quegli stadi che operano in logica batch)? Attenzione che, fino ad ora, si è parlato di come organizzare e far funzionare il sistema in relazione allo stadio “pacemaker” dell’azienda; tuttavia, come visto anche con la stessa Apogee, trascurare le modalità di programmazione della produzione sugli altri stadi (confidando nel fatto che, senza dubbio, essi reagiranno “pull” alle richieste della cella) potrebbe scaturire mancanza di alimentazione ed interruzione del flusso a causa di part shortages; questa cosa è particolarmente vera soprattutto in quei processi caratterizzati da più di uno stadio (a monte del pacemaker) che sono “obbligati”, per motivi di qualità e/o efficienza, ad operare su grandi lottizzazioni. In situazioni di questo tipo, l’obiettivo diventa quello di stabilire la “giusta” dimensione di questo lotto, cercando di bilanciare il trade – off tra minimizzazione dell’occorrenza dell’evento di mancanza materiali, e minimizzazione della quantità a scorta; ovviamente, in parallelo a ciò, l’obiettivo resta sempre quello del miglioramento del tempo di set – up di questo stadio “batch”, al fine di allinearlo e poterlo mettere quanto più possibile a flusso con il pacemaker. In generale, ci sono tre modi con i quali, concettualmente, far coesistere un sistema organizzato in ottica lean con degli stadi che devono comunque operare per lottizzazioni (più o meno elevate): - Far operare i macchinari di tali stadi sulla base di una sequenza fissa, il cui carico di lavoro (in termini di unità realizzate per ciascuna tipologia) può però essere variato; - Far operare i macchinari di tali stadi sulla base di una quantità di unità di ciascuna tipologia prefissata (dimensione del lotto di produzione), ma programmabili sulla base di una sequenza che può variare di volta in volta; 126 - Infine, laddove lo stadio batch abbia già raggiunto una flessibilità che gli consenta di andare maggiormente incontro alle richieste della cella, si potrebbe pensare di utilizzare un sistema basato su kanban triangolari (il prerequisito, ovviamente, deve essere la possibilità di mettere in produzione, in tempi accettabili, il particolare prodotto, non appena ricevuto il segnale). Nel caso della Apogee, la logica utilizzata risulta essere la seconda (il che è alla base di molti problemi): la dimensione del lotto viene determinata sulla base della formula del lotto economico, questo perché gli operatori e i responsabili di stabilimento sono valutati sulla prestazione “saturazione dei macchinari”, il che porta a massimizzare la produttività (con, spesso, gli operatori che addirittura sovraproducono rispetto alla dimensione del lotto predefinita); stabilire la dimensioni dei lotti in base alla sola formula dell’EOQ, senza bilanciare questo calcolo con il corrispondente EPE richiesto dal value stream, può portare (come visto) a forti ritardi, nonché a disruption determinate da mancanza di materiali in ingresso. Infine, un’ultima considerazione va fatta relativamente all’espansione ed allo sviluppo dei sistemi pull che si è andati a costruire con le risposte alle precedenti domande. In particolare, il ragionamento condotto, riguardava un particolare prodotto, gli specchietti retrovisori, le cui varianti, a loro volta, sono state suddivise in tre differenti classi (A, B e C); una volta messo in piedi un sistema pull che rispetti i prerequisiti illustrati, e ratificatone il successo, logica vuole che, la stessa organizzazione, venga mutuata anche ad altre famiglie di prodotti. Questo, tuttavia, fa sorgere un problema: con più sistemi pull coesistenti, il “water spider” si trova a dover ritmare celle pacemaker caratterizzate da takt time e pitch interval differenti; per gestire una situazione di questo tipo quindi, ad esempio, si può pensare di organizzarsi come segue: Le celle 1 e 2 hanno un pitch di 9 minuti, quelle 3 e 4 di 12 minuti, e quelle 5 e 6 di 6 minuti; bisogna combinarne la gestione in modo tale da renderle ritmabili tutte, da parte di una medesima persona, in maniera efficace. Il giro viene effettuato ogni 12 minuti; al primo giro: - Alla prime due celle, si lasciano giù due kanban e si preleva un contenitore di prodotto finito; - Alle successive due celle, si lascia giù un kanban e si preleva un contenitore; - Alle ultime due, si lasciano giù due kanban e si prelevano due contenitori di prodotto finito; al giro successivo: 127 - Alle prime due celle, si lascia giù un kanban e si preleva un contenitore; Alle successive due celle, si lascia giù un kanban e si preleva un contenitore; Alle ultime due, si lasciano giù due kanban e si prelevano due contenitori di prodotto finito; infine, al terzo giro: - Alle prime due celle, si lascia giù un kanban e si prelevano due contenitori; - Alle successive due celle, si lascia giù un kanban e si preleva un contenitore; - Alle ultime due, si lasciano giù due kanban e si prelevano due contenitori di prodotto finito. Il fatto che, questa, risulti essere la logica ottimale, lo si capisce assumendo la prospettiva della singola cella. Si considerino, ad esempio, le prime due celle; dopo i primi 12 minuti, esse si vedono arrivare due kanban e devono aver prodotto un contenitore; al giro successivo, si vedono arrivare un kanban, e devono aver prodotto un contenitore; all’ultimo giro, infine, si vedono arrivare un kanban, ma devono aver prodotto due contenitori. Questo perché, se il pitch della cella è di 9 minuti, qualunque cosa succeda, bisogna arrivare al minuto 36 con il “water spider” che ha fatto pervenire quattro kanban e portato via altrettanti contenitori: andando ogni 12 minuti, non è possibile effettuare il controllo puntuale ogni 9 (o ogni 18), ma il primo momento “intero” sarà proprio 36 minuti. Generalizzando, 36 minuti è proprio quell’intervallo che fa collimare il controllo sia delle celle da 9 minuti, che quelle da 12, che quelle da 6 (per queste ultime due, l’organizzazione è più semplice poiché, nel primo caso, il rapporto è esattamente 1:1, nel secondo, invece, 2:1; è per le prime due celle che, invece, l’istante di controllo non risulta essere sincronizzato con il pitch dello stadio): questo è proprio l’istante in cui si ha effettivamente la possibilità di verificare se, tutti gli stadi, rispettano l’intervallo di controllo manageriale definito; in questo modo, si ha la possibilità di mettere insieme celle con takt time e pitch differenti. 128
© Copyright 2024 Paperzz