Download - Unishare

LEAN PRODUCTION E LEAN
MANUFACTURING
Tutte le aziende hanno interesse nel raggiungere l’obiettivo di aumento della redditività, il che può essere
fatto, generalmente, in due modi: o aumentando le vendite, a parità di struttura di costo, oppure cercando
di ridurre i propri costi (a parità di fatturato o, ancor meglio, incrementandolo).
Poiché, nell’economia moderna, aumentare le vendite è diventata ormai una leva che dà solo benefici
marginali (i mercati sono tutti abbastanza consolidati e stabili, in termini di quote), in genere, il focus è alla
riduzione dei costi; nell’approccio strategico “tradizionale” (che si basa, tuttavia, su uno sviluppo della
strategia secondo un modello evoluto, che fa coesistere strategia deliberata ed emergente) quello che
fanno i principali responsabili funzionali è riunirsi ad un tavolo e chiedersi come sia possibile ridurre i costi
connessi ad un certo prodotto. Sono, ovviamente, possibili differenti soluzioni:
 Possibilità di eliminare alcune funzionalità del prodotto: ridurre le specifiche e le caratteristiche di
un bene consente, come ovvio, di sobbarcarsi un onere inferiore per realizzarlo; tuttavia, occorre
sottolineare come, spesso, questa sia una strategia non di facile applicazione, poiché va incontro
alle obiezioni di commerciale e marketing, che non vedono “di buon occhio” un’azione di questo
tipo (benchè sia dimostrato che, più del 95% dei clienti che acquista un prodotto multifunzionale, in
realtà poi non utilizza più del 3% di queste caratteristiche);
 Ridurre l’utilizzo dei materiali di consumo impiegati in un prodotto, o cambiarne la natura: dopo
aver condotto un’analisi ABC a valore, che abbia fatto emergere le materie prime ed i componenti
di maggiore impatto, si può pensare di portare avanti un’opera di razionalizzazione, cercando di
migliorare e/o cambiare le politiche di acquisto per raggiungere maggiore efficienza;
 Trovare dei modi per ridurre il tempo di lavorazione, il che significa incorrere in minori costi di
lavoro e del personale operativo.
Se queste sono le soluzioni “classiche”, va invece sottolineato come, l’approccio lean, segua una visione
differente nel raggiungere questo obiettivo, e complementare.
Il punto di partenza è il fatto che, qualunque processo aziendale, dal più semplice al più complesso, una
volta scomposto in attività elementari, ed opportunamente analizzato, fa emergere come, più del 50% di
tali attività che lo caratterizzano, sono targettizzabili come “non a valore aggiunto” per il cliente; ciò
significa che, se si decidesse di eliminare, da tale processo, una o più di queste attività, il cliente finale non
ne risentirebbe, in quanto riuscirebbe ad ottenere lo stesso output. È proprio qui che l’approccio lean
concentra la sua attenzione: se si fosse in grado di eliminare queste attività, senza compromettere la
creazione di valore per il cliente, si sarebbe in grado di ottenere un grande vantaggio, in quanto si sarebbe
in grado di ridurre i propri costi a parità di risultato finale.
Le soluzioni “tradizionali” (riduzione delle funzionalità, razionalizzazione dei materiali, ottimizzazione dei
tempi di lavorazione) sono senza dubbio efficaci ma, proprio perché sono gli approcci che vengono utilizzati
da tutti, rappresentano campi ampiamente esplorati, in grado di far ottenere dei benefici contenuti o,
1
comunque, marginali; d’altra parte, il “lean management” guarda ad una “montagna” che vale il 50% dei
costi e che, se fosse anche solo dimezzata, significherebbe una riduzione dei costi del 25%.
Il principio di base è, quindi, il seguente: piuttosto che porre l’attenzione su quello che il prodotto fa, sul
contenuto di lavoro e sui materiali che esso incorpora, tentando di efficentare questi aspetti, occorre
riflettere sul fatto che, in realtà, ciò che le aziende svolgono interessa al cliente solo per la metà, e quindi, è
anzitutto necessario concentrare l’attenzione su quello che viene realizzato e che il cliente non richiede
poiché, un risparmio in tal senso, consentirebbe di ottenere un vantaggio non indifferente.
Questo fu proprio il punto sul quale decise di focalizzarsi Taiichi Ohno, ingegnere giapponese considerato il
padre dell’organizzazione dei sistema di produzione di Toyota (il Toyota production system) che, per primo,
promosse proprio quelli che sono i principi alla base della “lean organization”.
Il passo di partenza, per applicarlo, consiste proprio nell’andare a classificare le attività in differenti
tipologie, distinguendo tra:
- Attività che aggiungono valore, ovvero che sono richieste dal cliente e, per le quali, il cliente è
disposto a pagare, in quanto funzionali al soddisfacimento diretto del suo bisogno;
- Attività che non aggiungono valore, ovvero per le quali il cliente non paga volentieri (poiché non ne
ha fatto esplicita richiesta), ma che non risultano eliminabili nel breve periodo;
- Attività che non aggiungono valore, quindi non richieste dal cliente, ma che sono eliminabili nel
breve termine.
È ovvio che, sull’ultima categoria, gli interventi sono immediati: a seguito della mappatura e della
classificazione, è sufficiente andare a cancellare tutte le attività di processo che risultano effettivamente
non richieste (un esempio potrebbe essere l’elaborazione di un report periodico al management,
contenente informazioni non richieste e non consultate: è, a tutti gli effetti, uno spreco di risorse); più
delicato è, invece, il discorso legato alle attività non a valore aggiunto ma difficilmente eliminabili: rientrano
in questa categoria tutte quelle azioni che, benchè NVA, siano imprescindibili per il processo proprio
perché, essendo questo strutturato in un certo modo, eliminarle istantaneamente significherebbe far
cadere l’impianto stesso del processo.
Inoltre, proprio per tale motivo, poiché tutti conoscono la struttura del processo e le caratteristiche delle
attività, nessuna delle risorse coinvolte ne riconoscerà la natura (ma, anzi, potrebbe innescarsi un processo
di accusa reciproca, dove ognuno riconosce come NVA le attività svolte dagli altri), quindi sarà ancora più
difficile mettere in atto azioni di miglioramento.
Si sottolinei comunque che, proprio per quanto detto, il fatto che queste attività risultino essere uno spreco
non significa siano inutili: per come è strutturato il processo, sono imprescindibili ma, a valle di un
miglioramento, potrebbero essere eliminate; ciò significa che, il loro inserimento in una configurazione non
ottimale rappresenta, a tutti gli effetti, uno spreco (assumendo tanto la prospettiva dell’azienda, quanto
quella del cliente, che non le ha richieste e non sarebbe disposto a pagarle).
Un esempio particolarmente calzante, in tal senso, è l’attività svolta da un operatore che, in una linea di
assemblaggio, controlla continuamente il livello dei materiali presenti; al raggiungere di un livello minimo,
inoltra, quindi, una comunicazione a monte, al fine di far evitare che, la linea, debba poi successivamente
fermarsi per mancanza di materiali in ingresso. È evidente che, il cliente, non ha chiesto nulla di tutto ciò:
questa attività non aggiunge valore per il mercato ma, nel caso in cui non venisse svolta, ci sarebbe ala
probabilità che la produzione debba fermarsi per assenza di alimentazione fatto, questo sì, che va ad
impattare direttamente sulla soddisfazione del cliente.
2
La presenza dell’operatore di controllo è diretta conseguenza di una carenza organizzativa: è uno spreco
dovuto al fatto che, l’impresa, non è stata in grado di strutturarsi in modo tale da poter ovviare ad una
figura di questo tipo che, sulla linea, deve quindi affiancare la presenza dei “classici” operatori addetti
all’assemblaggio.
Questo è solo un esempio, che può essere mutuato a tutta una serie di altre attività (e, nel caso, veri e
propri processi): chi si occupa di fare il cost acconting, il responsabile della programmazione, i capireparto
che supervisionano la produzione, sono tutti esempi di sprechi organizzativi, ovvero figure e ruoli che
l’azienda deve necessariamente prevedere perché non è stata in grado di configurarsi in modo tale da
poterne fare a meno.
Il primo passo per un approccio lean, consiste quindi proprio nell’andare ad identificare queste attività, non
a valore aggiunto, e di “spreco”, proprio perché, solo in questo modo, si ha la possibilità di fare emergere il
“mare” di opportunità che sono presenti in azienda: ad esempio, con riferimento al caso dell’operatore che
monitora il flusso ed il livello dei materiali, questo potrebbe essere eliminato nel caso in cui si fosse in grado
di instaurare, con il proprio fornitore, una relazione tale da garantire, con buona certezza, una costante
alimentazione del processo, che minimizzi la probabilità di mancanza di materiali.
Al fine di discernere al meglio quelle che sono le attività realmente a valore aggiunto da quelle che, invece,
non sono richieste dal cliente, è anzitutto interessante dare una classificazione di quelli che, Ono, chiamò i
principali “sprechi” aziendali, che sono inseribili in otto differenti categorie:
1) Difetti qualitativi: è evidente che, il cliente, non si aspetta che l’azienda esegua lavorazioni
difettose;
2) Sovraproduzione: tutta la produzione realizzata in un certo istante e che, il cliente (interno e/o
esterno) non ha esplicitamente richiesto (mediante un ordine), rappresenta uno spreco; si tenga
presente che, rientra in questa categoria, anche tutto quanto viene prodotto a scorta per anticipare
la domanda: questo è uno “spreco” poiché, l’azienda, non è riuscita a configurarsi in modo tale da
riuscire ad esaudire l’ordine (in termini di tempi richiesti) nell’esatto momento cui si manifesta,
dovendo quindi ricorrere alla scorta ed alla realizzazione anticipata (ovviamente, il principio di
“soddisfare istantaneamente un ordine” è un obiettivo solo ideale, in quanto esiste sempre un
livello minimo di scorte fisiologico; tuttavia, l’idea è quella di tendere ad una situazione che spinga
al miglioramento continuo, al fine di strutturarsi in modo tale da ottenere il massimo dal proprio
sistema);
3) Materiali ed informazioni in attesa di essere processati: tutto quello che è WIP, in coda, e che
subisce un tempo di attesa, rappresenta uno spreco organizzativo non indifferente;
4) Lavorazioni non di valore per il cliente: è spreco tutto ciò che viene realizzato e tutti i passaggi che
non sono funzionali alla realizzazione del valore per il cliente finale (ad esempio, il fatto di dover
ottenere l’autorizzazione d’acquisto da parte dei tre livelli gerarchici superiori rappresenta, a tutti
gli effetti, uno spreco, poiché sono passaggi non necessari alla creazione di valore);
5) Spostamenti non di valore per il cliente: dal punto di vista propriamente operativo e pratico, si
vadano ad analizzare tutti i movimenti compiuti da una persona nell’eseguire una determinata
attività; si potranno notare una miriade di passaggi che non sono funzionali alla creazione di valore
per il cliente (anche in questo caso, il principio è ideale: è evidente che, alcuni di questi, siano
ineliminabili ed imprescindibili, ma la logica è quella di organizzare il lavoro in modo tale da
minimizzare questi sprechi, sfruttando tutte le opportunità possibili per migliorarla);
3
6) Trasporti non di valore per il cliente: l’accezione, qui, non è intesa solo ai trasporti su lunghe
distanze, ma propriamente anche all’interno di uno stesso stabilimento/reparto; l’onere (grande o
piccolo che sia) di questa attività viene comunque sostenuta dall’impresa che, quindi, se fosse in
grado di razionalizzarla, sarebbe anche in grado di ridurre i suoi costi, così come il prezzo finale
fatto al cliente;
7) Attese delle risorse (prima si parlava di attese di materiali ed informazioni): è forse lo spreco più
grande, facilmente calcolabile ma estremamente difficile da correggere; se si andasse a calcolare il
costo opportunità del tempo speso nell’attesa di informazioni, prodotti, raggiungimenti di accordi,
scambi di idee… si potrebbe osservare un costo aziendale sostenuto di un ordine di grandezza
inimmaginabile;
8) Funzionalità non in linea con le esigenze dei clienti: è evidente che, se un prodotto reca in sé delle
caratteristiche che il cliente non ha chiesto (ma che sono comunque state realizzate, richiedendo
utilizzo di risorse), questo rappresenta, a tutti gli effetti, uno spreco;
ovviamente, ai tempi in cui Ono elaborò questa classificazione, non erano ancora così sentiti altri temi
(oggigiorno importantissimi) quali la sicurezza, l’utilizzo energetico, l’inquinamento, la compliance alle
normative; se si riflette, tuttavia, si può facilmente vedere come, ciascuno di questi aspetti più “moderni”,
che può comportare degli sprechi, possa essere inglobato in una o più delle precedenti categorie.
Nascita e sviluppo dei principi di lean management
Questa nuova filosofia nacque in conseguenza del fatto che, la Toyota, dopo la seconda guerra mondiale,
che aveva devastato il Giappone sotto ogni punto di vista, ricevette un chiaro input dal suo consiglio di
amministrazione: era necessario risollevare le sorti della nazione, ed ognuno doveva dare il suo contributo;
dal punto di vista dell’azienda, questo significava recuperare ed aumentare la propria produttività
portandola, nel giro di tre anni, allo stesso livello di quella dell’industria americana. Era, questo, tuttavia, un
obiettivo che sembrava abbastanza irrealizzabile: rispetto ai livelli di allora, significava un aumento, su un
orizzonte temporale comunque limitato, di quasi nove volte in confronto di quello che era realizzato.
Per fare ciò, fu incaricato il già citato ingegnere Taiichi Ono il quale, la prima cosa che fece, fu andare ad
analizzare e studiare i processi produttivi delle aziende americane, osservando che, essi, si caratterizzavano
per:
 Una (leggera) maggiore automazione;
 Una diversa organizzazione del processo di assemblaggio, che veniva realizzato manualmente, ed
era solo parzialmente supportato dalla tecnologia;
queste osservazioni furono di conforto ad Ono: benchè gli americani avessero nove volte la produttività dei
giapponesi, questo non era né perché avessero sostituito capitale con lavoro né perché lavorassero nove
volte più voci dei giapponesi (ovvero, tutti fattori che, altrimenti, non sarebbero stati colmabili nel breve
termine); al contrario, ciò accadeva perché avevano organizzato la produzione in modo tale da non
svolgere tutte le attività che, invece, venivano svolte nelle industrie giapponesi.
È evidente che, non realizzando tutte quelle che sono le attività “not value added”, si ha la possibilità di
far crescere la produttività: la cosa è evidente poiché, se si realizzasse un’attività compiendo cinque
movimenti, invece che quindici, il volume di output realizzato cresce inevitabilmente, ma non perché le si fa
in maniera più veloce, ma perché ne si fa meno. Si pensi, ad esempio, ad un operazione che avvita i bulloni
di una ruota; nel farlo, compirà essenzialmente cinque passi:
4
1) Prendere il bullone;
2) Avvitare il bullone manualmente (quattro bulloni per ruota);
3) Prendere l’avvitatore;
4) Saldare il bullone;
dal punto di vista del cliente, l’unica vera parte a valore aggiunto è la saldatura del bullone, mentre, tutto il
resto, rappresenta uno spreco (l’importante, per il cliente, è che la vita venga avvitata).
Come già detto, ovviamente, la logica non è quella di passare completamente “da nero a bianco” da un
giorno con l’altro: la riduzione delle attività NVA è un percorso graduale, che può essere raggiunto con un
processo di miglioramento continuo; ad esempio, con riferimento al caso della vite, si potrebbe pensare:
- Di avvicinare del 30% l’avvitatore;
- Di introdurre avvitatori a quattro punte, in grado di avvitare tutte e quattro le viti
contemporaneamente (riducendo il tempo unitario di lavorazione);
- Di far arrivare le viti in una “cassetta” insieme alla ruota, evitando all’operaio di doverle andare a
cercare (se le si avvicina del 50%, si riduce del 50% il tempo di movimentazione del particolare
“vite”).
In via riassuntiva, Ono arrivò quindi ad elaborare un sistema ed una filosofia di organizzazione, testata e
trasportata all’interno di Toyota, che può essere rappresentata mediante la seguente struttura:
L’architrave sovrastante rappresenta quelli che sono gli obiettivi, che portano ad un miglioramento
continuo al fine di ottenere un prodotto di sempre migliore qualità, con costi sempre più bassi e
consegnato in tempi brevi; questo è possibile farlo tendendo ad un unico macro obiettivo, che mira ad
accorciare il flusso produttivo, ovvero il tempo intercorrente dal momento in cui la materia prima viene
ricevuta a quando il prodotto finito risulta essere pronto per essere consegnato.
Per poter ottenere questo risultato, bisogna, come già detto, eliminare gli sprechi, e non andare più veloce:
solo riducendo gli sprechi, si ha la possibilità di costruire un sistema che “ha meno tempo” per fare cose che
non funzionano; il principio alla base della filosofia Toyota, quindi, individua in un indicatore “fisico” (il
throughput time) e non monetario, come esemplificativo dello stato di salute del sistema.
Un tempo di flusso contenuto, come detto, non lascia al processo spazio per intoppi ed inefficienze: nel
caso in cui ci fossero intoppi, difatti, non si potrebbe avere un tempo così contenuto; un tempo di
attraversamento “ideale” significa che tutto procede come un orologio svizzero, e che le operations
5
funzionano in maniera corretta; al contrario, un tempo lungo significa poter incorrere in una serie di
intoppi, che potrebbero essere poi coperti con degli sprechi (come le scorte).
Come si può osservare, questa architrave poggia su due pilastri: uno a livello di singolo operatore e risorsa,
l’altro a livello di sistema.
IL LIVELLO OPERATORE: JIDOKA
Anzitutto, emerge il concetto di “built in quality” ed autocontrollo; il principio è che non è possibile
mandare a valle l’output prodotto da un operatore a meno che, questo, non risulti qualitativamente
perfetto. Questo ha un’implicazione molto forte: chi realizza quel dato output, deve avere possesso degli
strumenti per capire se, quella cosa, l’ha fatta bene oppure no.
È questo il primo elemento manageriale di discontinuità con quelli che sono i principi “tradizionali”: non vi è
più separazione tra controllore e controllato (dove c’è un soggetto che esegue ed un secondo che controlla
tale operato: in questo caso, la logica che porta a costruire un sistema di questo tipo, vede con sospetto un
autocontrollo, che influenzerebbe il giudizio), ma il sistema Toyota rovescia questa prospettiva,
proponendo proprio che, chi esegue un’attività, sia lo stesso che poi dovrà capire se l’ha svolta in maniera
giusta o no e, soprattutto, nel caso in cui vi sia errore, capire il perché e dove si è sbagliato, poiché è solo
capendo le cause che si ha la possibilità di migliorare il proprio operato (per migliorare le performance di
qualità del sistema bisogna rimuoverne le cause, principio più volte sottolineato).
Questo porta a parlare di quella che è la principale caratterizzazione della filosofia lean, che delinea sistemi
nei quali non possono essere fatti difetti, proprio perché possono essere fatte solo le cose “giuste”; è
questo l’obiettivo a cui tendere: si vuole progettare un sistema tale da non produrre difetti, introducendo
un cambiamento forte nel rapporto tra uomo e macchina.
Con l’introduzione della spinta automazione, difatti, la seconda rivoluzione industriale aveva concepito un
ruolo dell’uomo “a servizio della macchina” (è la macchina a lavorare e, nel caso in cui qualche cosa
andasse storto, toccherebbe all’operatore intervenire e risolvere il problema); la filosofia lean, invece, vede
la macchina al servizio dell’uomo, in una logica proattiva e funzionale al raggiungimento degli zero difetti (la
macchina lavora ed avvisa, in maniera preventiva, l’operatore, prima che si verifichi qualche cosa di
anomalo).
Un telaio automatizzato consente di eseguire le attività in maniera più veloce, tuttavia necessita di un
operatore, addetto al controllo qualità, che ne verifichi continuamente l’operato; come detto, tutto ciò che
è controllo è spreco, spreco che potrebbe essere evitato se si progettasse la macchina in modo tale da non
dover controllare le eventuali difettosità, in quanto essa non ne produce (proprio perché, come detto, la
macchina deve essere concepita in modo tale da “avvisare” preventivamente prima che accada qualche
cosa che potrebbe portare al difetto).
Tutto ciò, come detto, porta alla costruzione di sistemi “built in quality”, che prevengono la possibilità di
fare difetti.
Attenzione, dire “difetto” non significa dire “errore”: mentre l’errore rappresenta un’attività eseguita in
modo sbagliato da parte di un operatore (un assemblaggio erroneo, l’inserimento di una cifra scorretta in
un modulo..), il difetto è un qualche cosa che arriva al cliente finale (interno o esterno); l’approccio lean
predica gli zero difetti, non gli zero errori, il che è una distinzione molto importante da avere presente.
Fare errori è umano, e non si può richiedere alle proprie persone di non farne, proprio perché
significherebbe non riconoscere che sono umane e che possono sbagliare, il che risulterebbe avvilente e
6
poco motivante (dare un obiettivo di “zero errori”, significherebbe dire “si è bravi solo se non si
commettono sbagli”; poiché, però, questo è impossibile, ciò significherebbe non essere “bravi”, con il
risultato di demotivazione).
Il messaggio è un altro; l’approccio lean sa che la risorsa può sbagliare, ma il sistema deve essere
progettato in modo tale da permettere di intercettare quell’errore, identificandolo, dando agli operatori gli
strumenti per capire il prima possibile questo errore, trovandone la causa, evitando che sia passato allo
stadio a valle e cercando di evitare che, in futuro, questo si ripeta.
Le operations sono “full proof”, ovvero a prova d’errore, in quanto costruiscono un sistema che consenta di
rendersi conto non appena venga commesso uno sbaglio, aiutando che, tale errore, non si trasformi in un
difetto.
Ecco quindi il concetto chiave: bisogna rendere manifesti ed espressi i possibili errori commessi proprio
perché, solo in questo modo, si ha la possibilità di avere l’aiuto da parte degli altri per cercare di risolverlo
ed evitare che venga ripetuto in futuro; la risorsa non viene “punita” se sbaglia, ma richiamata se, tale
errore, non lo segnala.
Cambia, ovviamente, in maniera totale l’approccio aziendale: la nuova filosofia deve essere il fatto che “far
emergere gli errori è bello e positivo”, senza cercare di coprirli, accusare gli altri e scaricare le colpe; solo
rendendoli espliciti si ha la possibilità di capire le cause dei problemi, risolverli e migliorare la qualità
dell’organizzazione.
In definitiva, quindi, questo primo pilastro identifica i principi in base ai quali la singola risorsa deve
lavorare: essa deve essere consapevole di quello che fa, potendo intervenire per migliorare tale operatività,
rendendosi conto se lo sta facendo “bene” o “male”.
JUST IN TIME
Il secondo pilastro è relativo alle modalità con cui, le differenti risorse, interagiscono tra loro, il che realizza
un sistema cosiddetto “just in time”.
Ono partì dalla seguente domanda: “com’era possibile programmare, seguire e gestire tutte le attività di
realizzazione di un’autovettura, di modo tale da avere il pezzo giusto, nella quantità giusta, al posto
giusto?”
La risposta tradizionale del settore era, a fronte di un ordine ricevuto ed una data prevista di consegna
richiesta dal cliente, mettere in piedi un sistema caratterizzato da:
- Un efficace flusso informativo verso i fornitori, che permetta di comunicargli, in maniera
tempestiva, date di scadenza e previsioni di consegna da rispettare;
- Una definizione di scansioni temporali precise e definite per ciascun reparto (MRP, sheduling…);
tutto questo, delineava un sistema integrato, complesso e capace di rispondere alle richieste del cliente in
maniera più o meno efficace.
Ono giudicò, questa soluzione, inadatta poiché, nel 90% dei casi, una progettazione di questo tipo fa sì che
si arrivi fuori tempo; il che è evidente: benchè si siano pianificate in dettaglio tutte le attività, anche senza
margine di errore apparente (si parte dalla data di consegna, e si pianificano tutte le attività a ritroso per
rispettarla: ogni azione, da oggi in poi, sarà legata e funzionale all’evento “consegna”), nel mondo reale
7
accadono poi una serie di cose non prevedibili ed aleatorie, che vanno a “sconvolgere” questi piani di
dettaglio. Un’organizzazione di questo tipo va bene se e solo se si ha l’assoluta certezza che, da oggi alla
consegna, tutto vada in perfetto orario e come pianificato: in realtà, accadono cose che non sono state
previste e, ciò, determina una riprogrammazione ed un cambiamento dei piani (ogni evento “turbante”
richiede una revisione dei piani).
Una configurazione di questo tipo, quindi, non si può collocare correttamente nel quadro delineato da Ono:
il pezzo giusto, al posto giusto, e nella giusta quantità deve esserci sempre, non con margine di probabilità.
Ma come si fa ad essere sicuri che serve quel componente, in quella versione, in quel luogo, in quella
quantità, senza ovviamente partire dall’approccio classico, che, come detto, non funziona?
L’unico modo è agire “just in time”: l’incertezza è azzerata solo nel momento in cui, mentre si sta
realizzando un prodotto, il cliente richiede che, su tale prodotto, venga montato il componente X nella
versione A; solo in quel momento si ha l’assoluta certezza sulla domanda finale.
Un sistema che consentisse di produrre in questa logica sarebbe, ovviamente, a velocità “infinita” (si sta
montando il prodotto, il cliente richiede un certo componente, il produttore lo richiede e, istantaneamente,
questo gli risulta disponibile: ovviamente, è una situazione ideale); un buon compromesso potrebbe
tuttavia essere l’organizzarsi in modo tale da avere una certa quantità di componenti da tenere in process
e, quindi, immediatamente disponibili, non appena ne si ha bisogno.
Attenzione, le scorte sono sì spreco ma, in certi casi, imprescindibili; tuttavia, andando a vedere da ciò che
dipende il livello di materiali da tenere in process per ciascuna tipologia, si ha la possibilità di minimizzarne
la quantità. È evidente che, la causa principale, è rappresentata dal lead time di riordino e, in seconda
battuta, dalla cadenza della linea (se avanza una macchina ogni 5 minuti, ed il componente ha un tempo di
riordino di 20 minuti, occorrerà averne, al minimo, 4 a servizio del processo).
La logica tradizionale ragiona come segue:
- Ci sono tempi di riordini lunghi;
- Adottare delle scorte significherebbe aumentarne eccessivamente il livello;
- Per tentare di livellare queste problematiche, ci si rifà a sistemi previsionali, dicendo esattamente ai
fornitori cosa mandare e quando (sapendo cosa si dovrà produrre per un certo periodo, vengono
inoltrati gli ordini proprio in base a questo piano, avendo la garanzia che, queste scadenze, vengano
rispettate);
come detto, se tutto andasse come previsto, il sistema consentirebbe di avere scorte nulle (vengono
rispettati i piani, i fornitori consegnano alle date previste, il produttore realizza quanto pianificato), ma ciò
non è così (arriva il componente X nella tipologia A, in realtà di deve produrre un prodotto che richiede il
componente X nella tipologia B).
il nuovo approccio, ribalta la prospettiva; se, prima, dato un tempo di approvvigionamento lungo, era
necessario fare una previsione e dare un ordine in logica anticipativa (per non incorrere in scorte
eccessive), incorrendo, tuttavia, nel rischio di cambiamento di tale previsioni, ora si vuole ragionare sulle
informazioni che siano il più certe possibili (perché sono questi dati che consentono di ottenere il giusto
prodotto, nella giusta quantità, nel giusto posto), posticipando, quindi, il più in là possibile, l’ordine.
8
Da una logica in azione (si costruiscono piani per rispettare le scadenze previste), si passa ad una in
reazione: poiché le previsioni sono sbagliate, non si può far perno su queste, ma ragionare solo in
prossimità delle richieste del cliente.
Se non si è preparati a farlo, però, si torna al limite che ha portato a sviluppare l’approccio previsionale (si
rischierebbe di annegare nelle scorte: occorre avere tutti i principali componenti che il cliente potrebbe
richiedere, il che è una forma di spreco); per far sì che ciò non accade, occorre agire sulla rapidità, andando
a lavorare con i fornitori al fine di avere i lead time che siano più brevi possibili; non a caso, ridurre il tempo
di consegna consente di ridurre anche il tempo di risposta del sistema (principale prestazione).
Da sistemi “push”, spinti dalla produzione, a sistemi “pull”, ovvero tirati da una richiesta cliente, e non da
una previsione che, essendo riferita al futuro, non potrà che essere sbagliata; un sistema rapido consente di
operare in reazione alle richieste del cliente (viene richiesto un componente di tipo X, viene detto al
fornitore di realizzare un componente di tipo X; viene consumato un componente di tipo Y, viene richiesto
al fornitore di rifornire il componente Y consumato), utilizzando solo un minimo di scorta: questa è la
soluzione ottimale, a patto, però, come detto, di essere rapidi.
La reattività alle richieste del cliente è però solo una parte caratterizzante il sistema.
In genere, i modelli tradizionali si strutturano secondo una logica gerarchica, nella quale si ha un unico
centro che, tramite tecnologie e sistemi informatici avanzati, è in grado di controllare, coordinare e valutare
l’operatività della sua fabbrica e della sua intera Supply Chain, ottimizzando la gestione e dando indicazioni
su quello che deve essere fatto. Questo, tuttavia, è un modello vincente solo sulla carta: benchè, in teoria,
sembri ottimizzare, in realtà, ha due grossi svantaggi
- Richiede dei grandi investimenti;
- È “bottleneck”, nel senso che c’è un unico management che si erige sopra l’intera filiera e pretende
di controllare tutto.
Ono bocciò anche questa soluzione: poiché, oramai, i sistemi sono sempre più complessi, è impensabile
gestire, gerarchicamente, questa complessità (non si può controllare un sistema complesso imbastendo un
sistema ancora più complesso). Al contrario, è opportuno creare una serie di automatismi e delegare una
serie di decisioni che non vengono più prese a livello centrale; il management, interviene centralmente solo
“per eccezioni”: nel 95% dei casi, il sistema deve poter camminare da solo, lasciando il compito di prendere
le decisioni al singolo soggetto, il quale possiede tutte le informazioni adatte e funzionali per farlo.
Il ruolo del manager e del responsabile, quindi, non è più quello di coordinare centralmente, gestire e
prendere decisioni, ma di governare un sistema basato su una serie di regole, informazioni, competenze e
struttura dei ruoli tali che, nella maggior parte dei casi, gli permettano di funzionare correttamente senza
che vi sia bisogno di un intervento “centrale”.
È questo ciò che rende di successo e funzionante un sistema di operations: l’organizzazione funziona se e
solo se al management non è continuamente richiesto l’intervento, potendo dedicare il suo tempo non a
risolvere problemi, ma ad aiutare il sistema a migliorare, lavorando per far crescere le risorse e migliorare
continuamente.
La quotidianità deve scivolare via in automatico, e non essere gestita: solo se non sono sommersi dagli
aspetti più operativi, i managers possono effettivamente spingere i miglioramenti di sistema.
9
Si tenga presente che, questi due pilastri, si basano su due importanti prerequisiti:
1) Standardizzazione delle procedure di lavoro: tutti svolgono le operazioni allo stesso modo;
2) Tensione e ricerca del miglioramento continuo.
Al di là di quello che il senso comune possa far pensare, in realtà, queste due cose non risultano essere in
contrasto: il fatto di implementare una regola, che può essere replicata da più persone, che svolgono la
medesima attività ma che operano in condizioni differenti, non significa porre un freno all’innovazione ma,
anzi, in questo modo, si ha la possibilità di far leva su più “voci” che pensino ad un modo per migliorarla,
provandola, testandola e verificandola; ovviamente, nel momento in cui ne venga verificata la validità, sarà
possibile estenderla al fine che diventi la nuova procedura standard per tutti, di modo che tutti possano
“godere” dei benefici di questa scoperta.
In questo modo, il tasso di miglioramento del sistema è molto più rapido: non è che ognuno migliora per
solo per sé stesso, confinando possibili miglioramenti nel suo ambito; ogni intuizione deve essere goduta
dagli altri, e questo è possibile, ovviamente, solo se si lavora sulla stessa cosa.
Per questo la standardizzazione risulta essere fondamentale: realizzare una procedura significa non dover
pensare e prendere decisioni, poiché si tratta di seguire un protocollo definito, il che consente di dedicare
la propria mente ad altre cose, oltre che avere la certezza che, tale regola, funzioni.
Attenzione: questa cosa non è assolutamente demotivante, per due motivi:
- Non viene eseguita una procedura ed una regola imposta dall’esterno, bensì un protocollo
sviluppato e migliorato dalle stesse risorse che andranno ad eseguirlo e mettere in atto;
- Nel caso in cui qualche cosa dovesse andare storto, si può far leva sul fatto che non è il singolo ad
aver sbagliato, ma il protocollo; ad essere messa in discussione non è il singolo, ma la regola: nel
caso in cui si verifichi un caso in cui, tale procedura, si rivela essere non funzionante, è possibile
modificarla ed adattarla per farla funzionare anche in quello specifico caso.
La filosofia lean, è quindi orientata a
 Eliminare tutte quelle che sono le attività non a valore aggiunto;
 Eliminare qualunque forma di spreco;
in particolare, nel rappresentare questi principi, è possibile fare riferimento ad una interessante metafora,
quella della barca che naviga nel mare, che vuole far passare il seguente principio: il sistema non deve
essere progettato in modo tale da coprire e cercare di far manifestare i pinti di debolezza ma, anzi,
favorirne e spingerne l’emersione, per far sì proprio che essi vengano affrontati e superati.
10
La barca rappresenta l’azienda, mentre gli scogli tutte quelle che sono le cose che potrebbero non
funzionare (ritardi dei fornitori, carenze della rete, mancanza nella formazione del personale); il livello
dell’acqua, invece, rappresenta il livello di coda / scorta / pazienti / prodotto in attesa.
L’approccio tradizionale porta a ridurre e minimizzare questi scorte, ad un livello però tale da permettere
alla barca di navigare appena sopra gli scogli; in sostanza, l’azienda funziona incorrendo in meno problemi
possibili (in sostanza, ci sono delle scorte di sicurezza che garantiscono un certo livello di servizio:
probabilità minore dell’X% che si vada a sbattere contro lo scoglio X).
L’approccio lean, al contrario, ribalta la prospettiva, dicendo che non esiste un livello minimo di scorte;
poiché le scorte sono uno spreco, occorre abbassarne il livello al fine di fare emergere i problemi: in questo
modo, la barchetta andrà a sbattere contro uno di questi scogli (ovviamente, questa diminuzione, sarà
graduale, consentendo di affrontare un problema alla volta). Così facendo, tuttavia, diventa chiaro a tutti
che c’è un problema che, per poter proseguire, deve essere affrontato e superato, andando ad identificarne
le cause per capire come eliminarlo (e non alzando il livello delle scorte per coprirlo!).
Messe in atto delle azioni in modo tale da abbassare l’altezza di questo scoglio, la barca ricomincerà a
navigare, andando inevitabilmente a sbattere contro un altro scoglio: altro problema, altra risoluzione (e
così via).
Come si può osservare, per far sì che l’azienda navighi, sono gli scogli ad abbassarsi (quindi i problemi
vengono superati), non le scorte ad alzarsi; una volta spianati tutti i problemi, si potrà quindi pensare di
abbassare ulteriormente il livello delle scorte: la barca andrà a scontrarsi con altri problemi, che dovranno
essere risolti, in una sorta di “never ending process”.
In questo modo, inoltre, facendo emergere i problemi in maniera razionalmente graduale, si ha la
possibilità di dare urgenza ed oggettività su qual è il problema: non ci sono litigi e conflitti per identificare
quello che è il problema che dovrà essere risolto, poiché la barca si è incagliata, e la cosa è esplicita e
manifesta a tutti.
La situazione “ideale”, a cui tendere, è quella dove si ha una superficie così liscia da poter navigare senza
problemi.
L’APPROCCIO AL PERSONALE
Ma qual è il profilo che si delinea per le risorse inserite in un sistema lean?
11
Persone di medie capacità che ottengono risultati brillanti perché c’è eccellenza di processo: può
effettivamente funzionare questo nel moderno mondo industriale?
All’interno di un’organizzazione minimamente complessa, il contributo che il singolo individuo può dare al
processo, viene superato dall’importanza della struttura del processo stesso (informazioni, attività, loro
sequenza, passi da seguire; la persona più “brava”, all’interno di un sistema complesso che non funziona,
difficilmente potrà avere un impatto significativo e determinante. Al contrario, in sistemi più semplici, una
persona brillante, potrebbe cambiare, anche in maniera decisiva, i risultati e l’orientamento
dell’organizzazione.
Poiché, la maggior parte dei sistemi, è complessa, allora è opportuno concentrarsi sull’aspetto in grado di
influenzarli maggiormente, ovvero il processo, abbandonando tuttavia il classico approccio “militare” (i
responsabili dicono cosa, fare ed i sottoposti eseguono): persone di medie capacità operano su un
processo che è sì centrale rispetto all’individuo, ma va sottolineato come sia stato lo stesso individuo che lo
esegue a disegnare il processo, proprio perché ci opera quotidianamente e lo migliora. Per la parte di sua
competenza, ciascuna risorsa contribuisce ed assume il ruolo di disegnatore del processo, modificando ed
influenzando il sistema con cui lavora, e partecipando al processo di miglioramento delle procedure.
Come già detto, inoltre, poiché centrale è il processo, nel momento in cui si ottenesse un risultato finale
sbagliato, la colpa non sarebbe da ricercarsi nell’individuo, ma nella struttura del processo stesso; è questo
l’unico scenario veramente credibile e sostenibile affinchè si possa pensare che, una volta rilevato un
errore, l’individuo sia portato a dichiararlo; è stata eseguita un’operazione, è stato commesso un errore, e
questo potrebbe generare un difetto: proprio perché, centrale, è il processo, la risorsa sarà più spinta ad
ammettere questo fatto, comprendendo l’errore, provando a ripararlo ed andando, così, ad operare in un
sistema che andrà meglio (quindi, la logica non è quella del “rimprovero per l’errore” ma, addirittura, quasi
un “ringraziamento”: identificando e facendo emergere lo scoglio, la risorsa ha consentito di migliorare il
processo).
È evidente come si trattai di una visione completamente diversa dell’azienda, forse un po’ ideale, ma
comunque rivoluzionaria: per attuarla, si parte con mettere in atto un approccio incrementale,
migliorandola, via via, nel tempo.
Inoltre, si vada a guardare a quella che è la distribuzione delle categorie di risorse (in termini di
caratteristiche); ipotizzando una distribuzione normale, si avranno:
- Un 6% di persone non adatte a prescindere per il sistema;
- Un 6% di persone particolarmente brillanti;
- Un 88% di persone di “medie capacità”;
l’approccio lean, tolto il 6% di persone non adatte alla realtà, dice al restante 94% che vanno bene per il
sistema e, nel caso in cui non riuscissero a farlo funzionare correttamente, ad essere non idonee non
sarebbero le risorse, ma la procedura ed il processo (ad esempio, per una struttura sbagliata, o una
mancanza di informazioni).
Si disegna un’organizzazione dei processi che vada bene per la gran parte delle persone, proprio perché, le
operations, verranno fatte funzionare, con alta probabilità, da persone che non sono né non idonee, né
particolarmente brillanti (puramente per un fatto statistico).
Questo non significa che, le persone più brillanti, che vanno nelle società per poter mettere in atto le loro
capacità, non sono attratte da un’organizzazione come quella di Toyota, nella quale, centrale, è il processo
12
(e non l’individuo, come loro vorrebbero): le persone brillanti vanno laddove hanno la possibilità di
realizzarsi, ma questo accade anche in Toyota, proprio perché possono dare il loro contributo nel migliorare
il sistema, miglioramento che può essere sfruttato da tutti.
In linea teorica, questi principi sono mutuabili a tutti i contesti; è senza dubbio vero che, possono adattarsi
meglio a configurazioni più orientati ai mass service piuttosto che a professional service, ma non ne si deve
fare tanto una questione di natura dell’attività e sue caratteristiche, quanto di struttura delle conoscenze.
Quanto più un’attività è indefinita, con difficoltà a prevederne l’evoluzione, quanto meno si sarà in grado di
lavorare con un metodo (proprio perché, questo metodo, non è ancora conosciuto); tutti i principi descritti
come basilari dell’approccio lean risultano quindi, applicabili in maniera molto più circoscritta. Tuttavia, in
un futuro, potrebbe essere possibile che, in funzione dell’esperienza accumulata, sia possibile
effettivamente costruire questo metodo, trasformando, quindi, quell’attività da “professionale” a
maggiormente “mass”, potendo così mutuare i concetti visti.
Se la struttura delle conoscenze evolve, si ha la possibilità di mettere a punto delle procedure e dei modi di
operare e cercando poi di lavorare su questi: lavorare con una procedura non è svilente, nel momento in
cui, chi ci lavora, è il padrone stesso del metodo (nessuno impone niente dall’alto, ma ognuno è in
condizione ed in potere di introdurre miglioramenti, senza separare la decisione di “come farlo” dal “chi lo
fa”).
La procedura è uno strumento di burocrazia, che ingessa l’organizzazione, solo quando è utilizzata come
strumento di controllo; nell’approccio lean, invece, viene creato un sistema in cui la procedura è uno
strumento operativo: essa “insegna” alle risorse quello che devono fare, ed è uno strumento di formazione
che si presta ad adattamento nel momenti in cui la realtà richiede qualche cosa di diverso (il singolo può
modificarla senza che questo richieda l’intervento di livelli gerarchici superiori, in un sistema estremamente
dinamico, che passa da un dato stato stabile ad un altro stato stabile, facendo evolvere tale procedura).
I PRINCIPI LEAN
Approfondite quelle che sono le “guidelines” generali, è possibile entrare più nel dettaglio di quelli che
sono i principi alla base dell’approccio lean; Taiichi Ono li declina in quattro categorie:
1. Flusso: è fondamentale riuscire a “vedere” il flusso delle attività di trasformazione del prodotto,
analizzandone attentamente la crescita di valore all’interno dello stabilimento, seguendone tutti i
passi e le fasi;
2. Cadenza: è fondamentale riuscire a dare un ritmo a tutta l’azienda poiché, tale ritmo, è ciò che
consente di avere dei feed – back più o meno ravvicinati su come si sta lavorando (dire che devono
essere realizzati 80 prodotti al giorno è molto diverso che dire che devono essere prodotto 10
oggetti l’ora; sono due ritmi differenti, che indicano controlli di processo più o meno stringenti);
3. Pull: bisogna lavorare solo in reazione alle richieste del cliente;
4. Zero difetti: bisogna operare per ottenere una qualità (interna) sempre più alta, senza far giungere
difettosità al cliente.
Questo stessi principi sono poi stati rielaborati da altri studiosi (come Womack e Jones), che li hanno
dettagliati in alcuni principi più chiari.
Definire il valore
Ciò che è di valore lo definisce il cliente, non l’azienda; è quindi fondamentale chiedersi ed identificare
cosa, per lui, è effettivamente di valore e cosa non lo è. L’azienda, quindi, deve assumere la prospettiva del
13
cliente e, da questo punto di vista, cercare di comprendere a che cosa egli attribuisce maggiore importanza.
Come già, a suo tempo, si era avuto modo di sottolineare, il comprendere che cosa vuole il cliente è uno dei
punti cruciali per un’azienda di servizio, un mondo che, più di quello manufatturiero, presenta ancora molti
ambiti di miglioramento in quanto, spesso, non in grado di incontrare perfettamente ancora tutte le
esigenze e/o soddisfarle nella maniera corretta.
Dal punto di vista economico, questo si è tradotto in un ribaltamento nelle logiche di valutazione
strategiche.
Nell’approccio tradizionale, le aziende si trovano a fare un pricing basato sul modello del mark – up, che
spinge a
- Realizzare il prodotto al costo più basso possibile;
- Maggiorare, tale costo, di un mark – up che serva a remunerare il capitale;
- Ottenere il prezzo finale come
, che dovrebbe rappresentare il valore
più basso e competitivo possibile.
Questa logica ha, nel costo e nel mark – up fissato, le due variabili indipendenti, che determinano
univocamente il prezzo (variabile dipendente); tuttavia, facendo l’assunzione di un prezzo rappresentativo
di quello che è il valore dell’oggetto per il cliente, ciò significa che, entità e contenuto del valore viene
definito dall’azienda stessa.
Al contrario, la filosofia lean adotta un approccio differente; a fronte di un prodotto/servizio concepito, con
certe caratteristiche, l’azienda deve “mettere gli occhiali” del cliente, al fine di capire quanto, questo,
sarebbe disposto a pagarglielo. Il prezzo, diventa quindi la variabile indipendente, al quale si affianca la
seconda variabile fissata, il mark – up desiderato: posto questo, ciò che è univocamente fissato è, ora, il
costo (minimum allowable cost), che diventa l’obiettivo da raggiungere se si vogliono rispettare le analisi
fatte.
È possibile realizzare il prodotto/servizio (con le caratteristiche definite) a quel costo, al fine di riuscire a
dare al cliente il valore “equo” (identificato dal prezzo) e raggiungere la marginalità desiderata (mark – up)?
In caso di risposta affermativa, allora si può procedere, altrimenti è necessario trovare altre soluzioni
(cambiamento delle caratteristiche, modifiche all’organizzazione…).
Il cambiamento è forte: si passa da una logica inside – out (costo + mark – up = prezzo) ad una logica
completamente outside – in (prezzo + mark up = costo), che parte sempre e comunque da considerazioni su
quello che è il valore associato dal cliente alla value proposition.
Identificare il flusso
La necessità di far scorrere il flusso, in questo caso, non pone tanto l’accento sull’esigenza di avere una
cadenza (come detto prima), bensì sulla necessità di avere un continuo avanzamento delle attività (avere
un blocco significa che, l’oggetto della trasformazione, è in attesa in qualche punto del sistema: questa è
un’inefficienza, in quanto emerge un problema: bisogna quindi andare ad identificarlo e analizzare le
opportunità per ridurlo / eliminarlo); il sistema ideale, nella prospettiva lean, è quello dove si ha uno
scorrere continuo, e tutte le risorse lavorano incessantemente alla trasformazione.
Il flusso diviene quindi insieme di attività rappresentative del processo di trasformazione per giungere
all’output da consegnare al cliente: identificare tale flusso significa, quindi, seguire propriamente quello che
è tale percorso di trasformazione, mettendone in evidenza le caratteristiche (risorse e competenze
richieste, funzioni attraversate, tecnologie utilizzate…).
È possibile identificare tre diverse tipologie di flusso:
14
 Flusso di trasformazione degli input nell’output finale: altro non è che l’insieme dei processi
operativi che si occupano della produzione del bene/servizio;
 Flusso d’informazione: ovvero, tutte quelle che sono le informazioni ed i dati che è necessario
gestire per portare correttamente l’output al cliente finale;
 Il flusso di innovazione: ovvero, quel processo che porterà alla realizzazione di nuovi prodotti, e che
va dall’idea generation, fino all’effettiva produzione di quel nuovo prodotto/servizio.
Per ognuno di questi flussi, vanno separate le attività che aggiungono valore da quelle che non aggiungono
valore, cercando, quanto più possibile, di eliminare quest’ultima categoria.
Far scorrere il flusso
In un sistema di operations ideale, il flusso identificato non viene mai fermato: deve scorrere, senza intoppi,
e con continuità; si parte a t = 0 con valore nullo e, ad ogni attività svolta, il valore viene incrementato di
una certa percentuale, a crescita costante e mai assente. Bisogna, quindi, evitare
- Attività che non contribuiscano a questa crescita;
- Attività/eventi che fermano tale flusso (che sono spreco, come le attese di processo);
ecco quindi che, in una logica di miglioramento continuo, è necessario identificare tutto ciò che potrebbe
potenzialmente fermare il flusso, identificarne i motivi di blocco, quelle che sono le cause che lo
determinano e, dove possibile, rimuoverlo; nel corso del tempo, questo porterà il processo ad essere
sempre più fluente.
Legare il tutto al cliente
Il principio basilare di un’azienda lean è proprio quello di operare sempre in reazione a quanto vuole il
cliente, e mai in azione; ciò è un cambiamento molto forte, in quanto significa stravolgere tutto quello che
ha portato allo sviluppo della conoscenza: le tecnologie dell’informazione, ad esempio, nascono proprio per
dare ai managers la possibilità di controllare maggiormente il sistema, gestendone ed integrandone tutte le
parti in maniera coordinata (si pensi ai software di previsione della domanda, ai sistemi di programmazione
controllo della produzione, ai programmi di riordino automatico…).
Purtroppo, le cose, non stanno così: non sarà mai possibile governare ad un livello nullo di incertezza
sistemi sempre più complessi ma, anzi, questo desiderio (non raggiungibile) potrebbe portare a
conseguenze indesiderati; la risposta, quindi, deve essere quella di semplificare i sistemi, senza avere la
pretesa di controllarli, ma dando così la possibilità di poter operare in reazione.
Si consideri il seguente esempio; si supponga che un prodotto abbia un tempo di attraversamento di 3
settimane, in uno stabilimento abbastanza complesso (vari reparti, outsourcer, attese…); il management,
tuttavia, vuole sempre essere informato ed avere sotto controllo la posizione del prodotto, istante dopo
istante (lavorazioni effettuate, stato di avanzamento…) per poter dare al cliente feed – back immediati sulla
produzione: in un contesto di questo tipo, l’approccio tradizionale porta ad investire, ad esempio, in bar
code e sistemi di tracciamento.
Il lean, invece, ribalta la logica: si ha bisogno di questi sistemi perché ci si impiega 3 settimane invece che 3
giorni; se si riuscisse a portare il lead time al valore obiettivo richiesto dal cliente, non si avrebbe necessità
di investire in nulla poiché si saprebbe con certezza che, un prodotto lanciato in produzione un giorno fa,
tra massimo due giorni, sarà pronto: non si ha quindi bisogno di alcun sistema di controllo.
Attenzione: il fatto di voler legare tutto al cliente non significa far lavorare le proprie persone più
velocemente (proprio perché devono operare in reazione e non più in azione); poiché, il 90% del tempo in
cui operavano in azione era spreco, per lavorare efficacemente in ottica pull, sarà sufficiente eliminare
15
tutte quelle inefficienze, semplificando il sistema e depurandolo di tutti quelli che erano gli aspetti non a
valore aggiunto, senza quindi avere esigenza di sovrastrutture che supportino il controllo di sistemi
complessi.
È proprio questo il significato del termine “pull”: farsi tirare dalla richiesta del cliente, impostando sistemi in
grado di reagire istantaneamente alla domanda, nel rispetto degli obiettivi di rapidità e di riduzione del
tempo di attraversamento.
Perseguire la perfezione
Infine, l’ultimo aspetto riguarda la capacità di cercare sempre di migliorarsi: non esiste mai un livello di
difettosità o di scorta sufficientemente basso da potersi ritenere soddisfatti (il livello ideale è, ovviamente,
0).
Non bisogna ragionare per target ed obiettivi intermedi (bisogna passare da A, con date caratteristiche, a B,
con altre caratteristiche), ma per tendere alla situazione migliore possibile: bisogna puntare ad avere scorte
nulle ed una difettosità dello 0% e, finchè non si sarà in questa condizione, bisognerà continuare a cercare
di migliorarsi.
L’obiettivo è la perfezione, proprio perché l’unico ragionevolmente in grado di spingere ad un
miglioramento continuo (proprio perché irraggiungibile); in tal senso, la perfezione è intesa come obiettivo
di direzione: dire “zero scorte” e “zero difettosità” consente di dare una rotta, che poi dovrà essere
analizzata in termini di velocità (ovvero, quanto il sistema, con miglioramenti incrementali, è in grado di
tendervi).
Quando si definisce un target, un obiettivo raggiungibile, e lo si utilizza per direzionare il miglioramento, le
risorse sono focalizzate anzitutto sul processo e su quello che bisogna fare per perseguirlo; al contrario, se
l’obiettivo definito è solo ideale, il valore aggiunto non è “l’azione fatta per ottenere il target” (proprio
perché, questo, non potrà essere ottenuto), bensì l’esperienza ed il percorso fatto per arrivare quanto più
possibile in quella direzione: l’attenzione viene quindi posta alla capacità di migliorare, quindi alla velocità
di navigazione verso quella configurazione ideale.
Applicare questi principi porta due grossi vantaggi: la riduzione del lead time, eliminando tutti quelle che
sono sprechi per attese e code, ed una richiesta di limitato investimento.
Sembra essere una situazione ideale; ma allora, perché tutte le aziende non abbracciano questa filosofia?
La grande barriera consiste nel fatto che, l’approccio lean, non consiste semplicemente nell’applicazione
delle metodologie e degli strumenti, ma in un vero e proprio cambiamento culturale ed organizzativo: non
solo va ad incidere sulla struttura delle operations dell’azienda, ma comporta modifiche alla cultura ed alla
visione manageriale dell’organizzazione e delle risorse umane.
Da ultimo, è possibile citare due eventi, che dimostrano proprio che, questo mondo ideale, non sia
inseribile solo in un contesto puramente orientale, ma sia del tutto esportabile e mutuabile ad altri
contesti.
Ad inizio anni Ottanta, General Motors manteneva uno stabilimento ancora organizzato e gestito sulla base
die principi dell’organizzazione scientifica del lavoro, dove l’obiettivo primario era la produttività e le risorse
erano considerate quasi “oggetti” perfettamente intercambiabili; vi era, inoltre, come caratteristico di
questi sistemi, una netta separazione tra chi definiva le regole e chi le eseguiva.
Ad un certo punto, gli operatori, decisero di ribellarsi a questa situazione, rivolgendosi al loro sindacato e
richiedendo che venissero apposti dei “paletti” ai loro contratti: in questo contesto, proprio conoscendo il
16
trattamento ricevuto, il sindacato continuava a difendere ad oltranza i suoi iscritti, quasi per principio,
nonostante la loro bassa insoddisfazione gli facesse compiere dei comportamenti poco idonei (come, ad
esempio, l’assenteismo forzato dal lavoro).
Fu così che, in queste condizioni, nel 1982, General Motors si trovò di fronte ad una scelta drastica:
dinnanzi all’impossibilità di produrre al livello desiderato, data l’opposizione dei lavoratori, decise di
chiudere questo stabilimento, lasciando tuttavia, con questa decisione, senza lavoro un alto numero di
operai.
Nello stesso periodo però, la Toyota era proprio alla ricerca di uno stabilimento che le permettesse di
entrare nel mercato americano, cercando tuttavia di contenere i costi di investimento di questa
operazione; fu così che Toyota e General Motorso, stipularono un accordo di tipo joint ventures, basato
sulle seguenti condizioni: General Motors avrebbe messo tutti quelli che sarebbero stati gli aspetti
hardware dell’alleanza (stabilimento ed operatori), Toyota si sarebbe occupata di gestire il sito produttivo,
che avrebbe realizzato modelli definiti da Toyota stessa, ma che poi sarebbero potuti essere venduti con
marchi differenti.
Fu così che, per un certo periodo, il management di Toyota organizzò dei corsi di training del personale,
inviandolo a rotazione nei suoi siti gaipponesi per osservare ed imparare proprio quelli che erano i principi
alla base del Toyota production system, soprattutto per quanto riguardava la cultura e gli approcci nel
rapporto tra manager ed operai.
I risultati furono immediati: in breve tempo, crebbe la soddisfazione degli operai, crollò l’assenteismo,
diminuì la difettosità ed aumento la produzione.
Questo risultato fu formalizzato in un agreement stipulato tra Toyota ed il sindacato dei lavoratori, che
rimandava proprio a dei messaggi significativi e piuttosto forti:
 il successo dell’azienda dipende sia dalle sue risorse, che da come è organizzata e gestita la
struttura;
 deve esistere un principio di fiducia reciproca e volontà di minimizzazione dei contrasti tra le parti;
 ogni differenza e malinteso deve essere risolto e discusso apertamente, confrontando punti di vista
differenti e cercando di far convergere verso una soluzione soddisfacente per tutti;
 Prima del licenziamento di qualunque dipendente, a causa di un calo della domanda, l’azienda
dobvrà prendere attivamente misure volte a cercare di evitare questo accadimento, quali la
riduzione dello stipendio dei manager (meglio ridurre la retribuzione dei quadri dirigenziali,
piuttosto che licenziare persone), insourcing (se si è dato qualche cosa all’esterno, piuttosto che
lasciare inoperose delle risorse, riportare dentro queste attività e farle svolgere a tali risorse umane
insature)…
Si sottolinei che, nello stesso periodo, in Europa stava avvenendo una cosa simile: la Nissan, in cerca di uno
stabilimento da aprire, decise di rivolgersi al mercato inglese dove, nonostante il costo del lavoro fosse più
elevato rispetto ad altri paesi (come, ad esempio, l’Italia), questa maggiore retribuzione era giustificata da
una maggiore produttività dello stabilimento (l’Inghilterra, già di per sé, si caratterizzava per una cultura
produttiva basata su “pochi sprechi e tanto lavoro”, con un alto numero di autovetture per addetto). La
Nissan che, per cultura, si caratterizzava per lo stesso approccio, avrebbe potuto mantenere gli stessi
stipendi poiché, un alto stipendio è sostenibile solo se si ha un’alta produttività. Addirittura, fu possibile
aumentare la produttività del 50%; questo incremento dell’output a parità di risorse consentì proprio di
trasferire una parte di questa percentuale in un aumento della retribuzione e soddisfazione del personale.
17
Tecniche di lean management: VALUE STREAM MAPPING
Una “value stream mapping” rappresenta una mappa in grado di dare una visione semplificata della realtà,
all’interno della quale viene inserito solo tutto quello che risulta essere strettamente funzionale agli
obiettivi dell’analisi che si vuole condurre.
In particolar modo, si tratta di andare a mappare la struttura dell’azienda a livello di singolo sito
produttivo (potendo, tuttavia, poi andare a specificarlo ad un livello di macro, passando alla mappatura di
più stabilimenti di una stessa azienda, nonché di stabilimenti appartenenti ad aziende differenti).
Il primo passo consiste nell’andare ad identificare una famiglia di prodotti di riferimento, ovvero un insieme
di prodotti che condividono una serie di risorse (come mostrato dalla seguente rappresentazione nella
quale, ogni X, identifica una data tecnologia richiesta da un prodotto):
Come si può osservare, i prodotti A, B e C rappresentano una famiglia, poiché hanno delle similitudini in
termini di tecnologie utilizzate; ovviamente, la sovrapposizione non è totale (B e C sono simili ad A, anche
se richiedono una risorsa in più): i prodotti sono tanto più simili quanto più richiedono gli stessi processi e
le stesse risorse.
Ovviamente, data una famiglia di prodotto, e scelto uno particolare di questi (sugli altri, so potrà andare a
lavorare per analogia), occorre tenere presente che, esso, andrà a comporsi di più componenti:
ovviamente, la pretesa non è quella di mappare tutti i flussi possibili e immaginabili, ma di focalizzarsi solo
su quelli principali (i “main streams”).
Nel costruire la VSM, il processo da seguire è, tuttavia, opposto rispetto a quello che si potrebbe pensare: la
logica non vuole che si parta dalle materie prime per arrivare al prodotto finito, bensì che si vada al
contrario, il che risulta essere opportuno per due motivi
1) L’analisi deve partire dall’oggetto che si ritrova nelle mani il cliente, ed al quale, esso, attribuisce
direttamente il valore;
2) Nel procedere a ritroso, nel momento in cui si raggiunge una biforcazione della distinta base, la
decisione su cosa mappare è conseguente, in quanto viene immediatamente messo in evidenza
quelli che sono gli elementi più e meno importanti (proprio perché si è partiti dall’oggetto già
assemblato); al contrario, se si partisse da monte, e si procedesse verso valle, in corrispondenza di
“bivi” nella distinta base, sarebbe più difficile comprendere che strada seguire, proprio perché non
si avrebbe ancora ben chiaro quello che potrebbe essere l’impatto, sul prodotto finito, di ognuno
dei dati componenti.
18
Tra l’altro, va altresì detto che, con riferimento a quest’ultimo punto, anche nel caso in cui si
“trascurassero” degli aspetti che, solo in un secondo momento, si rivelassero invece importanti, si deve
ricordare che, tale mappatura, non rappresenta un processo statico “una tantum”, ma può (e deve)
successivamente essere rivisto e riconsiderato; inoltre, è spesso possibile ragionare per analogia e
semplificazione (ovvero: gli interventi progettati per una tipologia di flusso, spesso, sono facilmente
adattabili e mutuabili anche ad altre tipologie).
Ad ogni modo, va detto che, nella rappresentazione, la variabile principale è il tempo, che può essere intesa
in tre accezioni:
- Tempo di ciclo / Cycle time: tempo che intercorre tra l’uscita di due unità successive da una data
risorsa ((ogni quanto esce un pezzo dal sistema); nel caso delle linee, se il sistema risulta essere
perfettamente bilanciato, il tempo di lavoro di ogni risorsa risulta proprio essere pari al tempo di
ciclo del sistema produttivo;
- Tempo a valore aggiunto / Value Added time: sottoinsieme del tempo di ciclo, identifica quella
quota parte del tempo di lavoro della risorsa che aggiunge realmente valore al prodotto finale;
- Tempo di attraversamento / Lead time: tempo che intercorre tra l’inizio e la conclusione di una data
attività (può, ovviamente, essere riferito a più livelli di dettaglio: lead time di una linea, di un
processo, di tutto lo stabilimento, della filiera…);
si tenga presente che, in genere, vale la relazione Value Added Time < Cycle Time < Lead Time.
IL CASO ACME: MAPPATURA DEL CURRENT STATE
Si consideri il caso didattico di un’azienda produttrice che ha identificato nella sua famiglia di prodotti due
staffe: la staffa destra e la staffa sinistra; vuole, quindi, avvalersi dello strumento della VSM per esaminare
la struttura della sua produzione, identificare possibili criticità di sistema ed apporvi miglioramenti.
Anzitutto, è necessario identificare e caratterizzare la tipologia di cliente dal quale arriverà la domanda per
quelle staffe; per farlo, è possibile avvalersi della simbologia base della VSM, il “data box”, ovvero un
riquadro in grado di far emergere quelle che sono le informazioni più importanti sull’entità cui fa
riferimento:
Nel caso, il cliente “state street” fa pervenire una domanda di 18400 staffe al mese, in un mix di 12000
staffe sinistre e 6400 staffe destre (dun que, un rapporto quasi 2:1); in genere, è solito fargli pervenire un
“vassoio” omogeneo composto da 20 pezzi: è questa l’unità minima di consegna (un lotto minimo è
composto da 20 staffe sinistre o 20 staffe destre).
Posto questo, occorre identificare quelli che sono i propri stadi di lavorazione:
19






C’è un magazzino prodotti finiti “shipping”;
Una fase di assemblaggio finale, all’interno della quale opera una risorsa umana;
Una fase di preassemblaggio che, anch’essa, vede operare una risorsa umana;
Una fase di saldatura finale, con una risorsa umana dedicata;
Una fase di presaldatura, con anch’essa una persona;
Una fase di stampaggio che, invece, oltre alla risorsa umana, vede la presenza di una pressa da 200
tonnellate;
si tenga presente che, mentre le risorse delle saldature e degli assemblaggi sono dedicate, non lo è la
pressa di stampaggio, che si occupa della realizzazione di più prodotti all’interno del mix aziendale; in
particolare, il data box mette in evidenza come, tale pressa, produca per la famiglia considerata una volta
ogni due settimane (il che significa che, ogni volta, realizza un lotto di dimensioni tali da coprire il
fabbisogno pari a due settimane).
Ciascuno dei data box degli stadi, presenta una serie di informazioni, che sono state raccolte propriamente
recandosi fisicamente all’interno dello stabilimento ed osservando quelle che sono modalità, tempistiche e
logiche di funzionamento del processo, e non avvalendosi di mere tecnologie informatiche di rilevazioni dei
dati (senza, quindi, “toccare” con mano il problema). Si tenga presente che, la revisione e l’ottimizzazione
del flusso, tenderà proprio a far ottenere un sistema semplice, nel quale sarà sufficiente guardare ed
analizzarlo fisicamente per poter subito intuire e comprendere eventuali problemi; il sistema, ed il suo
flusso, dovranno essere tali da rendere visibile e trasparente la sua situazione, permettendo di avere una
visione chiara non solo al suo responsabile ma anche (e soprattutto) a chi ci opera a stretto contatto, che
deve essere messo in condizione di suggerire eventuali miglioramenti.
Tali informazioni, riportate all’interno del data box, risultano essere:
- Il tempo di ciclo dello stadio (in presenza di una persona, significa che essa lavora su quel pezzo per
X secondi);
- Il tempo di set – up / change over: nel caso, per ogni stadio, viene riportato quanto tempo è
necessario per preparare le macchine e le risorse umane a produrre una staffa sinistra (dopo che si
è prodotta una o più staffe destre) o a produrre una staffa destra (dopo che si è prodotta una o più
staffe sinistre). Come si può osservare, come spesso accade per le operazioni di assemblaggio
manuale, questo tempo risulta essere nullo; per la saldatura, che non è completamente manuale,
invece, tale tempo non è nullo (per passare da una staffa destra ad una sinistra o viceversa,
20
-
-
occorre, quantomeno, cambiare la maschera di saldatura), così come non lo è (a maggior ragione,
non essendo una risorsa dedicata) per lo stampaggio;
Il tempo di disponibilità / up time: esso indica la disponibilità della risorsa; è evidente che, nel caso
in cui sia coinvolta una risorsa umana, tale tempo sarà pressochè il 100% mentre, in caso di
macchinari, è possibile che vi siano dei guasti che vadano a “deprimere” la completa disponibilità
(nel caso della saldatura finale, ad esempio, nel 20% dei casi potrebbe esserci un guasto);
Il numero di turni: tralasciando la risorsa dedicata, il processo saldatura – assemblaggio realizza le
staffe su due turni di 8 ore al giorno.
Una volta identificato il cliente e caratterizzato le fasi ed i processi con i dati chiave, occorre mettere in
evidenza che, tra le differenti fasi, esiste un disaccoppiamento (simboleggiato dal triangolo, che è proprio
simbolo di attenzione, proprio in quanto, le scorte, sono sintomo di spreco ed inefficienza): ecco quindi che,
tra ognuna di esse, vengono misurate le scorte in composizione per ciascun prodotto (staffe destre e
sinistre).
Una domanda che potrebbe sorgere potrebbe essere la seguente: a che valore corrispondono le scorte
mappate (il valore attuale, il valore medio, il valore desiderato…)?
Il livello di scorte riportato è quello registrato al momento dell’osservazione del sistema; questa è una
buona approssimazione, e non fa commettere errori, per due motivi:
- Ammettendo che, i valori registrati, non siano quelli usuali (magari perché, al momento della
fotografia del sistema, era accaduto qualche cosa di particolare), comunque la variazione che,
queste scorte subiscono nell’avanzare del normale ciclo operativo, sarà comunque sempre minore
rispetto al decremento percentuale che si vorrà ottenere a valle della revisione del flusso;
- Ai fini dell’analisi, si è interessati al valore complessivo delle scorte, quindi alla somma lungo tutto il
processo: benchè si possano avere variazioni di valore in base al contenuto di lavoro ed allo stadio
di avanzamento, tali variazioni si compenseranno, lasciando, il valore complessivo, un numero
abbastanza stabile nel tempo.
A questo punto, è necessario collegare il mondo interno del processo con l’esterno:
Come si può osservare, si consegna al cliente una volta al giorno, e si ricevono dal fornitore due consegne
alla settimana (il martedì ed il giovedì), ognuna con un certo carico.
21
Lo stato attuale è stato dipinto nel flusso “fisico”; manca tuttavia una seconda tipologia di flusso, quello
delle informazioni:
Si nota che:
 Il cliente invia le sue previsioni sui fabbisogni a 90, 60 e 30 giorni e, tali dati, vengono ricevuti in
input dalla programmazione della produzione; inoltre, invia le richieste d’ordine giornaliere;
 La programmazione della produzione, una volta la settimana, elabora:
- Un piano di previsione dei fabbisogni per il fornitore di sei settimane (richiamato, poi, con un
fax settimanale);
- Un programma di produzione per ciascun reparto (che gli indica, appunto, quanto dovrà
produrre in ciascuna settimana);
 la programmazione della produzione, giornalmente, elabora un programma delle spedizioni sulla
base degli ordini ricevuti (giornalmente dal cliente): tale piano, inviato al reparto spedizioni, indica
sostanzialmente lo scheduling di cosa dovrà essere spedito il giorno successivo.
Va inoltre sottolineato come, nel grafico, la linea a forma di “saetta” descriva un flusso informativo
elettronico mentre, quella “retta”, un flusso informativo cartaceo.
La freccia striata tra i reparti, invece, indica come, la produzione, segua una logica “push”, diretta
conseguenza della struttura del sistema: a differenza del modello “pull”, dove è lo stadio a valle a dire
quando e cosa produrre a quello a monte, in questo caso ognuno produce quanto gli è stato programmato
e richiesto, “spingendolo” verso gli stadi più a valle.
Attenzione: non si scada nel luogo comune che usa pensare che “i sistemi in cui si opera su ordine cliente
sono organizzati in logica pull, quelli che operano in MTS, invece, sono push” (il che farebbe classificare, il
sistema in esame, come un sistema “pull”); questa considerazione è vera guardando all’impresa come
“scatola chiusa” (l’azienda è “pull” se si attiva solo nel momento in cui riceve un ordine da parte del
cliente), ma potrebbe non esserlo più intendendo l’approccio “pull” nei termini del lean management:
un’azienda esternamente “pull” non è detto che sia anche internamente “pull” (ovvero, tale logica deve
essere ribaltata anche nei rapporti interni: se il reparto a valle, che è il cliente interno più diretto, smette di
produrre, dopo un certo sfasamento temporale, un approccio “pull” obbliga alla fermata anche il fornitore).
Nel caso in esame, difatti, è proprio così: benchè si operi su ordine cliente, non esiste alcuna logica “pull”
22
interna poiché, ogni reparto, produce ed agisce guardando solo al piano che deve realizzare,
indipendentemente da quello che viene fatto a valle.
IL CASO ACME: VALUTAZIONE DELLE PRESTAZIONI
A partire dalla mappatura precedente, si provi a valutare quelli che sono i parametri fondamentali e le
prestazioni offerte dal sistema.
Anzitutto, utilizzando la legge di Little (L = λW), si trasformino i magazzini di disaccoppiamento, in termini di
pezzi per ogni stadio, in un equivalente di tempo.
Il cliente domanda 18400 pezzi al mese, il che significa, ipotizzando il mese composto da 20 giorni, un
valore di λ = tasso di arrivo = domanda giornaliera = 960 pezzi al giorno.
Si ottiene, quindi, la seguente situazione:
Si veda, a titolo di esempio, quello che è stato il calcolo per l’assemblaggio finale; si parta dalla seguente
domanda: “una volta uscito un pezzo da questa fase, quanto dovrà aspettare, mediamente, prima di essere
spedito?”
Un pezzo assemblato viene inserito alla fine di una coda media di 2700 + 1440 = 4140 pezzi; poiché nel
vengono spediti 960 al giorno, significa che, in media, esso dovrà attendere circa 4140/960 = 4,5 giorni
prima di essere spedito.
Ovviamente, per ogni stadio, il ritmo di smaltimento della coda sarà sempre quello del cliente finale (960
pezzi/giorno); non avrebbe senso utilizzare quello dello stadio immediatamente a valle: benchè potrebbe
essere differente dal 960 pezzi/giorno del cliente, questo non varierebbe le considerazioni sul sistema
poiché, così facendo, si otterrebbe la sola conseguenza di avere un maggior numero di scorte spostate
verso gli stadi a valle (in caso di ritmo di richieste maggiore) o verso gli stadi a monte (ritmo minore);
tuttavia, indipendentemente da dove esse siano posizionate, fuoriusciranno dal sistema se e solo se il
cliente le “chiama” (è quindi sensato rifarsi al ritmo finale).
Come si può osservare, la time line di attraversamento è resa in maniera particolare: i segmenti più in alto
rappresentano i tempi di attesa, in corrispondenza dei quali non si ha alcuna crescita di valore nel
prodotto; quelli inferiori, invece, sono i tempi di processo che, per ipotesi, è considerato tutto come tempo
23
a valore aggiunto (anche se, come avuto modo di sottolineare, non è sempre vero). Si mette quindi
chiaramente in evidenza quello che è il ciclo di attraversamento di una qualunque staffa:
- arriva la lamiera allo stampaggio, attende 5 giorni in coda per essere lavorata un secondo;
- poi viene immessa nel magazzino della presaldatura, dove attende per 7,6 giorni, per poi essere
lavorata 39 secondi;
- …
Fatto questo, è possibile derivare quello che, nell’ottica del lean management, è uno dei principali
indicatori prestazionali di un sistema: l’indice di flusso.
A fronte di un dato tempo di attraversamento (che, nel caso, è nell’ordine dei 24 giorni), esso lo va a
rapportare al tempo a reale valore aggiunto (che, nel caso, è nell’ordine dei 188 secondi); l’indice di flusso
indica, perciò, quanto il sistema attuale risulti essere vicino a quello “ideale”, che dovrebbe avere un valore
tendente ad 1 (tutto il tempo di attraversamento è tempo a valore aggiunto: non ci sono sprechi).
Nel caso della ACME, è evidente che le cose non siano così: l’indice di flusso è di circa 10-4, il che
sottintende un’infinità di possibilità ed opportunità di miglioramento.
Prima però di identificarle, ci si soffermi ancora un attimo sulla situazione attuale: perché si è in questa
situazione? Perché si ha un così alto livello di scorta (che, come evidente, causa un aumento della coda e del
tempo di attraversamento del sistema?
Attenzione: non si pensi che, le scorte, nascano per disaccoppiare delle fasi in virtù del fatto che, esse,
hanno ritmo differente; mettere delle scorte tra stadi che operano a ritmi differenti comunque con
modifica l’output complessivo del sistema. Al contrario, una motivazione potrebbe essere il fatto che,
essendoci stadi che devono fermarsi a causa di set – up e/o down time, il disaccoppiamento consente che il
problema non venga trasmesso agli stadi successivi.
Tuttavia, la determinante più grossa della presenza di scorte è, senza dubbio, il processo di
programmazione settimanale, supportato dall’MRP (sapendo che, il prodotto finito, dovrà essere
consegnato il giorno X, occorrerà che, i vari sottoassiemi, siano disponibili il giorno Y < X; a loro volta, i
componenti di ciascun sottoassieme dovranno essere disponibile il giorno Z < Y < X; infine, i materiali per
realizzare tale componenti dovranno essere consegnati dal fornitore il giorno W < Z < Y < X).
Ogni reparto, difatti, viene proprio misurato in termini di produttività ed aderenza al programma
prestabilito: quanto più, esso, è in grado di produrre esattamente quanto previsto (né più, né meno), nei
tempi richiesti, tanto più sarà alta la sua valutazione.
Inoltre, proprio per tale motivo, poiché, ogni reparto, viene valutato solo ed esclusivamente in base alla sua
aderenza ai piani, è quanto meno auspicabile che, la sua attività, non venga a dipendere da quella degli altri
stadi: in sostanza, deve essere messo in condizione di raggiungere i suoi obiettivi, il che significa che, nel
momento in cui ne ha bisogno per lanciare la sua produzione, ogni stadio non deve essere ritardato per la
mancanza di materiali che gli servirebbero per rispettare questo programma. La logica di programmazione
dell’MRP garantisce proprio questo: affinchè, lo stadio A, possa produrre quanto richiesto per il giorno X,
sarà “ordinata” al fornitore una consegna per il giorno Y < X.
Riassumendo, quindi, l’esigenza di disaccoppiare deriva da due ordini di motivi:
1) Far sì che, i problemi di ciascuno stadio, non si ripercuotano sugli altri;
2) Dare i margini, a ciascuno stadio, di poter realizzare il programma assegnatogli indipendentemente
da quanto possa accadere a monte, di modo che, esso, possa gestirsi ed organizzarsi in maniera
24
autonoma e solo in base ai suoi vincoli, non in base alle esigenze del reparto successivo o di quello
precedente.
Il processo di programmazione, così come è stato strutturato, imposta una logica dipartimentale in
funzione della quale, ogni stadio, viene valutato e giudicato solo in base all’aderenza ai programmi
dipartimentali: per tale motivo, ciascuno di essi non vorrà vedere le sue performance degradate dalle
possibili inefficienze di qualcun altro; è inevitabile, quindi, disaccoppiare, al fine di rendere indipendenti i
vari stadi.
Questa soluzione, tuttavia, determina grossi sprechi, sprechi che vengono messi in evidenza proprio
dall’indicatore di flusso, che quantifica la percentuale di inefficienza del processo; come già più volte avuto
modo di dire, le scorte sono un indicatore di quanto il sistema sia perfettibile e non stia funzionando bene:
tramutandolo in tempo, poi, tale misura (comparando tempo di attraversamento e tempo di
trasformazione) diventa ancora più evidente.
Bisogna quindi andare a comprendere quelle che sono le varie cause ed i problemi alla base della
generazione di queste scorte, risolvendo e migliorandole, ed andando, così, ad incrementare le prestazioni
del sistema.
QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: TAKT TIME
L’attuale livello di scorte determina un valore della performance chiave
Tempo a valore aggiunto / tempo di attraversamento
(dove “tempo a valore aggiunto”, in prima istanza, viene approssimato a “tempo di processo”)
molto bassa; bisogna capire come intervenire.
Anzitutto, andando a misurare, per ogni stadio il tempo effettivo di lavoro su ciascun pezzo, si ottiene la
seguente situazione:
Si può osservare come, i carichi, per ciascuno di essi, siano molto differenti (grosso sbilanciamento):
tralasciando lo stampaggio (che lavora si un solo secondo, ma è dedicato ad altre risorse), tutti i reparti
specificatamente dedicati alla famiglia sono caricati molto diversamente.
Ma allora, quale dovrebbe essere il valore ideale?
Dal punto di vista dell’azienda, ogni stadio dovrebbe equamente caricato, suddividendo il tempo tra
ciascuno di essi secondo la media (nel caso, sarebbero 47 secondi a reparto); tuttavia, uno dei “must”
25
dell’approccio lean è il fatto che “comanda il cliente”: il ritmo giusto a cui lavorare sarà quindi quello che
richiede il cliente.
In tal senso, viene introdotto il concetto di “takt time”, che identifica proprio il “ritmo” al quale, il cliente,
richiede i prodotti (non a caso, “takt”, è un termine di origine germanica che si rifà al metronomo: questo
sta proprio ad indicare la cadenza ed il ritmo a cui va il mercato, ed al quale sarà necessario adattarsi).
Per calcolarlo nel caso in esame, è sufficiente partire dal tempo lavorativo disponibile, depurato delle pause
previste per il personale a termini contrattuali:
Alla fine, emerge come, il ritmo del mercato, risulti proprio essere pari a “1 pezzo ogni 60 secondi”; questa
è la cadenza ideale alla quale il sistema deve tendere, poiché:
- Andasse più lento, non sarebbe in grado di produrre quanto richiesto;
- Andasse più veloce, incorrerebbe in sovraproduzione e, quindi, in spreco.
È evidente che, rispetto a questo valore ideale:
- Ci sono alcuni reparti (presaldatura, saldatura finale e assemblaggio finale) il cui il tempo di
processamento risulta essere inferiore al takt time;
- C’è uno stadio (preassemblaggio) il cui tempo di lavoro risulta essere superiore al takt time;
il primo principio di ridisegno dei flussi è proprio quello di uniformare il tempo di lavoro degli stadi al takt
time, essendo così allineato al ritmo richiesto dal mercato. Come è possibile risolvere questa situazione?
Il problema, in particolare, è allo stadio di preassemblaggio: se opera ad un ritmo inferiore a quello
richiesto dal mercato (62 secondi invece che 60), non sarà in grado di soddisfare la domanda. Attualmente,
questo vincolo è superato facendo scorta e lavorando in straordinario: affinchè l’azienda possa soddisfare
la domanda, benchè un reparto operi ad un ritmo superiore ai 60 secondi richiesti, è necessario prevedere
dei turni al sabato; tuttavia, affinchè il preassemblaggio possa lavorare in maniera efficace il sabato, è
necessario che gli venga messo a disposizione un certo quantitativo di materiale tale da alimentare almeno
mezza giornata di lavoro (è, difatti, l’unico reparto che lavora il sabato: dovrà quindi essere stata creata una
scorta sufficiente per permettergli di lavorare); ovviamente, al termine del turno dio straordinario, quanto
ha prodotto questa fase, diventa scorta spostata verso il reparto immediatamente più a valle.
Ovviamente, quindi, la risposta al problema in esame non è quella di fare scorta di prodotto: questo
potrebbe risolvere la situazione nel breve periodo ma, nel lungo, oltre che a causare sprechi ed inefficienze,
sarebbe del tutto inutile, proprio perché, chi va ad un ritmo più veloce, la assorbirà gradualmente,
obbligando, quindi, ad andare in straordinario.
Una possibile prima soluzione, potrebbe essere quella di line balancing: si vanno a ridistribuire i carichi in
maniera più o meno uniforme tra le fasi di saldatura e di assemblaggio, al fine, tuttavia, di rispettare il
valore del “takt time”
26
Nella filosofia lean, tuttavia, questo non è l’approccio e la soluzione più corretta; non è bilanciando che si
risolvono i problemi, bensì cercando di operare quanto più possibile vicino al mercato: ciò significa
saturare, via via, ogni reparto, al fine di fare tendere il suo tempo di lavoro a quello del “takt time”
Prima si satura il primo stadio con il massimo carico di lavoro possibile (quello corrispondente al “takt
time”), poi il secondo, poi il terzo ed, infine, rimane una risorsa alla quale verrà assegnata la quota parte di
processo “residua”; questa è la struttura coerente con un sistema che si basa su un approccio che non è
focalizzato sulle risorse, bensì sul prodotto e sull’ interesse del cliente.
Il procedimento è, quindi, il seguente:
- Definire tutte le operazioni per realizzare la staffa, nel modo migliore possibile per realizzarla;
- Calcolare il “takt time”;
- Assegnare un ammontare di attività pari al “takt time” alla prima risorsa, un ammontare pari al
“takt time” alla seconda risorsa e così via fino a saturare il carico richiesto; ovviamente, come
accade anche nel caso in esame, è facile che, l’ultima risorsa, si veda assegnato un carico resiudale,
potendo risultare, così, molto insatura.
Il vantaggio di questa configurazione è il fatto di mettere in evidenza quelli che sono tutti gli sprechi: in
questo modo, difatti, si separano le risorse e le attività, facendo emergere quelle che fanno spreco da
quelle che, invece, non lo fanno; in particolare, nel caso in esame, emerge come, mentre le prime tre
risorse operano a pieno ritmo di mercato, l’ultima risorsa presenta un’inefficienza, essendo molto insatura
(notare che, invece, nelle configurazioni precedenti, ognuno dei reparti presentava un’inefficienza; in
questo caso, invece, il problema è stato ridotto ad una sola fase).
Avere 10 secondi di insaturazione in ognuno dei quattro reparti, è molto peggio che averne 40 concentrati
in un unico, per tutta una serie di motivi:
27
 È molto più facile riuscire a risolvere un problema circoscritto ad una fase, piuttosto che esteso a
tutte le fasi;
 Se ogni reparto ha un disavanzo di 10 secondi, questo è, a tutti gli effetti, tempo perso (non si potrà
pensare di fargli svolgere nessun altra attività, proprio perché troppo contenuto); se, invece, è un
unico reparto ad avere un disavanzo sensibile, si potrebbe pensare di occuparlo, durante questa
insaturazione, con altre attività (ad esempio, dedicarlo all’assemblaggio di un altro prodotto).
In particolare, si guardi alla prima alternativa: se si fosse in grado di aumentare l’efficienza dei primi tre
reparti (ad esempio, portando il tempo di processo da 188 a 170 secondi), è possibile pensare di eliminare
la risorsa insatura, ovviando, così, alla fase di assemblaggio finale (e spostandola nelle mani delle risorse
precedenti):
Ecco quindi il perché, è corretto questo approccio invece che quello di “line balancing”: è il primo che
consente di mettere in evidenza le possibilità di miglioramento (nel caso, il risparmio di una risorsa, ovvero
del 25% del costo del lavoro: questo significa risparmio di costi ma anche aumento della produttività delle
altre risorse lavorative), opportunità che possono emergere però, solo avendo ribilanciato i carichi in
questo modo, non seguendo l’approccio del current state o del perfetto bilanciamento.
Questa trasformazione non è, ovviamente, priva di difficoltà; in particolare, l’evidente ostacolo è
rappresentato dalla riprogettazione della mansione della seconda risorsa, che dovrà essere allargata
all’esecuzione delle attività di assemblaggio e saldatura.
Si tenga presente che, spesso, le barriere non sono tanto legate all’impossibilità pratica (per la gran parte
delle operazioni manuali, basta un addestramento di pochi giorni / settimane per mettere le risorse in
condizione di fare l’attività di qualcun altro), bensì si legano ad un limite culturale, di immagine e di retaggio
dell’organizzazione, che concepisce e descrive le attività in termini di competenze e funzioni, e non in
termini di prodotto / servizio. Si assuma l’ottica del saldatore, che ha studiato e si è specializzato per fare
questa attività: il dirgli di dover fare anche un'altra mansione, magari meno specializzata, potrebbe
incontrare una resistenza non indifferente; la barriera non si lega quindi tanto all’ incapacità delle persone
di imparare attività di altri campi, bensì per una resistenza all’allargamento della propria, cosa che viene
quasi avvertita come una “depauperazione” della propria connotazione (come saldatore, ad esempio).
Il modello lean funziona in maniera rivoluzionaria se, e soprattutto, si ha la possibilità di trasformare
l’approccio con le risorse da conflittuale a collaborativo: le risorse devono essere portate, con piacere, ad
ampliare le proprie mansioni, il che può essere fatto andando a lavorare sulle competenze e sulla cultura di
base.
28
Superati questi ostacoli, si ha la possibilità di ottenere i miglioramenti ricercati: nel caso, la situazione ideale
consiste nell’andare a lavorare con il numero minimo di persone indispensabile per poter seguire il ritmo
del mercato:
⇒
⇒
Questo indicatore dà anche una misura di quello che è lo spreco di risorse umane rispetto allo stato attuale:
se, invece che con 3 – 4 persone si lavorasse con 10, significherebbe uno “spreco” di 6 persone.
Impostare un tempo di processo coincidente con il “takt time” è solo la prima delle linee guida che deve
essere seguita per riprogettare il current state in logica lean: in azienda non vale l’idea dell’ “andare più in
fretta che si può”, bensì di “andare esattamente come chiede il cliente”, il che implica meno stress e
minore continua sensazione di essere in ritardo, dando una “cadenza” opportuna a cui uniformarsi.
Se tutto ciò è chiaro, è del tutto lecito porsi la seguente domanda: “che cosa accade se, da un momento
all’altro, il cliente dovesse variare il takt time?”
Per rispondere la domanda, bisogna distinguere l’orizzonte temporale di riferimento nelle tre “classiche”
dimensioni: breve, medio e lungo termine; questo è necessario farlo perché, semplicemente dire “si
riconfigura il sistema per adeguarlo al nuovo valore”, è senza dubbio una soluzione teoricamente corretta,
ma praticamente non sempre fattibile (inseguire le variazioni di takt time risulta essere estremamente
oneroso: significa rivedere l’allocazione di tempi di lavoro, aggiunta o dismissione di nuovi macchinari,
eventuale esigenza di straordinario…).
Nel breve termine, ciò che viene fatto per cautelarsi da possibili variazioni del takt time, è utilizzare degli
accorgimenti che consentano di assorbire la “piccola” variabilità:
 Scorte di prodotto finito: si tenga presente che, in un’ottica lean, provare ad assorbire la
variabilità di brevissimo termine mediante scorte non significa né produrre in anticipo, né fare
ingenti scorte di magazzino; semplicemente, a valle di un’opportuna analisi di marketing. si tratta
di identificare quello che è il prodotto della famiglia, tra gli n realizzati, che risulta essere più
richiesto e/o più volatile, decidendo di cautelarsi solo da questo “prodotto regolatore” (che, in
genere, è un codice richiesto in grandi volumi, variabili, ma con basso rischio di obsolescenza);
 Prevedendo brevi periodi di straordinario: si decide per un aumento del tempo lavorativo
commisurata alla variazione del takt time (è evidente che, questo è sostenibile solo se si prevede
che, questa variazione, riguardi comunque un periodo contenuto);
 Mantenendo un portafoglio di ordini di “backlog”: si tratta, in sostanza, di tenere sempre una
piccola coda di ordini in arretrato che, nel momento in cui si verifichi una contrazione della
domanda, consenta comunque di mantenere attive le risorse, ma, anche in periodi ad alta
domanda, lo smaltimento di tale coda è tale da garantire al cliente le prestazioni attese (come
ovvio, difatti, la dimensione di questa coda si ordini deve essere tale che, comunque, per
qualunque ordine successivo che si vada ad accodare, il tempo di attraversamento ottenibile
risulti in qualunque caso inferiore a quello atteso).
Una variazione del takt time che si prevede si estenderà su un periodo di medio termine, invece, si potrà
pensare di gestirla in maniera controllata: a parte il fatto che, spesso, le variazioni di media durata non
sono frutto di casualità (ma, anzi, quasi sempre, dipendono e sono dovute all’azienda stessa ed al modo in
29
cui ha organizzato il sistema), si può comunque cercare di attivarsi in logica anticipativa, in modo tale da
strutturarsi in funzione di questa variazione prevista, provando a livellare e smorzare la domanda.
Infine, per tutte quelle variazioni di lungo periodo, non si può che riconfigurare il sistema in maniera
coerente: tutta la Supply Chain deve condividere questa previsione di cambiamento, e modificarsi per
arrivare ad operare al nuovo ritmo; l’investimento e lo sforzo necessario a queste modifiche sono, tuttavia,
ripagate da una totale rispondenza alle esigenze del cliente (in questi caso giustificati perché l’ottica è di
lungo periodo).
Il messaggio di queste considerazioni è quindi il seguente: quando si progetta un sistema in logica lean,
quindi compatibilmente al takt time richiesto dal cliente finale, bisogna essere abili e capaci di strutturarlo
in maniera flessibile anche in tal senso (la struttura che, attualmente, opera al ritmo di X unità/secondo,
dovrà essere in grado di “cambiare il proprio schema di gioco” in corrispondenza di ogni variazione, in
positivo o in negativo, del ritmo imposto dal cliente).
QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: MODALITA’ DI RISPOSTA ALLA DOMANDA
A questo livello, occorre comprendere come, nella nuova configurazione, si sarà deciso di realizzare la
produzione delle staffe: si produce e si spedisce a valle dell’ordine (MTO/ATO) oppure si decide di produrre a
scorta?
La soluzione può essere duplice:
- Directly to shipping: si produce e si consegna attivando il processo dopo l’arrivo dell’ordine cliente
-
Make to stock: il materiale è già presenta a magazzino; una volta arrivato l’ordine cliente, il
magazzino prodotti finito lo allestisce, prelevando un certo numero di vassoi di staffe; a questo
punto, viene comunicato a monte che vi è stato un prelievo di materiale, e ciò significa attivare i
processi di produzione che, quindi, lavoreranno tutti al fine di fare il replenishement del magazzino,
ripristinando esattamente quanto è stato prelevato
30
Quali sono i driver che fanno optare per l’una o per l’altra configurazione?
 Valore delle scorte: ovviamente, nel momento in cui, il prodotto da tenere a scorta, incorpora un
valore sensibile, allora è meglio organizzarsi per non produrre a scorta poiché, altrimenti,
significherebbe immobilizzare un alto valore di capitale;
 Variazioni della domanda: quanto più la domanda si caratterizza per alta variabilità, tanto più sarà
necessario assorbire, tale incertezza, mediante le scorte (a meno che non si sia in grado di farlo con
una flessibilità di sistema e di capacità);
 Valore del tempo di attraversamento: sarà possibile operare su ordine se e solo se il processo ed il
sistema sono configurati in modo tale da rispettare i tempi di consegna richiesti dal mercato anche
operando in questa logica; nel caso della ACME, il cliente ha un’esigenza di consegna di un giorno
mentre, il processo di produzione, ha un tempo di attraversamento di più di quattro giorni: è
evidente che, operare in logica MTO non è sostenibile, dovendo quindi produrre a magazzino (si
noti comunque che, nel caso in cui si riuscissero ad eliminare gli sprechi, il tempo di processo
sarebbe di soli 187 secondi, il che significherebbe una capacità di risposta nell’ordine di alcune ore,
potendo pensare di passare ad una logica MTO).
Si tenga comunque presente che, con riferimento a quest’ultimo driver, anche nel caso in cui si fosse in
grado di rispettare il tempo di consegna richiesto al cliente, non è detto che questa sia condizione
sufficiente per potersi organizzare il logica MTO, poiché:
Questo sarà possibile se e solo se gli ordini cliente, in termini di tasso di arrivo, risultano essere
costanti e poco variabili nel tempo (il ragionamento, difatti, è: sulla base di una certa domanda X
proveniente dal cliente, si è in grado di rispondere in un tempo Y inferiore a quello richiesto);
- D’altra parte però, in presenza di forte variabilità, è possibile e frequente il formarsi di una coda: il
tempo di attraversamento sarebbe quindi quello medio, in funzione di un tasso d’arrivo medio che,
tuttavia, in presenza di variazioni, potrebbe non essere più garantito.
In conclusione, si può quindi concludere che, condizione necessaria affinchè sia possibile organizzarsi senza
un magazzino finale è quella di avere un sistema tale per cui, il tempo di risposta che si è in grado di
garantire, calcolato anche in funzione del livello medio di coda che l’ordine cliente potrebbe incontrare,
risulta essere inferiore a quanto richiesto dal cliente; è evidente che, ciò, può accadere solo in quei contesti
caratterizzati da bassa variabilità della domanda, con un tasso degli arrivi uguale o simile al livello medio (se
così non fosse, difatti, il livello medio di coda salirebbe, e, inevitabilmente, il tempo di risposta eccederebbe
quello atteso dal mercato).
Al contrario, nel caso in cui, tale tempo di risposta, al netto del tempo medio di attesa, non incontri le
esigenze del cliente, sarà “obbligatorio” operare in MTS.
31
Ovviamente, in pura logica lean, il fatto di operare in MTS non significa che, questo sistema, risulta essere
dato e configurato in questo modo: nel corso del tempo, sarà necessario migliorarsi, andando ad agire sul
tempo di servizio, quindi sulle risorse interne, e/o sulla variabilità della domanda, tendendo così alla
situazione “ideale” dove sarà possibile organizzarsi in logica MTO.
QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: COSTRUZIONE DI UN FLUSSO CONTINUO
La terza importante questione riguarda la produzione a flusso; bisogna chiedersi: dove ha senso produrre a
stadi interconnessi ed accoppiati?
Un sistema non interconnesso si presenta come segue:
Gli stadi non sono accoppiati: A realizza quanto
programmato prelevando dal magazzino a
monte i materiali che gli servono e mettendo,
quanto realizzato, a scorta; così fanno B e C,
attingendo dai magazzini nei quali, gli stadi
precedenti, hanno riversato i prodotti
Al contrario, in una logica a flusso continuo, non esistono disaccoppiamenti, né lotti di produzione, né lotti
di trasporto: non ci sono scorte tra le varie fasi, ma solo a monte e a valle del processo interconnesso.
Il vantaggio di un flusso continuo è evidente: accoppiare le fasi consente di eliminare le scorte, quindi le
code e, da ultimo, ciò significa “tagliare” i tempi di attraversamento.
Ma quali sono le condizioni che fanno spingere per un accorpamento a flusso continuo?
Si guardi all’esempio della ACME, e si facciano alcune considerazioni:
- Si potrebbe pensare di mettere insieme i due stadi di saldatura: la problematica, tuttavia, risiede
nel fatto che, le due macchine, sono caratterizzate da un tempo di set – up non nullo e da una
disponibilità non del 100%; ciò significa che, nel caso in cui uno dei due impianti dovesse fermarsi
causa guasto o attrezzaggio, anche l’altra dovrebbe bloccarsi (al contrario, questo non sarebbe
“sentito” in caso di presenza di scorte);
32
-
-
Si potrebbe pensare di unire tutte le fasi caratteristiche (saldatura ed assemblaggio): emerge,
tuttavia, la stessa considerazione fatta in precedenza (quando le saldature si fermano per i 10
minuti di set – up o per un guasto, anche l’assemblaggio dovrebbe fermarsi, perdendo capacità
produttiva che dovrà, poi, essere recuperata: ad esempio, nel caso di set – up, significa perdere 10
minuti di produzione, che corrispondono ad una produzione di 10 pezzi, essendo il “takt time”
richiesto dal mercato di un pezzo ogni 60 secondi)
Senza dubbio, quello che risulta difficile mettere a flusso è la pressa di stampaggio che, non
essendo dedicata, lavora per la famiglia del prodotto solo periodicamente, e per brevi campagne (la
cui entità deve essere tale da soddisfare il fabbisogno temporale all’interno del quale, tale
macchina, sarà dedicata ad altri prodotti).
Nel fare queste considerazioni, sono emersi alcuni criteri di riferimento (durata del tempo di set – up,
probabilità di guasto, risorse dedicate o meno…); ci si chieda, quindi: esiste una regola generale?
Il passaggio da una logica disaccoppiata ad una accoppiata a flusso, non è di tipo “on – off”, ma esiste un
continuum di configurazioni:
La prima soluzione è quella “classica” del sistema push: tutti gli stadi sono indipendenti, e la produzione
avviene in logica “push”, dove, ognuno, segue lo shedule che è stato stabilito dall’alto (e, come detto, viene
valutato proprio in base all’aderenza ed il rispetto di tale schedule).
Il passaggio successivo consiste nell’adozione di un sistema supermarket che, in sostanza, viene a
coincidere con l’introduzione di un sistema kanban; si provi , anzitutto, a fare chiarezza su quella che è la
logica alla base di un sistema di questo tipo.
33
In un sistema kanban, quindi, gli stadi sono inevitabilmente legati: se lo stadio immediatamente a valle
dovesse, per qualunque motivo, fermarsi, anche quello a monte, una volta finito di produrre tutti i kanban
arretrati, dovrà necessariamente fermarsi, ricominciando la sua attività solo quando, quello a valle,
ricomincerà a consumare.
Posto questo, qual è la differenza tra un sistema push ed uno supermarket? In entrambi i casi si ha la
presenza di scorte, solo che:
- Nel caso dei sistemi push, la quantità di materiale presente nel magazzino è indefinita e,
soprattutto, potrebbe riguardare tutti, alcuni o solo pochi dei prodotti presenti nella gamma;
- Con il supermarket, il valore delle scorte è limitato (non ci sarà mai una quantità superiore a
“numero di cartellini in circolazione * numero di prodotti per cartellino”: se così fosse,
significherebbe che, quello a monte, avrebbe prodotto senza un effettivo consumo e presenza di
34
cartellino, il che “violerebbe” la regola del sistema); inoltre, esso deve essere gestito in maniera tale
da garantire sempre la presenza di tutti i possibili prodotti che potranno essere richiesti dallo stadio
immediatamente a valle.
In definitiva, quindi, è possibile dire che, mentre in un sistema push avviene una produzione “cieca”,
ovvero, ogni stadio realizza le quantità solo ed esclusivamente guardando al suo schedule, in un
supermarket la produzione dello stadio a monte parte solo a seguito della ricezione di un ordine di
replenishement del magazzino (quindi se e solo se c’è stato un consumo da parte dello stadio a valle): c’è
un collegamento di quantità (la dimensione delle scorte è predefinita e limitata), ma non di sequenza (lo
stadio a monte può seguire la logica di produzione degli ordini in maniera libera).
La terza configurazione è quella first in – first out (FIFO), tale da avere:
- Un flusso informativo che mantiene la sequenza tra gli stadi: il primo materiale – componente –
prodotto che viene inserito nella corsia FIFO tra gli stadi è anche il primo ad essere processato dallo
stadio a valle;
- Una limitazione alla lunghezza della corsia: ogni qual volta la coda ha raggiunto la massima
capacità, non sarà più possibile inserire altro materiale;
- L’accoppiamento tra le fasi risulta essere ancora più forte: se lo stadio a monte non produce, non
produce neanche quello a valle; solo nel momento in cui, lo stadio a valle, preleva un
componente/prodotto/materiale, allora quello a monte si attiva per il ripristino;
è ovvio quindi che, quanto più la coda FIFO risulta essere corta, tanto più i due stadi successivi risultano
essere accoppiati.
Si tenga presenta quella che è una peculiarità dei sistemi FIFO rispetto a quelli supermarket, ovvero il
mantenimento della sequenza: mentre, in una configurazione supermarket, non è detto che, la sequenza
di ordini dettata da valle, venga rispettata anche a monte (se, lo stadio successivo, invia un cartellino di tipo
X, uno di tipo Y, ed uno di tipo Z, non è detto che, quello più a monte, li soddisfi nella stessa logica XYZ),
questo è assolutamente rispettato nel sistema FIFO (ogni qual volta si ha un prelievo, si ha un
replenishement di quell’esatto prelievo).
Infine, l’ultimo passo consiste nel “one piece flow”, che rappresenta il limite, al tendere a 0, della lunghezza
della coda del modello FIFO: la logica è quella del “make one, move one”, dove gli stadi sono esattamente in
sequenza e totalmente accoppiati.
Come anche evidenziato dalla rappresentazione, passando dalla prima all’ultima configurazione, si è
sempre più vicini a quello che è il sistema “ideale” a cui tende l’approccio lean.
Posto questo, è quindi possibile fare chiarezza su quelli che sono i criteri che spingono a passare da un
sistema “push” ad uno a “one piece flow” cui, in particolare, si fa riferimento come alle condizioni DeCAF:
 Dedicated: le risorse presenti negli stadi da accoppiare devono essere dedicate l’uno all’altro, e
specifiche per la famiglia di prodotti in esame;
 Capable: gli stadi devono essere “capaci”, sia in termini di qualità che di quantità (deve esserci
sufficiente capacità da consentire di rispondere, nei tempi, nelle quantità e nella conformità
richieste dal cliente finale: se così non fosse, sarebbe necessario interporre delle scorte che
facciano fronte a queste possibili carenze);
 Available: non deve esserci impatto del down – town; se uno stadio ha una bassa disponibilità,
difatti, meno è la quantità di scorte di disaccoppiamento, maggiori saranno le ripercussioni sulle
varie fasi nel caso in cui si verificasse un fermo;
35
 Flexibility & chage - over: i tempi di set – up di ciascuno stadio devono tendere al valore minimo, di
modo tale da riuscire a produrre a lotti unitari (se così non fosse, una produzione a lotti di grandi
dimensioni, ad ogni cambio di prodotto, obbligherebbe a fermare tutti gli stadi, per un tempo pari a
quello massimo richiesto dalle risorse presenti).
Attenzione che, queste condizioni, non vanno approcciate nella logica “se sussistono i fattori DeCAF, allora
si può accoppiare, se non sussistono, allora bisogna utilizzare un sistema che preveda la presenza di scorte”,
bensì nell’ottica “il sistema ideale vuole un flusso continuo ed un’interconnessione tra le fasi: ci si organizzi
così, si facciano emergere i problemi e si identifichino quelli che sono i fattori sui quali agire per ottenere un
miglioramento nelle prestazioni”; nulla è impossibile: occorre invece chiedersi che cosa deve essere
cambiato, dei vincoli attuali, per potersi muovere nella direzione desiderata (miglioramento nei tempi di
ciclo, riduzione dei tempi di set – up, aumento della disponibilità…).
Questa è propria la filosofia alla base del miglioramento continuo, ed è per questo che, le configurazioni,
vanno a comporre un continuuum: tramite una logica graduale, sarà anzitutto possibile passare da un
sistema push ad un sistema supermarket, facendo emergere le problematiche da affrontare con questa
nuova configurazione; rilasciati i vincoli, si potrà pensare di adottare una logica FIFO, il che farà sorgere
nuovi problemi; risolti anche queste difficoltà, si potrà, infine, adottare il “one piece flow”, migliorandolo
ed affinandolo continuamente.
Approcciare il problema in questo modo consente, quindi, di ottenere i reali vantaggi di un sistema
interconnesso (vantaggi che, apparentemente, sembrano non esserci: accoppiare significa dover affrontare
molto più problematiche, irrigidendo la produzione): per mettere a flusso, non è necessario avere tutte le
condizioni DeCAF, bensì migliorarle nel tempo; solo in questo modo si ha la possibilità di far emergere i
problemi ed essere “obbligati” a risolverli.
Non è una questione di “si può fare / non si può fare”, bensì di identificazione dei target minimi cui si deve
mirare per ottenere un flusso accoppiato; occorre, in sostanza, esplicitare la relazione tra le grandezze
(identificando il lotto minimo di produzione per poter soddisfare la domanda, il tempo di set – up minimo
che ne deriva, la disponibilità necessaria, il tempo di ciclo minimo ottenibile…). I target minimi sono solo
degli obiettivi intermedi: una volta raggiunti e soddisfatti, il passo successivo consiste nel migliorarli, al fine
di incrementare le prestazioni ottenibili dal sistema messo (sostenibilmente) a flusso.
Accoppiare, se fatto in maniera efficace, consente di accorciare il tempo di trasformazione del prodotto
dalle materie prime al prodotto finito, riducendo, così, gli sprechi: se un sistema risponde in tempi brevi,
difatti, non ha alcuno spazio per “sprecare” risorse; ecco quindi che, come più volte detto, l’obiettivo non è
quello di ridurre i tempi e le scorte, ma questi sono solo indicatori e conseguenze; al contrario, il focus è
quello di migliorare il sistema: fatto questo, la diminuzione del tempo è delle scorte sarà logica
conseguenza.
Posto questo, si torni all’esempio della ACME; nel caso, l’approccio lean vuole che vengano messe a flusso,
in un’unica cella, sia le fasi di saldatura, che quelle di assemblaggio:
36
Si noti come, la struttura della cella, è tale da favorire il teamwork, l’aiuto reciproco e l’interazione tra le
risorse; essa, difatti, assume una struttura ad U non casuale, per due motivi:
- Accoppiando, si ha la possibilità di ridurre il tempo di processo, avvicinando le risorse e potendo,
così, risparmiare una persona (come ragionato in precedenza: lavorare per ridurre il tempo di ciclo
e poter ovviare all’ultima risorsa insatura);
- Questa configurazione è quella che permette alle risorse di essere più vicine possibile tra loro e di
interagire, fattori abilitanti del processo di miglioramento continuo.
È evidente come non si abbia il corretto valore di disponibilità e di set – up per poterlo fare; questo,
tuttavia, non deve essere la “scusa” ed il “vincolo” per rinunciare a farlo: si cominci con il realizzare la cella,
si facciano emergere i problemi e, nel corso del tempo, li si vada a risolvere (aumento della disponibilità
delle saldatrici e riduzione dei tempi di set – up per la fase di presaldatura).
Due possibili interventi migliorativi potrebbero essere i seguenti:
 Miglioramento della disponibilità: definizione di programmi di manutenzione preventiva;
 Riduzione dei tempi di set – up: l’attrezzaggio alla presaldatura (nel passaggio dalla staffa sinistra
alla destra, e viceversa) è necessario poiché, da un prodotto all’altro, è necessario sostituire la
macchina di saldatura; per ovviare a questo tempo (10 minuti = perdita di flusso per 10 pezzi), si
può pensare di allestire due differenti tavoli, su ognuno dei quali vengono fissate le macchine, una
dedicata alla saldatura della staffa destra (con relativa maschera), una dedicata alla saldatura della
staffa sinistra (con relativa maschera): facendo questo investimento, si ha la possibilità di azzerare
completamente il tempo di set – up.
QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: ADOZIONE DEL SISTEMA SUPERMARKET
La quarta domanda che occorre farsi è: dove posizionare i sistemi supermarket?
Come detto, non tutti i punti del sistema consentono sostenibilmente l’adozione di una logica di flusso
continuo; ad esempio, anche ragionando nell’approccio proattivo prima descritto, sarebbe impensabile,
allo stato attuale, accoppiare a flusso lo stampaggio: le condizioni DeCAF sono troppo lontane dall’essere
raggiunte per poter anche solo pensare di tentare un’interconnessione (si pensi, ad esempio, alla differenza
di ritmo: la pressa, non essendo dedicata, lavora per la famiglia solo in certi periodi di tempo e, in cinque
ore, riesce a produrre il fabbisogno necessario a soddisfare le esigenze di un mese di produzione).
Ecco quindi che, tra lo stampaggio e la cella di lavoro, occorrerà mettere un supermarket che permetta, a
monte, di utilizzare sequenze produttive e logiche gestionali parzialmente indipendenti rispetto a quanto
richiesto dallo stadio a valle (è evidente che se, la cella, si mettesse a produrre nella stessa sequenza di
quanto fatto dallo stampaggio, dovrebbe inevitabilmente produrre, per due settimane, solo staffe sinistre
e, per le seguenti due settimane, solo staffe destre).
Si adotta quindi un sistema kanban supermarket del seguente tipo:
37
Quando il cliente comincia un contenitore, stacca il cartellino da tale vassoio (kanban di movimentazione),
che viene indirizzato verso il fornitore; questo è il segnale, per lo stadio a monte, che deve fare
replenishement del magazzino: il kanban di movimentazione viene trasformato in un kanban di
produzione, che, una volta ripristinato il vassoio, consentirà di andare a “ricoprire” il buco lasciato nel
magazzino a seguito del prelievo.
Si tenga presente che, il sistema supermarket, dovrebbe essere prossimo al fornitore, poiché, le scorte,
sono l’espressione della sua incapacità nel seguire puntualmente la domanda.
Nella logica di miglioramento continuo, il supermarket deve essere una soluzione “tampone” solo
temporanea: nel lungo periodo, sarà necessario progettare e mettere in atto opportuni interventi che
consentano di far evolvere questa configurazione verso una soluzione più “lean” (come, ad esempio, il pull
sequenziale in logica FIFO: nel momento in cui la corsia risulta essere piena, il fornitore è “obbligato” a
fermare la produzione; la denominazione, inoltre, rimanda proprio al fatto che, lo stadio a valle, mantiene
la stessa sequenza di produzione della fase a monte).
Arrivati a questo punto, si può quindi già cominciare ad osservare quello che è l’aspetto del future state con
gli accorgimenti definiti fino a questo momento:
38
L’avere:
- Ridotto il contenuto di lavoro complessivo;
- Migliorato la disponibilità della saldatrice (facendo manutenzione preventiva per ridurre le
probabilità di guasto);
- Azzerato i tempi di set – up (con nuovi investimenti);
ha consentito di creare la cella di “saldatura ed assemblaggio”, che diventa, a tutti gli effetti, un’unica
risorsa, senza fare più alcuna distinzione tra gli attori interni (risorse umane e macchinari); il suo databox,
mostra proprio come si abbia un tempo di ciclo inferiore al “takt time”, e pari a 56 secondi, che diventano
168 secondi complessivi di attraversamento (questi 56 secondi, se perfettamente bilanciati, saranno quelli
di lavoro relativi a ciascuna risorsa; sennò sarà semplicemente il valore massimo tra quelli richiesti dalle
singole risorse).
A monte della cella vi è, poi, la presenza del supermarket, che mette in evidenza il kanban di prelievo da
parte del cliente, e quello di produzione verso il fornitore; si tenga presente che, il fatto che, il cartellino di
produzione del cliente, abbia forma triangolare, significa che, il fornitore, non è in grado di lanciare una
campagna di produzione mettendo, in macchina, un lotto esattamente pari alla dimensione di un
contenitore, ma deve lottizzare con dimensioni maggiori (ad esempio, potrebbe essere che 1 lotto = 5
vassoi: fino a che, il cliente, non stacca almeno cinque cartellini, il fornitore non può attivare la produzione).
Attenzione: il future state già deve ragionare nell’ottica, in un futuro più o meno prossimo, di eliminare
questo supermarket (che, interrompendo il “one piece flow”, rappresenta comunque uno spreco); difatti, si
può osservare come, la fase di stampaggio, abbia ridotto il suo tempo di set – up (che passa da 1 ora a 10
minuti), a seguito della progettazione di interventi migliorativi; questo cambiamento potrà essere utilizzato
per:
- Produrre di più: si realizzano lotti della stessa dimensione, ma con più tempo a disposizione
(avendone liberato parte con il risparmio in set – up);
- Ridurre la dimensione del lotto: si reimpiega il tempo risparmiato con la diminuzione dei set – up
per poter fare altri set – up, e produrre a lotti di più piccole dimensioni).
Anche lo stampaggio deve quindi tendere a quella che è la situazione ideale: bisogna migliorare al fine di
fare lotti sempre più piccoli, livellando la produzione, seguendo la domanda del cliente e cercando di
39
mettere sempre più frequentemente in produzione la gamma; questo, ovviamente, è anche una condizione
che consente, nel lungo periodo, di azzerare le scorte.
Proprio come accaduto (rispetto al current state) tra i vari stadi di produzione: essendo, ora, le fasi di
saldatura ed assemblaggio all’interno di un’unica cella, viene eliminata qualunque tipologia di scorta di
disaccoppiamento; permangono le scorte nel magazzino di prodotto finito e quelle a valle della pressa (che,
tuttavia, si riducono: ora, lo stampaggio, produce per la famiglia mediamente ogni giorno, contro le due
settimane del current state; ciò significa che, da un fabbisogno di copertura pari ad una settimana,
maggiorato delle scorte di sicurezza, si è passati ad una copertura di mezza giornata, più le scorte di
sicurezza).
Anche la gestione del sistema verso il fornitore cambia, il che può essere notato osservando la quantità che,
ora, si tiene a scorta che, quantificata in termini di tempo, passa da una copertura di 5 giorni ad un
fabbisogno di soli due giorni: questo è possibile ottenerlo andando ad incrementare la frequenza delle
consegne. In sostanza, nel current state, il fornitore consegnava due volte la settimana (martedì e giovedì),
il che significava che:
 Ciascun ordine aveva dimensioni abbastanza corpose poiché avrebbe dovuto coprire il fabbisogno
di 3 giorni + 2 giorni (ad esempio, l’ordine del martedì potrebbe coprire per 2 giorni, quello del
giovedì per i restanti 3);
 Con una consegna due volte la settimana significa che, quanto meno al venerdì, bisogna aver
inviato il fax al fornitore per comunicargli il fabbisogno richiesto: nel caso in cui la previsione fosse
sbagliata, bisogna attendere almeno 10 giorni prima di poter porre rimedio (il seguente ordine sarà
inviato con il fax del venerdì successivo, con ricezione della consegna, al più presto, il lunedì); ciò
significa quindi che, per far fronte ad un’eventualità di questo tipo, bisognerà tenere un
“cuscinetto” di scorta in grado di cautelare su 7 giorni lavorativi, ovvero il tempo necessario a
correggere la decisione.
Se, invece che questa logica, ci si riuscisse ad accordare per delle consegne giornaliere, si avrebbe:
 Un singolo ordine molto meno pesante dal punto di vista quantitativo (il fabbisogno consegna, ogni
giorno, il fabbisogno di un solo giorno: ciò significa avere, a scorta, solo un quantitativo operativo);
 Nel caso in cui si effettuasse un errore di previsione, la dimensione della scorta di sicurezza dovrà
esser tale da cautelare solo per due giorni (da 7 giorni lavorativi, a due: se oggi si ordina e si sbaglia
la previsione, domani si reinoltrerà un altro ordine, che verrà consegnato dopodomani, e si avrà
possibilità di farvi fronte in maniera molto più tempestiva).
È proprio per questo motivo che, il sistema messo in piedi con il fornitore viene denominato “milk run”
(letteralmente il “giro del latte”): il fornitore si comporta come un lattaio che, ogni giorno passa, consegna
il prodotto, e registra l’ordine ed il quantitativo che dovrà consegnare il giorno successivo.
È evidente che, un approccio di questo tipo, è tanto più fattibile quanto più si può far leva sulla vicinanza
dei fornitori: è per questo motivo che, spesso, la logica lean suggerisce l’allaccio di relazione con fornitori
“globali” solo per codici a bassa incertezza di volume e relativamente poco critici, sui quali, quindi, non si ha
esigenza di un quantitativo elevato di scorte di sicurezza per cautelarsi dai lunghi lead time.
L’impatto delle iniziative messe in atto è evidente: non solo si è ridotto il tempo di processo, ma
propriamente quello di attraversamento che, da 23,6 giorni, è ora di soli 8 giorni (4,5 + 1,5 + 2 giorni, al
quale si somma il tempo di produzione); l’indice di flusso è comunque basso (il che significa che ci sono
ancora ampi spazi di miglioramento) ma, senza dubbio, molto migliore rispetto alla situazione di partenza.
40
QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: POSIZIONAMENTO DEL PACEMAKER
I maggiori sprechi ed inefficienze del current state derivavano dal fatto che, la programmazione centrale,
dava a ciascuno stadio dei piani da seguire, i quali venivano seguiti “ciecamente” in ottica dipartimentale,
senza alcuna visione sistemica. Ogni stadio produceva sulla base del suo schedule: questo portava a
formazione di scorta e disallineamento (i piani definiti a livello centrale, per vari motivi, possono essere
disallineati: ognuno di essi, difatti, è pensato per ottimizzare il lavoro di ciascuno stadio, proteggendolo da
un qualunque evento che potrebbe succedere negli altri; tuttavia, essi derivano da previsioni: nel momento
in cui le cose vanno diversamente da come si era pensato, è possibile che il sistema collassi, a meno che
non si abbia la presenza di un quantitativo sufficiente di scorte per assorbire questa variabilità).
Tutto questo, nel future state, deve sparire: esiste un unico punto di programmazione, in funzione del
quale, tutti gli altri stadi, si adeguano e reagiscono; solo in questo modo si minimizza la probabilità di
disallineamento tra gli stadi, costruendo un sistema altamente flessibile e facilmente governabile (nel
momento in cui, per qualunque motivo, lo stadio “centrale” si trova a rivedere i suoi piani, anche tutti gli
altri devono reagire di conseguenza, riallineandosi a questo cambiamento).
Per realizzare questo sistema flessibile e reattivo, guidato da un unico stadio, si potrebbe pensare a due
differenti modelli:
 Il primo è condotto dal magazzino prodotti finiti: tutto il processo produce per il magazzino finale,
il che significa che, la programmazione, avviene in funzione di quelle che sono le richieste
pervenute, a questo stadio, da parte del cliente finale (in sostanza, se il cliente esprime una
richiesta di 640 staffe sinistre e 360n staffe destre, il magazzino prodotti finiti staccherà un kanban
di 1000 pezzi di programmazione per tutta la filiera alle sue spalle). Questo caso pone, quindi, il
punto di programmazione in corrispondenza dell’ultimo stadio: ogni prelievo che questo fa per
soddisfare la domanda finale, attiva gli stadi precedenti al fine di ottenere il ripristino di tale
prelievo (l’azione di schedule in un punto crea una serie di azioni di adeguamento);
 La seconda possibilità consiste nell’andare a schedulare in un particolare punto del processo, quello
che si trova a ricevere direttamente gli ordini cliente (pur non essendo alla fine). Con riferimento
alla figura sottostante, si pensi al processo 2 come allo “stadio di fabbricazione”: è questa la fase
che riceve gli ordini cliente e ne definisce la sequenza (prima l’ordine per il cliente A, poi quello per
il cliente B, e così via); è evidente che, le fasi immediatamente a valle (come potrebbero essere i
successivi processi di assemblaggio), reagiranno e seguiranno a loro volta questa sequenza e, il
fornitore, a monte, agirà a sua volta in reazione (nel momento in cui la fabbricazione comincerà a
produrre, dovrà attivarsi per ripristinare i consumi). Programmando in questo modo non c’è
possibilità di disallineamento: ci sarà giusto il quantitativo si scorta massima ammesso per un
sistema FIFO.
41
Si tenga presente che, l’adozione dell’una o dell’altra logica, richiede, sempre e comunque, che gli stadi che
devono reagire siano caratterizzati da un elevato livello di flessibilità, propri perché devono essere in grado
di reagire tempestivamente a cambiamenti; non si dimentichi che, il processo di pianificazione centrale
(quello che, nell’approccio tradizionale, portava a disallineamento), era proprio fatto perché, il sistema, si
caratterizzava per bassi tempo di reazione (rendendo quindi necessario il “guardare avanti” e stilare un
programma); ovviamente, più le risorse hanno un tempo di reazione immediato, più è possibile evitare di
dover programmare.
Il sistema progettato deve operare nella logica del “what’s next”, ovvero, ogni stadio, deve essere nella
condizione di avere una chiara fonte di indicazione su cosa deve essere prodotto, ed in che modalità; è per
questo motivo che, a valle del punto di schedulazione, se non c’è un “one piece flow”, sarà ammessa, al
massimo, una coda FIFO: proprio perché deve esserci un unico flusso, ed una direzione univocamente
determinata, un sistema supermarket non sarebbe idoneo poiché, permettendo sequenze indipendenti, è
possibile che lo stadio successivo, una volta terminata la realizzazione di un prodotto, non sappia
esattamente quello che dovrà produrre successivamente (a chi dare la priorità, se questa priorità non
emerge dal sistema?).
Nel caso della ACME, la soluzione più razionale consiste nella prima configurazione: il punto di
programmazione, il pacemaker del sistema, diventa il magazzino prodotti finiti.
Si guardino i risultati:
42
Si è ottenuto un sistema migliore e più efficiente rispetto a quello di partenza, e la prova è proprio data dal
fatto che, in questa configurazione, è possibile un funzionamento con un livello di scorta molto più basso.
QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: LIVELLAMENTO DEL MIX E DEL VOLUME DA
PARTE DEL PEACEMAKER
Deciso dove andare a programmare, ponendo gli altri stadi in reazione, bisogna chiedersi: con che criteri il
punto di scheduling, livella il volume ed il mix di produzione?
Per effettuare questo livellamento, lo strumento è il load leveling box, ovvero uno schedario che
 Sulle righe, presenta i differenti prodotti;
 Sulle colonne, invece, viene evidenziato il pitch, ovvero l’intervallo/di controllo, ed il lotto di
informazione che viene passato al peace maker, ovvero lo stadio che programma le attività (a
questo punto, difatti, non solo viene programmata la sequenza di produzione, ma anche la sua
velocità: dare ordini ad intervalli temporali più ravvicinati significa implicitamente comunicare di
andare più veloce mentre, diminuendo la quantità, si sta dicendo di rallentare).
Si chiarisca con un esempio: si supponga che, un kanban, corrisponda ad un vassoio di 20 pezzi e che, la
domanda finale (takt time) corrisponda ad un pezzo al minuto; ciò significa che, evidentemente, verrà
richiesto un contenitore ogni 20 minuti.
Se si decide che, questo, è lo slot di controllo, andando a programmare la produzione, ogni colonna avrà, al
massimo un kanban, proprio perché, un cartellino, corrisponde proprio a 20 minuti (chi segue quello
scheduling deve produrre un kanban ogni 20 minuti: non di più, poiché altrimenti sovraprodurrebbe, non di
meno, poiché altrimenti non rispetterebbe il ritmo richiesto dal mercato).
Questa è la programmazione in termini di volume (ogni 20 minuti deve essere realizzato un vassoio);
riportandosi al caso della ACME, quando il magazzino riceve l’ordine giornaliero di 600 staffe sinistre e 360
staffe destre, dovrà staccare 48 kanban (ciascuno da 20 pezzi): mettendone uno ogni 20 minuti e, quindi,
uno per colonna, in due turni non si sarà in grado di assegnare tutta la domanda giornaliera.
Si tenga comunque presente che, la richiesta, da parte del mercato, di 960 pezzi al giorno, su due turni, ad
un takt time di 1 minuto (il che significa un kanban di 20 pezzi ogni 20 minuti), rappresenta un valore
43
medio: non è detto che, ogni giorno, la domanda sia esattamente pari a questo valore (difatti, si ha sempre
e comunque l’esigenza di un magazzino prodotti finiti in grado di assorbire parte della variabilità).
Il sistema, però, è tarato per andare a questo ritmo: nel momento in cui la domanda risulta essere
superiore (ad esempio, 1100 pezzi), benchè si spediscano i pezzi richiesti, e si stacchino più kanban (55, e
non 48), comunque il sistema procederà al valore target stabilito, il che significa che, il peacemaker, andrà a
programmare e livellare il volume sempre e comunque andando ad inserire, per la giornata, 48 kanban (e
non 55); quelli in eccedenza verranno schedulati per i giorni successivi, fornendo le unità in soprannumero
appoggiandosi al magazzino prodotti finiti.
Questo concetto è fondamentale: si programma e si livella la produzione sempre al valore target
determinato dal takt time (1 pezzo al minuto, 1 kanban ogni 20 minuti, 48 kanban al giorno); se la domanda
dovesse eccedere questo valore, la parte in surplus verrà destinata alla produzione del giorno successivo, in
aggiunta ai successivi che si manifesteranno (ci sarà, prima o poi, un giorno in cui l’ordine sarà inferiore a
960: in quel momento, allora, la situazione di riequilibrerà).
Anche nel caso in cui vengano teoricamente richiesti più kanban, il sistema produce comunque in base al
valor medio: sarà compito del magazzino prodotti finiti assorbire la variabilità di questa domanda,
permettendo proprio al sistema di funzionare in base alla media calcolata con il takt time.
Attenzione che, mentre questo ragionamento vale in caso di domanda in suprlus, non vale con richieste
inferiori alla media: se la domanda è inferiore, non è che il sistema produca comunque 48 kanban (a meno
che non si abbiano arretrati dai giorni precedenti); senza kanban, non ci deve essere produzione.
Si tenga presente che, l’obiettivo, non è quello di avere un punto di partenza con un magazzino in grado di
coprire, con le scorte, 4,5 giorni, ed un load leveling box che non abbia, al suo interno, kanban; più
“normale” è avere una situazione iniziale che, ad esempio, abbia a magazzino 2,5 giorni di scorta e, nello
schedario, già presenti 2 giorni di kanban, che guideranno la produzione per l’immediato futuro.
Va tuttavia sottolineato che, questo discorso, vale a livello generale parlando di volume complessivo;
poiché, tuttavia, il ridisegno del processo riguarda un sistema che si occupa della produzione di una famiglia
di prodotti, è opportuno comprendere quali siano le logiche di livellamento e sequenziamento del mix.
Il sistema ideale è quello che produce esattamente quanto e come è stato chiesto dal mercato; ciò significa
che, nel momento in cui il cliente richiede 600 staffe sinistre e 360 staffe destre, la soluzione migliore non è
certamente quella di produrre in una sequenza del tipo “lotto da 600 sinistre” e “lotto da 360 destre” (o
viceversa), poiché questo significa anticipare la produzione ed incrementare il livello delle scorte.
Esistono differenti alternative di scelta delle logiche di livellamento.
La prima è quella di non livellamento: il cliente invia l’ordine al magazzino, il magazzino preleva i
contenitori necessari e prepara la spedizione; prelevando i vassoio, viene staccato uno o più kanban di
movimentazione, che vengono inviati alla cella (come input al replenishement) senza alcun livellamento (la
cella vede arrivare i cartellini in base a quelle che sono state le logiche di prelievo di chi si occupa del
magazzino).
44
La seconda alternativa vuole che, prima che siano passati alla cella, i kanban vengano livellati, nel senso
che, il sistema non riceve più il “batch” complessivo, ma ne vede uno alla volta, in base a quelle che sono le
logiche di livellamento (i kanban staccati dal magazzino finale, quindi, passano dapprima attraverso la
cassetta di livellamento):
Ovviamente, esistono differenti approcci; tenendo presente il fatto che, le staffe sinistre, sono richieste in
rapporto 2:1 rispetto alle destre, l’alternanza
Sinistro – sinistro – destro; sinistro – sinistro – destro; sinistro – sinistro – destro…
Rappresenta la situazione in cui il mix è livellato alle dimensioni del lotto più piccole possibili: si riproduce,
sull’orizzonte temporale più breve, quella che è la domanda media.
Difatti:
 Sul mese, vengono richieste 12000 staffe sinistre e 6400 staffe destre;
 Settimanalmente, vengono richieste 4000 staffe sinistre e 1600 staffe destre;
 Giornalmente, vengono richieste 600 staffe sinistre e 360 staffe destre;
 In ogni turno, vengono richieste 300 staffe sinistre e 180 staffe destre;
 …
 Istantaneamente, vengono richieste 2 staffe sinistre per una staffa destra: questo mix corrisponde
all’orizzonte temporale più breve sul quale è possibile replicare il mix richiesto sul mese;
ovviamente, per poter realizzare una produzione di questo tipo, si ha assoluta esigenza di flessibilità (i set –
up devono essere azzerati, proprio come è il caso in esame).
Il livellamento antecedente la cella dà garanzia che venga messo in produzione solo un kanban per colonna
presente nel load leveling box, a prescindere da quello che è stato il prelievo a magazzino; il concetto è
45
sempre il solito, ovvero che bisogna seguire il takt time e, quindi, alla cella deve arrivare un kanban ogni 20
minuti: questo è quanto dettato dallo stadio peace maker, che detta il ritmo a tutti gli altri, che devono
proprio reagire a quella fase (il magazzino) che, mediamente, si muove ad un pezzo al minuto (non possono
né andare più veloci, né andare più lenti; è comunque evidente che, al ridursi del numero di kanban, gli
stadi risultano essere sempre più accoppiati: la situazione limite è rappresentata dal caso in cui si abbia in
circolo un solo kanban, che viene staccato ogni 20 minuti, il che significherebbe che, gli stadi a monte,
reagirebbero solo all’unica richiesta di quello a valle).
In tal senso, il “decisore” è colui che governa e gestisce la cassetta di livellamento, in quanto dà l’impulso a
chi dovrà produrre; è difatti lì che viene definito il programma di produzione, ed è l’unico punto in cui
questo avviene, con tutti gli altri stadi che operano in reazione (come detto, se ce ne fosse più di uno, ci
sarebbe forte probabilità di creare disallineamento, che porta ad un’elevata esigenza si scorte, a meno che
non si voglia rischiare di incorrere in stock out). In sostanza, il peacemaker è il magazzino prodotti finiti,
che preleva materiale in modo tale da determinare un’esigenza di un kanban ogni 20 minuti mentre, chi
governa il load leveling box, programma in modo tale da seguire questo ritmo.
Ecco quindi che, il posizionare una cassetta di livellamento prima della cella, consente di controllare più
puntualmente il volume e di definire il mix:
 Controllo del volume: viene inviato un kanban ogni 20 minuti, il che significa che, la cella, non può
produrre ad un ritmo differente da questo (se andasse più lenta, i kanban si accumulerebbero, se
andasse più veloce, violerebbe il “vincolo” di impossibilità a produrre in assenza di kanban);
 Definizione del mix: inviando un kanban per volta, e non ricevendo il “batch” di kanban (come
nella situazione A), la cella non può decidere di produrre ad un lotto differente da quello definito
dal singolo kanban (“sinistro – sinistro – destro” e non “un certo numero di sinistri + un certo
numero di destri”, quindi non aumentando arbitrariamente le dimensioni di lottizzazione); più
tardi, approfondendo le caratteristiche degli altro strumenti lean, verranno messe in evidenza
motivazioni più puntuali ed approfondire sul reale vantaggio di produrre a questo mix definito
piuttosto che a lottizzazioni differenti.
L’ultima opzione, infine, consiste in un livellamento addirittura a monte del magazzino prodotti finiti,
quindi prima del punto di programmazione:
In sostanza, al magazzino prodotti finiti, non si manda l’ordine di spedizione, ma un “kanban di
produzione”: in questo modo, si è costruito un sistema tale da livellare la produzione ancor prima che
avvenga la spedizione, che riceve, in input, una programmazione già livellata.
46
Il beneficio di questa soluzione, rispetto al caso precedente, è quella di minimizzare le scorte nel magazzino
prodotti finiti: mentre, nell’alternativa B, a magazzino, si ha la necessità di avere, a scorta, tutta la possibile
varietà che potrebbe chiedere il cliente (che, nel caso, su un ordine medio di 960 staffe, dovrebbe essere
una scorta di circa 1500 pezzi, equamente suddivisa nelle due tipologie: è, difatti, questo, il valore massimo
che potrebbe essere richiesto), poiché, arrivato l’ordine, lo si soddisfa proprio basandosi sui prodotti già
presenti nel magazzino, nell’alternativa C, poiché la programmazione avviene prima che il piano degli ordini
arrivi al magazzino, si ha la possibilità di distribuire il quantitativo e le spedizioni lungo la giornata, al ritmo
di “un ordine ogni 20 minuti” (in coerenza con il takt time), potendo, con ciò, tenere a scorta un
quantitativo di prodotto finito inferiore.
Sorge tuttavia una domanda: si è parlato più volte di “ritmo” e di “seguire la cadenza”; ma chi è
responsabile del controllo che, effettivamente, il takt time venga rispettato?
In una fabbrica lean, l’addetto a questo aspetto è il runner, ovvero una persona che si occupa,
propriamente, di girare all’interno della fabbrica, occupandosi della movimentazione dei cartellini: ogni
qual volta la spedizione preleva un vassoio e stacca un kanban di movimentazione, il runner ha il compito di
trasferire questo cartellino alla cella, diecndogli cosa dovrà fare; inoltre, se il ritmo è stato rispettato,
poiché è stato staccato il kanban dopo 20 minuti, la cella dovrà aver prodotto il quantitativo necessario a
riempire il precedente consumo, che verrà quindi prelevato e inserito all’interno del supermarket;
successivamente, il runner prenderà il nuovo kanban di movimentazione staccato e ricomincerà il giro.
Questa persona compie il suo giro ad un ritmo cadenzato: se la frequenza definita è quella di “un kanban
alla volta”, allora lo compirà ogni 20 minuti.
Questo fa da feed – back alle risorse: nel momento in cui la cella vede arrivare il runner, ma non ha
ultimato la produzione richiestagli con il kanban precedente, significa essere in ritardo; questa mansione
viene quindi istituita “ad hoc” per dare un “check” al ritmo produttivo degli stadi, fungendo da vero e
proprio metronomo.
Ovviamente, possono esserci casi semplici
O più complessi
47
In questa seconda situazione, che prevede un livellamento, il kanban di movimentazione staccato dal
magazzino finale non viene trasferito direttamente alla cella di produzione, bensì a chi gestisce il load
leveling box, che si occuperà di inserirlo opportunamente nella colonna; il runner, prenderà poi il kanban
presente nella prima colonna più a sinistra, portandolo allo stadio di competenza.
QUESTIONI CHIAVE PER LA MAPPATURA DEL FUTURE STATE: DEFINIZIONE DEL PITCH DI CONTROLLO
Come visto, il “runner” (detto anche “water spider”), è colui che si occupa di portare in giro i cartellini e
dare la cadenza; è evidente che, il ritmo al quale, questa figura, compie il suo giro, dipende da come è stato
definito l’intervallo di controllo e di trasferimento dei kanban; nella cassetta di livellamento, è possibile
programmare di modo da trasferire 1 kanban ogni 20 minuti, 3 kanban ogni ora, 6 kanban ogni due e così
via(il che singnifica organizzare, in modo differente, le colonne: una colonna potrebbe corrispondere a 20
minuti di domanda cliente, estremamente puntuale, oppure a tre ore di domanda, aggregandola
maggiormente).
È ovvio che, una soluzione più puntuale, consente di controllare in maniera più stringente la cadenza ed il
ritmo di produzione; in un caso si controlla quanto si è prodotto ogni 20 minuti, nell’altro ogni 3 ore: si
capisce bene come ci sia differenza!
Con un controllo esattamente pari ad un kanban, il check è molto più stringente ed efficace: questo
vantaggio trova, come contr’altare, un maggiore spreco in termini di movimentazione della personma che
addetta ai vari trasferimenti.
Al di là di quello che si potrebbe pensare, tuttavia, occorre sottolineare come, tanto più il timing di
controllo è puntuale, quanto più significa che, la produzione, lavora nel rispetto di questa cadenza e senza
incontrare problemi: controllando su un intervallo così stretto, difatti, se sorgessero frequenti problemi (a
meno di eccezioni), non si avrebbe il tempo di risolverli.
Ecco quindi che, la logica (forse anti intuitiva, ma del tutto razionale), vuole un controllo progressivamente
più restringente al migliorarsi del sistema:
 Si comincia, ad esempio, controllando e trasferendo una volta a turno: emergeranno dei problemi
che, una volta risolti, porteranno ad una situazione che, con un certo livello di confidenza (molto
elevato), ad ogni check si ha la probabilità di trovare che tutto venga rispettato;
 Si restringe il controllo, ad esempio a mezzo turno: emergeranno nuovi problemi che, quindi,
dovranno essere risolti, portando ad una situazione efficace;
 …
Via via che si fanno controlli sempre più puntuali, si sarà obbligati ad identificare le cause dei problemi ed a
rimuoverli, arrivando alla situazione “ideale” dove si è in grado di operare nel rispetto dei tempi
sull’orizzonte temporale più piccolo (un kanban).
Il concetto di “pitch” rappresenta proprio questa dimensione: è l’intervallo manageriale di controllo (ogni
quanto il “runner” effettua il suo giro e dà il check alla produzione).
Si tenga presente che, spesso, il pitch risulta essere correlato ai volumi ed al contenuto di lavoro dei
prodotti: più il prodotto è complesso (alto contenuto di lavoro) e realizzato in alti volumi, quanto più sarà
necessario istituire un controllo stringente (se si realizzano 20000 pezzi in un turno, non si può pensare di
effettuare un controllo alla fine di ogni turno: nel caso ci fossero problemi, questo significherebbe aver
potenzialmente compromesso un volume di prodotti molto alto).
48
In definitiva, si ottiene la seguente configurazione per il future state:
Si è optato per un livellamento antecedente il magazzino: livellando quello che viene prelevato, si ha la
possibilità di livellare, conseguentemente, anche quello che viene realizzato in produzione; inoltre, se il
livello di incertezza della domanda risulta essere basso, la sua variabilità si abbatte, il che significa che,
questa soluzione, oltre che ad abbattere le scorte operative, fa diminuire anche quelle di sicurezza.
Si ritorna a quanto già si era affermato: livellando la domanda al magazzino, si ha la possibilità di livellare la
domanda anche verso gli stadi a monte (i quali possono seguirla solo se caratterizzati da flessibilità e bassi
tempi di set – up), potendo così ridurre il quantitativo di scorte di sicurezza.
Con il fornitore a monte, invece, viene messo in piedi un sistema pull del tipo “vuoto per pieno” che,
idealmente, richiede l’invio di un quantitativo ogni qual volta viene staccato un kanban: non appena viene
svuotato un contenitore, questo vassoio viene inviato al fornitore, il quale lo riempie, lo consegna, e ritira
quelli, nel frattempo, svuotatisi.
È evidente che, un approccio di questo tipo, non è operativamente realizzabile con tutti i fornitori; laddove
non sia possibile, l’alternativa più efficace consiste nell’invio del kanban al production control centrale, il
quale si occuperà di emettere l’ordine al fornitore (in sostanza, si adotta l’approccio tradizionale: invece
che integragire direttamente con il production control del fornitore, si passa da quello dell’azienda): una
volta inoltrato, il kanban staccato viene posizionato all’interno di una tabelliera, in corrispondenza del
giorno previsto di arrivo l’ordine emesso. In questo modo, si ha una visione complessiva di quando si
riceveranno le varie consegne: ovviamente, nel momento in cui quest’ordine verrà ricevuto, il kanban verrà
staccato dalla tabella; se si hanno ancora cartellini facenti riferimento a giorni precedenti, significa che si ha
della merce in ritardo che deve, quindi, essere sollecitata.
Principi ed utilizzi dei principali strumenti lean
Uno dei principi alla base della riprogettazione “lean” (come anche avuto modo di vedere parlando delle
condizioni che portano alla costituzione delle celle nell’ambito della Value Stream Mapping) è la possibilità
di dedicare delle risorse; tuttavia, soprattutto in quelle realtà caratterizzate da alta varietà, le singole
tipologie di prodotti non hanno dei volumi sufficientemente alti da potergli dedicare delle risorse: è quindi
necessario metterne insieme più d’uno, formando, così, delle famiglie.
49
Questa è, quindi, l’unità di analisi alla base della riprogettazione di un sistema produttivo: per identificarle,
il punto di partenza è la cosiddetta “production flow analysis”, ovvero un’analisi che, partendo da una
matrice che va ad incrociare, ogni prodotto realizzato, con le competenze/risorse/processi richiesti,
sfruttando opportuni algoritmi, consente di arrivare ad un raggruppamento più o meno preciso:
Nel caso dell’esempio di cui sopra, si può notare come, ad esempio, i prodotti A – B – C – F – G risultino
essere più o meno simili (nel dettaglio, B – F – G sono identici dal punto di vista delle risorse richieste,
mentre A e C hanno delle differenze: in particolare, A avrebbe bisogno di una risorsa potenzialmente fuori
cella, mentre C l’esecuzione di un passaggio in meno); essi rappresentano, quindi, una famiglia.
Questo processo consente di scorporare un sistema più complesso, riconducendolo alla sommatoria di n
sottoinsieme di prodotti che hanno le stesse necessità in termini di risorse richieste; in questo modo,
potendo trattare questi sottosistemi in maniera indipendente, si ha la possibilità di analizzarli
autonomamente, semplificando il problema (si ricordi quanto detto parlando di Value Stream Mapping: si
analizzava il flusso e la struttura produttiva per una particolare famiglia di prodotti, non per l’intera gamma
realizzata dall’azienda).
Alla fine, questa è poi la logica alla base della realizzazione delle celle: ha senso costituire un’organizzazione
di questo tipo laddove si ha la possibilità di mettere insieme delle risorse che hanno, come elemento
comune, la realizzazione di prodotti simili.
Da questa analisi, è anche possibile che emergano dei “bottleneck”, ovvero delle risorse che si occupano di
più famiglie (si parla, quindi, di collo di bottiglia non tanto dal punto di vista della capacità, bensì con
riferimento al fatto che non si può parlare di una risorsa completamente dedicata ad una famiglia): ciò
significa che, parte della loro capacità, sarà dedicata ad un particolare insieme di prodotti, la restante parte
agli altri (nel caso dell’analisi presentata, la risorsa 3 è il collo di bottiglia, in quanto è l’unica che si occupa
di entrambe le famiglie di prodotto: ciò significa che, ad esempio, parte della capacità sarà impegnata per i
prodotti A – B – C – F – G, e la rimanente a D – E).
Si tenga presente che, in questo contesto, l’elemento unificante delle varie risorse non è più la competenza
(ad esempio: le n persone che lavorano per l’ufficio Acquisti), ma quello che viene realizzato (le n risorse
che si occupano della famiglia di prodotti X): l’aspetto – chiave diventa, quindi, non tanto l’integrazione con
le altre sue risorse “simili” (le varie persone che operano nella funzione Acquisti, nel caso dell’esempio),
50
bensì con tutte le altre stesse risorse che sono dedicate alla realizzazione della particolare tipologia di
prodotti.
Effettuare un’analisi di questo tipo risulta quindi dare grandi benefici dal punto di vista gestionale, non solo
perché dà la possibilità di scomporre un sistema complesso in molteplici sottosistemi più piccoli e semplici
da organizzare e migliorare, non solo dal punto di vista produttivo; si pensi, ad esempio, agli impatti in
termini di contabilità: se si riuscisse ad arrivare (all’estremo) ad una situazione in cui ciascuna risorsa risulta
essere dedicata solo ed esclusivamente ad una particolare tipologia di prodotto, si sarebbe nella condizione
di “azzerare” i costi indiretti, proprio perché, essendo ogni risorsa dedicata, ogni voce diverrebbe un costo
diretto; si semplifica così, enormemente, la gestione dell’accounting, che diventa, inoltre, più preciso e
meno arbitrario (il prodotto X avrà la sua macchina, il suo magazzino di stoccaggio, le sue risorse umane
dedicate…).
Un esempio di algoritmo molto utilizzato, per effettuare la production flow analysis, è quello noto come il
“rank oreder clustering”, la cui logica di funzionamento è la seguente.
I passi dell’algoritmo verranno presentati con riferimento ad un particolare esempio.
Anzitutto, si guardi a quelle che sono le caratteristiche dei dati di input:
Si ha una matrice “pezzi – macchine”, dove ogni riga i rappresenta un particolare tipo di macchina (a
prescindere dal numero di ognuno di essi che dovranno essere distribuite tra le celle), ed ogni colonna j un
pezzo; il generico elemento d’incrocio xij varrà 1 se il pezzo j richiede, nel suo ciclo tecnologico, l’intervento
della macchina i, 0 altrimenti.
Per creare una tabella di questo tipo, è sufficiente conoscere tutte le tipologie di macchine che rientrano
nella realizzazione del mix produttivo in questione, e la loro distribuzione sui vari pezzi; non è invece
richiesta alcuna analisi di tipo morfotecnologico (non interessa il perché un prodotto j richieda la
particolare lavorazione sulla macchina i ).
A partire da tale matrice, occorre:
1) Associare, ad ogni macchina, un numero binario, e tradurne il valore su scala decimale (cosa già
fatta nella rappresentazione precedente);
2) Ordinare le righe dall’alto in basso secondo valori decrescenti del numero binario (decimale)
associato ad ogni riga:
51
3) Associare, ad ogni prodotto, un numero binario, e tradurne il valore su scala decimale (cosa già
fatta nella rappresentazione precedente);
4) Ordinare le colonne da sinistra a destra secondo valori decrescenti del numero binario associato:
A questo punto, intervengono i passi di riciclo:
5) Se nei passi 2) e 4) non è stato necessario nessuno scambio, allora andare al passo 6), altrimenti
andare al passo 1);
6) Stop.
Poiché nei passi 2) e 4) sono stati effettuato degli scambi, è possibile che le righe e le colonne non siano più
ordinate in maniera decrescente (nel riordinare le colonne, difatti, è possibile che il valore delle righe
cambi, e viceversa, facendo sì che non vi sia più l’iniziale ordinamento); occorrerebbe tornare al passo 1) e
ripetere la procedura. Nel caso dell’esempio, pur avendo effettuato degli scambi, si può osservare come
permanga il corretto ordinamento, potendo così arrestare la procedura.
A ciclo terminato, è evidente come il posizionamento degli 1 e degli 0 determini dei raggruppamenti
automatici; nel caso:
-
I pezzi 2, 1 e 5 individuano una cella con i tipi macchina A ed F;
I pezzi 3,6 e 7 individuano una cella con i tipi macchina C ed E;
I Pezzi 4 ed 8 individuano una cella con i tipi macchina B e D.
È evidente comunque come i risultati ottenuti non siano perfetti, poiché le famiglie non sono esattamente
caratterizzate; ad esempio, per il pezzo 2, incluso nella cella con i tipi macchina A ed F, sarebbe necessaria
anche la macchina di tipo C (che non serve, tuttavia, ai prodotti 1 e 5): si pone quindi il problema di come
gestire situazioni di questo tipo (se viene realizzato un volume di pezzi di tipo 2 tale da saturare e
giustificare l’inclusione di tale macchina nella cella, allora verrà inserita al fianco di A ed F; nel caso in cui
invece questo non avvenga, ed includere la macchina significherebbe andare incontro a pesanti
52
sottoutilizzazioni, allora bisognerà guardare ad altre strade, come l’outsourcing della produzione di tale
pezzo, oppure modifiche al ciclo tecnologico, valutando la fattibilità di poter realizzare l’operazione in
questione sui macchinari già inclusi nella cella).
L’esempio, e la considerazione che ne è seguita, mostra proprio il concetto che è stato introdotto all’inizio;
è vero che, in linea teorica, l’algoritmo non richiede alcuna necessità di analisi e razionalizzazione degli
aspetti tecnici e costruttivi dei pezzi, determinando automaticamente famiglie e composizione delle celle,
ma è altresì vero che, a partire dai risultati forniti, sono poi necessarie una serie di azioni correttive e
decisioni da parte delle risorse umane che, spesso, ritornano in questi ambiti.
FAR SCORRERE IL FLUSSO
L’analisi di “production flow”, come lo stesso nome rimanda, ha l’obiettivo di identificare e caratterizzare
quelli che sono i differenti flussi che “attraversano” l’azienda; ciò significa, appunto, andare ad associare, ad
ogni prodotto/famiglia di prodotti, un insieme univoco di risorse che le caratterizza.
Fatto questo, scatta il secondo “principio – chiave”, quello che vuole lo scorrere del flusso: poiché, tutto ciò
che ferma tale avanzare può essere categorizzato come “spreco”, bisogna andare a capire quelle che sono
le possibile cause di arresto.
Si identificano cinque categorie di “sprechi”:
1. Cambi produzione e set – up dei macchinari;
2. Scarti, mancanza di informazioni necessarie e ricircoli inutili;
3. Guasti;
4. Politiche di lottizzazione i termini di quantità (si pensi al seguente esempio: se il lotto minimo è di
100, il primo prodotto che arriva dovrà aspettare il formarsi di una coda di altri 99 prodotti prima di
poter essere messo in produzione);
5. Politiche di lottizzazione in termini di tempo (facendo riferimento a tutte quelle che sono i momenti
schedulati per le varie attività: lo svolgimento del servizio A avviene solo nel giorno X, la tipologia di
prodotto B viene processata solo il giorno Y…).
Per ciascuna di queste cause, quello che si farà, sarà andare a mettere in evidenza le possibili soluzioni per
evitarne l’insorgenza.
Riduzione dei tempi di set – up
L’approccio lean, per risolvere il problema dei tempi di set – up, si rifà al principio del “single minute
exchange of die - SMED”, teorizzata dall’ingegnere giapponese Shigeo Shingo, che arrivò ad elaborarlo in tre
differenti istanti.
Il primo risale al 1950 e si può considerare come la vera e propria nascita dello SMED. In uno stabilimento
giapponese della Mazda si chiese a Shingo di risolvere un problema di produzione legato ad un collo di
bottiglia in prossimità di tre grandi presse. Il datore di lavoro era ormai rassegnato ad acquistare un’altra
pressa, visto che per le crescenti richieste del mercato era necessario aumentare la produzione. Siccome le
potenzialità delle tre presse non era in grado di garantire l’incremento di produzione richiesto, l’unica
soluzione possibile per risolvere il problema sembrava l’acquisto di una nuova pressa. Shigeo Shingo invece
chiese di poter analizzare nel dettaglio il modo in cui erano utilizzate le presse. Egli credeva infatti che i
difetti di produzione fossero legati alla cattiva gestione delle macchine e pensava inoltre che fosse inutile
acquistare una nuova macchina quando si poteva garantire un incremento di produzione sfruttando meglio
53
le macchine in possesso. Anche se con qualche difficoltà, Shigeo Shingo venne accontentato e lo
stabilimento rimase fermo per una settimana, dando l’opportunità di effettuare tutte le analisi necessarie.
Shigeo Shingo scoprì che tutte e tre le macchine erano utilizzate al di sotto della loro capacità produttiva e
che bastava effettuare degli accorgimenti per migliorarla.
L’analisi effettuata dall’ingegnere giapponese si basava su un principio semplice; per prima cosa individuò
tutte le attività di setup; in seconda battuta fece una classificazione tra le operazioni che vanno eseguite a
macchina ferma e quelle che devono essere effettuate con la macchina in movimento. Shingo fece in modo
che le attività svolte a macchina ferma vennero ridotte del 50% e così riuscì nell’intento di aumentare la
capacità produttiva pur senza acquistare una nuova macchina.
Il secondo episodio che merita un cenno per lo sviluppo della tecnica SMED risale al 1957 e riguarda lo
stabilimento della Mitsubishi a Hiroshima. In questa circostanza venne chiesto, sempre all’ingegnere
Shingo, di aumentare la capacità produttiva di una piallatrice che si utilizzava per piallare blocchi di motori
navali. Il problema che si riscontrò analizzando il funzionamento della piallatrice era dovuto al fatto che
essendo i motori di grosse dimensioni era molto difficile cambiare le attrezzature della piallatrice. Non
potendo effettuare un corretto setup, lo sfruttamento della macchina era inferiore al 50% della sua
potenzialità. L’analisi mostrava inoltre che gran parte del tempo di setup si perdeva nel centraggio e nel
posizionamento del motore sulla piallatrice perché veniva effettuato a macchina ferma. L’idea avanzata da
Shingo fu quella di effettuare le operazioni di setup riferite al motore successivo su una seconda tavola
della piallatrice perché in questo modo bisognava spostare solo la tavola e non tutto il motore.
Introducendo questa novità nel processo produttivo si ridusse il tempo di fermo della macchina e si riuscì a
fornire un incremento della produttività del 40%. Il principio che portò all’ aumento di produttività era
molto semplice: anche qui bastava modificare le operazioni svolte a macchina ferma in modo tale renderla
un’attività esterna.
Dopo questi due episodi non si può non citare il più importante, cioè quello avvenuto nel 1970 presso lo
stabilimento principale della Toyota. L’obiettivo richiesto dal management era dimezzare il tempo di setup
richiesto dal una pressa da mille tonnellate che fino ad allora aveva un tempo di messa a punto di circa
quattro ore, equivalente pertanto a quasi la metà di un turno di lavoro. I dirigenti giapponesi erano al
corrente che le stesse operazioni di settaggio presso gli stabilimenti della Volkswagen duravano circa la
metà del tempo. In base all’esperienza dell’azienda si decise di effettuare una classificazione rigorosa delle
operazioni che richiedevano setup interno ed esterno e successivamente si decise di analizzare lo
svolgimento vero e proprio dei processi di settaggio così da perfezionarli in più possibile. Un’analisi
approfondita dei processi di attrezzaggio consentì quindi un abbassamento del tempo di setup dalle
quattro ore a circa due ore e mezza, anche se il management non era ancora totalmente soddisfatto dei
progressi ottenuti. Dopo questa riduzione venne posto come obiettivo quello di abbassare il tempo in
maniera drastica portandolo a soli tre minuti.
Tecniche dell’approccio SMED
La prima tecnica mira a identificare chiaramente quali sono le attività che si devono effettuare a macchina
ferma e le attività che invece possono essere svolte con la macchina in funzione ossia in “ombra alla
macchina”. Le attività a macchina ferma si definiscono IED (Inside Exchange of Die), mentre le attività che si
possono effettuare si definiscono OED ( Outside Exchange of Die). Ad esempio tutte le preparazioni, il
trasporto delle maschere degli stampi e delle varie attrezzature può essere effettuato mentre la macchina
funziona. Il montaggio dei pezzi sella macchina invece è un’attività che può essere effettuata soltanto
quando la macchina è ferma. Se si riesce a organizzare in maniera ordinata le attività da svolgere nel setup
54
e a suddividere correttamente le IED dalle OED si ottiene una riduzione del tempo di setup intermo che va
dal 30% al 50% La seconda tecnica, probabilmente la più importante in assoluto, mira a convertire per
quanto possibile le IED in OED: è importante perché se non riuscissimo ad applicare questo principio non
sarebbe mai possibile portare il tempo di set up nell’ordine di qualche minuto. sono riportati alcuni metodi
industriali per ridurre le IED, gli effetti che si possono ottenere dalla loro riduzione e le ripercussioni sul
processo produttivo.
Nel caso di sostituzione di parti pesanti di delicato inserimento in macchina conviene studiare un’unità di
movimentazione versatile e che si possa gestire con facilità come ad esempio i carrellini speciali per inserire
stampi || Si riduce il rischio di errore nell’ inserimento degli stampi;inoltre avere carrellini permette di
preparare come OED gli stampi da istallare sulla macchina Nel caso di regolazioni e di inserimenti di parti
meccaniche sulla macchina conviene posizionare sulla macchina stessa delle scale graduate ||Le scale
graduate hanno la funzione di semplificare enormemente le operazioni di settaggio e garantiscono una
maggiore precisione In operazioni semplici e standard come ad esempi il serraggio gli agganci e il
centraggio di parti bisogna semplificare il più possibile le attrezzature utilizzate; lo situazione ideale è
aspirare ad attrezzature universali. Esempi concreti di questa semplificazione sono le asole a forma di pera.
Le rondelle a U e le viti con un numero limitato di filetti visti in precedenza || Lo scopo di queste
attrezzature è quello di garantire una maggiore velocità di esecuzione delle operazioni
Azioni che riducono IED
Studio di dime, serraggi e agganci
rapidi,che consentono di eliminare dadi
viti o altri sistemi più complessi da gestire
Evitare il trasporto di pari smontate o di
semilavorati da una parte all’altra dello
stabilimento durante le IED
Porre nelle immediate vicinanze della
macchina un carrello portautensili
Effetti
Attraverso dei dispositivi di aggancio rapido si abbreviano le
operazioni di setup e si evitano anche errori di montaggio
poiché le parti che si devono gestire sono più semplici
Si riduce enormemente il numero delle movimentazioni
La presenza di un carrellino garantisce una semplificazione
delle operazioni di reperimento degli utensili e riduce il
tempo impiegato per la selezione degli utensili
La terza tecnica è la standardizzazione delle funzioni . Standardizzare le funzioni è un principio in contrasto
con le funzioni dello SMED in quanto quest’insieme di approccio mira a trovare il metodo migliore per ogni
attività di setup. Per ottenere importanti miglioramenti è sufficiente standardizzare solo ed esclusivamente
quelle parti che sono utilizzate per effettuare il settaggio. Per esempio aggiungere uno spessore agli angoli
per l’aggancio dello stampo, serve a standardizzare le dimensioni dei componenti di fissaggio e rende
possibile utilizzare lo stesso tipo di aggancio nei diversi set up. La standardizzazione garantisce pertanto un
notevole risparmio di tempo e di costi Il quarto principio invece ha come scopo ridurre l’impiego dei fissaggi
con filettatura con lo scopo di rendere più veloce le operazioni di serraggio La quinta tecnica riguarda
l’utilizzo di maschere intermedie sulle presse: Questi strumenti rendono veloce il cambio di lavorazioni sulla
pressa:ad esempio passare da un’operazione a un’altra (da foratura a tranciatura) e variare la dimensione
del grezzo di lavorazione richiede l’ausilio di maschere intermedie. L’aspetto critico dell’utilizzo di questa
tecnica riguarda la particolare attenzione richiesta nelle operazioni di fissaggio e di centraggio della
maschera rispetto allo stampo.
La sesta tecnica mira svolgere le operazioni in parallelo (parallelizzare): Il suo principio di funzionamento è
molto semplice: assicurarsi che il lavoro prima svolto da un solo operaio venga effettuato da più persone,
garantendo una limitazione della zona di lavoro visto che ogni operaio si occupa della sua zona di
competenza. Questa tecnica permette di ridurre spostamenti dell’operatore e questo semplifica lo
55
svolgimento delle attività da compiere facendo leva sull’aspetto motivazionale e sulla riduzione della fatica.
Per descrivere meglio come avviene un processo di parallelizzazione è stato pensato di fornirne un esempio
Prima della parallelizzazione
IED zona b IED zona a IED zona b IED zona a IED zona b IED zona a
Se non si dovesse applicare la paralleizzazione un unico operaio dovrebbe spostarsi su più zone
dell’impianto per effettuare le attività di setup interno sulle macchine.
Dopo la parallelizzazione:
IED zona b|| IED zona b|| IED zona b
IED zona a IED zona a IED zona a
Applicando la palallerizzazione grazie all’ aggiunta di un altro operaio si riduce fortemente il tempo del
setup anche perché ogni operaio è responsabile della sua area di lavoro .La tecnica descritta presenta però
due punti deboli: il primo è legato al costo della manodopera in quanto se si aumenta il numero di operai
aumenta anche il costa della manodopera, Il secondo invece secondo è legato all’aspetto sicurezza. Se ci
sono più operai nella stessa zona di lavoro bisogna evitare gli intralci e la ripetizione di operazioni.
L’obiettivo è far capire agli operatori quando un'operazione è già stata svolta, da chi e se è stata svolta nel
modo corretto, fornendo informazioni precise e tempestive. La settima tecnica riguarda l’eliminazione delle
prove e degli aggiustamenti: Normalmente gli aggiustamenti e i cicli di prova pesano dal 50 al 70% circa del
tempo di set up interno e quindi è importante contenere il più possibile la loro incidenza. L’eliminazione
delle prove e degli aggiustamenti inizia riconoscendo che il settaggio e l’aggiustamento sono due operazioni
separate e distinte. Il settaggio è quando la posizione di un limit switch viene cambiata. Si ha un
aggiustamento quando il limit switch viene testato e ripetutamente messo in nuove posizioni. Il termine
limit switch indica i parametri limite a cui far funzionare un dispositivo. Gli aggiustamenti possono essere
eliminati se si utilizza ad esempio un maschera per determinare con precisione la corretta posizione del
limit switch e quindi il settaggio diventa l’unica operazione richiesta. L’aggiustamento diventa sempre meno
importante man mano che il settaggio diventa più accurato. L’ottava tecnica mira a rendere meccaniche le
operazioni. La meccanizzazione (i giapponesi definiscono questo principio Jidoka) è spesso essenziale per
effettuare la stragrande maggioranza delle operazioni industriali in quanto l’esecuzione meccanica di un
processo evita di commettere errori e velocizza le operazioni. Alla luce di quanto descritto nelle prime sette
tecniche che costituiscono lo SMED si ottengono delle riduzioni di tempo molto consistenti uno stesso
processo che prima richiedeva qualche ora di tempo per essere impiegato dopo l’implementazione di
quest’approccio ne richiede soltanto pochi minuti. Nonostante il notevole impatto della tecnica sullo
svolgimento di un processo di setup, è importante sottolineare che la sola non è sufficiente per risolvere le
lacune di un processo mal organizzato.
L’aspetto cruciale della teoria di Shingo consiste nel distinguere due tipologie di set – up:
 I set – up interni, ovvero tutte quelle attività che vengono svolte quando la macchina è ferma;
 I set – up esterni, ovvero tutte quelle attività che possono essere svolte quando la macchina è in
funzione;
il punto di partenza consiste, quindi, nell’andare a “filmare” propriamente quelle che sono le attività
necessarie allo svolgimento del set – up, e classificare, ognuna di esse, come interna o esterna.
56
Si pensi, ad esempio, all’attrezzaggio necessario per cambiare uno stampo: ci saranno tutta una serie di
attività elementari che dovranno essere svolte, ognuna con certo ammontare di tempo, e che
richiederanno che la macchina venga arrestata (sgancio dello stampo, rimozione dello stampo, caricamento
della nuova maschera…), ed un altro insieme di attività che, invece, potranno essere fatte a macchina
ancora in funzione (pulitura dello stampo).
È evidente che, quanto più si è in grado di spostare la percentuale di attività di set – up verso la categoria
“esterna” (quindi, non richiedendo il fermo macchina), tanto più si sarà in grado di contenere la perdita di
produttività; si tenga presente che, questo, è spesso un fattore che presenta tantissime opportunità di
miglioramento:
 Attrezzature portate a bordo – macchina quando la macchina è già stata arrestata;
 Utensili dimenticati lontano dalla macchina da attrezzare;
 Attrezzature rotte;
 Mancata verifica prima dell’inizio della produzione della corretta funzionalità delle attrezzature;
sono solo alcuni esempi di inefficienze che, spesso, vengono compiute e che, se evitate (o, quanto meno,
traslate ad attività esterne), consentono di limitare la riduzione del flusso dovuta al set – up.
Ci si rifaccia all’esempio di cambio di uno stampo; se, invece che la procedura “classica” (inefficiente), si
progettasse un sistema in cui fosse prevista una doppia rulliera, una d’entrata ed una di uscita che faccia sì
che:
 Mentre la pressa continua a produrre, dia all’operatore la possibilità di prendere il successivo
stampo e prepararlo sulla rulliera di entrata (che sarà, quindi, già pronto per il successivo cambio);
 In corrispondenza del cambio produzione, l’operatore non dovrà quindi far altro che far scivolare lo
stampo corrente sulla rulliera di uscita, ed inserire quello nuovo da quella in entrata;
 A questo punto, l’unica attività “interna” sarà quella di aggancio del nuovo stampo alla macchina
che, una volta eseguita, renderà la macchina perfettamente in condizioni di essere avviata alla
nuova produzione;
è chiaro come, in questo nuovo scenario, il tempo di fermo macchina risulta ridotto al minimo.
Lo SMED, quindi, porta a riorganizzare le attività in modo tale da avere il maggior numero di attività esterne
raggruppate insieme e all’inizio del set – up; passando il maggior numero di attività (in termini di tempo) da
interne ad esterne, si ha la possibilità di preparare tutto in logica preventiva, in modo tale che, senza che vi
sia bisogno di un tempo di fermo eccessivo, sia possibile intercambiare la produzione in modo flessibile.
In questa nuova logica, il tempo di set – up diventa quasi come una sorta di “pit – stop” automobilistico:
tutto è studiato nei dettagli al fine di minimizzare l’incidenza (in termini di tempo richiesto per l’esecuzione
di queste attività a macchina ferma) del riattrezzaggio.
Ovviamente, tutto poi deve essere fatto con l’ottica del miglioramento continuo: nel tempo, sarà
necessario andare a semplificare e diminuire progressivamente la durata di queste operazioni, anzitutto di
quelle interne, ma anche di quelle esterne.
Si tenga presente che, nel fare questo, fondamentale è riuscire ad oggettivare il fenomeno: non a caso, in
precedenza, si è utilizzato il termine “filmare”, proprio per sottolineare l’esigenza di dare una base
oggettiva; l’approccio funziona se si riesce a fare capire alle risorse umane coinvolte che, l’analisi condotta,
non è finalizzata alla valutazione delle loro capacità, bensì al miglioramento della procedura (si analizza
57
criticamente l’esecuzione del set – up non per capire se l’operatore esegue bene o male le attività, ma
perché, solo così facendo, si ha la possibilità di identificare possibili miglioramenti della procedura):
l’obiettivo non è quello di cambiare il modo di realizzare i set – up perché “gli operatori non sono in grado
di farli velocemente a macchina ferma”, ma perché esiste un modo migliore, più efficiente e razionale per
poterlo fare.
Rifacendosi all’esempio, fatto, chi definisce una procedura di cambio dello stampo utilizzando il metodo
tradizionale, lo fa richiedendo un forte carico di lavoro e committment alla sua forza lavoro, ma questo
sforzo risulta spesso “frustrante e penalizzante”, non tanto per incapacità stessa della forza lavoro, ma per
natura stessa della procedura: anche profondendo il massimo sforzo ed impegno, gli operatori non saranno
mai in grado di rendere il set – up un’attività a basso spreco, proprio per inefficienza intrinseca della
procedura; al contrario, seguendo i principi dello SMED che, appunto, agisce andando a lavorare sulle
metodologie di lavoro (e non sui comportamenti), spingendole al miglioramento, si ha la possibilità di
massimizzare le proprie prestazioni.
La riduzione del numero e delle tipologie di viti utilizzate, l’utilizzo di attrezzature di svitamento ed
avvitamento automatiche per il cambio piastra, il supporto di magneti di contatto, sono tutte soluzioni in
linea con la filosofia SMED; come ben si può intuire, ognuna di queste soluzioni, può essere “pensata” e
messa in atto da ognuna delle n risorse che operano in azienda: benchè, la singola innovazione, avrà un
impatto minimo sul sistema (banalmente, migliorerà una specifica attività svolta dalle poche risorse che se
ne occupano), il beneficio complessivo ed integrato di tutte queste sarà elevato, e difficilmente copiabile.
Mettere in piedi un sistema di questo tipo è così difficile che, passo dopo passo, è in grado di generare un
vantaggio competitivo sostenibile: copiare un prodotto o una tecnologia è possibile, copiare un sistema,
improntato al miglioramento continuo, nel quale si è sviluppata una cultura ed una ideologia in base alla
quale il management è portato a valutare (e, eventualmente, attivare) qualunque suggerimento
proveniente dai livelli più operativi.
In contesti di questo tipo nascono, inoltre, tutta una serie di nuovi indicatori di misurazione delle
prestazione, non più specificatamente improntati a valutazioni di tipo economico, ma anche di innovazione;
ne è un esempio, all’interno della produttività della forza lavoro, il “numeri di suggerimenti annui dati da
ciascun operatore”: ovviamente, tutto questo funziona se e solo se, a monte, si ha la presenza di un
management culturalmente flessibile a questa filosofia (c’è bisogno di una realtà in grado di assorbire i
contributi provenienti da tutti i livelli: anche l’operatore più umile, deve sentirsi valorizzato, e sapere che,
anche il suo contributo, potrebbe trovare ascolto da parte del management).
Eliminare scarti e rilavorazioni
Questo secondo aspetto riguarda delle considerazioni più volte fatte: ridurre gli scarti e le rilavorazioni
significa non tanto migliorare la qualità del prodotto, ma del sistema; occorre individuare, analizzare e
rimuovere tutte quelle che sono le eventuali cause che determinano le non conformità.
Esistono, difatti, due dimensioni della qualità, quella interna e quella esterna:
 Quella esterna riguarda, appunto, l’aspetto “prodotto”: si tratta di minimizzare, quanto più
possibile, la percentuale di difettosità che arriva nelle mani del cliente; questo, tuttavia, potrebbe
essere ottenuto semplicemente in logica reattiva (ovvero, migliorando il proprio controllo finale: si
produce allo stesso tasso di difettosità, ma si aumenta la propria capacità di intercettare queste
difettosità; il cliente finale sente un miglioramento benchè, dal punto di vista interno, i costi e le
inefficienze in cui l’azienda incorre sono esattamente le stesse);
58
 Quella interna, invece, riguarda l’aspetto “processo”: è possibile migliorare la qualità in maniera
proattiva, ovvero senza bisogno di aumentare la rigidità dei propri controlli, bensì andare ad agire
alla fonte, migliorando il governo del proprio processo; questo, come detto, consiste nell’andare a
ricercare le effettive cause di inefficienza e rimuoverle: avendo sotto controllo l’input ed il processo
di trasformazione, l’output sarà univocamente determinato, potendo (all’estremo) ovviare ad un
controllo finale.
In sostanza, l’approccio tradizionale vedeva, per ottenere una maggiore qualità, la necessità di sostenere
maggiori costi (come detto: bisogna irrigidire i controlli finali, il che significa maggiori rilavorazioni e/o scarti
da non far arrivare al cliente finale); in realtà, l’approccio lean predica come, una migliore qualità, consenta
di ottenere minori costi: se si è in completo controllo del proprio processo, l’output risulta essere
univocamente determinato e, quindi, non si ha necessità di dover rilavorare o scartare alcuna unità
realizzata; una migliore qualità significa anche maggiore efficienza e, maggior efficienza, significa anche
migliore servizio reso al cliente finale.
Ridurre l’impatto dei guasti
La capacità produttiva utilizzabile risulta sempre essere espressa al netto di eventuali fermi e guasti, che
riducono quella che è la potenzialità di targa delle risorse: una disponibilità minore del 100%, quindi, riduce
la quantità di output teoricamente ottenibile.
Per migliorare questo parametro, è possibile agire su due fattori:
 Riduzione del tempo necessario al ripristino della risorsa (Mean Time To Repair);
 Cambiamento nelle logiche di manutenzione: in tal senso, la filosofia Lean predica i principi della
“Total productive Maintenance”, che spinge a passare da una manutenzione a guasto ad una
preventiva, e da una preventiva ad una predittiva; si tratta, anche in questo caso, di agire in logica
proattiva, accorgendosi ed intervenendo prontamente su segnali di malfunzionamento, evitando,
così, il guasto (in sostanza, si cerca di anticipare la probabilità che accada qualche cosa di non
desiderato);
nel riuscire a fare tutto questo, fondamentale è il supporto che possono dare i fornitori dei macchinari, che
devono cambiare ottica di realizzazione degli impianti, assumendo la prospettiva del cliente: in sostanza, si
tratta di cooperare affinchè, tali produttori, progettino e realizzino i prodotti in modo tale già da favorirne
la gestione da parte del cliente, facilitandogli eventuali interventi di razionalizzazione nel tempo di ripristino
e nella manutenzione.
Eliminare le lottizzazioni sul mix
Fino agli anni Ottanta, le principali linee di assemblaggio di prodotto finito erano, essenzialmente, di due
sole tipologie:
 Dedicate, quindi finalizzate alla realizzazione di un singolo prodotto;
 Multi model, ovvero capaci di realizzare più modelli di prodotto, ma potendolo sostenibilmente
fare solo operando secondo logiche di lottizzazione; in sostanza, si trattava di produrre prima una
data tipologia di prodotto, eliminare tutti quelli che erano i componenti specifici alla sua
realizzazione dal sistema (mantenendo quelli specifici), portare quelli necessari alla realizzazione
della successiva tipologia e ricominciare la produzione (ad esempio: AAAA – setup – BBBB – setup –
CCCC…).
59
Oggigiorno, invece, la metodologia consolidata e diffusa prevede una produzione in logica mixed model:
semplificando il concetto se, in un dato istante, si andasse a fare una fotografia della linea di produzione,
quello che si vedrebbe sarebbe la produzione non di un unico modello alla volta, ma la contemporanea
presenza di più tipologie di prodotto, che possono essere quindi assemblati in maniera consecutiva, ed in
logica del tutto casuale (non è necessario definire una sequenza) da parte delle risorse (ad esempio:
AABCABBCCACAA…).
In un sistema di questo tipo è stato fatto uno sforzo, non indifferente, al fine di ridurre a zero il tempo di
set – up necessario per passare da una tipologia all’altra (condizione necessaria per l’adozione di una linea
multi model), ad esempio, mediante:
 La riduzione della dimensione dei contenitori a bordo linea, permettendo così la presenza di più
contenitori, che possono alimentare la produzione di più prodotti;
 La razionalizzazione della componentistica: è fondamentale condurre un’analisi approfondita su
quelli che sono componenti e parti da inserire nei vari prodotti, verificando l’effettiva esigenza di
questa varietà e, laddove possibile, andando a semplificare questa gestione (bisogna essere in
grado di capire quella che è la varietà che veramente interessa al cliente, dandogli un effettivo
valore aggiunto, e quella che, invece, è superflua: molto spesso, la varietà rappresenta solo un
elemento di marketing).
Produrre azzerando i tempi di set – up consiste di ottenere la massima flessibilità, riuscendo ad inseguire
perfettamente la domanda cliente, minimizzando il tempo di attraversamento del sistema, eliminando le
scorte e le code di attesa, e riuscendo ad offrire, al cliente finale, un migliore servizio.
Cosa si ottiene in cambio di questo investimento in flessibilità?
In tutto questo, è fondamentale comprendere l’importanza del fare di tutto per livellare la domanda (in
termini di volume): nella gran parte delle realtà, difatti, è dimostrato come, l’80% delle variazioni di mix,
volume, e quantità, siano determinate dall’azienda stessa, che si “autoinfligge” delle complicazioni che, con
un attimo di accorgimento, potrebbero essere evitate.
Occorre anzitutto avere presente che, più la domanda è aggregata, più è possibile livellarla: è evidente
che, andando a guardare l’andamento delle richieste per uno specifico modello di una particolare tipologia
di prodotto appartenente ad una famiglia, si otterrà una domanda con una certa variabilità; guardando
all’andamento della domanda di tutti i modelli della tipologia di prodotto, si otterrà un andamento più
regolare; guardando, infine, alla domanda di tutti i prodotti appartenenti alla famiglia, l’andamento darà
ancora più regolare.
Assemblare, su una linea, in logica multi model (quindi investire per ottenere flessibilità), significa ottenere,
in cambio, una maggiore stabilità di volume, proprio per quanto detto: una linea che produce prima un
lotto di prodotto X, poi un lotto di prodotto Y, e poi un lotto di prodotto Z, subisce una variabilità cumulata
(in termini di volumi) connessa alla domanda di X, Y e Z; al contrario, una linea in grado di produrre in
maniera flessibile un’ampia gamma di prodotti (XYZXYZXYZ…) subirà una variabilità molto minore, proprio
perché, la reciproca incertezza delle differenti domanda, riesce a compensarsi.
Questo, da ultimo, si traduce:
 In certi periodi, in minore insaturazione delle risorse;
 In altri periodi, in minore esigenza di straordinario;
l’investimento in flessibilità riduce la variabilità del sistema, permettendo, così, di utilizzare al meglio le
risorse di cui si dispone.
60
Se ancora non si è convinti di questa cosa, si consideri un semplice esempio numerico:
Prodotti realizzati
e loro domanda
settimanale
Componenti per
ciascun modello
Di fronte a questa domanda, si ipotizzi di stilare il seguente piano di produzione:
La capacità produttiva di 40 unità al giorno viene
così ripartita sulla settimana:
- Il primo giorno si realizzano 40 unità del
prodotto A;
- Il secondo giorno si realizzano le restanti
unità di 1 (35) e si comincia con la
realizzazione del prodotto 2;
- Il terzo giorno si ultima la produzione del
prodotto 2;
- …
In sostanza, il piano prevede una produzione a lotti: si realizzano progressivamente i prodotti che sono
richiesti dal mercato, in logica successione.
Si guardi, tuttavia, cosa succede dal punto di vista dei fornitori (notando che, nel caso, si hanno due
fornitori, ognuno dei quali produce un insieme di componenti): nonostante la produzione dell’azienda sia
schedulata e sequenziale, la variabilità che essi vedono è molto elevata (tanto più per il secondo fornitore:
il venerdì, ad esempio, egli si ritrova ad avere una domanda che è quattro volte quella del lunedì). Per
cautelarsi da questa variabilità, tutto ciò che i fornitori possono fare è installare una capacità pari alla
domanda media, cercando di effettuare una previsione e produrre, in anticipo, quello che il cliente potrà
chiedergli (altrimenti, se così non facesse, rischierebbe o di essere fortemente insaturo, se scegliesse di
installare una sovracapacità per poter inseguire la domanda cliente, oppure, a parità di capacità, di dover
spesso ricorrere a straordinario); tutto ciò, comunque, porta a quegli effetti di cui si è già avuto modo di
discutere: il fornitore produrrebbe sempre e comunque in funzione di un piano previsto, che potrebbe, in
ogni momento, variare.
Le conseguenze, dunque, sono:
 Formazione di scorte;
 Maggiori costi;
 Possibili ritardi;
61
 Forti inefficienze di sistema.
Per tutti questi motivi, è necessario cambiare la prospettiva: non si produce più in sequenza ed a lotti, bensì
in un’ottica livellata puntando, in sostanza, a replicare su ogni giornata lo stesso mix richiesto per la
settimana; ogni giorno, il sistema produttivo dovrà puntare a produrre
della domanda settimanale di
ciascun prodotto: in questo modo, si ha la possibilità di replicare, su un periodo più micro, lo stesso profilo
di mix
La flessibilità del sistema livella la domanda, il che consente di ribaltare, al fornitore, una domanda che,
giorno per giorno, risulta essere assolutamente regolare: lui ha, quindi, la possibilità di organizzarsi al
meglio e di vedere una variabilità ridotta al minimo, non ribaltando in alcun modo sull’azienda cliente
qualunque possibile inefficienza.
Attenzione che, tale livellamento, può poi essere esteso a livello sempre più dettagliato; ad esempio, si
potrebbe andare ad analizzare la produzione giornaliera (in termini di scheduling al mattino ed al
pomeriggio): anche in tal caso, si potrebbe pensare di replicare, su ciascun turno (o sottoturno), lo stesso
mix, in proporzione, che si ha sull’intera giornata; più si riesce ad ottenere questa situazione “ideale” , più
le cose, nell’azienda e lungo la Supply Chain, si regolarizzano.
Il fatto di replicare, su un orizzonte sempre più piccolo, lo stesso mix, era una cosa che già si era visto
quando si era parlato della mappatura nel caso Acme: nel future state, il livellamento prevedeva l’andare a
replicare il mix su un orizzonte temporale più piccolo possibile (dalle 360 staffe destre e 600 staffe sinistre
si passava a sinistra – sinistra – destra, il periodo più di breve che era possibile affrontare).
Quindi, sempre con riferimento al caso Acme, il fatto di produrre nella logica “staffa sinistra – staffa sinistra
– staffa destra”, in realtà, non apportava alcun beneficio in termini di organizzazione della cella (ma, anzi, a
questa era richiesto “solo” sforzo e tempo per fare di tutto al fine di ridurre i set – up), ma, i vantaggi,
erano tutti verso il fornitore, il quale ha la possibilità di vedere una domanda molto stabile, potendo così
organizzare una produzione livellata; questo tuttavia, è del tutto coerente con quella che è la logica di
visione “complessiva” del flusso: l’obiettivo è quello di riuscire a far scorrere il flusso lungo tutta la filiera, e
non solo all’interno della singola azienda.
È, questa, ovviamente, un’ottica difficile da raggiungere, ed è una delle principali “side” dell’approccio lean:
il fatto che, un’azienda, debba investire tempo e risorse per far ottenere dei benefici ad un attore esterno,
non è un concetto facile da far passare; per questo motivo, affinchè gli obiettivi possano efficacemente
62
essere raggiunti, non si può prescindere da un elemento di forte integrazione: l’intera filiera deve essere
consapevole che, spesso, sforzi e benefici si trovano in punti distinti della Supply Chain e che, quindi, è
fondamentale scardinare la tradizionale logica dipartimentale e funzionale, assumendo non solo una
visione di processo, ma ancora più dettagliata, di flusso, ragionando, come più volte sottolineato, per
singolo flusso facente riferimento ad ogni famiglia di prodotto.
Eliminare lottizzazioni di tempo
Come già sottolineato, l’eliminazione delle lottizzazioni ed il livellamento della domanda non riguarda solo il
mix, ma anche il tempo: in molti uffici ed attività si servizio, difatti, non è raro che avvenga una
schedulazione “per tempo” delle attività; si pensi, ad esempio
 Ad un ufficio Acquisti che processa le fatture passive solo una volta alla settimana;
 Ad un back office che processa le richieste di iscrizione a giorni alterni;
 Ad una funzione di design e progettazione che processa le richieste di modifica dei disegni di
prodotto da parte del cliente una volta ogni quindici giorni;
 …
Questo non deve avvenire: il sistema deve strutturarsi ed organizzarsi in modo tale da essere in condizione
di erogare, ogni attività, “exactly when needed”, aderendo perfettamente a quelle che sono le richieste del
cliente.
LEGARE TUTTO AL CLIENTE
È evidente come, qualunque principio e strumento facente riferimento all’approccio lean, abbiano tutti un
unico, grande denominatore comune: l’obiettivo di riuscire a legare, qualunque attività, alle esigenze ed
alle richieste del cliente; un sistema è lean se è strutturato in modo tale da riuscire a reagire, il più
possibile, a ciò che il cliente chiede (ovviamente, in modo efficiente ed efficace).
Non si deve produrre se il cliente non ha richiesto, altrimenti si incorre in sovraproduzione e scorte (quindi,
in sprechi): proprio perché le previsioni sono quasi sempre sbagliate, ed i piani sono, quindi, destinati a
cambiare, per essere efficienti bisogna lavorare su informazioni certe; tuttavia, poiché il mercato non è
disposto ad aspettare, serve costruire un sistema estremamente veloce.
Questo è proprio il circolo virtuoso dell’approccio lean:
Soddisfare le esigenze del cliente  slegarsi dalle previsioni  lavorare su informazioni certe  costruire
un sistema veloce e reattivo  soddisfare le esigenze del cliente
Si tenga presente che, per raggiungere questi obiettivi, non basta semplicemente che la singola azienda
ragioni in logica pull, ma l’intera supply chain deve assumere questa prospettiva: nel momento in cui uno
stadio si ferma, anche tutti gli stadi immediatamente a monte devono arrestarsi, e riprendere solo nel
momento in cui, quest’ultimo, si riattiverà.
Per ragionare in questa logica, è possibile costruire:
 Una pull supply chain, basata su sistemi di coordinamento di tipo kanban;
63
 Una sequential pull supply chain, basata su sistemi di coordinamento attraverso corsie FIFO.
Building a continuous flow
Organizations are very happy when they are able to implement a pull system using a kanban. The success
should be one to celebrate, because it is not easy and it is a step in the direction of moving from Traditional
Batch & Queue to the Ideal State of Continuous Flow. As the chart below shows, it is just the first step in
moving towards the ideal state. This chart is one of my favorites from “The Toyota Way” by Jeffrey Liker.
The chart shows the stages of moving from a traditional batch and queue system to continuous flow. The
immediate realization is that pull using a kanban is just one step better than traditional batch and queue.
The difficulty of implementing a pull system and using a kanban is great enough that companies feel they
are successful when this is achieved. The misunderstanding is people believe this is the end state, so this is
where a lot of companies stop. For some cases, this may be what is best for their business. For many
others, they can push further towards the ideal state of continuous flow. Many companies need help in
seeing how they can move further down the continuum.
First, we should clarify two words that I hear used interchangeably, pull and kanban. There seems to be a
misunderstanding of what each really means. The definitions below were taken from Wikipedia. They are
short and concise and seem to describe each nicely.
64
Pull – a system where the consumer requests the product and “pulls” it through the delivery channel
Kanban – a signaling system to trigger action
Supermarket Pull – Just like in a supermarket, there is a variety of product to choose from. The customer
(next process) chooses what it needs and pulls the product. Once so much of the product is pulled out a
kanban signal is sent to the supplier that more product is needed. The supplier will then produce a batch of
parts to fill back into the supermarket. The difference between batch and queue and supermarket pull is the
customer is telling the supplier when to produce, not the supplier deciding on their own when to produce.
Sequenced Pull – When I worked in the auto industry we would get orders from our customers for car grills.
For certain programs, the plant would sequence the grills in the packaging in the order they would be used
on the assembly line. So as the cars came down the line, the operators were not pulling from a
supermarket, but rather a bin that had the grills in order, so they didn’t have to search a supermarket for
the right part. Two other benefits were a decrease in floor space needed to store the parts and it
highlighted production issues immediately. If something was wrong with the part, there was nothing there
to replace it with, so the line had to stop and a team leader notified.
FIFO Sequenced Pull - This method is like the Sequenced Pull with the addition of having standard WIP
between the unlinked processes. The standard WIP is the pull signal for the previous process to produce
more work and it is placed into the flow on a First-In-First-Out basis. When the standard WIP is full, stop
producing parts. This is similar to the Supermarket Pull, but the next process does not schedule the work.
The only way they know what to produce is from the FIFO lane. I toured a facility a few years ago where
they did this very well. The molding presses were lined up on one side of the small building. They produced
product and filled the lanes in the middle of the building using FIFO. The assembly cells were on the
opposite side of the FIFO lanes. They would produce whatever was next in the lane. They did not use a
schedule for the assembly cells. They pulled just pulled the next cart of work.
Continuous Flow – This is the ideal state. Processes are linked together so there is no inventory between
them. The work is passed from process to process with no interruptions in the flow. Don’t get hung up on
the definition of 1-pc. I see many people get caught up that 1-pc means one individual item at a time. 1-pc
could mean one bin of parts at time. The bin is moving through the process with no interruptions and there
is only one single bin of parts being worked on and no bins waiting. I know the thought of one bin as 1-pc
can be controversial. This does not mean that 1 bin = 1-pc is the right choice all the time. Understanding
the business and the situation makes this a case-by-case call.
There may be times where you have more than one of these types of flow in your facility. Different value
streams progressing along at different rates along the continuum of flow. This is OK. In fact, it would be
surprise if you could implement a type of flow all the way through your value stream at once. Use this as an
opportunity to create an experiment and see what works best for you.
Numerosi sono I vantaggi di un sistema pull, tra i quali:
 Semplicità di gestione;
 Limitate scorte (si pensi al caso delle corsie FIFO: non è possibile riempirle più della loro capacità);
 Nessuna sovraproduzione da parte del fornitore;
65
 Modo semplice per spingere al costante miglioramento (si pensi, ad esempio, al caso del sistema
kanban: riducendo progressivamente il numero di cartellini in circolazione, il sistema, inizialmente,
si troverà in difficoltà; andando, tuttavia, ad analizzare questi problemi ed a risolverli, sarà possibile
“disincagliare la barca”, permettendole di viaggiare al nuovo livello di galleggiamento, potendo
successivamente pensare di abbassarlo ulteriormente);
 Un unico punto di programmazione, lasciando operare tutto il resto in reazione;
 Limitata amplificazione di produzione e di scorte lungo la Supply Chain (come detto, viene limitato
l’effetto “Forrester”: se lo stadio a valle vede una variabilità dell’X%, gli stadi a monte, se operano
tutti in logica pull, vedranno la stessa variabilità, proprio perché non si ha alcun effetto di modifica
e/o amplificazione).
In particolare, con riferimento alla logica del miglioramento continuo, è opportuno sottolineare come, nel
perseguirlo, è opportuno seguire quello che è l’approccio PDCA di Deming, una metodologia rigorosa e
scientifica che consente di migliorare la qualità e le prestazioni delle fasi di lavorazione, e che ricalca
perfettamente quello che è il principio lean del considerare potenzialmente validi i suggerimenti
provenienti da qualunque livello dell’azienda; esso, difatti, descrive quello che è il metodo scientifico ed
oggettivo per approcciare i problemi: ogni qual volta si abbia una proposta di miglioramento, quello che
bisogna fare è analizzarla, testarla, verificarne le conseguenze e, in caso di contributo positivo, renderla
parte integrante (o sostitutiva) delle procedure precedenti.
In particolare, si distinguono quattro differenti momenti:
1) Plan: definizione del metodo (potenziale);
2) Do: applicazione del metodo;
3) Check: verifica degli effetti;
4) Act: valutazione critica dei risultati (come ha funzionato? Perché qualche cosa ha funzionato
bene/male? Cosa si potrebbe migliorare? È necessario cambiare qualche cosa?);
in questo modo, si ha la garanzia che, qualunque sia l’idea, e da chiunque essa arrivi, vadano avanti e siano
considerate di successo solo quelle “buone” ed effettivamente valide.
È quindi evidente come, tale approccio scientifico, non solo consente di testare la bontà di un metodo, ma
anche di derivare tutta una serie di considerazioni strategiche (se la procedura funziona bene, allora la si
consolida, altrimenti è opportuno comprendere se esistano altre strade per poterla migliorare).
APPROCCIO TOYOTA: REGOLE DI SINTESI
Benchè, uno dei principi base della “filosofia Toyota” sia quello dell’apprendimento sul campo, c’è stato
comunque qualcuno che, nel tempo, ha provato a sintetizzarne l’essenza in alcune regole, sistematizzando
questa conoscenza in quattro postulati, che definiscono proprio quello che è il DNA dell’azienda e la base
del metodo.
Regola 1: ciascun compito deve essere specificato in dettaglio con riferimento al contenuto (che cosa
di deve fare), alla sequenza (esecuzione delle attività), al tempo (richiesto per ciascuna attività) ed al
risultato (output atteso)
66
Si ipotizzi che, il compito in questione sia “fissare un sedile”: una descrizione del tipo “posizionare il sedile
verticalmente, avvitare i quattro bulloni e saldarli correttamente” non rispetta la regola sopra descritta
(dove l’operatore andrà a prendere i bulloni? In che sequenza dovrà avvitarli? Che pressione dovrà
applicare nel fissaggio?).
Al contrario, se tutto è approfonditamente specificato e definito nei minimi particolari, si avrà la certezza
che, ogni operatore, eseguirà la sequenza di attività richieste esattamente nei modi e nei tempi desiderati,
il che consente di ottenere un grande vantaggio: quanto più le procedure sono chiaramente definite ed
uguali per tutti, tanto più, il metodo applicato ed il risultato ottenuto da ciascun operatore differirà solo ed
esclusivamente per fattori esogeni, che non sono sotto il suo diretto controllo (una differente qualità dei
materiali in ingresso, variazioni nella temperatura esterna…). In sostanza, questo fa sì che sia possibile
valutare un metodo uguale per tutti in condizioni ambientali differenti: se così non fosse, ed ognuno
eseguisse le attività in modo differente, non si saprebbe identificare quelle che sono le cause di influenza
interna ed esterna.
Ma non è tutto: definire delle regole chiare e dettagliate consente, a chiunque, di essere in grado di
comprendere se, effettivamente, abbia svolto più o meno bene l’attività a lui assegnata, correggendosi così,
opportunamente, nel caso in cui l’output ottenuto non rispetti quello desiderato.
Regola 2: deve esserci una chiara e diretta relazione “cliente – fornitore”, per ogni aspetto del flusso
Sia per quanto riguarda i materiali, sia per quanto riguarda flussi informativi e procedurali, deve sempre
esserci una chiara referenza: per ogni eventuale mancanza di materiale, deve esserci una persona cui fare
riferimento; per ogni possibile problema che potrebbe insorgere, deve esserci un soggetto a cui rivolgersi;
nel caso in cui si abbia una mancanza di questo tipo, significa avere un’inefficienza organizzativa: per un
dato aspetto, non si ha un responsabile, dovendo, quindi, far fronte a questa carenza.
Regola 3: flussi dei prodotti diretti semplici
Il percorso che, ciascun prodotto, segue all’interno dello stabilimento, deve essere semplice, chiaro ed
univoco; in ultima istanza, questo si traduce nel fatto che, ogni prodotto, deve prevedere un unico
cammino possibile da poter seguire (ma questo, ovviamente, non significa che, ogni cammino, debba
necessariamente avere solo un unico prodotto).
L’approccio tradizionale vuole che, in un sistema formato da quattro torni (T1, T2, T3, T4) e quattro
fresatrici (F1, F2, F3, F4), con tre prodotti da realizzare (A, B e C), si manderà, ciascuno di essi, sulla
macchina al momento più scarica; ciò significa che, ad esempio, A1 potrebbe andare su T1 e F1, ma A2
potrebbe andare su T2 ed F1; B1 potrebbe andare su T2 ed F3m ma B2 su T3 ed F4; C1 potrebbe andare su
T4 ed F4, ma C2 su T1 ed F2, e così via.
L’approccio lean, invece, vuole che, per ognuno dei prodotti, venga definito un cammino chiaro, univoco ed
invariante:
 I prodotti A vanno su T1 e F1;
 I prodotti B su T2 ed F2;
 I prodotti C su T3 ed F3;
 …
Questo, ovviamente, è molto più complesso ed oneroso da realizzare, ma consente anche di ottenere un
grande vantaggio: realizzare un prodotto seguendo sempre lo stesso percorso, significa testare n volte
sempre tale percorso; ecco quindi che, nel momento in cui ci fosse un problema, solo questo approccio
67
consentirebbe di farlo emergere (al contrario, con lo scheduling tradizionale, poiché il percorso potrebbe,
ipoteticamente, essere sempre diverso, si avrebbe molta più difficoltà ad identificare eventuali
inefficienze).
Inoltre, il definire percorsi in maniera chiara ed univoca, consente di dare indicazioni definite e specifiche ai
macchinari ed a chi li gestisce: ogni operatore, che si occupa di programmazione, gestione e manutenzione,
sa sempre ed esattamente che prodotti si troverà a lavorare e da chi proverranno.
Regola 4: ogni miglioramento deve avvenire in accordo con il metodo scientifico
Questo è un aspetto cui si è più volte fatto riferimento: deve esserci una guida (un “sensei”) che metta in
condizione, tutti i livelli dell’organizzazione, ivi compreso quelli più operativi, di contribuire al
miglioramento; in sostanza, non c’è alcun bisogno dell’intervento del management, che deve intervenire
solo per “eccezioni”: a garantire il normale ciclo operativo ed il miglioramento continuo devono essere gli
operatori a diretto contatto con lo stabilimento.
In conclusione, si può dire che, l’approccio tradizionale, usa adottare una prospettiva lineare ai fenomeni;
in questa visione, la conformità e l’affidabilità rappresentano un prerequisito per poter applicare gli
strumenti e le metodologie lean (kanban, riduzione delle scorte, raggiungimento della flessibilità): si può
pensare di volgere lo sguardo a questa innovazione se e solo se si posseggono queste caratteristiche.
Al contrario, bisogna abbandonare questo “tunnel della mente” statico, volgendo lo sguardo ad una
versione dinamica: non deve esserci nessun prerequisito, ma deve essere la volontà di applicare la filosofia
Lean che deve spingere a portare al livello di affidabilità e conformità compatibile con le prestazioni
necessarie per soddisfare le esigenze del mercato finale; in sostanza, si tratta di adottare questa logica e,
affinchè possa essere resa sostenibile, lavorare per ottenere la giusta configurazione: in questa visione,
quindi, l’approccio e le metodologie lean rappresentano lo stimolo per migliorare e non, invece, l’obiettivo
del miglioramento.
Si passa quindi da “si applicano gli strumenti lean solo se si ha un livello qualitativo ed un’affidabilità tale da
poterlo fare” a “si applicano gli strumenti lean perché, in questo modo, si sarà obbligati a migliorare il
sistema, al fine di fargli erogare i parametri prestazionali desiderati”: non bisogna attendere ad applicare
tale filosofia fino a che “non si è pronti per poterlo fare” ma, al contrario, in base a quelle che sono le
prestazioni attuali, ci si spingerà ad applicarla fino ad un certo livello; di qui in poi, tutta l’azienda sarà
improntata a lavorare per migliorare ed aumentare questo grado di adozione.
In tal senso rappresenta uno stimolo al miglioramento; è il discorso già fatto con riferimento all’esempio
del kanban: si parte, ad esempio, con 30 cartellini (attuale livello ottimale) ma, in un certo istante futuro, li
si abbasserà a 20; in questo nuovo scenario, si evidenzieranno dei problemi che dovranno essere risolti: una
volta risolti, si sarà in una condizione più avanzata (si sarà, ora, in grado di lavorare efficacemente con soli
20 cartellini), che metterà in grado di compiere i passi successivi (l’andare ad operare con 15, 10, 5
cartellini: si diventa sempre più lean, partendo sempre da nuovi punti di partenza).
68
Metodi e procedure: definizione dei tempi standard
Arrivati a questo punto, un aspetto che è particolarmente interessante andare ad approfondire è quello
relativo alla misura del lavoro: si è, difatti, parlato più volte di tempo di ciclo e tempo di set – up (e di loro
riduzione); risulta, tuttavia, opportuno domandarsi: ma come, questi valori, risultano essere determinati?
La misura del lavoro rappresenta la procedura attraverso la quale si misura, o si prevede, il tempo
necessario per realizzare un’operazione esistente o progettata, produttiva o non produttiva, di un processo
o di un’operazione.
In particolare, fondamentale è il concetto di tempo standard, ovvero il tempo teoricamente necessario per
realizzare una certa operazione, seguendo un determinato metodo: è questo il valore di riferimento,
utilizzato nella quantificazione dei tempi di ciclo e di set – up.
Sotteso al concetto di “standard”, c’è quello di “normalità”: esso è, difatti, il tempo necessario ad un
esecutore normale, non incentivato, che lavora in condizioni normali, ad una velocità normale, per
realizzare un’operazione con risultati qualitativi accettabili; ovviamente, è sottointeso che, chi esegue tale
metodo, deve conoscere ed avere competenza su quello che sta facendo (in sostanza, deve seguire un
metodo a lui noto).
Il tempo teorico differisce da quello effettivo, ovvero il tempo che è stato effettivamente impiegato
dall’esecutore per eseguire l’attività, per tutta una serie di motivi (condizioni ambientali, natura ed
attitudine dell’esecutore, tipo di materiali utilizzati…); di qui, deriva il concetto di efficienza, definita come il
rapporto tra
Si supponga, ad esempio, che un esecutore abbia eseguito, in una settimana, composta da un turno di 8
ore, 10 volte una stessa attività, il cui tempo standard risulta essere noto; l’efficienza settimanale di questa
risorsa sarà quindi pari a
In sostanza, quindi, proprio il rapporto tra l’output (misurato a tempo standard) e l’input.
L’efficienza può poi essere declinata in termini di rendimento ed utilizzo:
 Il rendimento mette in evidenza quanto l’esecuzione ha rispettato le procedure predefinite (si
tratta, difatti, del rapporto tra il tempo teoricamente necessario all’esecuzione e quello
effettivamente impiegato);
 L’utilizzo, invece, mette in evidenza un eventuale situazione di sotto o sovra saturazione di una
risorsa (l’efficienza potrebbe essere bassa non a causa di come la risorsa opera, ma perché, ad
esempio, essa ha registrato una diminuzione del carico di lavoro a lei richiesto).
I tempio standard, quindi, rappresentano la base delle principali misurazioni di performance di produttività;
si tenga comunque presente che, essi, non sono universali, ma vengono determinati con riferimento ad una
69
specifica azienda, e rispecchiano le condizioni, le attrezzature, i metodi e le tecnologie adottate in quella
specifica realtà.
Essi possono poi essere utilizzati per le finalità più disparate: studio dei metodi, calcolo della produzione
(oraria, giornaliera, mensile, annuale), calcolo delle risorse, programmazione della produzione, previsione
delle date di consegna per i clienti, valutazione dei rendimenti, equilibratura dei carichi di lavoro, calcolo
del fabbisogno di risorse…
Bisogna capire però, da ultimo, come sia possibile stimarli; in tal senso, si distinguono quattro metodi di
determinazione:
1) Stima basata sull’esperienza;
2) Time study (cronometraggio);
3) Tempi standard predeterminati (MTM);
4) Campionatura (work sampling).
STIMA BASATA SULL’ESPERIENZA
Trattasi di una tecnica piuttosto approssimativa e soggettiva, basata sulla conoscenza dei dati storici relativi
a lavori analoghi e sull’esperienza dei valutatori; è valida quando non è necessaria una grande precisione.
In sostanza, a fronte di un’attività da eseguire, ci si rifà ad un esperto per la stima del tempo di esecuzioni, il
quale, spesso, fa riferimento ad attività simili, delle quali già è noto il tempo standard.
Il vantaggio è quello di riuscire ad ottenere un valore in tempi rapidi e con un ridotto fabbisogno
informativo; al contrario, però, occorre considerare che:
 L’efficacia del metodo dipende dalla disponibilità dei dati (i valutatori devono poter almeno fare
riferimento ad un’altra attività quantomeno minimamente comparabile e compatibile);
 Spesso, il risultato che si ottiene, è molto impreciso, e soggettivo (stime fatte da soggetti diversi,
danno risultati differenti);
 È fondamentale l’esperienza e l’aggiornamento del metodista.
CRONOMETRAGGIO
Trattasi di una tecnica per determinare il più accuratamente possibile, mediante un numero limitato
osservazioni, il tempo necessario ad eseguire una determinata attività ad un determinato standard
efficienza.
Una volta che sono state definite tutte le caratteristiche dell’attività che si vuole misurare, si tratta
realizzare e ricostruire fisicamente l’ambiente di lavoro, inserirvi all’interno l’operatore, chiedergli
eseguire l’attività un numero n di volte, andandolo a misurare.
di
di
di
di
Sono quindi due le peculiarità di questo metodo:
 Ha senso applicarlo solo se l’attività è ne determinata, in termini di metodo, caratteristiche dei
materiali e dell’oggetto, attrezzature ed utensili da utilizzare, livello qualitativo desiderato ed
organizzazione del posto di lavoro;
 La realizzazione concreta dell’ambiente di lavoro e dell’attività (anche se, le moderne tecnologie,
stanno spingendo verso la programmazione di applicazioni per effettuare “prove virtuali”).
70
Scelto il processo da analizzare, i passi del metodo sono:
1. Suddivisione del processo in fasi identificate da precisi istanti di inizio e fine (ogni fase deve
richiedere almeno qualche secondo per l’esecuzione ma non più di qualche minuto);
2. Definizione del tempo di riferimento ̅;
3. Definizione del numero di cicli di cronometraggio e del grado di precisione adeguato;
4. Cronometraggio e registrazione delle misure;
5. Calcolo del tempo standard (ST), che passa attraverso il:
 Calcolo del tempo medio di ciclo (o tempo base):
- Calcolo del tempo normale (NT) tenendo conto del fattore di resa (RF) e della velocità
dell’operatore:
 Eseguire la somma dei tempi normali dei singoli elementi per ottenere quello del processo
considerato (NTC);
 Calcolare il tempo standard considerando le maggiorazioni per necessità personali e riprese
(quindi tutti quei fattori che dipendono solo dall’operatore):
SINTESI DI TEMPI PREDETERMINATI
Il principio di base di questa terza tecnica è il fatto che, ogni movimento elementare richiede, se compiuto
da un esecutore sufficientemente abile, praticamente sempre lo stesso tempo, a parità di condizioni; di qui
la nascita dell’approccio “Methods – Time Measurement”, che si basa su di una tabella, all’interno della
quale vengono riportati i i tempi di esecuzione standard per lo svolgimento delle varie attività (espressi in
unità particolari, il “time measurement unit”, dove 1 TMU = 0,036 sec)
I passaggi del metodo sono, quindi, io seguenti:
1. scomposizione del lavoro nelle suoi micromovimenti di base;
2. trovare il valore appropriato relativo ai micro-movimenti dalle tabelle relative;
3. eseguire la somma dei valori per ciascuno dei movimenti riscontrati;
4. aggiustamento dei valori attraverso i fattori correttivi;
71
5. determinazione tempo standard.
I numeri riportati in specifiche tabelle sono il frutto di analisi svolte al fine di individuare dei valori
universalmente applicabili per la misurazione dei tempi relativi ai movimenti riconosciuti di base per: arti
superiori, occhi ed arti inferiori (per gli arti superiori, ad esempio, sono nove i possibili movimenti
eseguibili: Raggiungere (Reach), Muovere (Move), Ruotare (Turn), Applicare pressione (Apply Pressure),
Prendere (Grasp), Rilasciare (Release), Posizionare (Position), Disaccoppiare (Disengage), Girare la
chiave(Crank)).
Ad ogni movimento corrisponde una tabella che fornisce i dati di tempo in funzione dei fattori che ne
condizionano la durata (pesi, distanze, forme degli oggetti, ecc.)
I vantaggi del metodo MTM sono il fatto che:
 ha un minore costo di applicazione (ad esempio, rispetto al time study);
 gli standard possono essere predisposti prima dell’avvio della produzione (con il Time Study non è
possibile);
 nuovi metodi di lavoro possono essere comparati senza che siano implementati, e senza che sia
necessario realizzare prodotto e posto di lavoro;
 sono ridotte le possibilità di errore nella registrazione dei tempi e delle prestazioni;
 vi è una facile applicabilità: è possibile simulare qualunque cosa “a tavolino”, scomponendo e
ricomponendo metodologie senza doverle realizzare fisicamente; definito metodo e la sequenza,
poi, il tempo che ne deriva è del tutto oggettivo: si tratta solo di definire con il metodista quella che
è la sequenza, e poi determinare univocamente il tempo necessario da tabella.
Di contro, però, bisogna tenere conto che
 il lavoro deve essere frazionato in micro-operazioni e diventa inaccettabile se l’attività non è
ripetitiva (il metodo diventa, quindi, piuttosto oneroso ad elevati livelli di dettaglio);
 i parametri scelti per la determinazione dei tempi potrebbero non adattarsi a qualsiasi situazione
lavorativa (sono infatti innumerevoli i fattori che potrebbero introdurre una variabilità nei tempi di
esecuzione e non tutti sono presi in considerazione nelle tabelle).
CAMPIONATURA
La campionatura, o work sampling, è un metodo particolarmente indicato per tutte quelle attività poco
strutturate, per le quali non esiste un metodo universale di svolgimento che possa essere univocamente
strutturato e derivato mediante le tecniche precedenti (rientrano, in questa categoria, le attività dei
progettisti, il tempo di utilizzo di una risorsa da parte di un particolare ufficio / funzione, la quantificazione
del tempo di set – up di una macchina, la valutazione del tempo di funzionamento di un impianto…).
In sostanza, si può dire che il work sampling, più che aiutare nel definire i tempi delle attività, si propone di
valutare le percentuali di tempo che una certa risorsa spende svolgendo differenti compiti: le proporzioni
temporali osservate durante lo svolgimento del lavoro preso a campione sono, quindi, le medesime
proporzioni di tempo spese nell’attività in generale.
I suoi possibili utilizzi riguardano, quindi:
 il rapido ottenimento di una comprensione generale di un processo (ad esempio, comprendere il
livello di utilizzo di gruppi di macchine);
72
 l’ottenimento di maggiori informazioni per problematiche specifiche, oggettivando impressioni e
valutazioni soggettive (ad esempio, rilevare la ripartizione dei compiti fra membri di un gruppo per
una riallocazione delle attività e delle competenze);
 la fissazione di standard (non tanto in termini di derivazione dei tempi di esecuzione, bensì per
quantificare le maggiorazioni, quali sono i tempi delle riprese, le pause fisiologiche e così via).
In generale, comunque, trattasi di una tecnica tipicamente impiegata nelle seguenti circostanze:
 studio dei ritardi: serve a stimare la percentuale di tempo che i lavoratori perdono in ritardi
inevitabili; i risultati sono utilizzati nello studio dei metodi di lavoro e nella valutazione dei costi
delle attività;
 impostazione degli standard lavorativi: per impostare adeguatamente gli standard lavorativi
l’osservatore deve possedere un’esperienza sufficiente a classificare le performance dei lavoratori;
 misurazione delle performance: il campionamento può sviluppare un indice delle prestazioni per la
valutazione periodica dei lavoratori.
È necessario compiere una serie di passi successivi.
Anzitutto, occorre definire le attività che dovranno essere osservate.
In secondo luogo, sarà necessario definire come compiere le osservazioni, in termini di “lunghezza dello
studio”: ogni quante volte, a caso, sarà necessario recarsi per osservare l’oggetto dell’analisi? (se, ad
esempio, la lunghezza dello studio sarà di 1000 osservazioni, nel caso in cui, in 350 casi, si osserverà una
macchina intenta a fare set – up, significa che, nel 35% delle volte, questa risorsa sarà ferma per fare
attività di riattrezzaggio; se, invece, 450 volte, si trova l’operatore intento a scaricarla, significa che, nel 45%
del suo tempo di funzionamento, l’operatore sarà occupato a scaricare quella macchina).
Bisogna, poi, considerare un campione preliminare, per ottenere la stima dei valori di alcuni parametri;
questi parametri sono necessari per calcolare la dimensione richiesta del campione:
A questo punto, è possibile preparare una tabella dove inserire i valori relativi alle osservazioni della
risorsa, in momenti scelti casualmente; una volta osservate le attività, sarà possibile andare ad inserirvi,
all’interno, i dati:
73
Alla fine dell’analisi, occorre decidere se continuare nelle osservazioni; nel caso in cui si ritenga di aver
raccolto un sufficiente numero di osservazioni, sarà possibile:
 calcolare il tempo normale per unità o parte:
 calcolare il tempo standard per unità o parte:
In sostanza, quindi, bisogna:
1. definire il problema, gli obiettivi e gli elementi da analizzare: in sostanza, si tratta di identificare
quelli che saranno i possibili stati che potranno essere osservati (mutuamente esclusivi: ad
esempio, se si sta analizzando la distribuzione del tempo di una macchina, si tratta di distinguere il
tempo di lavorazione, il tempo di set – up, il tempo di carico, il tempo di scarico, il tempo di
guasto…);
74
2. effettuare un breve periodo di prova, per verificare la completezza delle categorie e degli stati
identificati;
3. definire il numero di osservazioni che si intende fare, eseguendole facendo attenzione alla loro
casualità (bisogna arrivare in ogni momento possibile, non sempre a certi intervalli prestabiliti,
proprio perché bisogna dare eguale probabilità, ad ogni stato, di potersi manifestare), e cercando di
stratificarle il più possibile lungo la giornata (ad esempio: da 400 osservazioni al giorno, a 200 al
mattino e 200 al pomeriggio, a 100 le prime due ore del turno e 100 le restanti due ore…);
4. verificare che il numero di osservazioni sia sufficiente e statisticamente significativo;
5. calcolare il tempo richiesto da ciascuna categoria e stato (definito, appunto, come il prodotto tra il
tempo di lavoro osservato e la percentuale di trovarsi in quello stato, eventualmente corretto con
fattori di precisione, come mostrato dalla formula di cui sopra).
Per valutare la precisione del risultato ottenuto, ed il numero di osservazioni necessarie da effettuare, è
possibile fare riferimento ad una tabella del seguente tipo:
La prima colonna riporta la percentuale di tempo che, una qualunque attività, potrebbe occupare la risorsa;
in corrispondenza di ciascun valore, viene riportato, in base del grado di precisione desiderato, il numero di
osservazioni che è necessario effettuare.
Ad esempio, per un’attività che occupa il 10% del tempo della risorsa in esame:
 se si vuole che, per tale attività, il tempo effettivo di occupazione oscilli tra il
(quindi, che il
tempo sia il 15% o il 5% effettivo), allora saranno necessarie 14400 osservazioni;
 per un grado di precisione più alto, del
(quindi, che il tempo stia tra il 13% ed il 7% effettivo),
saranno necessarie 40000 osservazioni;
 …
In sostanza, più si desidera una bassa variabilità nel risultato ottenuto, più osservazioni sarà necessario
andare a fare, aumentando l’onerosità dell’implementazione.
75
È questo uno dei principali limiti del work sampling: sarebbe poco sensato cercare di andare ad analizzare le
attività più micro, che occupano poca parte del tempo della risorsa poiché, per ottenere delle informazioni
precise, sarebbe necessario effettuare un numero di osservazioni particolarmente alto (si guardi allo stato
che occupa solo l’1% del tempo totale: se si vuole, su di esso, la precisione massima, ovvero che il tempo
atteso trovato si collochi in una variabilità del
, dovranno essere necessarie 3960000 osservazioni!).
Se utilizzato con le dovute cautele, tuttavia, consente di dare una rapida idea su come viene utilizzato il
tempo di una data risorsa.
In definitiva, è quindi possibile dire che, i vantaggi del campionamento, sono:
 Accettazione da parte dei lavoratori: mentre, ad esempio, il cronometraggio, è un qualche cosa che
crea quasi fastidio all’operatore, il campionamento, se spiegato nelle sue finalità, risulta essere
molto meglio accettato (si mostra in che cosa consiste, si descrivono gli stati possibili e si sottolinea
che, a caso, si andrà a guardare lo stato in cui, la risorsa, si trova: non si sta in alcun modo
valutando le sue modalità di svolgimento, cosa che, invece, potrebbe sembrare nel
campionamento);
 Permette l’analisi di attività poco strutturate;
 Si può utilizzare contemporaneamente per più operatori e macchine (si può pensare di fare un
campionamento su tutte le macchine di un reparto, di tutte le risorse di una funzione…);
 Chiunque può effettuare queste rilevazioni, senza alcun particolare tipo di addestramento: è
sufficiente dire quando esse dovranno essere registrate, dopodichè si potrà ottenere, in tempi
rapidi, una panoramica di ciò sta succedendo;
 Basso costo di implementazione.
Di contro, i limiti, sono rappresentati da:
 La bassa idoneità agli studi di metodo: si va a guardare solo qual è l’istante in cui ci si trova, non
come viene eseguita l’attività caratterizzante quello stato;
 Non è uno strumento per definire i tempi standard, ma semplicemente aiuta a capire come
vengono utilizzate le risorse e come, queste, impiegano il loro tempo;
 Come visto, risulta poco preciso nel caso di attività di breve durata e poco incidenti sul tempo di
utilizzo delle risorse.
Chiusa questa panoramica sulle principali metodologie di misura del lavoro, è opportuno sottolineare, in
conclusione, come, i tempi standard, non siano delle variabili statiche, bensì dinamiche: essi cambiano ogni
qual volta vengono introdotte delle modifiche ad uno o più elementi che lo influenzano; nel particolare, si
fa riferimento a cambiamenti in termini di processo e/o prodotto (se, la cassa di un prodotto, non dovesse
più essere montata ad avvitamento, ma con un meccanismo automatico a scatto, l’esecuzione dell’attività
di montaggio sarà, ovviamente, più breve; se, all’operatore, viene dato un avvitatore elettrico in luogo della
chiave in acciaio, è altresì evidente come, tale tempo, diminuirà).
Teoricamente, quindi, ad ogni cambiamento sarebbe necessario un riaggiornamento dello standard; in
realtà, poiché, questo, sarebbe estremamente oneroso, la logica seguita è quella di rivederlo solo ogni
qualvolta si registri un disallineamento sensibile, il che segue, in genere, la regola delle curve di esperienza:
tale tempo tende a decrescere, con una certa legge, al raddoppiare della produzione cumulata (in sostanza,
76
percorrendo le curve di esperienze, modifiche di prodotto, di capacità, di processo e di attrezzature
inducono modifiche allo stesso tempo standard teorico).
APPROCCIO LEAN E TEMPI STANDARD
Fino ad ora, si è approcciato il problema della misura del lavoro seguendo la filosofia tradizionale; ma qual è
il ruolo di tali standard nell’ambito dei principi lean?
Se è vero tutto quanto è stato detto, è facile concludere come, nell’approccio lean, la definizione degli
standard sia un aspetto frenante, mal visto, poiché rappresentano un blocco all’innovazione ed al
miglioramento; il tempo standard, nella sua ottica più semplice, significa, difatti “questo è il tempo teorico,
che si deve ottenere eseguendo l’attività in quel determinato modo”; l’operatore non è stimolato né ad
andare più veloce, né ad andare più lento (ovviamente).
In maniera più precisa, è possibile dire che, nell’ambito lean, il riferimento non dovrebbe essere il tempo
standard, ma il working standard: ciò che si mira a standardizzare non è il tempo di esecuzione delle
attività, bensì la metodologia di svolgimento delle stesse; se, invece, si pone solo l’accento sul tempo, tutti
saranno invitati ad usare lo stesso metodo, salvo poi misurare la prestazione solo in termini di tempo (non
si guarda chi esegue correttamente la procedura definita, ma chi va più veloce o più lento).
Un obiettivo basato sul tempo standard pone la completa attenzione all’ “andare in fretta”, il che è
totalmente all’antitesi dei principi lean, che non vogliono spingere gli operatori ad “andare più veloci”,
bensì a “farli lavorare meglio”. L’operatore che va più in fretta, non lo fa perché è diventato effettivamente
più veloce, ma perché è riuscito a migliorare il suo metodo di esecuzione: l’operatore è stato “bravo”
perché è stato in grado di seguire un metodo, migliorarlo, ottenendo una configurazione nella quale è in
grado di risparmiare del tempo rispetto a prima (in sostanza: la velocità deve essere una conseguenza del
miglioramento, non la manifestazione dello stesso; non è che il metodo migliora perché l’operatore va più
veloce, ma l’operatore che va più veloce perché il metodo migliore).
Il tempo standard segue, quindi, l’approccio tradizionale: non solo, il metodo, le regole, e le procedure,
vengono imposte dall’alto, ma vengono anche dettati i tempi entro cui, tali metodi, regole e procedure,
devono essere svolte; al contrario, laddove il focus è migliorare il metodo, la velocità ed il tempo hanno
un’importanza marginale: l’operatore deve essere incentivato a migliorare il metodo, non ad andare più in
fretta; in tutto questo, ovviamente, è fondamentale la presenza di un management che accetti il fatto che,
non sono (solo) i livelli gestionali a definire ed innovare i metodi, ma anche quelli più operativi devono
poter dire la loro.
Ma allora, qual è la differenza tra un incentivo basato sul takt time ed uno sul tempo standard?
Il takt time, come visto, è il ritmo al quale il mercato richiede vada l’azienda: sia produrre di più, che
produrre di meno, sarebbe controproducente, poiché significherebbe andare contro la cadenza richiesta
dal mercato; al contrario, un incentivo basato sul tempo standard, spinge le risorse a produrre quanto più
possibile e quanto più velocemente possibile, proprio al fine di dimostrare di essere “bravi quanto il tempo
teorico” (il takt time, inoltre, rappresenta anzitutto un riferimento: mostra se e come si è in ritardo,
facendo sorgere la necessità di recuperare; tuttavia, nel caso in cui si sia in anticipo, è assolutamente
necessario rallentare, a meno che non si vogli incorrere in spreco e sovraproduzione).
La logica di fondo, quindi, è la stessa, in quanto, per entrambi i casi, si tratta di seguire un metodo; tuttavia
77
-
Il metodo basato sul tempo standard è un qualche cosa che arriva dall’alto: il management l’ha
disegnato così, lo impone, e gli operatori devono cercare di seguirlo alla velocità più alta possibile;
Il metodo basato sul takt time è modulato dagli stessi operatori, e deve essere disegnato in modo
tale da andare esattamente a quel ritmo, che è poi la cadenza richiesta dal mercato.
L’impatto della variabilità e la misura delle prestazioni
A differenza di quello che, il senso comune, porta a pensare, l’obiettivo di eliminazione degli sprechi è solo
uno dei punti cardine della filosofia lean; altri due aspetti, parimenti importanti, sono la variabilità ed il
sovraccarico.
Per capire cosa si vuole intendere, si consideri il seguente esempio: come è possibile trasportare 12000 kg
di merce su un carrello di capacità di 5000 kg?
 Nel caso in cui si optasse per 4 viaggi da 3000 kg ciascuno, si sarebbe nell’ambito dello spreco: si sta
facendo “overprocessing”, mettendoci più viaggi del minimo necessario;
 Nel caso in cui si optasse per 2 viaggi da 6000 kg ciascuno, invece, si sarebbe nell’ambito del
sovraccarico: si sta caricando oltre il lecito la risorsa che, in tempi non lunghi, potrebbe rompersi;
 Nel caso in cui si optasse per 2 viaggi da 5000 kg ed un viaggio ad 2000 kg, infine, si sarebbe
nell’ambito della variabilità: si starebbe introducendo maggiore variabilità nel flusso di ciascun
viaggio, rispetto alla soluzione “livellata” (3 viaggi da 4000 kg ciascuno).
In particolare, trattato l’aspetto relativo agli sprechi, e tralasciando quello connesso al sovraccarico, è
interessante parlare della gestione della variabilità, aspetto per il quale, la gran parte delle organizzazioni,
risulta essere carenti: si presta troppa poca attenzione al livellare le attività e ad avere un ritmo. Attenzione
che, variabilità e spreco, sono due temi comunque connessi: come emerge dal caso dell’esempio, non è
raro che, la variabilità stessa, se mal gestita, possa indurre sprechi indesiderati.
Interessante è andare a vedere quello che è il trade – off che si trovano ad affrontare le aziende, con
riferimento al livello di WIP, la saturazione delle risorse ed il livello di variabilità di tali risorse:
Se si volesse aumentare, ad esempio, l’utilizzo delle proprie risorse, a parità di variabilità aumenterà,
inevitabilmente, il livello delle code; allo stesso modo, se si vuole diminuire il livello di code, senza
intervenire sulla variabilità, bisognerà accettare un maggiore inutilizzo delle proprie risorse.
78
Tuttavia, risulta altresì evidente come, a parità di saturazione, un’altra efficace possibilità per poter ridurre
le code è rappresentata dalla possibilità di agire sulla variabilità della domanda: se si è in grado, su uno
stadio, di contenere la variabilità degli arrivi, si ha la possibilità di ottenere meno code a parità di
saturazione.
VARIABILITA’, INCENTIVI E MISURA DELLE PRESTAZIONI
Fatta questa introduzione, risulta interessante andare a fare chiarezza su quella che è l’incidenza
dell’effetto variabilità, in termini di prestazioni ottenute dal sistema, e dai singoli operatori, e di
progettazione di un sistema di incentivazione adeguato.
Per approfondire questo punto, si consideri un esempio: si supponga di considerare un call center, del
quale si dispone dei dati, a diverso livello di dettaglio temporale, relativi alle telefonate processate da
ciascun operatore su di un certo periodo.
Il problema che ci si pone è il seguente: chi merita di essere premiato?
In prima istanza, si sarebbe tentati a dire che, ad essere premiato, dovrebbe essere l’operatore che ha
gestito il maggior numero di telefonate, in quanto significherebbe aver ottenuto il miglior output a parità di
tempo lavorato; nel caso in esame, quindi, con riferimento alla settimana numero 40, l’operatore più
“bravo” sarebbe Giacomelli.
Sono, tuttavia, possibili altre logiche; ad esempio, poiché si dispone anche dei valori medi, relativi al
pregresso dell’operatore, si potrebbe pensare di andare a premiare quello che, su un periodo più lungo
(l’anno, non la settimana), è stato più produttivo: il migliore risulterebbe, quindi, Soldini.
O ancora, si potrebbe pensare di premiare quello che, in quella settimana, è stato in grado di migliorare di
più rispetto alla sua prestazione media: in questo terzo caso, a risultare il migliore sarebbe un operatore
ancora differente, ovvero Sandri.
Ci si concentri, in particolare, sul criterio che stabilisce un “premio” per chi è in grado di ottenere
prestazioni che risultano essere superiori al suo valor medio storico: come poi si avrà modo di
approfondire, un sistema di incentivi di questo tipo, risulta essere abbastanza iniquo; se difatti, esso viene
introdotto in un sistema, senza che, a tale sistema, siano apportate modifiche (in termini di regole, metodi
e procedure), ciò significherebbe dare, ad ogni operatore, il 50% di probabilità di essere premiato:
79
ipotizzando, difatti, che le sue prestazioni siano disposte casualmente come una gaussiana, nel 50% dei casi
egli potrà ottenere un valore superiore alla media, nel restante 50% dei casi egli otterrà dei valori inferiori.
Si provi, allora, a cambiare logica; si supponga di mappare le prestazioni degli operatori nel tempo,
identificandone la media:
Poiché, come detto, dargli la media come obiettivo target risulta essere poco stimolante (ed anche troppo
facile da raggiungere: come detto, semplicemente per un puro fatto statistico, egli avrà il 50% di probabilità
di riuscire a fare meglio di questo target, senza dover sforzarsi particolarmente), una logica più “equa”
sembra essere quella di dargli un valore superiore alla media, ma comunque realistico, in quanto già fatto
registrare in passato.
Benchè questa possa apparire una logica più razionale, anch’essa non è esente da critiche e limiti.
Fissare degli obiettivi numerici senza dare alcuna indicazione su quello che è il metodo opportuno per
raggiungerli, risulta solo frustrante per gli operatori: l’obiettivo è solo un’esortazione a raggiungere una
particolare meta ma, tuttavia, occorre considerare che, ogni sistema, è in grado di erogare un output che
non è fisso, ma che è affetto da variabilità; per questo motivo, a procedure date, si possono creare
situazioni in cui vi sono risorse che rallentano perché pensano di aver già fatto quello che serve, ed altre
che, invece, si vedono in situazioni sfavorevoli, “correndo a più non posso” per riuscire a raggiungere gli
obiettivi assegnati.
Come detto, tutti i sistemi sono caratterizzati da una variabilità dell’output; tale variabilità, tuttavia, non è
tutta uguale, ma deve essere distinta in quella quota parte insita naturalmente nel sistema e quella, invece,
definibile “eccezionale”:
 All’interno della variabilità “normale” ci sono quelle note come cause comuni, ovvero eventi di tipo
casuale che rientrano nell’ambito del normale funzionamento del sistema, e che
- Sono responsabilità del management;
- Il personale operativo non deve tentare di correggere con azioni per compensarle (otterrebbe
solo un effetto di aumento della variabilità);
- Coprono il funzionamento del sistema (rendendo complesso il processo di miglioramento);
 All’interno della variabilità “eccezionale”, invece, ci sono quelle note come cause speciali, ovvero
eventi particolari ed anomali che influenzano l’andamento del sistema e che:
- Rendono il sistema instabile;
- Sono occasioni per identificare sprechi ed opportunità di miglioramento;
- Possono essere responsabilità dell’operatore.
80
È evidente come non sia possibile andare a premiare, né punire, una risorsa che ottiene una prestazione
all’interno di una variabilità normale: proprio perché, come detto, si è nell’ambito di una variabilità normale
e casuale, statisticamente, metà delle sue prestazioni e del suo output sarà sopra la media, l’altra metà
sotto.
Il fatto che esista questa variabilità intrinseca è dimostrato dal fatto che, in uno stesso sistema, con stesse
regole e procedure, differenti team ed ambiti aziendali sono in grado di ottenere dei risultati anche molto
discrepanti; non per questo, però, sarà lecito andare a premiare il team X perché ha ottenuto una
prestazione migliore del team Y (e, viceversa, andare a punire quest’ultimo).
Le risorse non fanno altro che seguire fedelmente le procedure ed i metodi “dettati dall’alto”:
ammettendo, appunto, che vi sia una perfetta aderenza a queste consegne, è del tutto normale che,
l’output, vari rispetto ad un valore medio; è il sistema che, per come è progettato, è in grado di
determinare questa variabilità e casualità.
Se tutti si comportano allo stesso modo, seguendo le stesse regole, non ci si deve stupire se si ottengono
risultati differenti: è del tutto “normale”, e ciò non dipende dal fatto che uno ha agito meglio o peggio
rispetto agli altri, ma dal management, che ha definito quelle procedure in modo tale da determinare quel
possibile range di risultati.
È per questo motivo che, parlando delle “cause comuni”, si era detto che, esse, possono essere fatte risalire
al management: sono i livelli dirigenziali che definiscono le regole e le procedure e che, quindi, si fanno
carico della maggior parte delle responsabilità sull’output e sulla variabilità del sistema; tale elemento, può
proprio essere messo in evidenza andando a studiare quello che è l’andamento del sistema, ed andando a
riconoscere quelle che sono le cause di variabilità normale e quelle che, invece, sono fattori eccezionali.
È per questo motivo che, fissare un numero ed un target a prescindere (sia esso la media, sia esso un valore
più elevato e già ottenuto), senza mettere l’operatore in condizione di poter modificare le procedure del
sistema e le sue modalità di lavoro, risulterà solo frustrante: l’unica leva che egli avrà a disposizione sarà
l’impegno e lo sforzo personale. Al contrario, quando si fissano gli obiettivi, bisogna proprio tenere conto di
questa variabilità “normale” insita nel sistema, mettendo quindi le risorse nella condizione di disporre di
tutti gli elementi per poter gestire questa eventuale variabilità, migliorando le procedure, cambiando i
risultati, ed avendo effettivamente, sotto il loro controllo, la possibilità di raggiungere il risultato.
Come detto, ciascuna di quelle che sono state definite “cause comuni”, la si può ipotizzare come una
variabile casuale; la somma di tali variabili casuali darà una distribuzione gaussiana:
Controllo statistico: dato il valor medio, l’intervallo
𝜇
𝜎 conterrà circa il 99,7% degli eventi; tutti i
fenomeni che ricadono all’interno di questa banda
possono, appunto, essere considerati “normali”
mentre, quelli nelle code, fanno riferimento a cause
speciali; è per questi che varrà la pena andare ad
analizzare quanto successo, cercando di identificare
la causa, comprenderla e, possibilmente, rimuoverla
81
Quindi, l’obiettivo dell’analisi è quello di identificare le cause specifiche, che non dipendono dalla variabilità
del sistema, ed andare ad analizzarle (sono quelle i “veri” problemi): tutto ciò che, invece, è variabilità
naturale, è da imputare al management, ed è compito del management ridurla; neanche a ricordarlo, si è
più volte sottolineato come, rimuovendo tutti quegli eventi che dipendono dalle procedure e dalle modalità
di funzionamento del sistema, la variabilità che impatta sul sistema è molto minore, il che consente di
ottenere automaticamente una riduzione del tempo di attraversamento atteso, riuscendo ad aumentare
l’output, a parità di saturazione e senza dover ricorrere a straordinario.
LE CARTE DI CONTROLLO STATISTICO
Come ampiamente sottolineato, dare semplicemente un target di miglioramento delle prestazioni, senza
tuttavia andare ad agire sul metodo, e cambiando le dinamiche di funzionamento del sistema, risulta essere
inutile: semplicemente si sta dicendo alle risorse di “impegnarsi” di più, senza, tuttavia, metterle in
condizione di poter ottenere degli effettivi ritorni da quei maggiori sforzi (non vi è alcun cambio nelle
procedure).
Far dipendere le prestazioni dall’atteggiamento e dalla voglia di lavorare degli operai e degli impiegati non è
l’approccio corretto: è fondamentale che, il management, comprenda ed accetti il fatto che, il sistema, ha
in sé insita un certo range naturale di variabilità, che determina incertezza nelle prestazioni e nell’output
ottenuto; tale variabilità, si lega proprio a come è strutturato lo stesso sistema (in termini di procedure,
regole e sistema informatico): qualunque prestazione che varia all’interno di quel range non è imputabile a
chi esegue le procedure ma a chi, quelle procedure, le ha definite (responsabilità manageriale).
Nel comprendere quella che è una variazione naturale, che determina un’esigenza di azione sul sistema, e
quella che è una variazione anomala, per la quale occorre intervenire andando a rimuoverne le cause
specifiche, in ambito manufatturiero si utilizza uno strumento che, nel 1945, fu introdotto dallo stesso
Deming (e che, egli, elaborò quando fu mandato in Giappone per supportare la ricostruzione dell’economia
dopo i disastri della Seconda Guerra Mondiale): la carta di controllo.
Le carte di controllo permettono, appunto, di analizzare lo stato di controllo del processo: esse, in
sostanza, sono strutturate in modo tale da monitorare l’andamento del sistema in tempo reale,
permettendo di individuare, in tempo reale, l’eventuale passaggio tra stati (nello specifico, da “in controllo”
a “fuori controllo”). Tramite un’analisi grafica, le carte di controllo permettono, quindi, di monitorare
l’andamento dei principali attributi e variabili del sistema.
Il punto di partenza lo si è già accennato in precedenza: il sistema si caratterizza per una variabilità casuale
(normale ed eccezionale), che si distribuisce come una normale; per tutti gli eventi che si collocano nelle
code, la casualità diventa sempre meno probabile e, quindi, ha senso andare ad approfondirli; al contrario,
per tutti gli altri, non ha senso un’analisi, in quanto rientrano nel “normale” funzionamento del sistema.
La logica alla base delle carte di controllo è quella di verificare le condizioni di stabilità del processo
prendendo, in successione, diversi campioni della produzione:
82
Come detto, si considera “naturale” la variabilità compresa nell’intervallo
; se, tutti gli eventi,
rientrano in questa banda, allora il sistema può dirsi in controllo, e tutta la variabilità dipende solo ed
esclusivamente dalle regole e da come il sistema è stato disegnato; in un caso di questo tipo, la
responsabilità del miglioramento, e della qualità in uscita, è tutta del management: non avrebbe alcun
senso assegnare degli obiettivi agli operatori, a meno che non si ammetta di farli agire sul metodo. La
media è data, e tutti gli eventi oscillano tra
, anche se tutti seguono le regole e le procedure
predefinite: imporre che venga raggiunto un nuovo livello di output, senza cambiare la struttura
procedurale di base, è del tutto irrazionale (proprio perché, in base a queste regole, è “normale” che si
abbia quella certa variabilità).
Il management “cieco”, che non si accorge di questo, e che decide comunque di assegnate dei target iniqui
al proprio personale, mette questi ultimi nella condizione in cui, non avendo altre leve a disposizione, essi
saranno portati a “barare” e “giocare” con i numeri (ad esempio, allocando ad una commessa costi che non
sono di sua competenza, oppure modificando i valori sul livello di output effettivamente ottenuto).
Il controllo statistico, comunque, conferma quanto già si era concluso in precedenza: il 95% delle cause
rappresentano delle anomalie normali ed insite nel sistema, che dipendono dal management e dalle regole
definite (e, come detto, gli effetti di questi eventi non possono essere imputati agli operatori, che non ne
hanno alcuna colpa); al contrario, solo il 5% delle cause sono dettate dalle risorse, e sono degli eventi del
tutto eccezionali.
La conclusione è presto tratta piuttosto che focalizzarsi su come operano gli operatori, appare più
opportuno ed efficace focalizzarsi su come sono state definite le regole in quanto, un miglioramento nella
gestione del sistema, consentirebbe di ottenere dei benefici ben maggiori rispetto al miglioramento
dell’esecuzione delle attività da parte del personale.
Ma, quindi, com’è possibile costruire una carta di controllo?
La base di tutto è il campionamento; la media di un campione, difatti, risulta essere un buon estimatore
della media della popolazione e, inoltre, la distribuzione delle medie dei campioni tende ad una normale.
Inoltre, il campione, ha una varianza che può essere utilizzata per ottenere ulteriori informazioni: la
varianza delle medie dei campioni è, difatti, pari alla varianza della popolazione al quale viene rapportata la
numerosità del campione.
In sostanza, è possibile costruire delle semplici carte di controllo (le più elementari sono quelle cosiddette
“X bar”) andando a graficare:
- L’andamento della media di ciascun campione considerato;
83
-
Il range di ciascun campione (ovvero la differenza tra massimo e minimo);
Come si può osservare, per ognuna di queste due variabili monitorate (media e range), è possibile stabilire
dei limiti superiori ed inferiori:
 Per la carta della media, il valore centrale rappresenta la media delle medie calcolata per ciascun
campione, mentre l’upper ed il lower limit sono ricavati sulla base di costanti tabellate (A2) che
dipendono dalla dimensione del campione;
 Per la carta della varianza, il valore centrale rappresenta il range medio calcolato sui campioni,
mentre, anche in questo caso, l’upper ed il lower limit sono ricavati in funzione di costanti tabellate
(D3 e D4).
La logica di lettura è la seguente:
- Tutti i punti che fuoriescono i limiti rappresentano delle anomalie: è necessario andarle ad
analizzare, capirne la causa e, se possibile rimuoverla;
- Tutti i punti che rientrano nella banda dei limiti si muovono all’interno della normale variabilità del
sistema, che risulta essere in controllo; se si vuole limitare questa varianza, sarà necessario andare
ad agire sulle procedure.
Si tenga presente che, all’aumentare della dimensione del campione considerato, i limiti di questi strumenti
diventano più stringenti, non tanto perché si ha bisogno di un controllo più rigido, ma perché è la varianza
stessa dei valori delle medie a ridursi: più il campione è ampio, più si ha probabilità che, i singoli valori
puntuali, si compensino, rendendo quindi i valori medi molto più simili da campione a campione. In
sostanza, le medie di campioni di grandi dimensioni, avranno valori poco differenti l’uno con l’altro: sarà
quindi necessario restringere la banda di controllo, al fine di riuscire a cogliere anche i minimi spostamenti.
Attenzione che, anche nel caso in cui tutti i punti rientrassero all’interno della banda, giudicando il sistema
in controllo statistico, si potrebbe pensare di andare a suddividere ulteriormente la carta in sotto aree (non
solo
, ma anche
o
):
84
Questo consente di cogliere ulteriori comportamenti anomali o pattern particolare; ad esempio, nel caso
della rappresentazione di cui sopra
- Si hanno ben 9 punti superiori alla media, il che, comunque, rappresenta un’anomalia poiché, la
probabilità che questo accada, è la probabilità composta 0,59 (probabilità che un punto stia sopra la
media posto che, altri n, sono già superiori a questo valore); varrebbe, dunque, la pena analizzarne
le ragioni;
- Si hanno 6 punti di fila in costante crescita (anomalo);
- Due punti su 3 figurano sempre essere nella zona A;
- Possono poi emergere dei pattern e/o dei comportamenti ripetitivi (ovvero un qualche cosa che si
ripete e che è strutturale dentro il sistema).
CONCLUSIONI: GESTIONE DELLE RISORSE, DELLE PROCEDURE E DEL SISTEMA
Il messaggio è quello più volte ripetuto: il management dovrebbe dedicare più tempo a gestire il sistema, le
regole, l’input ed il training delle persone, piuttosto che concentrarsi semplicemente sul gestirle in maniera
rigida e misurarle, progettando dei sistemi di incentivi per capirne la bravura.
Far ruotare il tutto attorno alla misura delle prestazioni, invece che sui metodi di lavoro, porta solo a
stressare di più le proprie risorse, non aiutando a migliorarne le performance: come detto, assegnare un
target, pur challenging che sia, senza dare gli strumenti per poter modificare le procedure ed agire sul
sistema, è frustrante e contraddittorio, poiché significa far impegnare le risorse al massimo senza
permetterle di ottenere veramente il massimo (statisticamente, la risorsa “normale”, il 50% delle volte, farà
meglio della media, il 50%, invece, peggio; una risorsa che profonde il massimo impegno, al massimo potrà
fare meglio il 60% delle volte e peggio il 40%, ma non riuscirà ad ottenere tanto di più).
Bisogna cambiare ottica: la misura non deve più essere fatta con l’obiettivo di valutare le risorse, ma per
capire come dare alle persone gli strumenti per migliorare il sistema; in definitiva, si tratta di andare a
misurare il sistema, non le persone.
Valutando l’output e le prestazioni serve a capire quelli che sono gli elementi che permettono di migliorare
il sistema: per questo, è essenziale che l’operatore sia coinvolto in questa misura; è lui la persona esperta e
competente e, insieme a lui, sarà opportuno analizzare criticamente queste misure per metterlo in
condizione di apportare successivi miglioramenti.
In sostanza, le misure devono essere integrate nel lavoro e, soprattutto, essere funzionali ad un dato flusso
di valore: l’operatore deve essere in grado di “misurare come lavora”, ed avere visibilità su queste misure,
perché questo gli permette di correggersi e/o saper cogliere eventuali opportunità di miglioramento.
Al contrario, se si chiedesse, agli operatori, di compensare autonomamente un fenomeno che non ha
cambiamenti strutturali, ma casuali, si otterrà solo un deterioramento delle prestazioni, con più alta
variabilità: per assurdo, si otterrebbe una dispersione più alta che se non si tentasse di fare nulla; come
detto, nel caso, si starebbe cercando di correggere un qualcosa che è naturale nel sistema, aumentandone
inesorabilmente la variabilità.
Si sottolinei inoltre come, per ottenere un output più regolare e maggiormente aderente alle caratteristiche
desiderate, non è solo sufficiente andare a lavorare sulle regole che governano il sistema, ma anche
sull’input.
85
Soprattutto nell’ambito dei servizi, troppo poco tempo è dedicato all’analisi della domanda ed alla sua
composizione: tanto più la domanda e l’input risulta essere caratterizzato da variabilità, difatti, quanto più
alta sarà la probabilità di ottenere prestazioni ed output affetto da medesima (o amplificata) variabilità.
Si consideri, ad esempio, il caso di un call center: il management, spesso, è focalizzato su misure di
produttività del tipo “telefonate gestite dall’operatore nell’unità di tempo”, senza, tuttavia, analizzare
effettivamente la composizione di tale domanda, ovvero il perché il cliente ha chiamato.
Il primo principio della filosofia lean è il fatto che “ogni attività dell’azienda deve creare valore per il
cliente”; ciascuna richiesta del cliente, tuttavia, non è detto che rientri sempre all’interno del valore, in
quanto occorre distinguere tra:
 Value demand: richiesta, da parte del cliente, fatta specificatamente per ricevere il
prodotto/servizio erogato dall’azienda;
 Failure demand: tutte quelle richieste che vengono ricevute, da parte del cliente poiché, con la
prima risposta, non si è riusciti a dare un output completo e soddisfacente (in termini di tempi e
modi richiesti).
Si pensi, ad esempio, ad un’azienda che offre il servizio di riparazione dei suoi prodotti in garanzia, con un
tempo medio di restituzione pari a 2 giorni:
- Il cliente invia la richiesta di riparazione ed il prodotto: value demand;
- Passati 2 giorni, non avendo notizie, il cliente contatta l’azienda per avere un aggiornamento:
failure demand;
- Passati altri 2 giorni, non avendo ancora notizie, il cliente contatta l’azienda per avere un ulteriore
aggiornamento: failure demand;
- …
È evidente che se, in principio, invece che vendere una prestazione media, si fosse dato un valore più
verosimile (non 2 giorni di attesa, ma 4 o più), il cliente non si sarebbe trovato nella condizione di dover
contattare altre due volte l’impresa; si sono avuti tre contatti, invece che uno, semplicemente perché si è
avuto un sistema che non ha funzionato correttamente, in quanto crea dello spreco (in termini di failure
demand): il contact center ha un input che è il triplo di quello che dovrebbe essere effettivamente
semplicemente perché incapace di dare le giuste informazioni al cliente.
Ecco quindi che, invece che analizzare passivamente i dati di input, e studiare i metodi di ottimizzazione
delle risorse più complessi, sarebbe sufficiente approfondire la natura della domanda in ingresso e,
eliminando sprechi inutili, si avrebbe la possibilità di razionalizzare la gestione in maniera automatica (nel
caso, si divide per tre l’output, potendo così liberare risorse…).
Al solito, cambiando l’ottica di visione dei problemi, si ha la possibilità di far emergere opportunità fino ad
un certo punto, inesplorate: nel caso, si tratta di porre attenzione all’analisi della domanda, assumendo
soprattutto l’ottica del cliente, e cercando di capire le caratteristiche della domanda (in termini di natura e
contenuto delle richieste; si ritorna a quella classificazione “runners – repeaters – strangers” che già si
aveva avuto modo di approfondire).
Questo è particolarmente critico nell’ambito dei servizi: mentre, difatti, nel manufatturiero, l’obiettivo è
quello di ridurre a zero la variabilità, nei servizi questo non è possibile, poiché significherebbe azzerare la
diversificazione nelle esigenze delle richieste del cliente; questo, al limite, è possibile per i mass services;
86
laddove, tuttavia, c’è anche una minima interazione con il cliente, la variabilità non è eliminabile, e deve
essere efficacemente gestita, in particolare dal front office, che deve farsi carico di impattarla, smorzarla, e
comunicarla, in maniera quanto più possibile livellata, al back office.
Il modello ideale per la gestione della domanda e della variabilità in aziende di servizio, orientate
all’approccio lean ed alla soddisfazione del cliente, è quello ad imbuto che:
- In ingresso al front office, si può avere tantissima variabilità, che deve tuttavia essere
opportunamente gestita e smorzata;
- Incanala poi, al back office, richieste riconducibili a processi e servizi standard; il back office, in
sostanza, deve ricevere un input che, in larga parte, risulta riconducibile a procedure standard e
predefinite, tenendo aperto, al più, un canale di tipo “strangers” per poter gestire le eccezioni.
Si ritorna a considerazioni già fatte: è necessario dare grande autonomia al front office, conferendogli
grande discrezionalità, dandogli obiettivi ampi e possibilità di comprendere e interpretare le esigenze del
cliente.
Criteri ed approcci per la realizzazione delle celle e del flusso continuo
Parlando di Value Stream Mapping, si è avuto modo di vedere come, uno dei principi fondamentali nel
ridisegno dell’azienda in ottica future state fosse proprio l’esigenza di mettere a flusso opportunamente
degli stadi, andando a creare una cella di produzione; arrivati a questo punto, è opportuno fare chiarezza su
quelle che, in realtà, sono le effettive modalità e condizioni di realizzazione di un’organizzazione di questo
tipo, facendo riferimento al caso della Apex, azienda che realizza tubi per impianti frenanti.
Il suo current state risulta essere così rappresentabile:
Riprogettando l’azienda in ottica lean (facendo riferimento agli 8 punti ampiamente discussi), si è deciso di
andare a realizzare un future state caratterizzato da una cella produttiva che include l’assemblaggio ed il
testing, a monte della quale si trovano i macchinari per la deformazione delle estremità (fase
immediatamente a monte) e quello per l’estrusione dei tubi (primo stadio):
87
Benchè, il miglioramento, sia sensibile, in realtà, i risultati ottenuti e le nuove prestazioni non risultano
essere effettivamente allineate ad i risultati che ci si sarebbe aspettati sulla carta; in particolare, andando a
raffrontare quello che è l’output orario previsto, rispetto a quello effettivamente ottenuto, emerge un forte
disallineamento:
Come si può osservare, non solo l’output risulta essere differente rispetto a quello pianificato ed atteso (il
che porta ad esigenza di straordinario), ma altamente instabile e variabile (ovvero: non è sempre dell’X%
più basso, ma questo dislivello può variare di ora in ora); ciò significa che, questo stadio, che rappresenta il
metronomo dell’azienda, non segue un ritmo costante.
Perché si hanno questi problemi?
Potrebbe essere che
- La macchina non risulti essere sufficientemente capace;
- La macchina abbia una disponibilità troppo bassa;
- Ci sono materiali in ingresso che mancano per effettuare le operazioni di assemblaggio;
- La difettosità in ingresso abbia raggiunto un livello critico;
- …
Ma soprattutto: ogni qual volta uno di questi fenomeni si verifica, chi se ne fa carico?
88
Se ben si ricorda, esistono delle regole basilari che devono essere rispettate per portare avanti un
approccio realmente lean (Toyota’s DNA); la prima cosa da fare, quindi, è verificare se, effettivamente, si
abbia il rispetto dei principi basilari:
 Come le persone lavorano: ogni compito ed attività deve essere dettagliatamente specificata in
termini di contenuto, sequenza, tempo richiesto ed output atteso;
 Come le persone si relazionano: per ogni problema, bisogna sempre sapere chi avvisare; ciò
significa che, non è l’operatore ad essere incoraggiato a risolvere le problematiche da sé ma, per
ciascuna categoria di problemi, deve esistere un punto di accumulazione;
 Come è organizzato lo stabilimento di produzione: il cammino di ogni prodotto deve essere chiaro,
semplice, ed univoco (il che, lo si ricordi, non significa che, ciascun cammino, è dedicato solo ed
esclusivamente alla realizzazione di un prodotto, ma che, invece, ogni specifico prodotto segue
sempre e solo il percorso che è stato progettato “sulla carta”);
 Come migliorare: ogni miglioramento deve provenire dal basso, in quanto, ciascun livello, fino ad
arrivare anche al più umile operatore, ha in mano gli strumenti per poter contribuire
all’innovazione della procedura; ogni suggerimento viene testato e validato seguendo il metodo
scientifico.
Posto questo, si analizzi quella che è la struttura della cella (dalla rappresentazione di cui sopra):
- Dapprima si ha la macchina piegatrice, che prende, in input, il tubo che è stato deformato alle
estremità: i vari tubi deformati giacciono all’interno di un cassone, il che significa che si ha esigenza
di un operatore che carichi il tubo sulla macchina e, successivamente, lo scarichi;
- Dopo si hanno le fasi di assemblaggio: sempre con il supporto degli operatori, le macchine vengono
caricate e scaricate con i tubi, sui quali vengono eseguite le attività;
- Infine, un terzo operatore si occupa del carico e scarico sulla macchina destinata al fissaggio ed alla
saldatura delle parti;
- Nel momento in cui, dalle fasi precedenti, vengono accumulati un certo numero di tubi, li si dà in
ingresso alla macchina di testing, che ne valuta la tenuta: tutti quelli che passano questa
valutazione sono, a tutti gli effetti, prodotto buono, che verrà trasportato dalla cella al magazzino
prodotti finiti.
Da questa descrizione, emergono almeno quattro aspetti che possono essere migliorati:
1. L’operatore addetto alle prime due stazioni (piegatura e primo assemblaggio) non lavora in modo
continuativo, bensì a “lotti” di 25 tubi (in sostanza, aspetta che la macchina piegatrice abbia
riempito il contenitore con almeno 25 tubi prima di portarli all’assemblaggio);
2. Ciò fa sì che, la cella di produzione, sia in realtà una “one piece flow” solo apparentemente: ci sono,
difatti, delle scorte interoperazionali tra una stazione e l’altra;
3. Ogni operatore è strettamente legato alla macchina di sua responsabilità (che carica e scarica con
continuità); in realtà, come poi si avrà modo di vedere, la filosofia lean porta a disaccoppiare
l’operatore dalla sua macchina;
4. La cella, benchè progettata secondo uno schema ad U, risulta essere molto ampia, proprio per
permettere il posizionamento delle scorte: ciò significa maggiore occupazione di spazione maggior
strada che gli operatori devono fare per muoversi.
In sostanza, benchè, dalla situazione inziale, si sia già ottenuto un sensibile miglioramento, è necessario (e
possibile) fare di più:
89
 Rendere stabile l’output realizzato (e,
possibilmente, allineato a quanto atteso);
 Diminuire lo spazio occupato;
 Ridurre ulteriormente il tempo di
attraversamento;
 Ridurre ulteriormente il numero di operatori
ed aumentare la produttività;
 Dare alla cella la sua effettiva funzione di
metronomo
OPZIONI DI RIPROGETTAZIONE E PAPER KAIZEN PER LA GESTIONE DELLE RISORSE UMANE
In generale, quando si decide di costruire una cella per una famiglia composta da due prodotti
(semplificando la situazione: famiglia composta da due prodotti A e B), sono due le alternative possibili:
1) Dedicare una cella al prodotto A, ed una al prodotto B;
2) Moltiplicare il numero di celle, rendendo tuttavia ciascuna capace di realizzare tutti i prodotti della
famiglia (A e B).
È evidente che, a parità di flessibilità di volume di entrambe le strutture (non si ha alcuna differenza in tal
senso), questa seconda soluzione risulta essere molto più flessibile al mix; come già avuto modo di dire
parlando di gestione della variabilità, più si è in grado di aggregare, più si è in grado di dare stabilità al
sistema (se la domanda del prodotto A è caratterizzata da una certa variabilità, così come quella del
prodotto B, senza dubbio, i volumi aggregati dei prodotti A + B sono caratterizzati da una dispersione
minore): uno dei concetti fondamentali per passare ad una visione di tipo lean è proprio il principio che
vuole lo “scambio” tra un investimento in flessibilità al mix e l’ottenimento di una diminuzione della
variabilità; è difatti dimostrato come, nella maggior parte dei sistemi, sia assolutamente più conveniente
fare uno sforzo per investire in flessibilità, arrivando a produrre in sequenza anche prodotti differenti,
piuttosto che perseguire una strategia di volume (quindi produrre a lottizzazione), dovendo però affrontare
una variabilità di gran lunga maggiore.
È difatti evidente come, un’azienda che decide di organizzarsi secondo lo schema previsto dall’opzione A,
sarà esposta pesantemente ad una doppia variabilità di volume (quella del prodotto A e quella del prodotto
B) che, per essere efficacemente affrontata, dovrà prevedere o la presenza di scorte, o il lavoro in
straordinario (quindi, sempre e comunque, inefficienza: il rischio è quello di far variare continuamente
l’utilizzo delle risorse); al contrario, nel secondo caso, le celle di assemblaggio sono costruite in modo tale
da essere in grado di realizzare modelli di prodotti differenti, limitando le inefficienze e migliorando le
prestazioni: in generale, si può dire che, più sono i modelli che la cella è in grado di realizzare, minore è la
variabilità che dovrà essere gestita, maggiori sono le performance che si è in grado di ottenere.
90
La flessibilità è quindi un primo driver che deve essere considerato, e che sposta la decisione verso l’una o
l’altra soluzione: se l’obiettivo è quello di ottenere maggiore stabilità di volume, andando a legare il mix alla
domanda, e stabilizzandolo, la soluzione ideale è proprio la seconda configurazione (che, inoltre, consente
di ribaltare questo vantaggio anche e soprattutto sui fornitori, esterni o interni che siano, che ricevono una
domanda totalmente livellata).
Esistono però altri elementi che devono essere considerati, quali:
 Il contenuto di lavoro: è evidente che, più i prodotti considerati si caratterizzano per delle attività
simili da eseguire, più sono candidati ad essere lavorati all’interno della stessa cella (se, invece, il
contenuto fosse molto diverso, le condizioni per realizzare un flusso continuo sarebbero più
difficoltose da raggiungere);
 Le similitudini nel processo: qui non si parla tanto di attività da eseguire, bensì di risorse necessarie
per eseguire tali attività (se così non fosse, la cella sarebbe “invasa” da macchinari, ognuno che si
occuperebbe di soli pochi prodotti; diverrebbe quasi una situazione di mini reparti all’interno della
cella);
 Il valore del takt time: se i prodotti hanno un takt time molto diverso tra di loro, si potrebbero
avere dei problemi; in tutto questo, incide fortemente il volume richiesto per ognuno di essi (se,
l’azienda, si trovasse a realizzare il prodotto B molto raramente rispetto ad A, metterli all’interno di
una stessa cella potrebbe non essere più così conveniente: magari, si potrebbe pensare di dedicare,
a B, una postazione fissa di realizzazione);
 Il posizionamento del cliente: se i prodotti fanno riferimento a mercati geograficamente distanti
(ad esempio, A potrebbe essere venduto in Europa, B in Nord America), sarebbe insensato creare
un'unica cella centrale (capace di realizzare entrambi i prodotti) che poi dovrebbe spedire alle
differenti zone; più sensato sarebbe, invece, localizzare, realizzando due distinte celle più vicine ai
mercati di riferimento.
Posto questo, nel rivedere la struttura della cella, di modo da renderla più idonea al contesto operativo in
cui si trova ad essere inserita, il punto di partenza è rappresentato dalla realizzazione di un documento che,
nell’approccio lean, prende il nome di “paper kaizen”; in sostanza, si tratta, per ogni operatore inserito
attualmente nella struttura, di andare a definire, in dettaglio, quelle che sono le attività da lui svolte in
corrispondenza di ciascuno stadio di lavorazione.
In che modo l’operatore risulta essere coinvolto? Che tempo gli richiede ciascuna attività?
91
Questa analisi consente, inoltre, di far emergere un interessante fattore: dettagliando le attività, si ha la
possibilità di quantificare il tempo necessario alla macchina per effettuare le lavorazioni, il che si traduce in
un conseguente tempo di inattività dell’operatore (l’operatore attende che la macchina abbia terminato la
trasformazione prima di ricominciare il ciclo di attività).
Questo tempo risulta essere particolarmente critico con riferimento alla fase di piegatura; in particolare, se
si sommano i tempi, il primo operatore, che si occupa di piegatura e primo assemblaggio, ha un attesa di 17
+ 4 = 21 secondi, il che è un’inefficienza non indifferente.
A partire da questo documento, è quindi necessario migliorare la situazione, nel seguente modo:
 Eliminando i possibili inutili sprechi di attesa, soprattutto per il primo operatore;
 Introducendo uno scarico automatico delle macchine: benchè il lean, in genere, non sia molto
favorevole all’automazione spinta, sono, in realtà, ammesse delle eccezioni; in particolare, ciò che è
mal vista è la meccanizzazione a livello di singola operazione mentre, maggiormente considerata, è
quella in termini di scarico dei pezzi (si tenga presente che, si parla di automazione della fase di
scarico e non di quella di carico poiché, questo secondo caso, è molto più complicato da
supportare: mentre, difatti, automatizzare lo scarico non è un’operazione assai complessa poiché,
una volta finito di lavorare il pezzo, la macchina sa esattamente dove esso si trovi, riuscendo
facilmente a recuperarlo e posizionarlo nel luogo desiderato, per il carico le cose sono diverse,
poiché il pezzo potrebbe trovarsi dovunque; si tratterebbe di costruire un sistema che preveda il
posizionamento dei pezzi in input sempre nella stessa posizione, il che è gestionalmente più difficile
da ottenere);
 Trasformando quelle che, attualmente, sono attività realizzate a lotti (logica batch), in attività
svolte in modo continuativo: ad esempio, invece che far spostare i tubi all’operatore solo ogni
accumulo di 25, riprogettare il sistema in modo tale che, su base continuativa, l’operatore sia in
grado di prendere il pezzo in ingresso alla cella, caricarlo sulla piegatrice, prendere il pezzo
scaricato (in maniera automatica) dalla piegatrice e darlo in ingresso al primo assemblaggio; in
questo modo, non si hanno sprechi, e gli operatori sono in grado di lavora di più ed in modo
continuativo.
In questo modo, il paper kaizen ha consentito di eliminare sostanziali affaticamenti agli operatori del
processo di assemblaggio e della linea combustibile dell’Apex; in particolare, il contenuto di lavoro totale
per fare un pezzo si è abbassato di 30 secondi, portandosi da 118 secondi a 88 secondi; questo
miglioramento è attualmente più evidente perché, il ridisegno degli elementi di lavoro, ha aggiunto il
passaggio del carico del tubo ogni ciclo invece che ogni 25 cicli.
Infine, con gli elementi di lavoro ed i tempi alla mano, il management dell’Apex è da ultimo in grado di
creare uno strumento “criticamente” utile, la tabella di bilanciamento dell’operatore, che rappresenta un
grafico all’interno del quale viene rappresentata la distribuzione del lavoro tra gli operatori, in relazione al
takt time.
In tale tabella, ciascuna linea orizzontale corrisponde ad un secondo; viene, inoltre, messa in evidenza la
linea del takt time (che, nel caso dell’azienda in questione, risulta essere pari a 40 secondi), ottenendo la
seguente rappresentazione:
92
L’altezza di ciascun istogramma rappresenta il tempo relativo al contenuto di lavoro di ciascun operatore; è
interessare notare che, i tempi di carico e scarico impiegati da ciascun operatore vengono inclusi nel
diagramma, ma non il tempo di ciclo delle macchine, poiché, lo strumento della OBC, somma il solo lavoro
umano, e non quello delle risorse materiali.
Attenzione: la tabella fa riferimento alla situazione corrente (quindi dopo la realizzazione della cella, ma
prima dei successivi miglioramenti); da essa, emerge in maniera evidente la situazione di inefficienza: ogni
operatore ha un contenuto di lavoro considerevolmente più basso dei 40 secondi (takt time); in particolare,
in due casi su quattro, il contenuto di lavoro totale dell’operatore risulta essere inferiore alla metà del takty
time.
Non solo quindi il materiale non fluisce in maniera continuativa nella cella (certe attività sono svolte
lottizzando), e l’output ottenuto ha un andamento fortemente instabile, ma è anche chiaro come l’azienda
stia utilizzando troppi operatori per realizzare la sua linea di prodotti. Si ricordi comunque che, tutti questi
aspetti, non sono una critica alle performance dell’operatore, ma al processo: tutti questi sprechi trovano le
loro radici nella progettazione e nella gestione del processo stesso.
LA GESTIONE DI MACCHINARI E DEL LIVELLO DI AUTOMAZIONE
Analizzata la situazione dal punto di vista degli operatori, occorre ora volgere lo sguardo ai macchinari ed
agli impianti; in sostanza, una volta determinati i prodotti da realizzare nella cella, ed il relativo takt time,
occorre domandarsi se, gli impianti che si stanno spostando per realizzare la cella sono effettivamente in
grado di soddisfare il takt time; per farlo, ovviamente, è necessario che le operazioni siano assegnate in
modo tale da:
- Bilanciare correttamente i carichi;
- Far sì che, ogni impianto, sia in grado di completare il ciclo, in ogni sua parte, all’interno del takt
time (come più volte avuto modo di sottolineare, difatti, per ottenere la condizione di flusso
continuo, è indispensabile che il “tempo di ciclo effettivo” di ogni macchina risulti notevolmente
inferiore al takt time).
Intendendo, con il termine “tempo di ciclo effettivo”
Tempo ciclo macchina per pezzo (tempo di processamento)
+ tempo di carico e scarico (durante la quale la macchina non può lavorare il pezzo)
+ tempo di attrezzaggio diviso per il numero di pezzi tra gli attrezzaggi stessi
Si ottiene la seguente tabella riepilogativa dei tempi di ciclo effettivi di ciascun impianto:
93
Come emerge, il tempo di ciclo richiesto da ciascun impianto è ben al di sotto del takt time, se si eccettua
per quello del secondo assemblaggio: qualora la domanda dovesse aumentare (diminuzione del takt time),
o gli impianti non fossero completamente capaci (in termini di percentuali di scarto realizzate), o
completamente disponibili, tale macchinario potrebbe sorgere come collo di bottiglia del sistema.
Osservando la distribuzione dei tempo, tra l’altro, è evidente qual è l’attività su cui occorre andare ad agire:
bisogna assolutamente migliorare i tempi di carico e scarico spesi dall’operatore.
In generale, in un contesto dove, gli impianti, non risultano mai completamente capaci e disponibili, e la
domanda cliente è in continua evoluzione, il miglioramento continuo deve porre un obiettivo di tempo di
ciclo effettivo delle macchine della cella che non superi mai l’80% del takt time; questo, non solo consente
agli operatori di non dover aspettare gli impianti nell’esecuzione del loro intero ciclo, ma anche di disporre
di un’eventuale extracapacità per poter fronteggiare picchi di domanda senza la necessità di dover
effettuare degli investimenti in incrementi di capacità o ricorrere a straordinario.
Nel caso in cui non fosse possibile lavorare al takt time, mantenendo quel margine desiderato del 20%,
occorrerà fare una serie di interventi, quali:
 Migliorare i processi di carico, avvio e scarico (ovvero: diminuire i tempi di set – up e/o aumentare
la disponibilità del macchinario);
 Eliminare lo spreco nel ciclo stesso, riducendo il tempo di processamento (ad esempio: accorciare i
tempi e le distanze delle parti in movimento della macchina);
 Separare alcune delle attività compiute dalla macchina collo di bottiglia ed utilizzare una o più
macchine per realizzarle;
 Utilizzare impianti più semplici e “mono funzione”, in grado di lavorare simultaneamente ed a
tempi di ciclo più bassi;
 Installare, nella cella, due macchine dello stesso tipo, in corrispondenza del collo di bottiglia,
alternandole ad ogni ciclo;
 Creare due celle invece che una (ciò può essere particolarmente adatto quando si desidera avere
un vantaggio nel posizionare celle peacemaker separate vicino a clienti diversi);
ovviamente, se nessuna di queste azioni darà risultati sperati, allora si sarà obbligati a portare fuori cella
la/le macchina/e problematiche, disaccoppiandole dalla cella interponendo un sistema di tipo supermarket,
e facendola operare, se necessario, su più turni; il disaccoppiamento del bottleneck dal peacemaker,
mediante una logica a lotti, rappresenta comunque una logica estrema, e deve essere adottata solo ed
esclusivamente di fronte a manifesta inefficacia di tutte le alternative precedenti.
94
Verificate che, gli impianti, possano effettivamente incontrare le esigenze in termini di takt time, bisogna
guardare alla tipologia degli impianti da mettere nella cella. Nel caso della Apex, l’azienda possiede già tutti
gli impianti di cui ha bisogno, essendo quindi possibile procedere rapidamente nella realizzazione della
cella, riducendo i costi di investimento ed aumentando la responsabilità del proprio personale.
Tuttavia, non è sempre detto che sia così: alcuni parti e macchinari potrebbero non essere adatti alla logica
del flusso, rendendo la miglior scelta quello di sostituirle;
quali sono le linee guida necessarie a progettare gli impianti richiesti nell’ottica di ottenere il flusso
continuo?
In genere, le alternative sono di due tipi:
1) Effettuare la progettazione nell’ottica di sfruttare una o più “super macchine”, in grado di eseguire
molteplici attività con tempi complessivi di ciclo relativamente lunghi;
2) Optare per una serie di piccole macchine, ciascuna delle quali in grado di processare una parte del
ciclo totale con (a differenza del caso precedenti);
ovviamente, siccome il tempo di ciclo di una macchina “multi – funzione” sarà più lungo, la sua capacità
sarà inevitabilmente più bassa rispetto ad una serie di macchine mono – funzione, in grado di operare più
rapidamente.
È evidente la differenza tra le due situazioni:
Impianti semplici, che operano velocemente, sono in grado di fornire maggiore flessibilità alla cella nel
momento in cui si ha la necessità di operare un cambio di produzione; se, ad esempio, si ammette di avere
acquistato due macchinari multi – funzione, con tempi di processo molto prossimi al takt time (come nel
caso della situazione di cui sopra), non c’è molto potenziale per affrontare un aumento di domanda o
un’espansione della gamma, e l’unica via è quella di acquistare un’altra macchina; con una serie di impianti
semplici (come il caso della seconda rappresentazione), invece, la linea o la cella ha la possibilità di
richiedere incrementi di domanda e/o aumenti della gamma di prodotto senza il ricorso all’acquisto di
ulteriori attrezzature. Inoltre, le macchine mono – funzione tendono ad essere più affidabili e meno costose
rispetto a quelle più grandi e multi – funzione, riducendo anche l’eventuale tempo di attesa per il loro
approvvigionamento (se non estremamente complesse, le competenze per realizzarle potrebbero essere
possedute dalla stessa azienda manufatturiera).
Si può quindi riassumere che:
 Le macchine grosse, più costose e con un maggiore grado di automazione, consentono di ottenere
dei vantaggi in termini di economie di scala: si tratta di acquistare un unico grande macchinario, in
grado di eseguire una molteplicità di operazioni su diverse linee di prodotto, potendo, così,
spalmare il costo orario del macchinario su un volume di prodotti maggiore. La conseguenza di
tutto ciò, tuttavia, è una centralità dell’elemento macchina, che consente di ottenere un costo
95
effettivamente più basso se e solo se, poi, in produzione, si è in grado di ottenere effettivamente la
saturazione prevista in fase di pianificazione valutazione dell’investimento (al momento dell’analisi
di fattibilità, il ragionamento sulle economie di scala era stato dimensionato sulla base di una certa
percentuale X di saturazione: il vantaggio di costo troverà, tuttavia, effettivo corrispettivo solo se
poi si sarà in grado di ottenere quel livello di saturazione);
 Le macchine più semplici, più piccole e meno complesse, sono più affidabili e flessibili, potendo
essere idealmente dedicata ad una specifica linea di prodotto; questa scelta la si pagherà con una
minore saturazione, aspetto però non così problematico ed incidente in quanto, rispetto alla
soluzione “a grosso impianto”, il costo unitario di investimento risulta essere molto più contenuto.
Nella filosofia lean, e per supportare la logica di flusso continuo, appare quindi evidente come, la seconda
soluzione, risulti essere la più indicata; spesso, però, le aziende fanno di tutto per cercare di “incastrare” la
prima soluzione, cercando di galleggiare in una configurazione che utilizzi più macchinari multi – funzione.
Questo perché, la visione tradizionale, vede nell’efficienza anzitutto il massimo utilizzo delle macchine:
un’azienda efficiente, e che non fa sprechi, è un’azienda che è in grado di saturare al massimo i suoi
impianto.
La filosofia lean mette in discussione questa “massima”; in realtà, gli elementi fisici di produzione non sono
solo le macchine, ma anche le persone ed i materiali, inevitabilmente in trade – off tra di loro: se si prova a
massimizzare l’utilizzo di uno di questi, necessariamente si deteriora l’utilizzo delle altre due categorie.
Ad esempio: se l’obiettivo è quello di saturare al massimo i propri impianti, facendoli lavorare
costantemente ed al ritmo più veloce possibile, si avrà bisogno di personale “extra” che garantisca questo
continuo funzionamento, nonché si quantità “extra” di materiale tra i vari processi, per mascherare
eventuali problemi e mantenere in funzione le macchine stesse. Analogamente, se si cercasse di
massimizzare l’utilizzo dei materiali, nella condizione ideale in cui non si hanno magazzini, si avrà bisogno
di personale “extra” e di un numero superiore di macchinari per far fronte ad eventuali fluttuazioni della
domanda e guasti.
Di grande interesse, però, è la massimizzazione dell’utilizzo delle risorse umane poiché, questi ultimi,
rappresentano la risorsa più flessibile in assoluto: nell’ottica pull, se un codice non è stato richiesto dal
processo successivo, è corretto che materiali e macchinari stiano fermi e non producano; al contrario, gli
operatori possono spostarsi da un impianto all’altro, occupandosi di quelli che devono invece produrre,
perché il loro codice è stato richiesto; la macchina non è molto flessibile (se è ferma, non può realizzare il
prodotto richiesto da un altro processo, ce che attualmente previsto da un altro impianto), l’operatore,
invece, lo è.
Ciò significa che, quando si progettano le celle o le linee peacemaker, invece che guardare anzitutto alla
massimizzazione dell’utilizzo degli impianti (spingendo verso l’adozione della soluzione con macchine multi
– funzione), è anzitutto opportuno guardare a quella delle risorse umane: ciò che è conveniente avere
come collo di bottiglia non sono le risorse immateriali, bensì gli operatori, in quanto caratterizzati da
massima flessibilità.
La filosofia lean è disposta ad accettare una sotto – saturazione degli impianti in cambio di una saturazione
delle risorse umane, che deriva dal fatto di poterne sfruttare la flessibilità; tra l’altro, il fatto che le
macchine restino ferme per un breve lasso di tempo ad ogni intervallo di takt time non è il massimo
dell’inefficienza: al contrario, il peggiore spreco lo si avrebbe sovraproducendo, quindi facendole andare
continuamente (per saturarle) e facendole produrre più velocemente del ritmo richiesto dal mercato.
96
È il fattore umano che deve essere saturato, in quanto sono queste le risorse critiche, in grado di far
ottenere maggiore flessibilità: saturare al massimo un operatore, difatti, significa fargli eseguire differenti
tipologie di attività e/o farlo operare su più linee di prodotto, il che significa che, la risorsa in questione,
risulta essere destinata ad un volume aggregato più elevato (egli non segue solo l’operazione di tornitura,
ma anche altre fasi del ciclo; egli non segue solo i prodotti di tipo X, ma anche quelli di tipo Y e di tipo Z;
tutto questo è, ovviamente, possibile ammettendo una formazione multiskilled dell’operatore). Più si
aggrega, però, più si è in grado di stabilizzare i volumi, rendendo la domanda in ingresso molto meno
variabile: dotandosi di risorse flessibili, sarà quindi proprio possibile dedicarle a diverse attività e/o diversi
prodotti, riuscendo a gestire meglio la variabilità che impatta sul sistema, proprio perché, quello che ogni
singolo operatore vede, è un volume aggregato.
È un circolo virtuoso: avere risorse flessibili consente di allocarle in diversi ambiti, quindi di aggregare i
volumi in ingresso, riducendo la variabilità, e potendo saturare tali risorse senza, tuttavia, creare delle
ulteriori code; banalmente, questo consente di aver bisogno di meno risorse per eseguire le stesse attività.
Se, al contrario, si tentasse di saturare le macchine, per farlo, significherebbe semplicemente fargli
realizzare più volumi di uno stesso prodotto e/o differenti prodotti, senza però intervenire in alcun modo in
termini di flessibilità (non è una risorsa umana, che può essere formata per la gestione di diverse attività
e/o prodotti: per rendere flessibile un impianto è necessario un investimento molto più ingente): in
sostanza, non si contribuirebbe a diminuire la variabilità del sistema e, l’effetto che si otterrebbe, sarebbe
quello di, a parità di variabilità, aumentare la saturazione il che, come noto, comporta un aumento della
coda potenziale. Se si ottiene una maggiore saturazione della risorsa umana, invece, significa che,
inevitabilmente, quella risorsa è (o è diventata) anche più flessibile, il che consente di diminuire la
variabilità del sistema.
La conclusione cui si giunge, è quindi, il fatto che non ha senso andare ad investire in macchine costose e di
grandi dimensioni, per cercare di saturarle il più possibile ed ottenere dei vantaggi di costo; al contrario, è
opportuno dotarsi di impianti di più piccole dimensioni, comunque avanzati dal punto di vista tecnologico,
e di per sé già flessibili, spostando l’investimento in saturazione e flessibilità della risorsa umana (come
detto, avere un elemento umano più flessibile significa maggiore possibilità di poterlo saturare, proprio
perché abilitato ad occuparsi di differenti ambiti; dargli la possibilità di eseguire più operazioni, tuttavia,
significa aggregare maggiormente i volumi, il che ha la desiderabile conseguenza di diminuire la variabilità
del sistema: è proprio questo che fa sì che, nonostante la risorsa sia più satura, non si abbiano aumenti
delle code potenziali).
LIVELLO DI AUTOMAZIONE
Dopo aver definito tipologia e configurazione dei macchinari, è interessante andare ad analizzare quanta
automazione occorre introdurre, nella cella, al fine di creare un flusso continuo, efficiente e flessibile di
materiale. Si tenga presente che, come già detto, il lean guarda con sospetto a questo elemento: questo
perché, se da un lato è indubbio che, l’automazione, può supportare efficacemente la realizzazione del
future state, in realtà, un’automazione mal progettata o mal utilizzata potrebbe interrompere e/o impedire
il flusso stesso.
Per evitare che questo accada, e per determinare il corretto livello per il proprio sistema, bisogna analizzare
come interagiscono, tra di loro, il flusso del materiale e gli operatori.
A tale proposito, esistono diversi livelli di automazione che possono caratterizzare la cella:
97
In generale, in una cella a flusso continuo, per permettere agli operatori di muoversi e di aggiungere valore
durante il funzionamento e lo svolgimento delle attività, è necessario almeno un livello 2 di automazione
(meccanizzazione del ciclo della macchina); eventualmente, come messo in evidenza, si può pensare ad un
livello successivo di automazione, prevedendo lo scarico automatico della macchina (il pezzo finito viene
scaricato in automatico dall’impianto al termine del ciclo, con la macchina che si presenta pronta al carico
ogni qual volta l’operatore ritorna con il nuovo componente), soluzione, in genere, poco costosa. Al
contrario, più del livello 3 di automazione potrebbe essere eccessivo, in quanto si andrebbe incontro ad un
aumento dei costi e della complessità tecnologica (la fase di carico richiede tecnologie particolari per essere
automatizzata, così come il trasferimento, che poggia su robot o linee transfer automatiche; questo,
inoltre, ha l’effetto di ridurre l’affidabilità e la disponibilità del sistema).
Il secondo livello, difatti, consente quanto meno agli operatori di occuparsi di più processi all’interno del
takt time, come mostrato dalla seguente rappresentazione:
L’operatore carica la prima macchina
ma, essendo il suo ciclo automatizzato,
mentre la macchina lavora, egli può
muoversi al passo successivo di
lavorazione: l’operatore non aspetta mai
la macchina, ma segue processi multipli
Questa automazione ribalta quella che è l’usuale concezione presente nelle aziende manufatturiere:
- Quando l’operatore aspetta una macchina che sta eseguendo le sue attività, allora l’operatore sta
lavorando per la macchina;
- Quando invece, durante il ciclo della macchina, l’operatore si sposta per processare altri elementi
di lavoro, allora è la macchina che lavora per l’operatore.
Nella logica lean, la macchina deve sempre lavorare per l’operatore: tutte le risorse che stanno sugli
impianti per supervisionarli sono, a tutti gli effetti, uno spreco; al contrario, gli operatori devono giungere ai
macchinari solo ed esclusivamente nel momento in cui sono necessari.
98
Per ribaltare questa visione, è sufficiente installare, sulle macchine, dei sensori che siano in grado di rilevare
l’insorgere dei problemi, di allertare qualcuno e, se fattibile, di arrestare addirittura automaticamente la
macchina: il costo di questi semplici sensori, che consentono alle macchine di comunicare direttamente
l’eventuale presenza di un guasto, è quasi sempre inferiore al costo di un operatore dedicato all’impianto
(e, inoltre trattandosi di un controllo automatico, si ha la sicurezza di un’efficacia al 100%, cosa che
potrebbe non essere con l’operatore, al quale potrebbero sfuggire delle cose).
In definitiva, è possibile riassumere quelle che sono le linee guida per gli impianti da inserire all’interno di
una cella:
 Utilizzare impianti di piccole dimensioni, e dedicati ad una singola funzione, piuttosto che di grosse
dimensioni e multifunzione;
 Quando l’operatore necessita di utilizzare entrambe le mani per movimentare un componente, è
opportuno automatizzare anche la fase di scarico;
 Ove possibile, introdurre sistemi di automazione “ad un tocco”: l’operatore deve essere in grado di
caricare il pezzo nella macchina, dare l’avvio al ciclo e spostarsi;
 Evitare l’accumulo di lotti: idealmente, ogni impianto dovrebbe essere in grado di processare un
pezzo alla volta in un tempo inferiore al takt time;
 Adottare sensori per la segnalazione di condizioni di anormale funzionamento delle macchine: le
macchine devono essere al servizio dell’operatore (e non viceversa);
 Progettare il sistema secondo criteri di manutenibilità (adottare impianti facilmente accessibili per
attività di manutenzione e riparazione, che possano così essere sistemati rapidamente);
 In corrispondenza del processo peacemaker, definire dei dispositivi che permettano veloci set – up,
contenuti all’interno di un takt time.
DEFINIZIONE DEL LAY – OUT DELLA CELLA
Il passo successivo, consiste nel comprende come sia possibile organizzare la struttura della cella, in termini
di lay – out fisico, disposizione delle attrezzature e materiali.
L’approccio lean si basa sulla seguente idea: al di là di alcune linee guida di progettazione che è possibile
seguire, la situazione ideale è rappresentata dalla possibilità di lasciare, questa scelta, nelle mani
dell’operatore, in quanto è lui che dovrà poi, operativamente, lavorare all’interno della struttura; la logica
dovrebbe quindi essere quella di organizzare una prima struttura di “prova”, testarla, per poi poter
prevedere successive modifiche e miglioramenti.
Si tenga presente che non è possibile ragionare in termini di ottimizzazione: poiché, per principio, l’ottimo
non esiste (o, comunque, non può essere raggiunto), starà all’operatore contribuire a determinare
l’organizzazione della struttura, testarne la disposizione, individuare possibili opportunità di miglioramento,
implementarle e vedere se, effettivamente, portano ad una configurazione migliore; ovviamente, affinchè
tutto questo possa accadere, l’operatore deve essere stimolato da parte del management a pensare questi
cambiamenti, ed essere messo in condizione di poterli fare.
La sfida di questo principio, ad oggi, non è tanto nel mondo manufatturiero (all’interno del quale
l’importanza della “voce” del personale operativo risulta essere un elemento di rilevanza riconosciuta), ma
nel mondo dei servizi, dove il concetto di “progettazione del lay – out della cella” può essere mutuato a
quello di “realizzazione del software per il supporto delle attività”.
Nei servizi, difatti, gli applicativi sono proprio l’equivalente dell’ambiente di lavoro in uno stabilimento, in
quanto è attraverso questi che la risorsa umana può interagire con il cliente e/o soddisfarne le esigenze:
per questo motivo, è opportuno che sia disegnato sulla base delle esigenze e delle capacità di chi ci dovrà
99
operare, abbandonando, quindi, la logica tradizionale, che mira a progettarlo cercando di prevedere tutto
in anticipo, portando l’operatore a mettere in atto e ricreare quelle che sono le procedure e le regole
definite dall’alto; al contrario, la rivoluzione consiste nel realizzarlo in maniera flessibile, quindi
permettendogli di essere adattato e modificato al nascere e/o evolvere delle caratteristiche del contesto,
delle esigenze del cliente e dell’operatore.
Posto questo, limitando l’analisi ai contesti produttivi, il primo passo per arrivare ad una disposizione fisica
che rispetti i principi lean consiste nell’andare a separare, chiaramente, tutte quelle che sono attività di
spreco da quelle che, invece, sono a valore aggiunto.
In sostanza, si tratta di definire una configurazione tale da concentrare, ad un gruppo di operatori, tutte le
attività a valore aggiunto, ed ai restanti tutte le attività non a valore aggiunto; questo è fatto sì per
allontanare e tirare fuori il più possibile gli sprechi e, benchè non li si abbia eliminati, si è stati in grado di
cumularli tutti ad un certo gruppo di risorse, il che consente di:
- Identificare chiaramente tutto quello che è spreco, isolandolo e mettendolo da parte;
- Concentrare maggiormente le persone su quello che è il flusso di valore: quando, ad un operatore,
sono assegnate in parte attività non a valore aggiunto, ed in parte attività a valore aggiunto, è
difficile distinguere l’una e l’altra classe;
- Concentrando lo spreco su un più ridotto numero di persone, fare economie di scala su tale spreco:
queste risorse, troveranno senza dubbio un modo efficiente e migliore per gestire queste attività
non a valore aggiunto (cosa che sarebbe più difficile se, invece, ognuno si ritrova a fare solo una
piccola percentuale di esse).
Fatto questo, rientra nella progettazione del lay – out anche la gestione dei materiali: lavorando sulla
progettazione fisica della cella di linea, difatti, diventa indispensabile capire come sia più opportuno
realizzare un sistema di movimentazione dei componenti che permetta alla cella di avere i materiali in
corrispondenza del loro punto di effettiva utilizzo. Nel farlo, il principio fondamentale che deve essere
rispettato è il fatto che non deve esserci interruzione del ciclo di lavoro dell’operatore per il rifornimento
delle parti; questo, ad esempio, può essere ottenuto realizzando una movimentazione mediante una
scaffalatura a gravità con rullo:
Le parti dovrebbero essere rifornite in piccoli contenitori provenienti dall’esterno della cella e, dove
possibile, dovrebbero scivolare verso il punto di utilizzo con scaffalature a gravita o a cascata: in questo
modo, non è l’operatore che deve andare a ricercarsi i materiali, ma questi giungono ad esso mediante
delle “comode” corsie. Tali strutture, inoltre, sono progettate in modo tale che, quando un contenitore
vuoto vie tolto, il contenitore successivo scivola in posizione per andare di nuovo ad alimentare l’attività;
l’operatore, poi, fa scivolare tale contenitore vuoto in una scaffalatura di ritorno verso l’esterno della cella
100
o della linea: questo verrà preso in carico dal water spider, che si occupa anche della movimentazione dei
materiali, sgravando l’operatore del compito di gestire la disponibilità dei componenti sugli scivoli.
Nella nuova configurazione, quindi, non ci sono operatori che prendono o staccano loro stessi le parti ma,
per consegnare i componenti e portare via i prodotti finiti si usa quello che si è chiamato il “movimentatore
di materiali”, gestito secondo un percorso regolarmente schedulato e standardizzato (ad esempio, un’ora:
per quello si è fatto coincidere, tale figura, con quella del water spider); si ottiene, quindi, la seguente
situazione:
Detto questo, ed analizzate quelle che sono le linee guida generali per la gestione delle risorse, dei
materiali, e delle risorse umane, è possibile sfruttare alcune di esse per riprogettare il lay out fisico della
cella che, allo stato attuale
 Prevede un’eccessiva distanza percorsa
dall’operatore;
 Ha un interno della cella troppo ampio;
 Presenta una distanza troppo elevata tra punto di
inizio e punto di fine della cella (il che fa sì che, ogni
operatore, dovrà compiere lunghi percorsi per
giungere all’inizio del ciclo successivo);
 Tra ciascun impianto, ha un eccessivo spazio per
l’accumulo di materiali tra processi;
 Necessita di una modifica nell’attività di piegatura
del tubo, al fine di poterne caricare uno ad ogni
ciclo, eliminando il lotto da 25 pezzi necessario fino
ad ora;
 Mette il carrello di evacuazione per la piegatura
nella linea di cammino dell’operatore, ostruendolo.
È quindi necessario fare tutta una serie di cose quali, ad esempio, il tagliare il telaio della macchina di
piegatura per poterci far passare sotto il carrello di evacuazione (liberandone lo spazio occupato), il ridurre
lo spazio tra i macchinari, eliminando la possibilità di creare delle scorte, e la chiusura ad U della cella, di
modo da avvicinare il punto iniziale e finale. Tra questi interventi, tuttavia, di particolare interesse risulta
essere quello di come trattare le operazioni e le attrezzature batch (ovvero, tutte quelle attrezzature ed
operazioni che, per poter essere utilizzate, necessitano dell’accumulo di un certo numero di pezzi: ne è un
esempio la piegatura dei tubi per il caso dell’Apex, che si è risolta modificando il processo di carico, così
come il trattamento termico nel caso di alcune lavorazioni di materiali industriali, come la ceramica, che,
per essere effettuato, ha bisogno di un certo volume produttivo).
101
Sono possibili differenti soluzioni:
- Separare questi stadi dal flusso continuo, trattandoli come un processo orientato a lotti, e
gestendoli mediante un sistema supermarket pull o (meglio) buffer FIFO;
- Mantenerli all’interno del flusso continuo, se è possibile trasformare l’operazione di tipo batch
mediante un convogliatore, rendendo, così, l’attività, un’operazione di processo continua: ad
esempio, per i casi di riscaldamenti, raffreddamenti e formature, si può pensare di dotarsi di un
nastro trasportatore che, grazie alla rulliera, è in grado di far scorrere nell’attrezzatura di supporto i
pezzi con logica continuativa (ad esempio, nel caso del trattamento termico, si tratta di passare da
un forno che lavora per lotti, ad un forno più lungo, suddiviso in zone, ciascuna caratterizzata dalla
sua temperatura, nel quale scorrono, lungo il nastro, i prodotti che, via via, gli operatori caricano
dopo averli lavorati all’interno del takt time; in questo modo, l’attività non viene più svolta in logica
batch, ma su base continuativa: entrano ed escono delle unità ogni tempo di ciclo);
- Decidere di ignorare la capacità di produrre a lotti delle attrezzature, ed utilizzarle “a pezzo
singolo”; ovviamente, affinchè ciò sia possibile, il tempo di ciclo impiegato dalla macchina per
processare un solo pezzo deve essere inferiore al takt time;
- Sostituire la macchina che produce a lotti con una macchina (in genere, poco costosa) in grado di
produrre “a pezzo singolo”.
Riorganizzando la cella secondo le linee guida sopracitate, si ottiene, in definitiva, una configurazione
completamente diversa rispetto alla situazione di partenza:
LA DISTRIBUZIONE DEL LAVORO
Il processo fisico, a questo punto, risulta essere riordinato: bisogna ora arrivare ad integrare, al suo interno,
gli operatori che dovranno lavorarci.
Per farlo, bisogna anzitutto andare a definire il numero minimo di operatori di cui è necessario disporre:
Nel caso in esame, essendo il takt time pari a 40 secondi, ed il contenuto di lavoro riprogettato pari a 88
secondi, si ottiene un’esigenza minima di operatori di 2,2: poiché, in precedenza, ne erano impiegati 4,
significa che si ha quasi il 50% di opportunità di miglioramento.
102
Non potendo operare a decimi, senza migliorare in alcun modo i metodi gestionali, l’Apex dovrà dotarsi di
tre operatori per essere in grado di soddisfare la domanda del cliente; d’altra parte però, è chiaro che,
essendo 2,2 non molto lontano da 2, uno dei tre operatori si ritroverebbe a lavorare con una bassa
produttività: ecco quindi che, questa cella, potrà essere avviata con due operatori nel caso in cui, l’intero
team, sarebbe disposto a darsi questo come obiettivo e, quindi, a migliorare.
Ad ogni modo, è possibile tenere presenti le seguenti linee guida per determinare il numero di operatori in
una cella; se, il residuo nel calcolo degli operatori (dopo il paper kaizen):
 Risulta essere inferiore a 0,3, in linea di principio non di dovrebbe aggiungere un operatore
addizionale: al contrario, sarebbe opportuno guardare ad un ulteriore riduzione di spreco e di
lavoro accidentale, in modo tale da portare il contenuto di lavoro che determini un valore intero di
risorse;
 Risulta essere compreso tra 0,3 e 0,5, ancora una volta il principio è quello di non aggiungere un
operatore addizionale, ma di ricorrere (eventualmente) a straordinario: questo perché, lo
straordinario, ha proprio la funzione di dare, agli operatori, un messaggio di “eccezionalità”,
rendendoli più tesi e spinti al miglioramento, al fine di riuscire ad operare con quel
dimensionamento delle risorse senza dovervi più ricorrere (al contrario, mettere un operatore in
più, molto saturo, anche associato ad un obiettivo di miglioramento, rende il sistema molto meno
stressato e proteso al kaizen);
 Risulta essere superiore a 0,5, allora è opportuno aggiungere un operatore addizionale, comunque
continuando a ridurre lo spreco ed il lavoro accidentale per, un giorno, eliminare il bisogno di
questo operatore (non completamente saturo) nella cella.
Attenzione a prendere con le dovute cautele questi principi, che dipendono molto dall’ordine di grandezza
del quale si sta valutando il decimale: un conto è discutere se si abbia bisogno di 10 o 11 operatori, un
conto se di 2 o di 3!
Si può quindi dire che, tali linee guida, rappresentano un ottimo punto di riferimento in presenza di un
numero di operatori almeno oltre la decina; sotto, invece, la situazione va analizzata opportunamente.
Ad ogni modo, nel momento in cui è stato definito tale numero, il problema successivo consiste nel capire
come distribuire un contenuto di lavoro non pieno tra gli operatori; in tal senso, si è già avuto modo di
parlare (introducendo il Value Stream Mapping) di quelle che sono le differenze, nel fare questo, tra
l’approccio tradizionale e quello lean:
 La logica “classica”, quella di bilanciamento della linea, va a dividere uniformemente il contenuto
di lavoro tra gli operatori, al fine di soddisfare una condizione di equità tra gli operatori; questo,
tuttavia, ha la controindicazione, nel contempo, di distribuire anche gli sprechi e le attese tra gli
operatori (il tempo di ciclo di ciascuno di essi è correttamente bilanciato, ma ognuno di essi è
caricato solo parzialmente): questa pratica rende, quindi, più arduo il processo di eliminazione degli
sprechi, creando anche un potenziale per la sovrapproduzione;
103
 La logica lean, invece, va a ridistribuire gli elementi di lavoro in modo tale da caricare gli operatori
quasi per l’intero intervallo di takt a loro disposizione, andando così ad accollare la maggior parte
dello spreco di attesa sull’ultimo operatore, rendendo, così, evidente l’opportunità di
miglioramento (successivamente, difatti, una volta che la cella sarà in condizione di operare con un
operatore in meno, l’organizzazione potrà rendersi conto dell’effettivo risparmio di costo).
La realizzazione del precedente grafico, tuttavia, porta solo ad una distribuzione del lavoro in termini
percentuali (95% del takt time, 90% del takt time…), ma non dice nulla in termini di attività effettivamente
eseguite da ciascun operatore: bisogna capire, a questo punto, come andare ad allocare i singoli elementi di
lavoro (che derivano dalla riprogettazione mediante paper kaizen); anche in tal caso, i possibili approcci
sono molteplici.
Quello più “classico” è la divisione del lavoro, che porta ad assegnare, a ciascun operatore, alcune delle
attività necessarie alla realizzazione del prodotto; attenzione però: esistono diverse combinazioni di
divisione del lavoro!
Quella più immediata vuole una divisione “in sequenza”; ad esempio, su un ciclo di 8 attività:
- All’operatore 1 si danno le attività 1, 2 e 3;
- All’operatore 2 si danno le attività 4, 5 e 6;
- All’operatore 3 (più scarico) si danno le attività 7 e 8.
Fare questa cosa, in una cella ad U, significa introdurre una serie di sprechi relativamente alla distanza
percorsa da ciascun operatore:
104
L’operatore lavora il prodotto con le
attività assegnategli in sequenza di
ciclo, e poi torna indietro in attesa
dell’altro; tutta la distanza percorsa
senza eseguire alcuna operazione è
spreco: non è questa la
configurazione desiderabile per
l’approccio lean
Al contrario, nella divisione del lavoro è una buona idea quella di assegnare allo stesso operatore i primi e
gli ultimi elementi di lavoro nel flusso, del materiale, in quanto questo minimizza la distanza percorsa
“senza aggiungere valore”, oltre che a creare un effetto di andatura automatica per la cella intera:
Questa configurazione, inoltre, ha un altro grande vantaggio: poiché, il primo operatore, esegue la prima e
l’ultima attività del ciclo, ciò garantisce che, un nuovo pezzo, non verrà fatto entrare e cominciata la
lavorazione se, prima, non è stato ultimato quello precedente; in sostanza, tale risorsa svolge il ruolo di
metronomo della cella, garantendo:
1) Assenza di sovraproduzione;
2) Impossibilità di accumulo delle scorte;
al contrario, nella precedente configurazione, tutti i vari stadi della cella lavoravano i pezzi e li “buttavano
avanti”, essendoci lo spazio per poter accumulare dei pezzi: ora, questo non è possibile, non solo perché
non c’è spazio, ma proprio perché è razionalmente impossibile (il primo operatore non potrà continuare a
mandare avanti pezzi ad un ritmo superiore a quelli di uscita, essendo lui stesso a dettare il ritmo di uscita).
La logica di sottosaturazione di una risorsa, inoltre, consente che, nel caso in cui uno degli operatori
dovesse trovarsi in difficoltà nel rispettare il takt time, questi potrebbe intervenire a “dare una mano”; e
ancora, nel caso in cui dovesse, per caso, variare il volume di produzione:
- Se dovesse aumentare, si potrebbe far leva su una risorsa comunque non totalmente satura (o, al
limite, introdurne temporaneamente una aggiuntiva);
- Se dovesse diminuire, sarà necessario semplicemente togliere una risorsa (il takt time è
aumentato), andando a riallocare operazioni e percentuale di distribuzione nella stessa logica,
ottenendo una configurazione in grado di mantenere la stessa saturazione del caso precedente (a
livello produttivo diminuito).
105
Una seconda alternativa, anch’essa molto diffusa, è quella del circuito, che porta ad assegnare, a ciascun
operatore, tutti gli elementi del ciclo di lavoro, facendo tuttavia partire il successivo operatore prima che
quello precedente abbia terminato (come ovvio, altrimenti non si avrebbe la possibilità di rispettare il takt
time):
I vantaggi di questa soluzione sono:
- Offre un effetto di andatura naturale;
- È di facile implementazione;
- Può ridurre le distanze di spostamento nel momento in cui gli operatori si trovano ad affrontare un
percorso di ritorno breve per avviare il successivo ciclo al completamento del circuito;
- Aumenta automaticamente la rotazione del lavoro, e lo rende più interessante;
tuttavia, bisogna tenere conto che:
- È una soluzione generalmente limitata a due operatori, in quanto risulta difficile coordinarne di più;
- Generalmente non funziona se più del 40% del contenuto del lavoro di un operatore viene
effettuato in una singola postazione di lavoro, in quanto gli operatori si caricheranno alla stazione
ad alto contenuto;
- È richiesta la presenza di operatori specializzati e qualificati per far funzionare ogni elemento
(esecuzione dell’intero ciclo, utilizzo delle apparecchiature, realizzazione dei controlli qualità…).
REGOLAZIONE DEL FLUSSO
Integrate le risorse umane, i materiali, i macchinari ed i metodi per la progettazione di un flusso continuo,
occorre, infine, come programmare la cella e come prevedere una sua reazione al fine di gestire eventuali
variazioni nella domanda da parte del cliente finale: non è difatti realistico aspettarsi che la domanda del
cliente risulti essere perfettamente livellata, così come non è realistico aspettarsi che sia costante la sua
richiesta di mix.
Nel caso in cui i volumi richiesti dal cliente, sul processo peacemaker (la cella) si dimostrassero avere delle
variazioni notevoli su periodi molto lunghi, si dovrà inevitabilmente adattare la capacità produttiva per farvi
fronte (manodopera, macchinari, materiali); per la tipologia più frequente di “picchi e valli” nella domanda,
invece, a fronte di una richiesta di lungo termine abbastanza stabile, per gestire questa fluttuazione sarà
possibile andare a realizzare un supermarket di prodotti finiti da interporre tra lo stadio pacemaker ed il
cliente, il che permette, alla cella, di livellare molto più la domanda ed essere in grado di soddisfare meglio
le esigenze del cliente:
106
In tal senso, però, risulta opportuno andare a distinguere quelle che sono le tre differenti tipologie di scorte
che possono essere previste all’interno di tale magazzino:
 Le scorte di ciclo, che dipendono dal fatto che, chi sta a monte, non consegna in modo
continuativo, ma in base ad un ciclo di ordini che arriva periodicamente da parte dello stadio a valle
(si effettua un riordino ogni certo periodo: le scorte di ciclo servono proprio a coprire questo
intervallo temporale);
 Le scorte di buffer che, invece, sono finalizzate ad assorbire la variabilità e le possibili fluttuazioni
della domanda;
 Le scorte di sicurezza, infine, sono quelle unità che si stoccano per proteggersi dal fatto che, chi
effettua l’approvvigionamento, potrebbe generare dei problemi (difettosità, ritardi…).
In una struttura lean, il punto chiave nella realizzazione del magazzino, consiste nel separare chiaramente
queste tre categorie, di modo che sia possibile identificarle in maniera univoca; benchè, questo, appare
illogico dal punto di vista dell’efficienza (trattandosi di medesime unità, separarle in tre blocchi significa
dimensionare un quantitativo di scorta maggiore, rispetto al caso in cui, i tre problemi, vengano uniti e
dimensionati contemporaneamente, potendo sfruttare degli effetti di correlazione e compensazione), è del
tutto in linea con i principi del miglioramento continuo: si può pensare di separarle perché, in realtà, un
livello ottimale e minimo di scorta non esiste (o meglio, esiste ed è il valore nullo), e l’interesse è quello di
ridurle quanto più possibile; ecco quindi che, l’approccio più ragionevole, sembrerebbe proprio quello di
partire da un livello “ragionevole”, che consente di non avere problemi ed operare in maniera sostenibile,
per poi migliorare gradualmente.
In particolare, la separazione consente proprio di identificare eventuali problemi, capendo cosa si sta
riducendo e cosa no e dove, eventualmente, si ha necessità di intervenire; che tipologia di scorta si è
prelevata?
- Nel caso in cui sia stato effettuato un prelievo ordinario (scorta di ciclo), allora è tutto nella
normalità;
- Nel caso in cui sia stato effettuato un prelievo a causa di una variazione della domanda (scorta di
buffer), occorrerà andare a capire le motivazioni e la natura di questa fluttuazione;
- Nel caso in cui sia stato effettuato un prelievo a causa di una disruption di qualunque natura (scorta
di sicurezza), occorrerà andare a comprendere motivazioni e caratteristiche di tale evento;
la stessa cosa in termini di miglioramenti (che risultato è stato ottenuto? Un miglioramento della qualità del
fornitore potrebbe portare a diminuire la quantità di scorte di sicurezza; un miglioramento nella gestione
della domanda cliente potrebbe portare a diminuire la quantità di buffer stock…).
107
Infine, occorre focalizzare l’attenzione proprio sull’aspetto della variabilità: molti stabilimenti sono soggetti
a piccole fluttuazioni giornaliere della domanda, in quanto il cliente può richiedere, all’interno di una
domanda stabile nel lungo periodo, un poco più oggi ed un poco meno domani; come detto, queste piccole
fluttuazioni vengono gestite al meglio con l’uso di un supermarket di prodotti finiti, che permette ai
responsabili di definire il takt time, di organizzare il numero di operatori e gestire il flusso continuo su
periodi estesi.
Nel caso però in cui cambi propriamente il valore medio della domanda cliente (e, con esso, il takt time), il
processo pacemaker dovrà essere organizzato in modo tale da poter reagire; il sistema deve essere in grado
di rispondere opportunamente ad una variazione della domanda, in quanto
 Nel caso in cui si abbia una diminuzione del valore medio, senza alcun intervento gestionale,
mantenendo inalterato il numero di operatori, si avrebbe un tracollo della produttività, nonché
aumenteranno le premesse per la sovrapproduzione (proprio perché gli operatori, maggiormente
insaturi, saranno portati a massimizzare la loro produttività);
 D’altra parte, nel caso in cui si abbia un aumento del valore medio, senza alcun intervento
gestionale, il takt time della cella diminuirà e, senza alcun intervento gestionale (aggiunta di
personale, capacità macchina…), potrebbe non essere più in grado di continuare a produrre
rispettando tale ritmo.
La necessità periodica di aumentare / ridurre il numero di risorse è una delle ragioni principali per le quali le
celle sono utilizzate mediante una struttura ad U stretta: la grande varietà di schemi di spostamento che
questa configurazione offre apre numerose opzioni per ridistribuire (a seguito di queste variazioni) le
attività lavorative su un numero diverso di operatori.
In sostanza, nel progettare la cella, è sempre necessario preparare delle “analisi per scenario”, che
consentano alla struttura di rispondere opportunamente ad eventuali a cambi di volume della domanda; si
tratta, quindi, di disegnare dei diagrammi di carico per il numero attuale di operatori previsto, ma anche
per configurazioni con più o meno risorse.
La cella diventa una sorta di “interruttore”, perché può modificare la sua struttura ed il suo livello di
produzione variando il numero di operatori in essa attivi in risposta alle variazioni della domanda cliente;
ogni operatore, quindi, è tenuto a conoscere l’organizzazione (configurazione, allocazione delle attività,
valore del takt time, suddivisione delle attività…) per ogni possibile scenario predefinito: in questo modo, si
ha la possibilità di cambiare, ma muovendosi da una situazione standard ad un'altra situazione standard; si
gestisce la dinamicità del sistema spostandosi tra standard noti e già conosciuti.
Obiettivi dei sistemi Lean: Level and Pull
Agganciandosi al tema della variabilità, affrontato nell’ultima parte del paragrafo precedente, risulta
opportuno spendere un approfondimento per comprendere come sia possibile, in un’azienda
manifatturiera progettata in ottica lean, gestire la variabilità ed i cambiamenti nelle richieste al sistema. Per
farlo, si consideri la seguente azienda, caratterizzata da sette diversi stadi produttivi finalizzati alla
produzione di specchietti retrovisori, per la quale è stata realizzata la current state map dal punto di vista
del flusso dei materiali, riprogettata in ottica future state:
108
Nella riprogettazione, l’unico aspetto che non è stato toccato è quello relativo alle modalità di
programmazione: essendo un punto di grande impatto sul sistema, in quanto si occupa di integrare le
modalità di azione dei differenti attori, si è deciso di non modificarlo (per ora); ecco quindi che, anche a
valle della revisione, si ha una programmazione distribuita sui tre stadi caratteristici, che operano, così, in
logica push.
Questa modifica gestionale e fisica (in termini di lay – out), inizialmente ha consentito di ottenere dei
miglioramenti che, tuttavia, sono risultati essere solo di breve termine (quindi, non sono perdurati nel
tempo): dopo un certo periodo, difatti, si è tornati indietro. Ciò era accaduto perché, nell’effettuare le
considerazioni relativamente alla riprogettazione, non era stato effettuato un dovuto approfondimento con
riferimento alle caratteristiche della domanda; si guardi, difatti, a quella che è la variabilità in termini di
volumi e di mix:
109
Si può osservare come, benchè la domanda aggregata vari in un range che va da 550 a 450 unità (in modo
relativamente stabile), il mix (considerando i dieci prodotti più venduti) al contrario, abbia una variazione
molto più significativa.
Questo non è tutto; se si estende l’analisi andando a vedere come, tale domanda, si distribuisce lungo la
catena interna dell’azienda, ciò che si verifica è un fenomeno interessante:
La variazione nel volume di domanda, e nella composizione del mix, si amplifica sempre di più procedendo
a ritroso tra i vari reparti, fino ad arrivare al fornitore più esterno; questo è noto come “effetto bullwhip”,
che dice proprio che, a causa di eventi quali
- Politiche gestionali definite da ciascuno stadio;
- Ritardi temporali e differenze in termini di lead time;
- Eventi imprevisti (scarti, difettosità, guasti…);
- Politiche di gestione del rischio;
- Sistemi di previsione;
- …
Fanno sì che, la variabilità della domanda, aumenti lungo la filiera, man mano che ci si allontana dal
mercato finale e si risale verso la catena di fornitura: accade così che, lo stadio prossimo al mercato,
percepisce la reale domanda del cliente finale (in genere abbastanza stabile o quantomeno prevedibile)
mentre, quelli più a monte, sono soggetti ad una domanda apparentemente fuori controllo, con oscillazioni
amplificate. Questo fa sì che, poiché le prestazioni di efficienza e livello di servizio di ciascun attore
dipendono dalla variabilità della domanda, in presenza di un effetto bullwhip, gli stadi e le aziende più
lontane dal mercato offrono performance peggiori.
A fronte di questo fenomeno, l’approccio gestionale tradizionale propone alcune soluzioni, quali:
 Condivisione dell’informazione e visibilità: dare a tutti gli attori la possibilità di vedere i dati reali di
domanda, di monitorare lo stato di avanzamento degli ordini e dei materiali lungo la filiera, nonché
di avere informazioni relative alle scorte presenti nei diversi stadi, attenuando così l’effetto “filtro”
fatto da ciascun reparto;
 Integrazione e collaborazione tra i vari stadi;
110
in tutto questo, ovviamente, il fattore enabler è rappresentato dalle tecnologie dell’informazione, che
favoriscono questi processi.
Si provi, tuttavia, ad assumere un’ottica differente, e ad adottare un approccio diverso: poiché fornire
informazioni, integrarsi e collaborare sono tutte attività che hanno un loro costo, e che sono realmente
efficaci, a livello di sistema, solo in presenza di un grande big player in grado di dettare il ritmo all’intero
stabilimento (e, inoltre, hanno il limite di basarsi su un obiettivo di ottimizzazione e pianificazione di un
sistema troppo complesso per poterlo fare), è possibile pensare di volgere lo sguardo ad altre soluzioni.
In particolare, con riferimento allo schema precedente, quello che si deve capire è che, la domanda che
attraversa la filiera, non risulta essere tutta della medesima natura:
 La domanda finale, proveniente dal mercato, risulta essere domanda indipendente, nel senso che,
provenendo dal cliente, risulta essere più difficilmente controllabile e influenzabile;
 Le domande “intermedie”, invece, tra uno stadio e l’altro, sono domande dipendenti, le cui
caratteristiche sono determinate dalla Supply Chain stessa, e dal modo in cui essa è gestita ed
organizzata; proprio per questo, però, è anche quella più facilmente modificabile ed influenzabile,
potendola portare verso una situazione maggiormente desiderata.
Posto questo, ciò che bisogna fare è tentare di lavorare per livellare e rendere stabile la domanda
dipendente, che causa il degrado di prestazione dei vari stadi: andando a lavorare su quelle che sono le
cause che determinano l’amplificazione della variabilità (attenzione: andando ad eliminarle, quindi evitare
che si verifichino, e non mettendo il “tampone” della visibilità e dell’integrazione per cercare di contenerne
gli effetti), e che sono strutturali nel sistema, si eliminano, di conseguenza, le problematiche: se i tempi di
consegna sono deterministici, ciascuno stadio non avrà esigenza di tenere delle scorte di sicurezza per
cautelarsi da possibili disruption; se si dà certezza sul livello di riordino, sulla frequenza di riordino, e sui
tempi di consegna, la domanda è completamente prevedibile e stabile: non c’è alcun bisogno di visibilità,
condivisione dell’informazione ed investimenti in coordinamento.
L’obiettivo è quello di arrivare ad una domanda dipendente di tipo level pull: ogni stadio sa esattamente
quando e quanto lo stadio successivo effettuerà il riordino (livellamento), sebbene possa comunicare,
anche all’ultimo, la composizione di quel riordino (pull); in sostanza, deve essere raggiunta una flessibilità
tale che, ogni stadio, deve permettere a quello immediatamente a valle di comunicare all’ultimo momento
la composizione del mix richiesto in cambio, tuttavia, di ricevere un ordine livellato (per capire, con un
esempio: lo stadio cliente X ordina sempre 100 pezzi ogni due giorni, e questo è il target per livellare;
d’altro lato, lo stadio fornitore Y deve ripagare questo livellamento mettendo a disposizione una flessibilità
tale da permettere allo stadio X di variare il mix richiesto fino a 8 ore prima della conferma definitiva
dell’ordine); solo una configurazione di questo tipo consente di minimizzare la quantità di scorte presenti
nel sistema.
Benchè sembri paradossale, però, per arrivare a gestire opportunamente la domanda dipendente,
arrivando a questa configurazione ideale, bisogna anzitutto capire come gestire la domanda indipendente
proveniente dal cliente finale: il prerequisito, difatti, per poter creare un sistema level pull, è la possibilità di
riuscire a smorzare qualunque possibile fluttuazione proveniente dalle richieste di mercato, che sono il
primo fattore di “caos” all’interno dell’organizzazione della produzione e dello stabilimento.
Per fare questo, la soluzione più opportuna è rappresentata dalla possibilità di mettere un buffer
supermarket di prodotti finiti finalizzato all’assorbimento della variabilità:
111
Ma non si è detto che, le scorte, sono uno dei sette sprechi peggiori nel lean manufacturing? Perchè, allora,
istituire uno “spreco” per assorbire un fattore che non si riesce a gestire?
La risposta a questa domanda è semplice: poiché, non avere una quantità sufficiente di scorta, potrebbe
creare conseguenze peggiori che prevedere un magazzino di prodotti finiti (ritardi, insoddisfazione,
necessità di “correre”, attese, ricorso a straordinario…), il “male minore” è proprio rappresentato
dall’istituzione di un magazzino con queste finalità. D’altra parte però, se questo consente di costruire un
sistema che, a monte del buffer, è totalmente livellato, ha dei lead time contenutissimi, nessun vincolo di
capacità produttiva, nessuna scorta intermedia, tali vantaggi controbilanciano l’inefficienza della scorta
finale; e ancora, una volta costruito un sistema effettivamente level pull (corretta gestione della domanda
dipendente), si potrà pensare di andare a migliorare la gestione di quella indipendente, andando a lavorare
con il cliente con l’obiettivo di ridurre progressivamente le scorte nel buffer finale.
Le scorte, quindi, non sono un bene ma, in questo caso, sono un elemento necessario: le si istituisce e
mantiene fino a che, un giorno, non si sarà lavorato in modo tale da riuscire a smorzare “naturalmente”
non solo la domanda dipendente, ma anche quella finale. Poiché, questo buffer, serve a proteggere tutta la
filiera, ed è istituito proprio per poter livellare e rendere pull la domanda a ritroso, dovrà essere pagato
dall’intera Supply Chain: si tratta, progressivamente, di spostare le scorte tutte a valle dello stadio finale, in
modo tale che possano essere completamente assorbite le fluttuazioni.
GESTIONE DELLA PRODUZIONE E DELLE SCORTE
Per arrivare alla configurazione desiderata, occorre rispondere a tutta una serie di domande; le prime tre
riguardano, nello specifico, la gestione della produzione e le caratteristiche del magazzino finale.
La prima porta a chiedersi: qual è la logica di produzione più adatta per ciascun prodotto?
112
In genere, l’approccio classico, porta a ragionare nel seguente modo: nel caso in cui si sia in grado di
realizzare l’ordine in un tempo compatibile con quello richiesto dal cliente, dopo averne ricevuto
comunicazione, allora sarà possibile lavorare in MTO; altrimenti, non si avrà altra scelta che andare a
produrre per un magazzino prodotti finiti.
Si provi, però, a ragionare in un altro modo: si supponga di condurre un’analisi ABC sui codici realizzati,
distinguendoli in tre categorie:
 Prodotti di tipo runners, caratterizzati da alti volumi ed alta frequenza di richiesta (generalmente,
ogni giorno);
 Prodotti di tipo repeaters, caratterizzati da volumi medi, e frequenza di acquisto più sporadica
(generalmente, massimo 1 – 2 volte la settimana);
 Prodotti di tipo strangers, caratterizzati da bassi volumi, e frequenza di acquisto estremamente
rara.
A fronte di questa classificazione, si può quindi pensare di gestire, ciascuna categoria, con una particolare
logica di produzione.
La prima, e più semplice, soluzione, consiste nel realizzare un sistema di tipo replenishement pull:
Come evidente dalla rappresentazione e dalla descrizione, si tratta di inserire tutte le categorie (A, B, C) in
magazzini prodotti finiti di tipo supermarket, che consentono di consegnare istantaneamente ai propri
113
clienti, pagando tuttavia lo svantaggio con un alto livello di scorte (ogni prodotto presente nella gamma
deve essere presente all’interno del supermarket).
La seconda alternativa, invece, consiste nel fare tutto su ordine, realizzando un sistema di tipo sequential
pull:
Ricevuto l’ordine da parte del cliente, questo viene inviato al programmatore della produzione, livellato, e
gestito nel sistema attraverso una serie di code FIFO; al contrario del caso precedente, si hanno pochissime
scorte nel sistema (le code FIFO hanno una dimensione contenuta, il che ha, come prerequisito, la
possibilità di accoppiare fortemente gli stadi), ma si deve essere in grado di rispondere al cliente in un
tempo compatibile con quanto da lui richiesto; inoltre, una qualunque variazione della domanda finale, si
traduce in un’elevata probabilità di ritardi nella produzione.
La terza soluzione comincia a distinguere le classi, in quanto prevede di tenere a scorta i soli prodotti di tipo
C (richiesti in bassi volumi), realizzando, invece, su ordine quelli A e B: in questo caso, l’obiettivo è quello di
minimizzare la quantità di scorte dei prodotti richiesti in alti volumi; per renderlo sostenibile, tuttavia, si ha
la necessità che, ogni stadio, abbia sempre la disponibilità di componenti per poter effettivamente
realizzare i codici di tipo A e B come previsto dal piano degli ordini. Inoltre, come nel caso del sistema
sequential pull, realizzando su ordine i prodotti dai volumi più grandi, una variazione (anche non elevata)
nella loro domanda si tradurrà in impatti sul sistema e ritardi imponenti.
La quarta soluzione, invece, è opposta alla precedente, in quanto si tratta di tenere a scorta i codici A e B, e
realizzare in MTO quelli strangers di tipo C: in questo modo, i vantaggi / svantaggi sono duali rispetto al
caso precedente, con il magazzino prodotti finiti finalizzato ad assorbire la domanda sui prodotti dal volume
significativo, destinando la produzione su ordine a quelli richiesti più raramente.
Entrambe queste ultime due soluzioni realizzano un sistema pull misto, all’interno dei quali diverse classi di
prodotto non vengono gestite allo stesso modo, ma differenziati in base alle caratteristiche della loro
domanda ed alla frequenza di riordino:
114
Definito questo, la seconda domanda consiste nel capire: quanta scorta mettere in ciascun magazzino per
ciascuna tipologia di prodotto?
Qua si ritorna alla distinzione di cui già si era parlato nell’ambito della riprogettazione delle celle:
 La scorta di ciclo dipende dalla domanda media e dal tempo di approvvigionamento (sono, difatti,
le scorte che occorre tenere in quanto, il sistema, produce con una frequenza inferiore alla richiesta
del cliente);
 La scorta di buffer dipende dalla variabilità della domanda (difatti, si tratta di una scorta
dimensionata su base statistica, che consente di cautelarsi da possibili variazioni nella domanda);
 La scorta di sicurezza deve cautelare dal funzionamento dei processi del fornitore (occorre, infine,
coprirsi da tutti quegli elementi più “rari”, che possono derivare da eventuali disruption dello stadio
a monte; notare come, tali scorte, sono pensate per cautelare il caso peggiore in una logica
“ragionevole”);
si può, quindi, pensare di calcolarle nel seguente modo:
115
Queste formule, come ben si può osservare, non sono né generali, né complete; tuttavia, il principio sui cui
si fondano è sempre il solito: meglio avere poche scorte, calcolate in maniera “grossolana”, piuttosto che
un’ingente quantità ottimizzata.
Si noti, in particolare, l’impatto della frequenza di riordino: raddoppiare tale valore significa andare
esattamente a dimezzare le scorte di ciclo e, di conseguenza, tutte le altre categorie (calcolate come
percentuali delle stesse); è quindi un aspetto fondamentale andare a lavorare con il fornitore, proprio al
fine di riuscire ad aumentare, quanto più possibile questa frequenza.
Infine, bisogna chiedersi: come viene organizzato e controllato il magazzino?
Come già detto, in termini di organizzazione, ciò che risulta fondamentale fare è mantenere ben distinte le
tre tipologie di scorta, al fine di identificare chiaramente dove si preleva, quando si preleva, perché si
preleva ed eventuali miglioramenti.
In genere, una efficiente gestione dei magazzini prevede, mediante l’ausilio di un software informatico,
prevede una locazione automatica delle parti che devono essere stoccati: al fine di ottimizzare
l’occupazione di spazio, per stoccare un prodotto, si va a verificare quella che è la prima cella libera, e lì si
andrà ad inserire il codice; questo, tuttavia, contraddice il principio precedente in quanto, qualunque
categoria, relativa a qualunque codice, potrebbe trovarsi in qualunque parte del magazzino (e, per essere
identificata, si dovrebbe consultare il software).
Per questo motivo, l’approccio lean predilige un secondo metodo gestionale, quello delle “location
dedicate”: benchè più inefficiente (in quanto, per ogni categorie cycle stock, buffer stock e safety stock, per
ogni tipologia di prodotto, lo spazio da dedicare dovrà essere dimensionato sulla previsione di massimo
stoccaggio, anche se quasi mai presente; ciò significa prevedere, spesso, spazi vuoti), rappresenta il
prerequisito per poter ridurre le scorte e migliorare il sistema; meglio quindi avere un magazzino di
dimensioni contenute, gestito in logica inefficiente, che un supermarket ottimizzato negli spazi ma grande n
volte tanto! In questo modo, quindi, per ogni parte, si sanno esattamente quelle che sono le unità di scorta
di ciclo, di buffer e di sicurezza e, nel caso di utilizzo, si ha così la possibilità di far emergere chiaramente
quello che è il problema in cui si è incorsi.
Questa ultima considerazione porta ad approfondire le possibili modalità di controllo, che devono
prevedere che:
 Ogni qual volta venga effettuato il prelievo di un’unità che non sia scorta di ciclo, ma safety stock,
occorrerà ricevere l’autorizzazione da parte del responsabile del plant manager: in questo modo,
difatti, si ha la sicurezza che, a tale responsabile, viene portata all’attenzione la presenza di un
problema (è stato effettuato un prelievo perché si è incorsi in un ritardo di consegna da parte del
fornitore, in una partita eccessivamente difettosa…), che egli dovrà farsi carico di analizzare e, se
possibile, risolvere;
 Ogni qual volta venga effettuato il prelievo di un’unità che non sia scorta di ciclo, ma buffer stock,
occorrerà ricevere l’autorizzazione da parte del controllo della produzione: in questo modo, difatti,
responsabile delle operations e della programmazione si occuperanno di analizzare il motivo per
cui, quel prelievo, è avvenuto, in particolare se in seguito ad una variazione casuale della domanda
(e, quindi, normale e non gestibile: oggi il cliente ha domandato X + 20, domani domanderà X – 2,
riportando, in media, il magazzino), oppure anomala, sintomo che, qualche cosa, potrebbe essere
in cambiamento (ovvero, questa fluttuazione potrebbe non compensarsi con le successive, il che
116
significa esigenza di prendere opportune contromisure: aumentare il livello di produzione, avvisare
i fornitori, aumentare il livello di ripristino…);
ancora una volta, come tipico dei sistemi lean, l’obiettivo del controllo è, anzitutto, quello di rendere chiara
la differenza tra quella che è una situazione normale e quella che è una situazione anormale, in quanto è
quest’ultima che può offrire l’opportunità per un miglioramento.
Ancora una volta, il sistema è costruito con l’obiettivo di rendere assolutamente chiaro ciò che è “normale”
e ciò che è “anormale”, in quanto si tratta di eventi che dovranno essere trattati in maniera totalmente
differente; ovviamente, tale finalità può essere raggiunta se e solo se, l’organizzazione e le procedure, sono
state definite in modo tale da non far “pesare”, ed avere conseguenze negative sulle persone, il fatto di
“fare qualche cosa di anormale”: come più volte detto, bisogna abbandonare il tradizionale approccio di
comando e controllo (dove, la responsabilità, ricade sempre sulle persone e sul loro modo di affrontare le
cose: lo sbaglio è quindi punito e, le singole risorse, cercano di fare di tutto per nasconderlo), diffondendo
un principio volto alla condivisione ed alla manifestazione degli errori proprio perché, ognuno di questi
eventi, rappresenta una possibile opportunità per il miglioramento.
Infine, è interessante sottolineare il “sofisticatissimo” metodo che viene implementato per controllare il
livello di queste scorte: semplicemente, alla fine di ogni turno, un addetto si farà carico di andare a
quantificare il livello di scorte rimanente, segnandolo nell’apposito spazio previsto sullo spreadsheet
corrispondente; si è quindi stati in grado di costruire un sistema così semplice, da poter effettuare un
controllo “a mano”, potendo, quindi, prescindere da qualunque tecnologia informatica (RFID). L’approccio,
ancora una volta, si è ribaltato: non si ragiona più in termini di “si utilizza l’informatizzazione per poter
gestire un sistema complesso”, bensì “si costruisce il sistema più semplice possibile, in modo tale da poter
ovviare a queste tecnologie” (ovviamente, comunque, nel caso in cui lo si voglia, nulla vieta di andare ad
utilizzare l’RFID: potenzialmente, però, non se ne avrebbe la necessità).
DARE IL RITMO ALLA PRODUZIONE: LA CREAZIONE DEL PACEMAKER
A questo punto, la domanda successiva da farsi consiste nel chiedersi: dove programmare il flusso? Che tipo
di sistema pull realizzare?
Anche dopo la riprogettazione, alla Apogee, il fatto di avere mantenuto un processo di pianificazione
centralizzato, che invii settimanalmente, i piani di produzione ai vari reparti, in modo tale da mantenere
costante il livello del magazzino, genera dei disallineamenti: non è mai possibile prevedere tutte le possibili
evenienze, il che fa sì che, spesso, si generino eventi inattesi che “obbligano” i reparti a coordinarsi e ad
interagire telefonicamente per capire come far fronte alla situazione imprevista. Tutto ciò, ovviamente,
oltre che a creare scompiglio, ha l’indesiderata conseguenza di rendere molto più variabili le prestazioni: in
sostanza, quindi, una schedulazione destinata a più punti nel sistema, basata su previsioni spesso sbagliate,
determinano
- Alti tempi di risposta (è un circolo vizioso: lo sbaglio nella previsione aumenta il tempo di risposta, e
l’aumento del lead time spinge sempre più ad operare su previsione);
- Una produzione in grandi lotti (ovvero, non si è in grado di produrre esattamente quanto richiesto
dal cliente);
- Un focus delle performance a livello di funzione (il che può causare comportamenti che risultano
essere in contrasto con gli obiettivi complessivi).
117
È proprio per questo motivo che, come già detto in precedenza, il sistema deve essere trasformato da
“push” a “pull”, per il quale occorre definire il pacemaker, ovvero quell’unico punto in corrispondenza del
quale verrà schedulata la produzione; in particolare:
 Per tutti quei prodotti che sono inseriti in un sistema di tipo replenishement pull (alti volumi, alta
rotazione), in genere, lo stadio “metronomo” risulta essere la fase di assemblaggio finale (o
similari), con tutti i reparti a monte che reagiscono alle istruzioni di tale stadio;
 Per tutti quei prodotti che sono inseriti in un sistema di tipo sequential pull (bassi volumi, richieste
sporadiche e tempo di attraversamento in linea con quello richiesto dal cliente), in genere, lo stadio
“metronomo” risulta essere il primo reparto del processo a flusso, che coordina, poi, l’attività di
tutti i successivi; in questo caso, come visto, il prodotto procede attraverso una logica di corsie FIFO
tra i vari reparti: sono proprio queste corsie a controllare la sequenza in cui, i vari stadi, devono
produrre, che avanzano in base al ritmo definito dal primo stadio. Ovviamente, nulla vieta di
definire, come pacemaker, uno stadio più avanzato di quello all’inizio del flusso: tuttavia, in un caso
di questo tipo, bisogna tenere conto del fatto che, a monte di tale stadio, sarebbe necessario
operare attraverso dei magazzini di tipo supermarket.
Attenzione però: come visto, un sistema non può essere solo “replenishement” o “sequential” ma, queste
organizzazioni, possono coesistere, creando un “mixed pull systems”; in casi di questo tipo, bisogna fare
particolare attenzione a definire chiare regole di priorità su ciascun reparto, per evitare che, i diversi ordini
e segnali, creino confusione nel processo.
Definito il “metronomo”, il passo successivo consiste nel chiedersi: come livellare la produzione in
corrispondenza del pacemaker?
Per livellare la produzione, è possibile agire su due variabili: volume e mix; entrambe, ad ogni stadio,
devono essere attentamente prese in considerazione ed analizzate.
Attualmente, alla Apogee, non si ha alcun livellamento (anche perché, in origine, non era stato previsto
alcun pacemaker): a fronte di un certo andamento della domanda, corrisponde un andamento,
completamente differente, della produzione, che dipende dalle politiche di lottizzazione definite da
ciascuno stadio (ad esempio, una domanda di 140 unità di prodotto 14509 di classe A, genera una
produzione di 500 unità di tale prodotto, in quanto questo è il lotto minimo di produzione che, la cella di
assemblaggio, ha previsto).
118
Questo genera una grossa inefficienza, che si propaga lungo tutta la Supply Chain interna:
Il cliente avrebbe bisogno di uno specchietto
destro ed uno sinistro; in realtà, l’ordine minimo
che l’azienda richiede è di 10 S + 10 D. per
realizzare questa quantità:
1. L’assemblaggio lottizza in quantità 500;
2. La verniciatura lottizza in quantità 1000;
3. Lo stampaggio lottizza in quantità
Questo accade perché, la visione produttiva vede il set – up come una grossa inefficienza aziendale, in
quanto causa perdita di produttività; per farvi fronte, tuttavia, nel caso in esame, la logica utilizzata è quella
di aumentare la dimensione del lotto di ciascun prodotto realizzato, il che minimizza la perdita di
produttività sul singolo stadio, ma induce tutta una serie di altri costi negli altri (aumento delle scorte,
ritardi, obsolescenza, impossibilità di individuare eventuali problemi…).
D’altra parte, senza modificare la visione del set – up come inefficienza e perdita dio produttività, è
possibile approcciare il problema in altro modo: invece che considerare, tale tempo, come una variabile
data, cercando di andare ad agire sulle logiche produttive per contenerne i costi (aumento dei lotti), ciò che
bisogna fare è lavorare per ridurre il tempo di attrezzaggio di produzione, minimizzando, così, le
inefficienze complessive del sistema (e non solo a livello di singolo stadio).
Questo è proprio il punto di partenza per poter livellare il mix produttivo sul peacemaker; la riduzione dei
tempi di set – up, difatti, non è fatta per produrre di più (il takt time non è variato), ma per produrre più
frequentemente: per ogni prodotto realizzato dallo stadio “metronomo”, difatti, bisogna essere in grado di
organizzarsi in modo tale da rendere minimo l’EPE (“every part every…”).
In generale, tanto più frequente è l’EPE interno, quanto più si è in grado di realizzare il volume richiesto nel
giusto mix di componenti, essendo quindi sicuri di consegnare, tali prodotti, “on time” allo stadio più a
valle. Come ovvio, l’aumento del lotto di produzione diminuisce la probabilità di riuscire a consegnare “il
giusto prodotto al tempo richiesto”; al contrario, la combinazione dell’intervallo di EPE più idoneo con le
capacità produttive di ciascuno stadio determina un miglioramento delle prestazioni di consegna verso il
reparto più a valle. Il tradizionale approccio di organizzazione della produzione, basato sul calcolo del “lotto
economico”, risulta essere fortemente disallineato con quelli che sono i principi lean: esso, difatti,
determina un livello “ottimo” che è solo funzione del costo di produzione che ne scaturisce, senza in alcun
modo considerare le possibili esigenze di cambiamento di mix da parte dello stadio cliente (si irrigidisce la
produzione per perseguire l’efficienza locale, senza tuttavia tenere conto delle conseguenze che, questa
bassa flessibilità, ribalta sugli stadi a valle).
119
Il fatto di riuscire a mettere in produzione, i prodotti finiti, più frequentemente, accorcia notevolmente i
tempi di attraversamento e, con ciò, il livello di disaccoppiamento tra i reparti: nel caso della Apogee,
andare a lavorare per ridurre i set – up della cella di assemblaggio, consente di ottenere una diminuzione
dell’80% delle scorte di prodotti A, e del 60% per le scorte di prodotti B.
Quindi, a prescindere da che tipo di sistema produttivo è stato organizzato (mixed, replenishement,
sequential…), fondamentale è calcolare e stabilire l’intervallo di Epe al quale deve lavorare il pacemaker:
per alcuni prodotti, questo sarà giornaliero, per altri settimanale, per altri ancora mensile; ad ogni modo, il
principio da seguire è quello ampiamente discusso: tanto più flessibile risulta essere lo stadio pacemaker
(ovviamente, in linea con gli altri stadi che operano, invece, in logica batch), tanto più si avrà la possibilità di
consegnare il giusto volume, nel giusto mix, all’istante desiderato; per fare questo, il “prezzo” che occorre
pagare è un investimento finalizzato alla riduzione dei tempi di set – up.
Attenzione, però: il principio di “minimizzare la dimensione del lotto” in corrispondenza del processo
pacemaker, deve tenere conto di alcuni vincoli, quali:
 I differenti volumi e contenuti di lavoro tra i prodotti: è evidente che, tanto più si hanno prodotti
caratterizzati da tempi di ciclo e volumi di domanda differenti, quanto meno sarà conveniente
definire una dimensione comune del lotto, andando così, continuamente, ad alternarli (sarebbe,
invece, controproducente: si ha quindi la necessità di definire dei valori di lotti di produzione tali da
consentire di bilanciare queste differenze);
 Le differenze in termini di set – up (aspetto, comunque, marginale, in quanto, come detto,
l’obiettivo è rendere quanto più possibile basso questo valore, indipendentemente dalla tipologia);
 L’intervallo di pitch definito per la produzione.
È proprio su quest’ultimo aspetto che risulta interessante soffermarsi.
Livellare il mix in corrispondenza del pacemaker, consente di ottenere un flusso ancora più continuo e
lineare che, per sua natura, è in grado di far emergere istantaneamente possibili problemi, consentendo di
prendere opportuni interventi correttivi. Per questo motivo, un buon punto di partenza, consiste nello
stabilire l’intervallo entro il quale si va a rilasciare e controllare parte della produzione allo stadio
pacemaker, in modo tale da essere in condizione di poter intervenire nel caso in cui sorgessero eventuali
problemi (che determinerebbero l’impossibilità di rispettare il takt time): come già avuto modo di vedere,
questo intervallo prende proprio il nome di pitch, e rappresenta ogni quanto si rilascia il successivo ordine
di produzione e si prelevano i prodotti finiti realizzati da ordine precedente. In genere, tale valore, è
calcolato come multiplo del takt time; in particolare, esso è dato dal prodotto tra il takt time ed il numero
di componenti che è in grado di contenere ciascun contenitore:
120
Nel caso della Apogee,
Questo significa che, ogni 9 minuti, quello che si è visto essere il “water spider” dovrà dare, allo stadio
pacemaker, l’ordine di produrre un nuovo contenitore, e ritirare quello realizzato nei precedenti 9 minuti; il
pitch diventa, a tutti gli effetti, l’unità di riferimento per lo scheduling della produzione.
Ovviamente, questo, dal punto di vista del tutto teorico; nella realtà, ciò che si fa, è maggiorare questo
valore tenendo anche conto dell’eventuale tempo necessario a risolvere possibili problemi, nonché di
quello richiesto alla movimentazione dei materiali.
Risulta del tutto evidente che, quanto più questo valore è piccolo, tanto più significa che la dimensione del
contenitore risulta essere piccola: ciò corrisponde ad un controllo della produzione molto stretto, che va a
verificare sempre più puntualmente il rispetto del takt time.
Pensando al pitch come a “quanto spesso si prende consapevolezza delle capacità di risposta alla domanda
dello stadio cliente”, nel definirlo, bisogna quindi bilanciare il seguente trade – off:
- Stabilire un livello troppo ampio (ad esempio “una volta alla settimana”), significa dare un margine
di azione troppo ampio allo stabilimento, non orientandolo verso alcun “takt time approach” (oltre
che dover gestire contenitori di dimensioni sempre più grandi);
- Stabilire un livello troppo ristretto significa sì essere in grado di rispondere rapidamente a possibili
problemi, e rispettare il takt time ma, nel caso in cui il sistema non risulti essere pronto a lavorare a
quel valore, si rischia di dover passare più tempo ad “aggiustare” possibili ritardi che a produrre.
Attenzione: avere un pitch di controllo pari a 9 minuti, non significa che, ogni questo intervallo, c’è una
persona che va dallo stadio pacemaker a chiedere e controllare come le cose stiano andando, bensì che, 9
minuti, rappresenta la base di programmazione della produzione, ovvero quel tempo che coordina il
prelievo del materiale realizzato e la messa in produzione del successivo.
Su un tempo disponibile di 450 minuti/turno, questo significa realizzare, ogni turno, 50 contenitori, i quali
devono essere ripartiti sui differenti prodotti da realizzare, il che può essere fatto con riferimento ai volumi
di produzione delle singole classi:
Una volta definito il numero di contenitori da destinare a ciascuna classe, bisogna capire le unità che
dovranno essere realizzate per ogni specifica tipologia:
 La classe A si compone di 5 diversi prodotti: essendo 10 la dimensione del contenitore, al giorno,
per ciascuna tipologia, dovranno essere realizzate
;
121
 La classe B si compone di 5 differenti prodotti: essendo 10 la dimensione del contenitore, al giorno,
per ciascuna tipologia, dovranno essere realizzate
; tuttavia, poiché i prodotti
di classe B non vengono ordinati ogni giorno, si decide che, ogni tipologia, viene realizzata in un
lotto da 50 u/turno;
 Infine, per la classe C, non si deve stabilire alcun valore: poiché si è deciso di lavorare su ordine
cliente, non c’è “dimensione del lotto di produzione”; si sa solo che, in base a quanto definito,
restano 90 minuti da dedicare a questa produzione, ogni turno (10 intervalli = 10 contenitori = 100
unità).
Sulla base di questa considerazione, si potrebbe pensare di organizzare la produzione come segue:
La pianificazione presentata ragiona come segue:
Primo turno (t):
produzione di A  60 u14509 + 60 u14502 + 60 u14504 + 60 u14506 + 60 u14508
produzione di B  50 u14501 + 50 u14510
produzione di C  ??
Secondo turno (t):
produzione di A  60 u14509 + 60 u14502 + 60 u14504 + 60 u14506 + 60 u14508
produzione di B  50 u14507 + 50 u14503
produzione di C  ??
Primo turno (t + 1)
produzione di A  60 u14509 + 60 u14502 + 60 u14504 + 60 u14506 + 60 u14508
produzione di B  50 u14505 + 50 u14501
produzione di C  ??
…
122
con questa logica, si può osservare che, mentre su A, si è in grado di ripristinare il mix su ogni turno, per B,
invece, i turni richiesti sono 3; tutto il tempo che rimane a disposizione, invece, può essere allocato alla
produzione di C.
in realtà, la soluzione presentata non è quella massimamente “ideale”, in quanto potrebbe livellare
ulteriormente il mix all’interno del turno: è difatti prevista una produzione sequenziale di tutti i codici di
tipo A, poi di tutti quelli di tipo B, poi di C; poiché, i tempi di set – up, dovrebbero essere tali da
permetterlo, è necessario mischiare quanto più possibile la sequenza (ad esempio, sul singolo turno: 60
u14509 + 60 u14502; 50 u14501; 60 u14504 + 60 u14506; 50 u14510; 60 u14508; produzione di C)
A questo punto, sono stati definiti tutti gli aspetti “software” (individuazione del pacemaker, definizione
dello scheduling, del lotto minimo…); occorre passare agli aspetti più operativi: come convogliare la
domanda al pacemaker per creare un sistema pull? Che tipologia di kanban verrà utilizzata?
È fondamentale aver reso chiaro come, la domanda di produzione, viene fatta pervenire allo stadio
pacemaker, e che tipo di “information signal” viene utilizzato: la parola “kanban” fa proprio riferimento al
cartellino che viene movimentato e che va a regolamentare la produzione da parte del processo pacemaker
(tutti gli altri stadi, poi, reagiranno di conseguenza a come agisce tale reparto: o attraverso replenishement
pull, o mediante pull sequenziale tramite FIFO lane). In realtà, possono esistere differenti kanban che
possono asservire allo scehduling della produzione:
 Gli “instruction kanban” sono quei cartellini che dicono al processo “che cosa deve essere fatto”, e
possono essere distinti in “kanban in – process” (ovvero, la logica “classica” del cartellino, che
asserve alla produzione “one piece flow”: ad ogni stacco corrisponde un lancio di produzione da
parte dello stadio fornitore) e “signal kanban” (ovvero, un cartellino che va a schedulare una
produzione batch: poiché, lo stadio fornitore, non è in grado di produrre esattamente quanto
richiesto dal reparto cliente, egli stacca il cartellino ogni qual volta il suo fabbisogno ha raggiunto il
lotto di produzione del fornitore);
 I “kanban di movimentazione” sono quei cartellini che dicono “che cosa deve essere prelevato”,
ovvero specificano il tipo ed il quantitativo di materiale che deve essere movimentato tra differenti
reparti (anche in tal caso, si può distinguere tra kanban di movimentazione tra i reparti interni
all’azienda, oppure tra un reparto ed un fornitore esterno).
Il kanban può presentarsi nelle forme più disparate (può essere un pezzo di carta, un segnale
informatizzato, una comunicazione telefonica…); a prescindere dalla logica adottata, è l’obiettivo di base
che rimane invariato: trattasi di un metodo che rende chiaro ed univoco ciò che deve essere realizzato e
portato allo stadio successivo.
Per livellare il volume ed il mix, è stato quindi definito:
- Una dimensione opportuna di lottizzazione (dipendente dal pitch);
- Un sistema di movimentazione di cartellini che schedulino opportunamente questa produzione;
rimane però il problema di come controllare la produzione in modo tale da verificare che, tale livellamento,
venga effettivamente rispettato.
Come detto, l’approccio lean, risponde a questa esigenza mediante la cassetta di livellamento:
123
L’unica riga identifica la pianificazione della produzione per la cella pacemaker: in corrispondenza di ogni
turno, ci sono colonne verticali corrispondenti ad identici intervalli di produzione (9 minuti, il tempo di
pitch).
Nel caso, il turno comincia alle 7 del mattino, ed i cartellini sono movimentati dal “water spider”
dell’azienda ogni 9 minuti: nei primi 9 minuti, il pacemaker dovrà produrre un contenitore pieno del primo
codice di tipo A, nei secondi 9 minuti un contenitore di unità del secondo codice di tipo A e così via (come
da pianificazione vista in precedenza, anche se non ottimale).
In questo modo, la cassetta di livellamento consente di livellare la domanda su incrementi di intervalli
temporali pari a 9 minuti: questo, come evidente, risulta essere totalmente in contrasto con il tradizionale
approccio produttivo, che schedula la produzione di un certo codice per turno, o, in casi peggiori, su giorni
e/o settimane.
A gestire il tutto, come detto, ci pensa il “water spider” dell’azienda che, a tutti gli effetti, diventa colui che
detta il ritmo a tutto il processo:
Giro e attività compiute dal “water spider”
Si tenga comunque presente che, tutte le attività che vengono svolte da questa persona, risultano essere
“spreco”, inefficienza tuttavia necessaria (la situazione ideale sarebbe di un sistema talmente perfetto da
riuscire a funzionare “da solo”): il percorso che deve compiere deve tuttavia essere dimensionato con
attenzione e, evidentemente, la sua durata deve essere inferiore a 9 minuti (intervallo di pitch).
Il fatto che, il “water spider”, rappresenti il metronomo, è evidente: ad ogni giro compiuto, egli arriva per
prelevare i prodotti finiti, rilasciano il successivo kanban di produzione; nel caso in cui non dovesse trovare
la produzione, questo risulterebbe essere il sintomo di un problema (il che dovrebbe innescare il processo
di identificazione della causa, rimozione e nuovo funzionamento a regime).
All’atto pratico, tuttavia, la Apogee ha verificato che, un controllo ogni 9 minuti, rappresenta un intervallo
troppo stretto per garantire la stabilità di sistema (si avrebbero problemi ad ogni controllo): per questo
motivo, è stato deciso di allungare l’intervallo di pitch a 18 minuti
124
La cassetta ha una struttura equivalente alla precedente, con la differenza che, in corrispondenza di ogni
incrocio, si ha un numero doppio di kanban (il “water spider” passa ogni 18 minuti, portando 18 minuti di
lavoro, ovvero il doppio rispetto al caso precedente). La differenza la si ha in termini di spreco: in questa
nuova situazione, il “water spider” compie un giro, della durata di 7 minuti, ogni 18 minuti (prima lo faceva
ogni 9), il che significa tenerlo inattivo per un lungo periodo di tempo; per evitare di incorrere in questa
inefficienza, si può quindi pensare di farlo lavorare per più celle, aggregandogli il lavoro e facendogli
distribuire lo scheduling e la movimentazione per più flussi:
IL CONTROLLO DELLA PRODUZIONE PRIMA DELLO STADIO PACEMAKER
L’aver definito le variabili ai punti precedenti, non risulta essere sufficiente: un sistema basato sull’utilizzo
di kanban, difatti, deve essere supportato da opportuni meccanismi di gestione delle informazioni e dei
materiali tra i processi che si trovano a monte ed a valle dello stadio pacemaker, al fine di scongiurare
l’ipotesi di sovraproduzione, nonché sincronizzare meglio i reparti.
Per quanto riguarda il controllo della produzione tra reparti, in genere, si può scegliere tra due soluzioni:
- Farsi “guidare” dal mercato finale;
- Impostare una logica basata su corsie FIFO
Il farsi guidare dal mercato finale significa adottare la configurazione propria dei sistemi di tipo
replenishement: in presenza di prodotti richiesti frequentemente, ed abbastanza standard, le istruzioni di
produzione tra due stadi del flusso sono governati dalle movimentazioni di un magazzino di tipo
supermarket:
 Ogni qual volta avviene il prelievo di un contenitore, un kanban di produzione viene staccato, e
quello rappresenta il segnale di attivazione per lo stadio a monte;
 Ogni qual volta un area del magazzino risulta essere satura di un certo prodotto, significa che, lo
stadio a monte, non dovrà più produrne fino al prossimo prelievo.
Questa soluzione, tuttavia, non rappresenta la configurazione ideale per l’approccio lean: al contrario, ciò
che bisogna fare, laddove possibile, risulta opportuno cercare di gestire la produzione tra i reparti del flusso
con il minor quantitativo possibile di scorta, istituendo un sistema basato su corsie FIFO; questo, inoltre,
come ampiamente discusso, consente di assicurare che, tra uno stadio ed il successivo, i prodotti vengano
125
processati esattamente nella stessa sequenza nella quale sono stati realizzati, sgravando gli stadi a valle del
pacemaker delle decisioni di scheduling.
Alla Apogee, attualmente, il grosso problema consiste proprio nel fatto che, non avendo optato né per
l’una né per l’altra logica (ma, al contrario, avendo adottato un sistema “ibrido”: in parte gestito in logica
push, in parte gestito in logica pull), c’è una forte mancanza di coordinamento tra i reparti, il che fa sì che,
spesso, la cella si trovi ad essere inattiva a causa della mancanza di alcuni componenti che alimentano la
sua produzione (in particolare, sono le parti stampate ad interrompere, più spesso, il flusso).
Per questo motivo, per la realizzazione dei componenti standard in grandi volumi, è necessario istituire un
sistema di produzione supportato da magazzini supermarket; nel costituirli, in genere, i principi da seguire
sono:
 Posizionare il magazzino vicino a chi produce: poiché, le scorte, sono sempre e comunque
sovraproduzione, è opportuno che esse siano localizzate vicino al reparto produttivo, di modo da
fargli memoria di una sua inefficienza, caricargli i costi, e spronarlo al miglioramento;
 Dimensionarli in modo tale che, il processo immediatamente a valle, abbia sempre a disposizione i
componenti necessari ad alimentare la sua produzione;
 In presenza di più magazzini interni, è ovviamente razionale mantenere tutte le tipologie di
componenti in un unico supermarket; ci penserà poi il “water spider” a distribuirli opportunamente
ai vari reparti;
 Per tutti i prodotti provenienti dall’esterno, è opportuno andare a creare un piccolo magazzino di
stoccaggio in prossimità della ricevitoria.
Da ultimo, è necessario rispondere all’ultima domanda: come organizzare la produzione al di fuori del
pacemaker (ovvero, per quegli stadi che operano in logica batch)?
Attenzione che, fino ad ora, si è parlato di come organizzare e far funzionare il sistema in relazione allo
stadio “pacemaker” dell’azienda; tuttavia, come visto anche con la stessa Apogee, trascurare le modalità di
programmazione della produzione sugli altri stadi (confidando nel fatto che, senza dubbio, essi reagiranno
“pull” alle richieste della cella) potrebbe scaturire mancanza di alimentazione ed interruzione del flusso a
causa di part shortages; questa cosa è particolarmente vera soprattutto in quei processi caratterizzati da
più di uno stadio (a monte del pacemaker) che sono “obbligati”, per motivi di qualità e/o efficienza, ad
operare su grandi lottizzazioni.
In situazioni di questo tipo, l’obiettivo diventa quello di stabilire la “giusta” dimensione di questo lotto,
cercando di bilanciare il trade – off tra minimizzazione dell’occorrenza dell’evento di mancanza materiali, e
minimizzazione della quantità a scorta; ovviamente, in parallelo a ciò, l’obiettivo resta sempre quello del
miglioramento del tempo di set – up di questo stadio “batch”, al fine di allinearlo e poterlo mettere quanto
più possibile a flusso con il pacemaker.
In generale, ci sono tre modi con i quali, concettualmente, far coesistere un sistema organizzato in ottica
lean con degli stadi che devono comunque operare per lottizzazioni (più o meno elevate):
- Far operare i macchinari di tali stadi sulla base di una sequenza fissa, il cui carico di lavoro (in
termini di unità realizzate per ciascuna tipologia) può però essere variato;
- Far operare i macchinari di tali stadi sulla base di una quantità di unità di ciascuna tipologia
prefissata (dimensione del lotto di produzione), ma programmabili sulla base di una sequenza che
può variare di volta in volta;
126
-
Infine, laddove lo stadio batch abbia già raggiunto una flessibilità che gli consenta di andare
maggiormente incontro alle richieste della cella, si potrebbe pensare di utilizzare un sistema basato
su kanban triangolari (il prerequisito, ovviamente, deve essere la possibilità di mettere in
produzione, in tempi accettabili, il particolare prodotto, non appena ricevuto il segnale).
Nel caso della Apogee, la logica utilizzata risulta essere la seconda (il che è alla base di molti problemi): la
dimensione del lotto viene determinata sulla base della formula del lotto economico, questo perché gli
operatori e i responsabili di stabilimento sono valutati sulla prestazione “saturazione dei macchinari”, il che
porta a massimizzare la produttività (con, spesso, gli operatori che addirittura sovraproducono rispetto alla
dimensione del lotto predefinita); stabilire la dimensioni dei lotti in base alla sola formula dell’EOQ, senza
bilanciare questo calcolo con il corrispondente EPE richiesto dal value stream, può portare (come visto) a
forti ritardi, nonché a disruption determinate da mancanza di materiali in ingresso.
Infine, un’ultima considerazione va fatta relativamente all’espansione ed allo sviluppo dei sistemi pull che
si è andati a costruire con le risposte alle precedenti domande.
In particolare, il ragionamento condotto, riguardava un particolare prodotto, gli specchietti retrovisori, le
cui varianti, a loro volta, sono state suddivise in tre differenti classi (A, B e C); una volta messo in piedi un
sistema pull che rispetti i prerequisiti illustrati, e ratificatone il successo, logica vuole che, la stessa
organizzazione, venga mutuata anche ad altre famiglie di prodotti.
Questo, tuttavia, fa sorgere un problema: con più sistemi pull coesistenti, il “water spider” si trova a dover
ritmare celle pacemaker caratterizzate da takt time e pitch interval differenti; per gestire una situazione di
questo tipo quindi, ad esempio, si può pensare di organizzarsi come segue:
Le celle 1 e 2 hanno un pitch di 9 minuti, quelle 3 e 4 di 12 minuti, e quelle 5 e 6 di 6 minuti; bisogna
combinarne la gestione in modo tale da renderle ritmabili tutte, da parte di una medesima persona, in
maniera efficace.
Il giro viene effettuato ogni 12 minuti; al primo giro:
- Alla prime due celle, si lasciano giù due kanban e si preleva un contenitore di prodotto finito;
- Alle successive due celle, si lascia giù un kanban e si preleva un contenitore;
- Alle ultime due, si lasciano giù due kanban e si prelevano due contenitori di prodotto finito;
al giro successivo:
127
-
Alle prime due celle, si lascia giù un kanban e si preleva un contenitore;
Alle successive due celle, si lascia giù un kanban e si preleva un contenitore;
Alle ultime due, si lasciano giù due kanban e si prelevano due contenitori di prodotto finito;
infine, al terzo giro:
- Alle prime due celle, si lascia giù un kanban e si prelevano due contenitori;
- Alle successive due celle, si lascia giù un kanban e si preleva un contenitore;
- Alle ultime due, si lasciano giù due kanban e si prelevano due contenitori di prodotto finito.
Il fatto che, questa, risulti essere la logica ottimale, lo si capisce assumendo la prospettiva della singola
cella.
Si considerino, ad esempio, le prime due celle; dopo i primi 12 minuti, esse si vedono arrivare due kanban e
devono aver prodotto un contenitore; al giro successivo, si vedono arrivare un kanban, e devono aver
prodotto un contenitore; all’ultimo giro, infine, si vedono arrivare un kanban, ma devono aver prodotto due
contenitori. Questo perché, se il pitch della cella è di 9 minuti, qualunque cosa succeda, bisogna arrivare al
minuto 36 con il “water spider” che ha fatto pervenire quattro kanban e portato via altrettanti contenitori:
andando ogni 12 minuti, non è possibile effettuare il controllo puntuale ogni 9 (o ogni 18), ma il primo
momento “intero” sarà proprio 36 minuti.
Generalizzando, 36 minuti è proprio quell’intervallo che fa collimare il controllo sia delle celle da 9 minuti,
che quelle da 12, che quelle da 6 (per queste ultime due, l’organizzazione è più semplice poiché, nel primo
caso, il rapporto è esattamente 1:1, nel secondo, invece, 2:1; è per le prime due celle che, invece, l’istante
di controllo non risulta essere sincronizzato con il pitch dello stadio): questo è proprio l’istante in cui si ha
effettivamente la possibilità di verificare se, tutti gli stadi, rispettano l’intervallo di controllo manageriale
definito; in questo modo, si ha la possibilità di mettere insieme celle con takt time e pitch differenti.
128