- Informed decisions for better process
-
Il binomio vincente: Risk Management e Analisi Statistica
Risk Management e statistica sono un connubio essenziale in quanto l’analisi dei rischi ci offre informazioni molto rilevanti, ma talvolta solo stimate. Ciò che viene analizzato si può definire come una proiezione, una previsione di quello che potrà accadere in futuro e del tipo di danno che il manifestarsi di un evento potrebbe causare.
Concentrandosi sull’evento fisico che potrebbe accadere è possibile, ad esempio, stimare che un dato componete di una macchina si possa rompere piuttosto che non possano incombere incidenti durante il ciclo di produzione. Questi eventi sono tutti identificati da un punto di vista fisico, ma stimare quanto frequentemente uno di essi possa presentarsi è una sfida da affrontare coscienziosamente. È in tale frangente che entra in gioco la statistica, utilizzata in due modalità.
Il primo supporto che ci offre la statistica riguarda la comprensibile organizzazione e identificazione dei i dati storici. Solitamente, infatti, nell’analisi del rischio non si parte mai da zero, nei casi abituali il Risk Assessment è applicato a casi esistenti o nuovi progetti sviluppati sulla base di qualcosa di già esistente. Già dall’inizio abbiamo quindi a disposizione un insieme di informazioni che rappresenta la base storica. Questa viene elaborata in termini statistici: viene analizzata la serie storica, si identificano gli eventi di interesse e si procede definendo la frequenza di tali eventi. Ciò prevede un focus rilevante su quelle che sono potenziali cause generatrici di rischi.
Il secondo uso della statistica riguarda lo studio del comportamento di un dato sistema e ciò risulta di forte interesse in un ambito di ricerca e sviluppo. In questo contesto è possibile trovarsi nella condizione in cui la storia degli eventi oggetto di studio non offra sufficienti informazioni: in tal caso la statistica sopperisce con la costruzione del Disegno degli Esperimenti (DoE). Questo è uno strumento estremamente potente per poter cominciare a definire i range entro cui il nostro componente, aspetto o evento individuato come la causa del rischio si può manifestare. In questo ambito la statistica supporta l’identificazione della frequenza del verificarsi del rischio, cominciando a fare ipotesi sulla frequenza di accadimento di un determinato evento, ed entrando così nel campo della reliability.
Le failure legate a un determinato componente all’interno del processo o il verificarsi di una specifica sequenza di eventi avversi tendono inevitabilmente ad aumentare nel tempo (per invecchiamento del sistema, usura, aumento delle tolleranze e per gli eventi fisici collegati a tutti questi elementi). È possibile stabilire quando la failure di un componente o una determinata causa può manifestarsi con una frequenza al di sopra di una soglia ritenuta e stabilita come accettabile utilizzando esperimenti ben congeniati e considerando l’affidabilità statistica degli esperimenti.
Laddove il processo di analisi inizia con una Risk Analysis, con la quale identificare la logica di causalità, è allora possibile definire la veridicità delle ipotesi riguardo le cause di rischio e la frequenza con cui esse si presentano. Ciò è possibile analizzando i dati forniti dagli eventi passati, attraverso le analisi storiche e statistiche oppure restringendo il lasso temporale che si vuole esaminare e applicando all’indagine gli studi di Reliability e il Design of Experiment.
Scopri i servizi e le applicazioni PTM in ambito Integrated Quality Risk Management.
Scopri i corsi dedicata alla Statistica nella sezione PTM Academy.
Per maggiori informazioni scrivi a giorgio.kyriacatis@ptm-consulting.it