354 resultados para Reale Istituto veneto di scienze, lettere ed arti (Venice, Italy)
Resumo:
Durante lo studio riportato in questo elaborato finale sono state valutate le informazioni disponibili in letteratura relative alla caratterizzazione fisico-chimica e alle proprietà fisico-meccaniche di due prodotti da forno a confronto: tortillas e piadine. Per quanto riguarda le tortillas, sono state esaminate le informazioni relative alle proprietà fisico-meccaniche di tortillas attraverso diverse tecniche di arrotolabilità (soggettiva ed oggettiva) e di estensibilità. La misurazione oggettiva della arrotolabilità è stata condotta utilizzando un TA.XT2 Texture Analyzer equipaggiato di un dispositivo di arrotolamento personalizzato. L'apparecchiatura è composta da un tassello cilindrico in acrilico (Ø 1,9 cm) e da una catena metallica che collega il tassello del cilindro al braccio dell'analizzatore di texture (3.5). Per quanto riguarda le piadine, è stato riportato uno studio sulle caratteristiche chimico-fisiche, condotto su 12 piadine , in ci sono stai esaminati parametri quali Il pH, il contenuto di umidità, l'attività dell’acqua, Il test di estensibilità e il test di flessione a tre punti al fine di valutare le proprietà fisico-chimiche e meccaniche oggettive dei campioni . Le analisi fisico-chimiche hanno dimostrato valori costanti durante i primi 30 giorni di conservazione mentre la arrotolabilità soggettiva è risultata significativamente influenzata dal tempo di conservazione con punteggi ridotti osservati durante la conservazione . Infine, è stato fatto uno studio comparativo tra piadina e tortillas anche in relazione alle farcire e le caratteristiche strutturali relative. In conclusione si può affermare che potranno essere utilizzate le procedure di valutazione delle caratteristiche delle tortillas, maggiormente presenti nella letteratura internazionale, per lo studio delle proprietà fisico-meccaniche delle piadine anche al fine di creare prodotti innovativi a base del popolare prodotto da forno della Romagna.
Resumo:
L’uso di molecole stabilizzanti (polimeri, surfattanti o leganti organici) nel corso della sintesi di nanoparticelle in sospensione è fondamentale per permettere il controllo della dimensione della fase attiva e per evitare l’aggregazione dei colloidi nella fase di sintesi e deposizione del sol metallico sul supporto. Nonostante questo, molto spesso, l’effetto dello stabilizzante non è solo quello di modificare le proprietà morfologiche (ad esempio la dimensione) delle nanoparticelle supportata ma anche di cambiare l’interazione della fase attiva con i reagenti dal punto di vista elettronico e diffusionale. La messa a punto di metodologie di sintesi controllate ed efficaci è molto importante. Le tecniche di sintesi utilizzate per la preparazione di catalizzatori a base di metalli nanostrutturati sono innumerevoli, ma una metodologia particolarmente interessante, che garantisce piccole dimensioni delle nanoparticelle ed un’elevata distribuzione del metallo sul supporto, è la tecnica della sol-immobilization. In questo lavoro di tesi è stato studiato come il tipo e la quantità di stabilizzante influisce sulla dimensione della nanoparticella e sull’attività catalitica del catalizzatore, usando come reazione modello l’ossidazione selettiva dell’5-idrossimetilfurfurale (HMF) ad acido 2,5 furandicarbossilico (FDCA).
Resumo:
Il progetto è stato svolto in collaborazione con HPE COXA, azienda modenese dedicata alla progettazione e simulazione di elementi meccanici per il settore automotive. La finalità del progetto di tesi presentato è quella di progettare un sistema di distribuzione motore a cascata di ingranaggi dedicato ed adattato ad un motore termico V8, 4000cc già esistente, così da sostituire l’attuale sistema di distribuzione a catena e rocchetti. La peculiarità del meccanismo da progettare è la bassa emissione sonora, la quale deve essere ottenuta mediante modifiche al profilo della dentatura e ad un corretto dimensionamento del sistema. Per riuscire a soddisfare la richiesta, si utilizzano software di progettazione e simulazione (KissSoft e KissSys) che consentono di studiare la fase di ingranamento delle ruote permettendo di comprenderne il comportamento. Lo studio approfondisce poi tematiche riguardanti la natura delle modifiche effettuate, la resistenza strutturale, la distribuzione delle forze e delle tensioni e la progettazione di un sistema di ancoraggio e lubrificazione che permetta il corretto funzionamento. Il lavoro sarà completato poi con due appendici, le quali approfondiscono ancora più nel dettaglio alcune delle caratteristiche delle modifiche del profilo di dentature elicoidali, le quali non sono state prese in considerazione per il progetto della distribuzione.
Resumo:
A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Le galassie passive sono sistemi dominati da popolazioni stellari vecchie, non mostrano tracce di formazione stellare (spettri compatibili con assenza di righe in emissione e caratterizzati da righe in assorbimento), e ci sono evidenze osservative che indicano che le galassie passive abbiano iniziato ad assemblare la loro massa stellare a z. Gli spettri delle galassie passive conservano traccia dei meccanismi fisici ed evolutivi della loro popolazione stellare. Laddove si hanno a disposizione spettri di buona qualità, ovvero che abbiano un rapporto segnale-rumore elevato, l’informazione contenuta in tali spettri può essere dedotta dalla misura dell’intensità di alcune righe in assorbimento. Burstein et al. (1984) hanno costruito un insieme di indici spettroscopici, chiamato sistema di indici di Lick, i quali misurano l’intensità delle principali righe in assorbimento (nella regione di lunghezze d’onda ottiche tra 4000-6000 Å), in termini di larghezza equivalente. in questa tesi è stato adottato il metodo degli indici di Lick per stimare i parametri evolutivi di un campione di galassie passive. Gli obiettivi principali di questa tesi sono due: 1.) studiare l’evoluzione col redshift dei parametri di età, metallicità totale e abbondanze relative di elementi α rispetto al ferro di un campione di galassie estratto spettroscopicamente dalla SDDS (Moresco et al., 2011). L’obiettivo finale è quello di dedurre informazioni sulla storia di formazione stellare delle galassie del campione. 2.) realizzare una simulazione per valutare la possibilità di misurare gli indici di Lick negli spettri di galassie passive che verranno osservate con la missione futura Euclid. Da questo studio è emerso un chiaro andamento evolutivo del campione in linea con quello previsto dallo scenario evolutivo del mass-downsizing, per il quale la SFH di una popolazione stellare è fortemente vincolata dalla massa della popolazione stessa, nel senso che al crescere della massa la formazione delle galassie passive si colloca in epoche progressivamente più remote, e l’assemblaggio della loro massa stellare avviene in tempi scala via via inferiori. Dalla simulazione è emerso un risultato molto importante che deriva dalla robustezza delle misure del D4000 e riguarda la possibilità di determinare il redshift di galassie a z ≥ 1.5 con Euclid.
Resumo:
La decodifica dei segnali elettroencefalografici (EEG) consiste nell’analisi del segnale per classificare le azioni o lo stato cognitivo di un soggetto. Questi studi possono permettere di comprendere meglio i correlati neurali alla base del movimento, oltre che avere un’applicazione pratica nelle Brain Computer Interfaces. In questo ambito, di rilievo sono le reti neurali convoluzionali (Convolutional Neural Networks, CNNs), che grazie alle loro elevate performance stanno acquisendo importanza nella decodifica del segnale EEG. In questo elaborato di tesi è stata addestrata una CNN precedentemente proposta in letteratura, EEGNet, per classificare i segnali EEG acquisiti durante movimenti di reaching del braccio dominante, sulla base della posizione del target da raggiungere. I dati sono stati acquisiti su dieci soggetti grazie al protocollo sviluppato in questo lavoro, in cui 5 led disposti su una semicirconferenza rappresentano i target del movimento e l’accensione casuale di un led identifica il target da raggiungere in ciascuna prova. I segnali EEG acquisiti sono stati quindi ricampionati, filtrati e suddivisi in epoche di due secondi attorno all’inizio di ciascun movimento, rimuovendo gli artefatti oculari mediante ICA. La rete è stata valutata in tre task di classificazione, uno a cinque classi (una posizione target per classe) e due a tre classi (raggruppando più posizioni target per classe). Per ogni task, la rete è stata addestrata in cross-validazione utilizzando un approccio within-subject. Con questo approccio sono state addestrate e validate 15 CNNs diverse per ogni soggetto. Infine, è stato calcolato l’F1 score per ciascun task di classificazione, mediando i risultati sui soggetti, per valutare quantitativamente le performance della CNN che sono risultati migliori nel classificare target disposti a destra e a sinistra.
Resumo:
La struttura di un ospedale è notevolmente complessa nella sua organizzazione e conduzione, ed è per di più sollecitata a continue trasformazioni di carattere tecnologico ed organizzativo. Pertanto è essenziale, in una struttura sanitaria, il ruolo svolto dall’Ingegneria Clinica, che è quello dell’applicazione dei metodi e delle competenze specifiche proprie dell’ingegneria all’organizzazione, alla gestione e all’uso sicuro ed appropriato della strumentazione biomedica. Il seguente elaborato tratta le verifiche di sicurezza delle apparecchiature elettromedicali (EM) con una particolare attenzione agli aspetti normativi che le contraddistinguono e al ruolo dell’ingegnere clinico. Parlare di sicurezza per le tecnologie biomediche, significa garantire l’utilizzo delle stesse in assenza di rischi per l’utilizzatore e per il paziente, perciò il concetto di rischio è analizzato accuratamente. Oltre alla manutenzione correttiva è compito dell’ingegnere clinico programmare strategie di manutenzione preventiva per ottimizzare la durata fisiologica degli apparecchi EM e garantirne la qualità delle prestazioni erogate a lungo termine. L’utilizzo o il semplice invecchiamento di una qualsiasi apparecchiatura ne provoca infatti l’usura dei materiali e la deriva delle caratteristiche, aumentando la probabilità di guasto ed avaria. Pertanto la definizione di procedure di verifica elettrica periodica diventa fondamentale per l’individuazione di gran parte di quelle situazioni di compromissione della sicurezza che sono causa di danni e incidenti. Il loro scopo è quello di accertarsi che un’apparecchiatura abbia mantenuto nel tempo le caratteristiche di sicurezza dichiarate dal produttore e certificate dalla marcatura di conformità CE. Per completare l’iter di verifica di sicurezza e definirne il livello minimo accettabile è essenziale eseguire, oltre alle verifiche elettriche, le verifiche funzionali per valutare l’efficacia delle singole funzioni e prestazioni.
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
La difficoltà nello studio del calcolo combinatorio e della probabilità è una condizione diffusa all'interno del corso di ingegneria e scienze informatiche. Parte del problema è sicuramente l'approccio concreto condiviso da molti studenti, il quale si scontra con l'aspetto teorico di questa materia. Per questa forma mentis, lo studente è portato a dubitare di molte regole e teoremi (specie se contro intuitivi) anche dopo averne visto la dimostrazione. Ciò che questo tipo di studente trova più convincente è invece la prova pratica. La realizzazione di questo progetto parte da quest'idea, fornire agli studenti dimostrazioni pratiche attraverso la simulazione di contesti reali, offrendo la possibilità di confrontare i risultati di dette simulazioni con quelli enunciati nei teoremi. A tale scopo, una parte importante del lavoro è stata la realizzazione di grafici chiari ed esaustivi, che permettano di confrontare i risultati ottenuti con quelli attesi in maniera rapida ed intuitiva. Ciò non di meno, la realizzazione di alcune delle simulazioni ha comportato delle sfide tecniche nel produrre e maneggiare grosse moli di dati, nell'utilizzo di dataset di dati reali e nell'aspetto presentazionale dei risultati. Speriamo, attraverso la consultazione dell'elaborato analizzato di seguito, di semplificare lo studio ad alcuni studenti, aiutarli ad interiorizzare concetti basilari e non, fornendogli uno strumento per studiare più adatto a loro.
Resumo:
In questa tesi si è approfondito dal punto di vista impiantistico ed energetico il primo progetto pilota “e-SAFE”, relativo ad un condominio di edilizia popolare sito a Catania. Il progetto europeo “e-SAFE” mira alla riqualificazione “globale” del patrimonio edilizio UE, con obiettivi quali la decarbonizzazione, tramite raggiungimento di edifici nZEB, e la sicurezza sismica, includendo finalità sociali. È stata svolta la progettazione degli impianti tecnici relativi ai servizi di climatizzazione (riscaldamento e raffrescamento) e produzione acqua calda sanitaria (ACS), tramite adozione di sistema a pompa di calore abbinato ad impianto fotovoltaico provvisto di batterie di accumulo, al fine di massimizzare l’utilizzo di fonti energetiche rinnovabili. Una soluzione innovativa è stata prevista per il sistema ACS tramite bollitori decentralizzati che permettono l’eliminazione della rete di ricircolo e dotano il servizio centralizzato di una certa “individualità”, con adozione di logiche di controllo che consentono di sfruttare al massimo l’energia da fotovoltaico. Sono state quindi svolte analisi energetiche, relative a tre casi impiantistici (senza PV, con PV e con batterie d’accumulo), con modellazione del sistema edificio-impianto adottando una procedura di calcolo orario, per poi confrontare i consumi elettrici, le emissioni e i principali indicatori energetici al fine di dimostrare la bontà delle scelte progettuali effettuate. Si è dimostrato come l’impiego dell’impianto fotovoltaico, abbinato ad un corretto dimensionamento delle batterie di accumulo, consente di ottimizzare la contemporaneità di produzione e consumo di energia. Nonché permette di minimizzare il prelievo di energia elettrica dalla rete nazionale, consumando e stoccando in loco l’elettricità autoprodotta da fonti energetiche totalmente rinnovabili.
Resumo:
L’esistenza di un grande divario tra il fabbisogno idrico mondiale e la riserva di acqua disponibile ha fatto sì che negli anni, soprattutto nei paesi in via di sviluppo, si siano proposte diverse soluzioni per dare a milioni di persone in tutto il mondo accesso alla risorsa idrica. Una di queste soluzioni è senz’altro rappresentata dall’adozione di processi industriali di dissalazione dell’acqua di mare, che possono basarsi su varie tecnologie a membrana, come quelle ad osmosi inversa (RO) ed elettrodialisi (ED), e quelle evaporative, come la distillazione multi-effetto (MED) e la distillazione multi-stadio (MSF). L’inserimento di questi processi industriali nei vari contesti ambientali di riferimento può rappresentare però delle controversie, infatti, se da un lato possono colmare il deficit idrico di una comunità dall’altro sono in grado di creare dei forti squilibri nei confronti di ecosistemi sensibili. Prima di definire queste tecnologie delle fonti di approvvigionamento sicure ed affidabili è dunque fondamentale andare a quantificarne i potenziali impatti ambientali. Sono disponibili in letteratura scientifica numerose pubblicazioni in merito a questo aspetto, ma per avere una visione completa dell’argomento è bene adottare un’ottica critica inter-disciplinare, al fine di meglio comprendere le principali criticità in gioco e proporre delle possibili azioni mitigative per rendere questi processi compatibili con gli obiettivi di sviluppo sostenibile a cui ambisce la comunità mondiale.
Resumo:
Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.
Resumo:
La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.
Resumo:
Il presente elaborato si propone di studiare una soluzione ottimale per il dimensionamento di lotti economici di produzione nel settore lavorazioni meccaniche: il caso è stato studiato presso l’azienda Bonfiglioli Riduttori S.p.A all’interno del plant EVO, situato a Calderara di Reno (BO). Bonfiglioli Riduttori S.p.A è un’azienda che opera a livello globale occupandosi dell’intero ciclo di progettazione, produzione e distribuzione di una gamma completa di motoriduttori, dispositivi di azionamento, riduttori epicicloidali ed inverter. Il plant EVO è composto da due aree, produzione e assemblaggio, tra i quali è presente un magazzino che funge da buffer interoperazionale, contenente tutti i componenti necessari per il montaggio dei riduttori. L’obiettivo che ci si è posti è stato quello di trovare il lotto economico di produzione che fosse in grado di minimizzare i costi di gestione delle scorte ed i costi di set up della produzione, garantendo che non vi fossero rotture di stock, ossia mancanza di materiale con corrispondenti fermi macchina nel reparto assemblaggio. Ci si è concentrati sul ciclo di lavoro di uno dei componenti principali del riduttore, le corone in acciaio, e sono stati analizzati i seguenti modelli: i modelli di gestione tradizionale delle scorte, quali il modello del Lotto Economico di Acquisto (EOQ) ed il modello del Lotto Economico di Produzione (EMQ) ed il modello di gestione integrata delle scorte, noto come Consignment Stock. Studiando i risultati ottenuti è emerso che la soluzione ideale che verrà implementata a partire dai prossimi mesi è quella ibrida, ossia per i codici caratterizzati da bassi volumi si procede con i lotti calcolati attraverso il Consignment stock, caratterizzati da lotti con volumi elevati che comportano pochi set up, mentre per i codici alto rotanti si è cercato di aumentare il più possibile il numero di set up per abbassare il volume di ogni lotto e di conseguenza i costi di giacenza a magazzino.