1000 resultados para Piccole e medie imprese - Rischi - Valutazione - Modelli econometrici


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’innovazione tecnologica nell’ambito alimentare ha portato alla realizzazione di nuovi prodotti al fine di far fronte all’incremento demografico e ai numerosi problemi che ne conseguono, come ad esempio quello della sostenibilità ambientale. Tra questi prodotti troviamo sia alternative che si basano su proteine già esistenti in natura, come ad esempio prodotti a base di insetti, sia nuove fonti di proteine prodotte in laboratorio: questo è il caso della carne coltivata in vitro, tessuto muscolare ricavato a partire da colture cellulari in grado di ridurre drasticamente il numero di animali allevati e macellati. In questo elaborato vengono discusse le principali tecnologie produttive per la realizzazione della carne in vitro e si analizzano gli aspetti critici legati all’accettazione di questo tipo di prodotti da parte dei consumatori. Per valutare l’opinione dei consumatori è stato somministrato un sondaggio che includeva 12 brevi domande a 343 potenziali consumatori di carne coltivata . Dall’analisi dei dati raccolti, emerge una generale “neofobia” nei confronti della carne coltivata, che può essere causata da motivi legati alla scarsa informazione e alla conseguente mancanza di fiducia riguardo alle tecnologie produttive innovative. Un importante aspetto emerso nel corso dello studio è rappresentato dalla differenza delle opinioni di consumatori appartenenti a diverse categorie, come ad esempio i consumatori abituali di prodotti a base di carne e, dall’altra parte, le persone che hanno eliminato dalla loro dieta abituale i prodotti di origine animale. È essenziale comprendere le radici della neofobia che le diverse categorie di consumatori possono manifestare nei confronti di alimenti innovativi come la carne coltivata, per realizzare un’efficace strategia comunicativa che faccia leva sulle maggiori barriere psicologiche delle persone, sostituendole con informazioni riguardo ai benefici che una transizione verso questo tipo di prodotti potrebbe apportare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo iniziale di questo lavoro era quello di studiare il fenomeno della proteolisi nel formaggio, al variare del tempo di stagionatura e di salatura, mediante lo studio dello stato dell’acqua, con una metodica non distruttiva e innovativa per questa tematica: il TD-NMR. I formaggi oggetto di studio sono stati prodotti con un impianto pilota presente in Dipartimento, con lo stesso latte, nella stessa giornata e nelle medesime condizioni di caseificazione. Il primo passo è stato quello di assegnare un nome alle 4 popolazioni di protoni corrispondenti alle 4 curve esponenziali in cui si traducevano i risultati di T2. Dato che gli studi bibliografici consultati non erano concordi su questo aspetto e nessuno aveva svolto esperimenti che potessero confermare le supposizioni formulate, abbiamo proceduto all’analisi di un formaggio simile ai nostri campioni, addizionato di una soluzione dopante a base di Fe(III)Cl2. Questo passaggio ci ha permesso di identificare i tipi di molecole rappresentati dalle 4 popolazioni. Successivamente siamo stati in grado di fare ipotesi concrete sull’evoluzione dei risultati di T2 e intensità relativa al variare del tempo di stagionatura e di salatura. Dalle nostre osservazioni è emerso che è possibile correlare l’andamento di T2 e I a quello di diversi parametri che caratterizzano il formaggio. Le ipotesi emerse da questo studio sono solamente intuizioni preliminari riguardo l’impiego di questo metodo di analisi per il formaggio, che però ha la potenzialità di essere molto utile nella ricerca e anche nell’industria. Si tratta infatti di un metodo caratterizzato da estrema facilità nella preparazione dei campioni, che può essere adattato ad analisi non distruttive e che impiega uno strumento molto economico rispetto ad altri tipi di analisi NMR. Possiamo inoltre concludere che, avendo messo a punto questi aspetti di base, l’interpretazione dei dati sarà senz’altro più semplice rispetto ad altre analisi NMR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo del presente lavoro di tesi è stato quello di valutare l’effetto di diverse modalità di affumicatura sulla funzionalità della frazione proteica di filetti di salmoni norvegesi, valutata tramite la determinazione della solubilità e dell’ossidazione delle proteine. A tale scopo, 60 filetti di salmone dal peso omogeneo di circa 600g sono stati sottoposti a salagione e successivamente suddivisi in 3 gruppi sperimentali in funzione del processo di affumicatura (n=20/gruppo): ad aria a 20°C (AR-20), ad azoto a 20°C (AZ-20) e a 5°C (AZ-5). Al termine dei trattamenti tutti i filetti sono stati confezionati sottovuoto, conservati in cella frigorifera e sottoposti alle determinazioni analitiche a 5 diversi tempi di campionamento, per un totale di 17 giorni di conservazione. Dai dati ottenuti si evince come la tecnica di affumicatura commerciale (AR-20) determini, nel complesso, una riduzione della solubilità totale delle proteine, presumibilmente dovuta all’innesco di fenomeni ossidativi che hanno causato un accumulo di composti carbonilici, prevalentemente riscontrabile al termine della conservazione. L’affumicatura con azoto ha fatto invece registrare un miglioramento della funzionalità proteica a prescindere dalla temperatura impiegata, se paragonata all’affumicatura commerciale. A discapito di quanto atteso, l’affumicatura con azoto a 5°C non ha determinato un miglioramento in termini di solubilità ed ossidazione proteica, se paragonato alla controparte affumicata a 20°C; infatti i campioni appartenenti al gruppo AZ-20 hanno mostrato valori di solubilità proteica più elevati congiuntamente ad un contenuto di carbonili significativamente ridotto rispetto agli altri gruppi sperimentali. Alla luce di questi aspetti, ulteriori studi sono necessari al fine di confermare i risultati ottenuti ed approfondire l’effetto delle diverse modalità di affumicatura sulle proprietà funzionali e tecnologiche dei filetti di salmone.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo sviluppo di fibrosi epatica si associa caratteristicamente a un eccesso di produzione e reticolazione della matrice extracellulare del tessuto, che causa un progressivo aumento del modulo elastico e della viscosità dell’organo – che a loro volta determinano ipertensione portale e insufficienza funzionale. Modelli avanzati che riproducano in vitro il microambiente epatico sono cruciali per lo studio della patogenesi del fenomeno e per la valutazione di adeguate terapie future. Un esempio chiaro di questa strategia viene presentato in un recente lavoro di ricerca, nel quale Cacopardo et al. propongono una strategia basata sull’utilizzo di tipi differenti di idrogel, con proprietà elastiche e viscosità variabili, per studiare la meccano-dinamica in un ambiente di coltura tridimensionale. Idrogel di carichi di cellule sono dunque stati differenzialmente reticolati mediante transglutaminasi microbica, utilizzando un metodo citocompatibile originale che consenta l’esposizione delle cellule a un ambiente con proprietà meccaniche che variano nel tempo. Per la coltura dei costrutti 3D è stato inoltre utilizzato un bioreattore che si è dimostrato utile anche per monitorare nel tempo le proprietà meccaniche dei costrutti cellulari. I risultati hanno mostrato che una maggiore “solidità” della matrice è coerente con l’aumento dello stress cellulare. Il metodo proposto si è dimostrato quindi in grado di imitare efficacemente il microambiente meccanico associato alla fibrosi epatica e in evoluzione nel tempo e, di conseguenza, potrebbe fornire nuove informazioni sui processi fisiopatologici correlati e suggerire più efficaci strategie terapeutiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La colonna vertebrale è uno dei principali siti per lo sviluppo delle metastasi ossee. Esse modificano le proprietà meccaniche della vertebra indebolendo la struttura e inducendo l’instabilità spinale. La medicina in silico e i modelli agli elementi finiti (FE) hanno trovato spazio nello studio del comportamento meccanico delle vertebre, permettendo una valutazione delle loro proprietà meccaniche anche in presenza di metastasi. In questo studio ho validato i campi di spostamento predetti da modelli microFE di vertebre umane, con e senza metastasi, rispetto agli spostamenti misurati mediante Digital Volume Correlation (DVC). Sono stati utilizzati 4 provini da donatore umano, ognuno composto da una vertebra sana e da una vertebra con metastasi litica. Per ogni vertebra è stato sviluppato un modello microFE omogeneo, lineare e isotropo basato su sequenze di immagini ad alta risoluzione ottenute con microCT (voxel size = 39 μm). Sono state imposte come condizioni al contorno gli spostamenti ottenuti con la DVC nelle fette prossimali e distali di ogni vertebra. I modelli microFE hanno mostrato buone capacità predittive degli spostamenti interni sia per le vertebre di controllo che per quelle metastatiche. Per range di spostamento superiori a 100 μm, il valore di R2 è risultato compreso tra 0.70 e 0.99 e il valore di RMSE% tra 1.01% e 21.88%. Dalle analisi dei campi di deformazione predetti dai modelli microFE sono state evidenziate regioni a maggior deformazione nelle vertebre metastatiche, in particolare in prossimità delle lesioni. Questi risultati sono in accordo con le misure sperimentali effettuate con la DVC. Si può assumere quindi che il modello microFE lineare omogeneo isotropo in campo elastico produca risultati attendibili sia per le vertebre sane sia per le vertebre metastatiche. La procedura di validazione implementata potrebbe essere utilizzata per approfondire lo studio delle proprietà meccaniche delle lesioni blastiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La malattia oncologica è caratterizzata da una complessa rete di processi di alterazioni replicative, infiammatorie e metaboliche che, se non adeguatamente corrette, possono compromettere lo stato nutrizionale del paziente, aumentando esponenzialmente il rischio di incorrere in una condizione di malnutrizione. L’equilibrio tra energia, composizione corporea e funzioni dell’organismo può essere ripristinato soltanto con un corretto intervento nutrizionale: è il dietista che, adoperando il Nutrition Care Process, interverrà per garantire al paziente un corretto supporto nutrizionale, ricorrendo al counseling per fornirgli le strategie necessarie a superare le cause di scarso apporto nutrizionale o, qualora le misure dietetiche fossero insufficienti, tramite l’uso di Supplementi Nutrizionali Orali. In questo contesto, la ricerca scientifica ha introdotto l’immunonutrizione, una modalità di nutrire il paziente e allo stesso tempo di modulare l’attività immunitaria a favore del processo di guarigione. Le evidenze si mostrano a favore anche della fornitura extra di amminoacidi a catena ramificata che, oltre a colmare il deficit proteico-energetico, forniscono precursori per ridurre il catabolismo muscolare, promuovendo l’anabolismo. Come terapia adiuvante nel trattamento del cancro sta emergendo in letteratura anche la Dieta Chetogenica, la cui efficacia risiederebbe nella capacità di instaurare un ambiente sfavorevole alla sopravvivenza delle cellule neoplastiche deprivandole del loro unico nutrimento, il glucosio. Alla fine di educare la popolazione ad una corretta prevenzione, risulta necessario diffidare da qualsiasi dieta “miracolosa” e “antitumorale” che, per quanto accattivanti, non fanno altro che generare falsa informazione. Quindi cosa dice la scienza? La nutrizione non ha il potere di guarire dalle malattie oncologiche, ma uno stile di vita sano e un’alimentazione di impronta Mediterranea rappresentano sicuramente la chiave per una corretta prevenzione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le colture starter sono preparazioni comprendenti una o più specie microbiche aggiunte per condurre i processi fermentativi, con risvolti positivi sulle caratteristiche tecnologiche e igienico-sanitarie dei prodotti ottenuti. Questa tesi si inserisce in un progetto europeo volto a sfruttare la biodiversità microbica di salumi dell'area del Mediterraneo, utilizzandoli come fonte di isolamento di batteri lattici (LAB) da proporre come nuove colture starter e/o bioprotettive. Prove preliminari hanno permesso di selezionare un numero ridotto di LAB, considerati sicuri, che in questa tesi sono stati studiati per il loro potenziale tecnologico (cinetiche di crescita a 20°C) per valutarne l’attitudine ad essere utilizzati in salami prodotti a livello industriale. Sulla base di queste prove effettuate in laboratorio, 4 ceppi (Latilactobacillus sakei 2M7 e SWO10, Lactiplantibacillus paraplantarum BPF2, Latilactobacillus curvatus KN55) sono stati utilizzati per la produzione di salami a livello industriale, confrontando le loro performances con uno starter commerciale utilizzato comunemente in azienda. I risultati hanno mostrato come tutti i ceppi siano stati in grado di sviluppare nella matrice con cinetiche simili, anche se questa acidificazione non ha limitato il contenuto di enterobatteri, ad eccezione del campione controllo, dove tuttavia i LAB hanno mostrato una ridotta capacità di persistenza. Il ceppo BPF2 ha ridotto significativamente il contenuto di tiramina nel prodotto finito. L’analisi dei metaboliti volatili ha evidenziato un diverso accumulo di prodotti derivanti dallo sviluppo dei LAB (es. acidi, aldeidi), anche se tali differenze erano difficilmente percepibili a livello olfattivo e tutti i salami presentavano un odore gradevole. Ulteriori prove saranno necessarie per garantire la qualità microbiologica del prodotto finito (controllo degli enterobatteri) e per effettuare anche test sensoriali, al fine anche di favorire la differenziazione dei prodotti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nell’ultimo decennio, la grandine è diventata oggetto di numerosi articoli e approfondimenti. Moderne ricerche climatologiche mostrano che tale fenomeno è in aumento in alcune aree geografiche, ma ne rimane ignota l’esatta ragione. La grandine è un evento atmosferico che può essere disastroso in molti ambiti della vita umana, essendo capace di provocare danni economici di grande portata. Sfortunatamente, la capacità previsionale risulta ancora inefficace in questo campo, anche se recentemente sono stati compiuti numerosi progressi grazie all’utilizzo di nuovi strumenti osservativi da satelliti e all’ausilio di simulazioni sempre più efficienti. Questo lavoro vuole sintetizzare le principali conoscenze teoriche e fenomenologiche della grandine, partendo dalla presentazione della struttura dei sistemi temporaleschi e poi approfondendo la teoria microfisica che sta alla base della sua crescita. L’obiettivo `e quello di fornire gli strumenti necessari ad una conoscenza approfondita del fenomeno e di dare un’idea di come esso può essere studiato e capito. Infatti, concluderemo l’elaborato spiegando delle reali simulazioni che sono state compiute in questo campo; una di natura meteorologica, che ha l’obiettivo di illustrare l’importanza delle simulazioni nell’analisi previsionale degli eventi atmosferici, ed una riguardante un modello microfisico, che `e stato capace di ottenere risultati innovativi sul fenomeno dell’accrezione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante gli ultimi anni sta avendo sempre più rilevanza il problema del cambiamento climatico, dovuto principalmente all’emissione in atmosfera di gas serra. Una delle soluzioni da adottare è una transizione energetica verso fonti di energia rinnovabili e una progressiva elettrificazione di tutte le tecnologie che utilizzano ancora combustibili fossili. L’obiettivo di questa tesi di Laurea è analizzare e implementare un semplice modello in MATLAB/Simulink di una turbina eolica, conoscendo solo i dati di targa del generatore, la curva di potenza della turbina e avendo a disposizione dei dati reali di velocità del vento, potenza prodotta e velocità di rotore. Il progetto quindi consiste in un lavoro di reverse engineering in cui, partendo dai componenti reali, si cerca di ricavare, in maniera empirica e sperimentale, i parametri che ne caratterizzano il modello matematico. Successivamente è stato implementato un modello su Simulink, partendo da un modello già esistente, in cui si è simulato il comportamento della macchina, ottenendo una stima della potenza prodotta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Sclerosi Multipla (SM) è una malattia neurodegenerativa che colpisce la mielina che riveste i neuroni, indebolendo così la trasmissione del segnale. I sintomi più comuni sono intorpidimento della sensazione tattile e difficoltà motoria, accompagnato da stanchezza e altri sintomi. Per la diagnosi della malattia si utilizza la Risonanza Magnetica (RM) per visualizzare la presenza delle lesioni e la Risonanza Magnetica Funzionale (fRM) per valutare il grado di attivazione delle aree cerebrali. In ambito medico l’utilizzo della RM, in supporto alle altre tecniche di analisi, ha permesso di migliorare e velocizzare la diagnosi e la prognosi della SM. Procedendo all’acquisizione di immagini RM è possibile notare la presenza delle lesioni e controllarne l’evoluzione. Infatti, a seguito della scoperta di lesioni, in base alla gravità e alla tipologia di lesione formatasi, è possibile stabilire il trattamento farmacologico da seguire. In particolare, per il caso dell’atrofia cerebrale la RM ha consentito di visualizzare le aree cerebrali affette e valutare la variabilità dei risultati del confronto tra carico lesionale e atrofia per le prestazioni cognitive. La fRM ha inoltre permesso di poter valutare i cambiamenti dei flussi ematici cerebrali e di visualizzare quindi le zone più o meno colpite dalla patologia. Questa tecnica di imaging funzionale è in grado di valutare le aree cerebrali preservate e promuovere un trattamento mirato per le aree affette. Studiando i flussi ematici si possono ricavare delle mappe spaziali che permettono di visualizzare nell’insieme la malattia. Per lo studio dell’affaticamento è stata utile la fRM poiché ha permesso di rilevare le aree che si sono attivate durante l’esecuzione del task motorio. A seguito di questi esami si è concluso che in presenza di SM si attivano aree cerebrali che in condizioni normali non si attiverebbero, comportando così un affaticamento del soggetto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partire dal tema dei servizi ecosistemici, vengono presi in considerazione e analizzati i servizi culturali. Tale categoria fornisce benefici materiali e immateriali alle popolazioni, i quali possono essere forniti dalle aree verdi urbane e periurbane. Sulla base di questo, è stato definito un metodo di valutazione in termini di accessibilità e qualità delle aree verdi, il quale permette di comprendere quali sono le aree svantaggiate e poco accessibili e, quindi, fornire uno strumento utile alla pianificazione del territorio in termine di verde pubblico. Il metodo definito è stato, successivamente, applicato al caso studio di Castelfranco Emilia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente elaborato di tesi tratta la valutazione degli impatti ambientali legati ai Grandi Eventi, l’analisi delle diverse iniziative e delle politiche sostenibili adottate da imprese pubbliche e private, e l’analisi della metodologia LCA “Life Cycle Assessment”. In particolar modo, questo studio è stato realizzato grazie alla collaborazione tra l’Università di Bologna e l’Autodromo Enzo e Dino Ferrari di Imola, con lo scopo di quantificare, mediante un’analisi LCA, le emissioni prodotte dai servizi di trasporto durante lo scorso Gran Premio di F1. I risultati ottenuti hanno consentito di quantificare l’impatto ed indicare proposte future al fine della relativa diminuzione

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.