820 resultados para Nuove Attribuzioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito della loro trasformazione digitale, molte organizzazioni stanno adottando nuove tecnologie per supportare lo sviluppo, l'implementazione e la gestione delle proprie architetture basate su microservizi negli ambienti cloud e tra i fornitori di cloud. In questo scenario, le service ed event mesh stanno emergendo come livelli infrastrutturali dinamici e configurabili che facilitano interazioni complesse e la gestione di applicazioni basate su microservizi e servizi cloud. L’obiettivo di questo lavoro è quello di analizzare soluzioni mesh open-source (istio, Linkerd, Apache EventMesh) dal punto di vista delle prestazioni, quando usate per gestire la comunicazione tra applicazioni a workflow basate su microservizi all’interno dell’ambiente cloud. A questo scopo è stato realizzato un sistema per eseguire il dislocamento di ognuno dei componenti all’interno di un cluster singolo e in un ambiente multi-cluster. La raccolta delle metriche e la loro sintesi è stata realizzata con un sistema personalizzato, compatibile con il formato dei dati di Prometheus. I test ci hanno permesso di valutare le prestazioni di ogni componente insieme alla sua efficacia. In generale, mentre si è potuta accertare la maturità delle implementazioni di service mesh testate, la soluzione di event mesh da noi usata è apparsa come una tecnologia ancora non matura, a causa di numerosi problemi di funzionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ecosistema dello sport tech, caratterizzato dalle complesse relazioni che avvengono tra chi sviluppa innovazione per lo sport, chi ne usufruisce e chi investe su di essa, ha vissuto una vera e propria impennata negli ultimi 5 anni, sia in termini di investimenti che di nascita di nuove realtà. Nel corso degli ultimi 3 anni in particolare, lo sport tech ha saputo fronteggiare in maniera ottimale la crisi pandemica, che avrebbe potuto destabilizzare il sistema causandone un forte rallentamento, mentre in realtà ha permesso alle startup di dimostrare alle organizzazioni sportive e agli investitori le proprie capacità di innovare i modelli di business per rispondere a cambiamenti improvvisi e imprevedibili degli scenari. Nonostante la svolta vissuta a livello globale, in Italia le startup dello sport tech si trovano in una condizione singolare: nonostante operino in un settore di grande interesse per il Paese (muove circa il 3% del Pil) caratterizzato da un forte interesse, trovano difficoltà importanti nel momento in cui si trovano a dover rendere scalabile il proprio business, fondamentalmente per la mancanza di un ecosistema strutturato che regoli le interazioni tra i vari attori. Lo scopo di questa tesi è quello di fornire, in primo luogo, una contestualizzazione dell'ecosistema a livello globale, attraverso l'analisi di report e di alcuni successi di startup internazionali, e successivamente di analizzare la situazione italiana, evidenziando i motivi per cui non si può ancora parlare di ecosistema sport tech nonostante la presenza di diversi casi di successo, e documentando gli sforzi attualmente in essere finalizzati alla creazione del suddetto ecosistema, ovvero l'incubatore di startup sport tech Wylab e l'acceleratore WeSportUp. Per la ricostruzione delle attività di questi ultimi, si è fatto ricorso a dichiarazioni di addetti ai lavori ed esperti del settore, rilasciate durante video interviste sul web, masterclass o colloqui con i diretti interessati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reazioni termo-nucleari sono un particolare tipo di reazioni nucleari che avvengono nelle stelle e che ne assicurano il rifornimento energetico. Esse sono la principale fonte di energia nelle stelle, in quanto la fusione di elementi leggeri (in particolare fino al ferro) risulta essere esotermica. La fusione di elementi leggeri produce elementi più pesanti, a partire dalla fusione dell'idrogeno, che produce elio, fino alla fusione del silicio, che produce nichel. Solamente le stelle con massa maggiore di 8 masse solari, tuttavia, hanno massa necessaria a raggiungere la combustione del silicio. Le stelle meno massive sono destinate ad arrestarsi alla fusione di elementi più leggeri e a diventare delle nane bianche. Oltre alla fusione di elementi leggeri, esistono altre reazioni negli interni stellari in grado di fornire energia e formare nuovi elementi. Esse sopraggingono in larga parte nelle fasi finali della vita di una stella, quando le temperature all'interno dei nuclei stellari sono particolarmente elevate. Ne sono un esempio le catture alfa, le catture neutroniche e la fotodisintegrazione. L'insieme delle reazioni termo-nucleari che avvengono nel corso della vita di una stella permettono la creazioni di nuovi elementi, che vengono poi riemessi nel mezzo interstellare tramite esplosioni di supernova e fungono da materiale fondante per la nascita di nuove stelle. Nella seguente tesi verranno affrontate le principali reazioni termo-nucleari che avvengono negli interni stellari, dalla fusione di elementi leggeri fino alle fasi finali della vita di una stella.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni, nella storia delle scienze si è sviluppato un certo interesse per la comunicazione delle discipline verso un pubblico di non specialisti, indicata come divulgazione scientifica. Spesso tale interesse è limitato al mondo anglosassone, mentre per altri Paesi poco è stato scritto. Per quanto riguarda l’Italia la letteratura è ancora abbastanza confinata ai primi decenni successivi all’unificazione nazionale. Si vuole qui fornire un caso di studio per la divulgazione italiana di inizio Novecento, che permetta di osservare come venivano comunicate l’astronomia e la fisica e come esse interagissero nella diffusione delle nuove idee scientifiche: il passaggio della cometa di Halley del 1910 nelle parole del fisico Augusto Righi e dell’astronomo Elia Millosevich. Per contestualizzarle, si affrontano la storia della divulgazione scientifica, con la specificità italiana, e lo sviluppo avvenuto nell’astronomia a partire dall’Ottocento. Si identificano successivamente i criteri di analisi applicati ai testi considerati, partendo dalla letteratura di ricerca in storia e sociologia della scienza. Si traccia poi l’evolversi delle conoscenze sulle comete al passare dei secoli. Si affronta il contesto storico, sociale e culturale in cui si muovono Millosevich e Righi. Di quest’ultimo, fisico bolognese di rilevanza internazionale, si abbozza una breve biografia. Sono poi esposti l’analisi e il confronto dei testi “Sulle comete e in ispecial modo sulla cometa di Halley” di Elia Millosevich e “Comete ed elettroni” di Augusto Righi e si propone uno spunto per possibili studi futuri riguardanti i cambiamenti nella comunicazione scientifica avvenuti nel corso del ventesimo secolo, col ritorno del 1986 della cometa. Infine, nelle Appendici si trovano vari approfondimenti. Nell’affrontare le differenti contestualizzazioni storiche e scientifiche si fa uso sia di letteratura di ricerca che di fonti primarie, risalenti ai diversi periodi considerati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I generatori compatti di neutroni possono rappresentare un grande progresso nell'ambito della Medicina Nucleare. Sono una valida alternativa rispetto ai metodi tradizionali per la produzione dei radioisotopi necessari per la sintesi dei radiofarmaci, e permettono di esplorare e sviluppare nuove metodologie radioterapeutiche innovative, complementari e potenzialmente più efficaci rispetto a quelle già esistenti. Enea sta portando avanti due progetti in questo ambito. Il primo, SORGENTINA-RF, è volto allo sviluppo di una macchina in grado di produrre un fascio di neutroni a 14MeV, con la quale irradiare un target di molibdeno metallico, in modo da ottenere tecnezio-99 metastabile (99mTc), il radioisotopo più usato al mondo nelle procedure di imaging biomedico. Il secondo progetto, LINC-ER, ha lo scopo di progettare le infrastrutture necessarie ad accogliere un generatore compatto di neutroni, il cui scopo sarà quello di eliminare le residue cellule tumorali dopo un intervento chirurgico, a ferita aperta, in modo simile alle attuali tecniche di radioterapia intraoperatoria, che però sfruttano elettroni o raggi X. Questo lavoro di tesi trova posto in questi progetti perché ha contributo a portare avanti le ricerche in due aspetti specifici. Nel caso di SORGENTINA-RF, sono stati studiati tutti gli aspetti radiochimici per ottenere dal molibdeno metallico la soluzione liquida di molibdato sodico da cui si estrae il 99mTc. In questo caso si è deciso di puntare su processo “green” e innovativo basato sull’uso di perossido di idrogeno. Durante la tesi si sono studiati i più importanti fattori che governano questo processo e si è definito un meccanismo chimico che lo spiega. Nel caso di LINC-ER, invece, il lavoro sperimentale è stato quello di studiare metodi e rotte sintetiche nuove per ottenere nanoparticelle di composti di boro e bario, dispersi in hydrogels in grado di amplificare gli effetti del fascio neutronico sui tessuti cancerogeni e ridurli su quelli sani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cartilagine ad oggi rappresenta ancora una sfida per la medicina rigenerativa a causa della sua scarsa capacità di rigenerarsi quando sottoposta a gravi lesioni tissutali. Inoltre, la sua struttura complessa e l'ambiente biologico che offre sono ancora difficili da riprodurre con precisione mediante l’utilizzo di strutture bioartificiali e biomimetiche. Sebbene gli interventi per riparare i danni al tessuto cartilagineo siano ancora prevalentemente di stampo chirurgico, si stanno aprendo nuove strade nel campo dell'ingegneria tissutale volte a ricreare una struttura simile a quella originaria, che possa indurre la rigenerazione o sostituire direttamente il tessuto danneggiato. Lo studio condotto e discusso in questo elaborato mira a soddisfare quest'ultimo intento, ponendo le basi per un'eventuale evoluzione sperimentale della stampa del menisco. La ricerca si è basata sulla biostampa 3D di campioni di menisco, di dimensioni pari a circa 1 cm2, realizzati mediante un bioinchiostro a base di alginato e nanocellulosa, al cui interno sono stati immersi sferoidi/microtessuti di condrociti con diversa concentrazione. La stampa dei campioni è avvenuta in tre diverse condizioni: i) solo bioinchiostro, ii) bioinchiostro contenente sferoidi da 5000 cellule, iii) bioinchiostro contenente sferoidi da 10000 cellule. Al termine della stampa sono stati analizzati i campioni per verificare la sopravvivenza delle cellule e investigare l'attitudine di queste di ricreare matrice extracellulare cartilaginea nelle condizioni ambientali in cui sono state introdotte. A questo proposito, sono state eseguite delle analisi istochimiche, quali la RT-PCR e l’analisi istologica. Inoltre, a partire dalle immagini al microscopio degli sferoidi a seguito della loro formazione e dalle sezioni istologiche, sono state analizzate le dimensioni dei campioni per confrontare l'eventuale variazione volumetrica di questi prima della stampa e a seguito del processo di estrusione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cancro è una delle malattie statisticamente più diffuse e una delle principali cause di morte nel mondo, con più di 300.000 nuove diagnosi annue solamente in Italia e con circa dieci milioni di decessi globali. A causa dell’elevata incidenza e dell’invecchiamento della popolazione, la ricerca di una soluzione a questa malattia assume una particolare importanza. Una delle terapie più frequentemente utilizzate per il trattamento del cancro è la chemioterapia, che possiede una rilevanza fondamentale e rimane ad oggi insostituibile. Tuttavia, questa terapia dal carattere sistemico presenta numerosi limiti che devono necessariamente essere risolti e tra le possibili soluzioni l’utilizzo di Drug Delivery Systems nanometrici rappresenta un approccio dalle elevate potenzialità. Tra i diversi nanocarrier, i nanogel polimerici si distinguono per l’ottima versatilità, biocompatibilità, biodegradabilità, stabilità in ambiente biologico e l’elevata capacità di incapsulamento. Questi nanovettori, che possiedono le caratteristiche tipiche degli idrogel e dei nanomateriali, sono dotati della capacità di incapsulare, trasportare e rilasciare in modo controllato farmaci chemioterapici dalle varie proprietà chimico-fisiche. Lo scopo di questa tesi è l’analisi delle caratteristiche di questi composti al fine di evidenziare come l’utilizzo dei nanogel polimerici nel trattamento chemioterapico possa risolvere alcuni dei principali problemi di questa terapia e migliorarne l’efficacia terapeutica. Per dimostrare quanto affermato, i risultati dell’utilizzo dei nanogel nel trattamento di alcune forme tumorali verranno mostrati e confrontati con quelli della chemioterapia convenzionale, con lo scopo di evidenziarne i vantaggi e i limiti ancora presenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo delle reti mobili è fornire ai dispositivi wireless accesso a una grande varietà di servizi dati, in un’ampia area geografica. Nonostante le reti cellulari odierne, basate sulla tecnologia Massive MIMO, possano raggiungere elevate performance in condizioni favorevoli (centro cella) esse, presentano all’interno dell’area di copertura, zone soggette a data-rate notevolmente ridotti. In questo elaborato, viene brevemente descritta la rete cell-free; una nuova architettura di rete pensata per superare i vecchi limiti delle reti cellulari tradizionali. Successivamente, vengono presentati attraverso simulazioni i due principali vantaggi che queste nuove reti cell-free offrono. Inoltre, viene analizzato uno schema random access in grado di gestire l’accesso multiplo per queste nuove architetture di rete. Questo schema rappresenta un’estensione di un protocollo già presente in letteratura e perfettamente funzionante per reti Massive MIMO, appartenente alla famiglia dei protocolli Coded Slotted ALOHA. Infine, un'analisi delle prestazioni e alcuni possibili scenari sono stati presentati, con lo scopo di valutare l'effetto che algoritmi di tipo SIC possono avere su queste reti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intensificarsi della concorrenza globale, il rapido sviluppo delle tecnologie e le mutevoli richieste dei clienti hanno portato a una tendenza verso maggiori differenze nei requisiti dei clienti, maggiore necessità di personalizzazione, cicli di vita dei prodotti sempre più brevi e la necessità di una rapida introduzione di nuovi prodotti. I produttori devono tenere conto di queste nuove tendenze e devono essere in grado di fronteggiarle per ottenere un vantaggio competitivo. I sistemi di produzione riconfigurabili RMS sono adatti nella gestione di queste richieste in quanto il sistema può essere continuamente riconfigurato per adattarsi alle richieste del mercato in termini di volumi richiesti e personalizzazione esatta dai clienti. Lo sviluppo effettivo di RMS risulta, ad oggi, molto impegnativo per le aziende e questo è il principale motivo per il quale si ricorre ancora a sistemi di produzione maggiormente tradizionali come DMS e FMS. Questo elaborato definisce le caratteristiche fondamentali ed i principi di progettazione dei RMS, facendone un confronto con quelle dei sistemi DMS e FMS. Successivamente, partendo da un esempio industriale e seguendo i principi fondamentali dei RMS, si sviluppano dei concept di linea produttiva, con celle e stazioni idonee allo sviluppo di un sistema riconfigurabile. In ultima analisi, presso il laboratorio dell’Università di Aalborg, in Danimarca, vengono condotte prove pratiche sulla linea di produzione riconfigurabile Festo. Queste hanno permesso di mettere in luce gli aspetti di forza e le criticità di tali sistemi. Infine, vengono proposte idee per rendere più efficaci i RMS e vengono brevemente illustrate altre possibili tipologie di riconfigurazione in cui viene completamente stravolto il concetto di linea di produzione odierno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di tesi ha come oggetto l’ipotesi di restyling del fan coil appartenente alla gamma Estro. Il progetto è nato durante il percorso di tirocinio curricolare ed è poi proseguito durante quello per tesi presso la Galletti s.p.a. Quando parliamo di restyling si intende inizialmente un intervento sulla parte estetica del prodotto, per poi arrivare ad un’analisi critica ed un ripensamento relativo alle funzionalità ed alle peculiarità che deve avere questo tipo di prodotto. Ciò si rende necessario perché il progetto della gamma Estro è ormai datato e nel corso degli anni le esigenze impiantistiche e le tendenze progettuali si sono notevolmente modificate, ad esempio si è passati da una prevalenza di modelli dotati di mobile di copertura, poiché installati a vista, ad una percentuale crescente di unità desinate ad essere installate a scomparsa ed incasso nei contro soffitti o in vani tecnici. Per l’ipotesi di redesign di Estro si è partiti col ripensare l’estetica del prodotto e affiancare tale cambiamento a nuove funzionalità da implementare attraverso un approccio sinestetico, rendendo così il fan coil capace di interfacciarsi con la sfera sensoriale della persona. Una prima ricerca si è focalizzata infatti sull’approfondimento di quella che la sfera sensoriale delle persone, andando ad individuare e studiare quelli che sono i sensi e gli organi di senso. Si è poi studiato come questa percezione simultanea di sensi avviene e quanto incida sul benessere indoor dell’utente, migliorandone le prestazioni psico-fisiche e aiutando le persone a sentirsi concentrate ed in forma. Infine si è deciso di implementare Estro facendolo interagire con i sensi, scegliendone le modalità adatte, il tutto affiancato anche dallo studio della nuova forma che va ad integrarsi con le nuove funzionalità che mirano al benessere dell’utente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si basa sull’esperienza di tirocinio effettuata presso un’Azienda italiana che opera nel settore della lavorazione plastica e produce contenitori. L’Azienda, a seguito di un’innovazione su tutta la linea di prodotto, ha da poco preso la decisione di investire nell’inserimento di due nuove presse per lo stampaggio e nella realizzazione di un nuovo impianto di assemblaggio automatizzato. Questi verranno inseriti all’interno dell’attuale stabilimento ed andranno ad aumentare la capacità produttiva. Se da un lato ci sono grandi vantaggi in ciò, dall’altro va analizzato il contorno. In particolare: Come va ad impattare l’inserimento di questi elementi nelle logiche aziendali? Come cambiano i flussi di materiale all’interno dello stabilimento? Sarà sufficiente lo spazio attuale per lo stoccaggio dei semilavorati? Poste queste domande, l’obiettivo dell’elaborato è di rispondervi, attraverso l’analisi delle principali attività logistiche dell’Azienda, focalizzando l’attenzione sul layout attuale del reparto magazzino semilavorati e dei flussi di materiale. L’analisi del magazzino nella situazione As Is evidenzia una serie di criticità. Il problema principale è di definire l’adeguato layout del magazzino, che consente un utilizzo ottimale della superficie a disposizione, in modo da garantire l’efficienza e l’efficacia delle operazioni che ivi si svolgono. L’analisi ha condotto alla progettazione di un nuovo layout e di una nuova politica di allocazione dei materiali. Infine, viene effettuata un’attenta analisi dei flussi logistici, ed in particolare delle movimentazioni di materiale, sviluppata attraverso il software simulativo AutoMod. Quindi, vengono simulati degli ipotetici scenari, successivi all’inserimento del nuovo impianto di assemblaggio, per valutare le criticità che potrebbe dover affrontare l’Azienda.