145 resultados para Pari suhteessa : tunne itsesi, uskalla rakastaa
Resumo:
Una Brain Computer Interface (BCI) è un dispositivo che permette la misura e l’utilizzo di segnali cerebrali al fine di comandare software e/o periferiche di vario tipo, da semplici videogiochi a complesse protesi robotizzate. Tra i segnali attualmente più utilizzati vi sono i Potenziali Evocati Visivi Steady State (SSVEP), variazioni ritmiche di potenziale elettrico registrabili sulla corteccia visiva primaria con un elettroencefalogramma (EEG) non invasivo; essi sono evocabili attraverso una stimolazione luminosa periodica, e sono caratterizzati da una frequenza di oscillazione pari a quella di stimolazione. Avendo un rapporto segnale rumore (SNR) particolarmente favorevole ed una caratteristica facilmente studiabile, gli SSVEP sono alla base delle più veloci ed immediate BCI attualmente disponibili. All’utente vengono proposte una serie di scelte ciascuna associata ad una stimolazione visiva a diversa frequenza, fra le quali la selezionata si ripresenterà nelle caratteristiche del suo tracciato EEG estratto in tempo reale. L’obiettivo della tesi svolta è stato realizzare un sistema integrato, sviluppato in LabView che implementasse il paradigma BCI SSVEP-based appena descritto, consentendo di: 1. Configurare la generazione di due stimoli luminosi attraverso l’utilizzo di LED esterni; 2. Sincronizzare l’acquisizione del segnale EEG con tale stimolazione; 3. Estrarre features (attributi caratteristici di ciascuna classe) dal suddetto segnale ed utilizzarle per addestrare un classificatore SVM; 4. Utilizzare il classificatore per realizzare un’interfaccia BCI realtime con feedback per l’utente. Il sistema è stato progettato con alcune delle tecniche più avanzate per l’elaborazione spaziale e temporale del segnale ed il suo funzionamento è stato testato su 4 soggetti sani e comparato alle più moderne BCI SSVEP-based confrontabili rinvenute in letteratura.
Resumo:
Il seguente lavoro di tesi è nato durante un’attività di stage della durata di 7 mesi svolto all’interno della divisione Tea&Coffe di IMA S.p.A., azienda leader mondiale nella produzione di macchine automatiche per il confezionamento di prodotti farmaceutici, cosmetici, alimentari, tè e caffè. Le attività svolte si collocano all’interno di un progetto avviato da IMA per promuovere il passaggio ad un modello di industria necessariamente più evoluta, facendo leva sull’attitudine ad integrare e sviluppare nuove conoscenze e nuove tecnologie interdisciplinari e, allo stesso tempo, di massimizzare la sinergia tra le dimensioni tecnica ed economica, comportando una reale riduzione di sprechi nella filiera produttiva, commerciale ed ambientale. I moderni impianti di produzione devono infatti affrontare una sfida che li vede alla continua ricerca della produttività, ovvero di una produzione che remuneri velocemente e con ampi margini gli investimenti effettuati, della qualità dei prodotti e dei processi di produzione, ovvero della garanzia di soddisfacimento delle aspettative espresse ed inespresse del cliente, e della sicurezza per la salvaguardia della collettività e dell’ambiente. L’obiettivo di questo elaborato è stato quello di effettuare lo studio affidabilistico di una macchina automatica per la produzione di bustine di tè al fine di poterne studiare il suo comportamento al guasto e di elaborare in un secondo momento le politiche manutentive ottimizzate che ne permettano una gestione più efficiente. In questo ambito la macchina è stata scomposta in gruppi e sono stati esaminati tutti i pezzi di ricambio che sono stati richiesti in un arco temporale di durata pari a dieci anni, il fine è quello di poter individuare ed effettuare un’analisi affidabilistica dei componenti critici per poi procedere, attraverso l’uso di piattaforme software quali Weibull++ e Blocksim, col modellarne le distribuzioni statistiche e simulare il funzionamento del sistema nel suo complesso.
Resumo:
Scopo della tesi è la valutazione del potenziale di crescita (δ) di Listeria monocytogenes espressa come differenza tra il carico cellulare (log10 ufc/g) alla fine e all’inizio della prova, in monoporzioni di battuta di vitello (tartare) confezionate sottovuoto e conservate a temperatura di refrigerazione. Si tratta di un alimento ready to eat – RTE – prodotto dalla Ditta INALCA Spa e destinato ad una catena di ristorazione. I challenge test hanno lo scopo di fornire informazioni sul comportamento in determinate condizioni di conservazione, di L. monocytogenes inoculata artificialmente in un alimento. L. monocytogenes è un microrganismo patogeno ubiquitario nell’ambiente e resistente a diverse condizioni ambientali. E’ stato dimostrato che il batterio è responsabile della contaminazione post-processo degli alimenti, in quanto è stato isolato da impianti di trasformazione, macchine per l’imballaggio, nastri trasportatori, guanti, congelatori e guarnizioni. Sono state oggetto di studio: - i) 3 u.c. inoculate con soluzione fisiologica sterile su cui sono stati valutati Aw, pH, carica aerobia mesofila, batteri lattici, Pseudomonas, Enterobacteriaceae, muffe e lieviti; - ii) 1 u.c. non soggetta ad alcun inoculo per la ricerca qualitativa/quantitativa di L. monocytogenes; - iii) 9 u.c. contaminate con una miscela di 5 ceppi di L. monocytogenes (circa 100 ufc/g). Le confezioni inoculate sono state conservate per 21 giorni (pari alla shelf-life commerciale), di cui i primi 7 alla temperatura di +3°C, ed i successivi 14 giorni a +5°C. Il valore δ è risultato pari a 0.57: essendo superiore, seppure di poco, al valore soglia 0.5, le tartare in esame sono classificate come alimenti pronti che costituiscono terreno favorevole alla crescita di L. monocytogenes (categoria 1.2); in base al regolamento (CE) 2073/2005, il microrganismo deve essere assente in 25 g alla produzione e < 100 ufc/g durante la shelf–life (nota 5 e 7).
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
La passivhaus in clima mediterraneo: caratteristiche costruttive e simulazioni energetiche dinamiche
Resumo:
Questa Tesi approfondisce lo standard Passivhaus, un metodo sviluppato originariamente in Germania nella seconda metà degli anni ’80 ed ora diffuso in tutta Europa, con l’obiettivo di favorire la realizzazione di edifici in grado di fornire ottimi livelli di comfort con consumi energetici pari quasi a zero. Questo standard abitativo mi ha appassionato a tal punto che ho deciso di farne oggetto della mia tesi di laurea. Da diversi anni stiamo assistendo ad una serie di mutamenti climatici che stanno modificando la vita sul nostro pianeta e portano a considerare tutta una serie di cambiamento sul nostro modo di vivere. La casa passiva, a mio parere, è un concetto valido e utile a contenere questa situazione. In altre zone d’Europa, con climi invernali rigidi ma condizioni estive meno gravose delle nostre, è uno standard piuttosto diffuso e qui cercherò di formulare un’analisi quanto più vicina alla realtà riguardo all’adattabilità della Passivhaus al nostro clima. Lo scopo è quello di capire come si comporta questo tipo di edifici in ambienti climatici diversi da quelli per cui lo standard è stato progettato. Per verificarne l’efficacia, verrà studiato nel dettaglio il primo edificio residenziale multipiano recentemente costruito a Cesena e certificato Passivhaus. Successivamente, sarà simulata la realizzazione dello stesso edificio in dieci diverse località italiane, con differenti condizioni climatiche, e ne saranno verificate le prestazioni energetiche tramite un software di modellazione in regime dinamico. Se risulterà necessario a seguito delle verifiche, saranno progettate le modifiche alle soluzioni costruttive che permettano di raggiungere i livelli previsti dallo standard Passivhaus in tutte le località. I risultati della simulazione saranno infine confrontati e commentati nella parte conclusiva della Tesi.
Resumo:
degli elementi vegetali nella dinamica e nella dispersione degli inquinanti nello street canyon urbano. In particolare, è stato analizzata la risposta fluidodinamica di cespugli con altezze diverse e di alberi con porosità e altezza del tronco varianti. Il modello analizzato consiste in due edifici di altezza e larghezza pari ad H e lunghezza di 10H, tra i quali corre una strada in cui sono stati modellizati una sorgente rappresentativa del traffico veicolare e, ai lati, due linee di componenti vegetali. Le simulazioni sono state fatte con ANSYS Fluent, un software di "Computational Fluid Dynamics"(CFD) che ha permesso di modellizare la dinamica dei flussi e di simulare le concentrazioni emesse dalla sorgente di CO posta lungo la strada. Per la simulazione è stato impiegato un modello RANS a chiusura k-epsilon, che permette di parametrizzare i momenti secondi nell'equazione di Navier Stokes per permettere una loro più facile risoluzione. I risultati sono stati espressi in termini di profili di velocità e concentrazione molare di CO, unitamente al calcolo della exchange velocity per quantificare gli scambi tra lo street canyon e l'esterno. Per quanto riguarda l'influenza dell'altezza dei tronchi è stata riscontrata una tendenza non lineare tra di essi e la exchange velocity. Analizzando invece la altezza dei cespugli è stato visto che all'aumentare della loro altezza esiste una relazione univoca con l'abbassamento della exchange velocity. Infine, andando a variare la permeabilità delle chiome degli alberi è stata trovatta una variazione non monotonica che correla la exchange velocity con il parametro C_2, che è stata interpretata attraverso i diversi andamenti dei profili sopravento e sottovento. In conclusione, allo stadio attuale della ricerca presentata in questa tesi, non è ancora possibile correlare direttamente la exchange velocity con alcun parametro analizzato.
Resumo:
Lo scopo di questa tesi è stato sperimentare componenti prototipali su un motore V6 Diesel all’interno di un banco dinamico con il fine di valutarne la riduzione di CO2 in cicli di omologazione NEDC e WLTC. In particolare si sono studiati un nuovo EGR HP Mixer e un Oil Cooler dotato di Bypass: il primo componente per migliorare l’EGR distribution da cilindro a cilindro, mentre il secondo componente per ottenere un’ottimizzazione energetica della pompa dell’olio sfruttando il nuovo bypass del cooler. L’Oil Cooler è dotato di due cartucce intercambiabili che cambiano le fasi di bypass a seconda della temperatura dell’olio: la prima cartuccia, a 2 stadi, parte dalla condizione di bypass e chiude a una certa temperatura per proteggere il motore; la seconda, a 3 stadi, sfrutta il bypass solo in un range di temperatura ottimizzato con il calcolo CFD. La riduzione di consumi di gasolio è stata valutata confrontando i diversi consumi a pari emissioni di NOx; in questo modo si è registrata una riduzione di consumi con l’EGR HP Mixer dell’1.7% nel ciclo NEDC e dello 0.5% nel ciclo WLTC. Con lo stesso metodo si è registrato che l’Oil Cooler Bypass determina nel ciclo NEDC una riduzione dello 0.6 % con la valvola a 3 Stadi e una riduzione dello 0.37 % con la valvola a 2 Stadi. Nel ciclo WLTC si è invece ottenuta una riduzione dello 0.1 % con la valvola a 3 Stadi e un aumento dello 0.33 % con la valvola a 2 Stadi. Di ogni componente è stato fatto uno studio stazionario per indagarne a fondo i comportamenti.
Resumo:
Negli ultimi decenni nuove e sempre più restrittive normative antiinquinamento son state introdotte nei paesi maggiormente industrializzati dettando un aumento degli sforzi progettuali imposti all’industria automobilistica per cercare di contenere l’impatto ambientale esercitato dai motori a combustione interna. E’ evidente quindi l’importanza di possedere una profonda conoscenza dei fenomeni fisici e chimici che influenzano i processi di combustione così come avere a disposizione modelli quanto più accurati per la loro corretta rappresentazione tramite CFD. Per i motori ad accensione comandata gli studi si sono focalizzati sulla ricerca dell’efficienza evitando di incorrere in rischi di detonazione. Numerose sono le tecnologie che permettono di assolvere alle funzioni richieste, tra le più affermate vi sono i sistemi a fasatura variabile, in particolare le strategie che prendono il nome di ciclo Miller. Tale sistema, implementabile facilmente senza l’utilizzo di alcun sistema aggiuntivo, permette di ridurre sensibilmente temperature e pressioni in camera. Il seguente lavoro di tesi studierà, attraverso simulazione numerica tridimensionale condotta con software CONVERGE®, gli aspetti fisici e fluidodinamici indotti dalle diverse strategie REF, EIVC e LIVC applicate ad un motore GDI con tecnologia downsizing e turbocharging (modellato in ambiente CAD, tramite PTC CREO®). Successivamente, allo stesso motore, saranno apportate modifiche progettuali con lo scopo di comprendere in che modo un aumento di un punto del rapporto di compressione, che equivale a spostarsi verso zone a prestazioni più elevate, impatti sull’entità di pressione, temperatura e comportamento fluidodinamico e fisico a pari condizioni operative e di alzata. L’analisi ed il confronto con gli altri casi sancirà se questa nuova configurazione possa essere accettabile o rischiosa ai fini della detonazione.
Resumo:
L’utilizzo di biomasse come fonte di chemicals nell’industria chimica mira a rendere più sostenibili i processi industriali e i materiali prodotti. In particolare, l’acido crotonico (AC), impiegato come building block nella produzione di vernici e rivestimenti, è prodotto tradizionalmente da fonti fossili. La domanda globale ammonta a circa 1000 tonnellate ed è in continuo aumento, rendendo prioritaria l’individuazione di una sintesi alternativa e sostenibile. In questo studio, l’analisi del ciclo di vita (life cycle assessment, LCA) è stata applicata per stimare la carbon footprint e la domanda cumulativa di energia relative ad una sintesi innovativa dell’AC, basata sulla conversione termica di un precursore derivato da biomasse di scarto. In particolare, il processo prevede l’applicazione di un trattamento termochimico a poli-idrossi-butirrati (PHB) prodotti da colture batteriche miste a valle del processo B-PLAS. Sono stati modellati due scenari comparativi con l’obiettivo di (i) valutare la sostenibilità ambientale della sintesi alternativa nella tecnologia B-PLAS, considerando una condizione “base” di processo (con un contenuto di PHB pari al 30% nello slurry in ingresso al processo) e una “ottimale” (con un contenuto di PHB pari al 60%); (ii) confrontare gli impatti ambientali del processo di sintesi alternativo per entrambi gli scenari con quelli di sintesi dell’AC da fonti fossili. I risultati dell’LCA mostrano che nel processo B-PLAS, giunti alla produzione dello slurry (fango) arricchito in PHB, si possono avere due strade equivalenti estraendo i PHB o convertendoli in AC con una lieve preferenza per il processo estrattivo (0.71MJ/kgslurry vs 1.11MJ/kgslurry) nella condizione di base e (0.69MJ/kgslurry vs 1.17MJ/kgslurry) in quella ottimale. Estendendo la comparazione alla produzione dell’AC da fonti fossili, quello bioderivato comporta un impatto ambientale ampiamente inferiore, stimato in 159.6 MJ/kgAC e 204.6 MJ/kgAC per gli scenari “base” e “ottimale”.
Resumo:
I Medicane sono rari cicloni che si sviluppano sul Mar Mediterraneo e presentano caratteristiche dei cicloni tropicali, come la forma a spirale delle bande di nubi, un occhio privo di venti e nubi, venti intensi nella banda che circonda l’occhio e la presenza di un nucleo caldo. Nel presente lavoro, è stata compiuta un’analisi del Medicane Numa, verificatosi nel novembre del 2017, utilizzando gli output della simulazione del modello RAMS-ISAC. L’obiettivo di questa tesi è l’identificazione e la descrizione delle caratteristiche tropicali di Numa, focalizzandosi sulla descrizione dei diversi stadi di sviluppo del ciclone. Il sistema di bassa pressione è stato identificato utilizzando la pressione sul livello del mare, mentre l’anomalia termica e il vento orizzontale hanno permesso una descrizione della struttura del Medicane e del suo nucleo caldo. Un’illustrazione della struttura a spirale delle bande di nubi e dell’occhio è stata ottenuta con il grafico dei rapporti di mescolanza delle idrometeore di nubi e pioggia. Questi parametri hanno consentito di ricavare il diametro dell’occhio, pari a 75 km, mentre il diametro del Medicane è risultato 230 km. Numa ha registrato una velocità massima del vento in superficie di 20 m/s nella banda adiacente all’occhio del ciclone. Il diagramma di Hart dello spazio delle fasi del ciclone ha confermato la natura simil-tropicale di Numa e ne ha descritto l’evoluzione, identificando la transizione da sistema a caratteri tropicali a sistema ibrido. La traiettoria nello spazio delle fasi ha consentito l’identificazione delle sottofasi dell’evoluzione di Numa, confermate dai grafici dell’evoluzione temporale dei parametri menzionati in precedenza. L’analisi ha mostrato il ruolo cruciale della presenza di una struttura organizzata nel determinare l’intensità e la durata delle caratteristiche tropicali. Tutti i parametri hanno evidenziato la simmetria della struttura durante la persistente fase matura di Numa.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
Lo scopo di questo lavoro di tesi consiste nella realizzazione di fotocatalizzatori a base di nano-TiO2 per potenziali applicazioni nel campo della depurazione delle acque reflue. Nello specifico sono stati sintetizzati nanocompositi accoppiando nano-TiO2 a due materiali grafitici: ossido di grafene (GO), tramite ultrasonicazione (TGO) e nitruro di carbonio grafitico (g-C3N4), attraverso due tecniche: ultrasonicazione e polimerizzazione termica in situ. Per i compositi TGO lo studio relativo alla sintesi è stato rivolto all’ottimizzazione della percentuale in peso di GO. Per i compositi a base di g-C3N4 lo scopo è stato quello di valutare quale dei due metodi di sintesi fosse il più efficace. I materiali ottenuti sono stati caratterizzati dal punto di vista chimico-fisico (DLS-ELS, XRD, Band Gap, BET, SEM, FT-IR, TGA-DSC) e funzionale. La caratterizzazione funzionale è stata eseguita per valutare le prestazioni fotocatalitiche dei fotocatalizzatori nanocompositi utilizzando, come reazione modello, la fotodegradazione di Rodamina B, sotto luce UV e solare. I risultati hanno messo in luce che la percentuale ottimale di GO, nei compositi TGO, è pari al 16%. Inoltre, è stato osservato un effetto sinergico tra TiO2 e GO dove i nanocompositi TGO hanno mostrato maggiore attività fotocatalitiche rispetto alla singola TiO2. I dati fotocatalitici hanno evidenziato che il metodo ottimale per la preparazione dei compositi a base di g-C3N4 e TiO2, è la polimerizzazione termica in situ a 500°C.
Resumo:
Il guadagno di un PMT è il fattore di amplificazione tra la corrente generata dal fotocatodo e quella finale dell’anodo. Quando un PMT è soggetto a una sorgente luminosa per lunghi periodi di tempo (processo noto come "invecchiamento"), il suo guadagno tende a diminuire. In questa tesi sono riportati i risultati della campagna di invecchiamento di un fotomoltiplicatore Hamamatsu R760. In particolare, è stato studiato come variasse il guadagno in funzione della carica integrata dal PMT tramite due principali tipi di misure: quella del guadagno assoluto, che consiste in singole misure di guadagno nella condizione di emissione di un singolo fotoelettrone alla volta, e quelle di guadagno relativo, le quali hanno permesso di studiare la dipendenza tra guadagno e voltaggio applicato al PMT. Il PMT in esame è stato fatto invecchiare fino a una carica integrata totale pari a 342 C. Una volta raggiunti i 282 C, è stato spento per 20 giorni, in modo da studiare l’eventuale capacità di recuperare guadagno durante i periodi di inattività. É stata osservata una rapida decrescita del guadagno nei primi 40 C integrati, com- inciando da 7.79 · 10^6 fino a un valore pari a 1.68 · 10^6, seguita da oscillazioni minori attorno a una decrescita lineare media. Dopo il periodo di inattività non è stato rilevato alcun recupero significativo di guadagno. Il guadagno del PMT dipende dal voltaggio applicato tramite una legge a potenza, i cui parametri sono stati misurati. In particolare, gli esponenti di tale relazione sono stati soggetti a una decrescita rapida iniziale (nei primi 40 C di carica integrata), seguita da una stabilizzazione. Inoltre, sono stati ricavati i valori di tensione da applicare al PMT per mantenere il guadagno a un valore costante di 1.5 · 10^5 in funzione della carica integrata. Questo valore è stato scelto come punto di lavoro per il rivelatore PLUME installato nell’esperimento LHCb, che utilizzerà questo tipo di PMT per la sua campagna di misure.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
La forte espansione del mercato della mobilità elettrica degli ultimi anni ha portato sotto i riflettori nuove esigenze, tecnologie e problematiche per il Power Train di questi veicoli. L’attenzione all’affidabilità del motore elettrico è ormai al pari di quella verso prestazioni, efficienza e costi. Al fine di garantire una vita utile al motore congrua con quella del veicolo, che si attesta tra mediamente tra i 5 e i 10 anni, è necessario conoscere attentamente quali sono le criticità del sistema isolante (EIS) della macchina. All’interno di questo ambito, questa tesi si è concentrata sull’analisi dei diversi componenti che costituiscono l’EIS dello statore di un motore elettrico impiegato in una super car ibrida. Il primo passo è stato caratterizzare i sottocomponenti dello statore, a partire dai fili (Litz Wires) con cui sono realizzati i suoi avvolgimenti. I tempi di endurance dei fili sotto attività di scarica parziale (PD) nell'ordine dei minuti hanno dimostrato la necessità di operare in assenza di scariche. Per questo motivo è stato studiato l'andamento del PDIV sotto diverse forme d'onda e per provini invecchiati termicamente. Lo studio è stato poi esteso allo statore completo, sottoponendo l’EIS a cicli di invecchiamento, al fine di diagnosticare, attraverso prove elettriche, se le sue prestazioni restano accettabili per l’interezza della vita prevista dall’applicazione. In conclusione, sono state trattate le problematiche della qualifica dell’EIS completo di un motore elettrico. È stata proposta una soluzione per realizzare un sistema idoneo a sottoporre lo statore da invecchiare a stress elettrico e termico contemporaneamente. Gli studi effettuati in merito hanno dimostrato la fattibilità ed i benefici di questo sistema, permettendo di rispecchiare al meglio le condizioni di servizio della macchina, con l’obiettivo di perfezionare le attuali procedure di qualifica.