710 resultados para Idrogeno stoccaggio misure analisi sperimentale strumenti energie rinnovabili
Resumo:
Il lavoro presentato in questa tesi analizza il comportamento elettrico di prototipi di sensori Low-Gain Avalanche Detector (LGAD) ultrasottili. L'analisi consiste in una verifica sperimentale delle caratteristiche attese di questi sensori, che sono stati selezionati come possibili candidati per la realizzazione del sistema di Time-Of-Flight (TOF) nell'esperimento ALICE 3. Concepito come evoluzione dell'esperimento ALICE attualmente in funzione al CERN, ALICE 3 rappresenta l'archetipo di una nuova generazione di esperimenti nella fisica delle collisioni di ioni pesanti, ed è previsto iniziare la propria attività di presa dati per LHC Run 5 nel 2032. Sono stati presi in considerazione 22 campioni di LGAD, di cui 11 provenienti dal wafer di produzione 5 (spessore 25 um) e gli altri 11 dal wafer 6 (spessore 35 um). In entrambi i casi, di questi 11 sensori, 6 sono campioni in configurazione LGAD-PIN e 5 sono matrici. Tutti e 22 i campioni sono stati sottoposti a misure di corrente in funzione del voltaggio, mentre solo quelli appartenenti al wafer 5 anche a misure di capacità. L'obiettivo è quello di misurare la caratteristica IV e CV per ognuno dei campioni e da queste estrarre, rispettivamente, tensione di breakdown e profilo di doping.
Resumo:
In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.
Resumo:
Background L’identificazione degli eventi temporali permette nell’analisi del movimento di valutare la qualità del gesto motorio e si offre in aiuto alla formulazione di diagnosi cliniche, valutazioni di un percorso riabilitativo e in ambito ortopedico per la creazione di protesi. L’uso sempre più diffuso dei sensori inerziali nell’analisi del movimento ha portato alla nascita di numerosi algoritmi per identificare gli eventi temporali; tuttavia, molti di questi sono stati sviluppati per la ricerca dei gate event sull’analisi del cammino, mentre non sono molti quelli dedicati allo studio dell’arto superiore, dove il reaching è il task motorio più studiato. Obiettivo tesi Proporre un metodo per l’identificazione degli eventi temporali su movimento di reaching con l’uso di soli sensori inerziali. Metodo All’interno del progetto Neurograsp, che è uno studio di analisi del movimento di reaching condotto presso il Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione Guglielmo Marconi sono stati considerati i dati relativi alla stereofotogrammetria e ai sensori inerziali. L’analisi ha riguardato tre soggetti sani destrorsi. È stato considerato il sistema di stereofotogrammetria come gold standard con cui si sono rilevati gli eventi temporali ricercati del task motorio e successivamente si è implementato un metodo per identificare gli stessi eventi temporali tramite l’uso dei soli sensori inerziali. L’analisi è terminata con il confronto dei risultati. Risultati Si sono effettuate le analisi dei risultati in termini di classificazione dei times individuati dall’algoritmo come corretti, falsi positivi o falsi negativi e sulla quantificazione dell’errore assoluto sui valori identificati correttamente.
Resumo:
La lesione del midollo spinale (LM) è una complessa condizione fisica che racchiude in sé sfide di carattere biomedico nonché etico-giuridico. La complessità della LM nonché la diversificazione delle esperienze dei singoli soggetti affetti da LM rendono questo un topic di grande interesse per la ricerca biomedicale, in relazione a nuovi metodi di cura e di riabilitazione dei soggetti. In particolare, la sinergia tra i saperi medico, informatici e ingegneristici ha permesso di sviluppare nuove tecnologie di comunicazione e di controllo neurologico e motorio che, capaci di sopperire a deficit cerebrali e/o motori causati da LM, consentono ai pazienti di avere una qualità di vita sensibilmente migliore, anche in termini di autonomia. Tra queste nuove tecnologie assistive primeggiano per efficacia e frequenza di utilizzo le Brain Computer Interfaces (BCI), strumenti ingegneristici che, attraverso la misurazione e l’analisi di segnali provenienti dall’attività cerebrale, traducono il segnale registrato in specifici comandi, rappresentando per l’utente con LM un canale di comunicazione con l’ambiente esterno, alternativo alle normali vie neurali. In questo elaborato l’analisi di due sperimentazioni, una su scimmia l’altra su uomo, entrambi affetti da LM, con differenti sistemi di monitoraggio dell’attività neurale, ha permesso di evidenziare un limite della ricerca sul topic: nonostante i promettenti risultati ottenuti su primati non umani, il carattere invasivo del sistema BCI–EES rende difficile traslare la sperimentazione su uomo. La sperimentazione su LM pone delle sfide anche dal punto di vista etico: sebbene siano auspicati lo sviluppo e l’applicazione di metodi alternativi alla sperimentazione animale, l’impiego di primati non umani appare ancora una scelta obbligata nel campo della ricerca di soluzioni terapeutiche finalizzate al ripristino della funzione locomotoria, per via della stretta affinità in termini di conformazione fisica, genetica e anatomica.
Resumo:
L'elaborato si occupa di analizzare diverse tecnologie di accumulo elettrochimico con lo scopo di dimensionare un sistema di accumulo che verrà accoppiato ad un parco eolico, collocato in Sicilia. Lo standard di connessione sarà in AT a 36 kV, un nuovo standard di Terna che permette di snellire le connessioni di impianti rinnovabili con potenza inferiore a 100 MW. A seguito di un primo dimensionamento analitico e di un confronto con i fornitori, si è optato per l'utilizzo della tecnologia Litio-ione, meno costosa e più performante e il cui impatto ambientale risulta essere controllato. Infine, si è realizzata una valutazione economica del sistema, ipotizzando tre diverse destinazioni di utilizzo del sistema di accumulo, che può offrire servizi ancillari alla rete o partecipare al nuovo mercato delle capacità di Terna, con lo scopo di creare una riserva di energia e partecipare al controllo e alla stabilità della rete. Si è quindi stimato un possibile tempo di ritorno dell'investimento, tenendo conto anche dell'aumento dei prezzi legato all'attuale condizione politico-economica.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.
Resumo:
I sistemi di trasporto dell’energia elettrica per lunghe distanze possono dimostrarsi convenienti attraverso l’utilizzo di cavi in corrente continua ad alta tensione (HVDC). Essi possono essere installati seguendo la classica configurazione aerea, oppure interrati, dove le difficili condizioni ambientali, possono portare alla degradazione dei materiali. I materiali polimerici che costituiscono l’isolamento del cavo sono soggetti ad invecchiamento, diventando sempre più fragili e poco affidabili sia a seguito delle condizioni ambientali che dall’applicazione dell’alta tensione, che comporta un forte campo elettrico fra la superficie del conduttore e l’isolante esterno. Per determinare l’integrità e le caratteristiche dei materiali polimerici si utilizzano tecniche diagnostiche. Molte tecniche prevedono però la distruzione del materiale, quindi se ne cercano altre non distruttive. Questa tesi studia gli effetti dell’aggiunta di un additivo alla matrice polimerica del materiale isolante, utilizzando la tecnica di spettroscopia dielettrica, la misura di conducibilità e il metodo dell’impulso elettroacustico. I provini testati sono costituiti da una matrice di polipropilene e polipropilene additivato con nitruro di boro, testati alle temperature di 20, 40, 70°C. In particolare, il primo capitolo introduce i sistemi HVDC, per poi presentare le caratteristiche e le proprietà dei materiali nanodielettrici. Nella terza parte si descrive il set sperimentale utilizzato nelle prove condotte. Nei capitoli 4 e 5 sono riportati i risultati ottenuti e la loro discussione.
Resumo:
La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.
Resumo:
La miscelazione di sistemi gas-liquido all’interno di recipienti meccanicamente agitati ritrova molte applicazioni industriali. I recipienti meccanicamente agitati rappresentano la scelta più conveniente poiché consentono una dispersione ottimale della fase dispersa all’interno della fase continua ed uno scambio di materia e di calore efficiente. I parametri chiave sono il consumo di potenza, l’hold-up di gas ed il regime gas-impeller. La fase sperimentale è stata sviluppata mediante l’utilizzo di un reattore pilota operante con tre turbine Rushton. Il consumo di potenza è stato valutato ed i risultati ottenuti dalle analisi di laboratorio sono stati confrontati con la correlazione empirica di Warmoeskerken (1986). Le tecniche impiegate in passato per la caratterizzazione dei sistemi gas-liquido sono caratterizzate da diversi svantaggi quali la possibilità di essere utilizzate solo per lo studio di sistemi trasparenti, l’intrusività ed i costi alti. Attualmente, la tomografia a resistenza elettrica (ERT) è una delle tecniche di ispezione più utilizzate grazie alla sua potenzialità di fornire informazioni qualitative e quantitativi. Uno degli obiettivi di questo lavoro di tesi è quello di validare una metodologia da seguire per la caratterizzazione dei sistemi gas-liquido. L’ERT è stata utilizzata per la valutazione dell’hold-up di gas e per l’identificazione del regime instaurato all’interno dell’apparecchiatura. I risultati sono stati confrontati con le valutazioni visive e le correlazioni proposte dalla letteratura. La strumentazione dell’ERT comprende un sistema di sensori, un sistema di acquisizione dati (DAS) ed un computer sul quale è installato il software per la ricostruzione dell’immagine, il quale, generalmente, è basato sull’algoritmo linear back - projection. Ulteriore obiettivo di questo lavoro di tesi è quello di investigare sulla convenienza di adoperare un software più sofisticato per la ricostruzione dell’immagine.
Resumo:
La complessità dei satelliti e la difficoltà nell’analizzare e risolvere eventuali malfunzionamenti che occorrono dopo la messa in funzione, comportano la necessità di completare estensive campagne di verifica sperimentale prima del lancio in orbita. Nel caso del sistema di determinazione e controllo di assetto (ADCS) è necessario riprodurre a terra le condizioni di microgravità e quasi totale assenza di attrito che si riscontrano in orbita. Per simulare l’ambiente spaziale a terra si usano quindi dei banchi prova progettati e costruiti appositamente per questo scopo: vengono solitamente impiegati dei cuscinetti ad aria sferici, piani oppure di entrambi i tipi per dare al sistema da verificare gradi di libertà rotazionali. Il Laboratorio Microsatelliti Microsistemi Spaziali dell’Università di Bologna ha sviluppato un banco prova in cui possono essere utilizzati alternativamente due cuscinetti sferici, uno realizzato in PVC e l’altro in alluminio. Al fine di certificare l’affidabilità dei risultati ottenuti dalle prove sperimentali, è necessario caratterizzare tutte le fonti di disturbo e in particolare verificare che i disturbi introdotti dai cuscinetti siano sufficientemente bassi da assicurare una fedele simulazione dell’ambiente spaziale. Nel presente elaborato è descritta la progettazione e la realizzazione di una piattaforma sperimentale necessaria per quantificare le coppie di disturbo dei due cuscinetti utilizzati presso il laboratorio. I risultati sperimentali ottenuti sono stati comparati con un modello analitico ricavato da precedenti conclusioni pubblicate nella letteratura scientifica. In seguito, la tesi esamina l’approccio utilizzato per stimare le coppie di disturbo e compara i risultati per entrambi i cuscinetti disponibili. Il lavoro svolto mette a servizio del laboratorio gli strumenti necessari a dimensionare i cuscinetti che verranno sviluppati e utilizzati in futuro.
Resumo:
L’inquinamento olfattivo, negli ultimi anni, ha acquisito rilevanza a livello istituzionale e varie Regioni italiane hanno adottato Regolamenti e Linee Guida in materia. Queste, individuano gli studi di impatto olfattivo come strumenti per valutare la necessità di interventi correttivi, a seguito di simulazioni effettuate con modelli di dispersione atmosferica. In studi di primo livello uno dei modelli utilizzabili è quello gaussiano, con cui vengono ricercate le concentrazioni di inquinante massime possibili nelle situazioni di simulazione considerate, a scopo di screening. In questo elaborato gli output di queste simulazioni saranno confrontati e correlati con quelli ottenuti da un modello di dispersione non stazionario di tipo lagrangiano a particelle, utilizzato invece negli studi di impatto olfattivo di secondo livello. Le variabili studiate sono state la concentrazione odorigena di picco, confrontata con il 98° percentile delle concentrazioni di picco orario su base annua, e la relativa distanza dalla sorgente. Il setting sperimentale presume una singola sorgente puntiforme, di cui è stata variata l’altezza della ciminiera. Per tutte le altezze emissive considerate, ogni run di simulazione è stato effettuato con entrambi i modelli. Le operazioni di regressione eseguite sugli output così ottenuti, hanno evidenziato delle buone funzioni di correlazione per entrambe le variabili considerate, valutate attraverso il parametro R2. Questo permette un’analisi di impatto olfattivo di primo livello molto più accurata, poiché, utilizzando all’atto pratico un modello di tipo gaussiano, si possono stimare da esso i risultati che si sarebbero ottenuti con l’applicazione di quello lagrangiano, più complesso e in linea con quanto richiesto dalla normativa. Si ottengono, quindi, valutazioni di impatto più aderenti al territorio analizzato senza, tuttavia, la necessità di utenti con competenze tecniche specifiche e di strumenti informatici con potenze di calcolo molto elevate.
Resumo:
Il lavoro svolto nella seguente Tesi ha avuto come obiettivo principale quello di modificare il precedente modello TRNSYS dell’impianto innovativo solare/biomassa studiato nell’ambito del progetto Hybrid-BioVGE, impianto che utilizza un gruppo chiller VGE con eiettore a geometria variabile, aggiungendo il circuito per la produzione di ACS, composto da un serbatoio di accumulo un campo di collettori solari dedicato ed una pompa di circolazione, modificando la circuitazione idraulica complessiva, modellando la configurazione finale. Sono state modificate e migliorate anche le logiche di controllo dei vari componenti dell’impianto, in particolare della caldaia a biomassa, del connettore tra accumulo caldo da un lato e circuito di riscaldamento ed accumulo per la produzione di ACS dall’altro lato, del gruppo chiller VGE e dell’accumulo di energia frigorifera con PCM. In ultima istanza, è stata implementata per la stagione estiva un’ulteriore logica di controllo che favorisce il funzionamento del gruppo chiller VGE quando è disponibile un alto contributo di energia solare ed in presenza di una temperatura ambiente in condizioni favorevoli. Attraverso il software TRNSYS 18 sono stati riprodotti in maniera fedele e accurata l'edificio, l'impianto innovativo ad esso associato e sono state svolte delle simulazioni in periodi temporali dell'anno precisi. Tali simulazioni hanno mostrato: un miglioramento nell’efficienza dell’impianto durante la stagione di riscaldamento per alimentare i pannelli radianti al servizio dell’edificio e la produzione di ACS, con valori di Solar Fraction pari al 70% e quota di energia rinnovabile del 90%; prestazioni migliori durante la stagione di raffrescamento con incremento dell'energia termica emessa dai fan-coils del 3%, della Solar Fraction pari al 50% e Seasonal Performance Factor di sistema migliori. Annualmente si è vista una quota di energia rinnovabile molto elevata (84.2%).
Resumo:
I cambiamenti di mercato generano nelle aziende la necessità di modificare il proprio portafoglio prodotti per far sì che rimangano competitive. Euro Company è un’azienda che si occupa di commercializzare frutta secca e suoi derivati. Per mantenere il suo posizionamento, a seguito di queste variazioni, avvenute soprattutto negli ultimi anni, si è trovata ad inserire nuove referenze. Questo ha portato ad un aumento del carico di lavoro dovuto alla costante ricerca e sviluppo. Per questo motivo si è deciso di introdurre un nuovo reparto e di sviluppare i flussi ad esso collegati. L’obiettivo è stato quello di scrivere delle procedure che potessero essere seguite dai dipendenti coinvolti nel flusso. Per ogni singola attività, sono stati pensati degli strumenti o dei metodi che potessero essere implementati e che quindi sono stati messi in pratica. Un esempio riguarda il monitoraggio di ogni singola attività. Si è pensato che lo strumento più facile ed immediato potesse essere un Gantt, e, per questo motivo è stato implementato, così come da progetto. Un’altra attività introdotta a seguito d valutazioni interne aziendali è stata la possibilità di fare una analisi di fattibilità interna dei progetti, per verificare la convenienza economica nel ricorrere all’outsourcing o all’insourcing. Tutte le azioni proposte sono state accolte in maniera positiva e sono, ad oggi, utilizzate in azienda. Occorre però valutare a distanza di tempo se le tempistiche di progetto reali rispecchiano realmente quanto dichiarato dai dipendenti nel corso delle interviste. Questo perché, nel caso in cui si abbia un esito negativo, occorre valutare le azioni che hanno comportato un ritardo per valutare se è possibile ottimizzarle. Oltre a ciò, è interesse dell’azienda focalizzarsi solo sui progetti che possono garantire un ritorno in termini economici, quindi, grazie alle soluzioni proposte nell’elaborato, si avranno meno difficoltà nello svolgere ciò.
Resumo:
Il Routing rappresenta uno dei problemi più studiati nell’ambito della Ricerca Operativa in quanto offre molteplici possibilità di ottimizzazione da cui possono derivare altrettanti vantaggi per le aziende che decidono di gestirlo in maniera strutturata. Uno dei principali ambiti di applicazione del routing è la pianificazione operativa del trasporto merci a clienti sparsi in un determinato territorio. Ci sono aziende che devono organizzare la loro Logistica distributiva ogni giorno. Ormai è diventato evidente che la realizzazione di questo processo mediante modalità “standard”, senza l’utilizzo di appositi strumenti di ottimizzazione, non solo porta alla perdita di occasioni importanti in termini di vantaggi raggiungibili, ma è anche molto più dispendiosa a livello di tempo richiesto. Molte aziende si stanno quindi affidando a soluzioni SW che si vadano ad integrare con i loro processi decisionali. Questi sistemi hanno alla base delle componenti algoritmiche in grado di trovare la migliore soluzione possibile per la tipologia specifica di Routing da affrontare. Per questi motivi, lo sviluppo di algoritmi in grado di risolvere questo problema rappresenta una parte consistente della letteratura scientifica in ambito di ottimizzazione. In questo elaborato si andranno a definire le principali caratteristiche di un problema di Routing in forma base e nelle sue varianti principali. Si descriveranno le caratteristiche dei problemi di Routing incontrati da Optit S.r.l, un’azienda che opera nel settore dello sviluppo di soluzioni SW di ottimizzazione. Nel fare ciò, si cercherà di trovare sovrapposizione con quanto descritto in letteratura. Infine, si descriveranno alcuni solver Open-Source per risolvere problemi di Routing e si mostreranno i risultati da essi ottenuti su alcuni casi di interesse industriale.
Resumo:
Questa tesi tratta lo studio e l’applicazione di una metodologia per la simulazione di getti gassosi sottoespansi, nello specifico getti di idrogeno in aria. La necessità di questo lavoro nasce dall’esigenza, nel mondo dei trasporti, di abbandonare i combustibili fossili derivati dal petrolio. L’idrogeno, come il metano, viene iniettato in fase gassosa, quindi occorre studiare bene i fenomeni e i meccanismi in gioco per ottimizzare la miscelazione con l’aria. La parte iniziale della tesi riguarda lo studio teorico e generale della letteratura sui getti sottoespansi, con l’obiettivo di capire cosa sono, come si formano, da cosa sono governati e quali sono i loro parametri principali. Successivamente si passa alla loro analisi numerica tramite il software CFD open source OpenFOAM. Le analisi condotte hanno permesso di valutare l’impiego di diversi approcci di modellazione al fine di trovare quello ottimale. Sono stati testati differenti risolutori (rhoCentralFoam, rhoPimpleFoam e reactingFoam), diverse configurazioni della mesh (wedge 2-D, empty 2-D e cyclic 3-D) e diversi modelli di turbolenza (k − ϵ, RNG k − ϵ e k − ω SST).