481 resultados para Simulazione quantistica
Resumo:
Fino a 15 anni fa, era possibile aumentare il numero di transistor su un singolo chip e contemporaneamente la sua frequenza di clock mantenendo la densità di potenza costante. Tuttavia dal 2004 non è più possibile mantenere invariata la potenza dissipata per unità d’area a causa di limitazioni fisiche. Al fine di aumentare le performance dei processori e di impedire una diminuzione delle frequenze di clock, i processori moderni integrano on-die dei Power Controller Subsystems (PCS) come risorsa hardware dedicata che implementa complesse strategie di gestione di temperatura e potenza. In questo progetto di tesi viene progettata l'architettura dell'interfaccia di comunicazione di ControlPULP, un PCS basato su ISA RISC-V, per la connessione verso un processore HPC. Tale interfaccia di comunicaione integra il supporto hardware per lo scambio di messaggi secondo la specifica SCMI. L'interfaccia sviluppata viene successivamente validata attraverso simulazione ed emulazione su supporto hardware FPGA. Tale supporto hardware viene inoltre utilizzato per la caratterizzazione dell'utilizzo di risorse dell'architettura progettata. Oltre allo sviluppo dell'interfaccia hardware viene sviluppato e caratterizzato un firmware per la decodifica dei messaggi SCMI conforme ai requisiti di esecuzione su un sistema real-time.
Resumo:
In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.
Resumo:
Il presente lavoro di tesi si basa sull’esperienza di tirocinio effettuata presso un’Azienda italiana che opera nel settore della lavorazione plastica e produce contenitori. L’Azienda, a seguito di un’innovazione su tutta la linea di prodotto, ha da poco preso la decisione di investire nell’inserimento di due nuove presse per lo stampaggio e nella realizzazione di un nuovo impianto di assemblaggio automatizzato. Questi verranno inseriti all’interno dell’attuale stabilimento ed andranno ad aumentare la capacità produttiva. Se da un lato ci sono grandi vantaggi in ciò, dall’altro va analizzato il contorno. In particolare: Come va ad impattare l’inserimento di questi elementi nelle logiche aziendali? Come cambiano i flussi di materiale all’interno dello stabilimento? Sarà sufficiente lo spazio attuale per lo stoccaggio dei semilavorati? Poste queste domande, l’obiettivo dell’elaborato è di rispondervi, attraverso l’analisi delle principali attività logistiche dell’Azienda, focalizzando l’attenzione sul layout attuale del reparto magazzino semilavorati e dei flussi di materiale. L’analisi del magazzino nella situazione As Is evidenzia una serie di criticità. Il problema principale è di definire l’adeguato layout del magazzino, che consente un utilizzo ottimale della superficie a disposizione, in modo da garantire l’efficienza e l’efficacia delle operazioni che ivi si svolgono. L’analisi ha condotto alla progettazione di un nuovo layout e di una nuova politica di allocazione dei materiali. Infine, viene effettuata un’attenta analisi dei flussi logistici, ed in particolare delle movimentazioni di materiale, sviluppata attraverso il software simulativo AutoMod. Quindi, vengono simulati degli ipotetici scenari, successivi all’inserimento del nuovo impianto di assemblaggio, per valutare le criticità che potrebbe dover affrontare l’Azienda.
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Questo elaborato ha come obiettivo quello di mettere a confronto alcuni dei frames ricorrenti nei dibattiti politici tedeschi e italiani, per poi analizzare in che modo essi riescano a influenzare il nostro pensiero. Data l’impossibilità di trattare il fenomeno del framing politico a tutto tondo, l’ambito da cui provengono i frames scelti per l’analisi è quello dell’immigrazione e dei fenomeni migratori. In un primo momento verrà fornita una breve introduzione su alcuni concetti fondamentali alla base del framing, come la simulazione cognitiva e gli stessi frames. Ogni parola, infatti, è inserita all’interno di una “cornice” di significato, che comprende altri concetti ad essa collegati. L’attivazione di quei concetti a livello mentale da un lato ne permette la comprensione, ma dall’altro è in grado di influenzare le nostre scelte e le nostre azioni. Il fatto che politici e media scelgano con molta attenzione le parole da usare per ottenere l’effetto desiderato sulla popolazione prende il nome di framing. Per quanto riguarda i termini ricorrenti in ambito immigrazione, sia in Italia che in Germania si fa largo uso di metafore legate a masse d’acqua e a catastrofi naturali, che hanno l’effetto di disumanizzare i migranti, i quali vengono inoltre percepiti come un pericolo. Alcuni esempi in italiano sono ondata di migranti e tsunami di migranti, che corrispondono ai tedeschi Flüchtlingsflut e Flüchtlings-Tsunami.
Resumo:
Il presente lavoro di tesi riguarda lo studio di fattibilità e valutazione comparativa di soluzioni impiantistiche e di processo finalizzate all’ottimizzazione dell’attuale sezione di distillazione di un impianto di produzione dei catalizzatori Ziegler-Natta. Il TiCl4 figura tra i principali reagenti impiegati nella sintesi dei catalizzatori, ma la tecnologia attualmente in uso non ne consente il totale recupero. A partire da una panoramica dell’intero processo produttivo dei catalizzatori Ziegler-Natta, si sono analizzate le criticità della sezione di distillazione e si sono valutate possibili soluzioni. Con l’obiettivo di ottenere un significativo recupero del TiCl4 rispetto alla situazione attuale, lo studio di fattibilità si è orientato verso un processo di distillazione con solvente. Al fine di valutare l’efficacia di tale soluzione, si è utilizzato il programma Aspen Plus V12. I principali composti coinvolti nel processo, che verranno implementati nell’ambiente di simulazione, sono: il TiCl4, il TiCl3(OC2H5) e un solvente. Quest’ultimo è il risultato di una ricerca tra sostanze con proprietà idonee al processo di distillazione studiato. Per ognuno dei composti sono richieste le principali proprietà termo-fisiche. Tuttavia, per il TiCl3(OC2H5) non vi sono informazioni disponibili presso le banche dati e la molecola è termicamente instabile. È stato perciò impiegato un particolare approccio ai contributi di gruppo per stimarne le proprietà d’interesse. Il solvente adottato è costituito da una miscela di isomeri: sono state effettuate delle misurazioni al fine di confermare un composto puro per l’ambiente di simulazione. Le simulazioni di processo hanno permesso di condurre con successo lo studio di fattibilità. Ulteriori proposte impiantistiche e per apparecchiature sono state valutate a completamento di tale studio. Il presente lavoro è stato svolto presso il centro Ricerche e Sviluppo “Giulio Natta” nella sede di Ferrara di LyondellBasell Industries.
Resumo:
Molti edifici realizzati negli anni ‘80-‘90 sono caratterizzati da impianti con caldaie autonome e nell’ambito degli interventi di riqualificazione energetica solo raramente vengono inserite delle pompe di calore a causa della temperatura di funzionamento dell’impianto, che spesso deve essere mantenuta elevata per i sistemi di emissione a radiatori. Tuttavia la riduzione dei carichi termici dovuti all'isolamento degli edifici consente di utilizzare i terminali esistenti facendoli lavorare a bassa temperatura, con temperature medie di 45-50°C. Obiettivo principale della tesi è quindi la valutazione della fattibilità e dei vantaggi energetici nell’ambito della sostituzione di un sistema di riscaldamento autonomo a gas con un sistema a pompa di calore. Viene preso in esame un edificio condominiale formato da 47 alloggi sito a San Lazzaro di Savena e in particolare verrà valutata la fattibilità di inserire un impianto centralizzato a pompa di calore per ogni corpo scala di cui è composto l’edificio, alimentando l’impianto con pannelli fotovoltaici installati in copertura. Per valutare i vantaggi energetici è stato utilizzato il software di simulazione dinamica Design Builder che consente di analizzare i fabbisogni energetici e la produzione di energia con step orario. Il modello dinamico permette anche di studiare le strategie d’involucro più opportune per diminuire il fabbisogno energetico e poter far lavorare la pompa di calore con i radiatori esistenti a bassa temperatura. I risultati attesi dal lavoro sono molteplici: in primo luogo verificare che la scelta dell’introduzione della pompa di calore consenta all'edificio di ridurre i consumi di energia primaria da fonti non rinnovabili, con lo scopo di portare l’edificio ad una richiesta di quasi zero energia (NZEB) in linea con le nuove normative europee e nazionali; in secondo luogo che l’utilizzo della simulazione oraria consenta di valutare il matching reale tra produzione e consumo di energia.
Resumo:
Obiettivo di questo progetto di tesi è la realizzazione di un modello per la gestione termica di un veicolo elettrico a batteria: l’elettrificazione in ambito automotive richiede un approfondito studio delle problematiche termiche allo scopo di incrementare l’efficienza del veicolo, le performance e la vita della batteria. In particolare, l’oggetto di ricerca consiste nella modellazione di una pompa di calore. Partendo dalla definizione dei requisiti e degli obiettivi del sistema di gestione termica, ogni componente della pompa di calore viene analizzato modellato e connesso all’intero sistema. La modellazione è stata affrontata mediante l’utilizzo dell’ambiente MATLAB/Simulink. Il primo passo è stato avanzato nell’analisi del ciclo termodinamico ideale, analizzando il comportamento di vari fluidi frigorigeni, la funzionalità dei singoli componenti e l’interazione di quest’ultimi al variare delle condizioni di funzionamento, principalmente potenze scambiate, pressioni, temperature e portata massica di refrigerante. Il principale lavoro di simulazione è legato alla realizzazione di un modello configurabile dell’intero apparato di gestione termica della batteria per un veicolo elettrico. Per mezzo dello studio delle relazioni termodinamiche dei componenti principali del ciclo frigorifero sono state valutate tutte le grandezze che variano durante le trasformazioni che compie il fluido refrigerante all’interno del ciclo frigorifero. L’attività di validazione del modello implementato è stata svolta mediante il confronto tra le condizioni del fluido refrigerante determinate mediante le relazioni termodinamiche e quelle ottenute valutando le trasformazioni sui diagrammi di stato dei fluidi frigorigeni trattati. Il modello implementato è da ritenersi primordiale nel contesto legato alla modellazione e controllo dei sistemi di gestione termica per i sistemi propulsivi dei veicoli elettrici a batteria.
Resumo:
Nel seguente elaborato viene ripercorso il lavoro svolto per la progettazione di un box batterie in materiale composito e in particolare il relativo sistema di fissaggio al telaio che verrà utilizzato per l’auto solare Emilia 5. Questo prototipo di veicolo, che viene sviluppato dai membri del team Onda Solare presso l’azienda Metal TIG a Castel San Pietro Terme (BO), è un’auto completamente elettrica che sfrutta l’energia solare attraverso pannelli fotovoltaici e la cui propulsione è garantita dalla sola energia accumulata nelle batterie. Emilia 5 gareggerà all’evento World Solar Challenge 2023 in Australia, competizione riservata alle auto solari che vede impegnati teams da tutto il mondo. L’elaborato mostra inizialmente la modellazione geometrica tridimensionale delle parti sviluppata attraverso il software Solidworks, analizzandone i dettagli funzionali. In seguito, tramite il software Ansys Workbench, vengono eseguite simulazioni agli elementi finiti verificando che i componenti, considerati in alluminio, rispondano correttamente ai carichi imposti. Per ultimo, vengono menzionati i materiali compositi in fibra di carbonio e si analizza la sequenza di laminazione relativa alla scatola delle batterie. I risultati ottenuti saranno utilizzati dal team Onda Solare come punto di riferimento per la realizzazione dei componenti di Emilia 5.
Resumo:
L'obiettivo della seguente tesi è realizzare il progetto preliminare di una camera a vuoto adatta al test di propulsori elettrici in generale. Di seguito, vengono analizzati i principali vantaggi e svantaggi delle tecnologie maggiormente utilizzate nei sistemi per l'alto vuoto, i criteri per la scelta del tipo di architettura di pompaggio più adatta e per il dimensionamento delle pompe. La ricerca di alcuni test, presenti in letteratura, permette di avere parametri di riferimento in base al tipo e alla potenza dei thruster utilizzati. Tramite l'analisi strutturale di una camera sottoposta a pressione esterna è possibile ricavare dimensioni e spessore delle pareti; viene, poi, realizzato un disegno CAD della camera e verificato il dimensionamento strutturale, simulando il carico di pressione esterna, tramite un'analisi FEM-FEA utilizzando il software Solidworks. Infine, vengono elencate le caratteristiche finali della camera a vuoto e, tramite lo studio di modelli matematici che permettono di studiare e quantificare i principali fattori di perdita (outgassing, infiltrazione, throughput del thruster ecc.), si ricava la curva della pressione rispetto al tempo del sistema completo.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Il 19 settembre 2021 si sono formati in poche ore 7 tornado tra Lombardia ed Emilia Romagna, 4 dei quali di intensità F2. Una simile sequenza di tornado in Pianura Padana non ha precedenti. Il caso studio è stato analizzato sia dal punto di vista delle osservazioni che attraverso simulazioni numeriche ad altissima risoluzione con la catena modellistica BOLAM-MOLOCH, allo scopo di comprendere i meccanismi fisici che hanno portato alla genesi delle supercelle tornadiche. E' stata verificata la capacità del modello MOLOCH di simulare accuratamente lo sviluppo delle supercelle, alla luce dei modelli teorici in letteratura. Tramite le osservazioni al suolo, è stato osservato come durante l'evento sulla Pianura Padana si sia creato un "punto triplo", ossia una convergenza tra tre masse d'aria con caratteristiche diverse, nei pressi di dove si sono verificati i tornado. Per l'innesco della convezione è stato fondamentale il contributo di un cut-off low in quota, associato a un fronte freddo al suolo sulla pianura lombarda. Inoltre, l'avvezione di aria umida e instabile dall'Adriatico verso i settori di innesco, in prossimità della superficie, ha rivestito un ruolo rilevante. In Emilia invece è stata probabilmente determinante una convergenza tra il flusso instabile di origine adriatica e il flusso sud-occidentale sceso dagli Appennini. Per quanto riguarda l'intensificazione e il successivo sviluppo delle supercelle e dei tornado, sono state individuate due sorgenti principali di vorticità orizzontale: la vorticità baroclina che si è generata lungo il fronte freddo in Lombardia e la vorticità generata dallo shear verticale in presenza di un low-level jet. La circolazione nei bassi strati atmosferici ha trasportato la vorticità generata da entrambe queste sorgenti verso i sistemi convettivi in Lombardia, dove il processo di tilting ha trasformato la vorticità orizzontale in vorticità verticale ciclonica.
Resumo:
La superficie marziana è stata analizzata per decenni con immagini e tecniche spettroscopiche, sensibili alle proprietà dei primi millimetri e micrometri del terreno. Le zone sotto la superficie sono state studiate solo indirettamente fino al 2001, quando venne sviluppata la missione Mars Odyssey. Successivamente, è stato lanciato il Mars Advanced Radar for Subsurface and Ionosfere Sounding (MARSIS) a bordo di Mars Express, con l'obiettivo di ricercare ghiaccio e acqua sul pianeta rosso. In questo lavoro è stata mappata la potenza degli echi raccolti da MARSIS, ottenuti ad una frequenza di 4.0 MHz, ispirandosi al lavoro descritto in Mouginot et al. (2010). I valori utilizzati sono stati selezionati tenendo conto degli effetti dell'attenuazione del segnale da parte della ionosfera e della rugosità della superficie. Dalle mappe degli echi, risultanti dall'analisi, si è potuta ricavare la costante dielettrica dello strato sotto la superficie. I dati sono stati normalizzati con una simulazione dei segnali di MARSIS, ottenuta a partire dalla topografia del Marsis Orbiter Laser Altimeter (MOLA). Si osserva che le proprietà dielettriche variano con la latitudine, con valori alti tra 20° e 40° e più bassi ai poli e all'equatore. Le tre zone di maggiore interesse, ovvero le due calotte polari e la Formazione Medusae Fossae, appaiono in blu nella Fig. 4.5. Ciò suggerisce che siano costituite da materiali con una costante dielettrica compresa tra 2 e 4, tipica del ghiaccio. Si pensa, però, che esse possiedano diverse quantità di impurità.
Resumo:
In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.
Resumo:
La previsione ed il controllo dei grandi sistemi dinamici costituiscono due delle principali sfide della scienza contemporanea. Prima degli anni '90 la parola previsione indicava un singolo esperimento numerico, mentre negli ultimi vent'anni ha denotato un insieme di simulazioni/esperimenti. Sostanzialmente non si cerca più di trovare la traiettoria più realistica e verosimile ma si studia l'insieme delle previsioni e l'evolversi della loro distribuzione nel tempo per avere un'idea di quale sia la previsione più probabile. Un sistema dinamico è descritto, in un particolare istante temporale, da una variabile di stato. Esistono poi delle funzioni di stato che hanno come argomento una variabile di stato e mentre il sistema dinamico è in movimento, e dunque mentre le variabili di stato del sistema cambiano nel tempo, anche le funzioni di stato si evolvono. Il lavoro di Bernard Koopman (19/01/1900 - 18/08/1981) si è incentrato sullo studio di tale evoluzione. Koopman formalizzò il problema cercando di trovare un operatore che prendesse una funzione di stato e la "spingesse" in avanti nel tempo. Tale operatore venne chiamato Operatore di Koopman. Il legame sostanziale tra l'operatore di Koopman e il sistema dinamico in questione sta nel fatto che tale operatore agisce sullo spazio delle funzioni di stato del sistema. Inoltre si è scoperto che i suoi autovalori e le sue autofunzioni descrivono completamente il sistema dinamico che vi sta dietro. Questo elaborato introduce l'operatore di Koopman in relazione a sistemi dinamici e mostra come ricavare lo spettro di tale operatore a partire da dati di simulazione. Infine vengono studiate le proprietà spettrali dell'operatore di Koopman nel caso mono-dimensionale degli indici Niño-3 e viene fatta un'analisi dettagliata dei risultati numerici ottenuti, trovando una conferma teorica mediante l'utilizzo dei dischi di Gershgorin.