922 resultados para MIPv6 ABPS LISP Reti Mobilita Simulazione OMNeT INET
Resumo:
Obiettivo di questo progetto di tesi la realizzazione di un modello per la gestione termica di un veicolo elettrico a batteria: lelettrificazione in ambito automotive richiede un approfondito studio delle problematiche termiche allo scopo di incrementare lefficienza del veicolo, le performance e la vita della batteria. In particolare, loggetto di ricerca consiste nella modellazione di una pompa di calore. Partendo dalla definizione dei requisiti e degli obiettivi del sistema di gestione termica, ogni componente della pompa di calore viene analizzato modellato e connesso allintero sistema. La modellazione stata affrontata mediante lutilizzo dellambiente MATLAB/Simulink. Il primo passo stato avanzato nellanalisi del ciclo termodinamico ideale, analizzando il comportamento di vari fluidi frigorigeni, la funzionalit dei singoli componenti e linterazione di questultimi al variare delle condizioni di funzionamento, principalmente potenze scambiate, pressioni, temperature e portata massica di refrigerante. Il principale lavoro di simulazione legato alla realizzazione di un modello configurabile dellintero apparato di gestione termica della batteria per un veicolo elettrico. Per mezzo dello studio delle relazioni termodinamiche dei componenti principali del ciclo frigorifero sono state valutate tutte le grandezze che variano durante le trasformazioni che compie il fluido refrigerante allinterno del ciclo frigorifero. Lattivit di validazione del modello implementato stata svolta mediante il confronto tra le condizioni del fluido refrigerante determinate mediante le relazioni termodinamiche e quelle ottenute valutando le trasformazioni sui diagrammi di stato dei fluidi frigorigeni trattati. Il modello implementato da ritenersi primordiale nel contesto legato alla modellazione e controllo dei sistemi di gestione termica per i sistemi propulsivi dei veicoli elettrici a batteria.
Resumo:
Nel seguente elaborato viene ripercorso il lavoro svolto per la progettazione di un box batterie in materiale composito e in particolare il relativo sistema di fissaggio al telaio che verr utilizzato per lauto solare Emilia 5. Questo prototipo di veicolo, che viene sviluppato dai membri del team Onda Solare presso lazienda Metal TIG a Castel San Pietro Terme (BO), unauto completamente elettrica che sfrutta lenergia solare attraverso pannelli fotovoltaici e la cui propulsione garantita dalla sola energia accumulata nelle batterie. Emilia 5 garegger allevento World Solar Challenge 2023 in Australia, competizione riservata alle auto solari che vede impegnati teams da tutto il mondo. Lelaborato mostra inizialmente la modellazione geometrica tridimensionale delle parti sviluppata attraverso il software Solidworks, analizzandone i dettagli funzionali. In seguito, tramite il software Ansys Workbench, vengono eseguite simulazioni agli elementi finiti verificando che i componenti, considerati in alluminio, rispondano correttamente ai carichi imposti. Per ultimo, vengono menzionati i materiali compositi in fibra di carbonio e si analizza la sequenza di laminazione relativa alla scatola delle batterie. I risultati ottenuti saranno utilizzati dal team Onda Solare come punto di riferimento per la realizzazione dei componenti di Emilia 5.
Resumo:
L'obiettivo della seguente tesi realizzare il progetto preliminare di una camera a vuoto adatta al test di propulsori elettrici in generale. Di seguito, vengono analizzati i principali vantaggi e svantaggi delle tecnologie maggiormente utilizzate nei sistemi per l'alto vuoto, i criteri per la scelta del tipo di architettura di pompaggio pi adatta e per il dimensionamento delle pompe. La ricerca di alcuni test, presenti in letteratura, permette di avere parametri di riferimento in base al tipo e alla potenza dei thruster utilizzati. Tramite l'analisi strutturale di una camera sottoposta a pressione esterna possibile ricavare dimensioni e spessore delle pareti; viene, poi, realizzato un disegno CAD della camera e verificato il dimensionamento strutturale, simulando il carico di pressione esterna, tramite un'analisi FEM-FEA utilizzando il software Solidworks. Infine, vengono elencate le caratteristiche finali della camera a vuoto e, tramite lo studio di modelli matematici che permettono di studiare e quantificare i principali fattori di perdita (outgassing, infiltrazione, throughput del thruster ecc.), si ricava la curva della pressione rispetto al tempo del sistema completo.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare laccuratezza della modellazione classica di materiali, un procedimento dispendioso. Laccuratezza dei campi di forza tuttavia la chiave per la predizione affidabile di propriet chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante linclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello delloscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica resa dallintroduzione di una particella carica e di massa ridotta, ancorata allatomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: lacetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune propriet molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilit. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilit atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilit molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densit sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacit di riprodurre alcune propriet di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Il 19 settembre 2021 si sono formati in poche ore 7 tornado tra Lombardia ed Emilia Romagna, 4 dei quali di intensit F2. Una simile sequenza di tornado in Pianura Padana non ha precedenti. Il caso studio stato analizzato sia dal punto di vista delle osservazioni che attraverso simulazioni numeriche ad altissima risoluzione con la catena modellistica BOLAM-MOLOCH, allo scopo di comprendere i meccanismi fisici che hanno portato alla genesi delle supercelle tornadiche. E' stata verificata la capacit del modello MOLOCH di simulare accuratamente lo sviluppo delle supercelle, alla luce dei modelli teorici in letteratura. Tramite le osservazioni al suolo, stato osservato come durante l'evento sulla Pianura Padana si sia creato un "punto triplo", ossia una convergenza tra tre masse d'aria con caratteristiche diverse, nei pressi di dove si sono verificati i tornado. Per l'innesco della convezione stato fondamentale il contributo di un cut-off low in quota, associato a un fronte freddo al suolo sulla pianura lombarda. Inoltre, l'avvezione di aria umida e instabile dall'Adriatico verso i settori di innesco, in prossimit della superficie, ha rivestito un ruolo rilevante. In Emilia invece stata probabilmente determinante una convergenza tra il flusso instabile di origine adriatica e il flusso sud-occidentale sceso dagli Appennini. Per quanto riguarda l'intensificazione e il successivo sviluppo delle supercelle e dei tornado, sono state individuate due sorgenti principali di vorticit orizzontale: la vorticit baroclina che si generata lungo il fronte freddo in Lombardia e la vorticit generata dallo shear verticale in presenza di un low-level jet. La circolazione nei bassi strati atmosferici ha trasportato la vorticit generata da entrambe queste sorgenti verso i sistemi convettivi in Lombardia, dove il processo di tilting ha trasformato la vorticit orizzontale in vorticit verticale ciclonica.
Resumo:
La superficie marziana stata analizzata per decenni con immagini e tecniche spettroscopiche, sensibili alle propriet dei primi millimetri e micrometri del terreno. Le zone sotto la superficie sono state studiate solo indirettamente fino al 2001, quando venne sviluppata la missione Mars Odyssey. Successivamente, stato lanciato il Mars Advanced Radar for Subsurface and Ionosfere Sounding (MARSIS) a bordo di Mars Express, con l'obiettivo di ricercare ghiaccio e acqua sul pianeta rosso. In questo lavoro stata mappata la potenza degli echi raccolti da MARSIS, ottenuti ad una frequenza di 4.0 MHz, ispirandosi al lavoro descritto in Mouginot et al. (2010). I valori utilizzati sono stati selezionati tenendo conto degli effetti dell'attenuazione del segnale da parte della ionosfera e della rugosit della superficie. Dalle mappe degli echi, risultanti dall'analisi, si potuta ricavare la costante dielettrica dello strato sotto la superficie. I dati sono stati normalizzati con una simulazione dei segnali di MARSIS, ottenuta a partire dalla topografia del Marsis Orbiter Laser Altimeter (MOLA). Si osserva che le propriet dielettriche variano con la latitudine, con valori alti tra 20 e 40 e pi bassi ai poli e all'equatore. Le tre zone di maggiore interesse, ovvero le due calotte polari e la Formazione Medusae Fossae, appaiono in blu nella Fig. 4.5. Ci suggerisce che siano costituite da materiali con una costante dielettrica compresa tra 2 e 4, tipica del ghiaccio. Si pensa, per, che esse possiedano diverse quantit di impurit.
Resumo:
In questo lavoro di tesi stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nelluniverso. Nello specifico, stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A 4; utilizzando un fit ai dati dellesperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a s = 13 TeV, si cercato di esplicitare la dipendenza del parametro di coalescenza dallimpulso trasverso. Dal confronto delle previsioni del modello cos ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue landamento previsto. Questo risultato evidenzia quindi la necessit di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilit di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si tentato di caratterizzare la sorgente di protoni attraverso lutilizzo del generatore PYTHIA 8.3. In particolare, stata effettuata unanalisi delle coordinate spaziali, della quantit di moto e del tempo di produzione dei protoni a rapidit centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente sostanzialmente isotropa.
Resumo:
Il quark top una delle particelle fondamentali del Modello Standard, ed osservato a LHC nelle collisioni a pi elevata energia. In particolare, la coppia top-antitop (tt) prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq). I diversi meccanismi di produzione portano ad avere coppie con propriet diverse: un esempio lo stato di spin di tt, che vicino alla soglia di produzione maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare lentit di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso luso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola lanalisi, in questo caso rispettivamente gli eventi gg e qq. Si dice che si ha a che fare con un problema di classificazione. Si quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt. Si poi selezionato il migliore in base allefficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato lalgoritmo pi performante il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di unefficienza ridotta a 0.74.
Resumo:
La previsione ed il controllo dei grandi sistemi dinamici costituiscono due delle principali sfide della scienza contemporanea. Prima degli anni '90 la parola previsione indicava un singolo esperimento numerico, mentre negli ultimi vent'anni ha denotato un insieme di simulazioni/esperimenti. Sostanzialmente non si cerca pi di trovare la traiettoria pi realistica e verosimile ma si studia l'insieme delle previsioni e l'evolversi della loro distribuzione nel tempo per avere un'idea di quale sia la previsione pi probabile. Un sistema dinamico descritto, in un particolare istante temporale, da una variabile di stato. Esistono poi delle funzioni di stato che hanno come argomento una variabile di stato e mentre il sistema dinamico in movimento, e dunque mentre le variabili di stato del sistema cambiano nel tempo, anche le funzioni di stato si evolvono. Il lavoro di Bernard Koopman (19/01/1900 - 18/08/1981) si incentrato sullo studio di tale evoluzione. Koopman formalizz il problema cercando di trovare un operatore che prendesse una funzione di stato e la "spingesse" in avanti nel tempo. Tale operatore venne chiamato Operatore di Koopman. Il legame sostanziale tra l'operatore di Koopman e il sistema dinamico in questione sta nel fatto che tale operatore agisce sullo spazio delle funzioni di stato del sistema. Inoltre si scoperto che i suoi autovalori e le sue autofunzioni descrivono completamente il sistema dinamico che vi sta dietro. Questo elaborato introduce l'operatore di Koopman in relazione a sistemi dinamici e mostra come ricavare lo spettro di tale operatore a partire da dati di simulazione. Infine vengono studiate le propriet spettrali dell'operatore di Koopman nel caso mono-dimensionale degli indici Nio-3 e viene fatta un'analisi dettagliata dei risultati numerici ottenuti, trovando una conferma teorica mediante l'utilizzo dei dischi di Gershgorin.
Resumo:
La ricerca oggetto del presente elaborato di tesi persegue fini di lotta ai cambiamenti climatici e promozione delle energie rinnovabili, in linea con i diciassette Obiettivi per lo Sviluppo Sostenibile definiti dallOrganizzazione delle Nazioni Unite nel 2015 a causa dellincombente emergenza ambientale in atto; inoltre individua risorse che possono risultare utili in situazioni di crisi energetica come quella iniziata nel 2022. Lobiettivo dellelaborato lindividuazione dei bare soils o suoli nudi, ovvero terreni lasciati senza copertura nei mesi che intercorrono tra un raccolto e la semina successiva, presenti nella parte pianeggiante dellEmilia Romagna nellanno 2021. stata eseguita una ricerca introduttiva sulle politiche agricole inerenti i cambiamenti climatici e sulluso del suolo nellarea di studio. Nel procedimento seguente sono stati utilizzati immagini e dati satellitari a libero accesso, rilevati dai satelliti Sentinel-2 del programma Copernicus dellUnione Europea. Per mezzo di software open source, sono state identificate le superfici di suolo nudo tramite calcolo degli indici di vegetazione Normalized Difference Vegetation Index (NDVI) e selezione delle aree con valori dellindice idonei per 4 mesi consecutivi; sono state create mappe tematiche con le posizioni dei terreni, sono state ricavate statistiche sulla loro estensione e sono state effettuate validazioni dei risultati. Secondo i calcoli, nei 2 periodi pi promettenti i suoli nudi coprivano rispettivamente circa il 4% e il 25% dellarea di studio. I terreni individuati sono stati poi utilizzati come input per una simulazione di un loro utilizzo sostenibile. Infatti, quando abbastanza estesi e liberi per un tempo sufficiente, possono essere utilizzati per colture intercalari come il sorgo, volte ad ottenere biomasse adatte alla produzione di biocarburanti.
Resumo:
La prima parte della tesi analizza il cambiamento della dieta degli italiani nel corso dei decenni, a partire dagli anni del dopoguerra fino al periodo contemporaneo. Il passaggio da un periodo di estrema povert al boom economico ha permesso ai cittadini di dare sempre pi importanza alla qualit del cibo. Con la nascita e lo sviluppo della televisione il popolo ha avuto la possibilit di conoscere le ricette tradizionali di ogni parte dell'Italia, arrivando a costruire una forte identit nazionale legata al mondo della cucina. Le trasmissioni televisive si sono trasformate sia grazie al cambiamento della societ e della mentalit degli italiani, sia grazie ai numerosi nuovi canali tematici che sono nati grazie alle reti privati; ad oggi esistono dunque programmi di intrattenimento, pedagogici e show di ogni tipo che mostrano la cucina in tutte le sue sfaccettature. Il cibo e l'alimentazione in televisione sono stati rappresentati anche attraverso gli spot: stato analizzato come i marchi abbiano inizialmente cercato di rendere attraente un prodotto - anche attraverso l'uso di donne sensuali come volto delle campagne pubblicitarie - fino ad arrivare al voler fidelizzare gli acquirenti veicolando specifici messaggi e valori. Dall'analisi del format Dinner Club stato dimostrato come nel periodo contemporaneo i programmi abbiano forme e strutture ibride, che possono mescolare il lato pedagogico, riscoprendo il territorio italiano e le sue tradizioni culinarie, la sfida e la competizione tra i concorrenti e la parte legata all'intrattenimento. Nell'ultimo capitolo stato messo in evidenza come i cuochi, presentatori di queste trasmissioni, stiano diventando sempre pi famosi. Sono presenti sia aspetti positivi che negativi riguardo la loro progressiva importanza all'interno della societ italiana.
Resumo:
Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano unimportante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza linput, possibilmente lattivit dei neuroni, con loutput, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si focalizzati sulle deep neural networks (DNN). Un problema delle DNN lelevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare lerrore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato esposto uno studio esplorante lutilizzo innovativo di CNN per la decodifica dellattivit di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dellarte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per lutilizzo di questo tipo di reti allinterno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.
Resumo:
La rete di Hopfield una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica pi importante per questo tipo di rete la capacit pmax, cio quanti dati, chiamati ricordi, pu apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacit di una rete di Hopfield proporzionale al numero di neuroni N che la compongono, pmax = N , dove = 0.138. Una variante importante di questo modello la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma lesistenza di connessioni tra due neuroni determinata in modo stocastico con probabilit di esserci e 1 di essere assente. Il grafo di una rete cos definita un grafo aleatorio di ErdsRnyi. Il lavoro qui presentato ha lo scopo di studiare le propriet statistiche dellapprendimento di questo tipo di reti neurali, specialmente landamento della capacit in funzione del parametro e le connettivit del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si concluso che la capacit di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN b +c, dove N il numero di neuroni, a = (0.140 0.003), b = (0.49 0.03), e c = (11 2). Dallo studio della connettivit del grafo emerso che la rete funge da memoria associativa finch il grafo del network risulta connesso.
Resumo:
Associare nomi propri a volti di persona un compito importante, fondamentale nella quotidianit di tutti i giorni. Nonostante questa operazione avvenga quasi sempre in maniera automatica, essa coinvolge una rete neurale complessa ed articolata. Diversi studi offrono strategie che possono aiutare in questo compito; in particolare, stato riportato che rafforzare i nomi con stimoli cross-modali, ossia presentando pi input sensoriali esterni contemporaneamente, pu costituire un vantaggio per il recupero in memoria dei nomi stessi. Lo scopo di questa tesi stato quello di svolgere unanalisi di sensibilit tramite un modello neuro-computazionale su MatLab di ispirazione biologica. Nello specifico sono stati considerati due macro-network: uno per i volti, laltro per i nomi propri; questultimo in particolare a sua volta si compone di tre aree uni-sensoriali, ciascuna delle quali corrisponde ad un modo specifico con cui codificare un nome (traccia audio, lip reading, name tag). Questi network sono stati dunque implementati attraverso una configurazione articolata su due strati: si potrebbe infatti pensare alla fase di addestramento, basata su un algoritmo hebbiano, come un primo layer del processo, seguito cos da un secondo layer, dato invece dalla fase di utilizzo. Dalle simulazioni svolte sembra emergere che addestrare in maniera efficiente le connessioni fra le aree uni-sensoriali dei nomi, ricreando cos un'integrazione multi-sensoriale, sia un fattore fondamentale per favorire non solo il ricordo di un nome in s, ma anche processi mnemonici-associativi che coinvolgono anche lo stimolo visivo di un volto. Le evidenze prodotte risultano inoltre qualitativamente coerenti con analoghi esperimenti in vivo.
Resumo:
Il progresso tecnologico permette lintroduzione di sempre pi nuove risorse e sistemi virtuali nel campo dellingegneria biomedica e della medicina. La Anatomage Table 7.0 (Anatomage Inc., San Jose, CA, USA) si presenta, ad oggi, come un dispositivo davanguardia. Utilizzato principalmente per linsegnamento e lo studio tridimensionale di anatomia, fisiologia e istologia del corpo umano, mediante riproduzioni reali e ad alta definizione di ogni sezione corporea, potrebbe diventare utile e dinnovazione anche per il settore biomedicale. Per investigare il suo possibile utilizzo nel campo della biomedica, sono state analizzate le funzioni principali di questo tavolo anatomico. La ricerca non ha riguardato solo la parte anatomica, ma soprattutto la cinematica e la corposa Case library, che permette uno studio approfondito di numerose patologie, attraverso simulazioni ed esami caricati nellapplicazione TableEDU 8.0.2. Inoltre, per dare un esempio delle numerose capacit di questo device medico, sono andato a studiare larticolazione di ginocchio, avendo la possibilit di utilizzare immagini DICOM di esami reali e la simulazione di un intervento coronario percutaneo. Questo ha permesso di evidenziare tutte le potenzialit di questo tavolo anatomico e di riflettere su nuove possibilit di utilizzo nel campo della biomedica.