628 resultados para studio implementazione modelli continui deflusso
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
Gli Ultra-High-Energy Cosmic Rays sono dei raggi cosmici-dotati di energia estremamente elevata-che raggiungono la Terra con un bassissimo rateo e dei quali abbiamo pochi dati a riguardo; le incertezze riguardano la loro composizione, la loro sorgente, i metodi di accelerazione e le caratteristiche dei campi magnetici che li deviano durante il loro cammino. L’obiettivo di questo studio è determinare quali modelli di campo magnetico possano descrivere correttamente la propagazione degli UHECRs, andando a fare un confronto con i dati sperimentali a disposizione; infatti, quello che osserviamo è una distribuzione isotropa nel cielo e, di conseguenza, i modelli teorici di propagazione, per poter essere accettati, devono rispecchiare tale comportamento. Sono stati testati nove modelli di campo magnetico tratti da simulazioni cosmologiche, andando a considerare due diverse composizione per i CRs (simil-ferro e simil-protone) e il risultato ha dato delle risposte positive solo per tre di essi. Tali modelli, per cui troviamo accordo, sono caratterizzati da una scala di inomegeneità più ampia rispetto a quella dei modelli scartati, infatti, analizzando il loro spettro di potenza, il maggior contributo è dato da fluttuazioni di campo magnetico su scale di 10 Mpc. Ciò naturalmente, viste anche le poche informazioni riguardo ai campi magnetici intergalattici, ci porta a pensare che campi di questo tipo siano favoriti. Inoltre, per tali modelli, gli esiti sono risultati particolarmente in accordo con i dati sperimentali, considerando CRs con composizione simile al ferro: ciò fa pensare che tale composizione possa essere quella effettiva.
Resumo:
La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.
Resumo:
Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
Lo scopo del presente progetto di ricerca è quello di dimostrare quelli che potrebbero essere i miglioramenti nell’adottare tecnologie GaN nei convertitori di potenza, soffermandosi sull’ambito Automotive. Si è dunque progettato, simulato ed infine analizzato un sistema di conversione bidirezionale DC-DC. Le prestazioni ottime sono state poi raggiunte attraverso l’introduzione di un sistema di controllo in grado di garantire, in ogni condizione, il miglior funzionamento possibile che garantisca il soddisfacimento delle richieste da parte del veicolo. Questo consentirà quindi di gestire il funzionamento del convertitore sia nelle fasi di scarica che in quelle di rigenerazione (regenerative braking). Al convertitore, è stato introdotto anche un controllo adattivo per la ricerca del dead-time ottimo dei segnali di pilotaggio dei transistor.
Resumo:
L’obiettivo di questo elaborato è quello di implementare un Modem digitale che è basato su una modulazione Orthogonal Frequency Division Multiplexing (OFDM) ed è formato da due tipi di dispositivi radio differenti, i quali sono molto utili, poiché si possono utilizzare in diversi scopi senza doverne modificare l’hardware ma solo cambiando la parte software perché sono programmabili. I due dispositivi sono i seguenti: • Analog Device Adalm-Pluto: dispositivo in grado sia di trasmettere che di ricevere. Lo utilizzeremo solamente per trasmettere il segnale. • Noeelec NE-SDR: dispositivo in grado solo di ricevere. Lo utilizzeremo quindi solamente per ricevere il segnale. Il tipo di modulazione da noi utilizzata per trasmettere il segnale è come detto in precedenza la modulazione OFDM. Essa è molto efficiente nell’occupazione della banda ed applica la trasmissione di un segnale su più portanti affiancate nel dominio delle frequenze. Questo significa che ogni portante che compone il segnale completo si trova ad una frequenza multipla della principale f0. Inoltre il vantaggio di questa modulazione sta nel fatto di sapere che l’informazione è contenuta nel segnale passa-basso inviluppo complesso rappresentativo i(t) e per questo motivo vedremo, nel corso dell’elaborato, come lo schema di trasmissione e ricezione sia molto semplificato.
Resumo:
Nel campo della trasmissione di segnali alfanumerici è cresciuto sempre di più l’interesse riguardo alla trasmissione di segnali caratterizzati da più sottoportanti affiancate nel dominio della frequenza mediante modulazione multiportante (MC, multicarrier modulation). Si è dimostrato che OFDM è un’effettiva tecnica per "combattere" il problema del multipath-fading nei canali wirless. Il multipath-fading è una forma di distorsione di un segnale che giunge a destinazione sotto forma di un certo numero di repliche, sfasate nel tempo, originate dai vari percorsi che il segnale stesso può aver seguito durante la sua propagazione e sommantesi tra loro in ricezione; ogni replica inoltre, sarà soggetta ad un’attenuazione in generale diversa da quella subita dalle altre repliche. Ciò che si vuole realizzare è un sistema di trasmissione e ricezione dati alfanumerico tramite la modulazione OFDM tramite l’utilizzo di due dispositivi SDR. In particolare per la trasmissione del segnale viene utilizzato il dispositivo ADALM-PLUTO, ed è lasciata libera scelta nel trasmettere qualsiasi tipo di segnale alfanumerico, ovvero il numero di simboli OFDM può variare a discrezione dell’utente. Per la ricezione del segnale inviato è stato impiegato il dispositivo Noolec NESDR, e l’utente, qui, sarà invece obbligato a inserire il numero di simboli OFDM da dover ricevere per avere così una corretta decodifica del segnale.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
L’obiettivo di questa tesi è quello di esplorare l’utilizzo del paradigma Digital Twin in ambito sanitario, specificatamente nella modellazione degli interventi chirurgici e della gestione delle sale operatorie. Questo progetto, svolto in collaborazione con AUSL Romagna, origina dalla necessità delle strutture ospedaliere di avere a disposizione un quadro completo della situazione dei vari interventi che vengono svolti ogni giorno.
Resumo:
Al giorno d'oggi, l'industry 4.0 è un movimento sempre più prominente che induce ad equipaggiare gli impianti industriali con avanzate infrastrutture tecnologiche digitali, le quali operano sinergicamente con l'impianto, al fine di controllare ed aumentare la produttività, monitorare e prevenire i futuri guasti, ed altro ancora. In questo ambito, gli utenti sono parte integrante della struttura produttiva, in cui ricoprono ruoli strategici e flessibili, collaborano fra loro e con le macchine, con l’obiettivo di affrontare e risolvere proattivamente una vasta gamma di problemi complessi. In particolare, la customer assistance nel settore industriale può certamente variare in relazione a molteplici elementi: il tipo di produzione e le caratteristiche del prodotto; l'organizzazione ed infrastruttura aziendale interna; la quantità di risorse disponibili che possono essere impiegate; il grado di importanza ricoperto dalla customer assistance nel settore industriale di riferimento; altri eventuali fattori appartenenti ad un dominio specifico. Per queste ragioni, si è cercato di individuare e categorizzare nel modo più accurato possibile, il lavoro svolto in questo elaborato ed il contesto nel quale è stato sviluppato. In questa tesi, viene descritta un'applicazione web per erogare assistenza al cliente in ambito di industria 4.0, attraverso il paradigma di ticketing o ticket di supporto/assistenza. Questa applicazione è integrata nel sistema Mentor, il quale è attivo già da anni nel settore industriale 4.0. Il progetto Mentor è una suite di applicazioni cloud-based creata dal gruppo Bucci Industries, una multinazionale attiva nell'industria e nell'automazione con sede a Faenza. In questo caso di studio, si presenta la progettazione ed implementazione della parte front-end del suddetto sistema di assistenza, il quale è integrato ed interconnesso con un paio di applicazioni tipiche di industria 4.0, presenti nella stessa suite di applicazioni.
Resumo:
La produzione additiva è una tecnologia innovativa completamente rivoluzionaria. La sua tecnica di costruzione layer by layer a partire da un file digitale consente la progettazione di componenti più complessi e ottimizzati, favorendo la stampa 3D su richiesta. La produzione additiva è potenzialmente in grado di offrire numerosi vantaggi sul tema della sostenibilità, rappresentati dall’utilizzo più efficiente delle risorse, dalla vita estesa dei prodotti e dalle nuove configurazioni delle catene di valore. L’ importanza di determinare gli impatti che tale processo genera lungo il suo ciclo di vita, ha portato ad una revisione della letteratura su tale argomento. In particolare, la mancanza di dati e modelli ha focalizzato l’attenzione su studi LCA di specifici processi. Grazie a tale strumento è stato possibile determinare l’influenza di diversi materiali, parametri di processo e scenari di utilizzo. Infine, viene mostrato quanto sia significativo l’impatto sociale che è in grado di generare la produzione additiva.
Resumo:
Nel seguente elaborato di tesi è stato approfondito il tema dell’interoperabilità da software BIM a FEM nell’ambito degli edifici a parete in legno. L’utilizzo di programmi di Building Information Modeling si è affermato in maniera crescente nel mondo delle costruzioni. Infatti, la possibilità di costruire modelli tridimensionali della struttura, che associano ad ogni elemento presente nell’opera tutte le informazioni utili ai fini della sua, realizzazione (quali geometrie, costi, proprietà meccaniche, fasi d’impiego, ecc..) permette di accorciare notevolmente il tempo di progettazione e costruzione, diminuendo gli errori dovuti alla trasmissione dei dati tra le varie figure professionali. Nel campo delle costruzioni, l’elemento “parete in legno” non è ancora presente all’interno dei principali software BIM. Per questo motivo, è stato necessario, per lo svolgimento del presente progetto di tesi, uno studio dei principali parametri meccanici descrittivi del reale comportamento in opera delle pareti in legno. Tali parametri sono stati calcolati secondo i due principali metodi esistenti nell’ambito delle costruzioni in legno: il metodo fenomenologico e il metodo per componenti. Nel primo caso, l’influenza sul comportamento delle pareti da parte delle connessioni metalliche viene calcolata sotto forma di parametri meccanici equivalenti. Nel secondo metodo, invece, il comportamento in opera della parete risulta essere la conseguenza dell’interazione tra la rigidezza della parete stessa e quella delle connessioni, che vengono modellate come dei vincoli equivalenti. Al fine di validare i risultati ottenuti, si è proceduto ad applicare i parametri equivalenti a due casi studio. Il primo caso è rappresentato da una parete semplice (3.2m x 3.75m) sottoposta ad una forza concentrata in sommità. Successivamente è stato studiato il caso di un edificio a parete di legno di tre piani, sottoposto ai carichi di un edificio adibito a civile abitazione.