278 resultados para Aereo, Algoritmo, Stima assetto, Tuning parametri


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’attuale panorama motoristico, fortemente guidato dalle normative, prevede l’implementazione di diverse tecnologie che hanno lo scopo di migliorare l’efficienza del motore e ridurre le emissioni di inquinanti e per le quali risulta necessario una corretta progettazione dei condotti di aspirazione. Lo sviluppo ottimale dei condotti risulta un compromesso tra obiettivi contrastanti e in termini matematici si tratta di un’ottimizzazione multiobiettivo. Le simulazioni CFD e gli algoritmi genetici sono stati applicati con successo allo studio di questi problemi, ma la combinazione di questi elementi risulta notevolmente dispendiosa in termini di tempo, in quanto sarebbero necessarie un alto numero di simulazioni. Per ridurre i tempi di calcolo, un set di simulazioni CFD pu`o essere pi`u convenientemente utilizzato per istruire una rete neurale, che una volta opportunamente istruita pu`o essere usata per prevedere gli output delle simulazioni in funzione dei parametri di progetto durante l’ottimizzazione con l’algoritmo genetico, operando quella che viene chiamata una ottimizzazione virtuale. In questa tesi, viene mostrata una metodologia numerica per l’ottimizzazione multi-obiettivo dei condotti di aspirazione, basata su un modello CAD a geometria variabile, le simulazioni fluidodinamiche tridimensionali e una rete neurale combinata con un algoritmo genetico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel nuovo secolo l’uomo sta cercando di affrontare le problematiche del cambiamento climatico, che purtroppo sta già provocando fenomeni di frequenza ed intensità mai visti. Fra i diversi metodi per provare a mitigare le emissioni di gas serra vi è quello di sfruttare il settore delle Informations and Communications Technologies (ICT). Complessivamente si stima che le ICT consumino l’8-10% di elettricità in Europa e che siano responsabili del 4% delle emissioni di carbonio del continente. Questo lavoro analizza la letteratura scientifica che si è occupata degli studi relativi ai consumi ed alle emissioni legate alle ICT. L’analisi dell’impatto ambientale viene svolta tramite il metodo Life Cycle Assessment (LCA). Nella prima parte di questa tesi si analizzano le impronte di carbonio di diversi prodotti o servizi degni di nota fino ad arrivare in generale a tutto il settore delle ICT. Nella seconda, si valutano gli impatti ambientali di sistemi implementati con le ICT comparati con altri considerati tradizionali. In questo studio, vengono analizzati i benefici e le criticità del metodo di valutazione LCA usato per studiare le ICT. Gli studi con questa tecnica sono basati sempre e solo su un modello matematico, per cui dipendono dalle ipotesi dello studio e sono associati ad una sostanziale incertezza che va considerata nell’analisi finale. Per questo motivo, applicando questo metodo al singolo prodotto, i risultati possono essere utili per fornire una base di dati per futuri studi, considerando, tuttavia, che non si può definire in maniera rigida l’impatto per ogni prodotto. Piuttosto, l’LCA è risultata più efficace per fare una comparazione tra scenari ICT e non ICT per valutare come si possa usare la tecnologia per mitigare l’impatto ambientale. Le ICT sono il presente ed il futuro della società ed è proprio per questo che è necessario monitorarle e svilupparle consapevolmente, perché per quanto l’impatto ambientale di esse possa sembrare basso, non è mai nullo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I giacimenti di cinabro (±stibina) del M.te Amiata costituiscono un distretto minerario di importanza mondiale, con una produzione storica totale che supera le 117 kt di Hg, prodotte tra il 1850 e il 1982. Nell’area del distretto minerario si trova l’omonimo sistema geotermico, con 6 impianti per la produzione di energia elettrica che producono 121MW equivalenti di energia. Lo scopo di questa tesi è di individuare e di verificare correlazioni esistenti tra la peculiare distribuzione N-S delle mineralizzazioni a cinabro, le manifestazioni geotermiche e l’assetto strutturale che caratterizza il distretto cinabrifero e il sistema geotermico. Le correlazioni sono state individuate attraverso l’applicazione di algoritmi Machine Learning (ML), utilizzando Scikit-learn, ad un dataset bidimensionale, costruito con applicazioni GIS per contenere tutti i dati geologici-giacimentologici reperiti in letteratura riguardo al distretto amiatino. È stato costruito un modello tridimensionale dell’area di studio basato sulla produzione di quattro solidi che raggruppano le formazioni geologiche presenti nell’area sulla base delle loro caratteristiche geoidrologiche. Sulla base dei risultati ottenuti si può affermare che le tecniche di ML si sono dimostrate utili nell’identificare correlazioni tra i diversi fattori geologico-strutturali che caratterizzano il sistema geotermico del M.te Amiata; la peculiare distribuzione spaziale N-S dei giacimenti del distretto dipende dalla combinazione di un sistema di faglie e di pieghe; i modelli di regressione basati su alberi decisionali (CatBoost e Random Forest) sono complessivamente più performanti e geologicamente significativi. Questo lavoro suggerisce che il ML rappresenta uno strumento in grado di suggerire nuove e poco sperimentate relazioni tra elementi geologici-giacimentologici di un’area complessa come un sistema geotermico ed è in grado di guidare eventuali fasi successive di studi geologici complessi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi termofluidodinamica di un accumulatore di calore che utilizza materiali a cambiamento di fase (PCM). I campi di velocità, di temperatura e di titolo, in regime termico non stazionario, relativi al singolo canale, vengono calcolati con un programma basato sul metodo dei volumi finiti, scritto in ambiente di lavoro Matlab. Vengono proposte diverse ottimizzazioni delle performance di accumulo termico, basate su un algoritmo genetico. Le ottimizzazioni sono fatte sia con differenti tipi di parametri di valutazione, sia con differenti gradi del polinomio che descrive la parete del canale; per ogni ottimizzazione l’algoritmo genetico è stato, quindi, utilizzato per determinare i parametri geometrici del canale ottimali. A partire dai risultati ottenuti dalle ottimizzazioni, vengono poi analizzate le prestazioni di canali della stessa geometria, ai quali viene aggiunta un’intelaiatura metallica. Vengono, infine, mostrati i risultati delle simulazioni numeriche fatte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obbiettivo di questo elaborato è descrivere l'implementazione, attraverso l’uso del programma di calcolo Matlab, di un metodo per ottenere una configurazione di un velivolo dell’aviazione generale che sia rispettosa delle specifiche di progetto e presenti un costo orario minimo. Il metodo utilizzato per progettare l’aeromobile preso come caso di studio è basato sui concetti della progettazione robusta. Con questo metodo di progettazione si cerca di rendere l’aereo il più insensibile possibile alle modifiche di alcuni dei parametri di progetto che possono variare in modo casuale; in particolare ci si è concentrati sul costo orario di una missione, andandone a calcolare la media e la sua deviazione standard. Considerando infine il rapporto segnale-rumore introdotto da Taguchi per la progettazione robusta, viene implementato un metodo di ottimizzazione basato su un algoritmo Particle Swarm Optimization (PSO), attraverso il quale si ottengono i valori più idonei dei parametri di progetto necessari per la realizzazione del futuro velivolo. In dettaglio, i parametri fissati in seguito all’applicazione dell’ottimizzatore sono l’allungamento alare, il carico alare e il rapporto potenza massima motori-peso. A conclusione del lavoro svolto, si può dire che l’ottimizzazione robusta può essere utile in tutti i casi in cui alcuni parametri di progetto non sono definiti in modo univoco, ma possono variare in un modo non prevedibile all’inizio della sviluppo del prodotto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

State-of-the-art NLP systems are generally based on the assumption that the underlying models are provided with vast datasets to train on. However, especially when working in multi-lingual contexts, datasets are often scarce, thus more research should be carried out in this field. This thesis investigates the benefits of introducing an additional training step when fine-tuning NLP models, named Intermediate Training, which could be exploited to augment the data used for the training phase. The Intermediate Training step is applied by training models on NLP tasks that are not strictly related to the target task, aiming to verify if the models are able to leverage the learned knowledge of such tasks. Furthermore, in order to better analyze the synergies between different categories of NLP tasks, experimentations have been extended also to Multi-Task Training, in which the model is trained on multiple tasks at the same time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La seguente tesi ha l'obiettivo di inquadrare le grandezze che descrivono l'Universo, i parametri cosmologici, e successivamente presentare alcuni dei metodi per derivarli. Il primo capitolo tratterà le equazioni di Friedmann, introdotte grazie alla metrica di Robertson-Walker, il parametro di espansione a(t), fondamentale per la determinazione dei parametri cosmologici, e infine le geometrie possibili dell'Universo. Il secondo è incentrato sui parametri cosmologici veri e propri, su come vengono ricavati matematicamente e sul modello cosmologico che attualmente riproduce molto bene le osservazioni, il modello Lambda-CDM. Infine, il terzo tratterà di come possono essere ricavati alcuni parametri, dando più spazio alla costante di Hubble, in quanto è al centro di una grande discussione per via della tensione tra le misure ottenute nell'universo locale e quelle che vengono da dati ad alto redshift.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliosi è una delle patologie più importanti che affliggono la colonna vertebrale, che può essere trattata chirurgicamente con un intervento di fissazione posteriore per ripristinare l’allineamento della colonna vertebrale sul piano coronale. Questa chirurgia ha al momento un alto tasso di fallimento. Una delle principali complicazioni che portano al fallimento è l’insorgenza di patologia giunzionale lombare distale. In letteratura l’influenza dello sbilanciamento coronale non è stata ancora sufficientemente approfondita. Per questo, l’obiettivo di questo studio è quello di verificare l’esistenza di possibili correlazioni tra i parametri spinopelvici nel piano coronale e l’incidenza della patologia giunzionale distale nella regione lombare. Sono stati selezionati tutti i pazienti affetti da scoliosi che sono stati sottoposti a fissazione spinale strumentata nel 2017 e 2018 all’Istituto Ortopedico Rizzoli. Questi pazienti sono stati poi divisi in due gruppi, un gruppo di controllo che comprendeva 66 pazienti e un gruppo di 31 pazienti che hanno presentato patologia giunzionale distale, andando così incontro a revisione. In entrambi i gruppi sono stati estratti i dati demografici dei pazienti e sono stati misurati i parametri spinopelvici su radiografie in ortostatismo in proiezione anteroposteriore sia precedentemente che successivamente all’intervento di fissazione; per i pazienti affetti da patologia giunzionale distale sono state esaminate anche le radiografie precedenti alla revisione. L'analisi dei risultati di questo studio ha consentito di ipotizzare possibili correlazioni tra il fallimento di un intervento di fissazione spinale e alcune caratteristiche del paziente, quali età, BMI, sbilanciamento coronale , deviazione della vertebra apice e ampiezza (misurata secondo il metodo di Cobb) delle curve scoliotiche.