1000 resultados para Modellazione,dati sperimentali,Calibrazione,Ottimizzazione


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Come ogni campo dell'ingegneria, anche quello inerente allo sviluppo di motori aerei, è in continuo sviluppo, e, di volta in volta, la progettazione richiede nuove soluzioni per rendere sempre più efficienti ed affidabili i velivoli, mantenendo ridotti i costi di produzione e manutenzione. In particolare, si è pensato di porre rimedio a queste molteplici necessità introducendo l'utilizzo di motori diesel di derivazione automobilistica: economici dal punto di vista della manutenzione e della produzione, in quanto largamente diffusi e testati, ben si prestano all'adattamento ad uso aeronautico. Nel caso specifico del progetto che intendo affrontare, si tratta di un motore Audi V12 tdi, elaborato fino a raggiungere i 900 hp e velocità su albero motore 5,000 rpm. Naturalmente, l'adattamento di tale motore implica una riprogettazione del riduttore, affinché si ottenga in uscita una velocità di 1185 rpm. Infatti, la rotazione dell'elica non dovrebbe mai superare i 2700-2800 giri al minuto, in quanto ad una velocità di rotazione superiore, le pale dell'elica raggiungerebbero una velocità prossima a quella del suono, creando rumori insopportabili e fastidiose vibrazioni, nonché la perdita dell'efficacia dell'elica stessa. La mia tesi nasce dal lavoro precedentemente sviluppato da un mio collega, il quale aveva elaborato un riduttore in grado di modificare la potenza in entrata da 600 a 900 hp, riprogettando le ruote dentate e selezionando nuovi cuscinetti, pur mantenendo i carter iniziali, opportunamente modificati. Il mio obiettivo è quello di elaborare ulteriormente il compito da lui svolto, sviluppando un nuovo riduttore in grado di utilizzare sempre la potenza in entrata di un motore da 900 hp ma di rendere il riduttore nel suo insieme, più compatto e leggero possibile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present dissertation aims at simulating the construction of lexicographic layouts for an Italian combinatory dictionary based on real linguistic data, extracted from corpora by using computational methods. This work is based on the assumption that the intuition of the native speaker, or the lexicographer, who manually extracts and classifies all the relevant data, are not adequate to provide sufficient information on the meaning and use of words. Therefore, a study of the real use of language is required and this is particularly true for dictionaries that collect the combinatory behaviour of words, where the task of the lexicographer is to identify typical combinations where a word occurs. This study is conducted in the framework of the CombiNet project aimed at studying Italian Word Combinationsand and at building an online, corpus-based combinatory lexicographic resource for the Italian language. This work is divided into three chapters. Chapter 1 describes the criteria considered for the classification of word combinations according to the work of Ježek (2011). Chapter 1 also contains a brief comparison between the most important Italian combinatory dictionaries and the BBI Dictionary of Word Combinations in order to describe how word combinations are considered in these lexicographic resources. Chapter 2 describes the main computational methods used for the extraction of word combinations from corpora, taking into account the advantages and disadvantages of the two methods. Chapter 3 mainly focuses on the practical word carried out in the framework of the CombiNet project, with reference to the tools and resources used (EXTra, LexIt and "La Repubblica" corpus). Finally, the data extracted and the lexicographic layout of the lemmas to be included in the combinatory dictionary are commented, namely the words "acqua" (water), "braccio" (arm) and "colpo" (blow, shot, stroke).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questo elaborato di tesi è sintetizzare microcapsule di dimensioni non superiori ai 20 micron, contenenti un composto termocromico in modo da funzionare come indicatori di temperatura. Le capsule devono essere quindi in grado di variare la propria colorazione in funzione della temperatura del mezzo in cui sono disperse o dell’ambiente circostante, senza degradarsi. Il core è costituito da una miscela contenente un pigmento termocromico il cui colore varia da verde intenso se mantenuto a temperature ambiente, fino ad un verde pallido, quasi bianco, per temperature inferiori ai 10°C. Il core è stato quindi incapsulato in uno shell, costituito da una resina melammina-formaldeide (MF) mediante polimerizzazione in situ. Questo processo prevede la sintesi di un prepolimero MF che viene poi fatto reticolare in presenza di una emulsione del core in soluzione acquosa. Per prima cosa è stato ottimizzata la sintesi del prepolimero a partire da una soluzione acquosa di melammina e formaldeide. Vista la tossicità della formaldeide (H341-H350-H370) è stata studiata anche la possibilità di sostituire questo reagente con la sua forma polimerica (paraformaldeide) che a 45°C circa degrada rilasciando formaldeide in situ. In questo modo il processo risulta molto più sicuro anche in previsione di un suo possibile sviluppo industriale. In seguito è stato ottimizzato il processo di microincapsulazione in emulsione su vari tipi di core e studiando l’effetto di vari parametri (pH, temperatura, rapporto core/shell, tipo di emulsionante ecc.), sulle dimensioni e la stabilità delle microcapsule finali. Queste sono quindi state caratterizzate mediante spettrometria Infrarossa in trasformata di Fourier (FT-IR) e la loro stabilità termica è stata controllata tramite analisi TermoGravimetrica (TGA). Il processo di reticolazione (curing) della resina, invece, è stato studiato tramite Calorimetria Differenziale a Scansione (DSC). Le microcapsule sono inoltre state analizzate tramite Microscopio Elettronico (OM) e Microscopio Elettronico a Scansione (SEM).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo della tesi è la realizzazione del modello geologico-tecnico della frana in Loc. Calvanelle (Comune di Loiano, Bologna) finalizzato alla progettazione del consolidamento del versante e al ripristino della viabilità stradale. Per realizzare il modello geologico - tecnico ho interpretato i dati stratigrafici ottenuti da una campagna di sondaggi a carotaggio continuo. Questi dati sono stati integrati da indagini geofisiche per ottenere un modello più accurato, inoltre ho cartografato il corpo di frana con l'ausilio del GPS e derivato il suo profilo usando il Triplometro. E' stata quindi valutata l'evoluzione geomorfologica del corpo di frana ed è stata monitorata la variazione della falda tramite l'installazioni di 12 piezometri. Infine ho svolto un'analisi numerica, per interpretare la dinamica del corpo di frana e per definire i parametri geotecnici dei terreni coinvolti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I movimenti lenti delle colate in terra sono una caratteristica geomorfologica comune nell’Appennino settentrionale e sono uno dei principali agenti di modellazione del paesaggio. Spesso case e piccoli centri abitati sorgono in zone affette da questo tipo di movimento franoso e di conseguenza subiscono danni causati da piccoli spostamenti. In questo lavoro di Tesi vengono presentati i risultati ottenuti dall’interferometria radar ad apertura sintetica (InSAR) mediante elaborazione tramite StaMPS (Stanford Method of Persistent Scatterers), utilizzando la tecnica avanzata Small Baseline Subset (Berardino et al., 2002). Questo metodo informatico è applicato alle acquisizioni rilevate dai satelliti Envisat e COSMO-SkyMed in orbita ascendente e discendente, ottenendo una copertura di dati che va dal 2004 al 2015, oltre ad un rilevamento geologico-geomorfologico in dettaglio eseguito nell’area di studio. Questa tecnica di telerilevamento è estremamente efficace per il monitoraggio dei fenomeni di deformazione millimetrica che persistono sulla superficie terrestre, basata sull'impiego di serie temporali d’immagini radar satellitari (Ferretti et al., 2000). Lo studio è stato realizzato nel paese di Gaggio Montano nell’Appennino bolognese. In questa zona sono stati identificati diversi corpi di frana che si muovono con deformazioni costanti durante il tempo di investigazione e grazie ai risultati ottenuti dai satelliti è possibile confrontare tale risultato. Gli spostamenti misurati con il metodo InSAR sono dello stesso ordine di grandezza dei movimenti registrati dai sondaggi inclinometrici. Le probabili cause dell’instabilità di versante a Gaggio Montano sono di natura antropica, in quanto alti tassi di deformazione sono presenti nelle zone dove sorgono case di recente costruzione e complessi industriali. Un’altra plausibile spiegazione potrebbe essere data dalla ricarica costante d’acqua, proveniente dagli strati dei Flysch verso l’interno del complesso caotico sottostante, tale dinamica causa un aumento della pressione dell’acqua nelle argille e di conseguenza genera condizioni d’instabilità sul versante. Inoltre, i depositi franosi rilevati nell’area di studio non mostrano nessun tipo di variazione dovuta ad influenze idrologiche. Per questo motivo le serie temporali analizzare tendo ad essere abbastanza lineari e costanti nel tempo, non essendo influenzate da cicli stagionali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio ed ottimizzazione di un convertiplano in volo orizzontale ad eliche controrotanti in volo di crociera.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio e ottimizzazione di un sistema di sbrinamento ad alto rendimento termodinamico per pompe di calore di concezione innovativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio e ottimizzazione di un sistema di rigenerazione per pompe di calore ad alta efficienza di concezione innovativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio e ottimizzazione di un riduttore per un convertiplano con eliche controrotanti di concezione innovativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.