824 resultados para Diagnosi, muratura, Legno, indagini sperimentali


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’incendio raramente è un fatto naturale, nasce pertanto dalla volontà o dalla negligenza dell’uomo: opera di mani quasi sempre sconosciute, per cui le comunicazioni di reato restano spesso correlate contro ignoti. Questo fa si che la diagnosi sulle cause, dolose e colpose, relative al singolo evento fornisca indicazioni utili sull’origine dell’incendio, tuttavia questo non incide sui comportamenti futuri, se non in termini di repressione e dissuasione, e soprattutto non mette a ‘fuoco’ le cause sociali interne ai sistemi locali e di contesto. Chiunque appicchi un fuoco può essere definibile come incendiario. I maggiori studi, nonché i più completi, nel campo del crimine collegato al fuoco sono stati svolti negli Stati Uniti, da unità speciali dell’FBI appositamente predisposte. Le osservazioni effettuate sulle attività criminali degli incendiari hanno evidenziato che quanto più è organizzata la scena dell’incendio e studiata la tecnica dell’innesco del fuoco, tanto più l’autore è razionale e finalizzato da propri interessi materiali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro è incentrato sull'analisi e la simulazione di un ciclo Rankine a fluido organico (ORC) per la produzione di energia da calore a bassa entalpia. Il lavoro è stato svolto in collaborazione con l'università di Gent, in Belgio, in particolare grazie al Prof. De Peape e all' Ing. Steven Lecompte; il lavoro in Italia è stato coordinato dal Prof. De Pascale. L'obiettivo principale della tesi è stata la creazione un modello computazionale in grado di descrivere le prestazioni dell'impianto a carico parziale. Ogni elemento dell'impianto è stato analizzato e modellizzato secondo un approccio di simulazione originale in Matlab. I componenti ottenuti sono stati poi combinati a formare la simulazione dell'intero sistema; questa è in grado di prevedere la potenza prodotta ed il rendimento del ciclo al variare delle condizioni esterne. I risultati ottenuti dalle simulazioni sono stati poi confrontati con i dati sperimentali raccolti sull'impianto di prova dell'Università. Questo confronto dimostra un buon accordo dei risultati previsti con quelli misurati. L'errore relativo massimo ottenuto per la potenza elettrica è sotto il 7%, così come quello sul rendimento; Gli errori relativi a pressione ed entalpie sono in genere sotto il 5%. Il modello può perciò dirsi validato e rappresenta un valido strumento di analisi per comprendere la risposta ai carichi parziali anche al di fuori del range di calibrazione. Il modello è stato infine utilizzato per costruire delle mappe del carico parziale e analizzare l'influenza delle variabili del ciclo. Ulteriori applicazioni delle mappe prodotte sono proposte a fine del lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro di tesi è realizzare un modello, prima statico poi dinamico, dei componenti: imbocco e gruppo compressore, del turboalbero Allison 250 C18 sottoposto alla tecnologia del fogging. I dati sperimentali utilizzati provengono da prove sperimentali svolte da un altro tesista nel laboratorio di Propulsione e macchine della Scuola di Ingegneria e Architettura di Forlì. Grazie al modello statico, realizzato con il software MATLAB®, sono state create le principali mappe prestazionali dei singoli componenti. Queste ultime sono state poi implementate all'interno del modello dinamico realizzato con il software Simulink. Attraverso il modello dinamico, siamo stati in grado di osservare, grazie ad una struttura modulare a blocchi, l'andamento delle grandezze anche in regime transitorio, e di cambiare i parametri di inizializzazione in maniera molto rapida. Infine i dati ottenuti sono stati confrontati con i dati sperimentali e sono state effettuate valutazioni sull'utilità o meno del fogging. Entrambe le conclusioni hanno dato buoni risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la vita operativa di un aeromobile, gli elementi costitutivi possono essere soggetti a diverse tipologie di carichi. Questi carichi possono provocare la nascita e la propagazione di eventuali cricche, le quali una volta raggiunta una determinata dimensione possono portare alla rottura del componente stesso causando gravi incidenti. A tale proposito, la fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche. Lo studio e l’applicazione dei principi di fatica sugli aeroplani sono relativamente recenti, in quanto inizialmente gli aerei erano realizzati in tela e legno, un materiale che non soffre di fatica e assorbe le vibrazioni. I materiali aeronautici si sono evoluti nel tempo fino ad arrivare all’impiego dei materiali compositi per la costruzione degli aeromobili, nel 21. secolo. Il legame tra nascita/propagazione delle cricche e le tensioni residue ha portato allo sviluppo di numerose tecniche per la misurazione di queste ultime, con il fine di contrastare il fenomeno di rottura a fatica. Per la misurazione delle tensioni residue nei componenti metallici esistono diverse normative di riferimento, al contrario, per i materiali compositi, la normativa di riferimento è tuttora oggetto di studio. Lo scopo di questa tesi è quello di realizzare una ricerca e studiare dei metodi di riferimento per la misurazione delle tensioni residue nei laminati compositi, tramite l’approfondimento di una tecnica di misurazione delle tensioni residue, denominata Incremental Hole Drilling.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rotture a fatica dei componenti sono dovute principalmente alle tensioni di trazione generate da carichi ciclici e variabili nel tempo. Le cricche causate da questo tipo di tensioni possono propagarsi e crescere fino a causare danni catastrofici nel componente. La fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche; in campo aeronautico sono quindi molto diffusi dei trattamenti superficiali che permettono di indurre tensioni di compressione che contrastano quelle di trazione, in modo tale da ritardare o prevenire le rotture dovute al fenomeno della fatica. Esistono diverse tecniche per raggiungere questo risultato e permettere di prolungare la vita a fatica di un componente metallico, la più nota è sicuramente il Laser Shock Peening (LSP). Nel corso degli ultimi anni la maggior parte delle ricerche condotte rispetto a questa tecnica sono state incentrate sugli effetti meccanici che questo trattamento ha sul materiale in modo da determinare la configurazione ottimale per ottenere una distribuzione delle tensioni il più efficace possibile ai fini della vita a fatica; sono state svolte diverse prove sperimentali per studiare il ruolo dei parametri del laser e ottimizzare la procedura del LSP. Tra le tecniche utilizzate per valutare gli effetti del LSP in termini di tensioni residue, spiccano, oltre ai metodi computazionali, l'X-ray Diffraction (XRD) e l'Incremental Hole Drilling (IHD). L'elaborato di tesi qui presentato ha come scopo il confronto tra i livelli di tensioni residue riscontrate all'interno di provini sottili in lega di alluminio, sottoposti a differenti trattamenti laser, attraverso i suddetti metodi XRD e IHD. I risultati, già noti, ottenuti con la tecnica l'XRD sono stati posti a verifica attraverso dei test svolti con l'IHD presso i laboratori MaSTeRLab della Scuola di Ingegneria dell'Università di Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi si cerca di dare una nuova chiave di lettura del monumento unico nel suo genere, quanto noto Parliamo del Mausoleo di Teodorico che si erige nelle immediate vicinanze del centro di Ravenna.Il Mausoleo costruito nel v secolo, quando Ravenna è capitale dell’impero d’Occidente e vi si stabilisce Teodorico il Grande. La struttura è stata molto esaminata nel corso del tempo da molti studiosi ma non si ha notizia di una analisi d'insieme. Si è cercato quindi di mettere a fuoco uno degli aspetti più emblematici ed ancor ben lungi da scientifiche certezze: La sua copertura.Si tratta di un monolite con un peso stimato tra le 240 e le 270 Tonnellate proveniente dalle cave di Aurisina in Istria. Numerosi studiosi si sono cimentati nello stipulare le proprie ipotesi sul trasporto e soprattutto sulla sua messa in opera senza giungere ad un univoca conclusione. Si è proceduto poi alla loro schematizzazione in filoni principali senza tralasciare una propria opinione valutandone i pro e i contro anche in base alle conoscenze attuali. Si sono confrontati metodi di trasporto dei monoliti, senza tralasciare l’analisi delle macchine da cantiere dell’epoca a supporto delle ipotesi proposte. Da ultimo mi sono soffermato sul significato semantico delle dentellature di sommità della copertura, o modiglioni: anche per questi elementi vi sono stati e mi auguro ci saranno numerosi dibattiti sul loro aspetto simbolico o quantomeno funzionale. Durante la stesura della è scaturito anche un interessante confronto di idee che testimonia quanto la questione sia ancora articolata ed interessante. Si apre quindi a suggerimenti per spunti futuri specialmente per quanto riguarda indagini diagnostiche strumentali sulla cupola e sulla sua crepa. Mi auguro che raccogliendo e analizzando le principali ipotesi si possa proseguire questo filone investigativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I neutroni possono essere classificati in base all'energia e per anni lo studio sui neutroni si è focalizzato verso le basse energie, ottenendo informazioni fondamentali sulle reazioni nucleari. Lo studio per i neutroni ad alta energia (E >20 MeV) ha ultimamente suscitato un vivo interesse, poiché i neutroni hanno un ruolo fondamentale in una vasta gamma di applicazioni: in campo medico, industriale e di radioprotezione. Tuttavia le informazioni sperimentali (sezioni d'urto) in nostro possesso, in funzione dell'energia dei neutroni, sono limitate, considerando che richiedono la produzione di fasci con un ampio spettro energetico e delle tecniche di rivelazione conforme ad essi. La rivelazione dei neutroni avviene spesso attraverso il processo di scintillazione che consiste nell'eccitazione e diseccitazione delle molecole che costituiscono il rivelatore. Successivamente, attraverso i fotomoltiplicatori, la luce prodotta viene raccolta e convertita in impulsi energetici che vengono registrati ed analizzati. Lo scopo di questa tesi è quello di testare quale sia la migliore configurazione sperimentale di un rivelatore costituito da scintillatori e fotomoltiplicatori per quanto riguarda la raccolta di luce, utilizzando una simulazione Monte Carlo per riprodurre le proprietà ottiche di un rivelatore per misure di flusso di un rivelatore ad alta energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi è incentrata sullo studio e la determinazione del flusso neutronico della facility nTOF (neutron Time Of Flight) del CERN di Ginevra nel corso della campagna sperimentale del 2016. L'esperimento è finalizzato alla misura della sezione d'urto della reazione di cattura neutronica da parte degli isotopi dispari di gadolinio, 155Gd e 157Gd. In particolare l'analisi verrà condotta in modo da ottenere dati sperimentali nello spettro di energie da neutroni termici (10-2 eV) a 1.0 eV e migliorare i dati già esistenti per energie fino a 1.0 MeV. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che sono alla base del progetto di ricerca, si descrivono le caratteristiche della facility nTOF e si trattano i fondamenti delle reazioni nucleari e le tecniche del tempo di volo, di misura di flusso e di cattura utilizzate nel corso dell'esperimento. Nella parte finale del lavoro si presentano i dati sperimentali acquisiti sul flusso neutronico, la cui accurata conoscenza è fondamentale per la misura di sezioni d'urto di reazioni indotte da neutroni. I risultati ottenuti sono quindi stati elaborati e confrontati con i dati precedenti per poter essere validati e per poter verificare eventuali discrepanze. Dalle analisi dei dati si deduce come la precisione ottenuta sulla determinazione del flusso sia ottimale per i successivi studi che verranno condotti sulla sezione d'urto degli isotopi dispari di gadolinio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è la realizzazione e l'ottimizzazione di un software che, tramite l'utilizzo di un controllo automatico Proporzionale-Integrativo-Derivativo: PID, gestisca la temperatura di un fornetto in camera a vuoto. È necessario che il sistema sia in grado di eseguire rampe regolari di temperatura di diversa pendenza scelta dall'utente, in modo che possa essere utilizzato in futuro per esperimenti di Desorbimento Termico da parte di vari materiali. La tesi è così suddivisa, nel primo capitolo sono illustrati i concetti teorici di base utilizzati nello sviluppo dei controlli automatici. Nel secondo capitolo è descritta la parte hardware: sono mostrate le diverse sezioni che compongono il fornetto e la camera a vuoto, è inoltre illustrato il cablaggio che permette l'interfaccia del forno alla scheda Arduino ed al software LabVIEW. La terza sezione è dedicata agli studi svolti per la realizzazione del sistema di controllo PID e per la sua ottimizzazione. Il quarto capitolo è invece dedicato alla descrizione del software creato per la gestione del fornetto. Nel quinto capitolo sono infine mostrati i metodi utilizzati per il calcolo delle costanti operative del PID ed i risultati sperimentali ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito dei motori ad accensione comandata, la comprensione del processo di accensione e delle prime fasi di sviluppo del kernel è di primaria importanza per lo studio dell'intero processo di combustione, dal momento che questi determinano lo sviluppo successivo del fronte di fiamma. Dal punto di vista fisico, l'accensione coinvolge un vasto numero di fenomeni di natura molto complessa, come processi di ionizzazione e passaggio di corrente nei gas: molti di questi avvengono con tempi caratteristici che ne impediscono la simulazione tramite le attuali tecniche CFD. Si rende pertanto necessario sviluppare modelli semplificati che possano descrivere correttamente il fenomeno, a fronte di tempi di calcolo brevi. In quest'ottica, il presente lavoro di tesi punta a fornire una descrizione accurata degli aspetti fisici dell'accensione, cercando di metterne in evidenza gli aspetti principali e le criticità. A questa prima parte di carattere prettamente teorico, segue la presentazione del modello di accensione sviluppato presso il DIN dell'Università di Bologna dal Prof. Bianche e dall'Ing. Falfari e la relativa implementazione tramite il nuovo codice CONVERGE CFD: la validazione è infine condotta riproducendo un caso test ben noto il letteratura, che mostrerà un buon accordo tra valori numerici e sperimentali a conferma della validità del modello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.