997 resultados para Incertezza misura sperimentale errore parametri geometrici


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggetto della tesi e' l'approfondimento su tecniche e metodiche di preservazione del polmone isolato per lo studio ecografico. E' discussa l'appropriatezza sull'uso degli ultrasuoni in corso di chirurgia mini invasiva polmonare, obiettivo di una ricerca sperimentale. Il razionale dello studio si fonda sull'indicazione all'exeresi chirurgica di noduli polmonari di diametro inferiore al centometro, ovvero di diametro superiore ma localizzati in aree centrali del polmone. Queste lesioni sono sempre piu' frequentente diagnosticate per mezzo di avanzate tecniche di imaging. L'atto chirurgico ha scopo terapeutico quando sia stata posta la diagnosi di neoplasia maligna, diagnostico-terapeutico quando non sia ancora ottenuta la tipizzazione istologica della lesione. La tecnica toracoscopica offre numerosi vantaggi rispetto alle tecniche chirurgiche tradizionali ma presenta il grave limite di non permettere la palpazione diretta del tessuto polmonare e la localizzazione della formazione tumorale quando essa non sia visibile macroscopicamente. Gli ultrasuoni sono stati utilizzati con successo per indirizzare la localizzazione del nodulo polmonare. Scopo dello studio sperimentale e' quello di confrontare tecniche diverse di preservazione del polmone isolato in un modello animale, comparando catatteristiche e prestazioni di sonde ecografiche differenti per tipologia. Del tutto recentemente, in ambito trapiantologico, sono state proposte tecniche di preservazione organica utili ai fini di uno studio anatomico sperimentale particolareggiato (EVLP) e moderna e' da considerarsi la concezione di mezzi tecnici specifici per la localizzazione di bersagli intrapolmonari. La tecnica clinica applicata allo studio del particolare ecografico, nel modello animale, ha reso comprensibile e meglio definito il ruolo delle sonde ecografiche nell'individuazione di forme tumorali suscettibili di exeresi definitiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesi sperimentale per testare la nuova libreria di Activity Recognition per Android di Google inc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l’evoluzione delle tecniche ecocardiografiche relativamente alla diagnosi precoce della cardiotossicità. L’elaborato espone le modalità di imaging ecocardiografico che vengono utilizzate per diagnosticare la cardiotossicità a partire dall’ecocardiografia bidimensionale, fino alle tecniche tridimensionali con acquisizione in tempo reale, attualmente in evoluzione. Si analizzano le varie tecniche diagnostiche rese disponibili dall’esame ecocardiografico: ecocardiografia a contrasto, doppler ad onda continua e pulsata e color doppler, e i metodi e le stime attraverso i quali è possibile quantificare i volumi cardiaci, indici della funzionalità del miocardio. La frazione di eiezione è infatti stata, fino ad ora, il parametro di riferimento per la verifica di lesioni cardiache riportate a seguito di terapia antitumorale. La cardiotossicità viene riscontrata per riduzioni dei valori della frazione di eiezione da ≥5% a <55% con sintomi di scompenso cardiaco e riduzione asintomatica da ≥10% al 55%. Tuttavia, l’osservazione di questo parametro, permette di quantificare il danno riportato quando ormai ha avuto ripercussioni funzionali. In campo clinico, si sta imponendo, al giorno d’oggi, l’analisi delle deformazioni cardiache per una valutazione precoce dell’insorgenza della cardiotossicità. Lo studio delle deformazioni cardiache viene effettuato tramite una nuova tecnica di imaging: l’ecocardiografia speckle tracking (STE), che consente un’analisi quantitativa e oggettiva, poiché indipendente dall’angolo di insonazione, della funzionalità miocardica sia globale sia locale, analizzando le dislocazioni spaziali degli speckles, punti generati dall’interazione tra ultrasuoni e fibre miocardiche. I parametri principali estrapolati dall’indagine sono: deformazione longitudinale, deformazione radiale e deformazione circonferenziale che descrivono la meccanica del muscolo cardiaco derivante dall’anatomia delle fibre miocardiche. La STE sviluppata inizialmente in 2D, è disponibile ora anche in 3D, permettendo la valutazione del vettore delle dislocazioni lungo le tre dimensioni e non più limitatamente ad un piano. Un confronto tra le due mostra come nella STE bidimensionale venga evidenziata una grande variabilità nella misura delle dislocazioni mentre la 3D mostra un pattern più uniforme, coerente con la normale motilità delle pareti cardiache. La valutazione della deformazione longitudinale globale (GLS), compiuta tramite ecocardiografia speckle tracking, viene riconosciuta come indice quantitativo della funzione del ventricolo sinistro le cui riduzioni sono predittive di cardiotossicità. Queste riduzioni vengono riscontrate anche per valori di frazioni di eiezione normale: ne risulta che costituiscono un più efficace e sensibile indicatore di cardiotossicità e possono essere utilizzate per la sua diagnosi precoce.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Joseph Nicolas Cugnot built the first primitive car in 1769 and approximately one hundred year later the first automotive race took place. Thanks to this, for the first time the aerodynamics principles began to be applied to cars. The aerodynamic study of a car is important to improve the performance on the road, or on the track. It purposely enhances the stability in the turns and increases the maximum velocity. However, it is also useful, decrease the fuel consumption, in order to reduce the pollution. Given that cars are a very complex body, the aerodynamic study cannot be conducted following an analytical method, but it is possible, in general, to choose between two different approaches: the numerical or the experimental one. The results of numerical studies depend on the computers’ potential and on the method use to implement the mathematical model. Today, the best way to perform an aerodynamic study is still experimental, which means that in the first phase of the design process the study is performed in a wind tunnel and in later phases directly on track. The automotive wind tunnels are singular mainly due to the test chamber, which typically contains a ground simulation system. The test chamber can have different types of walls: open walls, closed walls, adaptive walls or slotted walls. The best solution is to use the slotted walls because they minimize the interference between the walls and the streamlines, the interaction between the flow and the environment, and also to contain the overall costs. Furthermore, is necessary minimize the boundary layer at the walls, without accelerating the flow, in order to provide the maximum section of homogeneous flow. This thesis aims at redefining the divergent angle of the Dallara Automobili S.P.A. wind tunnel’s walls, in order to improve the overall homogeneity. To perform this study it was necessary to acquire the pressure data of the boundary layer, than it was created the profile of the boundary layer velocity and, to minimize the experimental errors, it was calculated the displacement thickness. The results obtained shows, even if the instrument used to the experiment was not the best one, that the boundary layer thickness could be minor in case of a low diffusion angle. So it is convenient to perform another experiment with a most sensitive instrument to verified what is the better wall configuration.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’analisi compiuta in questa tesi di laurea è motivata da una passione che fin dall’infanzia ho coltivato: quella per il Giappone. Con il passare degli anni gli aspetti del Giappone che mi hanno stimolato e incuriosito sono evoluti, come la volontà di approfondire una conoscenza sempre più completa di questo popolo e della loro cultura – facendo anche tesoro dell’esperienza di viaggio fatta nel 2012, visitando Tokyo e Kyoto.
 Notai nel mio breve soggiorno a Tokyo un qualcosa che qua non trovavo negli edifici: un eterno conflitto con lo spazio. Sono rimasto sorpreso dagli spazi angusti, dalle dimensioni lillipuziane delle case, spesso caratterizzate da standard qualitativi intollerabili per un occidentale, ma allo stesso tempo mi ha impressionato la tecnologia disponibile per la vita di tutti i giorni, che permetteva di sopperire a queste mancanze o deficit. Kyoto mi ha invece colpito per la tradizione, per la storia, per le sue architetture lignee – una città capace di fare convivere in armonia il passato col presente nel pieno rispetto della natura. I suoi colori, i suoi paesaggi bucolici non li dimenticherò facilmente... Il percorso di analisi che si svolgerà in questa sede includerà, partendo dalla tradizione fino ad arrivare al presente, le tematiche di cui si è appena parlato: casa giapponese, misura, standard, spazio. Si è partiti dall’analisi descrittiva e dalle splendide illustrazioni del zoologo americano Edward Morse, analizzando il suo volume “Japanese Homes and Their Surroundings” pubblicato alla fine del 1800 e divenuto un libro di culto per gli architetti moderni, per poi arricchire l’analisi con le tantissime informazioni e tavole tecniche fornite da Heinrich Engel con il libro “The Japanese House – A tradition for contemporary architecture”, un testo veramente formativo e altamente specifico per l’architettura vernacolare giapponese. Si arricchisce la discussione con Paper e pubblicazioni di professori giapponesi, racconti di narrativa e guide sul Giappone, per poi concludere l’analisi con libri di architettura moderna giapponese come il volume di Naomi Pollock “Modern Japanese House” e riviste quali JA (Japan Architects) per fornire esempi contemporanei di costruzioni residenziali odierne.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi sono presentate la misura e la dimensione di Hausdorff, gli strumenti matematici che permettono di descrivere e analizzare alcune delle più importanti proprietà degli insiemi frattali. Inoltre viene introdotto il carattere di autosimilarità, comune a questi insiemi, e vengono mostrati alcuni tra i più noti esempi di frattali, come l'insieme di Cantor, la curva di Koch, l'insieme di Mandelbrot e gli insiemi di Julia. Di quest'ultimi sono presenti immagini ottenute tramite un codice Matlab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi, utilizzando le particolari proprietà del polimero conduttivo poli(3,4-etilenediossitiofene) drogato con polistirene sulfonato , o PEDOT:PSS, sono stati realizzati dei transistor elettrochimici organici (OECTs), in cui il gate e canale source-drain sono stati realizzati depositando su substrato di vetro film sottili di questo polimero. I dispositivi realizzati sono stati caratterizzati, per comprenderne meglio le funzionalità e le proprietà per possibili applicazioni future, in particolare come sensori di glucosio. Il PEDOT:PSS è uno dei materiali più studiati per applicazioni della bioelettronica in virtù della sua grande stabilità chimica e termica, della reversibilità del suo processo di drogaggio, della grande conducibilità e delle sue proprietà elettrochimiche, nonché della sua attività in un vasto range di pH. Vengono trattate nell’elaborato anche le tecniche di deposizione di questo polimero per la creazione di film sottili, necessari per le varie applicazioni nell’ambito della bioelettronica organica, la quale si propone di unire la biologia e l’elettronica in un mutuale scambio di informazioni e segnali. Questa interazione si sta verificando soprattutto nel campo sanitario, come si può evincere dagli esempi riportati nella trattazione. Si conclude la parte teorica con una descrizione degli OECTs: viene spiegata la loro struttura, la capacità di connettere conducibilità ionica ed elettronica e il loro funzionamento, inserendo anche un confronto con i FET (“Field Effect Transistor”), per agevolare la comprensione dei meccanismi presenti in questi strumenti. Per la parte sperimentale si presenta invece una descrizione dettagliata dei procedimenti, degli strumenti e degli accorgimenti usati nel fabbricare i transistor sui quali si è lavorato in laboratorio, riportando anche una piccola esposizione sulle principali misure effettuate: curve caratterische I–V, transcaratteristiche e misure di corrente nel tempo sono le principali acquisizioni fatte per studiare i dispositivi. E’ stata studiata la diversa risposta degli OECTs al variare della concentrazione di PBS in soluzione, mostrando un generale rallentamento dei processi e una diminuzione della capacità di modificare la corrente source-drain al calare della concentrazione. In seguito, è stato effettuato un confronto tra transistor appena fatti e gli stessi analizzati dopo un mese, osservando una riduzione della corrente e quindi della conducibilità, seppur senza una modifica qualitativa delle curve caratteristiche (che mantengono il loro andamento). Per quanto riguarda la possibilità di usare questi dispositivi come sensori di glucosio, si introduce uno studio preliminare sulla risposta di un transistor, il cui gate è stato funzionalizzato con ferrocene, alla presenza di glucosio e glucosio ossidasi, un enzima necessario al trasferimento di elettroni, nella soluzione elettrolitica, seppur con qualche difficoltà, per via della mancanza di informazioni sui parametri da utilizzare e il range in cui compiere le misure (tuttora oggetto di ricerca).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un LiDAR è uno strumento di misura che sta vedendo uno sviluppo enorme negli ultimi decenni e sta dando risultati di grande utilità pratica. Abbiamo svolto alcune misure di distanza utilizzando uno strumento realizzato con materiale di recupero e un semplice software scritto da noi. In una prima parte del lavoro, più teorica, si illustrerà il funzionamento dello strumen- to, basato sull’invio di fasci laser su bersagli opachi e sulla ricezione della loro riflessione. Si presterà particolare attenzione ai metodi sviluppati per poter sfruttare laser continui piuttosto che impulsati, che risulterebbero più costosi: le sequenze pseudocasuali di bit. Nella parte sperimentale invece si mostrerà l’analisi dei dati effettuata e si commen- teranno i risultati ottenuti osservando le misure, con lo scopo di verificare alcune ipotesi, fra cui si darà particolare attenzione al confronto delle diverse sequenze. Lo scopo di questo lavoro è caratterizzare lo strumento tramite l’analisi delle misure e verificare l’asserzione dell’articolo [1] in bibliografia secondo cui particolari sequenze di bit (A1 e A2) darebbero risultati migliori se utilizzate al posto della sequenza pseudocasuale di lunghezza massima, M-sequence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I tetti verdi rappresentano, sempre più frequentemente, una tecnologia idonea alla mitigazione alle problematiche connesse all’ urbanizzazione, tuttavia la conoscenza delle prestazioni dei GR estensivi in clima sub-Mediterraneo è ancora limitata. La presente ricerca è supportata da 15 mesi di analisi sperimentali su due GR situati presso la Scuola di Ingegneria di Bologna. Inizialmente vengono comparate, tra loro e rispetto a una superficie di riferimento (RR), le prestazioni idrologiche ed energetiche dei due GR, caratterizzati da vegetazione a Sedum (SR) e a erbe native perenni (NR). Entrambi riducono i volumi defluiti e le temperature superficiali. Il NR si dimostra migliore del SR sia in campo idrologico che termico, la fisiologia della vegetazione del NR determina l'apertura diurna degli stomi e conseguentemente una maggiore evapotraspirazione (ET). Successivamente si sono studiate la variazioni giornaliere di umidità nel substrato del SR riscontrando che la loro ampiezza è influenzata dalla temperatura, dall’umidità iniziale e dalla fase vegetativa. Queste sono state simulate mediante un modello idrologico basato sull'equazione di bilancio idrico e su due modelli convenzionali per la stima della ET potenziale combinati con una funzione di estrazione dell’ umidità dal suolo. Sono stati proposti dei coefficienti di correzione, ottenuti per calibrazione, per considerare le differenze tra la coltura di riferimento e le colture nei GR durante le fasi di crescita. Infine, con l’ausilio di un modello implementato in SWMM 5.1. 007 utilizzando il modulo Low Impact Development (LID) durante simulazioni in continuo (12 mesi) si sono valutate le prestazioni in termini di ritenzione dei plot SR e RR. Il modello, calibrato e validato, mostra di essere in grado di riprodurre in modo soddisfacente i volumi defluiti dai due plot. Il modello, a seguito di una dettagliata calibrazione, potrebbe supportare Ingegneri e Amministrazioni nella valutazioni dei vantaggi derivanti dall'utilizzo dei GR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nell’ambito del tirocinio svolto è stato affrontato lo studio del Progetto di messa in sicurezza e bonifica della Raffineria ISAB IMP. SUD, attiva nel SIN di Priolo Gargallo. In particolare lo studio ha visto il Monitoraggio Annuale delle acquee sotterranee. Il lavoro è stato articolato nelle seguenti fasi: Lo studio del Progetto di messa in sicurezza e bonifica dell’area Il campionamento delle acque attraverso sopralluoghi in campo Le analisi in laboratorio La validazione dei dati ottenuti La stesura della relazione tecnica relativamente ai dati validati, trasmessa all’azienda e agli enti competenti Il campionamento, che avviene attraverso un piezometro, prevede: Inizialmente la misura del livello statico della falda tramite freatimetro Segue la fase di spurgo, fin quando non si ha la stabilizzazione dei parametri quali pE, pH, temperatura, conducibilità elettrica, ecc… misurati in continuo tramite una sonda multiparametrica accoppiata alla cella di flusso Infine si campiona. In laboratorio sono state applicate le seguenti tecniche per l’analisi degli inquinanti definiti dal D.L.152/06: VOC e IPA; Analisi svolte secondo le metodiche ufficiali EPA 8260B e EPA 8272 Metalli; EPA 6020 a Idrocarburi; UNI EN ISO 9377-2/2002 (fraz. C10-C40). La validazione dei dati ha visto in particolare l’elaborazione dei risultati attraverso il confronto, per ogni parametro, tra i dati forniti dall’Azienda e i risultati delle analisi compiute dall’ARPA. Inerentemente al seguente studio è stata condotta, sulla base dei risultati delle diverse fasi di indagine ambientale svolte dall’azienda, l’analisi di rischio sito-specifica utilizzando il software RiskNet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'argomento discusso in questa tesi riguarda la tecnica detta "stimolazione magnetica transcranica" (TMS) e le sue applicazioni sia in campo sperimentale sia in ambito medico e terapeutico. A tale scopo la trattazione analizzerà in primo luogo gli aspetti biologici del campo d'applicazione di tale tecnica, per poi focalizzarsi sui principi fisici e strumentali alla base della TMS, per concludere infine con alcuni esempi applicativi.