378 resultados para metodi level set segmentazione immagini di nevi immagini mediche regolarizzazione
Resumo:
La Tesi riprende il metodo di laoro imparato all'istituto La Cambre di Bruxelles: nell'Atelier scelto, ogni studente aveva effettuato l'analisi di un'area partendo da un tema dato. Da questa erano stati individuati i punti di forza e di debolezza, ai quali era stata data una risposta progettuale. Il lavoro di Tesi riprende questa impostazione: ad una prima parte di analisi del tema scelto, ossia della costruzione dell'architettura a partire da viste prospettiche, è stato analizzata l'area studio - la città di Cesena - individuando quelli che Lynch chiama "immagini deboli della città". Di queste, ne è stata scelta una alla quale è stata data una risposta progettuale: una torre.
Resumo:
Progettazione delle procedure necessarie alla realizzazione di piattaforme off-shore, grandi e complesse strutture intelaiate di pilastri, diagonali, travi primarie e travi secondarie, progettate per insediarsi in ambiente marino ed idonee ad ospitare impianti per l'estrazione di idrocarburi. Durante la fase di progettazione si procede con l'ideare la struttura della piattaforma fino a definire le caratteristiche di ogni componente: tale fase ha come esito la redazione dei project drawings (disegni di progetto). La fase di realizzazione è quella che interessa propriamente il lavoro svolto: a seguito della progettazione infatti emergono nuove problematiche a livello applicativo e costruttivo che necessitano di essere studiate e risolte preventivamente alla costruzione fisica dell'opera. In particolar modo è necessario definire quali parti della struttura possono essere acquistate e quali invece devono essere realizzate su misura. Definite le modalità costruttive, viene effettuato lo studio riguardante la movimentazione dei vari piani della piattaforma, movement, e successivamente le problematiche relative al sollevamento degli stessi, lifting. Le due procedure necessitano di raffinate valutazioni euristiche ed analitiche per garantire che la struttura non collassi.
Resumo:
Questa tesi affronta lo sviluppo di sistemi elettronici per il collaudo automatizzato di centraline elettroniche per sistemi automotive. Viene illustrato lo sviluppo di un simulatore per il collaudo basato su ambiente Labview. Inoltre, viene presentata un'analisi di fattibiltà del rilevamento di malfunzionamenti basata sull'elaborazione di immagini termografiche.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
Relazione tecnica e funzionale, con rimandi teorici disciplinari, riguardo la realizzazione di un sistema informatico su piattaforma Microsoft per l'organizzazione e la fruizione delle informazioni di Ciclo attivo in un'azienda di servizi di grandi dimensioni.
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
In questa tesi è stato realizzato un sistema web-based, per la configurazione di modelli meccanici tridimensionali. L’intero software è basato su architettura multi-tier. Il back-end espone servizi RESTful che permettono l’interrogazione di una base di dati contenente l’anagrafica dei modelli e l’interazione con il CAD 3D SolidWorks. Il front-end è rappresentato da due pagine HTML ideate come SPA (Single Page Application), una per l’amministratore e l’altra per l’utente finale; esse sono responsabili delle chiamate asincrone verso i servizi, dell’aggiornamento automatico dell’interfaccia e dell’interazione con immagini tridimensionali.
Resumo:
L’anguilla europea (Anguilla anguilla) è una specie eurialina catadroma, la cui area di riproduzione si trova a grande distanza dall’areale di distribuzione. Presenta un ciclo biologico piuttosto complesso caratterizzato da due metamorfosi: la prima, tipicamente larvale permette al “leptocefalo”, forma larvale marina tipica degli anguilliformi, di trasformarsi in anguilla “ceca”; la seconda, invece, trasforma l’anguilla “gialla” in “argentina” attraverso un processo definito di “argentinizzazione” nel quale si delineano preadattamenti alla maturazione sessuale che sarà completa durante la migrazione riproduttiva verso il Mar dei Sargassi. L’”argentinizzazione” innesca modificazioni fisiologiche (regressione del tratto digestivo), e morfologiche (aumento della massa corporea, ispessimento della pelle, modificazione dell’occhio e nuova pigmentazione). Il colore bruno verdastro con ventre giallo è prerogativa delle anguille in fase trofica, cioè quelle gialle, sessualmente immature. Quelle argentine presentano, invece, una colorazione più scura sul dorso e argenteo sul ventre. Inoltre le anguille argentine vanno incontro a cambiamenti ormonali per adattarsi all’ambiente marino, compiere la lunga migrazione e riprodursi. Per avere a disposizione risorse energetiche anche senza nutrirsi per molti mesi, devono accumulare grandi riserve di cui il 60% è destinato per lo sviluppo delle gonadi. Tuttavia i processi metabolici che consentono alle anguille argentine di effettuare lunghe migrazioni mantenendo un’alta efficienza del nuoto e nel contempo utilizzando limitate risorse, non sono sufficientemente conosciuti. Per fornire nuove informazioni, questo lavoro di tesi ha indagato se vi sia una modificazione del quadro proteico del siero delle anguille argentine rispetto alle gialle, e quali proteine eventualmente risultino sovra- o sotto- espresse in ciascuna delle due fasi del ciclo biologico. A tale fine si è applicata una tecnica innovativa, quale l’analisi proteomica, che permette di identificare in modo sistematico le proteine all’interno di un substrato biologico come iin questo caso il siero. Le anguille gialle ed argentine prese in esame sono state prelevate nelle Valli di Comacchio (FE). La valutazione quantitativa delle proteine, separate tramite elettroforesi bidimensionale su gel di poliacrilamide, si è fondata sull’analisi delle immagini attraverso specifici programmi (Proteomweaver). A tale proposito, si sono confrontati i gel di anguilla gialla ed argentina individuando gli spot corrispondenti alle proteine e quantificandoli. Gli spot differenzialmente espressi sono stati prelevati per essere poi identificati tramite spettrometria di massa (MS/MS), arrivando al riconoscimento di diverse proteine. Tra queste, sono state identificate due diverse isoforme di apolipoproteina, l’una più espressa nell’anguilla gialla, l’altra nell’argentina; tali proteine svolgono un ruolo importante nella facilitazione del trasporto lipidico e nell’assorbimento dei lipidi associato anche con la crescita degli ovociti. Il treno di spot relativo alla transferrina è decisamente più evidente nelle anguille argentine, il che potrebbe essere correlato al ruolo del ferro nell’emoglobina, mirato ad un maggiore apporto di ossigeno ai tessuti durante la lunga migrazione riproduttiva di questi animali. Lo studio è del tutto nuovo e al momento non sono disponibili sufficienti informazioni al contorno per trarre più ampie conclusioni; tuttavia esso merita di essere proseguito per contribuire alla comprensione degli eventi di metamorfosi in questa specie dal ciclo vitale complesso e in gran parte sconosciuto.
Resumo:
Scopo della tesi è la realizzazione di una carta della vegetazione su base fisionomica del SIC “IT4080008 Balze di Verghereto, Monte Fumaiolo, Ripa della Moia” (Provincia di Forlì-Cesena). Tale area, di rilevante interesse naturalistico, è stata fino ad ora scarsamente indagata dal punto di vista vegetazionale. La carta della vegetazione è stata ottenuta mediante interpretazione a video delle Ortofoto AGEA 2008 digitali e successiva restituzione cartografica con il software ArcGIS 9.3. Per la delimitazione delle abieti-faggete sono state utilizzate anche le immagini ad infrarosso del medesimo volo. I poligoni ottenuti dall’interpretazione sono stati verificati a terra mediante opportuni sopralluoghi. Sono stati inoltre eseguiti campionamenti mediante la tecnica del transetto per valutare le dinamiche della vegetazione con particolare riguardo al margine boscoprato/ pascolo, le tipologie più diffuse nel SIC. I dati raccolti hanno riguardato l’identificazione e la localizzazione degli individui nel transetto, l’altezza, il diametro, l’estensione della chioma e la determinazione dell’età per le specie arboree. L’elaborazione dei transetti è accompagnata da una restituzione grafica con il posizionamento delle diverse specie, delle loro altezze e dell’estensione delle chiome, consentendo l’effettuazione di ulteriori considerazioni sulle aree indagate. Di particolare interesse è l’acquisizione dei dati relativi alla rinnovazione di Fagus sylvatica e Quercus cerris,le specie che danno la fisionomia alle principali formazioni forestali del SIC. La definizione della carta fisionomica rappresenta un documento di base indispensabile per una successiva elaborazione di una carta della vegetazione su base fitosociologica, mentre l’analisi sui transetti ha evidenziato come i fenomeni evolutivi della vegetazione siano diffusi, seppur con modalità e gradi diversi.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.