905 resultados para teorema Borsuk-Ulam spazi di orbite gruppo fondamentale rivestimenti


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi del decadimento di un nucleo di Carbonio-12 eccitato in seguito ad una reazione nucleare. Più precisamente in questa tesi si studia il decadimento di un nucleo di Carbonio-12 che, interagendo con un altro nucleo di Carbonio-12, si eccita lasciando il bersaglio di Carbonio nello stato fondamentale. La reazione studiata è 12C + 12C a 95 MeV. L'analisi è stata effettuata selezionando, fra tutti gli eventi, quelli che hanno 3 particelle α nello stato finale. Ciò permette di mettere in evidenza alcuni stati eccitati del Carbonio-12, fra cui il cosiddetto stato di Hoyle, importante soprattutto per gli aspetti astrofisici. In particolare il modo di decadimento è legato alla probabilità di formazione, che è un punto importante nella formazione degli elementi nelle stelle. E' importante infatti poter determinare se il processo di decadimento è istantaneo, cioè il Carbonio emette tre particelle α contemporaneamente, oppure sequenziale, cioè il Carbonio emette in primo luogo una particella α ed un nucleo di Berillio-8, il quale a sua volta decade in due particelle α. Nel Capitolo 1 si introdurrà l'aspetto teorico e fenomenologico del problema, verranno descritte in breve le reazioni nucleari tra ioni pesanti con un approfondimento sui processi di decadimento del Carbonio eccitato. Nel Capitolo 2 saranno descritti gli apparati utilizzati per le misure: in particolare l'apparato GARFIELD utilizzato per la rivelazione delle particelle cariche emesse nel decadimento, ed il rivelatore Ring Counter (RCo) utilizzato soprattutto per la rivelazione delle particelle α di decadimento del proiettile eccitato. Si accenna anche alle tecniche usate per identificare le particelle α. Nel Capitolo 3 verrà descritta l'analisi dei dati effettuata ed in particolare verranno mostrati gli osservabili per poter discriminare il meccanismo di decadimento sequenziale o democratico. Verranno infine tracciate alcune conclusioni in base ai risultati raggiunti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi si sono studiati e sviluppati i rivelatori di fotoni x per l’esperimento FAMU (Fisica degli Atomi Muonici gruppo 3 dell’INFN) che indaga sulla natura e la struttura del protone. I rivelatori sono stati assemblati e testati con elementi che rappresentano lo stato dell’arte nel campo dei rivelatori di radiazione (scintillatori LaBr3(Ce) e fotomoltiplicatori Hamamatsu™ Ultra Bi-Alcali). È stata anche studiata e sviluppata parte della catena di formatura del segnale. Questa è stata implementata su un chip FPGA dell’ALTERA™ con buoni risultati per quanto riguarda la qualità del filtro; le performance dell’FPGA non hanno consentito di raggiungere la velocità di 500MHz richiesta dall’esperimento costringendo l’implementazione ad una velocità massima di 320MHz.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La rivelazione dei neutroni gioca un ruolo fondamentale sia nel campo della fisica nucleare di base che in diversi ambiti applicativi quali la produzione di energia in reattori a fissione, la sicurezza nazionale alle frontiere, la terapia e la diagnostica mediche. Negli anni passati la rivelazione di neutroni di bassa energia (nell'intervallo termico) si è basata principalmente sull'utilizzo di contatori proporzionali a $^3$He. Il grosso vantaggio di questi strumenti è la loro quasi totale inefficienza nella rivelazione di radiazione elettromagnetica, consentendo una caratterizzazione pulita dei flussi neutronici di bassa energia, anche quando, come spesso succede, sono accompagnati da un intenso fondo di raggi X e raggi gamma. La scarsa disponibilità di $^3$He ed il conseguente incremento del suo costo hanno stimolato, negli ultimi anni, numerosi programmi di sviluppo di nuovi rivelatori per neutroni termici in grado di rimpiazzare i troppo costosi contatori a $^3$He. In questo contesto si sono sviluppati da una parte il progetto ORIONE/HYDE dell'Istituto Nazionale di Fisica Nucleare (INFN), che punta allo sviluppo di scintillatori organici a matrice siliconica in grado di rivelare sia neutroni veloci che termici, dall'altra l'applicazione di tali sviluppi ad attività connesse con il Progetto SPES nell'ambito del PRIN intitolato Sviluppo di Rivelatori e tecniche d'analisi per la sperimentazione con i fasci radioattivi dei Laboratori Nazionali dell'INFN, con particolare riferimento a SPES. All'interno di una matrice scintillante organica (ricca quindi di nuclei di Idrogeno e Carbonio) opportunamente drogata per favorire il processo di scintillazione, viene disperso un ulteriore dopante ad alta sezione d'urto di cattura neutronica (tipicamente $^{10}$B o $^6$Li). Questo scintillatore risulta sensibile alla radiazione neutronica veloce che viene rivelata tramite i processi di urto elastico ed il successivo rinculo dei nuclei che causa l'emissione di luce di scintillazione. Inoltre grazie alle grandi sezioni d'urto dei processi di cattura neutronica da parte del materiale dopante e la successiva emissione di particelle cariche anche la sensibilità ai neutroni di bassa energia (lenti e termici) viene garantita. La matrice utilizzata (polifenil-dimetil silossano) ha ottime proprietà meccaniche e, a differenza di altri materiali utilizzati per la realizzazione di scintillatori per neutroni, non risulta tossica o dannosa per l'ambiente. Inoltre il costo del materiale utilizzato è notevolmente competitivo rispetto alle alternative attualmente in commercio. In questo lavoro di tesi verranno caratterizzati alcuni di questi nuovi scintillatori drogati con $^6$Li. Verrà analizzata la loro risposta in termini di resa di luce quando esposti a flussi di particelle cariche e raggi gamma e a flussi neutronici di bassa energia. I risultati verranno paragonati a quelli ottenuti con uno scintillatore commerciale standard a matrice vetrosa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il turismo è un prodotto legato all’esperienza dell’utente, poiché il viaggio può essere definito come la totalità delle esperienze vissute. Inoltre, al contrario dei beni tangibili, che solitamente richiedono al più una singola decisione, il turismo è un sistema di consumo nel quale gli utenti sono continuamente coinvolti nel processo decisionale. Le nuove tecnologie possono intensificare l’esperienza del turista, non solo rendendo le prenotazioni più semplici o rimpiazzando una guida cartacea con una multimediale, ma anche permettendo agli utenti di immergersi in siti remoti ed inaccessibili, oltre alla semplice esperienza multimediale. L’informazione è comunemente riconosciuta come attributo fondamentale del turismo, per questo motivo l’innovazione attraverso l’ICT ha un impatto diretto che può essere riscontrato in tutto il processo di produzione del turismo. I turisti dipendono dalle informazioni rintracciabili sulle destinazioni. Queste informazioni li aiutano a prendere decisioni riguardanti il proprio viaggio, poiché i servizi turistici in genere non possono essere “provati” prima di effettuarli in maniera vera e propria. Per questo i nuovi dispositivi mobili come smartphone e tablet sono diventati importanti piattaforme digitali che permettono l’interazione tra fornitori di servizi e turisti e tra turisti ed altri turisti. I viaggiatori cercano costantemente informazioni per ridurre il grado di incertezza e supportare il processo decisionale. Gli smartphone, che per loro natura non sono legati ad una posizione fissa, hanno un grande potenziale nell’assistere i viaggiatori nella loro fase di ricerca delle informazioni. In questa tesi si cerca di fornire una rassegna dello stato dell’arte per quel che riguarda le applicazioni mobili legate al turismo, attraverso una classificazione tassonomica divisa per servizi e funzionalità. Vengono inoltre analizzate le tecnologie abilitanti presenti nei moderni dispositivi. Nella seconda parte si analizzerà il caso di studio relativo alle app principali delle Capitali dell’UE, mettendo in relazione i dati delle affluenze turistiche ed i download.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni Internet ha cambiato le modalità di creazione e distribuzione delle informazioni turistiche. Un ruolo fondamentale viene ricoperto dalle piattaforme di social media, tecnologie che permettono ai consumatori di condividere le proprie esperienze ed opinioni. Diventa necessario, quindi, comprendere i cambiamenti in queste tecnologie e nel comportamento dei viaggiatori per poter applicare strategie di marketing di successo. In questo studio, utilizzando Opinion Finder, un software spesso impiegato nel campo dell'opinion mining, si esamineranno da un punto di vista qualitativo i post e commenti estratti da alcuni profili degli enti di promozione turistica nazionale in Europa, dividendo l'analisi per fattori che possono influenzare il sentimento degli utenti. Attraverso i risultati ottenuti, si può dimostrare che l'analisi delle opinioni e del sentimento si presenta come un ottimo strumento per evidenziare possibili fenomeni utili per la pianificazione di strategie di marketing per gli enti. Studi futuri potrebbero migliorare la valutazione di questi dati attraverso la creazione di un corpus di apprendimento per il software che contenga testi relativi al mondo del turismo e permettendo ad Opinion Finder di incrementare la validità della classificazione del sentimento, contestualizzando le espressioni in maniera corretta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I sistemi software rivestono nel campo dell'informatica un ruolo di fondamentale importanza. Negli ultimi anni una caratteristica richiesta ai sistemi è la decentralizzazione del controllo, nell'ottica di un sistema visto come connessioni di parti che possono interagire, e dove ciascuna parte possiede un certo grado di autonomia nella scelta delle attività che devono essere compiute. In tale contesto si introduce il paradigma degli agenti, in quanto include sia aspetti relativi ai modelli computazionali, sia aspetti relativi ai linguaggi. Nella tesi si esplora l'applicazione del linguaggio di programmazione Jason applicato alla programmazione dei controllori di robot. In particolare, si esplora ciò che riguarda il comportamento individuale dell'agente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

All'interno dell'elaborato si analizzano le potenzialità offerte da uno sviluppo sostenibile del fotovoltaico per la nostra richiesta energetica futura. Sono inoltre illustrati gli ultimi interventi applicati in tema di politica ambientale e viene evidenziato il contributo fondamentale offerto da un opportuno quadro normativo per la valorizzazione del settore. Viene effettuato un'analisi della convenienza e fattibilità economica del sistema fotovoltaico. Si sottolinea infine la necessità e i benefici garantiti dal riciclaggio dei pannelli solari dismessi e vengono mostrati le attuali soluzioni studiate e applicate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni il tema del risparmio energetico nei sistemi elettronici ha suscitato sempre maggiore interesse, poiché grazie allo sviluppo tecnologico è stato possibile creare dispositivi in grado di operare a bassa potenza. Sempre più applicazioni elettroniche richiedono di funzionare tramite fonti di energia limitata, come per esempio le batterie, con un’autonomia in alcuni casi anche di 15-20 anni, questo è il motivo per il quale è diventato fondamentale riuscire a progettare sistemi elettronici in grado di gestire in modo intelligente l’energia a disposizione. L’utilizzo di batterie però spesso richiede costi aggiuntivi, come per esempio il semplice cambio, che in alcune situazioni potrebbe essere difficoltoso poiché il sistema elettronico si potrebbe trovare in luoghi difficilmente raggiungibili dall’uomo; ecco perché negli ultimi anni il tema della raccolta di energia o anche chiamato Energy Harvesting, sta suscitando sempre più interesse. Con l’Energy Harvesting si possono catturare ed accumulare per poi riutilizzare, piccole quantità di energia presenti nell’ambiente. Attraverso sistemi di Energy Harvesting è quindi diventato possibile trasformare energia cinetica, differenze di temperatura, effetto piezoelettrico, energia solare ecc.. in energia elettrica che può essere utilizzata per alimentare semplici applicazioni elettroniche, nel caso di questa tesi un nodo sensore wireless. I vantaggi dei sistemi di Energy Harvesting rispetto a sistemi alimentati a batteria sono i seguenti: - Costi di manutenzione ridotti; - Fonte di energia idealmente inesauribile e con un impatto ambientale negativo nullo. La potenza fornita da sistemi di Energy Harvesting si aggira intorno a qualche centinaia di uW, perciò è chiaro che il sistema da alimentare deve essere ottimizzato il più possibile dal punto di vista energetico, per questo motivo il progettista si deve impegnare per evitare qualsiasi spreco energetico e dovrà utilizzare dispositivi che permettono una gestione intelligente dell’energia a disposizione, al fine di ottenere la migliore efficienza possibile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di tesi si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale “S. Maria delle Croci” di Ravenna, Azienda Unità Sanitaria Locale della Romagna, ed ha come obiettivo lo sviluppo di un metodo per l’individuazione dell’atrio sinistro in sequenze di immagini ecografiche intracardiache acquisite durante procedure di ablazione cardiaca transcatetere per il trattamento della fibrillazione atriale. La localizzazione della parete posteriore dell'atrio sinistro in immagini ecocardiografiche intracardiache risulta fondamentale qualora si voglia monitorare la posizione dell'esofago rispetto alla parete stessa per ridurre il rischio di formazione della fistola atrio esofagea. Le immagini derivanti da ecografia intracardiaca sono state acquisite durante la procedura di ablazione cardiaca ed esportate direttamente dall’ecografo in formato Audio Video Interleave (AVI). L’estrazione dei singoli frames è stata eseguita implementando un apposito programma in Matlab, ottenendo così il set di dati su cui implementare il metodo di individuazione della parete atriale. A causa dell’eccessivo rumore presente in alcuni set di dati all’interno della camera atriale, sono stati sviluppati due differenti metodi per il tracciamento automatico del contorno della parete dell’atrio sinistro. Il primo, utilizzato per le immagini più “pulite”, si basa sull’utilizzo del modello Chan-Vese, un metodo di segmentazione level-set region-based, mentre il secondo, efficace in presenza di rumore, sfrutta il metodo di clustering K-means. Entrambi i metodi prevedono l’individuazione automatica dell’atrio, senza che il clinico fornisca informazioni in merito alla posizione dello stesso, e l’utilizzo di operatori morfologici per l’eliminazione di regioni spurie. I risultati così ottenuti sono stati valutati qualitativamente, sovrapponendo il contorno individuato all'immagine ecografica e valutando la bontà del tracciamento. Inoltre per due set di dati, segmentati con i due diversi metodi, è stata eseguita una valutazione quantitativa confrontatoli con il risultato del tracciamento manuale eseguito dal clinico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’analisi del movimento ha acquisito, soprattutto negli ultimi anni, un ruolo fondamentale in ambito terapeutico e riabilitativo. Infatti una dettagliata analisi del movimento di un paziente permette la formulazione di diagnosi dettagliate e l’adozione di un adeguato trattamento terapeutico. Inoltre sistemi di misura del movimento sono utilizzati anche in ambito sportivo, ad esempio come strumento di supporto per il miglioramento delle prestazioni e la prevenzione dell’infortunio. La cinematica è la branca della biomeccanica che si occupa di studiare il movimento, senza indagare le cause che lo generano e richiede la conoscenza delle variabili cinematiche caratteristiche. Questa tesi si sviluppa nell’ambito dell’analisi della cinematica articolare per gli arti inferiori durante il cammino, mediante l’utilizzo di Unità di Misura Magnetico-Inerziali, o IMMU, che consistono nella combinazione di sensori inerziali e magnetici. I dati in uscita da accelerometri, giroscopi e magnetometri vengono elaborati mediante un algoritmo ricorsivo, il filtro di Kalman, che fornisce una stima dell’orientamento del rilevatore nel sistema di riferimento globale. Lo scopo di questa tesi è quello di ottimizzare il valore del guadagno del filtro di Kalman, utilizzando un algoritmo open-source implementato da Madgwick. Per ottenere il valore ottimale è stato acquisito il cammino di tre soggetti attraverso IMMU e contemporaneamente tramite stereofotogrammetria, considerata come gold standard. Il valore del guadagno che permette una vicinanza maggiore con il gold standard viene considerato il valore ottimale da utilizzare per la stima della cinematica articolare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conoscere dal punto di vista tecnico-costruttivo una costruzione storica è fondamentale per un’attendibile valutazione della sicurezza strutturale attuale e per la scelta di un eventuale ed efficace intervento di miglioramento. Per le strutture di interesse storico appartenenti al patrimonio culturale, ma anche per gli altri edifici, risulta difficile conoscere le origini del manufatto, le modifiche avvenute nel corso del tempo dovute a fenomeni di danneggiamento derivanti dal peggioramento delle condizioni dei materiali e dall’avvenimento di eventi calamitosi a causa della mancanza di documentazione storica. La mia tesi e’ focalizzata su tecniche di indagine non distruttive in modo da migliorare la conoscenza della struttura per poi intervenire in modo corretto. L’obiettivo del lavoro svolto e’ stato indagare il contributo delle indagini sperimentali alla diagnosi di edifici storici, in particolare elementi strutturali lignei e di muratura applicando indagini sperimentali non distruttive. Ho dapprima descritto lo stato dell’arte delle varie prove effettuate attraverso la lettura e il confronto di diversi articoli tecnico-scientifici riportando gli obiettivi, la strumentazione impiegata e i risultati ottenuti dalle diverse prove. Ho poi effettuato uno studio del materiale legno utilizzato per le costruzioni, riportandone la descrizione dal punto di vista strutturale, le caratteristiche fisiche, chimiche e meccaniche, le diverse classificazioni e le fasi di lavorazione. Quindi ho analizzato alcune delle prove non distruttive necessarie per una diagnosi di elementi lignei. Per ogni prova vengono riportate alcune caratteristiche, il principio di funzionamento e la strumentazione utilizzata con eventuali software annessi. Negli ultimi 3 capitoli si procede con l’applicazione sperimentale delle prove in sito o in laboratorio precedentemente descritte, in diversi casi di studio; in particolare 1) l’applicazione della prova di compressione assiale su alcuni provini ricavati da un elemento strutturale in legno antico per ricavare vari parametri fisici e meccanici; 2) lo studio di una capriata di legno presente in laboratorio, recuperata dopo il sisma dell’Emilia del 2012, iniziando dall’ispezione visuale classificazione a vista degli elementi sulla base di quanto riportato nella normativa per poi analizzare i dati delle varie prove non distruttive eseguite. 3) Infine è applicata la prova termografica ad un edificio di interesse storico, come l’ex Monastero di Santa Marta, situato in via S. Vitale a Bologna per indagare la tipologia strutturale, le tecnologie costruttive impiegate nelle varie epoche di questo complesso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.