512 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato tratta dello sviluppo di un'applicazione mobile per la visualizzazione di opendata ambientali. E' diviso in due parti: la prima che illustra l'importanza dei dati e dei dati aperti per l'innovazione e lo sviluppo, la seconda che racconta la gestione del progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio riguarda la caratterizzazione geochimica dei sedimenti del sito Caretti, situato a est del comune di Ferrara, interessato da un forte caso di contaminazione dovuto alla presenza di due discariche municipali non controllate risalenti agli anni '60-'70. L'obiettivo del lavoro è quello di valutare la geochimica dei sedimenti e delle acque prelevate nel sito al fine di individuare eventuali relazioni tra il chimismo delle due matrici. Inoltre, i dati dell' analisi dei sedimenti sono stati confrontati con quelli di letteratura per delinearne aspetti di provenienza. I dati geochimici dei sedimenti sono stati ottenuti mediante fluorescenza a raggi X (XRF) e sono stati elaborati graficamente e statisticamente, mediante software di analisi statistica (GCDkit). La composizione geochimica delle acque è stata ottenuta mediante tecniche di cromatografia ionica e spettroscopia di assorbimento atomico. La geochimica dei sedimenti ha evidenziato che la composizione chimica mostra associazioni di elementi legate a una componente tessiturale del sedimento. In particolare si rilevano concentrazioni elevate di Fe2O3, Al2O3, TiO2, Cr, Ni, e V in sedimenti a granulometria fine, a differenza delle concentrazioni di SiO2 e Na2O elevate in sedimenti sabbiosi. La distribuzione statistica degli elementi nei sedimenti e nelle acque ha permesso di effettuare una valutazione delle caratteristiche geochimiche dei principali corpi idrogeologici. La caratterizzazione geochimica ha fornito, inoltre, indicazioni sull'origine dei sedimenti. Cromo e Nichel, tra gli elementi in traccia, sono particolarmente efficaci nella valutazione della provenienza permettendo, all'interno del sito Caretti, una distinzione tra popolazioni di provenienza appenninica (bassi valori Cr-Ni) e padana (alti valori Cr-Ni).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diga di Ridracoli costituisce la principale riserva di acqua potabile di tutta la Romagna. E’ ubicata nell’alto Appennino romagnolo, nella vallata del fiume Bidente, dal quale riceve le acque sia direttamente sia indirettamente, per mezzo di una galleria di gronda. Lo studio si è concentrato sullo studio dei sedimenti, sia di diga sia dei bacini limitrofi, per effettuare una caratterizzazione geochimica dell’area e un confronto tra i terreni fluviali e di lago. I sedimenti rappresentano un fattore importante perché permettono di determinare le dinamiche che coinvolgono un corso d’acqua, la composizione e i possibili contaminanti presenti. Il lavoro svolto si divide in tre fasi: campionamento, analisi dei campioni e interpretazione dei risultati. Sono stati campionati punti in corrispondenza degli affluenti di diga, punti interni al lago e punti lungo il bacino del Bidente. Le analisi svolte consistono in analisi di spettrometria di fluorescenza a raggi X, analisi all’IPC-MS con pretrattamento in acqua regia, analisi elementari al CHN, analisi granulometriche con sedigrafo e determinazione della LOI. Attraverso analisi statistiche e di correlazione si è osservato il comportamento dei metalli nei confronti dei principali componenti dei sedimenti, della granulometria e del contenuto di materia organica. Sono stati calcolati valori di fondo per i metalli potenzialmente tossici attraverso differenti metodi e confrontati con alcune soglie normative valutando come non vi siano superamenti, a parte per Cr e Ni e Cd, imputabili però semplicemente a caratteristiche geologiche. Si sono costruite infine mappe di concentrazione per evidenziare la distribuzione dei singoli elementi. Si è osservato come i campioni di lago abbiano un andamento corrispondente ai campioni delle zone limitrofe senza presentare alcuna anomalia sia pere con concentrazioni localmente più elevate per la prevalenza di materiale fine. I dati non evidenziano particolari criticità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi ha previsto l'acquisizione e l'elaborazione di dati geofisici al fine di determinare la risposta sismica di tre siti della Rete Accelerometrica Nazionale (RAN), collocandosi all'interno del progetto sismologico S2-2014 Constraining Observations into Seismic Hazard gestito dal Dipartimento di Protezione Civile Nazionale e dall’Istituto Nazionale di Geofisica e di Vulcanologia. Tale necessità nasce dal fatto che il più delle volte le informazioni per la corretta caratterizzazione geofisica dei siti ospitanti le stazioni accelerometriche risultano essere insufficienti, rendendo così i dati acquisiti non idonei per l'utilizzo in sede di calcolo delle leggi di attenuazione dalle quali successivamente vengono derivate le mappe di pericolosità sismica a livello nazionale e locale. L'obbiettivo di questo lavoro di tesi è stato quello di determinare l'eventuale presenza di effetti di sito o effetti di interazione suolo-struttura, per tre stazioni ubicate in Friuli-Venezia Giulia (codici stazioni MAI, TLM1 e BRC), capaci di amplificare il moto del terreno nella parte di suolo compresa fra il bedrock sismico (inteso come strato che non amplifica) e il piano campagna. Le principali tecniche utilizzate sono le seguenti: HVSR ossia rapporto spettrale della componente orizzontale su quella verticale da misure di rumore ambientale acquisite e EHV ovvero rapporto spettrale della componente orizzontale su verticale da registrazione di terremoti scaricate dal database accelerometrico italiano ITACA. I risultati delle due tecniche sono stati poi confrontati al fine di verificare un'eventuale congruenza, portando alle seguenti conclusioni. La caratterizzazione della stazione TLM1 ha portato alla importante conclusione che il sito non è idoneo per l’acquisizione di dati accelerometrici da utilizzare per il calcolo di leggi predittive o di attenuazione. La stazione accelerometrica è ospitata all’interno di un box in lamiera su una collina nel comune di Verzegnis (UD). Il problema principale che riguarda questo sito è la vicinanza della diga Ambiesta e del relativo invaso. La stazione di BRC è collocata all’interno di una cabina di trasformazione dell’ENEL sul lato destro del torrente Cellina, al suo ingresso nel lago di Barcis (PN). Le condizioni topografiche della zona, molto impervie, non consentono la corretta acquisizione dei dati. Un ulteriore fattore di disturbo è dato dall’interazione suolo-struttura, causata dalla cabina ENEL in cui è alloggiata la strumentazione. La caratterizzazione della stazione MAI collocata all'interno di una cabina ENEL nel centro del comune di Majano (UD) ha portato alla conclusione che questa è l'unica delle tre stazioni considerate capace di acquisire dati utilizzabili per il processo di validazione per le stime di pericolosità sismica. Questo perché le condizioni topografiche dell’area, pianura con stratificazione 1D, hanno permesso di sfruttare a pieno le potenzialità delle metodologie utilizzate, consentendo anche la ricostruzione di profili di velocità delle onde di taglio S con i quali è stata assegnata la categoria C del suolo previsto dall'approccio semplificato presente nelle NTC08.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa ricerca si concentra sulla gestione dei sintagmi nominali complessi nell’interpretazione simultanea in italiano dei discorsi inglesi del corpus elettronico EPIC (European Parliament Interpreting Corpus). EPIC contiene le trascrizioni di discorsi pronunciati al Parlamento europeo in inglese, italiano e spagnolo e le rispettive interpretazioni nelle altre due lingue. Per quest’analisi sono stati utilizzati due sottocorpora: I discorsi originali inglesi e i rispettivi discorsi interpretati in italiano. L’obiettivo del progetto era estrarre i sintagmi nominali complessi dal sottocorpus dei discorsi inglesi e confrontarli con le rispettive traduzioni in italiano per studiare le strategie adottate dagli interpreti. L’ipotesi iniziale era che i sintagmi nominali complessi sono una sfida traduttiva. I sintagmi analizzati erano stringhe di parole formate da una testa nominale preceduta da due o più modificatori, che potevano essere aggettivi, sostantivi, avverbi, numeri cardinali e genitivi. Nel primo capitolo sono state descritte le caratteristiche dei modificatori sia in inglese che in italiano. Il secondo capitolo espone lo stato dell’arte degli studi di interpretazione basati sui corpora, con una sezione dedicata agli studi svolti su EPIC. Il terzo capitolo si concentra sulla metodologia utilizzata. I dati sono stati estratti automaticamente con tre espressioni di ricerca e poi selezionati manualmente secondo dei criteri di inclusione e di esclusione. I sintagmi nominali scelti sono stati confrontati con le corrispondenti traduzioni in italiano e classificati secondo il modello teorico delle relazioni traduttive di Schjoldager (1995). Il quarto capitolo contiene I dati raccolti, che sono stati analizzati nel quinto capitolo sia da un punto di vista quantitativo che qualitativo. I sintagmi nominali in tutto il sottocorpus sono stati confrontati con i sintagmi nominali di gruppi specifici di testi, suddivisi secondo la velocità di eloquio e la modalità di presentazione. L’ipotesi iniziale è stata in parte confermata e sono state descritte le strategie traduttive adottate dagli interpreti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La TC perfusionale (TCp) è un valido strumento per l'imaging funzionale dei tumori. Tale tecnica consente di misurare in modo oggettivo la perfusione tissutale, attraverso l'analisi matematica dei dati ottenuti effettuando scansioni TC ripetute nel tempo, dopo la somministrazione di un mezzo di contrasto iodato. Il principale obiettivo degli studi perfusionali in oncologia è la valutazione precoce dell’efficacia delle terapie anti-angiogenetiche utilizzate per bloccare la vascolarizzazione che alimenta le lesioni tumorali. Infatti, sin dal primo ciclo di terapie, è possibile rilevare se la vascolarizzazione tumorale si riduce, senza dover attendere i cambiamenti dimensionali che, in genere, avvengono tardivamente. Questa Tesi si focalizza sullo studio del carcinoma polmonare e perviene alla costruzione di un catalogo, completo di mappe colorimetriche, che sintetizza i casi analizzati, i dati relativi al paziente e alle lesioni. L'obiettivo è quindi quello di fornire uno strumento di facile consultazione che consenta di valutare vari aspetti relativi alla malattia, tra cui il tasso di accrescimento, il grado di malignità, presenza di invasione vascolare, al fine di andare sempre più verso una cura personalizzata e più efficace per i pazienti che, attualmente, sono sottoposti a soluzione terapeutica standard. Questa è, senza dubbio, la nuova frontiera della ricerca per tutte i tipi di neoplasie negli anni futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro espongo i risultati degli esperimenti svolti durante la mia internship all’Institut des NanoSciences de Paris (INSP), presso l’Università Pierre et Marie Curie (Paris VI), nel team "Phisico-Chimie et Dynamique des Surfaces", sotto la supervisione del Dott. Geoffroy Prévot. L’elaborato è stato redatto e in- tegrato sotto la guida del Dott. Pasquini, del dipartimento di Fisica e Astronomia dell’Università di Bologna. La tesi s’inserisce nel campo di ricerca del silicene, i.e. l’allotropo bidimensionale del silicio. Il cosidetto free-standing silicene è stato predetto teoricamente nel 2009 utilizzando calcoli di Density Functional Theory, e da allora ha stimolato un’intensa ricerca per la sua realizzazione sperimentale. La sua struttura elettronica lo rende particolarmente adatto per eventuali appli- cazioni tecnologiche e sperimentali, mentre lo studio delle sue proprietà è di grande interesse per la scienza di base. Nel capitolo 1 presento innanzitutto la struttura del silicene e le proprietà previste dagli studi pubblicati nella letteratura scientifica. In seguito espongo alcuni dei risultati sperimentali ottenuti negli ultimi anni, in quanto utili per un paragone con i risultati ottenuti durante l’internship. Nel capitolo 2 presento le tecniche sperimentali che ho utilizzato per effettuare le misure. Molto tempo è stato investito per ottenere una certa dimistichezza con gli apparati in modo da svolgere gli esperimenti in maniera autonoma. Il capitolo 3 è dedicato alla discussione e analisi dei risultati delle misure, che sono presentati in relazione ad alcune considerazioni esposte nel primo capitolo. Infine le conclusioni riassumono brevemente quanto ottenuto dall’analisi dati. A partire da queste considerazioni propongo alcuni esperimenti che potrebbero ulteriormente contribuire alla ricerca del silicene. I risultati ottenuti su Ag(111) sono contenuti in un articolo accettato da Physical Review B.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La morfologia della piattaforma continentale della Sicilia Settentrionale è il risultato dell'assetto geodinamico della zona e delle più recenti fluttuazioni glacioeustatiche del livello marino.Oggetto di questa tesi è stato lo studio degli elementi geomorfologici sommersi, risalenti all’ultima trasgressione marina, e del cuneo sedimentario olocenico da cui sono sepolti. Tramite i dati forniti da strumenti geofisici, quali l’ecoscandaglio a fascio multiplo (Multibeam) e i profili sismici Chirp Sub-bottom, è stato possibile lo studio di tali elementi e la redazione di due mappe che riportano le isobate delle profondità della superficie di massima ingressione marina e degli isospessori del cuneo olocenico di stazionamento alto. I depositi, nel corso del lavoro, sono stati suddivisi per facilitare la loro descrizione. L'analisi dei depositi trasgressivi ha permesso il riconoscimento di elementi morfologici quali frecce litorali (spit), isole barriera (barrier island), sistemi barriera-laguna e un sistema deltizio sommerso. Queste elementi sono stati ricondotti dunque ad una piattaforma relitta, ormai sommersa, le cui morfologie sono state plasmate dall'ultima trasgressione marina. Grazie ai profili chirp subbottom è stato inoltre possibile riconoscere un basamento carbonatico Meso-Cenozoico con un area di 23 km². I depositi olocenici di stazionamento alto occupano circa l'88% della superficie della piattaforma analizzata. Gli spessori maggiori, corrispondenti a 25m, sono stati riscontrati in prossimità della costa da cui degradano verso nord fino ad estinguersi. L'estensione del cuneo olocenico risulta essere influenzata dalle correnti, che trasportano i sedimenti verso est, dalla presenza degli alti morfologici, in prossimità della cui superficie i sedimenti si arrestano, e dall'apporto fluviale fornito dalle fiumare che sfociano nella zona analizzata. Quest'ultimo è il fattore che influenza maggiormente lo spessore del cuneo. Nelle aree di piattaforma prossime alle foci fluviali inoltre è stata riscontrata la deposizione di materiali grossolani che lateralmente sfumano a fini attraverso contatti eteropici.