982 resultados para Basi di dati, Database, Linq, Entity framework, Workflow, Database
Resumo:
Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).
Resumo:
In un'epoca in cui l'informatizzazione si diffonde a macchia d'olio in ogni aspetto della vita quotidiana e la possibilità di essere connessi ad internet risulta vitale per aggiornarsi o anche semplicemente per mantenere contatti è possibile e allo stesso tempo necessario cercare di sfruttare la rete nel migliore dei modi in ambito lavorativo, per migliorare i propri prodotti e cercando di offrire all'utente beni e servizi sempre migliori, al passo coi tempi e col pensiero moderno. É in questo ambiente che la connettività si rende necessaria anche nel settore dell'automobile in modo da gestire in maniera efficiente l'enorme quantità di dati scambiati dalle varie sottoparti del sistema il cui compito è quello di supervisionare i componenti elettronici e meccanici. L'obiettivo è quello quindi di centralizzare ed elaborare le informazioni in modo da semplificare ed ottimizzare la gestione del veicoli per ottenere importanti vantaggi dalla fase di test fino a quella di utilizzo, passando per quella di manutenzione. Per questo risulta fondamentale, nell'epoca in cui viviamo, concedere la possibilità al veicolo di interagire con la rete internet in modo da poter sfruttare tutti i vantaggi comunicativi, siano essi con l'ambiente circostante o con persone, che essa prevede. Una volta quindi trovato il modo di interfacciarsi con la rete e sviluppato un software adeguato è fondamentale implementare fisicamente il dispositivo in modo da ottenere un dispositivo altamente integrabile nel sistema veicolo in modo da non alterare in maniera significativa la disposizione dei componenti di base (meccanici, elettrici ed elettronici) dell'automobile elettrica. È in quest'ottica che s'inserisce il progetto di una scheda per una vera e propria telemetria del veicolo elettrico con l'obiettivo di ottenere un sistema ad hoc, ma che mantenga una molteplicità di interfacce che permettano al dispositivo di rimanere aggiornato con l'evoluzione in atto relativa alle tecniche e ai protocolli (standard) di comunicazione permettendo quindi comunicazioni tramite rete ethernet, Wi-Fi o GPRS, cercando anche di sfruttare sistemi di posizionamento come il GPS. Per questo motivo si è cercato di realizzare la scheda seguendo la filosofia dei sistemi embedded, architetture il cui compito è quello di eseguire operazioni molto specifiche spesso con vincoli sull'esecuzione in tempo reale. Questo permette di ridurre al minimo l'hardware in termini di spazio, consumo e costo di realizzazione. Queste dispositivi si sono evoluti recentemente virando sulla creazione di architetture modulari che permettono il riutilizzo delle risorse disponibili; in questo modo si ottengono comunque dispositivi ottimizzati ma in grado di mantenere un certo tipo di flessibilità nello sviluppo delle applicazioni e allargando quindi lo spettro dei possibili impieghi. Secondo questi principi si è cercato quindi di realizzare la scheda in modo che implementasse e realizzasse il software dedicato alla comunicazione del veicolo con internet ma che, grazie all'hardware a disposizione, potesse essere programmata da mani esperte anche per numerosi utilizzi alternativi e resa quindi disponibile all'utente finale in possibili forme. In questo è risultato fondamentale l'utilizzo della piattaforma Arduino, basata sul microcontrollore ATmega328, che permette appunto una rapida espansione fisica del sistema.
Resumo:
Il mio percorso universitario presso la Facoltà di Architettura di Cesena ha inizio nell’anno accademico 2006-2007. Il titolo della tesi “Conoscere per conservare3, conservare per conoscere” sintetizza l’importanza di offrire una spiegazione della tematica della conoscenza e della sua necessità, la quale risulta essere indispensabile per ottenere un buon progetto di restauro. Progettare un edificio senza conoscerlo appare una scelta ingiustificabile, è tuttavia necessario che la raccolta di dati analitici non sia fine a se stessa e solo finalizzata a donare una facciata di rispettabilità all’architetto e alle sue operazioni progettuali. A partire da questa riflessione si arriva inevitabilmente a parlare di “ricerca della metodologia del restauro” e delle tecniche con il quale questo deve venire affrontato in termini di “piccolo restauro” (ossia restauro delle superfici). Nonostante infatti ogni cantiere di restauro abbia una sua particolare storia è comunque necessario un metodo chiaro e ordinato, di procedure collaudate e di tecniche ben sperimentate. Alla luce di tali osservazioni i temi di seguito proposti sono occasione di una riflessione nel contempo teorica e pratica, con particolare riferimento al restauro e alla conservazione delle superfici; gli edifici scelti appartengono a temi molto differenti l’uno dell’altro e per entrambi verrà proposta una ipotesi di conservazione e restauro delle superfici. Il primo, Palazzo Guidi, è un palazzo settecentesco sito all’interno del centro storico della città di Cesena; il secondo, la Rocca Malatestiana, costruita a partire dal 1100 dalla famiglia dei Malatesta trova la sua ubicazione in cima a una roccia nella alta Valmarecchia. Il progetto per la conservazione ed il restauro di Palazzo Guidi risulta essere la sintesi degli apprendimenti ricevuti nei precedenti anni accademici in due diverse discipline quali: “Rilievo architettonico” e “Laboratorio di restauro architettonico”. Per quanto concerne la Rocca Malatestiana il tema proposto nasce invece a partire dal progetto del “LSF. Archeologia e progetto di architettura” il quale è stato maggiormente approfondito riguardo le tematiche del restauro con la collaborazione del Prof. Arch. Andrea Ugolini e con l’ausilio del corso di “Conservazione e trattamento dei materiali” seguito presso la Facoltà di Conservazione dei Beni Culturali di Ravenna.
Resumo:
Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.
Resumo:
In molti settori della ricerca in campo biologico e biomedico si fa ricorso a tecniche di High Throughput Screening (HTS), tra cui studio dei canali ionici. In questo campo si studia la conduzione di ioni attraverso una membrana cellulare durante fenomeni che durano solo alcuni millisecondi. Allo scopo sono solitamente usati sensori e convertitori A/D ad elevata velocità insieme ad opportune interfacce di comunicazione, ad elevato bit-rate e latenza ridotta. In questa tesi viene descritta l'implementazione di un modulo VHDL per la trasmissione di dati digitali provenienti da un sistema HTS attraverso un controller di rete integrato dotato di un'interfaccia di tipo Ethernet, individuando le possibili ottimizzazioni specifiche per l'applicazione di interesse.
Resumo:
Il progetto descritto in questo documento consiste fondamentalmente nell'integrazione di applicazioni context-aware su dispositivi mobili con reti di sensori e nello studio delle problematiche derivanti, vantaggi e potenziali utilizzi. La rete è stata costruita sfruttando l'insieme di protocolli per comunicazioni via radio Zigbee, particolarmente adatti per interazione tra dispositivi a basso consumo energetico e che necessitano di uno scarso tasso di trasferimento di dati. Le informazioni ottenute da sensori di varia natura sono processate da microcontrollori Arduino, scelti per la loro versatilità di utilizzo e design open source. Uno o più dispositivi sono designati per aggregare i dati rilevati dai singoli nodi in un unico pacchetto di informazioni, semanticamente correlate tra loro, quindi emetterle in broadcast su una diversa interfaccia di rete, in modo che diverse applicazioni esterne in ascolto possano riceverle e manipolarle. Viene utilizzato un protocollo specifico per la comunicazione tra i microcontrollori e le applicazioni che si interfacciano con la rete, costruito su misura per dispositivi con risorse limitate. L'applicazione context-aware che interagisce con la rete è stata sviluppata su piattaforma Android, la cui particolare flessibilità favorisce una migliore capacità di gestire i dati ottenuti. Questa applicazione è in grado di comunicare con la rete, manipolare i dati ricevuti ed eventualmente intraprendere azioni specifiche in totale indipendenza dal suo utilizzatore. Obiettivo del progetto è quello di costruire un meccanismo di interazione tra le tecnologie più adattivo e funzionale possibile.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
E’ mostrata l’analisi e la modellazione di dati termocronologici di bassa temperatura da due regioni Alpine: il Sempione ed il Brennero. Le faglie distensive presenti bordano settori crostali profondi appartenenti al dominio penninico: il duomo metamorfico Lepontino al Sempione e la finestra dei Tauri al Brennero. I dati utilizzati sono FT e (U-Th)/He su apatite. Per il Sempione i dati provengono dalla bibliografia; per il Brennero si è provveduto ad un nuovo campionamento, sia in superficie che in sotterraneo. Gli attuali lavori per la galleria di base del Brennero (BBT), hanno consentito, per la prima volta, di raccogliere dati di FT e (U-Th)/He in apatite in sottosuolo per la finestra dei Tauri occidentale. Le analisi sono state effettuate tramite un codice a elementi finiti, Pecube, risolvente l’equazione di diffusione del calore per una topografia evolvente nel tempo. Il codice è stato modificato per tener conto dei dati sotterranei. L’inversione dei dati è stata effettuata usando il Neighbourhood Algorithm (NA), per ottenere il più plausibile scenario di evoluzione morfotettonico. I risultati ottenuti per il Sempione mostrano: ipotetica evoluzione dello stile tettonico della faglia del Sempione da rolling hinge a low angle detachment a 6.5 Ma e la cessazione dell’attività a 3 Ma; costruzione del rilievo fino a 5.5 Ma, smantellamento da 5.5 Ma ad oggi, in coincidenza dei cambiamenti climatici Messiniani e relativi all’inizio delle maggiori glaciazioni; incremento dell’esumazione da 0–0.6 mm/anno a 0.6–1.2 mm/anno a 2.4 Ma nell’emisfero settentrionale. I risultati al Brennero mostrano: maggiore attività tettonica della faglia del Brennero (1.3 mm/anno), maggiore attività esumativa (1–2 mm/anno) prima dei 10 Ma; crollo dell’attività della faglia del Brennero fra 10 Ma e oggi (0.1 mm/anno) e dell’attività esumativa nello stesso periodo (0.1–0.3 mm/anno); nessun aumento del tasso esumativo o variazioni topografiche negli ultimi 5 Ma.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.
Resumo:
Il presente studio è stato progettato e articolato includendo tre approcci disciplinari sviluppati parallelamente al fine di ottenere dati etologici, endocrinologici, e respiratori riguardo cinque esemplari di trichecho del pacifico (Odobenus rosmarus) ospitati presso l’Oceanografic di Valencia. Il periodo di campionamento si è sviluppato in un lasso di tempo di 12 settimane durante le quali sono stati raccolti dati riguardo i tre ambiti di studio. La raccolta di dati etologici è stata effettuata per mezzo di supporto video il quale ha permesso di generare un totale di 72 ore di filmato. Attraverso l’analisi del materiale multimediale è stato possibile elaborare un catalogo comportamentale con annesso un catalogo video atto alla semplificazione di riconoscimento dei vari moduli comportamentali; la revisione della documentazione video è stata effettuata mediante il software Noldus “Observer 5.0” che si è resa necessaria per la quantificazione dei singoli comportamenti osservati durante il periodo di studio. Succesivamente i dati ottenuti sono stati sottoposti ad analisi statistica al fine di poter valutare le differenze e le analogie comportamentali dei due soggetti principali nell’arco della singola giornata e durante le dodici settimane di analisi. In concomitanza col campionamento video, si è proceduto ialla raccolta dei dati relativi ai pattern respiratori al fine di valutare la durata delle apnee in ambiente controllato. In seguito è stato effettuato un approccio endocrinologico al fine di valutare la possibilità di rilevare e quantificare glucorticoidi quali cortisolo, testosterone e progesterone presenti nei campioni. Si è ricorso alla raccolta di materiale salivare in alternativa al campionamento ematico in modo da stabilire l’effettiva efficacia del metodo. I campioni sono stati poi processati mediante RIA e i livelli ormonali ottenuti sono stati utilizzati per effettuare una comparazione con il manifestarsi dei moduli comportamentali osservati è analizzarne le correlazioni presenti e osservarne gli effetti sull’espressione etologica.
Resumo:
Questa tesi descrive alcuni studi di messa a punto di metodi di analisi fisici accoppiati con tecniche statistiche multivariate per valutare la qualità e l’autenticità di oli vegetali e prodotti caseari. L’applicazione di strumenti fisici permette di abbattere i costi ed i tempi necessari per le analisi classiche ed allo stesso tempo può fornire un insieme diverso di informazioni che possono riguardare tanto la qualità come l’autenticità di prodotti. Per il buon funzionamento di tali metodi è necessaria la costruzione di modelli statistici robusti che utilizzino set di dati correttamente raccolti e rappresentativi del campo di applicazione. In questo lavoro di tesi sono stati analizzati oli vegetali e alcune tipologie di formaggi (in particolare pecorini per due lavori di ricerca e Parmigiano-Reggiano per un altro). Sono stati utilizzati diversi strumenti di analisi (metodi fisici), in particolare la spettroscopia, l’analisi termica differenziale, il naso elettronico, oltre a metodiche separative tradizionali. I dati ottenuti dalle analisi sono stati trattati mediante diverse tecniche statistiche, soprattutto: minimi quadrati parziali; regressione lineare multipla ed analisi discriminante lineare.
Resumo:
Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.
Resumo:
Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.
Resumo:
Questo lavoro di tesi tratta l'utilizzo di misure idrometriche satellitari in combinazione con le misure idrometriche tradizionali per la calibrazione dei modelli numerico-idraulici. Il presente elaborato riguarda la calibrazione di un complesso modello idraulico del Fiume Po implementato in HEC-RAS. Il caso di studio è un tratto del Fiume Po lungo circa 131 km, che va dalla sezione relativa alla stazione idrometrica di Borgoforte e termina all'incile del Po di Goro. Le Analisi numeriche svolte si suddividono in tre gruppi, il primo sfrutta l'impiego di soli dati idrometrici tradizionali, il secondo l'impiego di soli dati idrometrici satellitari e il terzo l'impiego di entrambe le tipologie di dati idrometrici.