892 resultados para plagio, software, leggi, università, test, verifiche, analisi, confronto, metodi di individuzazione
Resumo:
Throughout the alpine domain, shallow landslides represent a serious geologic hazard, often causing severe damages to infrastructures, private properties, natural resources and in the most catastrophic events, threatening human lives. Landslides are a major factor of landscape evolution in mountainous and hilly regions and represent a critical issue for mountainous land management, since they cause loss of pastoral lands. In several alpine contexts, shallow landsliding distribution is strictly connected to the presence and condition of vegetation on the slopes. With the aid of high-resolution satellite images, it's possible to divide automatically the mountainous territory in land cover classes, which contribute with different magnitude to the stability of the slopes. The aim of this research is to combine EO (Earth Observation) land cover maps with ground-based measurements of the land cover properties. In order to achieve this goal, a new procedure has been developed to automatically detect grass mantle degradation patterns from satellite images. Moreover, innovative surveying techniques and instruments are tested to measure in situ the shear strength of grass mantle and the geomechanical and geotechnical properties of these alpine soils. Shallow landsliding distribution is assessed with the aid of physically based models, which use the EO-based map to distribute the resistance parameters across the landscape.
Resumo:
Il recupero dei materiali di scarto è un aspetto di grande attualità in campo stradale, così come negli altri ambiti dell’ingegneria civile. L’attenzione della ricerca e degli esperti del settore è rivolta all’affinamento di tecniche di riciclaggio che riducano l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Tali indagini cercano di far corrispondere le necessità di smaltimento dei rifiuti con quelle dell’industria infrastrutturale, legate al reperimento di materiali da costruzione tecnicamente idonei ed economicamente vantaggiosi. Attualmente sono già diversi i tipi di prodotti rigenerati e riutilizzati nella realizzazione delle pavimentazioni stradali e numerosi sono anche quelli di nuova introduzione in fase di sperimentazione. In particolare, accanto ai materiali derivanti dalle operazioni di recupero della rete viaria, è opportuno considerare anche quelli provenienti dall’esercizio delle attività di trasporto, il quale comporta ogni anno il raggiungimento della fine della vita utile per centinaia di migliaia di tonnellate di pneumatici di gomma. L’obiettivo della presente analisi sperimentale è quello di fornire indicazioni e informazioni in merito alla tecnica di riciclaggio a freddo con emulsione bituminosa e cemento, valutando la possibilità di applicazione di tale metodologia in combinazione con il polverino di gomma, ottenuto dal recupero degli pneumatici fuori uso (PFU). La ricerca si distingue per una duplice valenza: la prima è quella di promuovere ulteriormente la tecnica di riciclaggio a freddo, che si sta imponendo per i suoi numerosi vantaggi economici ed ambientali, legati soprattutto alla temperatura d’esercizio; la seconda è quella di sperimentare l’utilizzo del polverino di gomma, nelle due forme di granulazione tradizionale e criogenica, additivato a miscele costituite interamente da materiale proveniente da scarifica di pavimentazioni esistenti e stabilizzate con diverse percentuali di emulsione di bitume e di legante cementizio.
Resumo:
L'elaborato ha come scopo l'analisi delle tecniche di Text Mining e la loro applicazione all'interno di processi per l'auto-organizzazione della conoscenza. La prima parte della tesi si concentra sul concetto del Text Mining. Viene fornita la sua definizione, i possibili campi di utilizzo, il processo di sviluppo che lo riguarda e vengono esposte le diverse tecniche di Text Mining. Si analizzano poi alcuni tools per il Text Mining e infine vengono presentati alcuni esempi pratici di utilizzo. Il macro-argomento che viene esposto successivamente riguarda TuCSoN, una infrastruttura per la coordinazione di processi: autonomi, distribuiti e intelligenti, come ad esempio gli agenti. Si descrivono innanzi tutto le entità sulle quali il modello si basa, vengono introdotte le metodologie di interazione fra di essi e successivamente, gli strumenti di programmazione che l'infrastruttura mette a disposizione. La tesi, in un secondo momento, presenta MoK, un modello di coordinazione basato sulla biochimica studiato per l'auto-organizzazione della conoscenza. Anche per MoK, come per TuCSoN, vengono introdotte le entità alla base del modello. Avvalendosi MoK dell'infrastruttura TuCSoN, viene mostrato come le entità del primo vengano mappate su quelle del secondo. A conclusione dell'argomento viene mostrata un'applicazione per l'auto-organizzazione di news che si avvale del modello. Il capitolo successivo si occupa di analizzare i possibili utilizzi delle tecniche di Text Mining all'interno di infrastrutture per l'auto-organizzazione, come MoK. Nell'elaborato vengono poi presentati gli esperimenti effettuati sfruttando tecniche di Text Mining. Tutti gli esperimenti svolti hanno come scopo la clusterizzazione di articoli scientifici in base al loro contenuto, vengono quindi analizzati i risultati ottenuti. L'elaborato di tesi si conclude mettendo in evidenza alcune considerazioni finali su quanto svolto.
Resumo:
Lo scopo della seguente tesi è quello di illustrare la disposizione dei campioni di sistemi binari Mg Pd e di deposizioni singole di Ti, nell’abito di due progetti di ricerca, l’SSHS, Solide State Hydrogen Storage nell’ambito dell’Azione COST, e la produzione di titania (TiO2) per la fotocatalisi, sintetizzati in differenti reggimi di flusso di gas d’He, realizzando la crescita con il metodo IGC. Sono state illustrate le nuove proprietà e i metodi di formazione dei materiali nanostrutturati, per poi passare alla descrizione dell’apparato dove sono stati prodotti i campioni, con la conseguente spiegazione della progettazione del controllore di flusso dei sistemi di alimentazione e interfacciamento di quest’ultimo. Dopo un’accurata analisi al microscopio elettronico, `e stata descritta la morfologia dei campioni a due diversi reggimi di flusso di gas He, per i campioni di Mg Pd non sono state apprezzate differenze al variare del flusso, per il Ti, invece, si può notare una variazione morfologica legata alle dimensioni.
Resumo:
Questo lavoro di Tesi Magistrale, si focalizza sulla più importante delle aritmie atriali, ovvero la Fibrillazione Atriale, e sul trattamento della stessa attraverso le procedure di ablazione a radio frequenza (RF). Il lavoro di tesi, svolto presso l'Ospedale 'M. Bufalini' di Cesena, affronta in particolare l'uso della tecnologia EnSite NavX (un sistema di mappaggio elettroanatomico delle cavità cardiache) ed EnSite Contact (un sistema basato sulla misura dell'impedenza locale per la valutazione del contatto elettrodo tessuto). L'acquisizione e l'analisi dei dati di ECI (indice di accoppiamento elettrico), forniti dal modulo Contact, hanno permesso di comprendere come questo parametro, derivato dalla misura dell'impedenza locale, possa contribuire a fornire importanti informazioni in real-time all'elettrofisiologo e come lo studio della sua dinamica, con particolare attenzione alle variazioni tra pre e post ablazione, possa risultare utile per verificare l'avvenuta erogazione di energia ai tessuti.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
In the framework of the micro-CHP (Combined Heat and Power) energy systems and the Distributed Generation (GD) concept, an Integrated Energy System (IES) able to meet the energy and thermal requirements of specific users, using different types of fuel to feed several micro-CHP energy sources, with the integration of electric generators of renewable energy sources (RES), electrical and thermal storage systems and the control system was conceived and built. A 5 kWel Polymer Electrolyte Membrane Fuel Cell (PEMFC) has been studied. Using experimental data obtained from various measurement campaign, the electrical and CHP PEMFC system performance have been determinate. The analysis of the effect of the water management of the anodic exhaust at variable FC loads has been carried out, and the purge process programming logic was optimized, leading also to the determination of the optimal flooding times by varying the AC FC power delivered by the cell. Furthermore, the degradation mechanisms of the PEMFC system, in particular due to the flooding of the anodic side, have been assessed using an algorithm that considers the FC like a black box, and it is able to determine the amount of not-reacted H2 and, therefore, the causes which produce that. Using experimental data that cover a two-year time span, the ageing suffered by the FC system has been tested and analyzed.
Resumo:
Il tema generale del dottorato di ricerca è l'analisi delle politiche di attivazione in Italia durante la crisi economica. La combinazione di politiche attive e passive del lavoro viene interpretata ricorrendo al quadro teorico proposto da Amartya Sen e basato sul concetto di capability. Abbiamo considerato le misure nazionali e regionali nel quadro delle linee guida europee e analizzato le tendenze verso l'empowerment dei beneficiari di politiche del lavoro attraverso il concetto di capability proposto da Sen. La ricerca empirica ha utilizzato diversi strumenti per la raccolta dei dati: focus group, un questionario inviato ad un campione di 1.200 lavoratori, e interviste.
Resumo:
Il presente lavoro ha lo scopo di presentare gli studi e i risultati ottenuti durante l’attività di ricerca svolta sul Displacement-based Assessment (DBA) dei telai in cemento armato. Dopo alcune considerazioni iniziali sul tema della vulnerabilità sismica e sui metodi di analisi e verifica, si procede alla descrizione teorica del metodo. Sono stati analizzati tre casi studio di telai piani, progettati per soli carichi verticali e secondo normative non più in vigore che non prevedevano l’applicazione della gerarchia delle resistenze. I telai considerati, destinati ad abitazione civile, hanno diversa altezza e numero di piani, e diverso numero di campate. Si è proceduto all’applicazione del metodo, alla valutazione della vulnerabilità sismica in base alla domanda in termini di spostamento costituita da uno spettro elastico previsto dall’EC8 e alla validazione dei risultati ottenuti mediante analisi non lineari statiche e dinamiche e mediante l’applicazione dei teoremi dell’Analisi limite dei telai, proposta come procedura alternativa per la determinazione del meccanismo anelastico e della capacità in termini di taglio alla base. In ultimo si è applicata la procedura DBA per la valutazione della vulnerabilità sismica di un edificio scolastico, realizzato tra il 1969 e il 1975 in un sito caratterizzato da una accelerazione di picco orizzontale pari a 0,24g e una probabilità di superamento del 10% in 75 anni.
Resumo:
Il flusso di Rayleigh-Bénard, costituito da un fluido racchiuso fra due pareti a diversa temperatura, rappresenta il paradigma della convezione termica. In natura e nelle applicazioni industriali, il moto convettivo avviene principalmente in regime turbolento, rivelando un fenomeno estremamente complesso. L'obiettivo principale di questo elaborato di tesi consiste nell'isolare e descrivere gli aspetti salienti di un flusso turbolento di Rayleigh-Bénard. L'analisi è applicata a dati ottenuti da tre simulazioni numeriche dirette effettuate allo stesso numero di Rayleigh (Ra=10^5) e a numeri di Prandtl differenti (Pr=0.7,2,7). Sulla base di alcune statistiche a singolo punto, vengono definite nel flusso tre regioni caratteritiche: il bulk al centro della cella, lo strato limite termico e quello viscoso in prossimità delle pareti. Grazie all'analisi dei campi istantanei e delle correlazioni spaziali a due punti, sono state poi individuate due strutture fondamentali della convezione turbolenta: le piume termiche e la circolazione a grande scala. L'equazione generalizzata di Kolmogorov, introdotta nell'ultima parte della trattazione, permette di approcciare il problema nella sua complessità, visualizzando come l'energia cinetica viene immessa, si distribuisce e viene dissipata sia nello spazio fisico, sia in quello delle scale turbolente. L'immagine che emerge dall'analisi complessiva è quella di un flusso del tutto simile a una macchina termica. L'energia cinetica viene prodotta nel bulk, considerato il motore del flusso, e da qui fluisce verso le pareti, dove viene infine dissipata.
Resumo:
L'epilessia frontale notturna (EFN) è caratterizzata da crisi motorie che insorgono durante il sonno. Scopo del progetto è studiare le cause fisiopatologiche e morfo-funzionali che sottendono ai fenomeni motori nei pazienti con EFN e identificare alterazioni strutturali e/o metaboliche mediante tecniche avanzate di Risonanza Magnetica (RM). Abbiamo raccolto una casistica di pazienti con EFN afferenti al Centro Epilessia e dei Disturbi del Sonno del Dipartimento di Scienze Neurologiche, Università di Bologna. Ad ogni paziente è stato associato un controllo sano di età (± 5 anni) e sesso corrispondente. Tutti sono stati studiati mediante tecniche avanzate di RM comprendenti Spettroscopia del protone (1H-MRS), Tensore di diffusione ed imaging 3D ad alta risoluzione per analisi morfometriche. In particolare, la 1H-MRS è stata effettuata su due volumi di interesse localizzati nei talami e nel giro del cingolo anteriore. Sono stati inclusi nell’analisi finale 19 pazienti (7 M), età media 34 anni (range 19-50) e 14 controlli (6 M) età media 30 anni (range 19-40). A livello del cingolo anteriore il rapporto della concentrazione di N-Acetil-Aspartato rispetto alla Creatina (NAA/Cr) è risultato significativamente ridotto nei pazienti rispetto ai controlli (p=0,021). Relativamente all’analisi di correlazione, l'analisi tramite modelli di regressione multipla ha evidenziato che il rapporto NAA/Cr nel cingolo anteriore nei pazienti correlava con la frequenza delle crisi (p=0,048), essendo minore nei pazienti con crisi plurisettimanali/plurigiornaliere. Per interpretare il dato ottenuto è possibile solo fare delle ipotesi. L’NAA è un marker di integrità, densità e funzionalità neuronale. E’ possibile che alla base della EFN ci siano alterazioni metaboliche tessutali in precise strutture come il giro del cingolo anteriore. Questo apre nuove possibilità sull’utilizzo di strumenti di indagine basati sull’analisi di biosegnali, per caratterizzare aree coinvolte nella genesi della EFN ancora largamente sconosciute e chiarire ulteriormente l’eziologia di questo tipo di epilessia.
Resumo:
La tesi affronta il problema della ricostruzione di immagini di tomosintesi, problema che appartiene alla classe dei problemi inversi mal posti e che necessita di tecniche di regolarizzazione per essere risolto. Nel lavoro svolto sono presenti principalmente due contributi: un'analisi del modello di ricostruzione mediante la regolarizzazione con la norma l1; una valutazione dell'efficienza di alcuni metodi tra quelli che in letteratura costituiscono lo stato dell'arte per quanto riguarda i metodi basati sulla norma l1, ma che sono in genere applicati a problemi di deblurring, dunque non usati per problemi di tomosintesi.
Resumo:
Questa tesi è incentrata sull'analisi della formula di Dupire, che permette di ottenere un'espressione della volatilità locale, nei modelli di Lévy esponenziali. Vengono studiati i modelli di mercato Merton, Kou e Variance Gamma dimostrando che quando si è off the money la volatilità locale tende ad infinito per il tempo di maturità delle opzioni che tende a zero. In particolare viene proposta una procedura di regolarizzazione tale per cui il processo di volatilità locale di Dupire ricrea i corretti prezzi delle opzioni anche quando si ha la presenza di salti. Infine tale risultato viene provato numericamente risolvendo il problema di Cauchy per i prezzi delle opzioni.
Resumo:
Come risposta positiva alle richieste provenienti dal mondo dei giuristi, spesso troppo distante da quello scientifico, si vuole sviluppare un sistema solido dal punto di vista tecnico e chiaro dal punto di vista giurico finalizzato ad migliore ricerca della verità. L’obiettivo ci si prefigge è quello di creare uno strumento versatile e di facile utilizzo da mettere a disposizione dell’A.G. ed eventualmente della P.G. operante finalizzato a consentire il proseguo dell’attività d’indagine in tempi molto rapidi e con un notevole contenimento dei costi di giustizia rispetto ad una normale CTU. La progetto verterà su analisi informatiche forensi di supporti digitali inerenti vari tipi di procedimento per cui si dovrebbe richiedere una CTU o una perizia. La sperimentazione scientifica prevede un sistema di partecipazione diretta della P.G. e della A.G. all’analisi informatica rendendo disponibile, sottoforma di macchina virtuale, il contenuto dei supporti sequestrati in modo che possa essere visionato alla pari del supporto originale. In questo modo il CT diventa una mera guida per la PG e l’AG nell’ambito dell’indagine informatica forense che accompagna il giudice e le parti alla migliore comprensione delle informazioni richieste dal quesito. Le fasi chiave della sperimentazione sono: • la ripetibilità delle operazioni svolte • dettare delle chiare linee guida per la catena di custodia dalla presa in carico dei supporti • i metodi di conservazione e trasmissione dei dati tali da poter garantire integrità e riservatezza degli stessi • tempi e costi ridotti rispetto alle normali CTU/perizie • visualizzazione diretta dei contenuti dei supporti analizzati delle Parti e del Giudice circoscritte alle informazioni utili ai fini di giustizia
Resumo:
La tesi prende spunto da due laboratori del Piano di Lauree Scientifiche, "Numeri primi e crittografia" e "Giocare con i numeri". Si approfondiscono i problemi additivi riguardanti i numeri primi. Questi sono stati scelti per due principali motivi: la semplicità dei contenuti, che possono essere compresi dagli studenti di tutti i tipi di scuola, e la possibilità di prestarsi bene ad un approccio di tipo laboratoriale da parte degli studenti, adattabile alle diverse preparazioni matematiche e al tempo stesso in grado di stimolare curiosità su problemi ancora irrisolti. Si mostreranno metodi di risoluzione di tipo elementare ma anche metodi che coinvolgono l'analisi complessa.