1000 resultados para Analisi TDC


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro sono presentate le principali caratteristiche delle previsioni meteorologiche mensili, nonché il progresso scientifico e storico che le ha coinvolte e le tecniche adibite alla loro verifica. Alcune di queste tecniche sono state applicate al fine di valutare ed analizzare l'errore sistematico (o bias) e l'RMSE di temperatura a 850 hPa (T850), altezza geopotenziale a 500 hPa (Z500) e precipitazioni cumulate del modello GLOBO, utilizzato presso l'Istituto per le Scienze dell'Atmosfera e del Clima del Consiglio Nazionale delle Ricerche per formulare previsioni mensili. I risultati mostrano la progressione temporale dell'errore, che aumenta nelle prime due settimane di integrazione numerica fino a stabilizzarsi tra la terza e la quarta. Ciò mostra che il modello, persa l'influenza delle condizioni iniziali, raggiunge un suo stato che, per quanto fisiologicamente distante da quello osservato, tende a stabilizzarsi e a configurarsi quindi come sistematico (eventualmente facilitandone la rimozione in fase di calibrazione delle previsioni). Il bias di T850 e Z500 presenta anomalie negative prevalentemente lungo le zone equatoriali, e vaste anomalie positive sulle aree extra-tropicali; quello delle precipitazioni mostra importanti sovrastime nelle zone continentali tropicali. La distribuzione geografica dell'RMSE (valutato solo per T850 e Z500) riscontra una generale maggiore incertezza nelle zone extra-tropicali, specie dell'emisfero settentrionale e nei mesi freddi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi presenta alcuni aspetti dell'analisi convessa, in spazi vettoriali topologici, indirizzati allo studio di problemi generali di minimizzazione. Dai risultati geometrici dei teoremi di Hahn-Banach, attraverso la descrizione di proprietà fondamentali delle funzioni convesse e del sottodifferenziale, viene descritta la dualità di Fenchel-Moreau, e poi applicata a problemi generali di Ottimizzazione convessa, sotto forma prima di problema primale-duale, e poi come rapporto tra i punti di sella della Lagrangiana e le soluzioni della funzione da minimizzare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le lingue sono veri organismi vitali che creano meccanismi propri al fine di esprimere concetti capaci di descrivere la realtà, fisica e interiore. Un meccanismo linguistico tipico delle lingue (ed anche una risorsa) per esprimere le diverse sfaccettature di una realtà multiforme e diversamente percettibile, è il ricorso a strutture perifrastiche, di utilizzo piuttosto comune in molte lingue. In quest’analisi, nello specifico, viene preso in esame e studiato il sistema perifrastico di tre lingue romanze, quali lo spagnolo, il francese e l’italiano; in particolare, l’attenzione è diretta alle perifrasi costruite con un verbo di movimento in funzione di ausiliare, per analizzare e dimostrare l’eventuale slittamento di tale concetto di movimento dal piano spaziale a quello temporale, o semplicemente metaforico. I sistemi linguistici sono stati scelti tutti appartenenti alla famiglia romanza, al fine di metterli a confronto e trovare convergenze e divergenze fra la gamma di perifrasi costruite con verbi di movimento che le lingue in questione, di ceppo comune, presentano. Per svolgere questo tipo di lavoro sono state utilizzate Grammatiche istituzionali, saggi, articoli e manuali che inquadrano il panorama linguistico di ogni lingua a partire da punti di vista differenti. Inoltre, al fine di dimostrare la tesi principale, ogni concetto teorico è accompagnato da dimostrazioni e da esempi, entrambi tratti da "corpora" linguistici già esistenti in rete.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi del sistema NewSQL e sperimentazione del software VoltDB su un benchmark definito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivo del lavoro di tesi è l’analisi della vulnerabilità delle strutture della città di Augusta, che è una delle aree campione scelte dal progetto europeo ASTARTE, riguardante fra l’altro la stima e la mitigazione del rischio da tsunami nei mari europei. Per prima cosa sono state ricercate le strutture tettoniche che possono dare origine a terremoti di grande magnitudo, e che possono causare in seguito devastanti tsunami, nella zona della Sicilia orientale. La Scarpata Maltese è risultata essere la caratteristica morfologica dominante in questa zona del Mediterraneo. Per l’analisi di vulnerabilità sono state utilizzate due diverse metodologie: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) e il modello PTVA-3 (Papathoma Tsunami Vulnerability Assessment). Il metodo SCHEMA, di tipo quantitativo, è un metodo più semplice in quanto si avvale della fotointerpretazione per assegnare ad una costruzione la classe di appartenenza in base alla sua tipologia. Poi, attraverso le matrici del danno, si assegna un livello di danno (da D0, nessun danno, a D5, collasso) in base all’altezza della colonna d’acqua. Il metodo PTVA-3, di tipo qualitativo, risulta invece essere più complicato. Infatti, per arrivare all’assegnazione dell’indice di vulnerabilità relativa (RVI), che fornisce una stima del danno subito da una data struttura, si ha bisogno di assegnare un certo numero di attributi. L’indice RVI è dato dalla somma pesata tra la vulnerabilità strutturale e la vulnerabilità dovuta all’intrusione d’acqua (percentuale di piani inondati). In conclusione si è fatto un confronto tra i due metodi, ottenendo una sovrastima del metodo PTVA-3 rispetto al metodo SCHEMA nella quantificazione del livello di danneggiamento degli edifici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La metafora del viaggio è una metafora 'pervasiva', utilizzata quotidianamente e spesso inconsapevolmente. Ma è altrettanto 'automatico' tradurre tali metafore in interpretazione simultanea? Attraverso lo studio di tale tipologia di metafore, tratte dai discorsi pronunciati durante le sessioni plenarie del Parlamento Europeo, e tratti dal corpus EPIC, e durante gli esami finali della Scuola Superiore di Lingue Letterature Traduzione e Interpretazione, se ne osserverà l'uso in italiano, in inglese e in spagnolo. Solo in seguito, sarà possibile prendere in considerazione le rese in interpretazione simultanea degli interpreti del Parlamento Europeo, i 'professionisti', e gli studenti che sostengono gli esami finali, i 'semi-professionisti'. Dalla ricerca sono emerse sostanziali differenze tra la lessicalizzazione delle metafore del viaggio in italiano, inglese e spagnolo che rendono la loro interpretazione in simultanea tutto fuorché semplice e automatica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi tratta il processo di analisi, progettazione e implementazione dell'applicazione del corso di laurea di Programmazione, in ambiente iOS. L'applicazione fornirà i servizi, ora offerti dal portale del corso di laurea, ottimizzati per dispositivi mobili.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Scopo di questo lavoro di tesi è la caratterizzazione della risposta di una partita di dosimetri a termoluminescenza LiF:Mg,Cu,P (GR200A) a fasci X di energie e intensità variabili. In questo elaborato è presentata la teoria che sta alla base degli strumenti e delle procedure utilizzate, cioè nozioni basilari di radiologia e dosimetria assieme ad una breve trattazione riguardante i dosimetri a termoluminescenza; sono descritti gli strumenti e le attrezzature impiegate, quali il sistema di acquisizione To.Le.Do , il tubo a raggi X presente all'interno del Centro di Coordinamento delle Attività di Fisica Medica e la camera di confronto utilizzata per la taratura. Tramite l'analisi dei dati raccolti sono stati definiti, all'interno della partita, gruppi differenti di dosimetri con risposte uniformi entro livelli di confidenza differenti. Questi gruppi di dosimetri saranno utilizzati dall'U. O. di Fisica Sanitaria dell'Università di Bologna per scopi diversi, in particolare per valutazioni di dosi personali e valutazioni di dosi ambientali in locali sottoposti a controlli di radioprotezione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sono state realizzate prove per verificare l'influenza della pressione di compattazione usata in autoclave sulle proprietà meccaniche di un laminato in fibra di carbonio e resina epossidica. Sono stati analizzati spessori e ILSS di rottura e, tramite un modello FEM, sono stati determinati i moduli di elasticità del laminato per i vari livelli di pressione indagati; inoltre sono state verificate le ILSS del modello con quelle risultate dalle prove realizzate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La ricostruzione dettagliata dell’architettura stratigrafica e delle facies delle successioni tardo-quaternarie sepolte al di sotto delle pianure alluvionali moderne sta assumendo un’importanza crescente come strumento per le ricostruzioni paleoambientali e paleoclimatiche e per la correlazione dei sistemi deposizionali continentali e costieri, finalizzata alla caratterizzazione geometrica di corpi sedimentari che rappresentano potenziali serbatoi. Un impulso significativo verso la caratterizzazione dell’architettura stratigrafica dei depositi tardo-quaternari del Bacino Padano è stato fornito, negli ultimi quindici anni, da un’intensa campagna di perforazioni operata dal Servizio Geologico, Sismico e dei Suoli di Regione Emilia-Romagna, nell’ambito della realizzazione della Carta geologica d’Italia in scala 1:50.000. Tuttavia, per ottenere un numero sufficiente di informazioni stratigrafiche è necessario un dataset molto esteso e le perforazioni (sondaggi a carotaggio continuo) presentano costi estremamente elevati. I limiti operativi delle descrizioni dei sondaggi a carotaggio continuo possono essere superati utilizzando metodi indiretti che si basano sullo sfruttamento delle proprietà geotecniche dei depositi tardo-quaternari. In questo lavoro di tesi l’analisi delle caratteristiche geotecniche delle prove CPTU è stata sfruttata per caratterizzare le associazioni di facies della Pianura Padana centrale. Una dettagliata analisi dei log stratigrafici e, in particolare, delle curve di resistenza delle prove CPTU inserite nelle sezioni, la costruzione di sezioni stratigrafiche e un meticoloso lavoro di correlazione basato su 19 datazioni radiometriche, ha rivelato una serie di paleosuoli (inceptisuoli) impilati nei 50-60 m più superficiali della successione tardo-quaternaria della Pianura Padana centrale; questi paleosuoli rappresentano l’unico marker stratigrafico all’interno di una successione costituita prevalentemente da depositi argillosi uniformi. L’analisi delle caratteristiche geotecniche di alcuni paleosuoli e dei loro rapporti con la channel belt del Fiume Po risulta fondamentale per comprendere l’evoluzione recente del Bacino Padano e le caratteristiche geometriche dei corpi sedimentari finalizzata allo sfruttamento di potenziali risorse fluide sotterranee.