956 resultados para Modellistica Modello Simulazione Analisi Dati Elaborazione Fisica C Complessità Traffico Flussi
Resumo:
Si mostra levoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nellintera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalit di autoveicoli ignota. Si descrive lelaborazione dei dati e levoluzione del modello nella sua storicit fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando unevoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.
Resumo:
Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarit e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonch delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra lidea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validit, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialit del modello in termini di applicabilit in altre regioni o zone geografiche.
Resumo:
L'Appenino Emiliano tra le zone pi franose al mondo; i fenomeni che la interessano sono abbastanza lenti e quindi mai catastrofici, ma, vista la loro diffusione, molto dannosi per le infrastrutture. La ricerca della pericolosit associata alle frane si distingue in previsione spaziale e previsione temporale; la prima, detta anche suscettivit, il tema del presente lavoro. La suscettivit volta alla realizzazione di carte di propensione al dissesto, relative e indipendenti dal tempo. Dall'inizio degli anni '90 sono disponibili in letteratura diversi modelli per rispondere a questa esigenza, i quali sono generalmente costituiti da una componente geo-meccanica (di solito il modello del Pendio Infinito) e una idrologica. Il presente lavoro si concentra su quest'ultima che, nei diversi modelli, presenta la maggiore variet, e cerca di capire quale sia il contributo che questa componente pu dare all'analisi di suscettivit in un'area argillosa. Per valutare questo contributo, sono stati applicati ad un'area di studio rappresentativa, diversi modelli fisicamente basati noti in letteratura o creati appositamente. Le informazioni dinamiche dei modelli transitori sono state integrate nel tempo secondo diversi metodi che tengono conto della permanenza delle condizioni critiche nel versante. I risultati dell'analisi suggeriscono che, nell'area di studio, e presumibilmente nelle aree a prevalenza argillosa in genere, per la determinazione della suscettivit alle frane, il contributo di un modello fisicamente basato, completo di componente geo-meccanica e componente idrologica accoppiate, assolutamente trascurabile rispetto ad un semplice modello geo-meccanico basato sulla sola pendenza come quello del Pendio Infinito. Le indicazioni provenienti da un modello completo possono essere ridondanti o addirittura fuorvianti se questo non adatto alle caratteristiche dell'area in studio e ben calibrato.
Resumo:
Lo scopo dello studio comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacit di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilit di autocorrezione per ciascuna pagina. Per quanto riguarda le capacit di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalit questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti stato possibile discutere sulle capacit di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.
Resumo:
Lobiettivo di questa tesi approfondire le competenze sulle funzionalit sviluppate nei sistemi SCADA/EMS presenti sul mercato, cos da conoscerne le potenzialit offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni dinteresse per lutente, cos da poterle reintrodurre in fase di progettazione della nuova base dati. Linfrastruttura finale di questa nuova funzionalit si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. Lutilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantit dinformazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP
Resumo:
La trasformata di Fourier (FT) uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT stato ampliato a pi orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo cos lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione pi celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verr introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validit.
Resumo:
Modulo 2. Esempio di modello input output di complemento ai lucidi sulle TIO
Resumo:
The study is aimed to calculate an innovative numerical index for bit performance evaluation called Bit Index (BI), applied on a new type of bit database named Formation Drillability Catalogue (FDC). A dedicated research programme (developed by Eni E&P and the University of Bologna) studied a drilling model for bit performance evaluation named BI, derived from data recorded while drilling (bit records, master log, wireline log, etc.) and dull bit evaluation. This index is calculated with data collected inside the FDC, a novel classification of Italian formations aimed to the geotechnical and geomechanical characterization and subdivisions of the formations, called Minimum Interval (MI). FDC was conceived and prepared at Eni E&P Div., and contains a large number of significant drilling parameters. Five wells have been identified inside the FDC and have been tested for bit performance evaluation. The values of BI are calculated for each bit run and are compared with the values of the cost per metre. The case study analyzes bits of the same type, diameters and run in the same formation. The BI methodology implemented on MI classification of FDC can improve consistently the bit performances evaluation, and it helps to identify the best performer bits. Moreover, FDC turned out to be functional to BI, since it discloses and organizes formation details that are not easily detectable or usable from bit records or master logs, allowing for targeted bit performance evaluations. At this stage of development, the BI methodology proved to be economic and reliable. The quality of bit performance analysis obtained with BI seems also more effective than the traditional quick look analysis, performed on bit records, or on the pure cost per metre evaluation.
Resumo:
La dissertazione espone le tecniche che sono alla base della modellazione e della simulazione di centrali idroelettriche, focalizzando lattenzione sul sistema idraulico, che rappresenta il suo elemento costitutivo pi importante e problematico.
Resumo:
Progettazione e implementazione dei moduli di visualizzazione, memorizzazione e analisi di un sistema software di acquisizione dati in real-time da dispositivi prodotti da Elements s.r.l. La tesi mostra tutte le fasi di analisi, progettazione, implementazione e testing dei moduli sviluppati.
Resumo:
L'obiettivo di questa tesi la progettazione e realizzazione di una porzione del sistema informatico relativo al registro di patologia per il diabete. L'attivit di progettazione e realizzazione del Registro diabetici stata svolta prevalentemente durante il tirocinio presso il SITIC e ha compreso fasi di ricerca, analisi e sviluppo di un'applicazione in Qlikview.
Resumo:
Tra le pi importanti risorse alieutiche di molte regioni del Mar Mediterraneo vi sonole acciughe (Engraulisencrasicolus, Linnaeus, 1758), piccoli pesci pelagici appartenenti alle famiglie degli Engraulidae. Dati IREPA del 2009, hanno di fatto reso noto che in Italia, la pesca di E. encrasicolusha rappresentano in media il 26% circa del pescato totale. Questa specie viene continuamente monitorata e grazie a tali programmi stato evidenziato che vi sono delle fluttuazioni inter-annuali molto pronunciate (Cergoleet al., 2002; Cingolani, 2004), le cui cause possono essere molteplici, da fattori antropicicome lelevato sforzo di pesca a fattori naturali (Borjia et al., 1996). Va per posta molta attenzione sulle dinamiche biologiche ed ambientali che influiscono sulla sopravvivenza dei primi stadi di vita di questa specie, che ricadendo sul successivo reclutamento, possono essere una delle cause fondamentali delle contrazioni e degli incrementi annuali dello stock adulto (Thikonova et al., 2000; James et al., 2003; Cuttitta et al., 2003, 2006).Lo studio delle fasi ittioplanctoniche e delle sue relazioni con lambiente e gli altri organismi, risulta quindi di primaria importanza nellambito delle conoscenze necessarie per il corretto sfruttamento delle risorse alieutiche.