751 resultados para analisi di Fourier, mercati elettrici.
Resumo:
L’elaborato di tesi è stato redatto durante un’esperienza formativa presso la Parker Hannifin Manufacturing – Divisione Calzoni di Anzola dell’Emilia (BO). Il lavoro della tesi ha avuto per oggetto l’analisi di sicurezza e l’analisi dei guasti di un banco di assemblaggio e collaudo per motori oleodinamici a pistoni radiali. Il lavoro si è articolato in più fasi: una prima fase volta all’analisi funzionale (meccanica, idraulica, elettrica ed elettronica) dell’apparecchiatura, la fase successiva è stata dedicata allo studio delle varie normative necessarie a redigere il rapporto di sicurezza. Si sono poi valutati ed analizzati tutti i requisiti di sicurezza dell’apparecchiatura (valutazione del rischio) al fine di redigere il fascicolo tecnico. Infine, si è svolta l’analisi dei guasti (FMEA) secondo il metodo adottato in azienda. Il primo ed il secondo capitolo introducono la finalità industriale ed una descrizione generica dell’apparecchiatura. Nel terzo capitolo vi è una descrizione accurata del sistema idraulico e delle sue possibili configurazioni; il quarto nasce invece per approcciarsi alle normative di sicurezza a cui si è fatto riferimento. Infine, il quinto ed il sesto capitolo contengono rispettivamente il fascicolo tecnico e l’analisi dei guasti relativa all'apparecchiatura industriale studiata.
Resumo:
Si è analizzato un sistema di stoccaggio rivolgendo l'attenzione all'attività del Customer Service. Dopo il primo periodo di raccolta dati è stato popolato un database che rappresentasse al meglio la realtà osservata. Il database ci ha permesso, attraverso la manipolazione dei dati, di calcolare delle statistiche circa gli eventi più significativi in termini di tempo.
Resumo:
Attraverso lo studio di serie temporali di coordinate è possibile studiare l'entità degli spostamenti, nel tempo, di punti materializzati sulla Terra. In particolare, si incentra l'attenzione sull'analisi della stazione permanente GNSS DCRU collocata presso la base italo-francese Concordia, così da valutare il campo di velocità di deflusso superficiale del ghiaccio in una porzione di plateau dell’Antartide orientale sede della perforazione profonda in ghiaccio del progetto European Project for Ice Coring in Antarctica (EPICA) . Tale stazione è stata inserita in una rete di inquadramento dell'IGS e ha acquisito dati satellitari dal 2005 a oggi, raccolti giornalmente in file RINEX. Tramite l'utilizzo del software Bernese versione 5.2 è stato possibile ottenere dai file RINEX i file SINEX contenenti le soluzioni giornaliere, che costituiscono la serie temporale, e le relative varianze e covarianze. Avvalendosi del programma Tsview implementato per GGMatlab si sono poi valutate le componenti principali che caratterizzano una serie temporale, quali il trend, le componenti stagionali ed i rumori che giocano, talvolta, un ruolo importante nella valutazione dell'incertezza legata alle misure. Infine si è cercato di dare un'interpretazione fisica ai risultati che sono tutt'ora oggetto di studio. In questa tesi, quindi, si delinea un quadro generale delle procedure e delle problematiche da affrontare, sia per ottenere dall'acquisizione satellitare le soluzioni giornaliere costituenti la serie temporale, sia per analizzare la serie stessa.
Resumo:
Il presente elaborato analizza il problema dell'intrusione salina e valuta l'influenza dei parametri idrologici e idrogeologici sulle dinamiche del processo mediate simulazioni Monte Carlo. A scopo esemplificativo, l’intrusione salina viene studiata in condizioni stazionarie e nell’ipotesi di interfaccia netta. La tecnica di simulazione viene descritta a partire dai concetti statistici di base che includono la definizione delle distribuzioni di probabilità scelte per descrviere il comportamento dei parametri del modello concettuale e la procedura di campionamento di tali distribuzioni. Un codice in Matlab è stato realizzato per l’applicazione ad un semplice caso studio.
Resumo:
L'analisi di questa tesi si basa sui dati ottenuti contattando direttamente le aziende produttrici e/o di progettazione e riguarda due settori energetici: la cogenerazione e il solare fotovoltaico. Nel primo si sono studiate 60 unità complete di cogenerazione il cui studio si è basato sulla costruzione di grafici che mettono in relazione le potenze uscenti con il prezzo. Si è mostrato così la forte presenza di un fenomeno di economia di scala e la diversa ripartizione della potenza prodotta. Per unità di piccola-media potenza predomina la produzione di energia termica, la quale diminuisce la sua quota percentuale all’aumentare della taglia. Nel settore del solare fotovoltaico l’analisi è stata più diversificata e articolata. Si sono analizzati 70 pannelli di cui 35 monocristallini, 14 europei e 21 asiatici, e 35 policristallini, 26 europei e 9 asiatici, per i quali si sono graficati gli andamenti di resa, potenza specifica e costo specifico. I pannelli monocristallini, intrinsecamente più efficienti grazie al maggior grado di purezza, presentano un andamento crescente dei costi piuttosto ripido anche se non proporzionale con l’aumento delle prestazioni. Tra i pannelli policristallini invece si evidenzia l’assenza di un andamento nettamente crescente delle prestazioni all’aumentare dei costi. Confrontando i moduli divisi in base alla macro-regione di produzione si nota che l’Asia produce i pannelli al Si monocristallino più efficienti e più costosi mentre pannelli al Si policristallino più economici, ma con prestazioni in linea con quelli europei.Con i dati raccolti si è potuta svolgere anche una ristretta analisi sui pannelli al film sottile. Quelli che utilizzano il Si amorfo presentano prestazioni così basse da non permettere loro una vera affermazione sul mercato. Quest’ultima si presume che sarà invece possibile per pannelli basati su diversi materiali semiconduttori che presentano buoni livelli di prestazioni, ma prezzi ancora troppo elevati.
Resumo:
Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.
Resumo:
Lo scopo della presente tesi è lo studio e la progettazione di un sistema Hands-Free applicato in ambito Healthcare, volto ad aiutare il personale sanitario nello svolgimento delle mansioni lavorative. Il progetto, denominato Trauma Tracker, ha avuto origine grazie alla collaborazione con medici ed infermieri dell'ospedale Maurizio Bufalini di Cesena. In particolare, il sistema in prodotto si prende carico della compilazione del report finale contenente tutte le operazioni svolte sui pazienti nell'ambito del Pronto Soccorso, riducendo così notevolmente le possibilità di errori dovuti a fattori umani. Durante le fasi di sviluppo e progettazione sono state aggiunte ulteriori funzionalità al sistema, fino a farlo diventare vero e proprio oggetto incantato, in grado di esibire proprietà finora inimmaginabili in questo campo di applicazione. Trauma Tracker, almeno in queste prime fasi, non si propone come uno strumento immediatamente utilizzabile sul campo e pronto ad affiancare i medici, poiché necessiterebbe subito di qualità come robustezza ed affidabilità a livelli estremamente elevati. Per questo motivo il progetto è stato trattato come un "Proof of Concept", ossia un prototipo che ha lo scopo di dimostrare la fattibilità di tale sistema nella realtà, e di verificarne l'utilità una volta applicato in uno scenario concreto. L'argomento trattato ha quindi una grande importanza, poiché getta le basi di una tecnologia che un giorno potrà aiutare medici ed infermieri a svolgere al meglio l'impegnativo compito di salvare vite. In questa tesi, è stato approfondito in particolare il sottosistema utilizzato per il riconoscimento dei parametri vitali dal monitor multi-parametrico posto nei diversi reparti ospedalieri. Esso ha richiesto lunghe fasi di implementazione e collaudo per ottenere dei risultati soddisfacenti, che alla fine sono stati raggiunti.
Resumo:
I Big Data stanno guidando una rivoluzione globale. In tutti i settori, pubblici o privati, e le industrie quali Vendita al dettaglio, Sanità, Media e Trasporti, i Big Data stanno influenzando la vita di miliardi di persone. L’impatto dei Big Data è sostanziale, ma così discreto da passare inosservato alla maggior parte delle persone. Le applicazioni di Business Intelligence e Advanced Analytics vogliono studiare e trarre informazioni dai Big Data. Si studia il passaggio dalla prima alla seconda, mettendo in evidenza aspetti simili e differenze.
Resumo:
Analisi di vulnerabilità sismica dell'Istituto IPSCT "Luigi Einaudi" di Ferrara.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Questa tesi riguarda l'analisi di immagini astronomiche. In particolare esamineremo tecniche che permettono l'elaborazione di immagini. Si parlerà di operazioni di base che comprendono le usuali operazioni matematiche e le trasformazioni geometriche fornendo alcuni esempi di applicazioni. Parleremo inoltre approfonditamente dell'operazione di convoluzione tra immagini e delle sue proprietà. Successivamente tratteremo in modo approfondito la teoria di Fourier, a partire dai suoi lavori sulle serie omonime fino allo sviluppo dell'algoritmo FFT. Vedremo inoltre svariate applicazioni della trasformata di Fourier all'analisi di immagini. Per concludere parleremo di deconvoluzione, analizzando in particolare due algoritmi deconvolutivi, l'algoritmo di Van Cittert e l'algoritmo di Richardson-Lucy.
Resumo:
L’obiettivo del presente lavoro di tesi è stato quello di analizzare i campioni di otoliti delle due specie del genere Mullus (Mullus barbatus e Mullus surmuletus) per mezzo dell’Analisi Ellittica di Fourier (EFA) e l’analisi di morfometria classica con gli indici di forma, al fine di verificare la simmetria tra l’otolite destro e sinistro in ognuna delle singole specie di Mullus e se varia la forma in base alla taglia dell’individuo. Con l’EFA è stato possibile mettere a confronto le forme degli otoliti facendo i confronti multipli in base alla faccia, al sesso e alla classe di taglia. Inoltre è stato fatto un confronto tra le forme degli otoliti delle due specie. Dalle analisi EFA è stato possibile anche valutare se gli esemplari raccolti appartenessero tutti al medesimo stock o a stock differenti. Gli otoliti appartengono agli esemplari di triglia catturati durante la campagna sperimentale MEDITS 2012. Per i campioni di Mullus surmuletus, data la modesta quantità, sono stati analizzati anche gli otoliti provenienti dalla campagna MEDITS 2014 e GRUND 2002. I campioni sono stati puliti e analizzati allo stereomicroscopio con telecamera e collegato ad un PC fornito di programma di analisi di immagine. Dalle analisi di morfometria classica sugli otoliti delle due specie si può sostenere che in generale vi sia una simmetria tra l’otolite destro e sinistro. Dalle analisi EFA sono state riscontrate differenze significative in tutti i confronti, anche nel confronto tra le due specie. I campioni sembrano però appartenere al medesimo stock. In conclusione si può dire che l’analisi di morfometria classica ha dato dei risultati congrui con quello che ci si aspettava. I risultati dell’analisi EFA invece hanno evidenziato delle differenze significative che dimostrano una superiore potenza discriminante. La particolare sensibilità dell’analisi dei contorni impone un controllo di qualità rigoroso durante l’acquisizione delle forme.
Resumo:
Il lavoro svolto, in collaborazione con “Ducati Motor Holding”, si propone l’analisi, mediante l’applicazione di un software FEM (HyperWorks 9.0), della struttura rappresentata dai condotti di un girotubi di scarico motociclistico. Il primo obiettivo consiste nell’ottenimento di un modello agli elementi finiti della struttura. In questo senso si è anche compiuta un’indagine sperimentale per la caratterizzazione di un componente chiave del sistema (un supporto antivibrante in gomma). Le simulazioni di calcolo strutturale vogliono coinvolgere gli effetti che i carichi termici hanno nell’alterare le proprietà meccaniche dei materiali e nell’indurre sollecitazioni derivate dalle dilatazioni termiche. Si svolgono inoltre analisi di tipo dinamico per determinare i modi di vibrare della struttura e come le frequenze naturali vengano influenzate dagli effetti termici. Sulla base di ulteriori simulazioni sulla risposta in frequenza del sistema e di un riscontro sperimentale (prova accelerometrica), si è inoltre tentata una prima validazione del modello dal punto di vista dinamico. La finalità del lavoro risiede dunque nella determinazione delle criticità strutturali che il girotubi può manifestare durante il funzionamento, ma anche nell’esplorazione e applicazione delle potenzialità del software applicato, per l’analisi degli aspetti sopra esposti.