998 resultados para Documentazione installazione banco prova analisi dati
Resumo:
Recentemente si è assistito ad un rinnovato interesse per l’impiego dei dirigibili. Questa tesi tratta sia aspetti storici, visto che si ripercorre l’evoluzione del mezzo dai primi anni del ‘900 ad oggi, sia aspetti tecnici, con l’illustrazione dei principi fisici alla base del funzionamento dei dirigibili. In particolare la tesi verte sui seguenti argomenti: * Storia del dirigibile, dagli albori fino ai giorni nostri, e breve descrizione dei più famosi modelli e delle imprese esplorative compiute. * Fisica, tipologie e componenti principali presenti in una aeronave. * Analisi comparativa dei dati, delle prestazioni e delle caratteristiche di circa cinquanta modelli sia del presente che del passato, con diagrammi di dispersione commentati.
Resumo:
Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.
Resumo:
Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.
Resumo:
L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Scopo di questo lavoro di tesi è la caratterizzazione della risposta di una partita di dosimetri a termoluminescenza LiF:Mg,Cu,P (GR200A) a fasci X di energie e intensità variabili. In questo elaborato è presentata la teoria che sta alla base degli strumenti e delle procedure utilizzate, cioè nozioni basilari di radiologia e dosimetria assieme ad una breve trattazione riguardante i dosimetri a termoluminescenza; sono descritti gli strumenti e le attrezzature impiegate, quali il sistema di acquisizione To.Le.Do , il tubo a raggi X presente all'interno del Centro di Coordinamento delle Attività di Fisica Medica e la camera di confronto utilizzata per la taratura. Tramite l'analisi dei dati raccolti sono stati definiti, all'interno della partita, gruppi differenti di dosimetri con risposte uniformi entro livelli di confidenza differenti. Questi gruppi di dosimetri saranno utilizzati dall'U. O. di Fisica Sanitaria dell'Università di Bologna per scopi diversi, in particolare per valutazioni di dosi personali e valutazioni di dosi ambientali in locali sottoposti a controlli di radioprotezione.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
A partire dal 2010 la Commissione Europea ha compilato una lista di 20 materie prime ritenute “critiche” per importanza economica e rischio di approvvigionamento, per le quali è fondamentale la ricerca di possibili fonti alternative nel territorio europeo, poiché i maggiori produttori sono tutti paesi extra-europei. Dati questi presupposti, 20 campioni di fango marino, dragati nelle adiacenze di seamounts del Tirreno sud-orientale, sono stati analizzati per mezzo di XRF, al fine di trovare arricchimenti in elementi critici quali cromo, cobalto, gallio, niobio e alcuni elementi delle Terre Rare (lantanio, cerio, neodimio, samario, ittrio). I fanghi, talvolta con frazione sabbiosa più abbondante, sono stati dapprima divisi in base al colore in fanghi marroni e grigi e fanghi di colore bianco, rosso o arancio; presentano anche inclusi di diverso tipo, quali frammenti di conchiglie, noduli neri o bruno-arancio, croste bruno-nere o bruno-arancio. Dalle analisi chimiche è risultato che campioni più ricchi in CaO hanno un contenuto minore negli elementi ricercati, al contrario dei campioni ricchi in ossidi di Si, Ti, Al, Fe. Confrontando inoltre i campioni con i valori medi di composizione della crosta terrestre superiore, essi risultano più ricchi in REY e meno in Co, Cr, Ga, Nb, mentre sono sempre più arricchiti della composizione media dei sedimenti marini. Dalle analisi mineralogiche risulta che i fanghi contengono generalmente quarzo, calcite, feldspati in piccole quantità e fillosilicati. Infine, analisi XRD e SEM-EDS sui noduli neri hanno dimostrato che si tratta di todorokite, un ossido idrato di Mn, con tenori variabili di Na, K, Ca, Mg, dalla forma globosa con microstruttura interna fibroso-raggiata. Si ritiene quindi che fanghi ricchi in CaCO3, probabilmente bioderivato, non siano l’obiettivo più adatto per la ricerca di elementi critici, mentre potrebbero esserlo fanghi più ricchi in Si, Al, Fe, K, che hanno maggiori concentrazioni di tali elementi.
Resumo:
Estrazione e analisi di dati (like, commenti, share) relativi alle APT regionali per contesti di promozione turistica
Resumo:
Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.
Resumo:
Negli ultimi anni, studi scientifici hanno evidenziato come il nostro sistema nervoso abbia la capacità di combinare e integrare informazioni di diversa natura sensoriale. Una interazione ampiamente studiata è quella audiovisiva. Oggetto principale di questa tesi è un esempio di interazione audiovisiva, ovvero un fenomeno illusorio visivo indotto dal suono che prende il nome “sound-induced flash illusion”: quando una coppia flash+beep è preceduta o seguita - ad una distanza temporale detta Stimulus Onset Asynchorny (SOA) - da un secondo beep, i soggetti spesso riportano la percezione di aver visto due flash. Il fenomeno illusorio tende a svanire al crescere dell’SOA, e si definisce “finestra temporale d’integrazione” l’intervallo di valori di SOA all’interno del quale si verifica l’illusione. Il fenomeno illusorio è presente anche nei soggetti autistici; questi, rispetto ai soggetti sani, presentano una maggiore propensione nel riportare l’illusione e una finestra temporale d’integrazione di durata maggiore. Obiettivo di questo lavoro è stato approfondire questi fenomeni di interazione mediante l’utilizzo di un modello di rete neurale precedentemente sviluppato dal gruppo di Bioingegneria dell’Università di Bologna. Tale modello era in grado di simulare il fenomeno illusorio, ma presentava il limite di non considerare l’intera finestra temporale in cui tale fenomeno si verifica. Un’analisi di sensitività del modello ha individuato quali variazioni dei parametri potessero spiegare l’illusione in un ampio intervallo temporale e interpretare le differenze tra soggetti sani e soggetti autistici. I risultati delle simulazioni hanno evidenziato un soddisfacente accordo con i dati di letteratura. Le analisi svolte possono contribuire a chiarire i meccanismi alla base del fenomeno illusorio e della finestra temporale in cui esso ha luogo e a fare luce sulle possibili alterazioni nelle singole aree cerebrali e nella interazione tra esse che possono interpretare le differenze osservate nei soggetti autistici rispetto ai sani.
Resumo:
La tesi individua un metodo matematico per inferire alcuni eventi demografici relativi a popolazioni umane, attraverso l’analisi di dati, reali e simulati, e con strumenti di statistica e analisi numerica (Cluster Analysis, Analisi Discriminate, Analisi della varianza, Interpolazione).
Resumo:
Il gruppo di tecnologie e sistemi di lavorazione del Dipartimento di Ingegneria Industriale, D.I.N, dell’Università di Bologna ha compiuto in collaborazione con il Dipartimento IUL della TU di Dortmund, negli ultimi anni, due campagne sperimentali effettuando processi di estrusione di leghe di alluminio. Nella prima, utilizzando leghe AA6060 e il metodo della visioplasticità, sono stati raccolti dati volti a ricavare le condizioni di attrito di tali processi, tramite confronto con valori ottenuti in simulazioni agli elementi finiti. Nella seconda, utilizzando invece una lega AA6082, è stata valutata la microstruttura al fine di permettere, tramite programmi agli elementi finiti, la determinazione di correlazioni fra variabili che prevedano la dimensione della microstruttura della lega stessa a seguito di lavorazioni per deformazione plastica. Basandosi quindi su queste prove sperimentali e utilizzando il software “QuantorForm versione 7.2.4”, è stato svolto il lavoro di tesi finalizzato a conseguire i seguenti obiettivi: • individuare il modello di attrito che si sviluppa nei processi di estrusione analizzati per la lega di alluminio AA6060; • determinare i parametri di settaggio ottimale del software, confrontando i risultati ottenuti nelle simulazioni con quelli sperimentali; • determinare le curve che descrivono la dimensione di un grano cristallino di AA6082 in funzione della deformazione; • implementare come subroutine in Qform, tramite l’utilizzo del linguaggio “Lua”, il modello di microstruttura ottenuto.
Resumo:
Lo scopo di questa tesi è quello di presentare l'applicazione di tecniche legate alla Teoria di Taglia a un problema di analisi di immagini biomediche. Il lavoro nasce dalla collaborazione del gruppo di Matematica della Visione dell'Università di Bologna, con il progetto PERFECT del Centro di Ricerca ARCES. La tesi si pone quindi come analisi preliminare di approccio alternativo ai metodi preesistenti. I metodi sono principalmente di Topologia Algebrica Applicata, ambito emergente e rilevante nel mondo della Matematica Computazionale. Il nucleo dell'elaborazione è costituito dall'analisi di forma dei dati per mezzo di Funzioni di Taglia. Questa nozione è stata introdotta nel 1999 da Patrizio Frosini e in seguito sviluppata principalmente dallo stesso, Massimo Ferri, Claudia Landi e altri collaboratori appartenuti al Gruppo di Ricerca di Matematica della Visione dell'Università di Bologna.
Resumo:
La galleria del vento "Wintaer" (WINd Tunnel itAER) è una piccola galleria subsonica con flusso incomprimibile utilizzata per scopi didattici, dotata di ventola assiale "Varofoil" a passo variabile per la regolazione della velocità del flusso. Lo scopo di questo elaborato è analizzare la qualità del flusso della galleria al fine di determinare le prestazioni del sistema ed alcune proprietà fondamentali, ovvero l'uniformità spaziale del flusso attraverso l'acquisizione di profili di velocità e l'intensità di turbolenza. Dalla conduzione delle prove sperimentali è emerso che la galleria permette il raggiungimento di un range di velocità compreso tra i 16 m/s e i 43 m/s, ha poca uniformità spaziale e presenta alti livelli di turbolenza. Per quanto riguarda il range di velocità si sono riscontrate problematiche relative all'impossibilità di raggiungere le basse velocità (fino a 7 m/s) a causa, molto probabilmente, di blocchi meccanici che limitano l'intervallo di angoli di calettamento (e quindi il passo) delle pale della ventola, ed è quindi necessario l'intervento della ditta per effettuare un'operazione di revisione della ventola. Relativamente ai profili di velocità, acquisiti con tubo di Pitot, e all'intensità di turbolenza, acquisita con anemometro a filo caldo, è emerso che i risultati sono stati disturbati da errori introdotti a causa dell'instabilità termica della galleria, ovvero un aumento progressivo di temperatura nell'impianto. Tale instabilità può essere risolta rimettendo in funzione l'unità di scambio di calore di cui la galleria è equipaggiata. L'attendibilità dei risultati ottenuti è quindi condizionata dall'instabilità termica, dunque, per una più preciso studio della qualità del flusso è necessario effettuare le prove sperimentali in condizioni di stabilità termica, la quale sarà essa stessa oggetto di analisi una volta rimesso in funzione il sistema di raffreddamento. Infine sono proposte soluzioni per il miglioramento della geometria dell'impianto, poco efficiente, in particolare per quanto riguarda i raddrizzatori di filetti fluidi (honeycombs) e il raccordo tra convergente e camera di prova, per il passaggio dalla sezione circolare del convergente a quella rettangolare della camera di prova. Si suggerisce lo spostamento di tale raccordo a monte della camera di calma, l'adozione di un convergente a sezione rettangolare e di una camera di calma a sezione rettangolare con honeycombs esagonali e l'aggiunta di reti per la diminuzione della turbolenza del flusso.