530 resultados para Prestazioni dirigibilicaratteristiche dirigibilistoria dirigibili
Resumo:
La tesi tratta lo studio del sistema QNX e dello sviluppo di un simulatore di task hard/soft real-time, tramite uso di un meta-scheduler. Al termine dello sviluppo vengono valutate le prestazioni del sistema operativo QNX Neutrino.
Resumo:
Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
I sistemi esperti sono programmi che cercano di riprodurre le prestazioni di esperti umani nella risoluzione di problemi specifici. Essi rappresentano il più conosciuto risultato pratico della ricerca in intelligenza artificiale. Ne vengono analizzate la struttura interna, i paragidmi su cui si basano, i componenti che ne fanno parte e i linguaggi di programmazione principali. Viene studiato uno dei primi distemi esperti: il MYCIN. Esso opera nel campo medico ed è stato di notevole importanza e innovazione nei primi anni in cui questi sistemi venivano sviluppati.
Resumo:
Nei prossimi anni sia il Large Hadron Collider al CERN che i relativi esperimenti saranno oggetto di programmi di upgrade. Per i rivelatori una delle motivazioni dell’upgrade è l’invecchiamento che inevitabilmente ne peggiorerebbe le prestazioni in mancanza di interventi. Si sono studiati gli effetti dell’invecchiamentO del rivelatore di muoni a grande angolo di CMS sulla ricostruzione di eventi H→ 4μ: un canale centrale nel programma futuro di fisica delle alte energie e la cui identificazione è affidata essenzialmente al rivelatore di muoni. Benchè la ridondanza, insita nel progetto del rivelatore, riduca l’impatto dell’inefficienza locale sui risultati finali, si è osservato dalla simulazione che, mentre il 30% di hit persi si traduce nella perdita dell’8% di eventi H→4μ, il 30% di camere non funzionanti causa un perdita di eventi che può arrivare al 27%. Poichè la disattivazione di un’intera camera può essere l’effetto del danneggiamento dell’elettronica di lettura, la quale è attualmente situata nella caverna sperimentale ed esposta quindi alle radiazioni, questi risultati potrebbero indicare la necessità di prevedere nel programma di upgrade la sostituzione dell’elettronica con nuovi dispositivi da collocarsi fuori della caverna, al riparo dalle radiazioni.
Resumo:
Questo documento si interroga sulle nuove possibilità offerte agli operatori del mondo delle Reti di Telecomunicazioni dai paradigmi di Network Functions Virtualization, Cloud Computing e Software Defined Networking: questi sono nuovi approcci che permettono la creazione di reti dinamiche e altamente programmabili, senza disdegnare troppo il lato prestazionale. L'intento finale è valutare se con un approccio di questo genere si possano implementare dinamicamente delle concatenazioni di servizi di rete e se le prestazioni finali rispecchiano ciò che viene teorizzato dai suddetti paradigmi. Tutto ciò viene valutato per cercare una soluzione efficace al problema dell'ossificazione di Internet: infatti le applicazioni di rete, dette middle-boxes, comportano costi elevati, situazioni di dipendenza dal vendor e staticità delle reti stesse, portando all'impossibilità per i providers di sviluppare nuovi servizi. Il caso di studio si basa proprio su una rete che implementa questi nuovi paradigmi: si farà infatti riferimento a due diverse topologie, una relativa al Livello L2 del modello OSI (cioè lo strato di collegamento) e una al Livello L3 (strato di rete). Le misure effettuate infine mostrano come le potenzialità teorizzate siano decisamente interessanti e innovative, aprendo un ventaglio di infinite possibilità per il futuro sviluppo di questo settore.
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
In questa tesi viene effettuata una panoramica sull'apprendimento di alberi di decisione (un particolare metodo di apprendimento supervisionato) e sulle varie tecniche per poterne migliorare le prestazioni. Vengono poi descritti alcuni algoritmi e ne vengono confrontate le prestazioni.
Resumo:
I materiali plastici trovano ampie applicazioni in ogni aspetto della vita e delle attività industriali. La maggior parte delle plastiche convenzionali non sono biodegradabili e il loro accumulo è una minaccia per il pianeta. I biopolimeri presentano vantaggi quali: la riduzione del consumo delle risorse e la riduzione delle emissioni CO2, offrendo un importante contributo allo sviluppo sostenibile. Tra i biopolimeri più interessanti troviamo il poliidrossibutirrato (PHB), l’oggetto di questo studio, che è il più noto dei poliidrossialcanoati. Questo polimero biodegradabile mostra molte somiglianze con il polipropilene. La tesi consiste nell’applicazione del Life Cycle Assessment a processi di estrazione del PHB da colture batteriche. In essa sono valutate le prestazioni ambientali di 4 possibili processi alternativi, sviluppati dal CIRI EA, che utilizzano il dimetilcarbonato (DMC) e di 3 processi che utilizzano solventi alogenati (cloroformio, diclorometano, dicloroetano). Per quanto riguarda i processi che utilizzano come solvente di estrazione il DMC, due sono gli aspetti indagati e per i quali differiscono le alternative: la biomassa di partenza (secca o umida), e il metodo di separazione del polimero dal solvente (per evaporazione del DMC oppure per precipitazione). I dati primari di tutti gli scenari sono di laboratorio per cui è stato necessario realizzare un up scaling industriale di tutti i processi. L’up scaling è stato realizzato in collaborazione con il Dipartimento di Ingegneria Civile Chimica Ambientale e dei Materiali. La valutazione delle prestazioni ambientali è stata fatta rispetto a tutte le categorie d’impatto raccomandate dall’Handbook della Commissione Europea, di queste solo alcune sono state analizzate nel dettaglio. Tutti i risultati mostrano un andamento simile, in cui gli impatti dei processi che utilizzano DMC sono inferiori a quelli dei solventi alogenati. Fra i processi che impiegano DMC, l’alternativa più interessante appare quella che impiega biomassa di partenza secca e raccolta del PHB per precipitazione.
Resumo:
Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
Oggetto di questa tesi è la riqualificazione energetica e funzionale della scuola d’infanzia e primaria Clotilde Tambroni di Bologna. L'intervento progettato ha posto particolare attenzione al comfort interno, al miglioramento del benessere ambientale interno, all'abbattimento dei fabbisogni energetici e dei costi di gestione e alla riduzione delle emissioni inquinanti. In seguito ad un’analisi accurata, che ha registrato anche le opinioni degli utenti, si sono individuate criticità importanti e acuti livelli insoddisfazione. In particolare riguardo il comfort interno, l’accessibilità della struttura, la fruibilità e la qualità degli spazi, le dotazioni carenti (servizi igienici, servizi per disabili). Altre gravi criticità riguardano lo spazio esterno, quasi per nulla sfruttato e poco curato. Anche le prestazioni energetiche, valutate con il software Termolog EpiX5, sono risultate molto scarse: l’edificio si colloca in classe energetica E, con elevati livelli di consumi e conseguenti costi, dovuti soprattutto all’inefficienza del sistema di regolazione dell’impianto di riscaldamento, alla mancanza di isolamento delle pareti perimetrali e agli infissi adeguati. Sulla base di questa diagnosi, le strategie di progetto sono state definite puntando a risolvere o perlomeno migliorare tutte le criticità rilevate.
Resumo:
Viene proposto un metodo completo di autocalibrazione degli intrinseci della telecamera utilizzando una singola vista, sfruttando i punti di fuga riconosciuti nell'immagine. La metodologia è suddivisa in quattro fasi fondamentali: estrazione dei segmenti dall’immagine, clusterizzazione dei segmenti, stima di un punto di fuga da ogni cluster e determinazione dei punti di fuga ortogonali. Viene fornita un nuova metodologia per la determinazione dei punti di fuga, dai cluster di segmenti identificati. Inoltre vengono proposti degli approcci euristici che favoriscono la selezione della terna corretta di punti di fuga ortogonali. L’approccio proposto è completamente modulare e sufficientemente flessibile per poter essere adattato a esigenze diverse. Le prestazioni dell’approccio vengono valutate confrontando altre due proposte alternative, a cui viene sottoposto il medesimo set di immagini, ognuna dotata di diverse caratteristiche. I risultati di questi esperimenti evidenziano la bontà dell’approccio proposto.
Resumo:
Il seguente lavoro tratta lo sviluppo di un sistema di dimensionamento volumetrico mediante telecamere Kinect su software di visione industriale. Presenta quindi i risultati ottenuti con lo stesso sistema ma con l'utilizzo delle due Kinect Camera, valutandone le differenze di prestazioni
Resumo:
L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.
Resumo:
Il materiale composito è entrato nell’ambiente industriale rivoluzionando il concetto di progettazione delle strutture e permettendo il raggiungimento di prestazioni molto più elevate, rispetto ai materiali tradizionali. Infatti, i compositi sono in grado di garantire elevata resistenza e leggerezza, proprietà molto richieste in svariati ambiti industriali. Un suo notevole impiego è riscontrabile nell’industria aeronautica, dove le principali case produttrici di aeromobili hanno investito un apprezzabile quantitativo di risorse economiche nella realizzazione di velivoli con una sempre maggiore percentuale di questo materiale. Il composito, nonostante ci siano testimonianze del suo utilizzo già durante la seconda guerra mondiale, viene tutt’ora ritenuto “nuovo”; questo poiché molte delle sue caratteristiche non sono state ancora esaurientemente analizzate. Le conoscenze ad esso relative presentano ancora, infatti delle lacune, come il loro comportamento a seguito di un impatto. L’obiettivo della presente tesi è quello di indagare, attraverso una campagna sperimentale innovativa, il comportamento del CFRP di fronte a tale problematica, prestando particolare attenzione alla casistica dell’impatto sul bordo. Su tale argomento infatti, non si hanno esempi in letteratura né normative a cui fare riferimento. I campioni, impiegati nel presente studio, sono stati realizzati scegliendo una configurazione cross-ply, che ben si adatta alle successive fasi della campagna. Sui provini ottenuti sono stati eseguiti gli impatti, con l’utilizzo di un pendolo di Charpy, alcuni centrali e altri laterali, con due differenti energie. Questa prima parte della campagna sperimentale è stata svolta presso i laboratori hangar di Forlì, della Scuola di Ingegneria e Architettura dell’Università di Bologna. La caratterizzazione del materiale è avvenuta mediante prove a compressione. Il processo è stato eseguito per verificare l’influenza che l’impatto genera sulle proprietà meccaniche a compressione. Per poter eseguire una campagna di test ottimale, si è vista necessaria un’attenta analisi delle varie attrezzature utilizzabili per le prove a compressione. La scelta è ricaduta sull’attrezzatura CLC (Combined Loading Compression), la quale è risultata essere la più affidabile e maneggevole per le prove oggetto di studio. La fase relativa allo svolgimento delle prove a compressione è stata eseguita presso i laboratori ENEA di Faenza –Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF).