734 resultados para Sistema di sbrinamento pompe di calore


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è la riqualificazione sostenibile dell’edificio ospitante la Scuola secondaria di I grado “Il Guercino”, sita all’interno del quartiere Savena, nel Comune di Bologna, ai confini con quello di San Lazzaro di Savena. L’edificio, esito di un modo di fare architettura legato ad un contesto storico e professionale precisamente definito (quello dell’amministrazione pubblica bolognese nel quindicennio 1970-’85), presenta principi compositivi e soluzioni tecnologiche non scontate e per certi versi pregevoli, se contestualizzate nel momento della sua realizzazione. L’intervento di riqualificazione progettato affronta in primo luogo la riorganizzazione funzionale dell’edificio (anche attraverso un ampliamento) e del sistema delle accessibilità, oggi inadeguati rispetto alle esigenze degli utenti e alle prescrizioni normative. Particolare attenzione è stata dedicata alla possibilità di rendere l’edificio il più possibile fruibile ai portatori di handicap, aspetto non più trascurabile, soprattutto all’interno di un istituto scolastico. In secondo luogo il progetto si occupa del retrofit energetico realizzato tramite alcuni interventi mirati, quali la sostituzione del sistema di involucro verticale e di quello impiantistico: in tal modo si è passati da una classe di prestazione energetica F ad una classe di prestazione energetica A, rendendo sostenibile il consumo energetico e migliorando sensibilmente il livello di comfort degli occupanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi è analizzato il caso di sensori con uscita in frequenza e periodo, si traduce in ultima analisi nella capacità di misurare con precisione un intervallo temporale. La rivelazione del tempo risulta essere lo stadio fondamentale da cui deriva la risoluzione dell'intero sistema di misura. Nella realtà, la questione della simultaneità cioè individuare con assoluta precisione due eventi che si verificano contemporaneamente, in un determinato istante t, è un problema piuttosto complesso: le difficoltà sono correlate soprattutto alle limitazioni fisiche intrinseche degli strumenti di misura. E' utile allora fornire un'analisi sui principi e le tecniche alla base della misura di intervalli temporali, detta Time Interval Measurement (TIM). Lo scopo della tesi è studiare i vari metodi per realizzare TDC lineari digitali, facendo un'analisi critica e ed evidenziando pro e contro che i vari approcci presentano, attingendo e analizzando criticamente informazioni dalle varie fonti riportate in bibliografia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In CMS è stato lanciato un progetto di Data Analytics e, all’interno di esso, un’attività specifica pilota che mira a sfruttare tecniche di Machine Learning per predire la popolarità dei dataset di CMS. Si tratta di un’osservabile molto delicata, la cui eventuale predizione premetterebbe a CMS di costruire modelli di data placement più intelligenti, ampie ottimizzazioni nell’uso dello storage a tutti i livelli Tiers, e formerebbe la base per l’introduzione di un solito sistema di data management dinamico e adattivo. Questa tesi descrive il lavoro fatto sfruttando un nuovo prototipo pilota chiamato DCAFPilot, interamente scritto in python, per affrontare questa sfida.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In una formulazione rigorosa della teoria quantistica, la definizione della varietà Riemanniana spaziale su cui il sistema è vincolato gioca un ruolo fondamentale. La presenza di un bordo sottolinea l'aspetto quantistico del sistema: l'imposizione di condizioni al contorno determina la discretizzazione degli autovalori del Laplaciano, come accade con condizioni note quali quelle periodiche, di Neumann o di Dirichlet. Tuttavia, non sono le uniche possibili. Qualsiasi condizione al bordo che garantisca l'autoaggiunzione dell' operatore Hamiltoniano è ammissibile. Tutte le possibili boundary conditions possono essere catalogate a partire dalla richiesta di conservazione del flusso al bordo della varietà. Alcune possibili condizioni al contorno, permettono l'esistenza di stati legati al bordo, cioè autostati dell' Hamiltoniana con autovalori negativi, detti edge states. Lo scopo di questa tesi è quello di investigare gli effetti di bordo in sistemi unidimensionali implementati su un reticolo discreto, nella prospettiva di capire come simulare proprietà di edge in un reticolo ottico. Il primo caso considerato è un sistema di elettroni liberi. La presenza di edge states è completamente determinata dai parametri di bordo del Laplaciano discreto. Al massimo due edge states emergono, e possono essere legati all' estremità destra o sinistra della catena a seconda delle condizioni al contorno. Anche il modo in cui decadono dal bordo al bulk e completamente determinato dalla scelta delle condizioni. Ammettendo un' interazione quadratica tra siti primi vicini, un secondo tipo di stati emerge in relazione sia alle condizioni al contorno che ai parametri del bulk. Questi stati sono chiamati zero modes, in quanto esiste la possibilità che siano degeneri con lo stato fondamentale. Per implementare le più generali condizioni al contorno, specialmente nel caso interagente, è necessario utilizzare un metodo generale per la diagonalizzazione, che estende la tecnica di Lieb-Shultz-Mattis per Hamiltoniane quadratiche a matrici complesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

PhEDEx, the CMS transfer management system, during the first LHC Run has moved about 150 PB and currently it is moving about 2.5 PB of data per week over the Worldwide LHC Computing Grid (WLGC). It was designed to complete each transfer required by users at the expense of the waiting time necessary for its completion. For this reason, after several years of operations, data regarding transfer latencies has been collected and stored into log files containing useful analyzable informations. Then, starting from the analysis of several typical CMS transfer workflows, a categorization of such latencies has been made with a focus on the different factors that contribute to the transfer completion time. The analysis presented in this thesis will provide the necessary information for equipping PhEDEx in the future with a set of new tools in order to proactively identify and fix any latency issues. PhEDEx, il sistema di gestione dei trasferimenti di CMS, durante il primo Run di LHC ha trasferito all’incirca 150 PB ed attualmente trasferisce circa 2.5 PB di dati alla settimana attraverso la Worldwide LHC Computing Grid (WLCG). Questo sistema è stato progettato per completare ogni trasferimento richiesto dall’utente a spese del tempo necessario per il suo completamento. Dopo svariati anni di operazioni con tale strumento, sono stati raccolti dati relativi alle latenze di trasferimento ed immagazzinati in log files contenenti informazioni utili per l’analisi. A questo punto, partendo dall’analisi di una ampia mole di trasferimenti in CMS, è stata effettuata una suddivisione di queste latenze ponendo particolare attenzione nei confronti dei fattori che contribuiscono al tempo di completamento del trasferimento. L’analisi presentata in questa tesi permetterà di equipaggiare PhEDEx con un insieme di utili strumenti in modo tale da identificare proattivamente queste latenze e adottare le opportune tattiche per minimizzare l’impatto sugli utenti finali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le grandi catene di distribuzione, per sviluppare strategie commerciali sempre più efficaci, sono interessate a comprendere il percorso che ogni cliente effettua all’interno del punto vendita, che reparti visita, il tempo di permanenza in un’area specifica ecc… Quindi è stato necessario trovare un sistema per localizzare e tracciare un cliente all’interno di un ambiente chiuso (indoor position). Prima di tutto ci si è concentrati sulla ricerca e sviluppo di una nuova idea che potesse superare gli ostacoli delle soluzioni attualmente in commercio. Si è pensato di sostituire le tessere punti del punto vendita con delle tessere bluetoothLE e di creare un sistema di posizionamento al chiuso utilizzando la stessa logica di funzionamento del GPS per gli ambienti aperti. Il ricevitore è la tessera BLE posseduta dal cliente e i satelliti sono tre device Android dotati di un’app specifica per rilevare il segnale radio (RSSI) emesso dalla tessera ogni secondo. Le rilevazioni dei tre device Android sono successivamente trasferite all’interno di una web application che si occupa di elaborare i dati tramite il processo di trilaterazione. L’output sono le coordinate x,y di ciascuna tessera in ogni secondo di visita all’interno del punto vendita. Questi dati sono infine utilizzati per mostrare graficamente il percorso effettuato dal cliente, l’orario di ingresso e di uscita e il tempo di permanenza. Riepilogando, il progetto comprende una fase di ricerca e intuizione di una nuova idea, una fase di progettazione per traslare i meccanismi del funzionamento GPS all’utilizzo in un ambiente chiuso, una fase di implementazione dell’app e della web application e infine una fase di sperimentazioni sul campo che si concluderà dopo la laurea con test reali in un supermercato della zona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Fibrillazione Atriale (FA) è una delle aritmie più frequentemente riscontrate nella pratica clinica, ma i meccanismi che la generano e che la sostengono non sono ancora oggi ben chiari. L’obiettivo di questo lavoro di tesi è indagare il substrato aritmogeno della FA con particolare attenzione al legame tra rimodellamento elettrico e strutturale. La tecnica di riferimento per la valutazione della fibrosi è la risonanza magnetica con iniezione di mezzo di contrasto e acquisizione ritardata. Tipicamente, però, la presenza di fibrosi viene valutata durante la procedura di ablazione transcatetere mediante l’analisi dei potenziali elettrici rilevati, considerando le zone a basso potenziale indicative della presenza di alterazioni strutturali. In questo lavoro sono stati elaborati dati di Risonanza Magnetica (RM), in particolare sequenze Angio-RM e DE-RM. Dalle sequenze Angio-RM è stato ricostruito un modello 3D paziente-specifico dell’atrio, mentre dalle sequenze DE-RM sono state ricavate informazioni relative alla presenza di tessuto atriale fibrotico. Al modello 3D è stata poi sovrapposta l’informazione sull’intensità di grigio del dato DE-RM per poter visualizzare la localizzazione delle zone di fibrosi sulla superficie 3D dell’atrio.
 Sono stati anche esportati dal sistema di mappaggio elettroanatomico EnSite NavX (St. Jude Medical) i dati relativi alla geometria dell’atrio e ai potenziali registrati durante lo svolgimento della procedura di ablazione. Da questi dati è stato possibile ricostruire in ambiente Matlab le mappe di voltaggio raffiguranti i potenziali registrati durante la procedura. Per poter studiare e valutare il legame esistente tra rimodellamento elettrico e strutturale, sono state confrontate le mappe di voltaggio e le superfici raffiguranti fibrosi.
 Questo lavoro di tesi è stato svolto in collaborazione con l’U.O. di Cardiologia dell’Ospedale Bufalini di Cesena e la St. Jude Medical.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentato il modello di Keller-Segel per la chemiotassi, un sistema di tipo parabolico-ellittico che appare nella descrizione di molti fenomeni in ambito biologico e medico. Viene mostrata l'esistenza globale della soluzione debole del modello, per dati iniziali sufficientemente piccoli in dimensione N>2. La scelta di dati iniziali abbastanza grandi invece può causare il blow-up della soluzione e viene mostrato sotto quali condizioni questo si verifica. Infine il modello della chemiotassi è stato applicato per descrivere una fase della malattia di Alzheimer ed è stata effettuata un'analisi di stabilità del sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si sono valutate le prestazioni di un sistema di localizzazione multi-antenna di tag radio frequency identification (RFID) passivi in ambiente indoor. Il sistema, composto da un reader in movimento che percorre una traiettoria nota, ha come obiettivo localizzare il tag attraverso misure di fase; più precisamente la differenza di fase tra il segnale di interrogazione, emesso dal reader, e il segnale ricevuto riflesso dal tag che è correlato alla distanza tra di essi. Dopo avere eseguito una ricerca sullo stato dell’arte di queste tecniche e aver derivato il criterio maximum likelihood (ML) del sistema si è proceduto a valutarne le prestazioni e come eventuali fattori agissero sul risultato di localizzazione attraverso simulazioni Matlab. Come ultimo passo si è proceduto a effettuare una campagna di misure, testando il sistema in un ambiente reale. Si sono confrontati i risultati di localizzazione di tutti gli algoritmi proposti quando il reader si muove su una traiettoria rettilinea e su una traiettoria angolare, cercando di capire come migliorare i risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La città di Bologna, la storia, i flussi e le connessioni. Questo progetto di gruppo nasce dalla necessità di ripensare il ruolo dell’infrastruttura nella contemporaneità e nell’atteggiamento che l’architettura può assumere di fronte alle rinnovate priorità delle città italiane che, tra espansione demografica, monumenti e centri storici da preservare, nuove reti di comunicazione e scambio delle informazioni, necessitano sempre più di una pianificazione che prenda in analisi il passato, interpreti il presente e si ponga l’obiettivo primario di dialogare con il futuro. Il capoluogo Emiliano è collocato in una posizione strategica per le comunicazioni d i trasporti, tenendo uniti gli estremi dello stivale e svolgendo un ruolo di snodo a cui oggi la penisola Italiana non può in alcun modo rinunciare. Ogni giorno una quantità spropositata di pendolari e viaggiatori è indotta nella città concentrandosi in un primo momento nell’area della stazione ferroviaria e dei piazzali antistanti, per poi distribuirsi all’interno del tessuto urbano, chi utilizzando il sistema di rete tramviaria, chi a piedi o in bicicletta. L’intento principale del masterplan proposto è quindi valutare un range di informazioni supplementari ai tradizionali studi urbani. Si è notato come le aree più degradate della città (spesso limitrofe ad infrastrutture consegnate al comune senza valutarne l’integrazione e l’impatto urbano e ambientale) manchino di una circolazione costante e di attività. Si è identificato nelle migliaia di soggetti che ogni giorno giungono a Bologna usufruendo dei servizi delle Ferrovie dello Stato la linfa vitale di un’importante parte della città. Poiché progettare per un futuro prossimo è pensare a un presente in grado di accettare i propri limiti e assimilare le aberrazioni del passato, rifacendosi ad un immaginario che non può che sconfinare i paradigmi prefissati che hanno portato ad uno status irrisolto ma non irrisolvibile.