898 resultados para contactless sistema di misura ottico elettrofilatura triangolazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

1_analisi sul territorio della bassa pianura modenese nell'area compresa tra Bomporto e Camposanto 2_abaco dei criteri di intervento per la ricostruzione post sisma, diviso su tre livelli: infrastrutture, architettura e paesaggio 3_masterplan e progetto di un percorso ciclo-pedonale sull'argine del fiume Panaro (centro abitato, corti crollate, corti produttivamente attive, sistema di edifici crollati, conservati e riconvertiti, interruzione del percorso, mitigazione delle infrastrutture, stazione ferroviaria)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il teorema del viriale consiste in una relazione tra energia cinetica e energia potenziale totali di un sistema all'equilibrio. Il concetto di Viriale (dal latino vires, plurale di vis, 'forza') è stato introdotto dal fisico e matematico tedesco Rudolf Julius Emanuel Clausius (1822-1888) per indicare la quantità N
Fi •xi i=1 che rappresenta la somma, fatta su tutte le N particelle di un sistema, dei prodotti scalari del vettore forza totale agente su ciascuna particella per il vettore posizione della particella stessa, rispetto ad un riferimento inerziale scelto. Tale quantità altro non è che un'energia potenziale. Dire che un sistema di particelle è virializzato equivale a dire che esso è stazionario, cioè all'equilibrio. In questo elaborato sono di nostro interesse sistemi astrofisici gravitazionali, in cui cioè l'energia potenziale sia dovuta solo a campi gravitazionali. Distingueremo innanzitutto sistemi collisionali e non collisionali, introducendo i tempi scala di attraversamento e di rilassamento. Dopo una trattazione teorica del teorema, nell'approssimazione di continuità - per cui sostuiremo alle sommatorie gli integrali - e di non collisionalità, an- dremo a studiarne l'importanza in alcuni sistemi astrofisici: applicazione agli ammassi stellari, alle galassie e agli ammassi di galassie, stima della quantità di materia oscura nei sistemi, instabilità di Jeans in nubi molecolari, rotazione delle galassie ellittiche. Per ragioni di spazio non saranno affrontati altri casi, di cui ne citiamo alcuni: collasso delle stelle, stima della massa dei buchi neri al centro delle galassie, 'mass-to-light ratio' di sistemi sferici. Parleremo in generale di “particelle” costituenti i sistemi per intendere stelle, galassie, particelle di gas a seconda del sistema in esame. Trascureremo in ogni caso le influenze gravitazionali di distribuzioni di densità esterne al sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si valutano le modalità di gestione ambientale all'interno di un'organizzazione sanitaria, affinché questa possa essere definita ecoefficiente. Per organizzazione ecoefficiente si intende un'impresa in grado di fornire un servizio di qualità per gli utenti, limitando il suo impatto ambientale applicando sistemi di gestione e politiche ambientali corrette. In questo modo la gestione 'green' porterà all'ente ospedaliero dei vantaggi di tipo economico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il compressed sensing è un’innovativa tecnica per l’acquisizione dei dati, che mira all'estrazione del solo contenuto informativo intrinseco di un segnale. Ciò si traduce nella possibilità di acquisire informazione direttamente in forma compressa, riducendo la quantità di risorse richieste per tale operazione. In questa tesi è sviluppata un'architettura hardware per l'acquisizione di segnali analogici basata sul compressed sensing, specializzata al campionamento con consumo di potenza ridotto di segnali biomedicali a basse frequenze. Lo studio è svolto a livello di sistema mediante l'integrazione della modulazione richiesta dal compressed sensing in un convertitore analogico-digitale ad approssimazioni successive, modificandone la logica di controllo. Le prestazioni risultanti sono misurate tramite simulazioni numeriche e circuitali. Queste confermano la possibilità di ridurre la complessità hardware del sistema di acquisizione rispetto allo stato dell'arte, senza alterarne le prestazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La rituale ciclicità del cielo ed il mistero degli eventi che in esso accadono hanno portato tutte le popolazioni della Terra ad osservarlo e studiarlo fin dai tempi più remoti. È solo con l'avvento del telescopio però, che si viene a conoscenza di una gran moltitudine di oggetti celesti. I primi strumenti ottici in uso erano telescopi rifrattori. Questi presentavano un problema: l’aberrazione cromatica, che oggi sappiamo può essere parzialmente risolta utilizzando obiettivi a doppietto o tripletto acromatico. All’epoca per ovviare il problema, Newton, decise di utilizzare un sistema di specchi curvi e nel 1668 costruì il primo telescopio riflettore. L’era dei grandi telescopi riflettori iniziò nel 18° secolo. Uno dei più grandi telescopi costruiti all’epoca aveva una superficie ottica di circa 122 cm di diametro. Nel creare telescopi di dimensioni maggiori, ci si imbatte in vari problemi. La soluzione adottata nella costruzione di grandi telescopi fino agli anni '80, fu quella di costruire un imponente blocco monolitico come specchio primario. Questo portò alla costruzione di enormi e pesanti telescopi che si dovevano muovere con alta precisione. Spinti al limite delle capacità progettuali e costruttive dell'epoca, nacque un nuovo concetto costruttivo dei telescopi. Si passò da uno strumento passivo ad un sistema attivo, in cui la qualità dell'ottica era ottenuta da un controllo elettronico di strutture deformabili. Con l’ottica attiva fu possibile costruire telescopi di dimensioni sempre maggiori. Tuttavia ci si imbatte in un ulteriore problema: la qualità dell’immagine è degradata dalla turbolenza atmosferica. In questo trattato mi propongo di descrivere una recente tecnica di correzione per rimuovere le distorsioni del fronte d'onda causate dalla turbolenza: l’ottica adattiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elevato consumo e il limitato tasso di rimozione dei farmaci favoriscono l’entrata di questi composti, biologicamente attivi, nell’ambiente acquatico. Essendo continuamente aggiunti, più velocemente di quanto si degradino, tali sostanze diventano pseudo-persistenti nell’ambiente, e gli organismi acquatici possono risultarne esposti a lungo termine. Per limitare gli effetti avversi di ambienti inquinanti, gli organismi più resistenti hanno sviluppato vari meccanismi di protezione cellulare, fra cui il sistema denominato Multixenobiotic resistance (MXR). Tale meccanismo agisce da sistema di detossificazione attraverso l’azione di specifici trasportatori transmembrana quali la P-glicoproteina (Pgp) e la Multidrug Resistance-associated Protein (MRP). Questi, codificati rispettivamente dai prodotti genici ABCB e ABCC, favorendo l’efflusso attivo di composti tossici, prevengono il loro accumulo cellulare e, dunque, i loro potenziali effetti dannosi. Tuttavia, alcune sostanze possono influenzare questo delicato meccanismo, esponendo gli organismi acquatici agli effetti tossici degli inquinanti. In questo lavoro di Tesi è stato condotto uno studio sperimentale in vitro volto a determinare i possibili effetti dell’antidepressivo fluoxetina (FX), dell’antiepilettico carbamazepina (CBZ) e del β-bloccante propranololo (PROP) sul meccanismo MXR, in emociti di Mytilus galloprovincialis. In particolare si è valutata l’azione di questi farmaci sulla funzionalità dei trasportatori e/o sulla modulazione trascrizionale. I risultati ottenuti hanno dimostrato l’importante effetto del PROP, della CBZ e della FX sul sistema MXR. In particolare, il PROP e la CBZ alterano tale sistema, agendo, principalmente, sui livelli di espressione del prodotto genico ABCB, nonostante influenzino anche i livelli di ABCC. La FX, invece, non porta ad alterazioni dell’attività MXR totale, sebbene induca variazioni sui livelli di espressione di ABCB. In conclusione, le analisi dei profili trascrizionali dimostrano che la proteina predominante nell’efflusso di tali contaminanti negli emociti di M. galloprovincialis è la P-glicoproteina e che le variazioni dell’attività MXR osservate in questa Tesi sono il risultato combinato dell’azione dei farmaci analizzati come modulatori trascrizionali e come substrati da parte dei trasportatori MXR.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi viene presentata una introduzione generale all'Internet of Things, gli utilizzi che ne vengono fatti attualmente e le eventuali modifiche che verranno apportate in futuro, inoltre vengono presentati i problemi che ne derivano e le soluzioni che attualmente risolvono questi problemi. E' presente una introduzione al protocollo presentato da IBM MQTT che attualmente rappresenta uno standard in questo campo. In seguito vengono mostrati i requisiti e le fasi di progettazione di un sistema domotico, quali sono i suoi principali utilizzi quali i vantaggi e i suoi svantaggi. E' presente una introduzione ai dispositivi maggiormente usati per la realizzazione di sistemi del genere, con le loro caratteristiche, in particolare di dispositivi Arduino e Raspberry Pi. Viene mostrato l'uso del protocollo mqtt per la comunicazione tra dispositivi Raspberry Pi e client Android. In fine viene mostrata una realizzazione di un sistema di domotica attraverso l'uso di questo protocollo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è la riqualificazione energetica e funzionale della scuola d’infanzia e primaria Clotilde Tambroni di Bologna. L'intervento progettato ha posto particolare attenzione al comfort interno, al miglioramento del benessere ambientale interno, all'abbattimento dei fabbisogni energetici e dei costi di gestione e alla riduzione delle emissioni inquinanti. In seguito ad un’analisi accurata, che ha registrato anche le opinioni degli utenti, si sono individuate criticità importanti e acuti livelli insoddisfazione. In particolare riguardo il comfort interno, l’accessibilità della struttura, la fruibilità e la qualità degli spazi, le dotazioni carenti (servizi igienici, servizi per disabili). Altre gravi criticità riguardano lo spazio esterno, quasi per nulla sfruttato e poco curato. Anche le prestazioni energetiche, valutate con il software Termolog EpiX5, sono risultate molto scarse: l’edificio si colloca in classe energetica E, con elevati livelli di consumi e conseguenti costi, dovuti soprattutto all’inefficienza del sistema di regolazione dell’impianto di riscaldamento, alla mancanza di isolamento delle pareti perimetrali e agli infissi adeguati. Sulla base di questa diagnosi, le strategie di progetto sono state definite puntando a risolvere o perlomeno migliorare tutte le criticità rilevate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è la riqualificazione sostenibile dell’edificio ospitante la Scuola secondaria di I grado “Il Guercino”, sita all’interno del quartiere Savena, nel Comune di Bologna, ai confini con quello di San Lazzaro di Savena. L’edificio, esito di un modo di fare architettura legato ad un contesto storico e professionale precisamente definito (quello dell’amministrazione pubblica bolognese nel quindicennio 1970-’85), presenta principi compositivi e soluzioni tecnologiche non scontate e per certi versi pregevoli, se contestualizzate nel momento della sua realizzazione. L’intervento di riqualificazione progettato affronta in primo luogo la riorganizzazione funzionale dell’edificio (anche attraverso un ampliamento) e del sistema delle accessibilità, oggi inadeguati rispetto alle esigenze degli utenti e alle prescrizioni normative. Particolare attenzione è stata dedicata alla possibilità di rendere l’edificio il più possibile fruibile ai portatori di handicap, aspetto non più trascurabile, soprattutto all’interno di un istituto scolastico. In secondo luogo il progetto si occupa del retrofit energetico realizzato tramite alcuni interventi mirati, quali la sostituzione del sistema di involucro verticale e di quello impiantistico: in tal modo si è passati da una classe di prestazione energetica F ad una classe di prestazione energetica A, rendendo sostenibile il consumo energetico e migliorando sensibilmente il livello di comfort degli occupanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel corso di questa tesi si svilupperà il metodo del Beam-forming acustico, uno dei più semplici algoritmi di elaborazione segnale che permette di isolare spazialmente un suono proveniente da una precisa direzione decisa da noi, creando quindi un microfono super-direzionale orientabile a partire da un array microfonico di caratteristiche note. Inoltre si implementerà in modo pratico l'algoritmo per descrivere il livello sonoro emesso da ogni punto di una sorgente sonora estesa in modo da mappare l'intensità di quest'ultima in un'immagine 2D da sovrapporre all'immagine stessa dell'oggetto. Volendo schematizzare in breve questa tesi, essa è composta da una prima parte teorica contenente gli argomenti che ci servono per descrivere lo spazio acustico e le onde acustiche, una seconda parte riguardante i microfoni e i suoi vari parametri, una terza parte riguardante la teoria sull'elaborazione segnale nel dominio del tempo e delle frequenze e in particolare cenni sulla trasformata di Fourier. Nella parte successiva verranno descritti i due principali metodi di Beam-forming acustico trattando sia gli apparati di misura sia i due algoritmi, facendo sempre riferimento alle parti di teoria necessarie alla spiegazione del metodo. Infine nell'ultima parte della tesi verrà discusso in primo luogo la creazione del microfono virtuale, in particolare parleremo della sua sensibilità in funzione della direzione avvalendoci di uno schema che in letteratura viene denominato Beam-pattern, in secondo luogo parleremo di come creare la mappa 2D dove effettivamente possiamo vedere l'intensità sonora dell'onda proveniente da ogni punto dell'oggetto preso in considerazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In CMS è stato lanciato un progetto di Data Analytics e, all’interno di esso, un’attività specifica pilota che mira a sfruttare tecniche di Machine Learning per predire la popolarità dei dataset di CMS. Si tratta di un’osservabile molto delicata, la cui eventuale predizione premetterebbe a CMS di costruire modelli di data placement più intelligenti, ampie ottimizzazioni nell’uso dello storage a tutti i livelli Tiers, e formerebbe la base per l’introduzione di un solito sistema di data management dinamico e adattivo. Questa tesi descrive il lavoro fatto sfruttando un nuovo prototipo pilota chiamato DCAFPilot, interamente scritto in python, per affrontare questa sfida.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

PhEDEx, the CMS transfer management system, during the first LHC Run has moved about 150 PB and currently it is moving about 2.5 PB of data per week over the Worldwide LHC Computing Grid (WLGC). It was designed to complete each transfer required by users at the expense of the waiting time necessary for its completion. For this reason, after several years of operations, data regarding transfer latencies has been collected and stored into log files containing useful analyzable informations. Then, starting from the analysis of several typical CMS transfer workflows, a categorization of such latencies has been made with a focus on the different factors that contribute to the transfer completion time. The analysis presented in this thesis will provide the necessary information for equipping PhEDEx in the future with a set of new tools in order to proactively identify and fix any latency issues. PhEDEx, il sistema di gestione dei trasferimenti di CMS, durante il primo Run di LHC ha trasferito all’incirca 150 PB ed attualmente trasferisce circa 2.5 PB di dati alla settimana attraverso la Worldwide LHC Computing Grid (WLCG). Questo sistema è stato progettato per completare ogni trasferimento richiesto dall’utente a spese del tempo necessario per il suo completamento. Dopo svariati anni di operazioni con tale strumento, sono stati raccolti dati relativi alle latenze di trasferimento ed immagazzinati in log files contenenti informazioni utili per l’analisi. A questo punto, partendo dall’analisi di una ampia mole di trasferimenti in CMS, è stata effettuata una suddivisione di queste latenze ponendo particolare attenzione nei confronti dei fattori che contribuiscono al tempo di completamento del trasferimento. L’analisi presentata in questa tesi permetterà di equipaggiare PhEDEx con un insieme di utili strumenti in modo tale da identificare proattivamente queste latenze e adottare le opportune tattiche per minimizzare l’impatto sugli utenti finali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.