17 resultados para Automatic call detector
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Towards model driven software development for Arduino platforms: a DSL and automatic code generation
Resumo:
La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.
Resumo:
The central objective of research in Information Retrieval (IR) is to discover new techniques to retrieve relevant information in order to satisfy an Information Need. The Information Need is satisfied when relevant information can be provided to the user. In IR, relevance is a fundamental concept which has changed over time, from popular to personal, i.e., what was considered relevant before was information for the whole population, but what is considered relevant now is specific information for each user. Hence, there is a need to connect the behavior of the system to the condition of a particular person and his social context; thereby an interdisciplinary sector called Human-Centered Computing was born. For the modern search engine, the information extracted for the individual user is crucial. According to the Personalized Search (PS), two different techniques are necessary to personalize a search: contextualization (interconnected conditions that occur in an activity), and individualization (characteristics that distinguish an individual). This movement of focus to the individual's need undermines the rigid linearity of the classical model overtaken the ``berry picking'' model which explains that the terms change thanks to the informational feedback received from the search activity introducing the concept of evolution of search terms. The development of Information Foraging theory, which observed the correlations between animal foraging and human information foraging, also contributed to this transformation through attempts to optimize the cost-benefit ratio. This thesis arose from the need to satisfy human individuality when searching for information, and it develops a synergistic collaboration between the frontiers of technological innovation and the recent advances in IR. The search method developed exploits what is relevant for the user by changing radically the way in which an Information Need is expressed, because now it is expressed through the generation of the query and its own context. As a matter of fact the method was born under the pretense to improve the quality of search by rewriting the query based on the contexts automatically generated from a local knowledge base. Furthermore, the idea of optimizing each IR system has led to develop it as a middleware of interaction between the user and the IR system. Thereby the system has just two possible actions: rewriting the query, and reordering the result. Equivalent actions to the approach was described from the PS that generally exploits information derived from analysis of user behavior, while the proposed approach exploits knowledge provided by the user. The thesis went further to generate a novel method for an assessment procedure, according to the "Cranfield paradigm", in order to evaluate this type of IR systems. The results achieved are interesting considering both the effectiveness achieved and the innovative approach undertaken together with the several applications inspired using a local knowledge base.
Resumo:
In this report a new automated optical test for next generation of photonic integrated circuits (PICs) is provided by the test-bed design and assessment. After a briefly analysis of critical problems of actual optical tests, the main test features are defined: automation and flexibility, relaxed alignment procedure, speed up of entire test and data reliability. After studying varied solutions, the test-bed components are defined to be lens array, photo-detector array, and software controller. Each device is studied and calibrated, the spatial resolution, and reliability against interference at the photo-detector array are studied. The software is programmed in order to manage both PIC input, and photo-detector array output as well as data analysis. The test is validated by analysing state-of-art 16 ports PIC: the waveguide location, current versus power, and time-spatial power distribution are measured as well as the optical continuity of an entire path of PIC. Complexity, alignment tolerance, time of measurement are also discussed.
Resumo:
L’incidente stradale è la conseguenza di uno o più errori all'interno di un sistema complesso, in cui l'uomo rappresenta la principale causa d’incidentalità. Spesso ciò che può apparire a una prima analisi un errore dell’utente, in realtà può essere collegato a problemi di progettazione e gestione dell’infrastruttura. Per massimizzare i risultati nel campo della sicurezza stradale, occorre valutare il “sistema strada” in ogni suo elemento. Per raggiungere questi obiettivi le analisi di sicurezza giocano un ruolo fondamentale. Il Road Safety Review consente di individuare nel tracciato la presenza di situazioni di rischio, in modo tale da eliminarli o attenuarli prima che diano luogo ad incidenti. Il Ministero delle Infrastrutture e dei Trasporti ha emanato le "Linee guida per la gestione della sicurezza delle infrastrutture stradali". Secondo queste Linee Guida l'uomo detiene un ruolo centrale nel sistema. L'uomo deve adattare il suo comportamento, in funzione del veicolo condotto e delle condizioni ambientali. Diventa indispensabile integrare le analisi di sicurezza con il fattore uomo. Obiettivo della tesi è analizzare la sicurezza di un’infrastruttura viaria esistente integrando i risultati ottenuti dal Road Safety Review con metodologie innovative che tengano conto del comportamento degli utenti durante la guida. È stata realizzata una sperimentazione in sito che ha coinvolto un campione formato da 6 soggetti. Ognuno di essi ha percorso il tronco stradale, della SP26 "Valle del Lavino", in provincia di Bologna. La strada, richiede interventi di adeguamento e messa in sicurezza poiché risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. La sperimentazione ha previsto due fasi: la prima, in cui è stato condotto il Road Safety Review . La seconda, in cui ogni soggetto ha guidato lungo il tronco stradale, indossando il Mobile Eye-XG, un'innovativa strumentazione eye tracking in grado di tracciare l’occhio umano e i suoi movimenti.
Resumo:
Lo studio effettuato si inserisce all’interno di una collaborazione tra il DICAM e la Provincia di Bologna ed ha come obiettivo l’analisi di sicurezza della SP26 “Valle del Lavino”, poichè risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. Il rapporto di analisi redatto a seguito del Road Safety Review ha infatti evidenziato numerosi deficit in termini di sicurezza dell’infrastruttura, tra cui gli attraversamenti pedonali. Obiettivo specifico della tesi è stato quello di valutare lo stato attuale di sicurezza degli attraversamenti pedonali presenti lungo il tracciato stradale in esame, in maniera tale da individuare, sulla base di una correlazione fra l’ubicazione degli attraversamenti stessi e il comportamento degli utenti alla guida dei veicoli, le intersezioni pedonali più gravosi, che per questo, in un piano di riqualifica della tratta stradale, richiederebbero opportuni interventi di adeguamento e messa in sicurezza. Con questa finalità è stata programmata ed eseguita una campagna di prove su strada che ha coinvolto un campione di 10 utenti, aventi determinati requisiti di base, del tutto ignari dell’obiettivo che si voleva perseguire e inesperti del tracciato di prova. La sperimentazione ha previsto l’impiego, fondamentale, di metodologie innovative, quali il V-Box e il Mobile Eye Detector, in grado di tener conto del comportamento degli utenti alla guida: il primo permette di rilevare l’andamento delle velocità dei partecipanti lungo il tracciato, il secondo restituisce il tracciamento del punto di vista del conducente alla guida. A ciascun partecipante è stato richiesto di condurre un veicolo, non di loro proprietà, per l’intero tratto della SP26 posto esame, compreso tra la progressiva 0+000, in comune di Zola Predosa, e la progressiva 19+200, in località Badia (comune di Monte San pietro), in andata e in ritorno per un complessivo di 38,4 km di tracciato da esaminare. Al conducente alla guida è stato richiesto di indossare durante tutta la guida l’occhiale Mobile Eye mentre l’auto di prova è stata dotata della strumentazione V-Box.
Resumo:
In questa tesi viene seguito il lavoro di test delle schede ROD del layer 2 del Pixel Detector dell’ esperimento ATLAS, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Le schede ROD andranno a sostituire le precedenti schede SiROD nella catena di acquisizione dati dell’esperimento, procedendo dal nuovo strato IBL, e proseguendo con i tre layer del Pixel Detector, corroborando l’aggiornamento tecnologico e prestazionale necessario in vista dell’incremento di luminosità dell’esperimento.
Resumo:
Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
Il lavoro descrive la progettazione, l'implementazione e il test sperimentale di un meccanismo, integrato nel kernel Linux 4.0, dedicato al riconoscimento delle perdite dei frame Wi-Fi.
Resumo:
Durante il Long Shutdown 1 di LHC sono stati cambiati i fotomoltiplicatori del rivelatore di luminosità LUCID di ATLAS. I due modelli candidati per la sostituzione sono stati sottoposti a test di resistenza alla radiazione di gamma e neutroni. In questa tesi si riportano i risultati delle misure di dark current, risposta spettrale, guadagno relativo e assoluto, prima e dopo l’irraggiamento con neutroni. L’unica differenza di rilievo riguarda un aumento della dark current, gli altri parametri non presentano variazioni entro la precisione delle misure. Non ci sono differenze sostanziali tra i due modelli per quanto riguarda la resistenza alle radiazioni.
Resumo:
The main purpose of ultrarelativistic heavy-ion collisions is the investigation of the QGP. The ALICE experiment situated at the CERN has been specifically designed to study heavy-ion collisions for centre-of-mass energies up to 5.5 per nucleon pair. Extended particle identification capability is one of the main characteristics of the ALICE experiment. In the intermediate momentum region (up to 2.5 GeV/c for pi/K and 4 GeV/c for K/p), charged particles are identified in the ALICE experiment by the Time of Flight (TOF) detector. The ALICE-TOF system is a large-area detector based on the use of Multi-gap Resistive Plate Chamber (MRPC) built with high efficiency, fast response and intrinsic time resolution better than 40 ps. This thesis work, developed with the ALICE-TOF Bologna group, is part of the efforts carried out to adapt the read-out of the detector to the new requirements after the LHC Long Shutdown 2. Tests on the feasibility of a new read-out scheme for the TOF detector have been performed. In fact, the achievement of a continuous read-out also for the TOF detector would not be affordable if one considers the replacement of the TRM cards both for hardware and budget reasons. Actually, the read-out of the TOF is limited at 250 kHz i.e. it would be able to collect up to just a fourth of the maximum collision rate potentially achievable for pp interactions. In this Master’s degree thesis work, I discuss a different read-out system for the ALICE-TOF detector that allows to register all the hits at the interaction rate of 1 MHz foreseen for pp interactions after the 2020, by using the electronics currently available. Such solution would allow the ALICE-TOF detector to collect all the hits generated by pp collisions at 1 MHz interaction rate, which corresponds to an amount four times larger than that initially expected at such frequencies with the triggered read-out system operated at 250 kHz for LHC Run 3. The obtained results confirm that the proposed read-out scheme is a viable option for the ALICE TOF detector. The results also highlighted that it will be advantageous if the ALICE-TOF group also implement an online monitoring system of noisy channels to allow their deactivation in real time.
Resumo:
Lo studio presentato in questo elaborato è stato sviluppato con la finalità di studiare il comportamento visivo del ciclista, in ambiente urbano, in modo tale da studiare i principali fattori che ne influenzano la guida. La prova è stata condotta mediante il contributo del mobile-eye detector, un dispositivo progettato per il monitoraggio ed il tracciamento dei movimenti oculari. In questo studio ci si è concentrati in particolar modo sulla strategia visiva del ciclista nel caso di pista ciclabile bidirezionale su marciapiede, con presenza di lievi discontinuità della carreggiata e presenza di intersezioni a raso. Lo studio è stato condotto esaminando prima i dati delle fissazioni a livello macroscopico definendo due aree di interesse e poi esaminando le fissazioni su ogni singola interferenza.
Resumo:
Real living cell is a complex system governed by many process which are not yet fully understood: the process of cell differentiation is one of these. In this thesis work we make use of a cell differentiation model to develop gene regulatory networks (Boolean networks) with desired differentiation dynamics. To accomplish this task we have introduced techniques of automatic design and we have performed experiments using various differentiation trees. The results obtained have shown that the developed algorithms, except the Random algorithm, are able to generate Boolean networks with interesting differentiation dynamics. Moreover, we have presented some possible future applications and developments of the cell differentiation model in robotics and in medical research. Understanding the mechanisms involved in biological cells can gives us the possibility to explain some not yet understood dangerous disease, i.e the cancer. Le cellula è un sistema complesso governato da molti processi ancora non pienamente compresi: il differenziamento cellulare è uno di questi. In questa tesi utilizziamo un modello di differenziamento cellulare per sviluppare reti di regolazione genica (reti Booleane) con dinamiche di differenziamento desiderate. Per svolgere questo compito abbiamo introdotto tecniche di progettazione automatica e abbiamo eseguito esperimenti utilizzando vari alberi di differenziamento. I risultati ottenuti hanno mostrato che gli algoritmi sviluppati, eccetto l'algoritmo Random, sono in grado di poter generare reti Booleane con dinamiche di differenziamento interessanti. Inoltre, abbiamo presentato alcune possibili applicazioni e sviluppi futuri del modello di differenziamento in robotica e nella ricerca medica. Capire i meccanismi alla base del funzionamento cellulare può fornirci la possibilità di spiegare patologie ancora oggi non comprese, come il cancro.