854 resultados para sistemi, RFID, distanza, lettura, supporto, metallico
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
L'obiettivo della tesi è studiare la dinamica di un random walk su network. Essa è inoltre suddivisa in due parti: la prima è prettamente teorica, mentre la seconda analizza i risultati ottenuti mediante simulazioni. La parte teorica è caratterizzata dall'introduzione di concetti chiave per comprendere i random walk, come i processi di Markov e la Master Equation. Dopo aver fornito un esempio intuitivo di random walk nel caso unidimensionale, tale concetto viene generalizzato. Così può essere introdotta la Master Equation che determina l'evoluzione del sistema. Successivamente si illustrano i concetti di linearità e non linearità, fondamentali per la parte di simulazione. Nella seconda parte si studia il comportamento di un random walk su network nel caso lineare e non lineare, studiando le caratteristiche della soluzione stazionaria. La non linearità introdotta simula un comportamento egoista da parte di popolazioni in interazioni. In particolare si dimostra l'esistenza di una Biforcazione di Hopf.
Resumo:
Un sistema informativo di supporto alle attività del progetto trashware
Resumo:
Un confronto fra metodiche invasive e non invasive per interfacce brain-to-computer (BCI), al corrente stato dell'arte. Un approfondimento sulle applicazioni mediche, in particolare l'uso nelle tecnologie per l'assistenza di pazienti con malattie degenerative del sistema motorio.
Resumo:
Il documento illustra il lavoro di analisi dei requisiti, progettazione, implementazione e valutazione di un sistema per l’autenticazione degli utenti delle workstation della sede di Scienze del Dipartimento di Informatica — Scienza ed Ingegneria (DISI) che si integri al sistema di autenticazione d’Ateneo. Il sistema descritto è entrato in produzione il 24 settembre 2014 ed è tuttora operante. Il lavoro percorre le modalità di gestione degli account utente in uso presso il DISI e le nuove modalità di organizzazione del DSA d’Ateneo discutendo le motivazioni per cui le soluzioni standard non possono essere adottate nel caso esposto. Analizzato il processo di login dei sistemi Unix e le librerie coinvolte verrà esposto il nuovo progetto, le particolarità dello sviluppo delle nuove librerie PAM e di Name Service Switch e la loro modalità di funzionamento e configurazione all’interno del cluster Unix. In conclusione vengono presentate una serie di valutazioni che mostrano i vantaggi e il rispetto dei requisiti della nuova implementazione.
Resumo:
Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.
Uso di 3d slicer in ambito di ricerca clinica: Una revisione critica delle esperienze di riferimento
Resumo:
Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio
Resumo:
L'obbiettivo di questa tesi è svolgere una trattazione semplice ma esauriente degli aspetti essenziali per lo studio delle configurazioni di equilibrio di semplici sistemi meccanici. In particolare l'analisi è volta a far parte del 'Progetto Matematica'; un portale del Dipartimento di Matematica dell'Università di Bologna, il cui scopo, attraverso le tesi di chi vi partecipa, è ''presentare la Matematica del primo biennio delle facoltà scientifiche in maniera interattiva, graduale, multimediale: in una parola, nel modo più amichevole possibile''. L'analisi, dopo alcuni richiami su elementi di base di calcolo vettoriale, si apre con un capitolo che enuncia nozioni e risultati fondamentali di meccanica classica, indispensabili per affrontare il problema dell'equilibrio nell'ambito della statica. Con il secondo capitolo inizia la trattazione delle configurazioni di equilibrio partendo dalla statica del punto materiale per poi passare ai sistemi più complessi costituiti da un numero arbitrario di punti. Per la parte di applicazioni vengono illustrati i due metodi classici di risoluzione: quello basato sulle equazioni cardinali della statica, che oltre ad individuare le configurazioni di equilibrio del sistema consente di determinare anche i corrispondenti valori delle reazioni vincolari, e quello basato sul principio dei lavori virtuali. Vengono poi riportati tre problemi standard la cui risoluzione è svolta attraverso entrambi i metodi per cercare di garantire una più completa comprensione della materia. Per l'esposizione degli argomenti analizzati si è fatto riferimento principalmente ai Trattati: D. Graffi, 'Elementi di Meccanica Razionale', Patron, Bologna 1973; S. Graffi, 'Appunti dalle lezioni di Fisica Matematica II'; a cui si rinvia per ogni ulteriore approfondimento (sulla materia),in particolare riguardo ai dettagli che, per necessità di sintesi, si sono dovuti omettere.
Resumo:
Analisi e applicazione dei processi di data mining al flusso informativo di sistemi real-time. Implementazione e analisi di un algoritmo autoadattivo per la ricerca di frequent patterns su macchine automatiche.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
In questa tesi si vuole fornire una descrizione generale delle dinamiche delle galassie ellittiche e a spirale. Nel primo capitolo si danno informazioni generali sulle grandezze che caratterizzano le galassie e come esse vengono classificate. Nel secondo capitolo si espone il concetto di sistema collisionale, si fa notare come le galassie risultino essere sistemi non collisionali e come questo porti delle semplificazioni nella trattazione di questi oggetti e ne spieghi alcune caratteristiche. Si prosegue andando a considerare le equazioni che descrivono il moto (equazione non collisionale di Boltzmann, equazioni di Jeans, teorema del viriale in forma tensoriale) e le informazioni che si possono ricavare. Nel terzo capitolo ci si concentra sulle galassie ellittiche e sulle principali leggi che le descrivono e dalle quali è possibile ottenere stime riguardo distanza e dimensioni. Il quarto e ultimo capitolo è incentrato sulle galassie a spirale e in particolare sulla dinamica del disco, e come si è giunti all'ipotesi dell'esistenza della materia oscura, e sulla dinamica dei bracci.
Resumo:
Uno dei comparti industriali più importanti nel mondo è senz’altro il settore automobilistico, il quale è oggetto di particolare attenzione da parte dei governi mondiali. Infatti l’automobile è il mezzo sia urbano che extraurbano che è stato perfezionato nel tempo in base alle esigenze dell’uomo, ma bisogna anche evidenziare che in generale il settore dei trasporti è un settore industriale che negli anni non ha portato grandi innovazioni, in quanto presenta ancora la stessa tecnologia di trent’anni fa. Attualmente, grazie alle nuove normative Europee riguardanti la tutela dell’ambiente e le riduzioni di emissioni, si sta passando a nuove forme di alimentazione per ridurre le emissioni di CO2 ed evitare di utilizzare i combustibili fossili. Una valida soluzione è stata attuata attraverso i veicoli completamente elettrici (EV), dato il rendimento energetico nettamente superiore e l’assente emissione di gas inquinanti. Purtroppo gli utenti hanno ancora timore ad utilizzare i veicoli elettrici (EV): ciò avviene soprattutto per mancanza/scarsità di infrastrutture e servizi a supporto degli utenti, provocando nell’utente un’insicurezza che viene più comunemente chiamata “range anxiety” (timore che il EV non abbia autonomia sufficiente per arrivare a destinazione) e generando l’infondata idea che i EV siano utilizzabili solo in città o per i tragitti brevi. In questo documento è proposta un’applicazione la quale sarà in grado di ridurre i problemi relativi a “Driving without anxiety”. In particolare tale applicazione è in grado di rilevare la velocità media e l’accelerazione sul tratto di strada che si sta percorrendo. Attraverso il servizio di Google Direction si richiede la velocità media stimata sul medesimo tratto. L’applicazione confronta il valore reale ed il valore medio stimato, ed in base a quello fornisce una classificazione dello stile di guida dell’utente (es. Aggressivo); fornisce una stima dell’energia consumata sul tratto percorso, inserendo nel calcolo dell’energia un parametro che consente di tener conto dello stile di guida, determinato al passo precedente.
Resumo:
Le tecniche di imaging al seno per la rilevazione di tumori stanno interessando un notevole numero di gruppi di ricerca in campo biomedico soprattutto negli ultimi anni. In particolare si cercano metodologie innovative in quanto le attuali tecniche già sviluppate e utilizzate in campo clinico, mammografia a raggi X e risonanza magnetica (MRI), presentano alcuni limiti. Questa tesi si focalizzerà in particolare su una di queste tecniche emergenti: l’imaging a microonde (MWI). Questo metodo infatti, limita notevolmente i costi, evita disagi per la paziente come la compressione del seno, penetra in modo ottimale nei tessuti e non li ionizza. La MWI si basa sulle diverse proprietà dielettriche, permittività e conduttività, dei vari tessuti che costituiscono la mammella, in particolare tra tessuto sano e maligno. Lo scopo di questa tesi è quello di analizzare tali proprietà dielettriche, le diversità che i vari tessuti presentano e come tutto ciò venga sfruttato per ottenere l’imaging della mammella. In particolare questo lavoro si propone di riportare e analizzare i principali studi sui tessuti biologici della mammella compiuti nel corso degli anni riguardo queste proprietà dielettriche e i rispettivi risultati ottenuti. Si tratteranno inoltre i mezzi di accoppiamento: soluzioni in cui è immerso l’assetto antenne-oggetto che minimizzano la riflessione del segnale sulla pelle e assicurano una migliore qualità di immagine.
Resumo:
In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.