898 resultados para contactless sistema di misura ottico elettrofilatura triangolazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta dell'esplorazione di una possibile interfaccia utente per Smart Glass in un contesto di utilizzo hands-free con elementi virtuali appartenenti ad un sistema di riferimento solidale all'utente e non al dispositivo, e la conseguente realizzazione di un Framework per lo sviluppo di applicazioni Andoid rispondenti a tale interfaccia e relativo test.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi si è analizzato il problema di creare un sistema di assistenza allo shopping integrabile in applicazioni e-commerce web e mobile sviluppate con le tecnologie messe a disposizione da Marketcloud, ovvero un progetto che punta a fornire strumenti per la realizzazione, la manutenzione, la gestione, la diffusione e la pubblicizzazione di tali applicazioni limitando i costi e le problematiche di sviluppo a carico delle aziende che intendono fornire servizi di e-commerce. Dopo aver discusso gli aspetti principali del progetto Marketcloud, sono state analizzate le necessità delle aziende interessate allo sviluppo del sistema di assistenza in esame, così come le aspettative degli utenti (i clienti) finali, ed è stato discusso perché fosse necessario e preferibile, nel caso in esame, non utilizzare soluzioni già presenti sul mercato. Infine, è stata progettata ed implementata un’applicazione web che includesse tale sistema e che fosse immediatamente integrabile tra i servizi già sviluppati da Marketcloud, testandone risultati, prestazioni, problemi e possibili sviluppi futuri. Al termine del lavoro di implementazione, il sistema e l'applicazione garantiscono all'utente finale l'utilizzo di tre funzioni: ricerca per categoria, ricerca libera, recommendation di prodotti. Per gestire la ricerca libera, è stato implementato un sistema di filtri successivi, ed una rete neurale multi-livello dotata di un opportuno algoritmo di machine learning per poter apprendere dalle scelte degli utenti; per la recommendation di prodotti, è stato utilizzato un sistema di ranking (classificazione). Le prestazioni della rete neurale sono state oggetto di attenta analisi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La possibilità di monitorare l’attività degli utenti in un sistema domotico, sia considerando le azioni effettuate direttamente sul sistema che le informazioni ricavabili da strumenti esterni come la loro posizione GPS, è un fattore importante per anticipare i bisogni e comprendere le preferenze degli utenti stessi, rendendo sempre più intelligenti ed autonomi i sistemi domotici. Mentre i sistemi attualmente disponibili non includono o non sfruttano appieno queste potenzialità, l'obiettivo di sistemi prototipali sviluppati per fini di ricerca, quali ad esempio Home Manager, è invece quello di utilizzare le informazioni ricavabili dai dispositivi e dal loro utilizzo per abilitare ragionamenti e politiche di ordine superiore. Gli obiettivi di questo lavoro sono: - Classificare ed elencare i diversi sensori disponibili al fine di presentare lo stato attuale della ricerca nel campo dello Human Sensing, ovvero del rilevamento di persone in un ambiente. - Giustificare la scelta della telecamera come sensore per il rilevamento di persone in un ambiente domestico, riportando metodi per l’analisi video in grado di interpretare i fotogrammi e rilevare eventuali figure in movimento al loro interno. - Presentare un’architettura generica per integrare dei sensori in un sistema di sorveglianza, implementando tale architettura ed alcuni algoritmi per l’analisi video all’interno di Home Manager con l’aiuto della libreria OpenCV .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio, analisi ed implementazione di algoritmi esistenti per la correzione di distorsioni in immagini, con introduzione delle semplificazioni necessarie per la sua realizzazione in dispositivi embedded. Introduzione di nuovi metodi di semplificazione. Calibrazione di una telecamera o un sistema di telecamere stereo con lenti wide angle o fisheye tramite opencv.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il traffico merci e fondamentale per lo sviluppo economico delle societa poiche lo spostamento dei prodotti consente alle aziende di poter fare affidamento su mercati piu ampi permettendo ai consumatori di scegliere fra una piu vasta gamma di prodotti. In questo contesto grande importanza ha assunto l'intermodalita ed in particolare il trasporto combinato strada rotaia; l'interporto risulta essere la struttura piu adatta a promuovere questo sistema di trasporto merci. Questo lavoro di tesi pone l'attenzione sulla gestione dei processi che avvengono all'interno del terminal intermodale dell'interporto Quadrante Europa di Verona. L'elaborato, dopo una descrizione delle caratteristiche operative e funzionali del trasporto intermodale, schematizza le diverse fasi che si susseguono all'interno del terminal, con particolare riferimento alla gestione dei semirimorchi, ai loro tempi di giacenza e alla loro allocazione nelle diverse aree di sosta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito al considerevole aumento della disponibilità di dati GPS e della loro precisione, dovuto alla diffusione e all’evoluzione tecnologica di smartphone e di applicazioni di localizzazione. Il processo di map-matching consiste nell’integrare tali dati - solitamente una lista ordinata di punti, identificati tramite coordinate geografiche ricavate mediante un sistema di localizzazione, come il GPS - con le reti disponibili; nell’ambito dell’ingegneria dei trasporti, l’obiettivo è di identificare il percorso realmente scelto dall’utente per lo spostamento. Il presente lavoro si propone l’obiettivo di studiare alcune metodologie di map-matching per l’identificazione degli itinerari degli utenti, in particolare della mobilità ciclabile. Nel primo capitolo è esposto il funzionamento dei sistemi di posizionamento e in particolare del sistema GPS: ne sono discusse le caratteristiche, la suddivisione nei vari segmenti, gli errori di misurazione e la cartografia di riferimento. Nel secondo capitolo sono presentati i vari aspetti del procedimento di map-matching, le sue principali applicazioni e alcune possibili classificazioni degli algoritmi di map-matching sviluppati in letteratura. Nel terzo capitolo è esposto lo studio eseguito su diversi algoritmi di map-matching, che sono stati testati su un database di spostamenti di ciclisti nell’area urbana di Bologna, registrati tramite i loro smartphone sotto forma di punti GPS, e sulla relativa rete. Si analizzano altresì i risultati ottenuti in un secondo ambiente di testing, predisposto nell’area urbana di Catania, dove sono state registrate in modo analogo alcune tracce di prova, e utilizzata la relativa rete. La comparazione degli algoritmi è eseguita graficamente e attraverso degli indicatori. Vengono inoltre proposti e valutati due algoritmi che forniscono un aggiornamento di quelli analizzati, al fine di migliorarne le prestazioni in termini di accuratezza dei risultati e di costo computazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo della tesi è proporre e motivare l'adozione di un modello computazionale Agent-Based nell'ambito del Self-Management di malattie croniche in un sistema di mobile Health. Viene quindi affrontata in maniera approfondita la tematica del mobile Health, settore in grande espansione che vede l'introduzione massiccia dei dispositivi mobili (smartphone, tablet, PDA) in ambito sanitario, e quella del Self-Managment di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica dei vari approcci computazionali sviluppati. Successivamente vengono presentate le peculiarità dei modelli computazionali risultati dalle ricerche in letteratura strumenti innovati nell'ambito. Nel caso di studio viene adottata la tecnica di modellazione Agent-Based per sviluppare un modello a supporto di malati cronici affetti da diabete mellito di tipo 1. Con la successiva implementazione sulla piattaforma di simulazione MASON, vengono eseguiti diversi esperimenti per dimostrare la fattibilità dell’approccio adottato nell'ambito del Self-Management di malattie croniche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente tesi è stato sviluppato un sistema di acquisizione automatico finalizzato allo studio del breast microwave imaging. Le misure sono state eseguite in configurazione monostatica, in cui viene acquisito un segnale da diverse posizioni lungo il perimetro dell’area di indagine. A questo scopo, è stato installato un motore ad alta precisione che permette la rotazione del fantoccio e l’esecuzione automatica delle misure da un numero di posizioni fissato. Per automatizzare il processo di acquisizione, è stato inoltre sviluppato appositamente un software in ambiente LabView. Successivamente, è stata eseguita una intensa sessione di misure finalizzate alla caratterizzazione del sistema sviluppato al variare delle condizioni di misura. Abbiamo quindi utilizzato dei fantocci di tumore di diverse dimensioni e permittività elettrica per studiare la sensibilità della strumentazione in condizione di mezzo omogeneo. Dall’analisi delle ricostruzioni multifrequenza effettuate tramite diversi algoritmi di tipo TR-MUSIC sul range di frequenze selezionato, abbiamo notato che il tumore è ricostruito correttamente in tutti gli scenari testati. Inoltre, abbiamo creato un ulteriore fantoccio per simulare la presenza di una disomogeneità nel dominio di imaging. In questo caso, abbiamo studiato le performances del sistema di acquisizione al variare della posizione del tumore, le cui caratteristiche sono state fissate, e della permittività associata al fantoccio. Dall’analisi dei risultati appare che le performances di ricostruzione sono condizionate dalla presenza della disomogeneità, in modo particolare se il tumore è posizionato all’interno di essa. Infine, abbiamo studiato delle performance di due algoritmi di ricostruzione 3D: uno di essi è basato sulla sovrappo- sizione tomografica e sfrutta metodi di interpolazione, l’altro si basa sull’utilizzo di un propagatore 3D per il dipolo Hertziano in approssimazione scalare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Sentiment analysis, nata nell'ambito dell’informatica, è una delle aree di ricerca più attive nel campo dell’analisi del linguaggio naturale e si è diffusa ampiamente anche in altri rami scientifici come ad esempio le scienze sociali, l’economia e il marketing. L’enorme diffusione della sentiment analysis coincide con la crescita dei cosiddetti social media: siti di commercio e recensioni di prodotti, forum di discussione, blog, micro-blog e di vari social network. L'obiettivo del presente lavoro di tesi è stato quello di progettare un sistema di sentiment analysis in grado di rilevare e classificare le opinioni e i sentimenti espressi tramite chat dagli utenti della piattaforma di video streaming Twitch.tv. Per impostare ed organizzare il lavoro, giungendo quindi alla definizione del sistema che ci si è proposti di realizzare, sono stati utilizzati vari modelli di analisi in particolare le recurrent neural networks (RNNLM) e sistemi di word embedding (word2vec),nello specifico i Paragraph Vectors, applicandoli, dapprima, su dati etichettati in maniera automatica attraverso l'uso di emoticon e, successivamente, su dati etichettati a mano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'articolo presenta i risultati di una ricerca comparativa tra bambini di 4 e 5 anni appartenenti a due contesti linguistici diversi circa il fenomeno delle alternanze grafo-foniche. Nell'indagine è stato richiesto a 60 bambini (30 argentini e 30 italiani) di scrivere sotto dettatura dell'adulto uno stesso elenco di parole, prima in forma manoscritta e poi con l'uso del pc; e successivamente di confrontare le due versioni. In questo modo è stato possibile cogliere le diverse modalità di risoluzione dei problemi legati alla scrittura degli stessi segmenti sillabici: dall?utilizzo di modalità più stabili, come l?identità totale, ad altre più instabili, come le alternanze. Come già indagato nella lingua spagnola, nei diversi livelli di concettualizzazione, in entrambe le lingue sono state individuate alternanze grafo-foniche molto simili per frequenza e percentuali. Questo fenomeno ci offre maggiori informazioni sulle conoscenze che i bambini possiedono rispetto al sistema di scrittura, poiché riflette il modo in cui essi esplorano e introducono i valori sonori convenzionali, soprattutto nel livello sillabico di concettualizzazione. I risultati indicano, inoltre, che la presenza e l?uso della tastiera del pc non incide in modo significativo sulla maggiore varietà o quantità (numero) di grafemi utilizzati nella produzione digitale rispetto a quella manuale

Relevância:

100.00% 100.00%

Publicador:

Resumo:

CysK, uno degli isoenzimi di O-acetilserina sulfidrilasi (OASS) presenti in piante e batteri, è un enzima studiato da molto tempo ed il suo ruolo fisiologico nella sintesi della cisteina è stato ben definito. Recentemente sono state scoperte altre funzioni apparentemente non collegate alla sua funzione enzimatica (moonlighting). Una di queste è l’attivazione di una tossina ad attività tRNAsica, CdiA-CT, coinvolta nel sistema di inibizione della crescita da contatto (CDI) di ceppi patogeni di E. coli. In questo progetto abbiamo studiato il ruolo di CysK nel sistema CDI e la formazione di complessi con due differenti partner proteici: CdiA-CT e CysE (serina acetiltransferasi, l’enzima che catalizza la reazione precedente nella biosintesi della cisteina). I due complessi hanno le stesse caratteristiche spettrofluorimetriche e affinità molto simili, ma la cinetica di raggiungimento dell’equilibrio per il complesso tossina:CysK è più lenta che per il complesso CysE:CysK (cisteina sintasi). In entrambi i casi la formazione veloce di un complesso d’incontro è seguita da un riarrangiamento conformazionale che porta alla formazione di un complesso ad alta affinità. L’efficienza di formazione del complesso cisteina sintasi è circa 200 volte maggiore rispetto al complesso CysK:tossina. Una differenza importante, oltre alla cinetica di formazione dei complessi, è la stechiometria di legame. Infatti mentre CysE riesce a legare solo uno dei due siti attivi del dimero di CysK, nel complesso con CdiA-CT entrambi i siti attivi dell’enzima risultano essere occupati. Le cellule isogeniche esprimono un peptide inibitore della tossina (CdiI), e sono quindi resistenti all’azione tRNAsica. Tuttavia, siccome CdiI non altera la formazione del complesso CdiA-CT:CysK, CdiA-CT può esercitare comunque un ruolo nel metabolismo della cisteina e quindi nella fitness dei batteri isogenici, attraverso il legame e l'inibizione di CysK e la competizione con CysE. La via biosintetica della cisteina, un precursore di molecole riducenti, risulta essere molto importante per i batteri soprattutto in condizioni avverse come all’interno dei macrofagi nelle infezioni persistenti. Perciò questa via metabolica è di interesse per lo sviluppo di nuovi antibiotici, e in particolare le due isoforme dell’OASS negli enterobatteri, CysK e CysM, sono potenziali target per lo sviluppo di nuove molecole ad azione antibatterica. Partendo dall’analisi delle modalità di interazione con CysK del suo partner ed inibitore fisiologico, CysE, si è studiato dapprima l’interazione di pentapeptidi che mimassero la regione C-terminale di quest'ultimo, e in base ai dati ottenuti sono stati sviluppati piccoli ligandi sintetici. La struttura generale di questi composti è costituita da un gruppo acido ed un gruppo lipofilo, separati da un linker ciclopropanico che mantiene questi due gruppi in conformazione trans, ottimale per l’interazione col sito attivo dell’enzima. Sulla base di queste considerazioni, di docking in silico e di dati sperimentali ottenuti con la tecnica dell’STD-NMR e con saggi di binding spettrofluorimetrici, si è potuta realizzare una analisi di relazione struttura-attività che ha portato via via all’ottimizzazione dei ligandi. Il composto più affine che è stato finora ottenuto ha una costante di dissociazione nel range del nanomolare per entrambe le isoforme, ed è un ottimo punto di partenza per lo sviluppo di nuovi farmaci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.