354 resultados para Reale Istituto veneto di scienze, lettere ed arti (Venice, Italy)
Resumo:
In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.
Resumo:
Il lavoro si pone l’obiettivo di studiare in modo approfondito il fenomeno del ritiro del calcestruzzo, in un primo momento come fenomeno fisico verificandone gli effetti su elementi strutturali semplici, per poi approfondire in un secondo momento gli effetti indotti su una struttura reale, nello specifico su un impalcato da ponte a sezione mista. Tramite questo percorso di studio articolato in fasi di studio prettamente teoriche, seguite dall’analisi del fenomeno su modelli realizzati con software FEM, si vuole indagare il fenomeno del ritiro del calcestruzzo dal punto di vista fisico, capire l’entità delle azioni che si manifestano nelle strutture come effetto di tale fenomeno ed infine valutare se effettivamente il ritiro abbia rilevanza pratica solo nell’ambito delle verifiche allo Stato Limite di Esercizio.
Resumo:
Nel redarre la tesi si è perseguito l'intento di illustrare la teoria alla base delle onde gravitazionali e dei metodi che ne consentono la rivelazione. È bene tenere presente che con il seguente elaborato non si sta proponendo, in alcun modo, una lettura da sostituire ad un testo didattico. Pur tuttavia, si è cercato di presentare gli argomenti in maniera tale da emulare l'itinerario formativo di uno studente che, per la prima volta, si approcci alle nozioni, non immediatamente intuitive, ivi descritte. Quindi, ogni capitolo è da interpretarsi come un passo verso la comprensione dei meccanismi fisici che regolano produzione, propagazione ed infine rivelazione delle perturbazioni di gravità. Dopo una concisa introduzione, il primo capitolo si apre con il proposito di riepilogare i concetti basilari di geometria differenziale e relatività generale, gli stessi che hanno portato Einstein ad enunciare le famose equazioni di campo. Nel secondo si introduce, come ipotesi di lavoro standard, l'approssimazione di campo debole. Sotto questa condizione al contorno, per mezzo delle trasformazioni dello sfondo di Lorentz e di gauge, si manipolano le equazioni di Einstein, ottenendo la legge di gravitazione universale newtoniana. Il terzo capitolo sfrutta le analogie tra equazioni di campo elettromagnetiche ed einsteiniane, mostrando con quanta naturalezza sia possibile dedurre l'esistenza delle onde gravitazionali. Successivamente ad averne elencato le proprietà, si affronta il problema della loro propagazione e generazione, rimanendo sempre in condizioni di linearizzazione. È poi la volta del quarto ed ultimo capitolo. Qui si avvia una dissertazione sui processi che acconsentono alla misurazione delle ampiezze delle radiazioni di gravità, esibendo le idee chiave che hanno condotto alla costruzione di interferometri all'avanguardia come LIGO. Il testo termina con uno sguardo alle recenti scoperte e alle aspettative future.
Resumo:
La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.
Resumo:
La tesi di laurea è stata svolta presso l’Università di Scienze Applicate di Rosenheim, in Germania; il progetto di ricerca si basa sulla tecnica di rinforzo conosciuta come “Soil Nailing”, che consiste nella costruzione di un’opera di sostegno nella realizzazione di pareti di scavo o nel consolidamento di versanti instabili. L’obiettivo principale dell’elaborato sarà quello di valutare la fattibilità dell’impiego di tubi fabbricati con legno di faggio, in sostituzione dei chiodi d’acciaio comunemente utilizzati; la scelta di questo tipo di legno è dettata dalla larga disponibilità presente in Germania. La sollecitazione principale su tali tubi sarà di trazione parallela alla fibratura, tramite test sperimentali è stato possibile valutare tale resistenza nelle diverse condizioni in cui si verrà a trovare il tubo dopo l’installazione nel terreno. A tal proposito è necessario specificare che, l’indagine per risalire all’influenza che le condizioni ambientali esercitano sull’elemento, verrà condotta su provini costituiti da un singolo strato di legno; in tal modo si può apprezzare l’influenza direttamente sull’elemento base e poi risalire al comportamento globale. I dati ottenuti dall’indagine sperimentale sono stati elaborati tramite la teoria di Weibull, largamente utilizzata in tecnologia dei materiali per quanto riguarda materiali fragili come il legno; tali distribuzioni hanno permesso la determinazione della resistenza caratteristica dei provini per ogni condizione ambientale d’interesse. Per quanto riguarda la valutazione della fattibilità dell’uso di tubi in legno in questa tecnica di consolidamento, è stato eseguito il dimensionamento del tubo, utilizzando i dati a disposizione ottenuti dall’indagine sperimentale eseguita; ed infine sono state eseguite le verifiche di stabilità dell’intervento.
Resumo:
In questo lavoro verra presentata la realizzazione e la caratterizzazione di transistor organici basati su un polimero conduttore, il poli(3,4-etilenediossitiofene) polistirene sulfonato, o PEDOT:PSS. Tali transistor rientrano nella categoria degli OECT o transistor elettrochimici organici e hanno la capacita di poter rilevare ed analizzare sostanze chimiche di diverso genere presenti in soluzione. I dispositivi implementati in questa tesi sono stati ottenuti tramite la deposizione del materiale organico conduttivo su substrato tessile al fine di creare un device completamente integrabile in un capo di abbigliamento o in un qualsiasi utilizzo in campo tessile. In particolare questi transistor sono stati studiati per la rilevazione di sostanze quali acido ascorbico, dopamina e adrenalina. Gli ultimi due analiti sono di importanza particolare poiche facenti parte della famiglia dei neurotrasmettitori. Inoltre in questa tesi sono stati creati fili di cotone conduttivi, sempre tramite l'utilizzo di PEDOT:PSS. Tali fili infatti sono risultati ottimi candidati per il trasporto di un segnale elettrico e per questo sono stati implementati nella costruzione di un OECT. La realizzazione dei fili conduttivi potra permettere un ulteriore avanzamento nella completa integrabilita dell'elettronica con il settore tessile. Una peculiarita aggiuntiva di questo lavoro e stata quella di utilizzare il sudore artificiale come elettrolita, oltre al normale PBS che costituisce ormai uno standard in questo tipo di ricerche. L'utilizzo del sudore artificiale rientra nell'ottica futura di un utilizzo di questi sensori come rilevatori di sostanze chimiche emesse dal corpo umano sfruttabili diversi ambiti, ovvero dall'attivita sportiva alla prevenzione, in ambito medico, di diverse malattie.
Resumo:
Una nuova ed originale tecnica è stata messa a punto, finalizzata alla realizzazione di una procedura per la diagnosi dell’osteoporosi, mediante l’utilizzo di scanner low field single-sided NMR. Tre differenti scanner (NMR MOLE, MOUSE PM 10 e MOUSE PM5) sono stati usati per determinare il Bone Volume-to-Total Volume ratio (BV/TV), parametro che fornisce indicazioni sulla microstruttura dell’osso. I risultati sono stati confrontati con le analisi micro-CT. Gli esperimenti sono stati condotti nel Lab. NMR del dipartimento DIFA di UNIBO e nel Lab. NMR della Victoria University di Wellington (NZ), durante un periodo di visita di cinque mesi, supportato da una borsa di studio della “Facoltà di Scienze” di UNIBO. Le analisi micro-CT sono state condotte presso il Lab. di Tecnologie Mediche dell’Istituto Ortopedico Rizzoli, Bologna. La ricerca è stata parzialmente finanziata dalla “Fondazione del Monte di Bologna e Ravenna”. La caratterizzazione dell’osso trabecolare di campioni animali e dei tessuti che lo circondano (come cartilagine e muscolo) è stata condotta tramite mappe di correlazione T1-T2 e D-T2 , dove T1 e T2 sono, rispettivamente, il tempo di rilassamento longitudinale e trasversale del nucleo 1H, e D è il coefficiente di autodiffusione molecolare. E’ stata sviluppata una sequenza di impulsi (Diffusion-Weighted T1-T2) per ottenere mappe T1-T2 pesate in diffusione. I risultati hanno consentito di mettere a punto una procedura che elimina il segnale NMR proveniente da cartilagine e muscolo, rendendo più realistico lo scenario di applicazione in-vivo. I tre diversi dispositivi NMR hanno dato risultati consistenti tra loro e con le immagini micro-CT. L’intera catena di esperimenti condotti ha mostrato che dispositivi NMR single-sided possono essere usati per valutare il BV/TV di ossa trabecolari, con il vantaggio di essere portatili, a basso costo e non invasivi, permettendo campagne di screening della popolazione a rischio osteoporosi.
Resumo:
in questo elaborato sono trattati i temi delle Adaptive User Interface e dell'Internet Of Things nei sistemi mobili. Il primo attraverso l'orchestrazione e la definizione di un'architettura framework in grado di fornire allo sviluppatore tutti gli strumenti di base per la realizzazione di interfacce grafiche capaci di esibire un comportamento adattativo a livello di singoli componenti. il secondo,invece, attraverso lo studio della tecnologia DQuid applicata ad un caso d'uso reale nel quale si prevedeva la connessione di un applicazione mobile iOS con un sistema per il parcheggio in garage di un'autovettura ed il monitoraggio delle informazioni relative.
Resumo:
In questa tesi viene analizzato il concetto di mobilità elettrica e viene proposta un’applicazione per la gestione della propria auto elettrica. L'applicazione in questione si pone come scopo l’agevolazione delle interazioni dell’utente con l’auto a distanza. Analizzando le caratteristiche principali dell’auto elettrica, ne vengono delineati i benefici e le limitazioni dell’autonomia, per la quale si suggerisce soluzione tramite regole da adottare alla guida. Attraverso la comparazione con le tipologie di applicazioni esistenti per la mobilità si decide che genere di approccio adottare nella realizzazione della nostra applicazione. Seguono la descrizione delle tecnologie di sviluppo del progetto sotto forma di applicazione ibrida, tra le quali ci si sofferma sull'utilizzo di linguaggi di markup, fogli di stile e JavaScript lato client. Di quest’ultimo ne vengono elencate le API utilizzate, in particolare Google Maps e Google Charts. Successivamente si introduce il concetto di simulazione server ed i metodi e le tecniche adottate per renderlo effettivo. Infine vengono spiegate le scelte implementative nonché i metodi e le decisioni presi in ambito di sviluppo per realizzare al meglio l’applicazione, fornendo una presentazione dettagliata delle sue funzionalità.
Resumo:
Cenni sulle attività geodetiche e sugli studi di glaciologia nella calotta Est-Antartica. Introduzione alle tecniche di rilievo GPS e ai sistemi di riferimento geocentrici internazionali WGS84 e ITRFyy. Studio del sito di Talos Dome ed elaborazione della superficie topografica del duomo tramite l'uso di misure GPS in modalità cinematica continua.
Resumo:
I transistor elettrochimici a base organica (OECT) hanno attratto sempre maggior interesse e sono oggetto di molti studi dagli anni '70 no ai nostri giorni. Questo lavoro di tesi ha come oggetto la realizzazione e la caratterizzazione di OECT a base di poli(3,4-etilen-diossi-tiofene) complessato con l'acido stirensolfonico (PSS). Questi dispositivi sono stati costruiti utilizzando solamente semiconduttori organici come materiali conduttivi ovvero senza l'uso di metalli, quindi risultano essere biocompatibili, economici e di semplice realizzazione. Questo tipo di sensori presenta un elevata sensibilità agli analiti e necessita di un'elettronica di controllo molto più semplice rispetto a metodi elettrochimici tradizionali che utilizzano un potenziostato ed un elettrodo di riferimento. Sono state studiate diverse geometrie e spessori di polimero depositato per ottimizzare le condizioni di lavoro per avere alta sensibilità e guadagno in corrente attraverso l'uso di misure di corrente di drain in funzione del tempo con aggiunte successive di analita. Questi dispositivi sono stati utilizzati come sensori di analiti quali la dopamina, l'acido ascorbico e l'acido urico. Attraverso scansioni in transcaratteristica, si è studiata la risposta dei transistor relativa agli analiti ed attraverso lo studio della transconduttanza si è ottenuta una nuova metodologia di lavoro in grado di separare i contributi relativi ai vari composti. Inoltre, in questa modalità, è stato possibile ottenere una selettività dei sensori ai vari analiti, problema principale dell'utilizzo di transistor elettrochimici, ed attraverso la modulazione della velocità di scansione dello strumento, è stata ottenuta una risposta alla sola dopamina, analita di maggior interesse per applicazioni biosensoristiche. In conclusione si può affermare che questo tipo di dispositivo possiede ottime proprietà e caratteristiche per ulteriori studi e sviluppi in applicazioni reali.
Resumo:
La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.
Resumo:
Parametro indispensabile di valutazione di un qualsiasi prodotto o servizio, ai giorni nostri, è la web reputation. Sono sempre più numerose le aziende che monitorano la propria "reputazione online". Quest'ultima può esser definita come l'insieme dei messaggi, commenti e feedbacks, positivi, neutri o negativi che siano, di utenti che esprimono la loro opinione tramite il web su un determinato servizio o prodotto rivolto al pubblico. L’applicazione sviluppata, si pone l’obiettivo di analizzare in tempo reale tramite l’utilizzo di Apache Storm, dati provenienti da fonti eterogenee, classificarli tramite KNIME utilizzando tecniche di classificazione quali SVM, alberi decisionali e Naive Bayesian, renderli persistenti mediante l’utilizzo del database NoSQL HBASE e di visualizzarli in tempo reale attraverso dei grafici utilizzando delle servlet, al fine di costituire un valido strumento di supporto per i processi decisionali.
Resumo:
Nell'ambito dell'Intelligenza Artificiale uno dei problemi aperti e piu difficile da risolvere e la comprensione del linguaggio naturale. La complessita sintattica e la conoscenza che bisogna avere per comprendere riferimenti, relazioni e concetti impliciti rendono questo problema molto interessante e la sua risoluzione di grande importanza per lo sviluppo di applicazioni che possano interagire in modo diretto con le persone. Questo lavoro di tesi non pretende di studiare e trovare una soluzione completa al suddetto problema, ma si prefigge come obiettivo quello di comprendere e risolvere problemi matematici di tipo logico ed aritmetico scritti in lingua inglese. La difficolta del lavoro si riduce in quanto non si devono considerare gli infiniti ambiti conoscitivi e puo concentrarsi su un'unica interpretazione del testo: quella matematica. Nonostante questa semplificazione il problema da affrontare rimane di grande difficolta poiche e comunque necessario confrontarsi con la complessita del linguaggio naturale. Esempi di problemi matematici che si intende risolvere si possono trovare presso il sito web dell'Universita della Bocconi nella sezione dei Giochi Matematici. Questi problemi richiedono la conoscenza di concetti di logica, insiemistica e di algebra lineare per essere risolti. Il modello matematico che descrive questi problemi non e complesso ed una volta dedotto correttamente e di facile risoluzione tramite un risolutore automatico. La difficolta consiste nel comprendere correttamente il testo ed estrapolarne il giusto modello. Il lavoro che si andra ad esporre nel seguito parte dall'analisi del testo ed arriva fino alla risoluzione del quesito matematico. Si parte quindi da un'analisi del testo con scopo generale seguita da un'analisi semantica volta alla costruzione del modello matematico che andra poi risolto da un risolutore automatico che ne restituira il risultato finale.