999 resultados para DUNE,SiPM,fotorivelazione,neutrini,test di SiPM


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si riporta inizialmente un’analisi tecnica dell’autopilota Ardupilot, utilizzato con il firmware Arduplane, che predispone la scheda all’utilizzo specifico su velivoli senza pilota ad ala fissa. La parte sostanziale della tesi riguarda invece lo studio delle leggi di controllo implementate su Arduplane e la loro modellazione, assieme ad altre parti del codice, in ambiente Matlab Simulink. Il sistema di controllo creato, chiamato Attitude Flight System, viene verificato con la tecnica del Software In the Loop in un simulatore di volo virtuale modellato anch’esso in Simulink, si utilizza la dinamica di un velivolo UAV di prova e il software FlightGear per l’ambiente grafico. Di fondamentale importanza è la verifica della compatibilità fra il firmware originale e il codice generato a partire dai modelli Simulink, verifica effettuata mediante test di tipo Hardware in the Loop. L’ultima parte della tesi descrive le prove di volo svolte per verificare le prestazioni della scheda su un aeromodello trainer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Realizzazione di un database semantico in Java a partire da una sua versione in tecnologia OSGI. La trattazione è organizzata come segue: nel primo capitolo verranno introdotte nozioni generali sullo scenario di rilevanza e le tecnologie. Nel secondo capitolo si parlerà della SIB-O, introducendone l’architettura e le funzionalità. Il terzo capitolo descriverà il lavoro svolto ed infine il quarto capitolo riporterà i risultati di test di performance allo scopo di validare il lavoro svolto e caratterizzare l’efficienza dei prodotti software realizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente progetto di tesi è stato svolto in collaborazione con l’ufficio tecnico di Ricerca & Sviluppo dell’azienda Cefla Dentale, divisione MyRay (Imola - BO Italia). A seguito dell’esperienza maturata nel settore dei radiografici dentali, scelte aziendali hanno richiesto l’aggiornamento delle tecniche di elaborazione dell’immagine acquisita. Ogni prodotto commercializzato è fornito di un software predisposto alla gestione dei pazienti e alle operazioni di post-procesing tipiche: riduzione del rumore, aumento dei contrasti, della luminosità, misurazioni e tutti quelli presenti nei più comuni software di elaborazione grafica. Questi filtri digitali sono raccolti in una libreria sviluppata a seguito di una collaborazione esterna. Col presente elaborato viene effettuata una panoramica sulle tecniche di filtraggio utilizzate e vengono introdotte diverse proposte finalizzate alla riduzione del rumore. Test di valutazione qualitativa e quantitativa, su fantocci target, fantocci antropomorfi e set di immagini in-vivo, guideranno la scelta verso la proposta migliore, la quale verrà successivamente inserita all’interno della libreria e andrà ad aggiungersi ai filtri a disposizione dell’utente finale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Valutazione della possibilità di realizzare un macchinario radiologico che presenti al suo interno schermature di protezione contro le radiazioni ionizzanti prive di piombo (lead-free), materiale tossico e nocivo per gli individui. A questo scopo la scelta è ricaduta su tecnopolimeri radiopachi, i quali presentano le stesse caratteristiche schermanti del piombo attualmente utilizzato. Su questi tecnopolimeri sono stati effettuati test di varia natura, per andare a valutare se le loro prestazioni risultassero soddisfacenti sia dal punto di vista della radiopacità che della durata nel lungo periodo (attraverso prove accelerate).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel documento vengono trattate le principali tecniche di geolocalizzazione basate sull'elaborazione dei segnali elettromagnetici ricevuti. E' altresì introdotto un sistema di remote positioning basato su test di prossimità rafforzato tramite machine learning tramite un approccio simulativo ed una implementazione reale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diffusione dei servizi cloud ha spinto anche il mondo degli IDE verso questa direzione. Recentemente si sta assistendo allo spostamento degli IDE da ambienti desktop ad ambienti Web. Questo è determinante per quanto riguarda gli aspetti legati alla collaborazione perchè permette di sfruttare tutti i vantaggi del cloud per dotare questi sistemi di chat, integrazione con i social network, strumenti di editing condiviso e molte altre funzionalità collaborative. Questi IDE sono detti browser-based in quanto i servizi che mettono a disposizione sono accessibili via Web tramite un browser. Ne esistono di diversi tipi e con caratteristiche molto diverse tra di loro. Alcuni sono semplici piattaforme sulle quali è possibile effettuare test di codice o utilizzare tutorial forniti per imparare nuovi linguaggi di programmazione; altri invece sono ambienti di sviluppo completi dotati delle più comuni funzionalità presenti in un IDE desktop, oltre a quelle specifiche legate al Web. Dallo studio di questi ambienti di sviluppo di nuova generazione è emerso che sono pochi quelli che dispongono di un sistema di collaborazione completo e che non tutti sfruttano le nuove tecnologie che il Web mette a disposizione. Per esempio, alcuni sono dotati di editor collaborativi, ma non offrono un servizio di chat ai collaboratori; altri mettono a disposizione una chat e il supporto per la scrittura simultanea di codice, ma non sono dotati di sistemi per la condivisione del display. Dopo l'analisi dei pregi e dei difetti della collaborazione fornita dagli strumenti presi in considerazione ho deciso di realizzare delle funzionalità collaborative inserendomi nel contesto di un IDE browser-based chiamato InDe RT sviluppato dall'azienda Pro Gamma SpA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attività sperimentale riguardante lo studio dei materiali compositi, nell’ambito della progettazione a crashworthiness, svolto, tramite test dei provini realizzati nell’attività di tirocinio, presso i laboratori didattici della Scuola di ingegneria e architettura, sede di Forlì. Il lavoro di tesi, si è basato sulla valutazione dell’energia assorbita dai provini in materiale composito, tramite prove quasi-statiche; per questo tipo di prove sono stati utilizzati provini autostabilizzanti, rinforzati in fibra di carbonio e matrice in resina epossidica. Prima di procedere alla sperimentazione, sono stati studiati i risultati ottenuti da precedenti sperimentazioni eseguite da colleghi, per valutare quale fosse la configurazione migliore di provino, in termini di geometria, e trigger, che garantisse elevate energie di assorbimento. Dopo una panoramica dei materiali compositi, con riferimento alle caratteristiche e proprietà, alle diverse tipologie che si possono avere in ambito industriale, è spiegato il concetto di crashworthiness, le varie tipologie di test di impatto e le varie tipologie di rottura alla quale può essere soggetto un provino. Si è di seguito descritto come è stata valutata la scelta del tipo di geometria e del trigger, che sarebbero stati utilizzati per la progettazione del provino, e si è accennato al processo di laminazione svolta presso i laboratori della Scuola per la fabbricazione del provino. Al termine della descrizione dei tester usati per la sperimentazione sono, infine, illustrati i risultati delle prove svolte, con successivi commenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In letteratura sono presenti numerosi studi che descrivono i fattori che influenzano la vita a fatica di un laminato in CFRP e le modalità di propagazione ed accrescimento a fatica di un difetto. Tuttavia non sono presenti studi approfonditi che leghino l’effetto che può avere la grammatura, sulla vita a fatica del laminato. Il lavoro sperimentale oggetto di questa tesi vuole intendersi un lavoro preliminare, a carattere esplorativo, sullo studio della sensibilità della grammatura sulla resistenza a fatica di laminati in CFRP, attraverso test di flessione a fatica su due configurazioni di provini di grammature differenti (600 e 800 gr/m^2), con e senza inserimento di un difetto artificiale rappresentato da un intaglio sugli ultimi strati del laminato e test di flessione eseguito in accordo allo standard ASTM D2344/D2344M. I test a fatica hanno evidenziato una sensibile riduzione della vita per i provini senza difetto realizzati con l’800 gr/m^2 rispetto a quelli realizzati con il 600 gr/m^2. Per quanto concerne la tolleranza al danno, i provini realizzati con 600 gr/m^2 hanno evidenziato una sensibilità maggiore all’effetto di intaglio, pur avendo un comportamento migliore rispetto a quelli realizzati con l’800 gr/m^2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi di prestazioni di un database costruito con MongoDB e uno con Mysql residenti su due macchine virtuali uguali configurate appositamente per i test di inserimento, interrogazione e eliminazione.