493 resultados para DUNE,SiPM,fotorivelazione,neutrini,test di SiPM
Resumo:
Il presente elaborato descrive il percorso effettuato sulla macchina XTREMA, prodotta dalla divisione Life del gruppo IMA. Il progetto ha come fine il miglioramento delle prestazioni della macchina, quantificate principalmente in termini di accuratezza del prodotto dosato e di prodotti processati in un arco di tempo. Il Capitolo 1 fornisce un iniziale studio delle caratteristiche e del funzionamento della macchina, con successiva focalizzazione sul sistema di controllo peso. Con l’obiettivo di definire le prestazioni del sistema di controllo peso, nel Capitolo 2 è impostata una campagna sperimentale di test che permette di studiare lo stato attuale del sistema, identificando l’influenza dei vari parametri di funzionamento sulle perfomances, portando alla luce le criticità della macchina. Viene quindi analizzato il gruppo, individuando le cause delle problematiche e identificando su quali campi agire per incrementare velocità di funzionamento e accuratezza del sistema. All’interno del Capitolo 3 entrambi i componenti del sistema di controllo peso, discensore e gruppo di bilance, sono quindi riprogettati per risolvere le criticità rilevate. Nel Capitolo 4 viene affrontato il montaggio del prototipo in una macchina dedicata alle prove, dove viene impostata una nuova campagna di test con l’obiettivo collaudare il sistema e validarne le prestazioni. Confrontando le prove si dimostrerà che il nuovo prototipo, oltre ad aumentare il numero di flaconi pesati al minuto, permette di risolvere le problematiche del precedente sistema, consentendo di ottenere un’accuratezza del controllo peso superiore a quanto riscontrato nella campagna iniziale di prove svolta inizialmente.
Resumo:
La messa a punto dei motopropulsori richiede una fase di test utilizzando un dinamometro, cioè una macchina che ne permette la misura di coppia e velocità. Sono diverse le tipologie di dinamometri, tutte sono però caratterizzate dalla necessità di essere gestite attraverso un opportuno controllore. Il presente lavoro di tesi, svolto presso Borghi&Saveri SRL, si pone l’obbiettivo di aggiornare il sistema di controllo di un dinamometro idraulico, lo “SFI”, sviluppando in particolare la parte di potenza, comunicante con la componente di controllo, già realizzata dall’azienda. La soluzione per la parte di potenza è un drive per il controllo di motori elettrici, scelto dopo una valutazione dei requisiti necessari, lo studio del vecchio sistema e un’analisi di mercato. Il motore elettrico posto sul dinamometro ha infatti il compito di muovere una valvola di gestione della portata d’acqua immessa, con conseguente regolazione della coppia. Il drive è stato messo in funzione realizzando un hardware per garantirne il funzionamento, per poi essere configurato e testato: è stata scelto il setup giudicato come ottimale dei parametri di controllo ed è stata impostata un’interfaccia per la comunicazione smart da PC, via CANopen. Si è poi realizzato un modello virtuale rappresentativo del sistema, validato con acquisizioni sperimentali. Infine, si sono confrontati i dati simulativi del modello con quelli sperimentali provenienti dal vecchio controllore, così da ottenere una valutazione delle rispettive performance nell’effettuare il controllo di posizione della valvola. Il sistema così realizzato soddisfa i requisiti posti, tuttavia le sue prestazioni non sono del tutto migliorative rispetto a quelle dello SFI: per questo sono valutati i punti deboli del progetto e proposti dei possibili sviluppi futuri.
Resumo:
La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.
Resumo:
Questo elaborato di tesi ha l’obbiettivo di studiare le limitazioni delle stazioni di terra nel tracciamento di satelliti in orbita LEO, investigare possibili soluzioni ed implementare queste soluzioni all’interno della Ground Station AMGS di Forlì per verificarne l’efficacia. A questo scopo, dopo un’attenta revisione della letteratura sono stati identificati due promettenti algoritmi descritti nei paper: “Trajectory optimisation to minimise antenna pointing error” di P. S. Crawford , R. J. H. Brush e “An optimal antenna motion generation using shortest path planning” di Moon-Jin Jeon , Dong-Soo Kwon. Questi algoritmi sono stati implementi in Python 3, al fine di inglobarli all’interno del software di tracking al momento in uso nella GS di Forlì, ovvero AMGS Orbit Predictor. All’interno di questo elaborato sono anche riportati i risultati dei test conseguiti e una valutazione dettagliata di questi ultimi.
Resumo:
Nel presente elaborato sono state analizzate delle soluzioni per i sistemi di post-trattamento che permettano ai veicoli di rispettare la futura norma Euro7. In particolare è stato affrontato il principale problema dell'avviamento a freddo dei veicoli che produce la maggior parte degli inquinanti emessi. Sono stati vagliati diversi studi scientifici al fine di trovare soluzioni efficaci per rendere le emissioni dei veicoli sotto i limiti imposti dalla futura normativa, i cui valori sono stati proposti dal consorzio CLOVE. Dopo aver analizzato uno studio sul confronto di varie configurazioni di sistemi di post-trattamento, sono state prese in considerazione due soluzioni. La prima prevede l'introduzione di un bruciatore nel sistema al fine di mantenerlo alla temperatura ottimale di funzionamento, ovvero alla temperatura a cui avvengono le reazioni di ossidazione e di riduzione delle sostanze inquinanti. La seconda soluzione prevede, invece, l'aggiunta nel sistema di un riscaldatore elettrico accoppiato ad un generatore termoelettrico: il primo ha lo stesso scopo del bruciatore, mentre il secondo serve per convertire il calore di scarto dei gas di scarico in energia elettrica da fornire al riscaldatore. Infine, dopo aver analizzato le due soluzioni attraverso i test riportati dagli articoli scientifici studiati, si è concluso che entrambe le strategie permettono un'efficace riduzione delle emissioni anche per avviamento a freddo del veicolo e, quindi, possono essere considerate valide per permettere ai veicoli di rientrare all'interno dei limiti imposti dalla nuova normativa Euro7.
Resumo:
Le gallerie del vento a pareti chiuse non permettono di ottenere risultati fedeli alla realtà a causa di numerosi effetti di interferenza. In questa tesi si provvede ad elencare i fenomeni di maggior rilievo che contribuiscono al bloccaggio e successivamente si presentano le principali formule correttive da applicare ai risultati per renderli più vicini a quelli ottenuti nei test su strada. I metodi di correzione ottenuti sono poi confrontati fra loro grazie al supporto di simulazioni in cui vengono fatte variare sia la geometria del modello, sia le condizioni al contorno, al fine di comprendere quali formule siano più efficienti in certe situazioni. Infine, sono proposti metodi alternativi alle soluzioni numeriche, in particolare sono illustrate le gallerie del vento a pareti aperte, con i loro vantaggi e svantaggi rispetto a quelle con pareti chiuse. Riguardo a queste ultime, inoltre, nell'elaborato sono esposti due metodi per limitare il bloccaggio, agendo, cioè, sulla loro geometria: le gallerie del vento a pareti fessurate e quelle con le pareti regolabili.
Resumo:
Distribuire un’applicazione che soddisfi i requisiti del cliente e che sia in grado di accogliere rapidamente eventuali modifiche è, al giorno d’oggi, d’obbligo per aziende che si occupano di applicazioni mobile che vogliano rimanere competitive sul mercato. Il principale fattore chiave in grado di mantenere un’azienda al passo con la continua evoluzione sia del mercato che delle tecnologie mobile è la continua innovazione e ottimizzazione dell’intero processo di sviluppo. La collaborazione e la comunicazione tra diversi team, l’utilizzo di cicli iterativi di sviluppo, i rilasci frequenti e l’automazione dei test sono alcune delle pratiche incentivate dalla cultura DevOps, adottabile con successo (si vedrà in questa tesi) anche per lo sviluppo di applicazioni mobile. Innovare e ottimizzare il processo di sviluppo non significa solo automatizzare l’esecuzione dei task. Un ruolo importante è giocato anche da aspetti legati all’applicazione: l’architettura, il paradigma di programmazione, e gli strumenti utilizzati. In particolare, al fine di applicare il principio “Don’t repeat yourself ” (DRY) e semplificare la manutenzione, diversi moderni framework per lo sviluppo di applicazioni mobile, detti multipiattaforma, propongono meccanismi che consentono di condividere codice tra piattaforme differenti. L’obiettivo di questa tesi è dunque quello di discutere (capitoli 1, 2 e 3) e mostrare, applicate ad un caso di studio industriale (capitoli 4, 5 e 6), l’uso di tecniche DevOps nell’ambito di applicazioni mobile, ed in particolare mostrando come queste siano applicabili in congiunzione ai framework di sviluppo multipiattaforma (in particolare, Kotlin Multiplatform).
Resumo:
Lo sviluppo dei dispositivi mobili negli ultimi anni ha permesso la creazione di pedometri efficienti. Uno dei problemi principali nella realizzazione dei contapassi `e l’accuratezza e la precisione nei risultati. Il seguente elaborato fornisce un’analisi dettagliata dei vari studi presenti in rete a riguardo. La ricerca ha avuto scopo di riassumere le diverse scelte implementative, confrontandole tra di loro e di risaltare i punti in comune fornendo un’analisi sull’effettiva efficacia di ognuna di esse. Il focus di questo studio si concentrer`a sull’analisi di algoritmi per la rilevazione di passi calcolati non in tempo reale. L’elaborato `e stato diviso in quattro differenti fasi. Durante la prima fase vengono esposti i principali studi e le principali metodologie relative all’argomento appena descritto. Nella seconda fase viene presentata la Tassonomia, cio`e una classificazione ordinata di concetti secondo determinati criteri. Nella terza fase `e stata quindi sviluppata una applicazione Android in cui vengono implementanti gli algoritmi descritti nelle fasi precedenti. Nell’ultima fase viene testata l’applicazione attraverso l’uso di specifici test confrontando tra loro i diversi algoritmi proposti.
Resumo:
Il seguente elaborato di tesi espone ed analizza le nuove strategie introdotte nell’hub logistico dell’azienda SIT S.p.A., multinazionale che produce e commercializza dispositivi intelligenti per il controllo meccanico ed elettronico del gas e per la misurazione dei consumi. Tali strategie hanno l’obiettivo di migliorare l’efficienza del magazzino, intervenendo su due attività, la pallettizzazione e lo stoccaggio. Inizialmente è stato creato uno strumento per misurare correttamente i due KPI principali utilizzati nel magazzino per valutarne il livello di servizio: il tempo medio che intercorre tra la ricezione di un pallet ed il suo stoccaggio e il tempo medio per effettuare un’operazione di picking. Successivamente si è intervenuti sulla pallettizzazione, con una nuova procedura guidata dalle etichette, che riduce le possibilità di errore dell’operatore, e sullo stoccaggio, per il quale si è passati da una strategia random ad una per classi, basata sul livello di movimentazione dei materiali, aggiungendo anche un vincolo per l’altezza di materiali e bin. L’aggiornamento dei due processi è volto al miglioramento dell’efficienza del magazzino, abbassando anche i tempi dei KPI. Per entrambe le strategie si è rilevata, tramite test, una riduzione del tempo necessario per il completamento, oltre ad un generale aumento dell’efficienza dell’hub logistico.
Resumo:
Recentemente è stato stimato che si trovino circa 150 milioni di tonnellate di plastica nei mari di tutto il mondo, con conseguente aumento annuo di 8 milioni di tonnellate: si dice anche che entro il 2050 sarà presente, in termini di peso, nei mari e negli oceani più plastica che pesci. Inoltre, non solo le macro plastiche sono un serio problema ambientale, ma anche la loro frammentazione e decomposizione a causa della prolungata esposizione al sole, acqua e aria porta a microplastiche (dimensione minore di 5 mm): questi piccoli rifiuti che si vanno a depositare nei fondali rappresentano una seria problematica per la salute umana, poiché questi ultimi potrebbero essere ingeriti da pesci, provocandogli anche ridotta riproduttività e infiammazioni, entrando dunque nella nostra catena alimentare. L’idea di questo elaborato sviluppato mediante la collaborazione con il centro di ricerca VTT in Finlandia è quella di sviluppare soluzioni innovative e nuovi metodi per la rilevazione di rifiuti in plastica galleggianti. In sintesi, in questo elaborato sarà presente una parte di ricerca bibliografica, in cui vengono illustrati i principali articoli che spiegano i progetti più attinenti al Remote Sensing di rifiuti di plastica galleggianti trovati in letteratura, successivamente sarà presente la parte più pratica svolta al VTT, in particolare verrà spiegato il Radar MIMO a 60 GHz (prodotto dal VTT) utilizzato per le misurazioni di test su una piccola piscina circolare con i relativi dati ottenuti, infine si descriverà la campagna di misure tramite telecamere iperspettrali, sensori RGB e termo-infrarossi ad Oulu con, anche in tale caso, i dati spettrali di risalto che sono stati ricavati. Infine, in aggiunta ai risultati della campagna iperspettrale, si vuole cercare di applicare degli algoritmi di Machine Learning per cercare di classificare e dunque di identificare i vari campioni di plastica visualizzati nelle varie immagini spettrali acquisite.
Resumo:
I materiali compositi a matrice polimerica rinforzati con fibra di carbonio (CFRP) si stanno sviluppando in maniera esponenziale negli ultimi anni, con una crescita del 20 – 25% annua, tanto che si prevede una domanda di circa 194.000 tonnellate entro il 2022 per cui è evidente che negli anni a venire dovranno essere smaltiti diversi rifiuti realizzati con tale materiale. Lo stato attuale relativo al riciclo dei CFRP prevede, per la maggior parte di essi, di essere conferiti in discarica o inviati all’inceneritore per ottenere un recupero energetico grazie alla presenza della matrice a base polimerica ma questo non consente il recupero della fibra per cui non è una tecnica che sfrutta l’alto valore del rifiuto. È proprio per questo motivo che si stanno sviluppando diverse metodologie di riciclo dei materiali compositi fibro – rinforzati nell’ottica dell’economia circolare, in particolare, si distinguono in riciclo meccanico, termico e chimico in base ai principi che stanno alla base degli stessi. Si precisa che su scala commerciale è stato realizzato solamente il riciclo termico tramite pirolisi mentre per tutte le altre tecniche si è ancora in fase di sperimentazione e di ricerca in laboratorio. L’obiettivo dell’elaborato di tesi è quello di valutare e approfondire il riciclo dei materiali compositi in fibra di carbonio in modo tale da studiare e validare sperimentalmente due componenti realizzati in materiale composito rinforzato con fibra di carbonio riciclata per poterli confrontare con i medesimi componenti realizzati in fibra nuova così da trarre delle conclusioni in merito alle proprietà meccaniche di rigidezza e resistenza ottenibili. Il lavoro di tesi è stato svolto all’interno dell’azienda Bucci Composites S.p.A. con sede a Faenza, la quale si occupa di progettazione e realizzazione di diversi componenti in materiale composito avanzato per diverse aziende clienti provenienti dai settori automotive, aerospaziale, nautico e industriale più in generale.
Resumo:
Una sempre crescente quantità di informazione digitale viene condivisa tra miliardi di dispositivi connessi in ogni angolo del pianeta. Per riuscire a sfruttare una banda più ampia ed aumentare la velocità di trasmissione dei dati, i prossimi standard di telecomunicazioni wireless dovranno adoperare frequenze operative sempre più alte, cercando di rispettare stringenti specifiche in termini di affidabilità ed efficienza energetica. In generale, le prestazioni di un transistor dipenderanno dalle terminazioni a cui esso è collegato. In un setup di caratterizzazione e test, è possibile, tramite un metodo noto come load pull attivo, sintetizzare un determinato valore di impedenza ad uno o più piani di riferimento all'interno di un circuito. Questa strategia si basa in generale sulla manipolazione del rapporto tra onde entranti ed uscenti da un piano di riferimento del dispositivo. Se da una parte tecniche di load pull attivo a banda larga a radiofrequenza hanno ricevuto un notevole interesse sia commerciale che accademico, dall'altra le strategie per la sintesi di impedenze presenti al terminale di alimentazione dell'amplificatore, sono state meno investigate. Questo elaborato si propone di introdurre un algoritmo per il load pull attivo a banda base per amplificatori per applicazioni RF. Dopo un'introduzione sui modelli comportamentali degli amplificatori, è stato considerato il problema degli effetti di memoria. È stata poi descritta la tecnica per l'emulazione di impedenze. Dapprima, è stato considerato il caso lineare. Poi, tramite il design di un amplificatore di potenza per applicazioni a radio frequenza usato come device under test (DUT), sono stati affrontati due esempi in presenza di non linearità, verificando la correttezza della tecnica proposta tramite l'uso di simulazioni.
Resumo:
Lo studio ha lo scopo di isolare additivi di origine vegetale che possono essere utilizzati all’interno di una preparazione a base di carne al fine di migliorarne alcune caratteristiche funzionali. Lo studio si sviluppa in quattro frasi, nella prima dopo aver scelto la matrice vegetale su cui concentrarsi, ovvero il ribes rosso, sono stati estratti due ingredienti una polvere ottenuta dalla sansa del frutto ottenuta dopo un’estrazione con CO2 supercritica ed un estratto sfruttando due metodiche, la macerazione ed una sfruttando l’estrattore Naviglio. Ottenuti i due additivi vegetali sono stati analizzati a livello compositivo, caratterizzando i valori nutrizionali della polvere, eseguendo analisi sulla capacità antiossidante dei due ingredienti ed infine eseguendo una quantificazione del contenuto totale di flavonoidi sugli estratti. Conclusa l’analisi degli ingredienti lo studio prosegue con la parte applicativa ovvero la produzione di hamburger di carne di suino con l’aggiunta degli additivi prodotti, prima con dei test preliminari per poi delineare un piano operativo. Sono stati prodotti, molteplici repliche per tre diversi hamburger ognuno con una diversa concentrazione dei due ingredienti più il campione usato come controllo; in diversi giorni durante la loro shelf life sia i campioni crudi che quelli cotti sono stati analizzati con diverse metodiche analitiche per valutarne le caratteristiche e la loro evoluzione nel tempo. Nella fase conclusiva dello studio è stato eseguito un processo di digestione in vitro su tutti i campioni prodotti il giorno zero, tale tecnica simula tre fasi digestive orale, gastrica e intestinale producendo dopo ognuna soluzioni all’interno dei quali vi sono le componenti non digerite, su tali soluzioni sono stati eseguiti i test sull’attività antiossidante per valutarne gli effetti residui dopo essere stati digeriti e quindi l’efficacia dell’aggiunta di tali additivi in un prodotto a base di carne.