933 resultados para Sistema di feedback,Sostenibilità,Machine learning,Agenda 2030,SDI
Resumo:
Questo progetto ha lo scopo di creare un sistema di supporto per lo staff di grandi tornei internazionali di giochi da tavolo o di carte. Questi eventi sono solitamente gestiti da più di 40 persone e occupano grandi padiglioni fieristici. Vedremo come sia possibile, con l'ausilio di smartphone, facilitare le normali operazioni logistiche e permettere di risparmiare tempo e fatica. Analizzeremo le scelte progettuali e gli strumenti adottati per lo sviluppo di questo sistema.
Resumo:
L'obiettivo di questo lavoro di tesi consiste nel progettare, realizzare e testare due collimatori multi-slit da applicare ad un sistema tomografico a raggi X con geometria cone-beam, caratterizzato da un voltaggio massimo di 320 kV. I collimatori che verranno realizzati sono un pre-collimatore e un post-collimatore entrambi multi-slit. Il fine ultimo è quello di riuscire ad avere un sistema di collimazione che permetta attraverso due sole tomografie di ottenere la ricostruzione dell'intero campione. L'abbattimento del tempo necessario per eseguire l'analisi costituisce il target su cui si basa questa tesi. Successivamente sulle immagini prodotte mediante questo nuovo sistema di collimazione saranno condotte delle specifiche analisi e i risultati saranno confrontati con quelli ottenuti mediante un sistema di collimazione a singola fenditura, anch'esso progettato in questa tesi e appositamente realizzato.
Resumo:
1 Progettare un sistema di raccolta e tracciabilità dei RAEE innovativo e replicabile 2 Dimostrare il possibile incremento della raccolta differenziata dei RAEE 3 Analizzare numericamente le Performance 4 Evidenziare i risultati ottenuti dalla raccolta 5 Sviluppi futuri volti a favorire la diffusione del modello ideato e sperimentato
Resumo:
Nowadays the number of hip joints arthroplasty operations continues to increase because the elderly population is growing. Moreover, the global life expectancy is increasing and people adopt a more active way of life. For this reasons, the demand of implant revision operations is becoming more frequent. The operation procedure includes the surgical removal of the old implant and its substitution with a new one. Every time a new implant is inserted, it generates an alteration in the internal femur strain distribution, jeopardizing the remodeling process with the possibility of bone tissue loss. This is of major concern, particularly in the proximal Gruen zones, which are considered critical for implant stability and longevity. Today, different implant designs exist in the market; however there is not a clear understanding of which are the best implant design parameters to achieve mechanical optimal conditions. The aim of the study is to investigate the stress shielding effect generated by different implant design parameters on proximal femur, evaluating which ranges of those parameters lead to the most physiological conditions.
Resumo:
La tesi tratta la tematica delle web API implementate secondo i vincoli dello stile architetturale ReST e ne propone un esempio concreto riportando la progettazione delle API di un sistema di marcature realizzato in ambito aziendale.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
In recent years, Deep Learning techniques have shown to perform well on a large variety of problems both in Computer Vision and Natural Language Processing, reaching and often surpassing the state of the art on many tasks. The rise of deep learning is also revolutionizing the entire field of Machine Learning and Pattern Recognition pushing forward the concepts of automatic feature extraction and unsupervised learning in general. However, despite the strong success both in science and business, deep learning has its own limitations. It is often questioned if such techniques are only some kind of brute-force statistical approaches and if they can only work in the context of High Performance Computing with tons of data. Another important question is whether they are really biologically inspired, as claimed in certain cases, and if they can scale well in terms of "intelligence". The dissertation is focused on trying to answer these key questions in the context of Computer Vision and, in particular, Object Recognition, a task that has been heavily revolutionized by recent advances in the field. Practically speaking, these answers are based on an exhaustive comparison between two, very different, deep learning techniques on the aforementioned task: Convolutional Neural Network (CNN) and Hierarchical Temporal memory (HTM). They stand for two different approaches and points of view within the big hat of deep learning and are the best choices to understand and point out strengths and weaknesses of each of them. CNN is considered one of the most classic and powerful supervised methods used today in machine learning and pattern recognition, especially in object recognition. CNNs are well received and accepted by the scientific community and are already deployed in large corporation like Google and Facebook for solving face recognition and image auto-tagging problems. HTM, on the other hand, is known as a new emerging paradigm and a new meanly-unsupervised method, that is more biologically inspired. It tries to gain more insights from the computational neuroscience community in order to incorporate concepts like time, context and attention during the learning process which are typical of the human brain. In the end, the thesis is supposed to prove that in certain cases, with a lower quantity of data, HTM can outperform CNN.
Resumo:
Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.
Resumo:
La sinergia tra diverse aree scientifiche svolge oggi un ruolo preminente nella risoluzione di problematiche molto complesse: in ambito medico, un massiccio intervento delle scienze fisico-matematiche ha portato, grazie alla ricerca sulle proprietà subatomiche (NMR), sulla funzione elettromeccanica tissutale (pace-makers) e sulla biocompatibilità di materiali innovativi, ad un completo rinnovamento e miglioramento delle terapie tradizionali, delineando nuove strategie terapeutiche. In questo quadro di attiva collaborazione si colloca la ricerca in ambito biomeccanico cardiovascolare che, approfondendo la funzionalità del cuore e dei vasi in condizioni normali e patologiche, propone soluzioni terapeutiche alternative all'approccio farmacologico, impensabili fino a pochi anni fa. Uno di questi ambiti è l'insufficienza cardiaca: al ventricolo incapace di produrre l'energia necessaria alla perfusione ematica viene associato un sistema di pulsazione meccanica che riduce il carico durante l'eiezione ed aumenta la perfusione coronarica in diastole. Tuttavia, benché l'efficacia della contropulsazione intra-aortica sia riconosciuta da decenni, alcune problematiche rimangono irrisolte: l'inapplicabilità su pazienti aritmici, l'eccessiva sollecitazione meccanica in pazienti vasculopatici, la complessità e l'alto costo dell'apparecchiatura. Questo lavoro affronta la validazione e la caratterizzazione di una soluzione terapeutica alternativa, di tipo completamente passivo, il cui effetto non è basato sulla somministrazione di energia meccanica dall'esterno, attraverso la pulsazione, ma sull'adattamento di impedenza biomeccanica tra la sorgente elastica pulsatile (il ventricolo) ed il carico (l'aorta). Per verificare l'ipotesi funzionale è stato realizzato un sistema contrattile che simulasse diversi livelli di insufficienza ventricolare ed un sistema vascolare con resistenza idraulica ed elastanza variabili. Sono stati rilevati i parametri fisiologici (pressioni, flusso, potenza ed efficienza) nelle diverse condizioni di accoppiamento biomeccanico e si sono ripetuti i rilievi inserendo il dispositivo di contropulsazione passiva. La validazione sperimentale ha prodotto risultati coerenti con quanto atteso ed è stata indispensabile per l'ottenimento, da parte del Comitato Etico, dell'autorizzazione per la sperimentazione clinica del sistema in oggetto.
Resumo:
I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.
Resumo:
Il presente lavoro di Tesi è stato incentrato sul dimensionamento di un sistema wireless epidermico abile a monitorare parametri fisiologici. La fase iniziale del lavoro è stata spesa per indagare le varie tipologie di sorgenti utili ad effettuare Energy Harvesting in contesti applicativi biomedicali, ed analizzare lo stato dell’arte in merito ai sistemi miniaturizzati, passivi, interfacciabili alla superficie corporea, configurabili nel settore di ricerca e-skin. Il corpo centrale del lavoro è stato quello di dimensionare un nuovo sistema wireless epidermico, energeticamente autonomo. Tale sistema è stato strutturato in tre catene costitutive. La prima di queste definita di Energy Harvesting e storage, presenta una cella solare, un boost converter –charger per il management della potenza ed una thin film battery come elemento di storage. La seconda catena è configurabile come quella di ricezione, in cui l’elemento cruciale è una Wake-Up Radio (WUR), la cui funzione è quella di abilitare il sistema di misura costituito da Microcontroller e sensore solo quando un Reader comunicherà la corretta sequenza di bit abilitanti alla lettura. La presente scelta ha mostrato vantaggi in termini di ridotti consumi. La terza ed ultima catena del sistema per mezzo di Microcontrollore e Transceiver consentirà di trasmettere via RF il dato letto al Reader. Una interfaccia grafica utente implementata in Matlab è stata ideata per la gestione dei dati. La sezione ultima della Tesi è stata impostata analizzando i possibili sviluppi futuri da seguire, in particolare integrare il sistema completo utilizzando un substrato flessibile così come il Kapton e dotare il sistema di sensoristica per misure biomediche specialistiche per esempio la misura del SpO2.
Resumo:
Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.
Resumo:
Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.
Resumo:
Ogni giorno, l'utente di smartphon e tablet, spesso senza rendersene conto, condivide, tramite varie applicazioni, un'enorme quantità di informazioni. Negli attuali sistemi operativi, l'assenza di meccanismi utili a garantire adeguatamente l'utente, ha spinto questo lavoro di ricerca verso lo sviluppo di un inedito framework.È stato necessario uno studio approfondito dello stato dell'arte di soluzioni con gli stessi obiettivi. Sono stati esaminati sia modelli teorici che pratici, con l'analisi accurata del relativo codice. Il lavoro, in stretto contatto con i colleghi dell'Università Centrale della Florida e la condivisione delle conoscenze con gli stessi, ha portato ad importanti risultati. Questo lavoro ha prodotto un framework personalizzato per gestire la privacy nelle applicazioni mobili che, nello specifico, è stato sviluppato per Android OS e necessita dei permessi di root per poter realizzare il suo funzionamento. Il framework in questione sfrutta le funzionalità offerte dal Xposed Framework, con il risultato di implementare modifiche al sistema operativo, senza dover cambiare il codice di Android o delle applicazioni che eseguono su quest’ultimo. Il framework sviluppato controlla l’accesso da parte delle varie applicazioni in esecuzione verso le informazioni sensibili dell’utente e stima l’importanza che queste informazioni hanno per l’utente medesimo. Le informazioni raccolte dal framework sulle preferenze e sulle valutazioni dell’utente vengono usate per costruire un modello decisionale che viene sfruttato da un algoritmo di machine-learning per migliorare l’interazione del sistema con l’utente e prevedere quelle che possono essere le decisioni dell'utente stesso, circa la propria privacy. Questo lavoro di tesi realizza gli obbiettivi sopra citati e pone un'attenzione particolare nel limitare la pervasività del sistema per la gestione della privacy, nella quotidiana esperienza dell'utente con i dispositivi mobili.
Resumo:
La tesi è suddivisa in tre parti. Nella prima parte si descrive il sistema dei canali bolognesi che derivano acqua dal bacino montano del Fiume Reno e dal Torrente Savena, e il sistema di gestione e di monitoraggio utilizzato dal Consorzio dei canali di Reno e Savena. Nella seconda parte si illustra una proposta di sistema di visualizzazione dei dati idro-pluviometrici che si sta valutando, assieme al Presidente del Consorzio e ad Arpa, per il monitor che il Consorzio intende installare al fine di illustrare al pubblico il monitoraggio e l’evoluzione degli eventi di piena e di scarsità idrica/siccità. Nella terza parte, infine, si effettuano la stima e un’analisi della correlazione tra due diversi indici di siccità, meteorologica ed idrologica, per il bacino del Reno chiuso a Casalecchio. Il sistema dell’intero bacino del Reno e della rete dei canali cittadini risulta molto complesso. Vista tale complessità del sistema, si è proposto di distinguere uno scenario di piena e uno scenario di magra. Tra le diverse informazioni da visualizzare nel monitor si intendono anche visualizzare informazioni relative alla disponibilità idrica alla scala del bacino in esame. Per questo è stata svolta l’analisi sugli indici di siccità Standard Precipitation Index (SPI) e Streamflow Drought Index per il bacino del Reno chiuso a Casalecchio . Tali indici hanno portato a dei risultati consistenti con le condizioni idro-metereologiche e con le informazioni sugli impatti al suolo disponibili per alcuni degli eventi più significativi presi in esame. In base ai risultati ottenuti è possibile affermare che gli indici SPI e SDI a scala di bacino hanno una buona correlazione che permette di poter considerare anche la sola caratterizzazione pluviometrica per identificare la situazione della disponibilità idrica del fiume a monte dell’opera di presa del Canale di Reno.