585 resultados para Sistema di feedback,Sostenibilità,Machine learning,Agenda 2030,SDI


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ogni giorno, l'utente di smartphon e tablet, spesso senza rendersene conto, condivide, tramite varie applicazioni, un'enorme quantità di informazioni. Negli attuali sistemi operativi, l'assenza di meccanismi utili a garantire adeguatamente l'utente, ha spinto questo lavoro di ricerca verso lo sviluppo di un inedito framework.È stato necessario uno studio approfondito dello stato dell'arte di soluzioni con gli stessi obiettivi. Sono stati esaminati sia modelli teorici che pratici, con l'analisi accurata del relativo codice. Il lavoro, in stretto contatto con i colleghi dell'Università Centrale della Florida e la condivisione delle conoscenze con gli stessi, ha portato ad importanti risultati. Questo lavoro ha prodotto un framework personalizzato per gestire la privacy nelle applicazioni mobili che, nello specifico, è stato sviluppato per Android OS e necessita dei permessi di root per poter realizzare il suo funzionamento. Il framework in questione sfrutta le funzionalità offerte dal Xposed Framework, con il risultato di implementare modifiche al sistema operativo, senza dover cambiare il codice di Android o delle applicazioni che eseguono su quest’ultimo. Il framework sviluppato controlla l’accesso da parte delle varie applicazioni in esecuzione verso le informazioni sensibili dell’utente e stima l’importanza che queste informazioni hanno per l’utente medesimo. Le informazioni raccolte dal framework sulle preferenze e sulle valutazioni dell’utente vengono usate per costruire un modello decisionale che viene sfruttato da un algoritmo di machine-learning per migliorare l’interazione del sistema con l’utente e prevedere quelle che possono essere le decisioni dell'utente stesso, circa la propria privacy. Questo lavoro di tesi realizza gli obbiettivi sopra citati e pone un'attenzione particolare nel limitare la pervasività del sistema per la gestione della privacy, nella quotidiana esperienza dell'utente con i dispositivi mobili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è suddivisa in tre parti. Nella prima parte si descrive il sistema dei canali bolognesi che derivano acqua dal bacino montano del Fiume Reno e dal Torrente Savena, e il sistema di gestione e di monitoraggio utilizzato dal Consorzio dei canali di Reno e Savena. Nella seconda parte si illustra una proposta di sistema di visualizzazione dei dati idro-pluviometrici che si sta valutando, assieme al Presidente del Consorzio e ad Arpa, per il monitor che il Consorzio intende installare al fine di illustrare al pubblico il monitoraggio e l’evoluzione degli eventi di piena e di scarsità idrica/siccità. Nella terza parte, infine, si effettuano la stima e un’analisi della correlazione tra due diversi indici di siccità, meteorologica ed idrologica, per il bacino del Reno chiuso a Casalecchio. Il sistema dell’intero bacino del Reno e della rete dei canali cittadini risulta molto complesso. Vista tale complessità del sistema, si è proposto di distinguere uno scenario di piena e uno scenario di magra. Tra le diverse informazioni da visualizzare nel monitor si intendono anche visualizzare informazioni relative alla disponibilità idrica alla scala del bacino in esame. Per questo è stata svolta l’analisi sugli indici di siccità Standard Precipitation Index (SPI) e Streamflow Drought Index per il bacino del Reno chiuso a Casalecchio . Tali indici hanno portato a dei risultati consistenti con le condizioni idro-metereologiche e con le informazioni sugli impatti al suolo disponibili per alcuni degli eventi più significativi presi in esame. In base ai risultati ottenuti è possibile affermare che gli indici SPI e SDI a scala di bacino hanno una buona correlazione che permette di poter considerare anche la sola caratterizzazione pluviometrica per identificare la situazione della disponibilità idrica del fiume a monte dell’opera di presa del Canale di Reno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’uso di sistemi wearable nell’ambito dell’acquisizione dei segnali biomedici è oggigiorno oggetto di grande interesse. Il loro uso si estende dal monitoraggio di parametri vitali per finalità cliniche al controllo delle dinamiche funzionali del corpo umano nel vivere quotidiano, grazie agli specifici segnali emessi dall’organismo, quali ECG ed EMG. Questa tesi, in particolar modo, riguarda le acquisizioni di segnali EMG, ovvero quelli emessi dalla muscolatura in concomitanza di movimenti, e descrive le modalità con cui essi possono essere acquisiti tramite elettrodi dry ed elettrodi wet. Nello specifico, i risultati ottenuti dai diversi approcci vengono confrontati e viene dimostrato il fatto che vi siano consistenti potenzialità nello sviluppo di sistemi per il riconoscimento di gesti che facciano affidamento sugli elettrodi dry, i quali presentano notevoli vantaggi applicativi rispetto alla controparte di tipo wet, la cui affidabilità in tale ambito è stata ampiamente confermata nel corso degli ultimi anni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I fenomeni di globalizzazione in atto hanno radicalmente modificato il consumo e la distribuzione dei prodotti agroalimentari e dilatato le distanze tra l’origine delle materie prime e consumo finale. Obiettivo del progetto interuniversitario "Food Supply Chain" è studiare le condizioni di trasporto di prodotti agroalimentari. Una delle attività principali è tracciare ed analizzare i fattori critici di spedizioni dal momento in cui i prodotti lasciano lo stabilimento produttivo in Italia fino ai consumatori situati in EU o extra-EU. La tesi si inserisce all’interno di questo progetto e descrive la realizzazione di due Piattaforme in ambiente LabVIEW per la consultazione e la simulazione dei viaggi logistici, le cui caratteristiche sono conservate e organizzate in appositi database. La "Piattaforma LabVIEW per la consultazione a analisi" permette di consultare il database attraverso interrogazioni multiple, estrarre le informazioni più significative, riprodurre le spedizioni in apposite interfacce e produrre dei report riassuntivi per comunicazioni alle imprese La "Piattaforma LabVIEW per la simulazione in camera climatica" rappresenta il sistema di controllo attraverso cui gestire la simulazione dei singoli viaggi in camera climatica, realizzata nel Laboratorio MECCANICA del DIN della Scuola di Ingegneria e Architettura dell’Università di Bologna. Si potranno così valutare e comparare tra loro soluzioni alternative rispetto ad una medesima catena logistica in termini di packaging, imballaggio e protezioni supplementari della spedizione. Infine si potranno confrontare rotte commerciali differenti relative allo stesso prodotto. I risultati ottenuti in camera climatica costituiranno la base per le successive analisi biochimiche sui prodotti e valutazione finale della sostenibilità dell’intera catena logistica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi esaminerò alcuni aspetti fondamentali della tecnologia moderna tra cui alcune leggi chiave che spiegheranno come mai la crescente disoccupazione in Europa, e in occidente in generale, non è causata solamente da crisi finanziarie o politiche, ma dall'intrinseca natura della tecnologia stessa. Ci troveremo nella situazione nella quale una persona non sia in grado di trovare un'occupazione non a causa di demeriti propri, ma poiché il sistema è diventato talmente ottimizzato da tagliare completamente la necessità di alcuni ruoli chiave nel sistema di lavoro. Spiegherò quali sono le strategie da attuare per evitare di trovarsi in questo nuovo sistema di occupazione senza un ruolo al suo interno, quali sono le politiche che un governo debba attuare per garantire i necessari bisogni primari dei propri cittadini, le strutture che ogni azienda deve creare per rimanere all'interno del proprio settore di investimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sviluppo di un sistema innovativo di apertura posizionato sull'aletta laterale per un contenitore asettico per liquidi, in particolare per latte

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si vuole studiare l’implementazione di un sistema di comunicazione dati e audio basato su segnali Ultra Wide Band (UWB). L’obiettivo del progetto è quindi quello di implementare un sistema di comunicazione punto-multi punto basato su UWB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dialisi, le cui basi sono state fondate a metà ottocento dal chimico Thomas Graham, è la terapia, alternativa al trapianto, utilizzata su pazienti affetti da insufficienza renale. Ad oggi tale terapia ha un numero sempre maggiore di utilizzatori, più di 2,5 milioni di persone al mondo, ragione per cui ha un impatto sempre più grande sul sistema sanitario. La terapia, ha come scopo principale quello ripristinare gli equilibri idro-elettrolitico e acido-base del sangue del paziente utilizzando principi quali ultrafiltrazione, convezione e diffusione. Per raggiungere questo obiettivo, il sangue del paziente viene fatto scorrere controcorrente al liquido di dialisi, di composizione nota, ai capi di una membrana semipermeabile. Nel caso dell’emodialisi tutto il processo si svolge in circolazione extracorporea. La dialisi viene eseguita quando i reni del paziente non riescono più a espletare la loro funzione, con conseguente accumulo di tossine e di liquidi, che nel giro di pochi giorni porterebbe alla morte se non si interviene. Data la sua funzione, una parte importante della macchina che esegue l’emodialisi, è il sistema di controllo dell’ultrafiltrazione, che permette di rimuovere in maniera controllata i liquidi che il paziente non riesce a smaltire in maniera autonoma. La rimozione di liquidi avviene mediante la creazione di un gradiente pressorio tra il lato sangue e il lato dializzato, che causa il passaggio di liquidi da una parte all’altra della membrana semipermeabile. Esistono vari metodi che permettono di realizzare questo processo, che si differenziano per la strategia utilizzata per creare i gradienti pressori; ognuno dei quali permette di ottenere una determinata accuratezza. Scopo del mio lavoro di tesi è stato quello di studiare e validare un nuovo sistema di realizzazione e controllo dell’ultrafiltrazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è la realizzazione e l'ottimizzazione di un software che, tramite l'utilizzo di un controllo automatico Proporzionale-Integrativo-Derivativo: PID, gestisca la temperatura di un fornetto in camera a vuoto. È necessario che il sistema sia in grado di eseguire rampe regolari di temperatura di diversa pendenza scelta dall'utente, in modo che possa essere utilizzato in futuro per esperimenti di Desorbimento Termico da parte di vari materiali. La tesi è così suddivisa, nel primo capitolo sono illustrati i concetti teorici di base utilizzati nello sviluppo dei controlli automatici. Nel secondo capitolo è descritta la parte hardware: sono mostrate le diverse sezioni che compongono il fornetto e la camera a vuoto, è inoltre illustrato il cablaggio che permette l'interfaccia del forno alla scheda Arduino ed al software LabVIEW. La terza sezione è dedicata agli studi svolti per la realizzazione del sistema di controllo PID e per la sua ottimizzazione. Il quarto capitolo è invece dedicato alla descrizione del software creato per la gestione del fornetto. Nel quinto capitolo sono infine mostrati i metodi utilizzati per il calcolo delle costanti operative del PID ed i risultati sperimentali ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di analisi del movimento sono in continua espansione e vengono sempre maggiormente utilizzati in ambito sportivo e riabilitativo. In particolare, la valutazione delle lesioni di LCA è, attualmente, affidata a procedure classiche, oltre che a strumenti analitici Gold Standard come il sistema optoelettronico. L’utilizzo dei sensori inerziali per l’analisi del movimento è in notevole aumento e sempre più utilizzato anche negli ambiti descritti. Tuttavia, è da valutare l’accuratezza di tali sistemi nell’esecuzione di gesti complessi ad alta dinamica. L’obiettivo del presente elaborato è stato quello di validare un sistema di sensori inerziali tramite uno optoelettronico, per lo svolgimento di specifici task motori in un’ottica di prevenzione dell’infortunio al LCA. Sono stati valutati 30 soggetti sani, attraverso l’utilizzo sincrono di due tecnologie: il sistema optoelettronico Vicon e il sistema inerziale Xsens. I movimenti svolti dai soggetti rientravano in un protocollo per la prevenzione del LCA, sviluppato presso il centro Isokinetic, il quale comprende 6 task ad elevata dinamica, ricorrenti negli sport maggiori. Si è evinta un’ottima correlazione e basso errore per tutti gli angoli articolari analizzati sul piano sagittale, una buona correlazione sul piano frontale per la maggior parte degli angoli (esclusi caviglia e pelvi), ed una minore riproducibilità sul piano trasverso, in particolare negli angoli di caviglia ginocchio e pelvi. I risultati hanno mostrato una scarsa dipendenza dalla tipologia di task analizzato. La tecnologia inerziale ha dimostrato di essere un’ottima alternativa per l’analisi del movimento in task specifici per la valutazione della biomeccanica di LCA. Le discrepanze evinte possono essere riconducibili ai diversi protocolli cinematici utilizzati ed al posizionamento dei markers. Evoluzioni della tecnologia potrebbero migliorare la precisione di questi sensori offrendo informazioni ancor più dettagliate dove ora ci sono lacune.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d'oggi il reinforcement learning ha dimostrato di essere davvero molto efficace nel machine learning in svariati campi, come ad esempio i giochi, il riconoscimento vocale e molti altri. Perciò, abbiamo deciso di applicare il reinforcement learning ai problemi di allocazione, in quanto sono un campo di ricerca non ancora studiato con questa tecnica e perchè questi problemi racchiudono nella loro formulazione un vasto insieme di sotto-problemi con simili caratteristiche, per cui una soluzione per uno di essi si estende ad ognuno di questi sotto-problemi. In questo progetto abbiamo realizzato un applicativo chiamato Service Broker, il quale, attraverso il reinforcement learning, apprende come distribuire l'esecuzione di tasks su dei lavoratori asincroni e distribuiti. L'analogia è quella di un cloud data center, il quale possiede delle risorse interne - possibilmente distribuite nella server farm -, riceve dei tasks dai suoi clienti e li esegue su queste risorse. L'obiettivo dell'applicativo, e quindi del data center, è quello di allocare questi tasks in maniera da minimizzare il costo di esecuzione. Inoltre, al fine di testare gli agenti del reinforcement learning sviluppati è stato creato un environment, un simulatore, che permettesse di concentrarsi nello sviluppo dei componenti necessari agli agenti, invece che doversi anche occupare di eventuali aspetti implementativi necessari in un vero data center, come ad esempio la comunicazione con i vari nodi e i tempi di latenza di quest'ultima. I risultati ottenuti hanno dunque confermato la teoria studiata, riuscendo a ottenere prestazioni migliori di alcuni dei metodi classici per il task allocation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The job of a historian is to understand what happened in the past, resorting in many cases to written documents as a firsthand source of information. Text, however, does not amount to the only source of knowledge. Pictorial representations, in fact, have also accompanied the main events of the historical timeline. In particular, the opportunity of visually representing circumstances has bloomed since the invention of photography, with the possibility of capturing in real-time the occurrence of a specific events. Thanks to the widespread use of digital technologies (e.g. smartphones and digital cameras), networking capabilities and consequent availability of multimedia content, the academic and industrial research communities have developed artificial intelligence (AI) paradigms with the aim of inferring, transferring and creating new layers of information from images, videos, etc. Now, while AI communities are devoting much of their attention to analyze digital images, from an historical research standpoint more interesting results may be obtained analyzing analog images representing the pre-digital era. Within the aforementioned scenario, the aim of this work is to analyze a collection of analog documentary photographs, building upon state-of-the-art deep learning techniques. In particular, the analysis carried out in this thesis aims at producing two following results: (a) produce the date of an image, and, (b) recognizing its background socio-cultural context,as defined by a group of historical-sociological researchers. Given these premises, the contribution of this work amounts to: (i) the introduction of an historical dataset including images of “Family Album” among all the twentieth century, (ii) the introduction of a new classification task regarding the identification of the socio-cultural context of an image, (iii) the exploitation of different deep learning architectures to perform the image dating and the image socio-cultural context classification.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del seguente elaborato è quello di spiegare le modalità con cui viene monitorato il misfire, le varie strategie a supporto e la calibrazione che ne consegue in un motore V6 Twin Spark con sistema a precamera. Le varie attività sono state svolte nel gruppo OBD presso il dipartimento Powertrain dell’azienda Maserati S.p.A. nell’ambito della diagnosi misfire. Nella prima parte dell’elaborato verrà introdotto un quadro illustrativo delle normative vigenti in tema di emissioni per un motore a combustione interna che delineerà l’esigenza di avere un sistema di monitoraggio On-Board Diagnostic, e verranno descritte le principali diagnosi per i componenti meccanici ed elettronici. Nel secondo capitolo verrà introdotto il concetto di misfire, la sua classificazione e i requisiti che devono essere rispettati per il suo monitoraggio; nell’ultima parte, verrà descritto il motore oggetto di studi e le strumentazioni utilizzate per lo sviluppo dell’attività. Nel terzo capitolo verranno introdotte le varie strategie utilizzate per il rilevamento della mancata accensione della miscela e verrà illustrato come il sistema a precamera ha richiesto la loro revisione. In particolare, per quanto riguarda l’utilizzo della corrente di ionizzazione saranno analizzate le criticità dovute a questo nuovo sviluppo e per l’analisi della variazione di velocità angolare della ruota fonica verrà analizzato come tale sviluppo ha impattato nelle temperature del catalizzatore e nella robustezza della diagnosi effettuata. Infine, nell’ultimo capitolo verrà illustrato come ci si è approcciati alla calibrazione della finestra di osservazione, partendo dalle prove effettuate al banco, proseguendo con l’analisi di tali prove nelle varie condizioni di funzionamento del motore e concludendo con l’implementazione del processo di calcolo automatizzato per la calibrazione. In merito a quest'ultimo punto è stato sviluppato un Tool finalizzato a calcolare la finestra ottimale per ogni punto motore.