982 resultados para Basi di dati, Database, Linq, Entity framework, Workflow, Database


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Lo scopo di questa tesi è analizzare le API disponibili sul Web che forniscono dati meteorologici e in particolare analizzare i servizi che esse offrono. La tesi include la descrizione di confronti già presenti sul Web ed è seguita dalla definizione di una griglia di valutazione con cui sono state analizzate le API meteo e le varie funzionalità che esse offrono. Infine il lavoro si completa con lo sviluppo di un’applicazione mobile realizzata in React Native, in cui è possibile leggere e confrontare in modo interattivo i dati attuali e storici forniti dalle API, inoltre permette di filtrare le API meteo in base alle caratteristiche che si cercano.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

LHC experiments produce an enormous amount of data, estimated of the order of a few PetaBytes per year. Data management takes place using the Worldwide LHC Computing Grid (WLCG) grid infrastructure, both for storage and processing operations. However, in recent years, many more resources are available on High Performance Computing (HPC) farms, which generally have many computing nodes with a high number of processors. Large collaborations are working to use these resources in the most efficient way, compatibly with the constraints imposed by computing models (data distributed on the Grid, authentication, software dependencies, etc.). The aim of this thesis project is to develop a software framework that allows users to process a typical data analysis workflow of the ATLAS experiment on HPC systems. The developed analysis framework shall be deployed on the computing resources of the Open Physics Hub project and on the CINECA Marconi100 cluster, in view of the switch-on of the Leonardo supercomputer, foreseen in 2023.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Gli Insider Threat sono una problematica complessa e rappresentano una delle problematiche più costose per le organizzazioni: questi ultimi possono, potenzialmente, realizzare grandi guadagni dalle informazioni sottratte danneggiando i clienti e provocando danni irreparabili all’organizzazione. Screening effettuati prima dell’assunzione e la costruzione di un relazione di fiducia basata sulla collaborazione rimangono fondamentali ma, spesso, non sono sufficienti ed è bene integrare il processo di difesa da insider threat all’interno delle business operation. Date queste precondizioni, l’obiettivo di questa tesi è stato quello di cercare un approccio sistematico per affrontare il problema dell’Insider Threat e di fornire nuovi strumenti per la sua detection altamente specializzati nel campo della cyber-security. Dato il campo applicativo, risulta fondamentale rendere questo processo totalmente trasparente al potenziale insider threat. Le più moderne tecniche di hiding, prese dai moderni malware, sono state implementate utilizzando eBPF rendendo possibile unire una quasi totale invisibilità unita alla stabilità garantita da questa tecnologia.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Oggigiorno, il termine Digital Twin è ampiamente diffuso. Questo concetto si riferisce a un paradigma utilizzato per la prima volta nel 1970, in una missione spaziale statunitense. Un Digital Twin è un gemello digitale, un modello che simula e raccoglie i dati di un oggetto o essere vivente del mondo reale. I Digital Twin sono sviluppati in molti settori e aziende. Tra queste troviamo Fameccanica, la quale ha costruito dei modelli digitali dei propri macchinari per migliorare la formazione dei manutentori e la produzione, Chevron che ha ridotto i costi di manutenzione, General Elettric che associa a ogni turbina venduta un Digital Twin per mantenerla controllata grazie a dei sensori posti sulla turbina stessa. Risulta importante utilizzare i Digital Twin in ambito medico per tracciare la salute del paziente, simulare eventuali interventi e gestire gli ospedali. In particolare, le strutture ospedaliere dell’Emilia Romagna non sono ottimizzate dal punto di vista economico. Infatti, la sala operatoria rappresenta la principale spesa che AUSL Romagna deve affrontare ma, attualmente, l’organizzazione degli interventi non è efficiente. Pertanto, in seguito a problemi sollevati dai referenti di AUSL Romagna, è stato deciso di realizzare un progetto per la tesi riguardante questo ambito. Per risolvere i problemi riscontrati si realizzerà un prototipo di un Digital Twin delle sale operatorie per poter minimizzare i costi. Grazie alla raccolta, in real-time, dei dati memorizzati nel gemello digitale, si possono pianificare al meglio gli interventi in base alla disponibilità delle sale operatorie. Il progetto assume dimensioni considerevoli per questo motivo è stato suddiviso in tre moduli: una componente che si occupa di standardizzare i dati, un Digital Twin che mantiene i dati relativi allo stato attuale delle sale operatorie e un’interfaccia utente che si occupa di visualizzare i dati ai medici.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In questa tesi progettuale si mira ad utilizzare il paradigma digital twin nell'ambito sanitario, più nello specifico si proporrà il suo utilizzo per la gestione delle sale operatorie di AUSL Romagna. L'obiettivo del progetto, disponibile su ghithub, è quello di monitorare la situazione delle sale operatorie, che costituiscono uno dei principali costi per AUSL, in modo da poterle utilizzarle al meglio. Il progetto, date le sue dimensioni, è stato svolto in collaborazione con Sofia Tosi e Serafino Pandolfini, ognuno dei tre partecipanti si è concentrato su un aspetto implementativo diverso.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Una gestione, un’analisi e un’interpretazione efficienti dei big data possono cambiare il modello lavorativo, modificare i risultati, aumentare le produzioni, e possono aprire nuove strade per l’assistenza sanitaria moderna. L'obiettivo di questo studio è incentrato sulla costruzione di una dashboard interattiva di un nuovo modello e nuove prestazioni nell’ambito della Sanità territoriale. Lo scopo è quello di fornire al cliente una piattaforma di Data Visualization che mostra risultati utili relativi ai dati sanitari in modo da fornire agli utilizzatori sia informazioni descrittive che statistiche sulla attuale gestione delle cure e delle terapie somministrate. Si propone uno strumento che consente la navigazione dei dati analizzando l’andamento di un set di indicatori di fine vita calcolati a partire da pazienti oncologici della Regione Emilia Romagna in un arco temporale che va dal 2010 ad oggi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

All’interno del Parco Naturale Paneveggio – Pale di S. Martino, si trova, ad un’altitudine di 1989 m s.l.m., il Passo Rolle, nelle cui vicinanze nasce il torrente Cismon. In questo elaborato viene discussa la geologia a grande scala dell’area di Passo Rolle, esaminata attraverso un rilevamento geologico che ha permesso la suddivisione della Formazione di Werfen in nove Membri. Oltre ad essi, la geologia dell’areale comprende anche due Unità litologicamente molto diverse dal Werfen, ovvero il Piastrone Porfirico Atesino, composto da porfidi, e le arenarie di Val Gardena. Ogni Membro ha infatti caratteristiche distinguibili dagli altri, non solo dal punto di vista litologico, ma anche morfologico e fossilifero. Dal punto di vista sismotettonico, quest’area è particolarmente complessa, in quanto la sua evoluzione comincia nel Permiano Inferiore con la messa in posto delle vulcaniti, per poi terminare nel Neogene, quando si formò il sovrascorrimento della Valsugana. L’areale rilevato corrisponde alla zona 1, che si trova a Nord-Ovest del Passo Rolle e comprende Malga Juribello, parte del Rio Juribello e del Bosco di Costoncella. In base alla colonna stratigrafica, sono affioranti i porfidi, le arenarie e il Werfen Inferiore; significativi sono anche i depositi glaciali e di versante. I dati delle giaciture sono stati suddivisi in due campioni e ognuno è stato inserito all’interno di due stereonet. Tra i due set è stata trovata una correlazione sia per l’immersione sia per l’inclinazione. Sono poi stati trascritti in tabella i dati più significativi. L’approfondimento tematico, dopo un inquadramento generale relativo al clima della Provincia Autonoma di Trento, prende in esame con particolare attenzione le precipitazioni e l’idrogeologia del territorio. Attraverso una ricerca realizzata consultando un database regionale, vengono infine forniti dati sulle sorgenti presenti nell’areale di rilevamento e nelle aree limitrofe alla zona 1.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Background:La letteratura dimostra che nei soggetti con insufficienza cardiaca grave l'impianto del Dispositivo di Assistenza Ventricolare (VAD) migliora la sopravvivenza in attesa del trapianto cardiaco. Nei soggetti portatori di VAD si rende sempre più indicato il trattamento fisioterapico, ma esistono ancora poche evidenze circa la sua efficacia. Obiettivo:Obiettivo primario di questa Revisione Sistematica è quello di valutare, nelle persone con VAD, le prove di efficacia della fisioterapia sulla funzionalità cardio-respiratoria, l’autonomia funzionale e la qualità della vita, ma anche l’incidenza di eventi avversi. Obiettivo secondario è la definizione di un possibile protocollo fisioterapico, accompagnato da appropriati strumenti di misura, indicato nei soggetti con VAD. Metodi:Sono stati ricercati dal 1/06 al 30/09/22 nei database PubMed, Cochrane Library, Scopus e PEDro, studi clinici randomizzati e controllati che valutassero l'impatto della fisioterapia dopo impianto di VAD rispetto all’usual care, in seguito stimati nel loro rischio di bias con il Cochrane RoB2tool. La sintesi dei dati è stata effettuata in forma qualitativa. Risultati:Sono stati inclusi 4 RCT per un totale di 82 partecipanti. Negli studi il trattamento è durato fino a 12 settimane ed è consistito in allenamento aerobico e/o esercizi di rinforzo e/o fisioterapia respiratoria, con una frequenza media di 3 vv/settimana. È stato registrato un solo evento avverso legato alla fisioterapia in uno studio. I risultati hanno mostrato miglioramenti nei valori di assorbimento del picco di ossigeno, nella distanza percorsa con il 6MWT e nei punteggi della QoL, senza tuttavia differenze statisticamente significative tra i due gruppi. Conclusioni:La fisioterapia dopo l'impianto di VAD migliora la capacità funzionale e la QoL. Tuttavia, sono necessari ulteriori studi, preferibilmente multicentrici e con follow-up più lunghi, per valutare i reali benefici clinici della fisioterapia in tale popolazione.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'obbiettivo della seguente tesi è quello di analizzare quali sono ad oggi i migliori framework per lo sviluppo di software in Mixed Reality e studiare i design pattern più utili ad uno sviluppatore in questo ambito. Nel primo capitolo vengono introdotti i concetti di realtà estesa, virtuale, aumentata e mista con le relative differenze. Inoltre vengono descritti i diversi dispositivi che consentono la realtà mista, in particolare i due visori più utilizzati: Microsoft Hololens 2 e Magic Leap 1. Nello stesso capitolo vengono presentati anche gli aspetti chiave nello sviluppo in realtà mista, cioè tutti gli elementi che consentono un'esperienza in Mixed Reality. Nel secondo capitolo vengono descritti i framework e i kit utili per lo sviluppo di applicazioni in realtà mista multi-piattaforma. In particolare vengono introdotti i due ambienti di sviluppo più utilizzati: Unity e Unreal Engine, già esistenti e non specifici per lo sviluppo in MR ma che diventano funzionali se integrati con kit specifici come Mixed Reality ToolKit. Nel terzo capitolo vengono trattati i design pattern, comuni o nativi per applicazioni in realtà estesa, utili per un buono sviluppo di applicazioni MR. Inoltre, vengono presi in esame alcuni dei principali pattern più utilizzati nella programmazione ad oggetti e si verifica se e come sono implementabili correttamente su Unity in uno scenario di realtà mista. Questa analisi risulta utile per capire se l'utilizzo dei framework di sviluppo, metodo comunemente più utilizzato, comporta dei limiti nella libertà di sviluppo del programmatore.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’elaborato si è sviluppato all'interno dell’azienda System Logistics S.p.A. di Fiorano Modenese, leader nel settore del material handling e dell’intralogistica. Il focus dell'elaborato è sulla progettazione di un piano di campionamento indicizzato secondo il livello di qualità accettabile. Successivamente ad una presentazione più approfondita dell’azienda e dei prodotti offerti, si passa all’introduzione teorica dei temi dell’intralogistica e della qualità. Questo permette di comprendere il contesto operativo più generale in cui si inserisce il progetto. Infatti, la parte centrale è dedicata alla presentazione delle origini, degli obiettivi e della metodologia del progetto, in particolare, anticipando le procedure che si sono poste come basi strutturali della progettazione. La parte finale descrive il processo statistico che ha portato all’ottenimento del nuovo piano di campionamento e la sua applicazione empirica ai componenti più critici della navetta del LogiMate, il più recente prodotto dell’azienda. In quest’ultima fase si pone il focus sul processo di raccolta e analisi dei dati presentando, in particolare, un’analisi comparativa rispetto alla situazione iniziale dal punto di vista del rischio e un’analisi effettuata con le Carte di Controllo sul processo produttivo di un fornitore. L’esposizione è realizzata anche mediante grafici, ottenuti principalmente attraverso il supporto di Excel e Minitab, al fine illustrare in modo più agevole ed esplicito i risultati ottenuti.