856 resultados para Migrazione database DBMS processo software dati
Resumo:
Tale tesi si prefigge lo scopo di mettere in evidenza l'importanza dell'introduzione della cartella clinica elettronica dispositivo medico, nel reparto ospedaliero di cardiologia. Essa contiene dati inerenti l'intera cronologia degli eventi caratterizzanti il processo di cura del paziente ed assicura un accesso veloce e sicuro ai record clinici di interesse. Grazie al suo sviluppo, è stato possibile facilitare la cura, la diagnosi e la refertazione degli esami. E' necessario operare l'integrazione fra le diverse modalità di acquisizione, permettendo la comunicazione fra loro e col sistema informativo specifico del reparto, così da poter raccogliere velocemente informazioni coerenti e prive di errori, da inserire nella cartella clinica elettronica cardiologica. Per soddisfare tali esigenze di integrazione, è stato introdotto nell'ambito clinico, l'uso dei diversi profili di integrazione IHE, ognuno riguardante uno specifico settore sanitario. L'iniziativa IHE è volta a migliorare l'efficienza dei flussi di lavoro ospedalieri e della pratica clinica, sviluppando la condivisione delle informazioni e l'integrazione fra i sistemi informativi ospedalieri ed i vari software utilizzati dalle modalità, grazie alla gestione ed uso coordinato di più standard clinici già esistenti (per esempio, DICOM e HL7). Perciò, IHE offre una base solida e comune per l'efficace scambio informativo tra i dispositivi ospedalieri di interesse, sebbene essi parlino linguaggi differenti, assicurando così che le informazioni richieste per le decisioni cliniche, siano prive di errori e contraddizioni e facilmente reperibili dal personale sanitario.
Resumo:
L’obiettivo della tesi è dimostrare come da un’idea progettuale si arriva alla realizzazione di un prodotto finito passando attraverso la sua modelizzazione. In questo caso l’oggetto dell’attività voleva essere quello di risolvere la problematica degli accessi nelle Ztl. Per risolvere questa problematica è sufficiente comunicare l’accesso al comando dei vigili urbani, per questo i canali di comunicazione scelti dall’azienda sono multipli, in particolare nella tesi verrà mostrato in che modo si arriva al prodotto finale attraverso l’attività di modellizzazione, usando il canale APP versione QR-Code.
Resumo:
La tesi descrive lo sviluppo di un pezzo di software di acquisizione dati per l'esperimento LUCID di ATLAS al CERN che viene testato nella calibrazione di due rivelatori inorganici cristallini allo ioduro di sodio
Resumo:
Questo lavoro di tesi �si basa sull'estendere l'architettura del software NILDE - Network Inter Library Document Exchange attraverso un processo di migrazione verso servizi REST (REpresentational State Transfer) utilizzando e ampliando metodologie, best practice e frameworks che hanno permesso lo sviluppo di API Pubbliche e Private utilizzabili da utenti esterni.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
Il testo documenta due aspetti importanti della certficazione del software DM come la conoscenza della normativa 93/42 e il processo di gestione del rischio. Entrambi fondamentali per valutare la sicurezza di tali dispositivi.
Resumo:
Esplicazione documentata del processo di progettazione e sviluppo di una libreria in grado di comunicare in maniera standard con 8 diversi database, sia a livello di query SQL che a livello di ORM transazionale, con opportuni richiami di ingegneria del software
Resumo:
L'argomento del seguente lavoro di tesi è lo sviluppo di un software per acquisire e elaborare i dati provenienti da un sistema di eye tracking, per lo studio dei movimenti oculari.
Resumo:
Un limite rilevante delle apparecchiature elettromedicali presenti in una comune sala operatoria/interventistica è rappresentato dal fatto che le informazioni clinico-strumentali che esse sono in grado di fornire vengono gestite localmente in maniera indipendente: ogni fabbricante di apparecchiatura medica, infatti, sviluppa standard proprietari per l’acquisizione, la presentazione e l’archiviazione dei dati. Ci si chiede se sia possibile una gestione globale, sincronizzata e personalizzata, delle informazioni clinico-strumentali acquisibili da diverse strumentazioni presenti nel medesimo contesto operatorio. La soluzione di SparkBio S.r.l. per colmare il gap esistente in materia di gestione di informazioni clinico-strumentali di sala è quella di concentrare le uscite video e le uscite analogiche dei vari dispositivi e visualizzarle contemporaneamente su di un unico monitor master. Il monitor master sarà suddiviso tramite una griglia in diversi settori ed ogni area predisposta per visualizzare il segnale video o analogico di un dispositivo presente in sala. Avendo a disposizione un’apparecchiatura con questa potenzialità, le applicazioni risultano innumerevoli: l’archiviazione di un unico file contenente la registrazione sincronizzata dei segnali delle varie sorgenti permette di documentare l’intera esecuzione della procedura al fine di una sua successiva visione e distribuzione: il confronto congiunto, fatto a posteriori, di parametri acquisiti da strumenti diversi rende possibile valutare particolari eventi; la condivisione con la comunità scientifica rende possibile la diffusione del sapere in materia di chirurgia. Inoltre la disponibilità di una collezione di dati concentrati in un’unica workstation apre la strada ad applicazioni nel campo della telemedicina: la condivisione a distanza delle varie sorgenti raccolte e sincronizzate via WEB, tramite l’integrazione di un software per videoconferenza, permette di realizzare supporto remoto, e-learning, telementoring e teleproctoring. L’obiettivo di questa tesi è analizzare il processo di sviluppo di questo nuovo dispositivo medico denominato “OneView”, per poi passare alla progettazione di scenari specifici applicabili a diverse procedure chirurgiche.
Resumo:
La tesi fornisce una panoramica delle principali metodologie di analisi dei dati utilizzando il software open source R e l’ambiente di sviluppo integrato (IDE) RStudio. Viene effettuata un’analisi descrittiva e quantitativa dei dati GICS, tassonomia industriale che cataloga le principali aziende per il processo di gestione e ricerca degli asset di investimento. Sono stati studiati i principali settori del mercato USA considerando il fatturato, le spese per il lobbying e tre indici che misurano il grado di collegamento fra industrie. Su questi dati si sono svolte delle analisi quantitative e si sono tentati alcuni modelli nell’ambito della regressione lineare semplice e multipla. Tale studio ha il compito di verificare eventuali interazioni fra le variabili o pattern di comportamento strategico societario durante il periodo 2007 - 2012, anni di rinnovo e miglioramento delle regolamentazioni in materia di lobbying negli Stati Uniti. Più nello specifico vengono presi in esame tre settori: IT, Health Care e Industrial dove viene studiato l’andamento del reddito medio e la spesa media in attività di lobbying dei settori. I risultati ottenuti mostrano l’utilità dei pacchetti di R per l’analisi dei dati: vengono individuati alcuni andamenti che, se confermati da ulteriori e necessarie analisi, potrebbero essere interessanti per capire non solo i meccanismi impliciti nell’attività di lobbying ma anche comportamenti anomali legati a questa attività.
Resumo:
Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.
Resumo:
Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.
Resumo:
Coniato negli anni‘90 il termine indica lo scavare tra i dati con chiara metafora del gold mining, ossia la ricerca dell’oro. Oggi è sinonimo di ricerca di informazione in vasti database, ed enfatizza il processo di analisi all’interno dei dati in alternativa all’uso di specifici metodi di analisi. Il data mining è una serie di metodi e tecniche usate per esplorare e analizzare grandi set di dati, in modo da trovare alcune regole sconosciute o nascoste, associazioni o tendenze.
Resumo:
Lo scopo di questa tesi è valutare la resistenza a compressione e il valore del modulo elastico di tre laminati ottenuti con lo stesso materiale composito, CFRP, distinti in fase di laminazione dall’utilizzo di tre diverse tipologie di distaccante (peel-ply, film distaccante e controstampo). In questo modo è stato possibile valutare come quest’ultimi abbiano influito, in modo diverso per ogni laminato, sull’omogeneità dello spessore, sul peso, sulla fuoriuscita di resina e sulla percentuale volumetrica delle fibre. Tali fattori a loro volta hanno caratterizzato i valori di resistenza a compressione e modulo elastico. Nei capitoli successivi è descritto un metodo di analisi a compressione dei materiali compositi, a matrice epossidica rinforzata con fibre di carbonio (CFRP), denominato Combined Loading Compression (CLC) Test Method, basato sull’applicazione, combinata, del carico sul campione, a taglio e all’estremità. La realizzazione dei provini è stata effettuata presso i laboratori dell’università: sono stati realizzati 3 laminati, per ognuno dei quali si è scelto di utilizzare su ogni pezzo una diversa tipologia di distaccante: controstampo, film distaccante e peel-ply, allo scopo di valutare quanta resina uscirà dal manufatto una volta in autoclave e quanta variazione di spessore avremo. Da ognuno di questi laminati sono stati ricavati 5 provini. La campagna sperimentale è stata condotta presso il Laboratorio Tecnologie dei Materiali Faenza (TEMAF). L’elaborazione dei dati è stata effettuata mediante l’utilizzo del software Office Excel, in cui sono stati calcolati i parametri fondamentali, suggeriti dalla normativa ASTM D6641/D6641M, per la caratterizzazione meccanica a compressione dei materiali CFRP.