982 resultados para Basi di dati, Database, Linq, Entity framework, Workflow, Database


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi muove da un interesse dell'autore verso tematiche affrontate nel corso di Idrologia T e prende in esame la valutazione di un impianto micro-idroelettrico presso il Fosso di Canepa nella Repubblica di San Marino. Si è partiti da una raccolta di dati disponibili in territorio sammarinese per poi poter svolgere uno studio che partendo da essi arriva a mostrare la possibilità di sfruttare l'acqua della sorgente di Canepa non solo per l'acquedotto ma anche per la produzione di energia elettrica. Nell'elaborato il potenziale impianto valutato sarà inserito nel contesto energetico sammarinese e ne saranno svolte analisi economiche per mostrarne la fattibilità. Si è inoltre preso in esame il discorso delle energie rinnovabili in generale, delineando le potenzialità che la Repubblica di San Marino potrebbe avere in tale campo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della presente tesi è lo studio e la progettazione di un sistema Hands-Free applicato in ambito Healthcare, volto ad aiutare il personale sanitario nello svolgimento delle mansioni lavorative. Il progetto, denominato Trauma Tracker, ha avuto origine grazie alla collaborazione con medici ed infermieri dell'ospedale Maurizio Bufalini di Cesena. In particolare, il sistema in prodotto si prende carico della compilazione del report finale contenente tutte le operazioni svolte sui pazienti nell'ambito del Pronto Soccorso, riducendo così notevolmente le possibilità di errori dovuti a fattori umani. Durante le fasi di sviluppo e progettazione sono state aggiunte ulteriori funzionalità al sistema, fino a farlo diventare vero e proprio oggetto incantato, in grado di esibire proprietà finora inimmaginabili in questo campo di applicazione. Trauma Tracker, almeno in queste prime fasi, non si propone come uno strumento immediatamente utilizzabile sul campo e pronto ad affiancare i medici, poiché necessiterebbe subito di qualità come robustezza ed affidabilità a livelli estremamente elevati. Per questo motivo il progetto è stato trattato come un "Proof of Concept", ossia un prototipo che ha lo scopo di dimostrare la fattibilità di tale sistema nella realtà, e di verificarne l'utilità una volta applicato in uno scenario concreto. L'argomento trattato ha quindi una grande importanza, poiché getta le basi di una tecnologia che un giorno potrà aiutare medici ed infermieri a svolgere al meglio l'impegnativo compito di salvare vite. In questa tesi, è stato approfondito in particolare il sottosistema utilizzato per il riconoscimento dei parametri vitali dal monitor multi-parametrico posto nei diversi reparti ospedalieri. Esso ha richiesto lunghe fasi di implementazione e collaudo per ottenere dei risultati soddisfacenti, che alla fine sono stati raggiunti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diffusione del Semantic Web e di dati semantici in formato RDF, ha creato la necessità di un meccanismo di trasformazione di tali informazioni, semplici da interpretare per una macchina, in un linguaggio naturale, di facile comprensione per l'uomo. Nella dissertazione si discuterà delle soluzioni trovate in letteratura e, nel dettaglio, di RSLT, una libreria JavaScript che cerca di risolvere questo problema, consentendo la creazione di applicazioni web in grado di eseguire queste trasformazioni tramite template dichiarativi. Verranno illustrati, inoltre, tutti i cambiamenti e tutte le modi�che introdotte nella versione 1.1 della libreria, la cui nuova funzionalit�à principale �è il supporto a SPARQL 1.0.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La valididi una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tecniche di Machine Learning sono molto utili in quanto consento di massimizzare l’utilizzo delle informazioni in tempo reale. Il metodo Random Forests può essere annoverato tra le tecniche di Machine Learning più recenti e performanti. Sfruttando le caratteristiche e le potenzialità di questo metodo, la presente tesi di dottorato affronta due casi di studio differenti; grazie ai quali è stato possibile elaborare due differenti modelli previsionali. Il primo caso di studio si è incentrato sui principali fiumi della regione Emilia-Romagna, caratterizzati da tempi di risposta molto brevi. La scelta di questi fiumi non è stata casuale: negli ultimi anni, infatti, in detti bacini si sono verificati diversi eventi di piena, in gran parte di tipo “flash flood”. Il secondo caso di studio riguarda le sezioni principali del fiume Po, dove il tempo di propagazione dell’onda di piena è maggiore rispetto ai corsi d’acqua del primo caso di studio analizzato. Partendo da una grande quantità di dati, il primo passo è stato selezionare e definire i dati in ingresso in funzione degli obiettivi da raggiungere, per entrambi i casi studio. Per l’elaborazione del modello relativo ai fiumi dell’Emilia-Romagna, sono stati presi in considerazione esclusivamente i dati osservati; a differenza del bacino del fiume Po in cui ai dati osservati sono stati affiancati anche i dati di previsione provenienti dalla catena modellistica Mike11 NAM/HD. Sfruttando una delle principali caratteristiche del metodo Random Forests, è stata stimata una probabilità di accadimento: questo aspetto è fondamentale sia nella fase tecnica che in fase decisionale per qualsiasi attività di intervento di protezione civile. L'elaborazione dei dati e i dati sviluppati sono stati effettuati in ambiente R. Al termine della fase di validazione, gli incoraggianti risultati ottenuti hanno permesso di inserire il modello sviluppato nel primo caso studio all’interno dell’architettura operativa di FEWS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'unifeed a secco è il più diffuso nell'areale del Parmigiano Reggiano. In questa situazione, la peNDF deve essere ridotta per evitare selezione. Di conseguenza spesso presenta valori sotto la soglia minima. In più, spesso i fieni utilizzati sono di scarso valore nutritivo e si rendono necessari elevati livelli di concentrati nella razione. Tutto questo può portare alla diminuzione del tempo di ruminazione e produzione di saliva, aumentando il rischio di SARA. Dopo queste brevi premesse, due prove sono state effettuate presso la stalla sperimentale dell'università di Bologna. La prima con lo scopo di studiare il comportamento alimentare di vacche in lattazione sottoposte a regimi ad libitum/razionato con assenza/presenza di fieno lungo. La seconda si svolse con un improvviso cambio di stabulazione, dalla libera alla fissa, e quota di concentrati nell'unifeed. Da queste prove un grande mole di dati è stata registrata, grazie ai collari della ruminazione, boli reticolari e mangiatoie automatiche. I risultati ottenuti ci hanno permesso di confermare le interconnessioni tra comportamento alimentare, ruminazione e pH. Abbiamo anche verificato l'importanza di costanza di preparazione dell'unifeed e la grande capacità di adattamento delle bovine. Infatti la variabilità nelle gestione della mandria può provocare importanti sanitari. Quindi suggeriamo la supplementazione di fieno lungo in mangiatoia e lo sviluppo di tecnologia NIR in linea sul carro miscelatore. Infine sono state registrate importanti differenze individuali nel far fronte agli stati di stress alimentare. Uno studio più approfondito di questi aspetti sicuramente avrebbe risvolti positivi nella gestione della mandria e aprile la possibilità all'introduzione di nuovi indici di selezione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, in Italia sono stati tradotti un gran numero di opere letterarie cinesi grazie all’impegno e alla passione di numerosi sinologi, studiosi e traduttori italiani. Tuttavia, gli studi sulla traduzione della letteratura cinese sono, sia in Cina che in Italia, relativamente pochi e non sempre uniformi: in Cina è difficile trovare dati completi, sistematici e dotati di un certo valore di riferimento, e in Italia, una ricerca di questo tipo ha avuto origine nell’ambito degli studi sinologici italiani, piuttosto che in quello degli studi sulla traduzione. A partire da una rassegna dei principali approcci agli studi sulla traduzione (letteraria) dalla seconda metà del XX secolo fino ai nostri giorni, questo lavoro di tesi tenta di analizzare da un lato le tendenze generali relative alla traduzione e alla pubblicazione delle opere letterarie cinesi in Italia in un arco temporale che va dal 1942 al 2018, tramite alcune analisi di tipo sia quantitativo che qualitativo basate su una tabella di dati concernenti la letteratura cinese sul mercato editoriale italiano che è stata costruita appositamente; dall’altro, questa ricerca intende investigare le strategie utilizzate per tradurre i diversi riferimenti culturali riscontrati nel corpus di testi scelti e che sono stati suddivisi nelle seguenti categorie: antroponimi, intertestualità, riferimenti al contesto politico e culturale, gastronomia e altri riferimenti culturali. Attraverso un’analisi comparativa e descrittiva dei testi di partenza e dei testi di arrivo, ai fini della tesi si sono indagate le problematiche riguardanti la traduzione e la ricezione della letteratura cinese in Italia e le tendenze che tale letteratura ha avuto sia in ambito editoriale che nel campo della traduzione letteraria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è stato analizzato il sistema convettivo a mesoscala (Mesoscale Convective System (MCS)) del 05/09/2015, abbattutosi sui golfi di Gaeta e di Napoli, sulla stessa città di Napoli e sull'entroterra irpino, scaricando una notevole quantità di fulmini e chicchi di grandine di dimensioni molto al di sopra di quelle usuali nella regione mediterranea, con un diametro compreso tra i 5 ed i 10 cm. Nel primo capitolo vengono presentati gli strumenti utilizzati per l'acquisizione dei dati da satellite, dei fulmini e delle mappe di previsione. Nel secondo capitolo viene effettuata un'analisi meteorologica, in cui vengono descritte le condizioni meteorologiche precedenti e contemporanee all'evento, col supporto di dati provenienti dai modelli numerici di previsione, dalle immagini da satellite e dai radiosondaggi; viene inoltre giudicata la performance di previsione dei modelli. Nel terzo capitolo viene descritto il lavoro di elaborazione dei dati da satellite e vengono esposti i risultati e i grafici ottenuti sull'evoluzione della nube. Si descrive l'elaborazione dei dati sui fulmini e, tramite mappe e grafici, si ricercano correlazioni e risultati. Nel quarto capitolo vengono mostrati alcuni fotogrammi estratti da video presenti su Internet che dimostrano l'eccezionalità dell'evento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è quello di valutare se vi sono delle corrispondenze tra dati dendrocronologici e indici climatici su scala locale. Per procedere a questa analisi vengono introdotti i metodi utilizzati per il monitoraggio del sistema climatico e proposta una breve presentazione della dendrocronologia e degli strumenti di cui ci si avvale in questo campo. La corrispondenza dendroclimatologica su piccola scala è stata fatta tramite l'utilizzo dei dati convezionali (termometri, pluviometri) e dati dendrocronologici tramite un'analisi diretta su alberi nella provincia di Bologna. I dati da pluviometro e termometro sono stati rielaborati in riferimento a indici di teleconnessione forniti dal NOAA sulle differenze di pressioni atmosferiche su precisi punti geografici. In secondo luogo sono stati effettuati dei test non parametrici sulle tendenze e sull'esistenza di punti di cambio e un'elaborazione della probabilità di comparsa di eventi di siccità. I risultati ottenuti sono stati confrontati con ricerche analoghe trovate in letterauratura. L'analisi di dati dendrocronologici è stata fatta sia su immagini relative ad anelli di quercia che a dati di resistenza alla perforazione di un stronco di pioppo vivente. Il confronto finale fra dati convenzionali e alberi, pur soffrendo di notevoli incertezze e imprecisioni ha mostrato alcuni risultati circa l'effetto delle condizioni climatiche sulle piante. Mostrando l'applicabilità di tecniche dendroclimatologiche su piccola scala.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi mira a fornire una panoramica delle tecnologie utilizzate in sala di elettrofisiologia che hanno permesso una riduzione dell’utilizzo del fluoroscopio e quindi della radiazioni ionizzanti per l’individuazione dei cateteri utilizzati durante le procedure. Infatti, si è presentato lo strumento che ha rivoluzionato il mondo della elettrofisiologia quale il sistema di mappaggio elettroanatomico. Esso consente la ricostruzione paziente-specifica dell’anatomia atriale o ventricolare e l’identificazione spaziale e temporale degli elettrogrammi durante un particolare ritmo cardiaco. Infatti questo viene utilizzato dal bioingegnere nelle procedure come l’ablazione transcatetere della fibrillazione atriale per guidare il clinico. Sebbene tale aritmia sia molto diffusa, i suoi meccanismi di mantenimento sono ancora in fase di studio. In particolare, tale tesi presenta la teoria dei rotori che sostiene che la fibrillazione atriale abbia un meccanismo di mantenimento basato su pattern di attivazione spiraliformi. Dato che i rotori possono essere definiti come singolarità di fase che soddisfano un'opportuna persistenza temporale, si è utilizzato un sistema di analisi di dati elettroanatomici (già utilizzato in precedenti casi di studio) in ambiente Matlab per la generazione delle mappe di fase e l’individuazione delle singolarità di fase. In particolare, si è studiata l’attività elettrica di un paziente affetto da FA persistente e sottoposto ad ablazione transcatetere, in due segmenti di acquisizione. Per raggiungere tale obiettivo, è stato utilizzato il catetere HD GRID e il sistema Ensite Precision della Abbott. L’esistenza dei rotori è ancora fortemente dibattuta dalla comunità scientifica, alcuni sostengono che siano artefatti introdotti dal movimento degli elettrodi del catetere durante le procedure. L’eventuale identificazione di rotori con un catetere ad elevata risoluzione, come nel caso in questione, confuterebbe la precedente teoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presso lo stabilimento DOW di Correggio (che è una system house per la produzione di prepolimeri poliuretanici) la ricerca è attualmente incentrata sullo sviluppo su scala industriale di un reattore pilota continuo di tipo plug flow che andrà a sostituire i tradizionali processi BATCH, con un guadagno in termini di sicurezza e costi di investimento. In particolare, il progetto prevedeva di sperimentare le “ricette” attuali di prepolimeri per applicazioni nel settore della calzatura per valutarne l’equivalenza con quelli fatti in BATCH, e di calibrare un modello del reattore pilota che permetta di prevedere le prestazioni del reattore e supporti lo scale-up attraverso la raccolta di dati sperimentali (profili di temperatura, tempi di residenza, titolo di NCO del prodotto, ecc...). Alla conclusione del progetto è possibile affermare che la tecnologia è robusta, scalabile e rispetto ai sistemi di produzione attuale presenta una maggiore produttività, sicurezza e minori costi di investimento. At the DOW plant in Correggio, which is a system house for the production of polyurethane prepolymers, the research is currently focused on the develompment and application of a plug flow type continuos reactor that will replace the traditional BATCH processes, with advantages in terms of process safety an investment costs. In particular, the project aims were to test in the pilot plant the prepolymer receipts for footwear application, find out if the result products were similar or better than the ones made with BATCH reactor and harvest experimental data (such as temperatures profiles, reaction time, residual NCO value, etc...) in order to calibrate a model that will support the scale-up to the industrial plant. Now that the project is ended, it is possibile to assert that this tecnology is reliable, scalable, safer and cheaper than the old processes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ultimamente si stanno sviluppando tecnologie per rendere più efficiente la virtualizzazione a livello di sistema operativo, tra cui si cita la suite Docker, che permette di gestire processi come se fossero macchine virtuali. Inoltre i meccanismi di clustering, come Kubernetes, permettono di collegare macchine multiple, farle comunicare tra loro e renderle assimilabili ad un server monolitico per l'utente esterno. Il connubio tra virtualizzazione a livello di sistema operativo e clustering permette di costruire server potenti quanto quelli monolitici ma più economici e possono adattarsi meglio alle richieste esterne. Data l'enorme mole di dati e di potenza di calcolo necessaria per gestire le comunicazioni e le interazioni tra utenti e servizi web, molte imprese non possono permettersi investimenti su un server proprietario e la sua manutenzione, perciò affittano le risorse necessarie che costituiscono il cosiddetto "cloud", cioè l'insieme di server che le aziende mettono a disposizione dei propri clienti. Il trasferimento dei servizi da macchina fisica a cloud ha modificato la visione che si ha dei servizi stessi, infatti non sono più visti come software monolitici ma come microservizi che interagiscono tra di loro. L'infrastruttura di comunicazione che permette ai microservizi di comunicare è chiamata service mesh e la sua suddivisione richiama la tecnologia SDN. È stato studiato il comportamento del software di service mesh Istio installato in un cluster Kubernetes. Sono state raccolte metriche su memoria occupata, CPU utilizzata, pacchetti trasmessi ed eventuali errori e infine latenza per confrontarle a quelle ottenute da un cluster su cui non è stato installato Istio. Lo studio dimostra che, in un cluster rivolto all'uso in produzione, la service mesh offerta da Istio fornisce molti strumenti per il controllo della rete a scapito di una richiesta leggermente più alta di risorse hardware.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si propone una metodologia per il trasferimento interattivo semiautomatico di dati da modelli geometrici semantici sviluppati in ambiente BIM a modelli strutturali supportati da analisi per elementi finiti. Il caso della Rocca estense di San Felice sul Panaro, gravemente danneggiata dagli eventi sismici del 2012, è utilizzato come caso di studio applicativo. La metodologia prevede in prima battuta la modellazione di elementi speciali BIM quali contenitori locali dei dati semantici definiti mediante regioni nello spazio del modello che individuano particolari condizioni fisiche individuate mediante la definizione di opportuni metadati. Successivamente, tali informazioni vengono processate automaticamente, mediante uno script integrato in ambiente BIM, rendendole compatibili con i set di dati che tipicamente vengono trasmessi in input per analisi ad elementi finiti. Tali operazioni permettono quindi la generazione di un modello strutturale che recepisce direttamente le attribuzioni semantiche del modello geometrico iniziale. Nell'elaborato sono inoltre discusse alcune metodologie alternative per la generazione del modello agli elementi finiti, partendo da diverse definizioni geometriche in ambiente BIM.