922 resultados para Replicazione Dati Ridondanza Sistemi Distribuiti
Resumo:
Il danno epatico indotto dall'assunzione di farmaci viene comunemente indicato con il termine inglese DILI (Drug-Induced Liver Injury). Il paracetamolo rappresenta la causa più comune di DILI, seguito da antibiotici, FANS e farmaci antitubercolari. In particolare, i FANS sono una delle classi di farmaci maggiormente impiegate in terapia. Numerosi case report descrivono pazienti che hanno sviluppato danno epatico fatale durante il trattamento con FANS; molti di questi farmaci sono stati ritirati dal commercio in seguito a gravi reazioni avverse a carico del fegato. L'ultimo segnale di epatotossicità indotto da FANS è associato alla nimesulide; in alcuni paesi europei come la Finlandia, la Spagna e l'Irlanda, la nimesulide è stata sospesa dalla commercializzazione perché associata ad un'alta frequenza di epatotossicità. Sulla base dei dati disponibili fino a questo momento, l'Agenzia Europea dei Medicinali (EMA) ha recentemente concluso che i benefici del farmaco superano i rischi; un possibile aumento del rischio di epatotossicità associato a nimesulide rimane tuttavia una discussione aperta di cui ancora molto si dibatte. Tra le altre classi di farmaci che possono causare danno epatico acuto la cui incidenza tuttavia non è sempre ben definita sono gli antibiotici, quali amoxicillina e macrolidi, le statine e gli antidepressivi.Obiettivo dello studio è stato quello di determinare il rischio relativo di danno epatico indotto da farmaci con una prevalenza d'uso nella popolazione italiana maggiore o uguale al 6%. E’ stato disegnato uno studio caso controllo sviluppato intervistando pazienti ricoverati in reparti di diversi ospedali d’Italia. Il nostro studio ha messo in evidenza che il danno epatico da farmaci riguarda numerose classi farmacologiche e che la segnalazione di tali reazioni risulta essere statisticamente significativa per numerosi principi attivi. I dati preliminari hanno mostrato un valore di odds ratio significativo statisticamente per la nimesulide, i FANS, alcuni antibiotici come i macrolidi e il paracetamolo.
Resumo:
The object of this work has been the analysis of natural processes controlling the geological evolution of the Montenegro and Northern Albania Continental Margin (MACM) during the Late Quaternary. These include the modern sediment dispersal system and oceanographic regime, the building and shaping of the shelf margin at the scale of 100 kyr and relative to the most recent transition between glacial and interglacial periods. The analysis of the new data shows that the MACM is a shelf-slope system formed by a suite of physiographic elements, including: an inner and an outer continental shelf, separated by two tectonically-controlled morphological highs; a lobated drowned mid-shelf paleodelta, formed during the last sea level fall and low stand; an upper continental slope, affected by gravity-driven instability and a system of extensional faults with surficial displacement, featuring an orientation coherent with the regional tectonics. The stratigraphic study of the MACM shows a clear correspondence between the Late Pleistocene/Holocene mud-wedge and the low reflectivity sectors of the inner shelf. Conversely, most of the outer shelf and part of the continental slope expose deposits from the last sea level low stand, featuring a general sediment starving condition or the presence of a thin postglacial sediments cover. The MACM shows uplift in correspondence of the Kotor and Bar ridges, and subsidence in the outer shelf and upper slope sectors. In fact, seaward of these tectonic ridges, the sparker seismic profile show the presence of four well-defined seismo-stratigraphic sequences, interpreted as forced regression deposits, formed during the last four main glacial phases. In this way, the MACM records the 100 kyr scale sea level fluctuations on its seismo-stratigraphic architecture over the last 350 kyr. Over such time range, through the identification of the paleoshoreline deposits, we estimated an average subsidence rate of about 1.2 mm/yr.
Resumo:
Gleno-humeral joint (GHJ) is the most mobile joint of the human body. This is related to theincongr uence between the large humeral head articulating with the much smaller glenoid (ratio 3:1). The GHJ laxity is the ability of the humeral head to be passively translated on the glenoid fossa and, when physiological, it guarantees the normal range of motion of the joint. Three-dimensional GHJ linear displacements have been measured, both in vivo and in vitro by means of different instrumental techniques. In vivo gleno-humeral displacements have been assessed by means of stereophotogrammetry, electromagnetic tracking sensors, and bio-imaging techniques. Both stereophotogrammetric systems and electromagnetic tracking devices, due to the deformation of the soft tissues surrounding the bones, are not capable to accurately assess small displacements, such as gleno-humeral joint translations. The bio-imaging techniques can ensure for an accurate joint kinematic (linear and angular displacement) description, but, due to the radiation exposure, most of these techniques, such as computer tomography or fluoroscopy, are invasive for patients. Among the bioimaging techniques, an alternative which could provide an acceptable level of accuracy and that is innocuous for patients is represented by magnetic resonance imaging (MRI). Unfortunately, only few studies have been conducted for three-dimensional analysis and very limited data is available in situations where preset loads are being applied. The general aim of this doctoral thesis is to develop a non-invasive methodology based on open-MRI for in-vivo evaluation of the gleno-humeral translation components in healthy subjects under the application of external loads.
Resumo:
L’obiettivo di questa tesi di laurea è quello di descrivere le principali caratteristiche delle mappe digitali e dei sistemi di navigazione che possono essere fruiti dagli utenti attraverso l’utilizzo di dispositivi con diverse caratteristiche (quali i dispositivi mobili, come smart phone, tablet, eccetera). Questi sistemi offrono dei servizi estremamente utili, che mirano a migliorare la mobilità e l’indipendenza dell’utente e, quindi, possono rappresentare un valido supporto agli utenti con disabilità che desiderano spostarsi negli ambienti urbani in modo autonomo. D’altra parte, i contenuti digitali e i servizi offerti dalle mappe e dai sistemi di navigazione possono comportare delle barriere tecnologiche che influenzano la fruizione e la navigazione da parte di questi utenti. Nell’ambito di questa tesi saranno descritte anche le caratteristiche tecniche delle mappe digitali e dei sistemi di navigazione, con particolare attenzione alle barriere tecnologiche che queste possono rappresentare per gli utenti con disabilità. Infine, l’obiettivo principale di questa tesi è quello di illustrare alcuni progetti di ricerca che offrono delle soluzioni e dei validi supporti agli utenti con differenti disabilità nell’accesso e nella fruizione delle mappe digitali e dei sistemi di navigazione. In particolare, saranno presentati i progetti di ricerca più interessanti e quelli che maggiormente hanno avuto un riscontro pratico, offrendo delle soluzioni effettivamente utilizzabili dagli utenti che fanno uso di determinate tecnologie assistive e che hanno vincoli e bisogni specifici. Nell’ambito di questa tesi sarà dato spazio anche a progetti che offrono agli utenti mappe tematiche (comunque accessibili) che mirano ad offrire informazioni sull’accessibilità urbana, consentendo, così, agli utenti di avere dati aggiuntivi e di migliorare ulteriormente la loro autonomia nel muoversi in città.
Resumo:
La tecnica di posizionamento GPS costituisce oggi un importante strumento per lo studio di diversi processi tettonici e geodinamici a diverse scale spaziali. E’ possibile infatti usare dati GPS per studiare sia i movimenti delle placche tettoniche a scala globale, sia i lenti movimenti relativi attraverso singole faglie. I campi di applicazione del GPS sono aumentati considerevolmente negli ultimi anni grazie all’incremento del numero di stazioni distribuite sulla Terra e al perfezionamento delle procedure di misura ed elaborazione dati. Tuttavia mentre le velocità di spostamento orizzontali sono da tempo largamente studiate, quelle verticali non lo sono altrettanto perché richiedono il raggiungimento di precisioni sub millimetriche e risultano inoltre affette da numerose fonti di errore. Lo scopo di questo lavoro è quello di ricavare i tassi di deformazione verticale della litosfera in Europa Occidentale a partire dalle misure di fase GPS, passando per l’analisi delle serie temporali, e di correggere tali velocità per il contributo dell’aggiustamento glacio-isostatico (Glacial Isostatic Adjustment, GIA), modellato utilizzando il software SELEN (SEa Level EquatioN solver). Quello che si ottiene è un campo di velocità depurato dal contributo del GIA e rappresentante una stima dei tassi di deformazione verticale relativi all’area in esame associati a processi deformativi diversi dal GIA.
Resumo:
La tesi descrive come si è arrivati dal baratto ai sistemi di monete virtuali, attraverso l'evoluzione dei sistemi bancari e dell'IT. Inoltre viene mostrata l'implementazione del protocollo Bitcoin.
Resumo:
Lo scopo di questa tesi è di mettere a confronto le performance, su grandi quantità di dati, tra applicazioni web basate su database a modello relazionale, noti come RDBMS, e applicazioni web basate su database a modello non-relazionale, meglio conosciuti con l'appellativo NoSQL. Sono stati selezionati sette casi d'uso appartenenti ad una applicazione reale per effettuare il confronto di prestazioni tra i seguenti database: MySQL, Microsoft SQL Server, OrientDB, MongoDB e BaseX.
Resumo:
La firma grafometrica è la sottoscrizione autografa eseguita con uno stilo elettronico su un dispositivo di acquisizione digitale e rappresenta ad oggi nel panorama delle tipologie di firma elettroniche una realtà a tutti gli effetti realizzabile. Questa tipologia di firma elettronica fonda il proprio valore sulle caratteristiche di universalità, unicità, permanenza e collezionabilità dei dati biometrici. Il successo della firma grafometrica è da ricercare invece nella sua stessa natura di firma, in quanto l'uomo da sempre è stato abituato ad eseguire il gesto dell'apposizione della propria firma autografa a dichiarazione della propria volontà. La profonda informatizzazione degli ultimi anni e la recente normativa hanno quindi permesso di trasferire la semplicità di questo gesto dal contesto analogico a quello digitale. I vantaggi derivanti dall'utilizzo della firma grafomentrica sono molteplici: innanzitutto il suo utilizzo comporta la completa dematerializzazione della gestione documentale aziendale con considerevoli risparmi dati dall'annullamento dei costi di stampa ed archiviazione dei documenti stessi, comporta inoltre una maggiore velocità di esecuzione dei processi documentali (dalla realizzazione dei documenti alla ricerca degli stessi) ed infine rende possibile l’ottenimento di documenti già predisposti per la conservazione a norma (con conseguente mantenimento della validità legale nel tempo). Come conseguenza di questa trasposizione dall'analogico al digitale si sono presentate tuttavia problematiche derivanti dalla natura stessa del nuovo contesto; la realizzazione di soluzioni di firma grafometrica richiede quindi una forte attenzione, al fine di evitare che i dati biometrici possano essere utilizzati impropriamente. Questa tesi è quindi volta a descrivere sia a livello normativo che tecnologico questa tipologia di firma elettronica avanzata. Nel corso della trattazione verranno inoltre fornite delle linee guida per la realizzazione di un corretto processo di apposizione della firma grafometrica a tutela della sicurezza dei dati biometrici dell'individuo.
Resumo:
In questa Tesi di laurea, si è affrontato il problema della mobilità veicolare in caso di nebbie. Si è quindi sviluppato un prototipo con architettura Client-Server, che si è soffermato maggiormente sull’analisi dei dati per la creazione di un percorso alternativo. Si è preso in considerazione il sistema operativo mobile di Apple, iOS7 che rappresenta uno dei Sistemi Operativi mobili maggiormente presenti sul mercato oggigiorno e che possiede un buon bacino di utenze. La parte Server è stata sviluppata secondo l’architettura REST; è presente un Server HTTP che riceve richieste e risponde in modo adeguato ai Client tramite lo scambio bidirezionale di dati in formato JSON. Nella parte Server è inclusa la base di dati: un componente molto importante poiché implementa al suo interno, parte della logica di Sistema tramite stored procedure. La parte Client è un’applicazione per dispositivi iPad e iPhone chiamata Fog Escaping; essa è stata sviluppata secondo il pattern MVC (Model- View-Controller). Fog Escaping implementa un algoritmo Greedy di ricerca del percorso alternativo, che può essere utilizzato per diverse tipologie di applicazioni.
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.
Resumo:
Trovare una fonte alternativa ai combustibili fossili non costituisce più una scelta, ma un obbligo. Lo sfruttamento dell’energia geotermica sta diventando una realtà sempre più diffusa, in quanto una forma di energia rinnovabile, pulita, economicamente conveniente, e con una giusta politica energetica potrebbe dare il suo importante contributo all’energia ottenuta da fonte rinnovabile. Ci sono però dei fattori da non sottovalutare, l’installazione e il funzionamento di impianti geotermici per il riscaldamento o raffrescamento di edifici può produrre alterazioni sull’ambiente circostante e nella falda acquifera. Attraverso un attento studio vengono presi in considerazione tutti i fattori che potrebbero provocare un cambiamento dell’equilibrio preesistente, e vengono individuate le soluzioni che permettono la fattibilità del progetto rispettando i parametri imposti dalla legge. Nell’istallazione di sistemi geotermici a bassa entalpia, il principale elemento da tenere sotto osservazione riguarda la previsione e il controllo delle temperature, in modo tale da impedire lo sviluppo di anomalie termiche. Il sistema preso in considerazione in questa tesi è un sistema geotermico open loop: attraverso un pozzo di adduzione viene prelevata acqua direttamente dalla falda acquifera, per il riscaldamento o il raffrescamento di un edificio, e reimmessa, ad una temperatura diversa, attraverso un pozzo di reimmissione. Si valuta l’impatto del sistema nel sottosuolo e le temperature raggiunte a seguito della messa in opera dell’impianto. In particolare, è proposto un modello numerico MODFLOW di un sistema open loop in un acquifero di sabbia e ghiaia, al fine di determinare l’influenza della reimmissione dal punto di vista idrico e termico. I dati risultanti da questo modello saranno confrontati con quelli ottenuti utilizzando un potente software, COMSOL MULTIPHYSICS. Infine si effettua l’analisi e il confronto dei dati ottenuti dai due software nelle diverse configurazioni del sistema e se ne individua la più adatta alle caratteristiche del sito in esame.
Resumo:
In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.
Resumo:
Il trigono della vescica urinaria (UBT) è un'area limitata attraverso la quale penetrano nella vescica la maggior parte dei vasi e fibre e in cui le fibre nervose e neuroni intramurali sono più concentrati. Mediante l’utilizzo combinato di un tracciante retrogrado(FB) e dell’immunoistochimica sono stati valutati il fenotipo e l’area del soma dei neuroni dei gangli spinali (DRG), dei neuroni post-gangliari, il fenotipo dei gangli della catena simpatica (STG) e i gangli mesenterici caudali (CMG) innervanti l’UBT. - Caratterizzazione dei neuroni dei DRG con: peptide correlato al gene della calcitonina (CGRP)(30±3%, 29±3%, rispettivamente), sostanza P(SP)(26±8%, 27±12%), ossido nitrico sintasi neuronale (nNOS)(21±4%; 26±7%), neurofilamento 200kDa (NF200)(75±14%, 81±7% ) , transient receptor potential vanilloid1 (TRPV1)(48±13%, 43±6%) e isolectina-B4-positivi (IB4) (56±6%;43±10%). I neuroni sensoriali, distribuiti da L2 a Ca1 (DRG), hanno presentato una localizzazione segmentale, mostrando maggior densità nei DRG L4-L5 e S2-S4. I neuroni sensoriali lombari sono risultati significativamente più grandi di quelle sacrali (1.112±624μm2 vs716±421μm2). Complessivamente, questi dati indicano che le vie lombari e sacrali probabilmente svolgono ruoli diversi nella trasmissione sensitiva del trigono della vescica urinaria. -I neuroni FB+ della STG e dei CMG sono risultati immunoreattivi per la tirosina idrossilasi (TH)(66±10,1%, 53±8,2%, rispettivamente), la dopamina beta-idrossilasi (DβH)(62±6,2%, 52±6,2%), neuropeptideY (NPY)(59±8%; 66±7%), CGRP(24±3%, 22±3%), SP(22±2%; 38±8%), polipeptide intestinale vasoattivo (VIP)(19±2%; 35±4%), nNOS(15±2%; 33±8%), trasportatore vescicolare dell'acetilcolina (VAChT)(15±2%; 35±5%), leu-encefalina (LENK)(14±7%; 26±9%), e somatostatina (SOM)(12±3%;32±7%).Il numero medio di neuroni FB+ (1845,1±259,3) era nella STG in L1-S3, con i pirenofori più piccoli (465,6±82.7μm2). Un gran numero (4287,5±1450,6) di neuroni FB+ di piccole dimensioni (476,1±103,9μm2) sono stati localizzati lungo il margine dei CMG. Il maggior numero (4793,3±1990,8) di neuroni FB + è stato osservato nel plesso pelvico, dove i neuroni marcati erano raggruppati in micro-gangli e con pirenoforo ancora più piccolo (374,9±85,4 μm2).
Resumo:
Lo scopo di questa tesi è quello di analizzare dapprima l’impatto ambientale di tali impianti e poi analizzare il contributo effettivo che oggi la tecnologia innovativa dei cicli Rankine organici può dare nella valorizzazione elettrica del calore di scarto di processi industriali, focalizzando l’obiettivo principalmente sulle turbine a gas ed eseguendo un caso di studio in un settore ancora poco esplorato da questa tecnologia, quello Oil&Gas. Dopo aver effettuato il censimento degli impianti a fonti fossili e rinnovabili, cogenerativi e non, presenti in Emilia-Romagna, è stato sviluppato un software chiamato MiniBref che permette di simulare il funzionamento di una qualsiasi centrale termoelettrica grazie alla possibilità di combinare la tecnologia dell’impianto con il tipo di combustibile consentendo la valutazione delle emissioni inquinanti ed i potenziali di inquinamento. Successivamente verranno illustrati gli ORC, partendo dalle caratteristiche impiantistiche e termodinamiche fino ad arrivare alla scelta del fluido organico, fondamentale per le performance del ciclo. Dopo aver effettuato una ricognizione dello stato dell’arte delle applicazioni industriali degli ORC nel recupero termico, verranno eseguite simulazioni numeriche per ricostruire gli ORC ed avere una panoramica il più completa ed attendibile delle prestazioni effettive di questi sistemi. In ultimo verranno illustrati i risultati di un caso di studio che vede l’adozione di recupero mediante ciclo organico in un’installazione esistente del settore Oil&Gas. Si effettuerà uno studio delle prestazione dell’impianto al variare delle pressioni massime e minime del ciclo ed al variare del fluido impiegato al fine di mostrare come questi parametri influenzino non solo le performance ma anche le caratteristiche impiantistiche da adottare. A conclusione del lavoro si riporteranno i risultati relativi all’analisi condotte considerando l’impianto ai carichi parziali ed in assetto cogenerativo.