922 resultados para Replicazione Dati Ridondanza Sistemi Distribuiti


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ricercare eventuali variazioni o trend nei fenomeni meteorologici è sempre stato uno degli obiettivi degli studi di ricerca. Il dibattito in letteratura evidenzia la difficoltà nell’individuare in maniera univoca un trend relativo agli eventi precipitativi. Nonostante la grande variabilità climatica, la diminuzione delle precipitazioni in inverno e primavera negli ultimi decenni, nel sud Europa e nella parte occidentale del bacino del Mediterraneo, è stata ampiamente confermata. Inoltre, è sempre più importante osservare come eventuali variazioni nelle precipitazioni possano influenzare variazioni di portata volumetrica di un fiume. Il presente studio ha l’obiettivo di individuare eventuali variazioni nelle precipitazioni e nel regime idraulico del bacino di Imola. Lo studio ha preso in considerazione gli eventi precipitativi dagli anni ’20 al 2014 sul bacino del Santerno, localizzato nelle aree montane centro orientali dell’Emilia-Romagna. Dopo aver effettuato il controllo qualità e di omogeneità sui dati ne è stata fatta un’analisi statistica da cui è risultato, in accordo con la letteratura, una diminuzione delle precipitazioni cumulate invernali e del numero di giorni piovosi annuali per alcune stazioni considerate. Attraverso l’uso del modello TOPKAPI, sono state ricostruite alcune variabili idrologiche, come la portata del fiume in una particolare sezione di chiusura, l’umidità del suolo, l’evapotraspirazione potenziale ed effettiva, così da poterne valutare i trend stagionali e annuali. Non è stata rilevata alcuna variazione sia nella portata massima e minima annuale che in quella oraria, mentre è stato identificato un aumento significativo nell’evapotraspirazione potenziale in tutte le stagioni ad eccezione dell’autunno e una diminuzione della saturazione del suolo in inverno e primavera. Infine, le analisi sulle precipitazioni aggregate hanno confermato i risultati ottenuti nella prima parte dello studio. Per concludere, nonostante siano stati evidenziati alcuni cambiamenti significativi nelle precipitazioni cumulate stagionali, non è stata riscontrata alcuna variazione apprezzabile della portata per la sezione di chiusura considerata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi relativa al fenomeno dell'aderenza, riguardante sia il contatto tra pneumatico e strada, sia il contatto tra ruota e rotaia. Caratteristiche e applicazioni dei sistemi di trasporto su gomma a guida vincolata, precisamente: sistema Translohr, sistemi metropolitani leggeri AGT e sistemi su monorotaia. Conclusioni inerenti pregi e difetti dell'utilizzo di ruote gommate da parte dei sistemi a guida vincolata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio, a livello preliminare, di un sistema a pilotaggio remoto che permetta la sorveglianza e il monitoraggio di zone aeree e marine ad alto rischio e in contemporanea di compiere una raccolta di dati che possa essere inviata in tempo reale ad un utente a terra. Negli ultimi anni si è sviluppato notevolmente il settore dei velivoli a pilotaggio remoto sia ad ala fissa sia ad ala rotante, per la videoripresa e la fotografia aerea a bassa quota, che è utilizzata in molti ambiti tra i quali la fotogrammetria, la geologia e l’archeologia, nonché per studi scientifici e per la sicurezza. Nel presente lavoro di tesi è stata studiata la fattibilità di un UAV capace di effettuare la sua missione, previa pianificazione, in due ambienti completamente diversi fra loro: l’aria e l’acqua. Così facendo si ha la possibilità di acquistare un solo mezzo con costi minori e con un profilo di missione molto più vasto. Lo sviluppo di questo drone, pensato per operazioni di protezione civile, si è articolato in più fasi: anzitutto si è cercato di stabilire quale fosse il suo ambito di utilizzo e quali caratteristiche avrebbe dovuto avere. Successivamente si è iniziato a valutare l’equipaggiamento del velivolo con tutti i sistemi necessari per compiere la sua attività ed infine si è realizzato un disegno CAD semplificato della sua struttura. La seconda parte del lavoro è stata incentrata sullo studio preliminare della stabilità del velivolo sia in configurazione aerea sia in quella marina andando dapprima a calcolare la posizione del baricentro dell’UAV in modo da avere un velivolo aereo staticamente stabile e a simularne il volo. Successivamente si è modificato un modello Simulink di un UAV disponibile in rete, adattandolo opportunamente a questo caso per simulare parte della missione e si è potuto constatare che il velivolo risulta essere stabile; per far questo sono state calcolate diverse derivate aerodinamiche in modo da poter simulare il comportamento dinamico del velivolo. Anche per la configurazione marina sono state calcolate le derivate aerodinamiche più significative ed è stata realizzata una simulazione per valutare la stabilità del ROV, sempre a comandi fissi. In ultima analisi si è studiata una missione tipica che potrebbe effettuare questo UAV multi-modale: per fare ciò si è tracciata in Google Earth una traiettoria cui sono stati aggiunti alcuni modelli CAD nelle fasi principali del volo per far capire come varia la forma del mezzo durante la missione. Lo scenario della missione è in un contesto di disastro ambientale dovuto ad un incidente in una centrale nucleare vicina al mare, caso che ben si presta alla applicazione di questo mezzo a pilotaggio remoto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro si parla di un particolare comportamento emergente nei sistemi complessi: il flocking. Dopo aver dato una panoramica generale di come sia stato affrontato finora lo studio della formazione degli stormi, vengono portati come esempio un modello matematico e uno studio empirico particolare, il quale fonda le basi del flocking su un’interazione topologica. Il modello matematico, basato su un’interazione metrica, viene dapprima presentato, cercando di darne una parziale spiegazione tramite le proprietà delle matrici laplaciane, per poi essere testato attraverso delle simulazioni numeriche. Lo studio empirico, invece, viene presentato nei dettagli fornendo risultati e ipotesi atte a spiegarli. Infine prendendo spunto da questi due lavori, nell’ultima parte vengono posti a confronto due modelli, uno metrico e uno topologico, tramite simulazioni al calcolatore. L’esito di queste simulazioni conferma le ipotesi avanzate per spiegare i risultati empirici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dalle rilevazioni PISA condotte dall'OCSE nel 2003, gli studenti finlandesi sono risultati i migliori in Europa in capacità di lettura e competenze matematiche. Vari esperti in didattica si sono quindi interrogati cercando quali aspetti rendessero eccellente il sistema finlandese. Altri, invece, hanno sostenuto che le prove PISA rilevassero solo alcune abilità senza tener conto delle conoscenze apprese a scuola, quindi il successo finlandese potrebbe essere dovuto al caso. Infatti nei test TIMSS, gli alunni finlandesi hanno avuto risultati mediocri. La tesi cerca di spiegare i “segreti” del sistema scolastico finlandese e di confrontarlo con la scuola italiana. Sono state osservate in loco le lezioni di matematica in alcune classi campione di una scuola finlandese all’ottavo e nono anno di scolarità. Si analizza la didattica sotto diversi punti di vista e si confrontano i libri di testo finlandesi e italiani su uno specifico argomento ritenuto di cruciale importanza: i polinomi. Si evidenzia che la differenza nei risultati delle rilevazioni non dipende tanto dalle differenze dei sistemi scolastici quanto all'impostazione culturale dei giovani finlandesi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La morfologia della piattaforma continentale della Sicilia Settentrionale è il risultato dell'assetto geodinamico della zona e delle più recenti fluttuazioni glacioeustatiche del livello marino.Oggetto di questa tesi è stato lo studio degli elementi geomorfologici sommersi, risalenti all’ultima trasgressione marina, e del cuneo sedimentario olocenico da cui sono sepolti. Tramite i dati forniti da strumenti geofisici, quali l’ecoscandaglio a fascio multiplo (Multibeam) e i profili sismici Chirp Sub-bottom, è stato possibile lo studio di tali elementi e la redazione di due mappe che riportano le isobate delle profondità della superficie di massima ingressione marina e degli isospessori del cuneo olocenico di stazionamento alto. I depositi, nel corso del lavoro, sono stati suddivisi per facilitare la loro descrizione. L'analisi dei depositi trasgressivi ha permesso il riconoscimento di elementi morfologici quali frecce litorali (spit), isole barriera (barrier island), sistemi barriera-laguna e un sistema deltizio sommerso. Queste elementi sono stati ricondotti dunque ad una piattaforma relitta, ormai sommersa, le cui morfologie sono state plasmate dall'ultima trasgressione marina. Grazie ai profili chirp subbottom è stato inoltre possibile riconoscere un basamento carbonatico Meso-Cenozoico con un area di 23 km². I depositi olocenici di stazionamento alto occupano circa l'88% della superficie della piattaforma analizzata. Gli spessori maggiori, corrispondenti a 25m, sono stati riscontrati in prossimità della costa da cui degradano verso nord fino ad estinguersi. L'estensione del cuneo olocenico risulta essere influenzata dalle correnti, che trasportano i sedimenti verso est, dalla presenza degli alti morfologici, in prossimità della cui superficie i sedimenti si arrestano, e dall'apporto fluviale fornito dalle fiumare che sfociano nella zona analizzata. Quest'ultimo è il fattore che influenza maggiormente lo spessore del cuneo. Nelle aree di piattaforma prossime alle foci fluviali inoltre è stata riscontrata la deposizione di materiali grossolani che lateralmente sfumano a fini attraverso contatti eteropici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi inserita in un periodo di forte transizione dai sistemi On­premises a sistemi Cloud ha avuto l'esigenza di risolvere alcune problematiche legate alla definizione delle infrastrutture. Come poter scalare le risorse all'evenienza ricreando gli stessi ambienti, monitorandoli e mettendo in sicurezza i dati critici delle applicazioni? La tesi ha risposto proprio a questa domanda definendo un nuovo paradigma nel concepire le infrastrutture chiamato Infrastructure as Code. La tesi ha approfondito le pratiche e le metodologie che si sono legate maggiormente all'Infrastructure as Code tra le quali Version Control, Configuration Management, Continuous Integration e Continuous Delivery. La tesi inoltre ha previsto la realizzazione di un prototipo finale nato dallo studio del flusso di sviluppo software aziendale, definendo gli ambienti in accordo ai sistemi di Version Control e Configuration Management, applicando pratiche di integrazione continua per giungere ad una deployment pipeline funzionale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo sviluppo tecnologico e la nascita di Internet ha portato alla costituzione di un nuovo canale di comunicazione il quale costituisce, insieme all'uso dei sistemi informatici, un veicolo per la realizzazione di illeciti. Lo scopo di questa tesi di laurea è di presentare e analizzare in modo critico i principali reati informatici. Le ricerche sono state effettuate attraverso diverse banche dati, lettura di libri e vari articoli. La tesi espone al primo capitolo una panoramica storica e generale sui reati informatici. Nel secondo capitolo viene esaminata la Legge 23 dicembre 1993 n. 547. Il terzo capitolo è il cuore della tesi e analizza i principali reati informatici insieme a relativi casi giuridici. Il quarto ed ultimo capitolo, esamina l'esigenza di avere una normativa comune tra i vari stati del mondo. La trattazione fornisce un quadro d'insieme sul dilagante fenomeno dei crimini informatici, seguito da un'analisi approfondita dei singoli reati. La ricerca e lo studio dei casi reali hanno consentito di concretizzare la normativa teorica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è la progettazione e realizzazione di una porzione del sistema informatico relativo al registro di patologia per il diabete. L'attività di progettazione e realizzazione del Registro diabetici è stata svolta prevalentemente durante il tirocinio presso il SITIC e ha compreso fasi di ricerca, analisi e sviluppo di un'applicazione in Qlikview.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Grazie al progresso nel potenziamento dell'hardware sono state sviluppate tecnologie che stanno rivoluzionando drasticamente il modo di interagire con l'ambiente circostante. Una di queste è sicuramente l'avvento degli Smartglasses e della relativa Realtà Aumentata (AR). Sulla scia del rapido diffondersi di questa tecnologia negli ultimi anni, questa tesi vuole mettere in evidenza le opportunità e i benefici legati al suo impiego esponendo come questa aprirà nuove forme di servizi e metterà in discussione il mondo così come lo si conosce. In particolare la tesi è strutturata in questo modo: nel capitolo uno verranno esposte le tre principali tecnologie wearables rispettivamente SmartWatches, FitnessTracker e SmartGlasses, quest'ultimi visti non solo come dei semplici wearables ma come dispositivi per la Realtà Aumentata, mostrando la maggior parte di quelli presenti sul mercato con una relativa descrizione delle caratteristiche hardware. Nel secondo capitolo verrà dunque esposto il concetto di Realtà Aumentata con l'illustrazione di come si progetta generalmente un'applicazione AR ed analizzando alcuni degli innumerevoli scenari applicativi. Nel terzo capitolo verrà presentato come la tecnologia smartglass utilizzi la realtà aumentata e verranno mostrate le proposte applicative che i più importanti prodotti offrono. Nel quarto capitolo invece si parlerà dei vari tools di sviluppo per progettare ed implementare applicazioni di realtà aumentata in particolare per dispositivi smartglasses. Nel quinto capitolo verrà approfondito proprio uno di questi tools: le librerie di ARToolKit raccontandone le caratteristiche principali e mostrando la struttura generale di un'applicazione che ne fa uso. Infine nel sesto capitolo verrà discusso come questa realtà aumentata grazie all'ausilio di tutti questi dispositivi sta cambiando il modo di interagire con tutto l'ambiente, creando scenari futuristici che coinvolgono ambienti intelligenti nei quali si creerà un livello digitale che aumenterà il mondo fisico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’odierno mercato concorrenziale ha portato le aziende a rinnovare il sistema produttivo, spostandosi da un approccio innovativo convergente, in cui le imprese erano le uniche detentrici del controllo dell’intero processo, fin dalla generazione di nuove idee e proposte di innovazione, ad un approccio aperto, denominato Open Innovation, che fa leva sul concetto di flusso libero e bidirezionale di idee e tecnologie tra l’azienda e l’ambiente esterno. È in questo contesto che è stata progettata in Carpigiani una piattaforma e-maintenance chiamata Teorema che, sfruttando un sistema di telemetria, consente di monitorare in tempo reale le macchine installate presso l’utente finale, acquisendo importanti informazioni sul reale utilizzo e sulle effettive funzionalità impiegate dal cliente. Grazie a tale gestione remota, allo stesso tempo è possibile garantire un’efficace operazione di diagnostica e prognostica atte a prevenire eventuali malfunzionamenti. Il presente elaborato fornisce un concreto metodo di utilizzo di tale piattaforma per il monitoraggio real time di macchine per gelato espresso, al fine di verificarne l’effettivo utilizzo da parte del cliente ed il corretto dimensionamento dell’impianto. Per mezzo della piattaforma Teorema è stato inoltre possibile eseguire un’indagine comparativa sui consumi energetici misurati in macchina, testando l’efficienza di funzionamento. Infine è stata eseguita un’analisi FMEA degli allarmi rilevati sul parco di macchine analizzate, per valutare l’affidabilità della macchina e dei suoi componenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con il presente lavoro si intende portare a termine una ricerca terminologica in italiano e tedesco nell'ambito degli Organismi Geneticamente Modificati. L'obiettivo finale della tesi è inoltre la realizzazione di un database terminologico bilingue, pensato per facilitare il lavoro di traduttori non necessariamente specializzati in tale ambito. L'idea della tesi nasce da uno stage svolto presso la Direzione Generale della Traduzione (DGT) di Lussemburgo, incentrato sulla revisione e l'aggiornamento di una parte della banca dati terminologica dell’Unione Europea (IATE) legata al dominio degli OGM. L'esperienza di tirocinio, in particolare, verrà descritta nella prima parte del lavoro, il quale si articolerà poi in altri 4 punti fondamentali. Nel secondo capitolo si effettuerà una panoramica generale sugli OGM, tematica di grande attualità che riscontra un ampio interesse anche tra la popolazione. Nel terzo capitolo si tratterà l'argomento delle lingue speciali e della terminologia da un punto di vista generale, per poi evidenziare più nel dettaglio le caratteristiche della lingua del dominio di indagine. Nel quarto capitolo, dopo una breve introduzione relativa alla linguistica dei corpora, si effettuerà una descrizione dettagliata delle varie fasi del lavoro terminologico, in cui sono comprese la creazione dei corpora, l'estrazione della terminologia e la realizzazione dei sistemi concettuali. Il quinto capitolo, infine, sarà incentrato sul database terminologico italiano-tedesco, il quale verrà riportato integralmente alla fine della tesi.