148 resultados para Devaluación de la moneda--Perú
Resumo:
Il sistema carsico dei Piani Eterni e la Valle del Mis si trovano in provincia di Belluno, all'interno del parco Nazionale delle Dolomiti Bellunesi. Questi due sistemi geologici sono attualmente in fase di studio e la presente tesi, ha come scopo la correlazione tra i livelli paleo-freatici di grotta dei Piani Eterni e le superfici a bassa pendenza (terrazzi glaciali, kame e superfici di spianamento) dell'adiacente Val del Mis. L'elaborato è stato sviluppato prevalentemente su ArcMap (Gis) e su Excel, mentre su Datagraph sono stati ottenuti i grafici che mostrano i confronti altimetrici e quantitativi tra condotte e superfici. I risultati ottenuti dalla fase di analisi della tesi, mostrano che le correlazioni sono evidenti e grazie alle datazione U-Th di alcuni speleotemi del sistema carsico, sono state avanzate sia una ipotetica ricostruzione dell'antico reticolo di drenaggio della Valle del Mis, sia la causa per la quale questo drenaggio, attualmente, si presenti in maniera estremamente diversa da quello passato.
Resumo:
L’argomento centrale della tesi sono i centri sportivi, l’applicazione permette quindi all’utente di cercare un centro sportivo per nome, per città o per provincia. Consente inoltre di visualizzare la disponibilità per ogni campo offerto dalle strutture ed eventualmente di effettuare una prenotazione. Il centro sportivo renderà disponibili informazioni altrimenti difficilmente reperibili come gli orari, il numero telefonico, l’indirizzo, ecc.. Il progetto si compone di una parte front end e una parte back end. Il front consiste in un’applicazione android nativo (sviluppata in java). Il back-end invece vede un applicativo basato su ASP.NET Web API 2, con db Entity Framework Code First. Per la gestione degli user è stato scelto il framework ASP.NET Identity 2.1.
Resumo:
L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.
Resumo:
La Fibrillazione Atriale (FA) è una delle aritmie più frequentemente riscontrate nella pratica clinica, ma i meccanismi che la generano e che la sostengono non sono ancora oggi ben chiari. L’obiettivo di questo lavoro di tesi è indagare il substrato aritmogeno della FA con particolare attenzione al legame tra rimodellamento elettrico e strutturale. La tecnica di riferimento per la valutazione della fibrosi è la risonanza magnetica con iniezione di mezzo di contrasto e acquisizione ritardata. Tipicamente, però, la presenza di fibrosi viene valutata durante la procedura di ablazione transcatetere mediante l’analisi dei potenziali elettrici rilevati, considerando le zone a basso potenziale indicative della presenza di alterazioni strutturali. In questo lavoro sono stati elaborati dati di Risonanza Magnetica (RM), in particolare sequenze Angio-RM e DE-RM. Dalle sequenze Angio-RM è stato ricostruito un modello 3D paziente-specifico dell’atrio, mentre dalle sequenze DE-RM sono state ricavate informazioni relative alla presenza di tessuto atriale fibrotico. Al modello 3D è stata poi sovrapposta l’informazione sull’intensità di grigio del dato DE-RM per poter visualizzare la localizzazione delle zone di fibrosi sulla superficie 3D dell’atrio. Sono stati anche esportati dal sistema di mappaggio elettroanatomico EnSite NavX (St. Jude Medical) i dati relativi alla geometria dell’atrio e ai potenziali registrati durante lo svolgimento della procedura di ablazione. Da questi dati è stato possibile ricostruire in ambiente Matlab le mappe di voltaggio raffiguranti i potenziali registrati durante la procedura. Per poter studiare e valutare il legame esistente tra rimodellamento elettrico e strutturale, sono state confrontate le mappe di voltaggio e le superfici raffiguranti fibrosi. Questo lavoro di tesi è stato svolto in collaborazione con l’U.O. di Cardiologia dell’Ospedale Bufalini di Cesena e la St. Jude Medical.
Resumo:
L’obiettivo della tesi è l’integrazione di alcuni dispositivi AVL e di un motore elettrico passo-passo lineare all’interno di un sistema di controllo e acquisizione dati per una sala prova motori. La sala prove in cui è svolto il lavoro è quella del laboratorio Hangar del Dipartimento di Ingegneria Industriale di Forlì. Inizialmente viene proposta una breve descrizione della sala prove; essa è divisa in una parte hardware, in cui vengono spiegati i principali device utilizzati per il controllo, e in una parte software, in cui vengono descritti i programmi utilizzati (LabView e TestIT). Successivamente, i capitoli centrali, si occuperanno dei componenti AVL e del motore lineare utilizzati in sala. Per quanto riguarda AVL i dispositivi da integrare sono la bilancia per il carburante 733s e lo smoke meter 415s. Si traccia quindi una descrizione degli impianti e si indicano i principi operativi. Entrambi sfruttano il linguaggio seriale, quindi si procede con la creazioni di un’interfaccia grafica in grado di convertire i comandi desiderati dall’utente in codice ASCII. Allo stesso modo viene affrontato il motore lineare NEMA. In questo caso il dialogo avviene tramite una connessione Ethernet. La parte centrale si conclude con un capitolo nel quale si spiega l’introduzione dei VI all’interno di TestIT e le problematiche che ne possono scaturire. Nell’appendice finale saranno descritte brevemente le connessioni pratiche e gli interventi di progettazione avvenuti per organizzare il rack.
Resumo:
Il presente lavoro di tesi è stato stilato dopo aver svolto un tirocinio curriculare presso l’azienda Robopac S.p.A. nello stabilimento di Villa Verucchio (Rn). Sono partito dal lavoro di raccolta e sintesi degli indici di produzione e delle scorte di magazzino fatto nel periodo di tirocinio, focalizzandomi poi sull’aspetto della gestione delle scorte. Da quest’ultima analisi è emerso che la gestione delle merci ha portato ad avere un alto valore economico del magazzino per cui l’obbiettivo di questo lavoro di tesi è stato fornire un modello per la determinazione della scorta ottimale che porti ad una riduzione del valore totale del magazzino. Inizialmente è stato affrontato il tema generale della logistica industriale, in particolare analizzando il sistema logistico attraverso le sue caratteristiche e funzioni e sono state descritte le tipologie di magazzini industriali secondo i diversi sistemi di stoccaggio. Successivamente è stato introdotto l’argomento principale, ossia i problemi e i modelli di gestione delle scorte. E' stata dapprima descritta e classificata la scorta, per poi analizzarne i modelli di gestione come il modello di Wilson, utilizzato per il questo lavoro, con particolare attenzione alla scorta di sicurezza. Infine è stato formulato l’indice di rotazione e l’analis ABC di Lorentz-Pareto. L'ultimo capitolo descrive l’azienda Robopac con attenzione sul magazzino, attraverso la rappresentazione del percorso delle merci all’interno dello stabilimento e della fase di estrazione del materiale, aprendo una finestra sulla gestione degli approvvigionamenti dell’azienda Robopac. Nella seconda parte si arriva ad affrontare l’argomento centrale di tale elaborato, la definizione di un modello per determinare la scorta ottimale a magazino e vengono evidenziati i risultati ottenuti.
Resumo:
La diatomea presa in esame in questo studio è Phaeodactylum tricornutum, diatomea marina con simmetria pennata. L’interesse commerciale verso Phaeodactylum tricornutum nasce dal suo alto contenuto di acidi grassi polinsaturi (PUFA), tra cui troviamo alcuni omega 3, come l’acido eicosapentaenoico (EPA) e l’acido docosaesaenoico (DHA) e dalla quantità del polisaccaride di riserva prodotto, il β-1,3 glucano crisolaminarina. E’stata studiata la capacità dei β-1,3 glucani, in particolare della laminarina, di inibire l’attacco cellulare da parte di alcuni batteri dannosi per la salute umana. Anche i pigmenti accessori di questa diatomea in particolare il β-carotene (appartenente ai caroteni) e la fucoxantina (appartenente alle xantofille) possono essere impiegati nella nutraceutica. Negli studi svolti precedentemente sull’effetto di fattori ambientali sulla composizione di questa specie, è stata presa in considerazione solo la produzione di lipidi e non è mai stato seguito contemporaneamente l’andamento di lipidi e polisaccaridi: questo progetto di tesi prevede la valutazione della possibilità di ottenere colture di P. tricornutum ad alto contenuto sia polisaccaridico sia lipidico per applicazioni industriali. Tutto il lavoro di tesi si è svolto presso l’azienda Micoperi Blue Growth (MBG), nello stabilimento di Ortona (CH) in due fasi: nella prima fase l’esperimento è stato condotto in batch su piccola scala e la crescita e la composizione di P. tricornutum sono state seguite in due diversi terreni di coltura: uno ricco in azoto, denominato N, per mezzo del quale si è voluta incrementare la crescita e la biomassa ed uno a ridotto contenuto di azoto, denominato N/3, per indurre la produzione di lipidi e polisaccaridi. Ne è stata seguita la crescita per mezzo di misure di assorbanza, peso secco, pH, conta cellulare, determinazione dei macronutrienti ed è stata analizzata la composizione biochimica con determinazione dei composti polisaccaridici totali, determinazione qualitativa dei polisaccaridi, determinazione della clorofilla a, valutazione quantitativa e qualitativa dei lipidi. E' stato notato che la condizione con un contenuto polisaccaridico e lipidico maggiore è quella con un ridotto contenuto di azoto. Con la seconda fase si è voluto verificare la riproducibilità su larga scala di quanto notato nel primo esperimento in sistemi chiusi industriali. E’stata avviata una monocoltura di Phaeodactylum tricornutum in fotobioreattore (PBR) da 70L in semicontinuo e ne è stata monitorata la crescita misurando assorbanza, peso secco, pH, quantità di macronutrienti nel terreno; la composizione biochimica è stata valutata determinando i polisaccaridi totali e la loro composizione qualitativa, le proteine totali, i lipidi totali e la composizione qualitativa. In conclusione con questo lavoro si è visto il terreno migliore per la produzione di polisaccaridi e lipidi e le tempistiche di produzione in Phaeodactylum tricornutum, e in aggiunta, abbiamo dimostrato che sia contenuti che tempistiche sono riproducubili in un sistema industriale chiuso per produrre biomassa ad alto valore commerciale.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
L’elaborato ha l’obiettivo di analizzare lo sviluppo di un nuovo prodotto destinato al mercato delle macchine utensili ad elevata produttività, dette macchine transfer. Verranno esaminate le varie fasi che consentono la definizione del nuovo prodotto e delle relative specifiche. La tesi è divisa in due parti principali: -Analisi di mercato e design strategico, la quale consiste nell’analisi dei concorrenti e del mercato al fine di comprendere quali funzioni deve avare la macchina per poter essere competitiva. -Progettazione e ingegnerizzazione di una macchina con le caratteristiche precedentemente individuate, con approfondimento sui gruppi più importanti della stessa.
Resumo:
Questo elaborato presenta una procedura di rilievo eseguito con la scansione Laser e la Fotogrammetria per lo studio della facciata della Chiesa di Santa Lucia in Bologna e le successive elaborazioni dei dati tramite software di correlazione automatica Open Source e commerciali Low Cost basati sui principi della Structure from Motion. Nel particolare, il rilievo laser è stato eseguito da 5 posizioni diverse e tramite l’utilizzo di 7 target, mentre il rilievo fotogrammetrico è stato di tipo speditivo poiché le prese sono state eseguite solo da terra ed è stato impiegato un tempo di lavoro minimo (una decina di minuti). I punti di appoggio per la georeferenziazione dei dati fotogrammetrici sono stati estratti dal datum fornito dal laser e dal set di fotogrammi a disposizione è stato ottenuta una nuvola di punti densa tramite programmi Open Source e con software commerciali. Si sono quindi potuti operare confronti tra i risultati ottenuti con la fotogrammetria e tra il dato che si aveva di riferimento, cioè il modello tridimensionale ottenuto grazie al rilievo laser. In questo modo si è potuto verificare l’accuratezza dei risultati ottenuti con la fotogrammetria ed è stato possibile determinare quale calcolo teorico approssimativo dell’errore poteva essere funzionante per questo caso di studio e casi simili. Inoltre viene mostrato come produrre un foto raddrizzamento tramite l’utilizzo di una sola foto utilizzando un programma freeware. Successivamente è stata vettorializzata la facciata della chiesa ed è stata valutata l’accuratezza di tale prodotto, sempre confrontandola con il dato di riferimento, ed infine è stato determinato quale calcolo teorico dell’errore poteva essere utilizzato in questo caso. Infine, avendo notato la diffusione nel commercio odierno della stampa di oggetti 3D, è stato proposto un procedimento per passare da una nuvola di punti tridimensionale ad un modello 3D stampato.
Resumo:
Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.
Resumo:
In questo elaborato si è focalizzata l’attenzione sulla determinazione del rischio simico e idrogeologico per una rete di distribuzione acqua. Partendo dalle caratteristiche di ogni singolo elemento si sono valutati la vulnerabilità, l’esposizione e la pericolosità per ogni condotta. In conclusione si è analizzato il rischio al fine di individuare quegli elementi maggiormente compromessi su cui concentrare l’attenzione per possibili interventi futuri.
Resumo:
“Immaginate di potervi rilassare a casa in una giornata d’estate tenendo le finestre aperte per lasciare passare la brezza ma senza essere disturbati dai rumori della città, oggi è possibile”. Quello che voglio fare attraverso questa tesi è di studiare la fattibilità per la realizzazione di una finestra che permetta il passaggio dell’aria ma non dei rumori. L’idea di questa particolare finestra silenziosa mi è stata fornita dallo studio fatto dal professor Sang-Hoon Kim del Mokpo National University maritime e dal professor Seong-Hyun Lee del Korea Institute of Machinery and Materials in Corea del Sud. Essi hanno utilizzato i metamateriali acustici per risolvere il problema dell’inquinamento sonoro in città. Queste finestre hanno il vantaggio di tenere i rumori fuori dalla nostra abitazione ma permettere il passaggio dell’aria attraverso dei fori aventi dimensioni e posizioni adeguate da garantire questo particolare fenomeno. I principi su cui si basano queste finestre sono: la diffrazione e i risonatori di Helmholtz, che analizzeremo nel dettaglio nei capitoli 1 e 2 di questa tesi. Dopo aver analizzato i due principi attraverso simulazione fatte mediante il programma COMSOL multiphysics, sono passata all’analisi della finestra vera e propria: ovvero alla realizzazione delle dimensioni adeguate dei risonatori di Helmholtz utilizzati, alle dimensioni dei rispettivi fori d’ingresso e alla combinazione di questi risonatori per ricavare la miglior finestra silenziosa, che trattenesse al suo esterno il maggior numero di dB.
Resumo:
L’obiettivo di questa tesi è di descrivere e implementare via software un modello di rover autonomo per uso in ambito agricolo. La scelta di questo argomento deriva dal fatto che al laboratorio CASY dell’Università di Bologna è stato commissionato un robot che possa aiutare piccoli imprenditori agricoli a essere competitivi con i più grandi. Le funzionalità che il robot avrà, una volta ultimato, andranno dal tagliare l’erba allo spruzzare fertilizzante sugli alberi da frutto. Questa tesi si interessa del progetto del sistema di navigazione. Inizialmente viene introdotto il modello cinematico e in particolare la configurazione differential drive in cui il rover rientra. Successivamente viene elaborato un sistema di controllo basato sulla linearizzazione statica del feedback. Una volta completati il modello e il sistema di controllo si procede con la generazione di traiettoria: vengono analizzati e confrontati alcuni algoritmi per l’inseguimento di una traiettoria definita tramite waypoint. Infine è presentato un algoritmo per la navigazione all’interno di un campo di filari di alberi da frutto. Le uniche informazioni esterne disponibili in questo contesto sono le rilevazioni di sensori di distanza frontali e laterali, in quanto un GPS sarebbe troppo impreciso per gli scopi. Questa tesi costituisce la base per ulteriori sviluppi del progetto. In particolare la realizzazione di un programma di supervisione che stabilisca la modalità di moto da attuare e programmi specifici per le varie funzionalità agricole del rover.