126 resultados para Robusti, Giacomo.
Resumo:
L’anemometro a filo caldo (in inglese hot wire) é lo strumento maggiormente usato per studiare sperimentalmente la turbolenza. A seconda di quante componenti della velocitá interessa studiare, esistono anemometri a uno, due o tre fili. Questo elaborato di tesi si concentra su sonde a due fili. Per prima cosa, ogni volta che si utilizza questo strumento bisogna effettuare una calibrazione, fase molto importante perché permette di relazionare le tensioni che ogni filo acquisisce con la velocitá reale del flusso. Sono presentati tre differenti metodi utilizzati per sonde a due fili e, dopo averli analizzati, sono stati applicati a dati acquisiti prima al CAT (Coaxial Aerodinamic Tunnel), struttura presente a Forlí, nell’hangar dell’Universitá di Bologna e poi al CICLoPE (Center for International Cooperation in Long Pipe Experiments), Long-Pipe costruito a Predappio, utilizzato per lo studio della turbolenza. La calibrazione per sonde a due fili si puó dividere in due parti, quella di velocitá e quella per gli angoli. Mentre al CAT é possibile effettuarle entrambi, al CICLoPE non é attualmente possibile eseguire la calibrazione angolare perché non esiste alcuno strumento utilizzabile per regolare la sonda all’angolo desiderato. Lo scopo di questo elaborato di tesi è trovare un metodo di calibrazione per sonde a due fili applicabile al CICLoPE eseguendo sul posto solamente una calibrazione di velocitá e adattando quella angolare effettuata precedentemente al CAT. Questo puó provocare dei problemi perché la calibrazione risulta fortemente dipendente da condizioni interne dei fili, come la resistenza, ma anche da condizioni al contorno, come la temperatura e la pressione dell’ambiente esterno. Dopo aver eseguito due campagne sperimentali di test, una al CAT e una al CICLoPE, i dati acquisiti sono stati elaborati per valutare l’efficacia dei vari metodi.
Resumo:
In questa tesi si studiano le geodetiche sulle superfici dello spazio euclideo tridimensionale. Tali curve, che godono di proprietà analoghe a quelle delle rette nel piano, vengono definite come quelle particolari curve sulle superfici il cui campo dei vettori tangenti e' parallelo, cioè ha derivata covariante nulla. Sulle superfici di rotazione le geodetiche sono tutti i meridiani, i paralleli aventi vettori tangenti paralleli all'asse di rotazione e tutte le curve soddisfacenti la condizione di Clairaut. Dopo aver studiato le geodetiche su alcune superfici significative si introduce la nozione di mappa esponenziale che permetterà di dimostrare le proprietà di minimo locale delle geodetiche.
Resumo:
Poly(lactide) is one of the best candidate to replace conventional petroleum-based polymers, since it is biobased, biocompatible and biodegradable. However, commercial PLA materials typically have low crystallization rate resulting in long processing time and low production efficiency. In this work the effects of two nanofillers MMT30B and MMT30B-g-P(LA-co-CL) on the crystallization rate of neat PLA and PLA/PCL blend were investigated. MMT30B-g-P(LA-co-CL) was synthetized by in situ grafting reaction. The synthesis was carried in xylene at 140°C, upon the results of a screening. The grafted copolymers were evaluated by 1H-NMR ,ATR–IR and TGA. Solvent casted films were obtained by mixing MMT30B-g-P(LA-co-CL) at 5% (w/w) with neat PLA and PLA/PCL blend, comparing the properties with the corresponding blends with and without a 5% of (w/w) unmodified clay. SEM images on PLA based blends shows that MMT30B is aggregated into larger particles compared to MMT30B-g-P(LLA-co-CL). This behavior is correlated to the better exfoliation of MMT30B-g-P(LA-co-CL) clay layers. SEM images on PLA/PCL based blends exhibit the typical sea-island morphology, characteristic of immiscible blends. PLA is the matrix while PCL is finely dispersed in droplets. MMT30B does not reduce PCL droplets size, while MMT30B-g-P(LA-co-CL) reduces the size of PCL droplets. This means that MMT30B-g-P(LA-co-CL) can migrate to the PLA-PCL interface, acting as a compatibilizer. Non-isothermal DSC cooling scans show a fractionated crystallization of the PCL phase in PLA/PCL/MMT30B-g-P(LA-co-CL), confirming the compatibilizer effect of MMT30B-g-P(LA-co-CL). At the same timeMMT30B-g-P(LA-co-CL) can better nucleate the PLA phase, both in neat PLA and PLA/PCL blend, promoting the crystallization during the heating scans. In isothermal condition, both the nanofillers increase the crystallization rate of PLA phase in neat PLA, while in PLA/PCL blends the effect is covered by the nucleating effect of PCL.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
Negli ultimi anni, la popolazione è stata esposta a vari tipi di campi elettromagnetici generati da strumentazioni elettroniche e dispositivi di telecomunicazione. In questa tesi, si valutano SAR ed effetti termici prodotti da tre antenne patch a radiofrequenza sia su Cheratinociti (cellule dell'epidermide) in vitro che sull'epidermide umana in vivo caratterizzata in un modello multistrato contenente tessuti biologici. Le antenne progettate hanno frequenze di risonanza di 1.8 e 2.4 GHz, tipiche delle bande utilizzate rispettivamente da LTE (Long Term Evolution, la più recente evoluzione degli standard di telefonia mobile cellulare) e dalle moderne tecnologie Wi-Fi, e di 60 GHz, propria delle cosiddette onde millimetriche. Vengono valutati quindi il SAR (Specific Absorption Rate, grandezza che fornisce una misura dell'assorbimento delle onde da parte dei tessuti biologici) e le variazioni di temperatura prodotte dall'applicazione del campo elettromagnetico: ciò viene realizzato attraverso l'equazione del calore stazionaria e, nel caso dell'epidermide in vivo, con la Bioheat Equation, che contempla anche la circolazione sanguigna ed il calore generato nei processi metabolici che avvengono nell'organismo.
Resumo:
Global climate change in recent decades has strongly influenced the Arctic generating pronounced warming accompanied by significant reduction of sea ice in seasonally ice-covered seas and a dramatic increase of open water regions exposed to wind [Stephenson et al., 2011]. By strongly scattering the wave energy, thick multiyear ice prevents swell from penetrating deeply into the Arctic pack ice. However, with the recent changes affecting Arctic sea ice, waves gain more energy from the extended fetch and can therefore penetrate further into the pack ice. Arctic sea ice also appears weaker during melt season, extending the transition zone between thick multi-year ice and the open ocean. This region is called the Marginal Ice Zone (MIZ). In the Arctic, the MIZ is mainly encountered in the marginal seas, such as the Nordic Seas, the Barents Sea, the Beaufort Sea and the Labrador Sea. Formed by numerous blocks of sea ice of various diameters (floes) the MIZ, under certain conditions, allows maritime transportation stimulating dreams of industrial and touristic exploitation of these regions and possibly allowing, in the next future, a maritime connection between the Atlantic and the Pacific. With the increasing human presence in the Arctic, waves pose security and safety issues. As marginal seas are targeted for oil and gas exploitation, understanding and predicting ocean waves and their effects on sea ice become crucial for structure design and for real time safety of operations. The juxtaposition of waves and sea ice represents a risk for personnel and equipment deployed on ice, and may complicate critical operations such as platform evacuations. The risk is difficult to evaluate because there are no long-term observations of waves in ice, swell events are difficult to predict from local conditions, ice breakup can occur on very short time-scales and wave-ice interactions are beyond the scope of current forecasting models [Liu and Mollo-Christensen, 1988,Marko, 2003]. In this thesis, a newly developed Waves in Ice Model (WIM) [Williams et al., 2013a,Williams et al., 2013b] and its related Ocean and Sea Ice model (OSIM) will be used to study the MIZ and the improvements of wave modeling in ice infested waters. The following work has been conducted in collaboration with the Nansen Environmental and Remote Sensing Center and within the SWARP project which aims to extend operational services supporting human activity in the Arctic by including forecast of waves in ice-covered seas, forecast of sea-ice in the presence of waves and remote sensing of both waves and sea ice conditions. The WIM will be included in the downstream forecasting services provided by Copernicus marine environment monitoring service.
Resumo:
Questo studio è mirato ad analizzare ed ottimizzare il consumo dei reagenti solidi impiegati da uno stabilimento di termovalorizzazione di rifiuti solidi urbani e speciali (Silea S.p.A, presso Valmadrera (LC)), per abbattere le correnti acide trattate nelle due linee fumi multistadio. Dopo aver scelto quale delle due linee prendere come riferimento, per poi riportare i risultati ottenuti anche sull’altra con opportune correzioni, il lavoro è stato condotto in diverse fasi, e affiancato da un costante confronto diretto con gli ingegneri e i tecnici dello stabilimento. Una volta preso atto delle normali condizioni di funzionamento dell’impianto, si è proceduto all’esecuzione di test, mirati a quantificare l’efficienza di rimozione dell’acido cloridrico, da parte del bicarbonato di sodio e dell’innovativo sorbente dolomitico, brevettato sotto il nome: Depurcal® MG. I test sono stati suddivisi in giornate differenti in base al tipo di reattivo da analizzare (e quindi lo stadio) e programmati in modo che permettessero di correlare la conversione dell’HCl alla portata di reagente solido introdotto. Una volta raccolti i dati, essi sono stati elaborati e filtrati in base a criteri oggettivi, per poi essere analizzati con senso critico, fornendo un quadro completo sulla reale potenzialità dell’impianto. Attraverso l’utilizzo di un opportuno modello è stato possibile caratterizzarlo e individuare la migliore condizione economico-operativa per ognuno dei possibili scenari individuati.
Resumo:
Gestione calDAV e cardDAV per sincronizzazione rubrica e calendario
Resumo:
Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
L’obiettivo del progetto di tesi svolto è quello di realizzare un servizio di livello middleware dedicato ai dispositivi mobili che sia in grado di fornire il supporto per l’offloading di codice verso una infrastruttura cloud. In particolare il progetto si concentra sulla migrazione di codice verso macchine virtuali dedicate al singolo utente. Il sistema operativo delle VMs è lo stesso utilizzato dal device mobile. Come i precedenti lavori sul computation offloading, il progetto di tesi deve garantire migliori performance in termini di tempo di esecuzione e utilizzo della batteria del dispositivo. In particolare l’obiettivo più ampio è quello di adattare il principio di computation offloading a un contesto di sistemi distribuiti mobili, migliorando non solo le performance del singolo device, ma l’esecuzione stessa dell’applicazione distribuita. Questo viene fatto tramite una gestione dinamica delle decisioni di offloading basata, non solo, sullo stato del device, ma anche sulla volontà e/o sullo stato degli altri utenti appartenenti allo stesso gruppo. Per esempio, un primo utente potrebbe influenzare le decisioni degli altri membri del gruppo specificando una determinata richiesta, come alta qualità delle informazioni, risposta rapida o basata su altre informazioni di alto livello. Il sistema fornisce ai programmatori un semplice strumento di definizione per poter creare nuove policy personalizzate e, quindi, specificare nuove regole di offloading. Per rendere il progetto accessibile ad un più ampio numero di sviluppatori gli strumenti forniti sono semplici e non richiedono specifiche conoscenze sulla tecnologia. Il sistema è stato poi testato per verificare le sue performance in termini di mecchanismi di offloading semplici. Successivamente, esso è stato anche sottoposto a dei test per verificare che la selezione di differenti policy, definite dal programmatore, portasse realmente a una ottimizzazione del parametro designato.
Resumo:
La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.
Resumo:
La seguente tesi ha come scopo la progettazione e la realizzazione di un sistema intelligente per la gestione e il monitoraggio dell'acqua in impianti facenti uso di docce attraverso 'l'Internet Of Things', con l'obiettivo di ridurre gli sprechi favorendo cosi un risparmio sia di tipo energetico sia di tipo idrico. Stabiliti i requisiti si passa alla fase di progettazione dove vengono analizzate tutte le funzionalità che il sistema deve soddisfare. Segue la fase di implementazione, il cui scopo e realizzare concretamente le funzionalità producendo un prototipo iniziale. Quest'ultimo sara sottoposto ad eventuali test per verificare il corretto funzionamento del sistema e delle singole parti che lo costituiscono.