682 resultados para Traffic jam, transizioni di fase, optimal velocity


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo della tesi è la compilazione del glossario culinario italiano-russo che “racchiudere” termini culinari artusiani e propone una versione russa basandosi anche sulla traduzione parziale del libro in lingua russa. La tesi si divide in sette parti: introduzione, capitoli primo, secondo, terzo e quarto, conclusione e bibliografia. Il primo capitolo introduce la figura di Pellegrino Artusi con brevi cenni sulla sua vita e tratteggia, altresì, le peripezie ed il successo internazionale della sua opera ed il suo approdo in Russia. Il secondo capitolo è dedicato alla ricerca terminologica e alle fasi propedeutiche alla creazione del glossario. Inoltre, vengono spiegate le risorse usate per la creazione dei corpora. Avendo a disposizione la traduzione parziale de “La scienza in cucina e l'arte di mangiar bene” in russo (traduzione di I. Alekberova) fornita dalla Casa Artusi, si cerca di spiegare la scelta dei termini italiani messi a confronto con quelli esistenti nella traduzione russa. Il terzo capitolo introduce il glossario stesso preceduto da una breve spiegazione. Ogni “entrata” contiene il termine, la sua categoria grammaticale e la sua definizione in entrambe le lingue, seguita nella maggior parte dei casi dalle collocazioni o dagli esempi d'uso oppure dai sinonimi. Il quarto capitolo presenta commenti alla compilazione del glossario. Qui vengono analizzati i problemi riscontrati durante la fase compilativa, si presentano le soluzioni trovate e si forniscono esempi concreti. Ci sono anche commenti alle voci non presenti nel glossario. Infine, vi è una breve conclusione del percorso affrontato seguita dalla bibliografia e dalla sitografia. ENGLISH The purpose of this dissertation is to present a bilingual Italian-Russian glossary based on the culinary terms drawn from Artusi's cooking book "The Science of Cooking and the Art of Fine dining". The dissertation consists of an introduction, 4 chapters, conclusions and a list of bibliography. An introduction presents an overview of the entire dissertation. The first chapter includes a presentation of Pellegrino Artusi, brief introduction to his life, his book and the success it has had around the world and mainly in Russia. The second chapter focuses on the creation and use of comparable and parallel corpora that have been created ad hoc for the purpose of the glossary. It also describes the different programs that have been used in order to select the terminology. The third chapter presents the structure of the bilingual culinary glossary followed by the glossary itself. Each entry contains the term, its gramatical category and the definition in both languages followed by, in most but not all cases, collocation, synonyms and additional notes. The fourth chapter presents an analysis of the compilation of the glossary combined with comments and examples. This chapter is followed by final conclusions of the present dissertation. The last part contains a bibliography that includes all the resources that have been used for the completion of this dissertation followed by the webliography.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di tesi ha preso spunto da un fenomeno franoso avvenuto a Porretta Terme (provincia di Bologna), nell’autunno 2008, a causa di abbondanti precipitazioni, in tale occasione si innescò una colata rapida di detriti che invase la strada statale n. 64 e lambì la ferrovia che collega l’Emilia Romagna e la Toscana. I detriti colpirono anche un’abitazione, senza per fortuna causare perdite umane ne danni ingenti, ma l’evento riscosse numerose attenzioni da parte della popolazione locale, preoccupata che fenomeni del genere potessero ripetersi anche in altre zone e senza alcun preavviso. L’evento allertò anche la Protezione Civile regionale che da subito si interessò all’applicazione di metodi in grado di prevedere la suscettività areale da frane di questo tipo. Metodi previsionali per colate rapide sono stati sviluppati negli ultimi anni in diverse università sia in Europa sia negli Stati Uniti d’America. Lo scopo è quello di prevedere le possibili zone di innesco e individuare le soglie di precipitazione critica in modo da realizzare carte di suscettività a scopo di pianificazione territoriale e mitigazione del rischio. Il lavoro, durato diversi mesi, è passato attraverso diverse fasi. In primis si è proceduto a sopralluoghi di campo al fine di inquadrare l’area oggetto di studio dal punto di vista geologico e geomorfologico. Successivamente è stata svolta una fase di campionamento sul terreno; tramite una trivella manuale sono stati effettuati numerosi carotaggi (circa 60) sparsi sull’intero versante oggetto di studio, al fine di ricavare un dato relativo allo spessore del suolo. Inoltre sono stati raccolti dei campioni di terreno, analizzati successivamente in laboratorio al fine di ricavarne le curve granulometriche e alcuni dati caratterizzanti. Terminata la fase sul terreno, si è provveduto ad effettuare le prove di laboratorio (curve granulometriche, limiti di Attemberg, etc). Grazie ai dati raccolti, è stato possibile applicare un modello previsionale di stabilità superficiale, TRIGRS 2.0 basato sull’infiltrazione in un mezzo non saturo di una precipitazione di durata finita. Particolare attenzione è stata rivolta ai metodi per la previsione dello spessore del suolo (Z Model, S Model, Sexp Model) e alla loro influenza nella suscettività da frana superficiale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La zona della piattaforma Adriatica, visibile in sismica a sud della costa croato – montenegrina, è stata oggetto di ricerche petrolifere in passato. Nuovi dati sismici hanno permesso la visualizzazione di alcune caratteristiche che saranno esaminate ed interpretate nel presente lavoro. In particolare ci si concentrerà sulla caratterizzazione e sulla differenziazione dei margini incontrati durante il lavoro di interpretazione. In questa fase, sono emerse delle caratteristiche che hanno permesso una revisione del margine della piattaforma Adriatica e del bacino di Budva noti nella letteratura pregressa. Il problema della differenziazione dei margini della piattaforma è stato affrontato sia in chiave tettonica (influenza della subsidenza, inversione di margini ad opera di un Thrust, tettonica ialina, buckling) che in chiave paleoambientale (influenza di venti dominanti) ricoprendo un arco temporale che spazia tra il Triassico superiore ed il Miocene superiore. Grazie alle interpretazioni effettuate e al confronto con la letteratura, saranno proposte, in una seconda fase, alcune situazioni favorevoli all’accumulo di idrocarburi nella zona di studio. Verrà, infine, affrontato il confronto con casi di letteratura inerenti i margini della vicina piattaforma Apula, considerati come margini coniugati della piattaforma Adriatica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi è volta a fornire un contributo conoscitivo alla quantificazione delle interferenze idrogeologiche causate dalla nuova stazione sotterranea del nodo di penetrazione ferroviaria urbana AV di Firenze, situata nei pressi dell’attuale stazione di superficie di Santa Maria Novella, e della verifica del dimensionamento delle opere di mitigazione in progetto. La tesi è effettuata in collaborazione e con il supporto tecnico di ARPAT (Agenzia Regionale per la Protezione Ambientale della Toscana), Sede di Firenze, Direzione Tecnica – Settore VIA/VAS (Valutazione d’Impatto Ambientale/Valutazione Ambientale Strategica). ARPAT è l’organo di supporto tecnico dell’Osservatorio Ambientale costituito per l’opera. La tesi sfrutta, come dati di base, tutti quelli raccolti dai progettisti nelle varie fasi, compresa la determinazione dei parametri idraulici dell’acquifero, ed i dati del monitoraggio ambientale. Il proponente dell’opera è RFI (Rete Ferroviaria Italiana) ed è realizzata e progettata dal consorzio Nodavia (General Contractor). Per l’analisi dell’interferenza idrogeologica causata dal camerone della stazione dell’alta velocità di Firenze è stato utilizzato un duplice approccio: un modello fisico ricostruito in laboratorio; un modello numerico alla differenze finite tramite codice Modflow.. Il modello fisico di laboratorio ha cercato di ricostruire, semplificandolo, il modello concettuale del problema idrogeologico di studio: l’inserimento di una diga totalmente impermeabile, trasversalmente al flusso in un mezzo poroso, attraversata da dreni orizzontali di collegamento monte-valle idrologico. Tale configurazione, anche se non strettamente in scala, ha permesso di definire preliminarmente le condizioni al contorno del sistema ed ha guidato la successiva implementazione del modello numerico. Il modello numerico fa riferimento a condizioni stazionarie. Prima è stato implementato per simulare l’andamento della falda nelle condizioni stazionarie ante-operam (I fase); successivamente è stato utilizzato per simulare l’effetto diga del camerone (II fase) e, come terza fase, per simulare l’effetto delle opere di mitigazione dell’effetto diga rappresentate da dreni sub-orizzontali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli squali bianchi sono tra i più importanti predatori dei Pinnipedi (Klimley et al., 2001; Kock, 2002). La loro principale strategia di caccia consiste nel pattugliare le acque circostanti ad una colonia di otarie e nell’attaccarle quando queste sono in movimento, mentre si allontanano o avvicinano all’isola (Klimley et al., 2001; Kock, 2002). Tuttavia, la strategia e la dinamica della predazione osservate anche in relazione al ciclo riproduttivo della preda e le tattiche comportamentali messe in atto dalla preda per ridurre la probabilità di predazione, e quindi diminuire la sua mortalità, sono ancora poco conosciute. Con questo studio, effettuato nell’area di Seal Island all’interno della baia di Mossel Bay in Sud Africa, abbiamo cercato di definire proprio questi punti ancora poco conosciuti. Per studiare la strategia e le dinamica di predazione dello squalo bianco abbiamo utilizzato il sistema di monitoraggio acustico, in modo da poter approfondire le conoscenze sui loro movimenti e quindi sulle loro abitudini. Per dare un maggiore supporto ai dati ottenuti con la telemetria acustica abbiamo effettuato anche un monitoraggio visivo attraverso l’attrazione (chumming) e l’identificazione fotografica degli squali bianchi. Per comprendere invece i loro movimenti e le tattiche comportamentali messi in atto dalle otarie orsine del capo per ridurre la probabilità di predazione nella baia di Mossel Bay, abbiamo utilizzato il monitoraggio visivo di 24 ore, effettuato almeno una volta al mese, dalla barca nell’area di Seal Island. Anche se gli squali bianchi sono sempre presenti intorno all’isola i dati ottenuti suggeriscono che la maggior presenza di squali/h si verifica da Maggio a Settembre che coincide con l’ultima fase di svezzamento dei cuccioli delle otarie del capo, cioè quando questi iniziano a foraggiare lontano dall'isola per la prima volta; durante il sunrise (alba) durante il sunset (tramonto) quando il livello di luce ambientale è bassa e soprattutto quando la presenza delle prede in acqua è maggiore. Quindi possiamo affermare che gli squali bianchi a Seal Island prendono delle decisioni che vanno ad ottimizzare la loro probabilità di catturare una preda. I risultati preliminari del nostro studio indicano anche che il numero di gruppi di otarie in partenza dall'isola di notte sono di gran lunga maggiori di quelle che partono durante il giorno, forse questo potrebbe riflettere una diminuzione del rischio di predazione; per beneficiare di una vigilanza condivisa, le otarie tendono in media a formare gruppi di 3-5 o 6-9 individui quando si allontanano dall’isola e questo probabilmente le rende meno vulnerabili e più attente dall’essere predate. Successivamente ritornano all’isola da sole o in piccoli gruppi di 2 o 3 individui. I gruppi più piccoli probabilmente riflettono la difficoltà delle singole otarie a riunirsi in gruppi coordinati all'interno della baia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi ha come scopo principale l'analisi delle diverse tecnologie di localizzazione in ambito indoor, analizzando in particolare l'utilizzo del Wifi RSS Fingerprinting. La tecnica del Wifi RSS Fingerprinting è una tecnica per la localizzazione all'interno di ambienti chiusi, che consiste nella definizione di un 'impronta'(fingerprint) in un punto preciso dell'ambiente(definito reference point), andando a inserire in un database i valori di potenza del segnale ricevuto(RSS) da ogni access point rilevato all'interno di quel determinato reference point. Per l'implementazione di questa tecnica è stato sviluppato un applicativo con un architettura client-server. Il client è stato sviluppato in ambiente Android, realizzando una applicazione per la gestione della fase di salvataggio di nuovi fingerprint e per la fase di localizzazione della posizione corrente, tramite l'utilizzo dei vari fingerprint precedentemente inseriti all'interno del DB. Il server, sviluppato in Node.js(framework Javascript), gestirà le diverse richieste ricevute dal client tramite delle chiamate AJAX, prelevando le informazioni richieste direttamente dal database. All'interno delle applicativo sono stati implementati diversi algoritmi per la localizzazione indoor, in modo da poter verificare l'applicabilità di questo sistema in un ambito reale. Questi algoritmi sono stati in seguito testati per valutare l'accuratezza e la precisione di ciascuno, andando ad individuare gli algoritmi migliori da utilizzare in base a scenari diversi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il turismo è un prodotto legato all’esperienza dell’utente, poiché il viaggio può essere definito come la totalità delle esperienze vissute. Inoltre, al contrario dei beni tangibili, che solitamente richiedono al più una singola decisione, il turismo è un sistema di consumo nel quale gli utenti sono continuamente coinvolti nel processo decisionale. Le nuove tecnologie possono intensificare l’esperienza del turista, non solo rendendo le prenotazioni più semplici o rimpiazzando una guida cartacea con una multimediale, ma anche permettendo agli utenti di immergersi in siti remoti ed inaccessibili, oltre alla semplice esperienza multimediale. L’informazione è comunemente riconosciuta come attributo fondamentale del turismo, per questo motivo l’innovazione attraverso l’ICT ha un impatto diretto che può essere riscontrato in tutto il processo di produzione del turismo. I turisti dipendono dalle informazioni rintracciabili sulle destinazioni. Queste informazioni li aiutano a prendere decisioni riguardanti il proprio viaggio, poiché i servizi turistici in genere non possono essere “provati” prima di effettuarli in maniera vera e propria. Per questo i nuovi dispositivi mobili come smartphone e tablet sono diventati importanti piattaforme digitali che permettono l’interazione tra fornitori di servizi e turisti e tra turisti ed altri turisti. I viaggiatori cercano costantemente informazioni per ridurre il grado di incertezza e supportare il processo decisionale. Gli smartphone, che per loro natura non sono legati ad una posizione fissa, hanno un grande potenziale nell’assistere i viaggiatori nella loro fase di ricerca delle informazioni. In questa tesi si cerca di fornire una rassegna dello stato dell’arte per quel che riguarda le applicazioni mobili legate al turismo, attraverso una classificazione tassonomica divisa per servizi e funzionalità. Vengono inoltre analizzate le tecnologie abilitanti presenti nei moderni dispositivi. Nella seconda parte si analizzerà il caso di studio relativo alle app principali delle Capitali dell’UE, mettendo in relazione i dati delle affluenze turistiche ed i download.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel campo dell’industria chimica la ricerca si è mossa in direzione di rendere i processi più sostenibili. Ciò viene effettuato considerando le linee guida della green chemistry. In questo contesto si colloca la metodologia LCA che valuta l’impatto ambientale associato ad un processo o un prodotto, comprendendo tutto il suo ciclo di vita. Nel presente lavoro di tesi si studia l’applicazione della LCA alla sintesi industriale di anidride maleica (AM), che viene ottenuta tramite reazione di ossidazione del benzene o dell’n-butano. Nello studio si sono modellate tre diverse vie di sintesi dell’AM considerando il processo di produzione che parte da benzene e il processo di produzione da butano con due diversi tipi di reattore: il letto fisso e il letto fluido (processo ALMA). Negli scenari si considerano le fasi di produzione dei reagenti e si è modellata la fase della reazione di ossidazione e l’incenerimento dei sottoprodotti e del reagente non convertito. Confrontando i tre processi, emerge che al processo che parte da benzene sono associati gli impatti globali maggiori mentre il processo ALMA ha un minore carico ambientale. Il processo da benzene risulta avere maggiori impatti per le categorie Cambiamento climatico, Formazione di particolato e Consumo dei metalli. Il processo da butano a tecnologia a letto fisso presenta invece maggiori impatti per le categorie Tossicità umana e Consumo di combustibili fossili, dovuti alla maggiore richiesta energetica effettuata dal processo di ossidazione del butano con tecnologia a letto fisso e alla richiesta di combustibile ausiliario per la fase di incenerimento. Tale risultato emerge anche dall’analisi effettuata con il Cumulative Energy Demand. Al processo ALMA sono associati gli impatti inferiori in assoluto, nonostante abbia una resa inferiore al processo che utilizza il letto fisso. I risultati dell’analisi LCA sono stati confermati dall’analisi delle incertezze, realizzata con il metodo statistico Monte Carlo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel campo dell’automotive, negli ultimi anni, gli sviluppi sono stati consistenti: infatti sono state introdotte sul mercato molte novità, tra le quali vetture con propulsione elettrica o ibrida. Il controllo del motore termico durante il moto è studiato da moltissimi anni, mentre il controllo di un motore elettrico è tuttora in fase di continua ricerca e sviluppo. Infatti, con l’introduzione di tecniche vettoriali, si sono ottenuti notevoli miglioramenti a livello di qualità di utilizzo del motore elettrico stesso. In particolare, l’introduzione di un nuovo metodo di controllo che prende il nome di “controllo predittivo” cerca di ottimizzare ulteriormente la propulsione elettrica. Oggetto di studio in questa tesi è il controllo predittivo implementato per la regolazione delle correnti di statore in un motore brushless. Dopo una presentazione di carattere generale, che spazia dalle tipologie di vetture elettriche alle batterie utilizzate a bordo, passando dai vari tipi di propulsori elettrici verosimilmente utilizzabili, viene descritto, a livello teorico, il sistema utilizzato nelle simulazioni in questa tesi, prestando particolare attenzione alla macchina sincrona brushless a magneti permanenti ed al suo controllo vettoriale oltre che alla tecnica per un corretto deflussaggio. Successivamente sono descritti il controllo predittivo di corrente utilizzato nelle simulazioni, con un occhio di riguardo alla compensazione del ritardo di calcolo necessario per ottimizzare ulteriormente il controllo del motore di trazione elettrico, e la modellizzazione del veicolo elettrico ibrido in ambiente Simulink di Matlab, rimandando alle Appendici A e B per la eventuale consultazione dei codici implementati. Infine sono presentati i risultati ottenuti con vari tipi di prove per verificare se effettivamente il veicolo esegue ciò che è richiesto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto sperimentale è stato focalizzato alla valutazione qualitativa di oli extra vergini di oliva monovarietali (Nostrana di Brisighella, Ghiacciola, Don Carlo), prodotti da olive coltivate nell’areale Brisighellese analizzandoli sia per alcuni parametri chimici che per alcune caratteristiche sensoriali rilevabili in fase gustativa (attributi di amaro e piccante). Per ogni campione sono stati valutati i parametri di qualità stabiliti dal Reg. CEE n. 2568/91 e successive modifiche: acidità libera, numero di perossidi, estinzioni specifiche nell’ultravioletto, composizione in acidi grassi ed analisi sensoriale secondo il metodo del “Panel test”. Gli oli sono stati anche sottoposti alla caratterizzazione della frazione biofenolica mediante estrazione secondo metodo COI (COI/T.20/Doc. n.29) seguita da separazione cromatografica HPLC ed identificazione guidata sia da rivelatore a fotodiodi (DAD) che da spettrometro di massa (MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata (PCA) valutando sia le correlazioni esistenti tra le variabili, che la possibilità di discriminare i campioni in gruppi omogenei per caratteristiche chimiche e/o sensoriali. Più specificatamente, si è rivolta l'attenzione alle relazioni esistenti tra la concentrazione in singole molecole a struttura fenolica e l'intensità degli attributi sensoriali positivi, amaro e piccante. In ultima analisi, si è proceduto a determinare il contenuto totale in derivati fenolici dell’idrossitirosolo e tirosolo (semplici e complessi) presenti in 20 g di olio per verificare la conformità al claim salutistico approvato dall'EFSA nel 2011 “i polifenoli dell’olio di oliva contribuiscono alla protezione dei lipidi ematici dallo stress ossidativo”, che è possibile inserire in etichetta qualora il prodotto soddisfi il limite richiesto dal Reg. UE 432/2012.