494 resultados para lambda-calcolo, teoremi di separazione, risorse, espansione di Taylor


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questa tesi è analizzare il teorema del punto fisso di Brouwer, e lo faremo da più punti di vista, generalizzandolo e dando una piccola illustrazione di una sua possibile applicazione nella teoria dei giochi. Il teorema del punto fisso è uno dei teoremi prìncipi della topologia algebrica. Nella versione classica esso afferma che qualsiasi funzione continua che porta la palla unitaria di \R^{n} in se stessa possiede un punto fisso.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi Magistrale è frutto di un'attività di ricerca, che consiste nella realizzazione di un'indagine geofisica di tipo geoelettrico (ERT Electrical Resistivity Tomography). Lo scopo è quello di caratterizzare l'idrogeologia di una porzione limitata dell'acquifero freatico costiero ravennate, situato nella Pineta Ramazzotti di Lido di Dante, cercando di apportare nuove conoscenze sulle dinamiche che favoriscono l'ingressione marina (problema di forte attualità)che potrebbero contribuire a migliorare la gestione e la tutela delle risorse idriche. In questo contesto la tesi si pone come obiettivo quello di valutare l'applicabilità del metodo geoelettrico verificando se questo è in grado d'individuare efficacemente l'interfaccia acqua dolce-salata e le strutture presenti nel sottosuolo, in due tipologie di ambiente, con e senza un sistema di dune. I risultati dimostrano che dal punto di vista scientifico, il metodo geoelettrico ha verificato il principio di Ghyben-Herzberg, il quale suppone che vi sia una relazione inversa tra quota topografica e limite superiore della zona satura con acqua salata, inoltre si è riscontrata una certa stagionalità tra i profili acquisiti in momenti diversi (influenzati dalla piovosità). Mentre dal punto di vista tecnologico, il metodo, è di difficile utilizzo negli ambienti di transizione tanto ché chi si occupa professionalmente di questi rilievi preferisce non eseguirli. Questo è dovuto alla mancanza di un protocollo per le operazioni di acquisizione e a causa dell'elevato rumore di fondo che si riscontra nelle misurazioni. Con questo studio è stato possibile calibrare e sviluppare un protocollo, utilizzabile con diverse spaziature tra gli elettrodi, che è valido per l'area di studio indagata. Si è riscontrato anche che l'utilizzo congiunto delle informazioni delle prospezioni e quelle dei rilievi classici (monitoraggio della superficie freatica, parametri chimico-fisici delle acque sotterranee, rilievo topografico e sondaggi geognostici), generino un prodotto finale di semplice interpretazione e di facile comprensione per le dinamiche in atto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo sviluppo di un incendio all’interno di depositi di liquidi infiammabili costituisce uno scenario particolarmente critico a causa della rilevanza delle conseguenze che ne possono scaturire. L’incendio causato dalla formazione di grandi pozze sviluppatesi a seguito di forature dei contenitori e il rapido coinvolgimento di tutto lo stoccaggio rappresentano uno scenario di incendio tipico di queste realtà. Si ha quindi la necessità di adottare provvedimenti atti a garantire specifici obiettivi di sicurezza tramite l’introduzione di misure antincendio. La prevenzione incendi, sino al 2007, era basata esclusivamente su norme di tipo prescrittivo, in base alle quali si definivano le misure di sicurezza secondo un criterio qualitativo. Successivamente l’ingegneria antincendio si è sempre più caratterizzata da approcci basati su analisi di tipo prestazionale, in grado di dimostrare il raggiungimento dell’obiettivo di sicurezza sulla base del comportamento reale d’incendio ottenuto mediante un’accurata simulazione del fuoco che ragionevolmente può prodursi nell'attività. La modellazione degli incendi è divenuta possibile grazie allo sviluppo di codici di fluidodinamica computazionale (CFD), in grado di descrivere accuratamente l’evoluzione delle fiamme. Il presente studio si inserisce proprio nell’ambito della modellazione CFD degli incendi, eseguita mediante il software Fire Dynamics Simulator (FDS). L’obiettivo dell’elaborato è studiare l’azione dell’impianto di spegnimento a schiuma sullo sviluppo di un incendio di pozza in un deposito di liquidi infiammabili, in termini di riduzione della potenza termica rilasciata dal fuoco, al fine di determinare le temperature massime raggiunte, in corrispondenza delle quali valutare il comportamento di resistenza strutturale degli edifici. Il presente lavoro è articolato in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, vengono richiamati nel Capitolo 2 i principali concetti della chimica e fisica degli incendi. Nel Capitolo 3 vengono esaminate le normative intese ad unificare l’approccio ingegneristico alla sicurezza antincendio. Il Capitolo 4 fornisce una dettagliata descrizione del software di calcolo, FDS - Fire Dynamics Simulator, adoperato per la modellazione dell’incendio. Nel Capitolo 5 si procede alla progettazione prestazionale che conduce alla determinazione della curva naturale d'incendio in presenza degli impianti di spegnimento automatici. Infine nel Capitolo 6 si riportano le considerazioni conclusive.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel campo dell’automotive, negli ultimi anni, gli sviluppi sono stati consistenti: infatti sono state introdotte sul mercato molte novità, tra le quali vetture con propulsione elettrica o ibrida. Il controllo del motore termico durante il moto è studiato da moltissimi anni, mentre il controllo di un motore elettrico è tuttora in fase di continua ricerca e sviluppo. Infatti, con l’introduzione di tecniche vettoriali, si sono ottenuti notevoli miglioramenti a livello di qualità di utilizzo del motore elettrico stesso. In particolare, l’introduzione di un nuovo metodo di controllo che prende il nome di “controllo predittivo” cerca di ottimizzare ulteriormente la propulsione elettrica. Oggetto di studio in questa tesi è il controllo predittivo implementato per la regolazione delle correnti di statore in un motore brushless. Dopo una presentazione di carattere generale, che spazia dalle tipologie di vetture elettriche alle batterie utilizzate a bordo, passando dai vari tipi di propulsori elettrici verosimilmente utilizzabili, viene descritto, a livello teorico, il sistema utilizzato nelle simulazioni in questa tesi, prestando particolare attenzione alla macchina sincrona brushless a magneti permanenti ed al suo controllo vettoriale oltre che alla tecnica per un corretto deflussaggio. Successivamente sono descritti il controllo predittivo di corrente utilizzato nelle simulazioni, con un occhio di riguardo alla compensazione del ritardo di calcolo necessario per ottimizzare ulteriormente il controllo del motore di trazione elettrico, e la modellizzazione del veicolo elettrico ibrido in ambiente Simulink di Matlab, rimandando alle Appendici A e B per la eventuale consultazione dei codici implementati. Infine sono presentati i risultati ottenuti con vari tipi di prove per verificare se effettivamente il veicolo esegue ciò che è richiesto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il progetto sperimentale è stato focalizzato alla valutazione qualitativa di oli extra vergini di oliva monovarietali (Nostrana di Brisighella, Ghiacciola, Don Carlo), prodotti da olive coltivate nell’areale Brisighellese analizzandoli sia per alcuni parametri chimici che per alcune caratteristiche sensoriali rilevabili in fase gustativa (attributi di amaro e piccante). Per ogni campione sono stati valutati i parametri di qualità stabiliti dal Reg. CEE n. 2568/91 e successive modifiche: acidità libera, numero di perossidi, estinzioni specifiche nell’ultravioletto, composizione in acidi grassi ed analisi sensoriale secondo il metodo del “Panel test”. Gli oli sono stati anche sottoposti alla caratterizzazione della frazione biofenolica mediante estrazione secondo metodo COI (COI/T.20/Doc. n.29) seguita da separazione cromatografica HPLC ed identificazione guidata sia da rivelatore a fotodiodi (DAD) che da spettrometro di massa (MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata (PCA) valutando sia le correlazioni esistenti tra le variabili, che la possibilità di discriminare i campioni in gruppi omogenei per caratteristiche chimiche e/o sensoriali. Più specificatamente, si è rivolta l'attenzione alle relazioni esistenti tra la concentrazione in singole molecole a struttura fenolica e l'intensità degli attributi sensoriali positivi, amaro e piccante. In ultima analisi, si è proceduto a determinare il contenuto totale in derivati fenolici dell’idrossitirosolo e tirosolo (semplici e complessi) presenti in 20 g di olio per verificare la conformità al claim salutistico approvato dall'EFSA nel 2011 “i polifenoli dell’olio di oliva contribuiscono alla protezione dei lipidi ematici dallo stress ossidativo”, che è possibile inserire in etichetta qualora il prodotto soddisfi il limite richiesto dal Reg. UE 432/2012.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Analisi dei costi di esercizio dell'impianto Romagna Compost di Cesena e ottimizzazione della logistica dei trasporti in uscita. Calcolo dell'incidenza della qualità della materia prima in ingresso sui costi di smaltimento.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente elaborato è stato approfondito e sviluppato presso lo stabilimento della Blackshape Aircraft S.p.A. sito in Monopoli (Bari). L’obiettivo è stato principalmente orientato sull’individuazione di un metodo di progettazione di giunzioni incollate fra laminati in CFRP basato su di un modello matematico in grado di prevederne la resistenza. Per realizzare tale studio sono stati necessari approfondimenti preliminari relativi al comportamento meccanico dei laminati in materiale composito e agli studi condotti da Hart-Smith sulla teoria degli incollaggi. E’ stato determinato un metodo analitico per il calcolo della lunghezza di sovrapposizione degli aderenti. Il criterio di resistenza del giunto individuato, basato sulla teoria del cedimento multiassiale di Von Mises, è stato approvato dalla Agenzia Europea per la Sicurezza Aerea, EASA. A livello numerico-pratico è stato preso in esempio il giunto fra i gusci di fusoliera relativi al nuovo velivolo Blackshape con certificazione VLA (Very Light Aircraft).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il materiale composito è entrato nell’ambiente industriale rivoluzionando il concetto di progettazione delle strutture e permettendo il raggiungimento di prestazioni molto più elevate, rispetto ai materiali tradizionali. Infatti, i compositi sono in grado di garantire elevata resistenza e leggerezza, proprietà molto richieste in svariati ambiti industriali. Un suo notevole impiego è riscontrabile nell’industria aeronautica, dove le principali case produttrici di aeromobili hanno investito un apprezzabile quantitativo di risorse economiche nella realizzazione di velivoli con una sempre maggiore percentuale di questo materiale. Il composito, nonostante ci siano testimonianze del suo utilizzo già durante la seconda guerra mondiale, viene tutt’ora ritenuto “nuovo”; questo poiché molte delle sue caratteristiche non sono state ancora esaurientemente analizzate. Le conoscenze ad esso relative presentano ancora, infatti delle lacune, come il loro comportamento a seguito di un impatto. L’obiettivo della presente tesi è quello di indagare, attraverso una campagna sperimentale innovativa, il comportamento del CFRP di fronte a tale problematica, prestando particolare attenzione alla casistica dell’impatto sul bordo. Su tale argomento infatti, non si hanno esempi in letteratura né normative a cui fare riferimento. I campioni, impiegati nel presente studio, sono stati realizzati scegliendo una configurazione cross-ply, che ben si adatta alle successive fasi della campagna. Sui provini ottenuti sono stati eseguiti gli impatti, con l’utilizzo di un pendolo di Charpy, alcuni centrali e altri laterali, con due differenti energie. Questa prima parte della campagna sperimentale è stata svolta presso i laboratori hangar di Forlì, della Scuola di Ingegneria e Architettura dell’Università di Bologna. La caratterizzazione del materiale è avvenuta mediante prove a compressione. Il processo è stato eseguito per verificare l’influenza che l’impatto genera sulle proprietà meccaniche a compressione. Per poter eseguire una campagna di test ottimale, si è vista necessaria un’attenta analisi delle varie attrezzature utilizzabili per le prove a compressione. La scelta è ricaduta sull’attrezzatura CLC (Combined Loading Compression), la quale è risultata essere la più affidabile e maneggevole per le prove oggetto di studio. La fase relativa allo svolgimento delle prove a compressione è stata eseguita presso i laboratori ENEA di Faenza –Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La struttura di gruppo è una delle strutture algebriche più semplici e importanti della matematica. Un gruppo si può descrivere in vari modi: uno dei più interessanti è la presentazione per generatori e relazioni. Sostanzialmente presentare un gruppo per generatori e relazioni significa dire quali specifiche ”regole di calcolo” e semplificazione valgono nel gruppo in considerazione oltre a quelle che derivano dagli assiomi di gruppo. Questo porta in particolare alla definizione di gruppo libero. Un gruppo libero non ha regole di calcolo oltre quelle derivanti dagli assiomi di gruppo. Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. In questa tesi si ricordano le definizioni più importanti ed elementari della teoria dei gruppi e si passa in seguito a discutere il gruppo libero e le presentazioni di gruppi con generatori e relazioni, dando alcuni esempi. La tesi si conclude illustrando l’algoritmo di Coxeter e Todd, per enumerare le classi laterali di un sottogruppo quando si ha un gruppo presentato per generatori e relazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi si propone di esaminare i processi di contaminazione del suolo e delle acque sotterranee conseguenti ad un fenomeno di “oil spill”: con tale termine si vuole intendere un fenomeno di rilascio accidentale di sostanze chimiche, come il benzene, dovuto al danneggiamento di lunghe condotte onshore realizzate per trasferire, tali sostanze, anche per distanze di centinaia di chilometri. Sebbene le basse frequenze incidentali confermino che il trasporto in condotta rappresenta la modalità di movimentazione via terra più sicura per fluidi chimici, bisogna tuttavia tener presente che i quantitativi di sostanze che possono essere rilasciate da questi impianti sono molto elevati.In questo lavoro, si è partiti con l’esaminare un caso studio riportato in letteratura, relativo alla valutazione quantitativa del rischio ambientale legato a fenomeni di oil spill da condotte onshore [Bonvicini et al., 2014]. Si è considerato, in particolare, un singolo tratto di una lunga condotta industriale, in corrispondenza del quale si è ipotizzato il verificarsi di una rottura, con conseguente rilascio di contaminante nel sottosuolo. L’impianto in questione è finalizzato al trasporto di benzene (LNAPL), idrocarburo aromatico cancerogeno, fortemente pericoloso per l’ambiente e per l’uomo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.